JP7688335B2 - コミュニケーション支援システム、情報処理装置、コミュニケーション支援方法、及びプログラム - Google Patents

コミュニケーション支援システム、情報処理装置、コミュニケーション支援方法、及びプログラム Download PDF

Info

Publication number
JP7688335B2
JP7688335B2 JP2023545635A JP2023545635A JP7688335B2 JP 7688335 B2 JP7688335 B2 JP 7688335B2 JP 2023545635 A JP2023545635 A JP 2023545635A JP 2023545635 A JP2023545635 A JP 2023545635A JP 7688335 B2 JP7688335 B2 JP 7688335B2
Authority
JP
Japan
Prior art keywords
communication
participant
speech
support system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023545635A
Other languages
English (en)
Other versions
JPWO2023033033A5 (ja
JPWO2023033033A1 (ja
Inventor
和彦 鴻上
晃大 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Kyoto Sangyo University
Original Assignee
Ricoh Co Ltd
Kyoto Sangyo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd, Kyoto Sangyo University filed Critical Ricoh Co Ltd
Publication of JPWO2023033033A1 publication Critical patent/JPWO2023033033A1/ja
Publication of JPWO2023033033A5 publication Critical patent/JPWO2023033033A5/ja
Application granted granted Critical
Publication of JP7688335B2 publication Critical patent/JP7688335B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/72Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for transmitting results of analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、コミュニケーション支援システム、情報処理装置、コミュニケーション支援方法、及びプログラムに関する。
複数の端末装置の間で、画像及び音声等のコンテンツデータを送受信する会議システムが普及している。
また、商談中に商談相手の画像又は音声等に基づいて商談相手の商談時の状態を特定し、特定した商談相手の状態に基づいて、商談戦略を出力する会議システムが知られている(例えば、特許文献1参照)。
特許文献1に開示された技術により、商談の相手に適した商談の進行が容易になるように商談を支援することができる。しかし、この方法では、商談担当者の情報、及び商談相手の情報(教師データ)を予めシステムに登録しておかなくてはならないという問題がある。
なお、このような問題は、商談を行う会議システムに限られず、例えば、遠隔医療、カウンセリング、遠隔授業、又は就学相談等のコミュニケーションを行う様々なコミュニケーションシステムに共通に存在する。
このように、従来のコミュニケーションシステムでは、コミュニケーションに参加する参加者の情報、及び他の参加者の情報によらずに、コミュニケーションを支援することができないという問題がある。
本発明の一実施形態は、上記の問題点に鑑みてなされたものであって、コミュニケーションに参加する参加者の情報、及び他の参加者の情報を予め登録しなくても、コミュニケーションを支援できるコミュニケーション支援システムを提供する。
上記の課題を解決するため、本発明の一実施形態に係るコミュニケーション支援システムは、コミュニケーションに参加する参加者が発話する音声と前記コミュニケーションに参加する他の参加者が発話する音声とを取得する取得部と、前記参加者の発話時間と前記他の参加者の発話時間とに基づいて、前記コミュニケーションの状況を可視化する可視化部と、を備え、前記可視化部は、前記可視化部が出力する前記コミュニケーションを可視化する複数の情報と、予め記憶部に記憶されている、過去に行われて良い結果が得られた良いコミュニケーションの指標データおよび過去に行われて悪い結果が得られた悪いコミュニケーションの指標データとの相関に基づいて、前記コミュニケーションを評価する情報をさらに出力する。
本発明の一実施形態によれば、コミュニケーションに参加する参加者の情報、及び他の参加者の情報を予め登録しなくても、コミュニケーションを支援できるコミュニケーション支援システムを提供することができる。
一実施形態に係るコミュニケーション支援システムのシステム構成の例を示す図である。 一実施形態に係るコミュニケーション支援方法の概要について説明するための図である。 一実施形態に係るコンピュータのハードウェア構成の例を示す図である。 一実施形態に係る端末装置のハードウェア構成の一例を示す図である。 一実施形態に係る端末装置のハードウェア構成の別の一例を示す図である。 一実施形態に係る端末装置の機能構成の例を示す図である。 一実施形態に係るコミュニケーション支援システムの機能構成の例を示す図である。 一実施形態に係るコミュニケーション支援処理の例を示すフローチャートである。 第1の実施形態に係る可視化処理の例を示すフローチャート(1)である。 第1の実施形態に係る可視化処理の例を示すフローチャート(2)である。 第2の実施形態に係る可視化処理の例を示すフローチャートである。 第2の実施形態に係る指標データの相関係数の算出について説明するための図である。 第2の実施形態に係る表示画面の例を示す図である。 第3の実施形態に係る可視化処理の例を示すフローチャートである。 第3の実施形態に係る可視化処理について説明するための図である。 一実施形態に係る応用例について説明するための図である。 第4の実施形態に係るコミュニケーション支援処理の例を示すフローチャートである。 第4の実施形態に係る抽出データの例を示す図である。 第4の実施形態に係る表示画面の例を示す図(1)である。 第4の実施形態に係るコミュニケーション支援処理の応用例を示すフローチャートである。 第4の実施形態に係る表示画面の例を示す図(2)である。 第5の実施形態に係る可視化処理の例を示すフローチャートである。 第5の実施形態に係る可視化処理について説明するための図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
<システム構成>
図1は、一実施形態に係る通信システムのシステム構成の例を示す図である。コミュニケーション支援システム1は、一例として、インターネット、又はLAN(Local Area network)等の通信ネットワーク11に接続する会議サーバ10、及び複数の端末装置100a、100b、100c、100d、・・・を含む。なお、以下の説明において、複数の端末装置100a、100b、100c、100d、・・・のうち、任意の端末装置を示す場合、「端末装置100」を用いる。また、図1に示した複数の端末装置100の数は一例であり、複数の端末装置100の数は、2つ以上の他の数であっても良い。
コミュニケーション支援システム1は、端末装置100と、1つ以上の他の端末装置100との間で、音声と画像とを送受信する、例えば、商談、会議、診療、授業、又はカウンセリング等の様々なコミュニケーションを支援するシステムである。ここでは、一例として、コミュニケーション支援システム1が支援するコミュニケーションが、端末装置100のユーザと、他の端末装置100のユーザとの間で商談を行うウェブ会議であるものとして、以下の説明を行う。
端末装置(情報処理装置)100は、ウェブ会議に参加するユーザが利用する、例えば、PC(Personal Computer)、タブレット端末、又はスマートフォン等の汎用の情報端末、或いは、ビデオ会議端末、電子黒板等の通信機能を有する電子機器である。なお、電子黒板は、相互通信が可能な電子式の黒板機能を有する白板であり、IWB(Interactive White Board)とも呼ばれる。ここでは、一例として、端末装置100が、汎用の情報端末であるものとして、以下の説明を行う。
ウェブ会議に参加する参加者は、例えば、端末装置100にインストールされたウェブ会議用のアプリケーション、又はウェブブラウザ等を利用して、会議サーバ10が提供する会議用のアドレスにアクセスすることにより、会議に参加する。
ここで、会議サーバ10は、一般的なウェブ会議を提供するサーバ装置(又はクラウドサービス等)であっても良いし、後述するように、コミュニケーションの支援機能を有する専用のサーバ(又はクラウドサービス等)であっても良い。
また、参加者は、例えば、コミュニケーション支援システム1用のアプリケーションプログラム(以下、支援アプリと呼ぶ)を起動することにより、例えば、図2に示すように、ウェブ会議の表示画面210の周辺に支援アプリの表示画面210を表示することができる。
図2の例では、支援アプリは、表示画面210に、ウェブ会議(商談)を可視化する指標220として、主導権221、優位性222、切実感223等を表示する。主導権221は、会議において、端末装置100を利用する参加者と、他の端末装置100を利用する他の参加者の主導権の比率(割合)を、参加者の主導権を表すバー221aと、他の参加者の主導権を表すバー221bとにより表している。同様に、優位性222は、参加者と他の参加者の優位性の比率を表しており、切実感は、参加者と他の参加者の切実感の比率を表している。なお、ウェブ会議を可視化する指標220に含まれる3つの指標「主導権」、「優位性」、及び「切実感」の算出方法については後述する。
好適な一例として、支援アプリは、例えば、目標とする主導権の比率を表す表示要素221cを、さらに表示しても良い。これにより、図2の例では、参加者は、目標とする主導権の比率に近づけるために、例えば、他の参加者に、発言を促す等の対応ができるようになる。なお、支援アプリは、優位性222、及び切実感223についても、同様にして、目標とする比率を表す表示要素を表示しても良い。
また、別の好適な一例として、支援アプリは、主導権221、優位性222、及び切実感223等を目標とする比率に近づけるためのメッセージ等を表示するコミュニケーションガイド230を、表示画面210に表示しても良い。これにより、例えば、図2に示すように、「お客様の会社の状況を聞いてみましょう」というメッセージに従って、参加者が発言することにより、他の参加者が主導権を握る比率が高まり、主導権221比率を、目標とする比率に近づけることができる。なお、コミュニケーションガイドは、コミュニケーションの進め方を示す情報の一例である。
なお、図2に示した表示画面210は、コミュニケーションを可視化する表示画面の一例である。具体的な会議の可視化方法については、複数の実施形態を例示して後述する。
また、上述したコミュニケーション支援システム1のシステム構成は一例であり、コミュニケーション支援システム1は、様々なシステム構成が可能である。例えば、図2で説明した表示画面210は、端末装置100が実行する支援アプリに代えて、会議サーバ10が提供しても良い。この場合、参加者は、端末装置100のウェブブラウザ等を用いて、会議サーバ10にアクセスすることにより、図2に示すような表示画面210を端末装置100に表示する。
また、コミュニケーション支援システム1は、端末装置100が、会議サーバ10を介さずに、他の端末装置100とウェブ会議(面談)を行う構成であっても良い。さらに、コミュニケーション支援システム1が支援するコミュニケーションは、例えば、商談、会議、診療、授業、又はカウンセリング等の様々なコミュニケーションであって良い。
また、端末装置100は、例えば、ビデオ会議装置、又は電子黒板等の専用の電子機器であっても良い。この場合、端末装置100は、端末装置に100に組み込まれた所定のプログラムを実行することにより、図2に示すような表示画面210を表示しても良い。或いは、端末装置100は、情報端末と同様に、外部から取得した支援アプリを実行可能なものであっても良い。
<ハードウェア構成>
(コンピュータのハードウェア構成)
端末装置100は、例えば、図3に示すようなコンピュータ300のハードウェア構成を有していても良い。また、会議サーバ10は、例えば、1つ以上のコンピュータ300によって実現される。
図3は、一実施形態に係るコンピュータのハードウェア構成の例を示す図である。コンピュータ300は、例えば、図3に示されるように、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、HD(Hard Disk)304、HDD(Hard Disk Drive)コントローラ305、ディスプレイ306、外部機器接続I/F(Interface)307、ネットワークI/F308、キーボード309、ポインティングデバイス310、DVD-RW(Digital Versatile Disk Rewritable)ドライブ312、メディアI/F314、及びバスライン315等を備えている。
また、コンピュータ300が端末装置100である場合、コンピュータ300は、マイク321、スピーカ322,音入出力I/F323、CMOS(Complementary Metal Oxide Semiconductor)センサ324、及び撮像素子I/F325等を、さらに備える。
これらのうち、CPU301は、コンピュータ300全体の動作を制御する。ROM302は、例えば、IPL(Initial Program Loader)等のコンピュータ300の起動に用いられるプログラムを記憶する。RAM303は、例えば、CPU301のワークエリア等として使用される。HD304は、例えば、OS(Operating System)、アプリケーション、デバイスドライバ等のプログラムや、各種データを記憶する。HDDコントローラ305は、例えば、CPU301の制御に従ってHD304に対する各種データの読み出し又は書き込みを制御する。
ディスプレイ306は、例えば、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。なお、ディスプレイ306は、コンピュータ300の外部に設けられていても良い。外部機器接続I/F307は、コンピュータ300に、様々な外部装置を接続するためのインタフェースである。1つ以上のネットワークI/F308は、コンピュータ300を通信ネットワーク11に接続して、他の装置と通信するためのインタフェースである。
キーボード309は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス310は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行なう入力手段の一種である。なお、キーボード309、及びポインティングデバイス310は、コンピュータ300の外部に設けられていても良い。
DVD-RWドライブ312は、着脱可能な記録媒体の一例としてのDVD-RW311に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RW311は、DVD-RWに限らず、他の記録媒体であっても良い。メディアI/F314は、フラッシュメモリ等のメディア313に対するデータの読み出し又は書き込み(記憶)を制御する。バスライン315は、上記の各構成要素を電気的に接続するためのアドレスバス、データバス及び各種の制御信号等を含む。
マイク321は、音を電気信号に変える内蔵型の回路である。スピーカ322は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F323は、CPU301の制御に従ってマイク321及びスピーカ322との間で音信号の入出力を処理する回路である。
CMOSセンサ324は、CPU301の制御に従って被写体(例えば自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、端末装置100は、CMOSセンサ324に代えて、CCD(Charge Coupled Device)センサ等の撮像手段を有していても良い。撮像素子I/F325は、CMOSセンサ324の駆動を制御する回路である。
(端末装置のハードウェア構成の一例)
ここでは、端末装置100が、スマートフォン、又はタブレット端末等の情報端末である場合における端末装置100のハードウェア構成の例について説明する。
図4は、一実施形態に係る端末装置のハードウェア構成の例を示す図である。図4の例では、端末装置100は、CPU401、ROM402、RAM403、ストレージデバイス404、CMOSセンサ405、撮像素子I/F406、加速度・方位センサ407、メディアI/F409、GPS(Global Positioning System)受信部410を備えている。
これらのうち、CPU401は、所定のプログラムを実行することにより端末装置100全体の動作を制御する。ROM402は、例えば、IPL等のCPU401の起動に用いられるプログラムを記憶する。RAM403は、CPU401のワークエリアとして使用される。ストレージデバイス404は、OS、アプリ等のプログラム、及び各種のデータ等を記憶する大容量の記憶装置であり、例えば、SSD(Solid State Drive)、又はフラッシュROM等によって実現される。
CMOSセンサ405は、CPU401の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、端末装置100は、CMOSセンサ405に代えて、CCDセンサ等の撮像手段を有していても良い。撮像素子I/F406は、CMOSセンサ405の駆動を制御する回路である。加速度・方位センサ407は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F409は、フラッシュメモリ等のメディア(記憶メディア)408に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部410は、GPS衛星からGPS信号(測位信号)を受信する。
また、端末装置100は、遠距離通信回路411、遠距離通信回路411のアンテナ411a、CMOSセンサ412、撮像素子I/F413、マイク414、スピーカ415、音入出力I/F416、ディスプレイ417、外部機器接続I/F418、近距離通信回路419、近距離通信回路419のアンテナ419a、及びタッチパネル420を備えている。
これらのうち、遠距離通信回路411は、例えば、通信ネットワーク11を介して、他の装置と通信する回路である。CMOSセンサ412は、CPU401の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F413は、CMOSセンサ412の駆動を制御する回路である。マイク414は、音を電気信号に変える内蔵型の回路である。スピーカ415は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F416は、CPU401の制御に従ってマイク414及びスピーカ415との間で音波信号の入出力を処理する回路である。
ディスプレイ417は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)等の表示手段の一種である。外部機器接続I/F418は、各種の外部機器を接続するためのインタフェースである。近距離通信回路419は、近距離無線通信を行う回路を含む。タッチパネル420は、利用者がディスプレイ417を押下することで、端末装置100を操作する入力手段の一種である。
また、端末装置100は、バスライン421を備えている。バスライン421は、図4に示されているCPU401等の各構成要素を電気的に接続するためのアドレスバスやデータバス等を含む。
(端末装置のハードウェア構成の別の一例)
図5は、一実施形態に係る端末装置のハードウェア構成の別の一例を示す図である。ここでは、端末装置100がビデオ会議端末である場合における端末装置100のハードウェア構成の例について説明する。
端末装置(ビデオ会議端末)100は、コンピュータの構成を備えており、例えば、CPU501、ROM502、RAM503、フラッシュメモリ504、及びSSD505等を有する。また、端末装置100は、メディアI/F507、操作ボタン508、電源スイッチ509、ネットワークI/F511、カメラ512、撮像素子I/F513、マイク514、スピーカ515、及び音入出力I/F516等を有する。さらに、端末装置(ビデオ会議端末)100は、ディスプレイI/F517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519用のアンテナ519a、及びバスライン510等を有する。
CPU501は、例えば、ROM502や、フラッシュメモリ504等からプログラム、及びデータ等を読出し、処理を実行することで、端末装置(ビデオ会議端末)100が備える各機能を実現する演算装置である。ROM502は、例えば、IPL等のCPU501の起動に用いられるプログラム等を予め記憶した不揮発性のメモリである。RAM503は、CPU301のワークエリア等として利用される揮発性のメモリである。
フラッシュメモリ504は、例えば、OS、アプリケーションプログラム、及び各種のデータ等を記憶するストレージデバイスである。SSD505は、CPU501の制御に従ってフラッシュメモリ504に対する各種データの読み出し、書き込みを制御する。メディアI/F507は、例えば、メモリカード等のメディア506に対するデータの読み出し又は書き込み(記憶)を制御する。
操作ボタン508は、端末装置(ビデオ会議端末)100の利用者の入力操作を受け付ける入力装置である。電源スイッチ509は、端末装置(ビデオ会議端末)100の電源のオン/オフを切り替えるためのスイッチである。ネットワークI/F511は、通信ネットワーク11を利用して通信するための通信インタフェースである。
カメラ512は、CPU501の制御に従って被写体を撮像するための撮像装置である。撮像素子I/F513は、カメラ512による撮像を制御するとともに、撮像したデータを所定の画像データ(映像データ)に変換する。マイク514は、取得した音を電気信号に変換する。スピーカ515は、音信号を音に変換して出力する。音入出力I/F516は、マイク514及びスピーカ515による音の入出力を制御する。
ディスプレイI/F517は、CPU501の制御に従って、ディスプレイI/F517に接続されるディスプレイ等の表示装置に画像データを出力する。外部機器接続I/F518は、各種の外部機器を接続するためのインタフェースである。近距離通信回路519は、アンテナ519aを介して、近距離無線通信を行う通信回路である。バスライン510は、上記の各構成に共通に接続され、アドレス信号、データ信号、及び各種の制御信号等を伝達する。メディア506は、例えば、各種のメモリカード等の記憶媒体である。メディア506は、端末装置100に対して着脱自在な構成となっている。
なお、端末装置100が電子黒板である場合、端末装置100は、図5に示したハードウェア構成に加えて、例えば、大型のディスプレイ、及びタッチセンサ等を有する。
<機能構成>
(端末装置の機能構成)
図6は、一実施形態に係る端末装置の機能構成の例を示す図である。ここでは、説明を容易にするため、端末装置100が、図3に示すようなコンピュータ300のハードウェア構成を有しているものとして、以下の説明を行う。
端末装置(情報処理装置の一例)100は、例えば、HD304等の記憶媒体に記憶した所定のプログラムを実行することにより、通信部601、会議制御部602、表示制御部603、操作受付部604、取得部605、可視化部606、及び記憶部607等を実現している。なお、上記の各機能構成のうち、少なくとも一部は、ハードウェアによって実現されるものであっても良い。
通信部601は、例えば、ネットワークI/F308等を用いて、端末装置100を通信ネットワーク11に接続して、会議サーバ10、又は他の端末装置100等と通信する通信処理を実行する。
会議制御部602は、例えば、ウェブ会議への接続、音声及び画像の送受信、及び音声及び画像の入出力等、ウェブ会議に関する一連の処理を実行する。なお、会議制御部602が実行する処理は、一般的なウェブ会議と同様の処理であって良い。また、ウェブ会議は、本実施形態に係るコミュニケーションの一例であり、例えば、講義、カウンセリング、又は遠隔医療等の他のコミュニケーションであっても良い。
表示制御部603は、会議制御部602、又は可視化部606等からの制御に従って、ディスプレイ306等の表示部に表示画面を表示する表示制御処理を実行する。操作受付部604は、例えば、キーボード309、又はポインティングデバイス310等の入力デバイスを用いて、参加者による操作を受け付ける操作受付処理を実行する。
取得部605は、ウェブ会議(コミュニケーションの一例)に参加する参加者が発話する音声と、ウェブ会議に参加する他の参加者が発話する音声を、例えば、会議制御部602等から取得する取得処理を実行する。なお、取得部605は、ウェブ会議に参加する参加者の音声、及び他の参加者の音声を、例えば、音入出力I/F323等から取得しても良い。
可視化部606は、ウェブ会議に参加する参加者の発話時間と当該ウェブ会議に参加する他の参加者の発話時間とに基づいて、ウェブ会議の状況を可視化する可視化処理を実行する。好ましくは、可視化部606は、参加者の発話文字数と他の参加者の発話文字数とに、さらに基づいて、ウェブ会議の状況を可視化する。可視化部606は、例えば、抽出部611、算出部612、及び情報生成部613を含む。
抽出部611は、取得部605が取得した音声から、参加者の発話時間と発話文字数(又は発話語数)、及び他の参加者の発話時間と発話文字数(又は発話語数)を抽出する。例えば、抽出部611は、参加者の発話内容を、公知の音声認識技術を利用してテキスト化し、テキスト化した発話を解析して、参加者の発話時間と発話文字数とを抽出する。同様に、抽出部611は、他の参加者の発話内容を、公知の音声認識技術を利用してテキスト化し、テキスト化した発話を解析して、他の参加者の発話時間と発話文字数とを抽出する。なお、抽出部611は、言語の特性に応じて、発話文字数に代えて、発話語数を取得しても良い。
算出部612は、抽出部611が抽出した、参加者の発話時間と発話文字数、及び他の参加者の発話時間と発話文字数に基づいて、ウェブ会議(コミュニケーション)を可視化する指標を算出する。例えば、算出部612は、図2で前述した「主導権」、「切実感」、及び「優位性」を算出し、情報生成部613に出力する。
「主導権」は、参加者の発話時間と、他の参加者の発話時間との比率に基づいて、ウェブ会議等のコミュニケーションを可視化する第1の指標である。例えば、算出部612は、ウェブ会議における参加者の発話時間を、他の参加者の発話時間で割ることにより、「主導権」(発話比率)を算出する。
ウェブ会議において,発話の総量が多い人は,そのウェブ会議における存在感が高く,ウェブ会議を先導している印象を与えると考えられる。例えば、発話比率が1.0(例えば、参加者0.5、他の参加者0.5)に近い場合、参加者と他の参加者とが対等に発話しており、そのウェブ会議における主導権は同等な状態であると判断する。一方,発話比率が0.5に近い場合(例えば、参加者0.7、部下0.3等)、参加者が一方的に話しており,参加者の発話がそのウェブ会議の主体となっている(主導権を握っている)と判断する。また、発話比率が1.0を超える場合(例えば、参加者が0.2、部下0.8等)、他の参加者が一方的にウェブ会議で発話しており、他の参加者の発話がそのウェブ会議の主体となっている(他の参加者が主導権を握っている)と判断できる。
「切実感」は、参加者の発話速度と、他の参加者の発話速度との比率に基づいて、ウェブ会議等のコミュニケーションを可視化する第2の指標である。例えば、算出部612は、ウェブ会議における参加者の発話速度(発話文字数/発話時間)を、他の参加者の発話速度(発話文字数/発話時間)で割ることにより、「切実感」(発話速度比率)を算出する。
発話速度が速いということは,内容を勢いよく(捲し立てて)話していることを示す。従って、参加者の発話の方が速い場合は、他の参加者は、参加者から切実感(又は圧迫感)を感じる可能性がある。一方、他の参加者の発話の方が早い場合、参加者は、他の参加者から切実感(又は圧迫感)を感じる可能性がある。例えば、発話速度比率が1.0(例えば、参加者0.5、他の参加者0.5)に近い場合、参加者と他の参加者は、対等な感情で会話していると判断できる。一方、発話速度比率が0.5に近い場合(例えば、参加者0.7、部下0.3等)、参加者の発話速度の方が早いため、他の参加者は、参加者から切実感(又は圧迫感)を感じていると判断する。また、発話速度比率が1.0を超えた場合(例えば、参加者0.2、他の参加者0.8等)、他の参加者の発話速度の方が早いため、参加者は、他の参加者から切実感(又は圧迫感)を感じていると判断する。
「優位性」は、他の参加者が連続して発話した最長発話時間と、参加者が連続して発話した最長発話時間との比率に基づいて、ウェブ会議等のコミュニケーションを可視化する第3の指標である。例えば、算出部612は、ウェブ会議における、他の参加者の最長発話時間を、参加者の最長発話時間で割ることにより、「優位性」(最長発話時間比率)を算出する。
ウェブ会議において,発話比率が同じであっても、ある一定期間、一人が連続して発話を続けている場合、そのウェブ会議の印象は、当該話者に優位性がある(悪い意味では、隙を与えない)と考えられる。例えば、最長発話時間比率が1.0(例えば、参加者0.5、他の参加者0.5)に近い場合、両者が長く話した比率は同じである。一方、最長発話時間比率が0.5に近い場合(例えば、参加者0.7、他の参加者0.3等)、参加者が1つの会話で、より長く発話を続けており、参加者が、ウェブ会議に影響を与える発話をしたと判断する。また、最長発話時間比率が1.0を超えた場合(例えば、参加者0.2、他の参加者0.8等)、他の参加者が1つの会話で、より長く発話を続けており、他の参加者が、ウェブ会議に影響を与える発話をしたと判断する。
情報生成部613は、算出部612が算出し、出力する1つ以上の指標に基づいて、会議の状況を可視化する情報を生成する。一例として、情報生成部613は、図2に示すような表示画面210を生成する。例えば、情報生成部613は、算出部612が出力する「主導権」、「切実感」、及び「優位性」を用いて、図2で説明した、会議(商談)を可視化する指標220を生成する。また、情報生成部613は、算出部612が出力する「優位性」の比率(割合)を、目標とする「優位性」の比率に近づけるためのコミュニケーションガイド230(例えば、「お客様の会社の状況を聞いてみましょう」等)を生成しても良い。
可視化部606は、情報生成部613が生成した、例えば、図2に示すような表示画面210を、表示制御部603を用いて、ディスプレイ306等の表示部に表示(出力)する。ただし、図2に示した表示画面210は、可視化部606が出力する、会議を可視化する情報の一例である。
記憶部607は、例えば、CPU301が実行するプログラム、及びHD304等のストレージデバイス等によって実現され、会議指標データ621、又は機械学習モデル等の様々な情報、及びデータを記憶する。なお、会議指標データ621、及び機械学習モデルについては後述する。
なお、図6に示した端末装置100の機能構成は一例である。例えば、図7に示すように、取得部605、可視化部606、及び記憶部607等は、会議サーバ10が有していても良い。
図7は、一実施形態に係るコミュニケーション支援システムの機能構成の例を示す図である。この図は、会議サーバ10が、前述した、取得部605、可視化部606、及び記憶部607等を有している場合における、コミュニケーション支援システム1の機能構成の一例を示している。
(会議サーバの機能構成)
会議サーバ(情報処理装置の別の一例)10は、1つ以上のコンピュータ300で所定のプログラムを実行することにより、通信部701、会議管理部702、中継部703、ウェブサーバ部704、取得部605、可視化部606、及び記憶部607等を実現している。なお、上記の各機能構成のうち、少なくとも一部は、ハードウェアによって実現されるものであっても良い。
通信部601は、例えば、コンピュータ300のネットワークI/F308等を用いて、会議サーバ10を通信ネットワーク11に接続し、複数の端末装置100と通信する通信処理を実行する。
会議管理部702は、同じウェブ会議用のURL(Uniform Resource Locator)にアクセスする複数の端末装置100を同じウェブ会議(セッション)の参加させる会議管理処理を実行する。
中継部703は、同じウェブ会議に参加する複数の端末装置100の間で、音声及び画像を含むコンテンツを中継する中継処理を実行する。なお、会議管理部702、及び中継部703の機能は、既存のウェブ会議システムと同様の構成であって良い。
ウェブサーバ部704は、会議管理部702が管理するウェブ会議を可視化するウェブページ等を提供するウェブサーバとして機能する。
取得部605は、例えば、ウェブサーバ部704にアクセスした参加者が、ウェブ会議で発話する音声と、ウェブ会議に参加する他の参加者が発話する音声を、例えば、中継部703等から取得する取得処理を実行する。
可視化部606は、ウェブ会議に参加する参加者の発話時間と発話文字数、及び当該ウェブ会議に参加する他の発話時間と発話文字数に基づいて、ウェブ会議の状況を可視化する可視化処理を実行する。なお、可視化部606が実行する可視化処理は、図6で説明した端末装置100が備える可視化部606が実行する可視化処理と同様である。ただし、会議サーバ10が備える可視化部606は、会議を可視化する表示画面を、ウェブサーバ部704を介して、端末装置100のウェブブラウザ部711等に送信(出力)する。
記憶部607は、例えば、会議指標データ621、又は機械学習モデル等の様々な情報、及びデータ等を記憶する。なお、会議指標データ621、及び機械学習モデルについては後述する。
(端末装置の機能構成)
図7に示す端末装置100は、図6で説明した端末装置100が有する取得部605、可視化部606、及び記憶部607に代えて、ウェブブラウザ部711を有している。
ウェブブラウザ部711は、例えば、CPU301が実行するウェブブラウザ、又はウェブブラウザの機能を有するアプリケーション等によって実現される。ウェブブラウザ部711は、端末装置100を利用する参加者の操作に従って、会議サーバ10のウェブサーバ部704にアクセスし、ウェブサーバ部704が提供する、ウェブ会議を可視化するウェブページ等を表示する。なお、ウェブブラウザ部711以外の端末装置100の各機能構成は、図6で説明した各機能構成と同様で良い。
なお、図8に示したコミュニケーション支援システム1の機能構成は一例である。例えば、会議サーバ10は、ウェブ会議サービスを提供する第1のサーバと、ウェブ会議を可視化するウェブページ等を提供する第2のサーバに分かれていても良い。また、ウェブ会議サービスを提供する第1のサーバは、会議管理処理を実行する第3のサーバと、中継処理を実行する第4のサーバに、さらに分かれていても良い。さらに、会議サーバ10が備える取得部605は、端末装置100が有し、会議制御部602から取得した音声を会議サーバ10に送信するもの等であっても良い。
要するに、図7に示した、コミュニケーション支援システム1の各機能構成は、コミュニケーション支援システム1に含まれる、いずれかの装置が有していれば良い。
<処理の流れ>
続いて、本実施形態に係るコミュニケーション支援方法の処理の流れについて説明する。
(コミュニケーション支援処理)
図8は、一実施形態に係るコミュニケーション支援処理の例を示すフローチャートである。この処理は、例えば、図6に示した端末装置100、又は図7に示したコミュニケーション支援システム1が実行するコミュニケーション支援処理の概要を示している。なお、図8に示す処理の開始時点において、参加者が利用する端末装置100と、他の参加者が利用する端末装置100は、同じウェブ会議に参加しており、音声及び画像を含むコンテンツを送受信可能な状態であるものとする。
ステップS801において、取得部605は、ウェブ会議(コミュニケーションの一例)に参加する参加者が発話する音声と、当該ウェブ会議に参加する他の参加者が発話する音声とを取得する。
ステップS802において、抽出部611は、取得部605が取得した音声から、参加者の発話時間と発話文字数(又は発話語数)、及び他の参加者の発話時間と発話文字数(又は発話語数)を抽出する。
ステップS803において、算出部612は、参加者の発話時間と、他の参加者の発話時間との比率である発話比率を算出する。
ステップS804において、算出部612は、参加者の発話速度と、他の参加者の発話速度との比率である発話速度比率を算出する。
ステップS805において、算出部612は、参加者が連続して発話した最長発話時間と、他の参加者が連続して発話した最長発話時間との比率である最長発話時間比率を算出する。
ステップS806において、可視化部606は、情報生成部613を用いて、算出部612が算出した算出結果を用いて、ウェブ会議を可視化する情報を生成し、生成した情報を出力する可視化処理を実行する。
(可視化処理について)
[第1の実施形態]
図9A、図9Bは、第1の実施形態に係る可視化処理の例を示すフローチャートである。図9Aは、図8のステップ806において、可視化部606が実行する可視化処理の一例を示している。
ステップS901において、可視化部606は、情報生成部613を用いて、算出部612が算出した発話比率に基づいて、会議の「主導権」を表す第1の指標を生成し、生成した第1の指標を出力する。一例として、可視化部606は、図2に示すような表示画面210に、参加者の発話時間と、他の参加者の発話時間との発話比率で「主導権」を表す表示要素「主導権221」を表示(出力)する。
ステップS902において、可視化部606は、情報生成部613を用いて、算出部612が算出した発話速度比率に基づいて、会議の「切実感」を表す第2の指標を生成し、生成した第2の指標を出力する。一例として、可視化部606は、図2に示すような表示画面210に、参加者の発話速度と、他の参加者の発話速度との発話速度比率で「切実感」を表す表示要素「切実感223」を表示(出力)する。
ステップS903において、可視化部606は、情報生成部613を用いて、算出部612が算出した最長発話比率に基づいて、会議の「優位性」を表す第3の指標を生成し、生成した第3の指標を出力する。一例として、可視化部606は、図2に示すような表示画面210に、参加者が連続して発話した最長発話時間と、他の参加者が連続して発話した最長発話時間との比率で「優位性」を表す表示要素「優位性222」を表示(出力)する。
図9Bは、図8のステップ806において、可視化部606が実行する可視化処理の別の一例を示している。図9Bに示す可視化処理は、図9Aで説明したステップS901~S03の処理の後に、ステップS911の処理を追加している。
ステップS911において、可視化部606は、各指標の目標を表す表示要素を出力する。例えば、可視化部606は、図2に示すような表示画面210に、目標とする主導権の比率(割合)を表す表示要素221cを表示する。なお、目標とする主導権の比率は、例えば、記憶部607の会議指標データ621に予め記憶しておくものであっても良いし、端末装置100を利用する参加者が設定画面等で設定するもの等であっても良い。
同様にして、可視化部606は、表示画面210に、目標とする優位性の比率を表す表示要素、及び目標とする切実感の比率を表す表示要素等を表示する。これにより、参加者は、目標とする各指標の比率に近づけるために、自己の発話内容を調整することが容易になる。
第1の実施形態によれば、コミュニケーション支援システム1は、例えば、図2に示すような表示画面210により、会議(商談)を可視化する指標220等を、参加者に提供することができる。
[第2の実施形態]
図10は、第2の実施形態に係る可視化処理の例を示すフローチャートである。この処理は、図8のステップ806において、可視化部606が実行する可視化処理の別の一例を示している。
ステップS1001において、情報生成部613は、例えば、記憶部607に予め記憶した会議指標データ621から、良い会議の指標データ、及び悪い会議の指標データを取得する。良い会議の指標データは、例えば、俳優が演じた良い会議のサンプル等から抽出した指標(「主導権」、「切実感」、及び「優位性」)データ等であっても良いし、過去に良い結果が得られた会議(商談)から抽出した指標データ等であっても良い。同様に、悪い会議の指標データは、例えば、俳優が演じた悪い会議のサンプル等から抽出した指標データであっても良いし、過去に悪い結果であった会議(商談)から抽出した指標データ等であっても良い。
ステップS1002において、情報生成部613は、例えば、図8のステップS803~S805で算出した指標データと、ステップS1001で取得した指標データとの相関を示す相関係数を算出する。
図11は、第2の実施形態に係る指標データの相関係数の算出について説明するための図である。図11において、良い会議の指標データ1101、及び悪い会議の指標データ1102は、ステップS1101において、情報生成部613が取得した指標データの一例である。また、算出データ1103は、図8のステップS803~S805で算出した指標データの一例である。
図11の例では、情報生成部613は、算出データ1103の各指標と、良い会議の指標データ1101に含まれる利用シーン1~3の各指標との相関係数(例えば、ピアソン相関)を算出し、算出した相関係数の平均1104を算出する。また、情報生成部613は、算出した相関係数の平均1104を、算出した指標データと、良い会議の指標データとの相関を示す相関係数とする。
同様に、情報生成部613は、算出データ1103の各指標と、悪い会議の指標データ1102に含まれる利用シーン1~3の各指標との相関係数を算出し、算出した相関係数の平均1105を算出する。また、情報生成部613は、算出した相関係数の平均1105を、算出した指標データと、悪い会議の指標データとの相関を示す相関係数とする。
別の一例として、情報生成部613は、ステップS1101において、複数の利用シーン1~3を、端末装置100に選択可能に表示して、参加者が選択した利用シーンに対応する良い会議の指標データ、及び悪い会議の指標データを取得しても良い。この場合、情報生成部613は、ステップS1102において、算出データ1103の各指標と、参加者が選択した利用シーンにおける良い会議の指標データとの相関係数を算出する。同様に、情報生成部613は、ステップS1102において、算出データ1103の各指標と、参加者が選択した利用シーンにおける悪い会議の指標データとの相関係数を算出する。
ステップS1003において、情報生成部613は、ステップS1002で算出した相関係数に基づいて、ウェブ会議を評価する。例えば、図11の例では、算出データ1103と、良い会議の指標データ1101との相関係数の平均1104は「0.70」であり、悪い会議の指標データ1102との相関係数の平均1105は「0.39」である。この場合、情報生成部613は、良い会議との相関係数がより大きいため、現在のウェブ会議を良い会議と評価しても良い。
別の一例として、情報生成部613は、算出データ1103と、良い会議の指標データ1101との相関係数の平均「0.79」を、ウェブ会議の評価結果(例えば、満足度等)としても良い。或いは、情報生成部613は、良い会議との相関係数、及び悪い会議との相関係数を用いて、ウェブ会議の評価結果を算出しても良い。
ステップS1004において、可視化部606は、ウェブ会議を可視化する指標データ(「主導権」、「優位性」、及び「切実感」)と、ウェブ会議の評価結果とを出力する。例えば、情報生成部613は、ウェブ会議を可視化する指標データ(「主導権」、「優位性」、及び「切実感」)と、ウェブ会議の評価結果とを含む、例えば、図12に示すような表示画面1200を生成する。また、可視化部606は、情報生成部613が生成した表示画面1200を、表示制御部603を用いて、ディスプレイ306等の表示部に表示する。
図12は、第2の実施形態に係る表示画面の例を示す図である。図12の例では、表示画面1200は、ウェブ会議(コミュニケーション)の評価結果の一例である満足度1201、及びウェブ会議を可視化する指標1202を含む。また、表示画面1200は、例えば、ウェブ会議の残り時間1203等の他の情報を、さらに含むものであっても良い。
第2の実施形態によれば、コミュニケーション支援システム1は、例えば、図12に示すような表示画面1200により、ウェブ会議を可視化する指標1202とともに、ウェブ会議の評価結果を参加者に提供することができる。
[第3の実施形態]
図13は、第3の実施形態に係る可視化処理の例を示すフローチャートである。この処理は、図8のステップ806において、可視化部606が実行する可視化処理の別の一例を示している。
ステップS1301において、情報生成部613は、図8のステップS803~S805で、算出部612が算出した指標データ「発話比率(主導権)」、「発話速度比率(切実感)」、及び「最長発話時間(優位性)」を取得する。
ステップS1302において、情報生成部613は、取得した指標データを、学習済の機械学習モデル622に入力することにより、ウェブ会議を可視化する情報を取得する。
図14は、第3の実施形態に係る可視化処理について説明するための図である。一例として、端末装置100は、複数の会議から抽出した3つの指標データと、各会議の満足度、及び出力するメッセージ等を含む教師データを用いて、予め機械学習した学習済の機械学習モデル622を、記憶部607に記憶しておく。この場合、情報生成部613は、ステップS1301で取得した指標データを、学習済の機械学習モデル622に入力することにより、学習済の機械学習モデル622から、会議の満足度1401、及び出力するメッセージ1402等を取得することができる。
ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータが、データ識別等の判断に必要なアルゴリズムを、事前に取り込まれる学習データから自律的に生成し、新たなデータについてこれを適用して予測を行う技術のことをいう。また、機械学習のための学習方法は、教師あり学習に限られず、例えば、教師なし学習、半教師学習、強化学習、又は深層学習等であっても良い。
また、別の一例として、情報生成部613は、取得した指標データを、学習済の機械学習モデル622を有する外部サーバに送信して、外部サーバが送信する、会議の満足度1401、及び出力すべきメッセージ1402等を取得しても良い。
ステップS1303において、可視化部606は、学習済の機械学習モデル622の出力結果と、会議を可視化する3つ指標(主導権、優位性、及び切実感)とを出力する。例えば、可視化部606は、情報生成部613を用いて、例えば、図14に示すように、会議の満足度1401、メッセージ1402、及び会議を可視化する3つの指標1403等を表示する表示画面1400を作成する。
また、端末装置100が可視化部606を有している場合、可視化部606は、作成した表示画面1400を、表示制御部603を用いて、ディスプレイ306等の表示部に表示(出力)する。一方、会議サーバ10が可視化部606を有している場合、可視化部606は、作成した表示画面1400を、ウェブサーバ部704を用いて、端末装置100に送信(出力)する。
第3の実施形態によれば、コミュニケーション支援システム1は、例えば、図14に示すような表示画面1400により、ウェブ会議を可視化する指標1403とともに、会議の満足度1401及び状況に応じたメッセージ1402を参加者に提供することができる。なお、メッセージ1402は、コミュニケーションの進め方を示す情報の別の一例である。
(応用例)
なお、上記の各実施形態では、コミュニケーション支援システム1が支援するコミュニケーションが、参加者と、他の参加者との間で商談を行うウェブ会議であるものとして説明を行った。ただし、これに限られず、コミュニケーション支援システム1が支援するコミュニケーションは、例えば、遠隔医療、カウンセリング、遠隔授業、又は就学相談等の様々なコミュニケーションであって良い。
また、上記の各実施形態では、参加者と、他の参加者とが1対1でコミュニケーションを行う場合の例について説明したが、参加者は、2人以上の他の参加者とコミュニケーションを行うものであっても良い。この場合、コミュニケーション支援システム1は、例えば、図15に示すように、端末装置100の表示画面1500に、第1~3の実施形態で説明した支援アプリの表示画面1501に加えて、他の参加者の会議の満足度等を表示する表示画面1502を表示しても良い。これにより、参加者は、例えば、ユーザAの満足度が比較的高く、ユーザBの満足度が比較的低いこと等を容易に把握できるので、ユーザBに話を振ることができるようになる。
なお、ユーザAの会議の満足度は、ユーザAの発話時間と参加者の発話時間との発話比率、ユーザAの発話速度と参加者と発話速度との発話速度比率、及びユーザAの最長発話時間と参加者の最長発話時間との最長発話時間比率により求めても良い。
同様に、ユーザBの会議の満足度は、ユーザBの発話時間と参加者の発話時間との発話比率、ユーザBの発話速度と参加者との発話速度との発話速度比率、及びユーザBの最長発話時間と参加者の最長発話時間との最長発話時間比率により求めても良い。
[第4の実施形態]
第1~3の実施形態では、主導権、切実感、及び優位性等の指標を用いて、コミュニケーションを可視化する場合の例について説明したが、コミュニケーション支援システム1は、他の情報を用いてコミュニケーションを可視化してもよい。
例えば、コミュニケーション支援システム1は、参加者の発話音量と他の参加者の発話音量とに基づいて、コミュニケーションを可視化してもよい。具体的な一例として、コミュニケーション支援システム1は、参加者、及び他の参加者の発話音量の変化を時系列で表示する表示画面を出力してもよい。これにより、例えば、会話の盛り上がりの変化、一方の参加者が話をしてから他方の参加者からの応答がない(又は遅い)、又は他の参加者の発話音量が突然上がった等、コミュニケーションの状況が分かり易くなる。
また、コミュニケーション支援システム1は、参加者の発話周波数(基本周波数f)と他の参加者の発話周波数とに基づいて、コミュにケーションを可視化してもよい。具体的な一例として、コミュニケーション支援システム1は、参加者、及び他の参加者の発話周波数の変化を時系列で表示する表示画面を出力してもよい。発話周波数(発話ごとの基本周波数)は、例えば、コミュニケーションの雰囲気、感情、又は理解度等のコミュニケーションの状況を表す。なお、コミュニケーション支援システム1は、参加者の発話音量及び発話周波数と、他の参加者の発話音量及び発話周波数に基づいて、コミュニケーションを可視化してもよい。
また、コミュニケーション支援システム1は、発話音量、又は発話周波数等を時系列で出力するだけではなく、例えば、コミュニケーション全体の沈黙時間、又は話者交代の回数等を、コミュニケーションを可視化する情報と出力してもよい。
<処理の流れ>
図16は、第4の実施形態に係るコミュニケーション支援処理の例を示すフローチャートである。なお、ここでは、第1~3の実施形態と同様の処理に対する詳細な説明は省略する。
S1601において、取得部605は、コミュニケーション(例えばウェブ会議)に参加する参加者、及び他の参加者の発話音声を取得する。
ステップS1602において、抽出部611は、取得部605が取得した音声から、参加者及び他の参加者の発話時間、発話文字数、発話音量、及び発話周波数等を抽出して、例えば、図17に示すような抽出データ1700を作成する。
図17は、第4の実施形態に係る抽出データの例を示す図である。図17の例では、抽出データ1700は、項目として、「発話開始時間」、「発話終了時間」、「発話時間」、「話者」、「発話文字数」、「発話比率」、「最長発話時間比率」、「発話音量」、及び「発話周波数」等のデータを含む。また、抽出データ1700は、各行が、1つの発話に対応している。なお、図17の例では、参加者、及び他の参加者が発話していない沈黙期間も1つの発話としてデータ化している。
「発話開始時間」、及び「発話終了時間」は、各発話の開始日時と終了日時を示すデータである。「発話時間」は、各発話の「発話開始時間」から「発話終了時間」までの期間を示すデータである。「話者」は、各発話の話者を示している。図17の例では、「A」は参加者の発話であること、「B」は他の参加者の発話であること、「-」は話者がいない沈黙であることを示している。
「発話文字数」、「発話比率」、及び「最長発話時間比率」は、第1~3の実施形態と同様にして、各発話から抽出した発話の文字数、発話の比率、及び最長発話時間の比率を示すデータである。「発話音量」は、第4の実施形態で新たに抽出する、各発話の音量(例えば平均音量)を示すデータである。「発話周波数」は、第4の実施形態で新たに抽出する、各発話の周波数(例えば、基本周波数fの平均値)を示すデータである。
ここで、図16に戻り、フローチャート説明を続ける。ステップS1603において、可視化部606は、参加者、及び他の参加者の発話音量の変化と発話周波数の変化とのうち、少なくとも1つのデータを時系列で出力する。例えば、可視化部606は、図17で説明した抽出データ1700の「発話音量」のデータのうち、話者「A」(参加者)の発話音量と、話者「B」(他の参加者)の発話音量とを、別々に時系列で出力する。また、可視化部606は、抽出データ1700の「発話周波数」のデータのうち、話者「A」(参加者)の発話周波数と、話者「B」(他の参加者)の発話周波数とを、別々に時系列で出力してもよい。
ステップS1604において、可視化部606は、コミュニケーション全体の沈黙時間の合計を算出して出力する。例えば、可視化部606は、図17で説明した抽出データ1700の「発話時間」のうち、話者が「-」(沈黙)の発話時間を合計して出力する。
ステップS1605において、可視化部606は、話者交代の回数を算出して出力する。例えば、可視化部606は、図17で説明した抽出データ1700の「話者」のデータを参照して、話者が「A」から「B」に変わった回数と、話者が「B」から「A」に変わった回数とを合計して出力する。
図16の処理により、可視化部606は、表示制御部603を用いて、例えば、図18に示すような表示画面1800を、ディスプレイ306等の表示部に表示する。
図18は、第4の実施形態に係る表示画面の例を示す図(1)である。この表示画面1800は、第4の実施形態に係る可視化部606が出力するコミュニケーションを可視化する表示画面の一例を示している。
図18の例では、表示画面1800には、ユーザ(参加者の一例)の発話音量1811と、クライアント(他の参加者の一例)の発話音量1812とを時系列に表示するグラフ1810が表示されている。このグラフ1810は、図16のステップS1603において、可視化部606が出力する、コミュニケーションを可視化する情報の一例である。なお、可視化部606は、このグラフ1810に代えて(又は加えて)、ユーザの発話周波数と、クライアントの発話周波数とを時系列に表示するグラフを表示画面1800に表示してもよい。
また、表示画面1800には、沈黙時間の合計1802、及び話者交代の回数1803等の情報も表示されている。これらの情報は、図6のステップS1604、S1605において、可視化部606が出力する、コミュニケーションを可視化する情報の一例である。
可視化部606は、表示画面1800に、例えば、ユーザとクライアントの発話周波数の変化、又はユーザとクライアントの発話スピードの変化等を時系列で表すグラフ1820を、さらに表示してもよい。また、可視化部606は、表示画面1800に、平均会話バランス1801等の可視化データを、さらに表示してもよい。平均会話バランス1801は、例えば、ユーザとクライアントの発話時間の比、又は発話音量の比等で表される。
このように、コミュニケーション支援システム1は、主導権、切実感、及び優位性等の指標によらずに、コミュニケーションを可視化する情報を出力してもよい。
(応用例)
コミュニケーション支援システム1は、コミュニケーションに課題が発生した場合、又はコミュニケーションに課題が発生しそうな場合に、アラートを出力してもよい。
図19は、第4の実施形態に係るコミュニケーション支援処理の応用例を示すフローチャートである。なお、図19に示す処理のうち、ステップS1601~S1605の処理は、図16で説明した処理と同様なので、ここでは説明を省略する。
ステップS1901において、可視化部606は、可視化部606が出力した情報に基づいて、コミュニケーションに課題が発生した場合、又はコミュニケーションに課題が発生しそうな場合に、アラートを出力する。
例えば、可視化部606は、図20に示すようなコミュニケーションの一覧画面2000を、管理者等の情報端末等に表示させることができる。図20の例では、コミュニケーションの一覧画面2000には、管理対象となる複数のユーザが行った商談(コミュニケーションの一例)のサマリー2001が表示されている。各サマリー2001には、例えば、ユーザ名、クライアント名に加えて、例えば、商談の評価2003、及び可視化部606が出力する可視化データ2002等が表示されている。
可視化部606は、例えば、可視化データ2002の値が、予め定められた閾値を超えた場合(又は閾値に満たない場合)、その商談に課題が発生したと判断して、当該商談のサマリーを強調表示2004することにより、アラートを出力してもよい。或いは、可視化部606は、商談の評価2003が、予め定められた評価に満たない場合、その商談のサマリーを強調表示2004して、アラートを出力してもよい。また、アラートは、強調表示に限られず、例えば、電子メール、又は音声メッセージ等であってもよい。
[第5の実施形態]
第3の実施形態では、コミュニケーション支援システム1が、主導権、切実感、及び優位性等の指標を学習済の機械学習モデルに入力して、会議の満足度、及び状況に応じたメッセージ等を出力する場合の例について説明した。ただし、コミュニケーション支援システム1は、他の情報を用いて、会議の満足度、及び状況に応じたメッセージ等を出力してもよい。
<処理の流れ>
図21は、第5の実施形態に係る可視化処理の例を示すフローチャートである。なお、ここでは、図16で説明した第4の実施形態に係る可視化処理と同様の処理に対する詳細な説明は省略する。
S2101において、取得部605は、コミュニケーション(例えばウェブ会議)に参加する参加者、及び他の参加者の発話音声を取得する。
ステップS2102において、抽出部611は、取得部605が取得した音声から、参加者、及び他の参加者の発話時間、発話文字数、発話音量、及び発話周波数等を抽出して、例えば、図17に示すような抽出データ1700を作成する。
ステップS2103において、可視化部606は、抽出データ1700から、発話比率、発話速度比率、最長発話時間比率、発話参加者、及び他の参加者の発話音量の変化、発話周波数の変化、沈黙時間の合計、及び話者交代の回数の等のデータを取得する。このとき、可視化部606は、必ずしも上記の全てのデータを取得する必要はなく、例えば、上記のデータの中から、予め設定されたデータの組合せを取得してもよい。
ステップS2104において、可視化部606は、取得したデータを、学習済の機械学習モデル622に入力する。これにより、学習済の機械学習モデルは、例えば、会議の満足度、及び状況に応じたメッセージ等を出力する。
ステップS2105において、可視化部606は、会議の満足度、及び状況に応じたメッセージを表示する表示画面を表示する。
図22は、第5の実施形態に係る可視化処理について説明するための図である。一例として、コミュニケーション支援システム1は、複数の会議から抽出した複数の入力データと、各会議の満足度、及び出力するメッセージ等を含む教師データを用いて、予め機械学習した学習済の機械学習モデル622を記憶しておく。ここで、複数の入力データは、図21のステップS2103で取得した、発話比率、発話速度比率、最長発話時間比率、発話参加者、及び他の参加者の発話音量の変化、発話周波数の変化、沈黙時間の合計、及び話者交代の回数の等のデータである。
これにより、可視化部606は、ステップS2103で取得した入力データを、学習済の機械学習モデル622に入力することにより、学習済の機械学習モデル622から、会議の満足度2202、及び出力するメッセージ2201等を取得することができる。
また、可視化部606は、取得した会議の満足度2202、及び出力するメッセージ2201等を用いて、例えば、図22に示すような表示画面2200を表示する。図22の例では、表示画面2200には、会議の満足度2202、及び出力するメッセージ2201に加えて、参加者と他の参加者の会話スピードの比較データ2203、及び参加者と他の参加者の発話時間の比較データ2204等が表示されている。
このように、コミュニケーション支援システム1は、主導権、切実感、及び優位性等の指標によらずに、コミュニケーションを可視化する情報を出力してもよい。
以上、本発明の各実施形態によれば、コミュニケーションに参加する参加者の情報、及び他の参加者の情報を予め登録しなくても、コミュニケーションを支援できるコミュニケーション支援システムを提供することができる。
なお、本実施形態に係るコミュニケーション支援システム1によれば、コミュニケーションに参加する参加者の発話内容を解析する必要がないので、参加者のプライバシーを侵害する恐れがない、又は外国語への対応が容易になるという特別な効果も期待できる。
<補足>
上記で説明した各実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
また、実施例に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものに過ぎない。ある実施形態では、会議サーバ10は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。
さらに、会議サーバ10、及び端末装置100は、開示された処理ステップ、例えば、図8~10、13、16、19、21に示す処理を様々な組み合わせで共有するように構成できる。例えば、取得部605よって実行されるプロセスは、会議サーバ10、又は端末装置100によって実行され得る。同様に、可視化部606によって実行されるプロセスは、会議サーバ10、又は端末装置100によって実行され得る。また、会議サーバ10の各要素は、1つのサーバ装置にまとめられていても良いし、複数の装置に分けられていても良い。
以上、本発明を実施例に基づいて説明したが、本発明は上記実施例に限定されるものではなく、特許請求の範囲に記載の範囲内で様々な変形が可能である。
本出願は、日本特許庁に2021年9月1日に出願された特許出願第2021-142716号、及び2022年3月7日に出願された特許出願第2022-034693号の優先権を主張するものであり、その全内容を参照によりここに援用する。
1 コミュニケーション支援システム
10 会議サーバ(情報処理装置の別の一例)
100 端末装置(情報処理装置の一例)
221 主導権(第1の指標)
222 優位性(第3の指標)
223 切実感(第2の指標)
230 コミュニケーションガイド
605 取得部
606 可視化部
1201 満足度(コミュニケーションの評価結果)
1402 メッセージ
1800 表示画面
特許6664818号公報

Claims (18)

  1. コミュニケーションに参加する参加者が発話する音声と前記コミュニケーションに参加する他の参加者が発話する音声とを取得する取得部と、
    前記参加者の発話時間と前記他の参加者の発話時間とに基づいて、前記コミュニケーションの状況を可視化する可視化部と、を備え、
    前記可視化部は、前記可視化部が出力する前記コミュニケーションを可視化する複数の情報と、予め記憶部に記憶されている、過去に行われて良い結果が得られた良いコミュニケーションの指標データおよび過去に行われて悪い結果が得られた悪いコミュニケーションの指標データとの相関に基づいて、前記コミュニケーションを評価する情報をさらに出力する、コミュニケーション支援システム。
  2. 前記可視化部は、前記参加者の発話時間と前記他の参加者の発話時間との比率に基づいて、前記コミュニケーションを可視化する第1の指標を出力する、請求項1に記載のコミュニケーション支援システム。
  3. 前記第1の指標は、前記コミュニケーションにおける前記参加者、又は前記他の参加者の主導権を表す、請求項2に記載のコミュニケーション支援システム。
  4. 前記可視化部は、前記参加者の発話文字数と前記他の参加者の発話文字数とに、さらに基づいて前記コミュニケーションの状況を可視化する、請求項1乃至3のいずれか一項に記載のコミュニケーション支援システム。
  5. 前記可視化部は、前記参加者の発話速度と前記他の参加者の発話速度との比率に基づいて、前記コミュニケーションを可視化する第2の指標を出力する、請求項4に記載のコミュニケーション支援システム。
  6. 前記第2の指標は、前記コミュニケーションにおける前記参加者、又は前記他の参加者の切実感を表す、請求項5に記載のコミュニケーション支援システム。
  7. 前記可視化部は、前記他の参加者が連続して発話した最長発話時間と前記参加者が連続して発話した最長発話時間との比率に基づいて、前記コミュニケーションを可視化する第3の指標を出力する、請求項1に記載のコミュニケーション支援システム。
  8. 前記第3の指標は、前記コミュニケーションにおける前記参加者、又は前記他の参加者の優位性を表す、請求項7に記載のコミュニケーション支援システム。
  9. 前記可視化部は、前記可視化部が出力する1つ以上の指標に基づいて、前記コミュニケーションの進め方を示す情報を出力する、請求項1に記載のコミュニケーション支援システム。
  10. 前記可視化部は、前記参加者の発話音量と前記他の参加者の発話音量とに、さらに基づいて前記コミュニケーションの状況を可視化する、請求項1に記載のコミュニケーション支援システム。
  11. 前記可視化部は、前記参加者の発話周波数と前記他の参加者の発話周波数とに、さらに基づいて前記コミュニケーションの状況を可視化する、請求項1に記載のコミュニケーション支援システム。
  12. 前記可視化部は、前記コミュニケーションの状況を時系列で表示する表示画面を出力する、請求項10に記載のコミュニケーション支援システム。
  13. 前記表示画面は、前記コミュニケーションにおける沈黙時間を示す情報、又は話者交代の回数を示す情報をさらに表示する、請求項12に記載のコミュニケーション支援システム。
  14. 前記コミュニケーション支援システムは、コミュニケーション用のアプリケーションプログラムとコミュニケーション支援用のアプリケーションプログラムと、を有する、請求項1に記載のコミュニケーション支援システム。
  15. 前記可視化部は、前記可視化部が出力する前記コミュニケーションを可視化する情報と、予め定められた閾値に基づいて、前記コミュニケーションに課題が発生した場合、又は、前記コミュニケーションに課題が発生しそうな場合に、アラートを出力する、請求項1に記載のコミュニケーション支援システム。
  16. コミュニケーションに参加する参加者が発話する音声と前記コミュニケーションに参加する他の参加者が発話する音声とを取得する取得部と、
    前記参加者の発話時間と前記他の参加者の発話時間とに基づいて、前記コミュニケーションの状況を可視化する可視化部と、を備え、
    前記可視化部は、前記可視化部が出力する前記コミュニケーションを可視化する複数の情報と、予め記憶部に記憶されている、過去に行われて良い結果が得られた良いコミュニケーションの指標データおよび過去に行われて悪い結果が得られた悪いコミュニケーションの指標データとの相関に基づいて、前記コミュニケーションを評価する情報をさらに出力する、情報処理装置。
  17. コンピュータが、
    コミュニケーションに参加する参加者が発話する音声と前記コミュニケーションに参加する他の参加者が発話する音声とを取得する処理と、
    前記参加者の発話時間と前記他の参加者の発話時間とに基づいて、前記コミュニケーションの状況を可視化する可視化処理と、
    を実行し、
    前記可視化処理は、前記可視化処理が出力する前記コミュニケーションを可視化する複数の情報と、予め記憶部に記憶されている、過去に行われて良い結果が得られた良いコミュニケーションの指標データおよび過去に行われて悪い結果が得られた悪いコミュニケーションの指標データとの相関に基づいて、前記コミュニケーションを評価する情報をさらに出力する、コミュニケーション支援方法。
  18. 請求項17に記載のコミュニケーション支援方法をコンピュータに実行させる、プログラム。
JP2023545635A 2021-09-01 2022-08-31 コミュニケーション支援システム、情報処理装置、コミュニケーション支援方法、及びプログラム Active JP7688335B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2021142716 2021-09-01
JP2021142716 2021-09-01
JP2022034693 2022-03-07
JP2022034693 2022-03-07
PCT/JP2022/032739 WO2023033033A1 (ja) 2021-09-01 2022-08-31 コミュニケーション支援システム、情報処理装置、コミュニケーション支援方法、及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2023033033A1 JPWO2023033033A1 (ja) 2023-03-09
JPWO2023033033A5 JPWO2023033033A5 (ja) 2024-05-23
JP7688335B2 true JP7688335B2 (ja) 2025-06-04

Family

ID=85411377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023545635A Active JP7688335B2 (ja) 2021-09-01 2022-08-31 コミュニケーション支援システム、情報処理装置、コミュニケーション支援方法、及びプログラム

Country Status (4)

Country Link
US (1) US20240203442A1 (ja)
EP (1) EP4398170A4 (ja)
JP (1) JP7688335B2 (ja)
WO (1) WO2023033033A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017201479A (ja) 2016-05-06 2017-11-09 日本ユニシス株式会社 コミュニケーション支援システム
JP2017215931A (ja) 2016-02-02 2017-12-07 株式会社リコー 会議支援システム、会議支援装置、会議支援方法及びプログラム
JP2018124456A (ja) 2017-02-01 2018-08-09 株式会社リコー 情報端末、情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2019174616A (ja) 2018-03-28 2019-10-10 本田技研工業株式会社 対話装置及びプログラム
WO2020116531A1 (ja) 2018-12-05 2020-06-11 株式会社 東芝 会話分析システム、方法及びプログラム
JP2020170310A (ja) 2019-04-02 2020-10-15 富士通株式会社 会話分析装置、会話分析方法および会話分析プログラム
JP2021051633A (ja) 2019-09-26 2021-04-01 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、コミュニケーションシステムおよびコミュニケーション端末
JP2021099670A (ja) 2019-12-23 2021-07-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015189723A1 (en) * 2014-06-10 2015-12-17 Koninklijke Philips N.V. Supporting patient-centeredness in telehealth communications
US10141002B2 (en) * 2014-06-20 2018-11-27 Plantronics, Inc. Communication devices and methods for temporal analysis of voice calls
US11785180B2 (en) * 2017-09-11 2023-10-10 Reelay Meetings, Inc. Management and analysis of related concurrent communication sessions
JP6664818B1 (ja) 2019-03-11 2020-03-13 株式会社ビジネスインテリジェンス プログラム、情報処理装置及び情報処理方法
JP6594577B1 (ja) * 2019-03-27 2019-10-23 株式会社博報堂Dyホールディングス 評価システム、評価方法、及びコンピュータプログラム。
WO2021007331A1 (en) * 2019-07-08 2021-01-14 XBrain, Inc. Image representation of a conversation to self-supervised learning
JP7519191B2 (ja) 2020-03-13 2024-07-19 マクセル株式会社 軽量板及び軽量板を備える軽量パネル
JP7369942B2 (ja) * 2020-07-02 2023-10-27 パナソニックIpマネジメント株式会社 コミュニケーション解析システム、及び、コミュニケーション解析方法
US11277462B2 (en) * 2020-07-14 2022-03-15 International Business Machines Corporation Call management of 5G conference calls
JP7421445B2 (ja) 2020-08-19 2024-01-24 東芝ライフスタイル株式会社 電気掃除機及び電気掃除装置
JP7468689B2 (ja) * 2020-10-12 2024-04-16 日本電気株式会社 分析装置、分析方法及び分析プログラム
JP7533607B2 (ja) * 2020-10-12 2024-08-14 日本電気株式会社 分析装置、分析方法、および分析プログラム
US20220292406A1 (en) * 2021-03-12 2022-09-15 International Business Machines Corporation Analyzing and enabling shifts in group dynamics
US11405589B1 (en) * 2021-05-25 2022-08-02 Nooncake Inc Interactive video conferencing interface

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215931A (ja) 2016-02-02 2017-12-07 株式会社リコー 会議支援システム、会議支援装置、会議支援方法及びプログラム
JP2017201479A (ja) 2016-05-06 2017-11-09 日本ユニシス株式会社 コミュニケーション支援システム
JP2018124456A (ja) 2017-02-01 2018-08-09 株式会社リコー 情報端末、情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2019174616A (ja) 2018-03-28 2019-10-10 本田技研工業株式会社 対話装置及びプログラム
WO2020116531A1 (ja) 2018-12-05 2020-06-11 株式会社 東芝 会話分析システム、方法及びプログラム
JP2020170310A (ja) 2019-04-02 2020-10-15 富士通株式会社 会話分析装置、会話分析方法および会話分析プログラム
JP2021051633A (ja) 2019-09-26 2021-04-01 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、コミュニケーションシステムおよびコミュニケーション端末
JP2021099670A (ja) 2019-12-23 2021-07-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
EP4398170A4 (en) 2024-12-25
JPWO2023033033A1 (ja) 2023-03-09
EP4398170A1 (en) 2024-07-10
WO2023033033A1 (ja) 2023-03-09
US20240203442A1 (en) 2024-06-20

Similar Documents

Publication Publication Date Title
US12476929B2 (en) Shared group reactions within a video communication session
US10896298B2 (en) Systems and methods for configuring an automatic translation of sign language in a video conference
JP5195106B2 (ja) 画像修正方法、画像修正システム、及び画像修正プログラム
US20210082394A1 (en) Method, apparatus, device and computer storage medium for generating speech packet
US10586131B2 (en) Multimedia conferencing system for determining participant engagement
JP7581618B2 (ja) 通信システム、及び提案方法
CN106487757A (zh) 进行语音会议的方法、会议客户端和系统
CN115273831A (zh) 语音转换模型训练方法、语音转换方法和装置
CN105551498A (zh) 一种语音识别的方法及装置
CN111556279A (zh) 即时会话的监控方法和通信方法
JP7323098B2 (ja) 対話支援装置、対話支援システム、及び対話支援プログラム
CN112286610A (zh) 一种互动处理方法、装置、电子设备和存储介质
JP7790111B2 (ja) 情報処理方法、プログラム、情報処理装置、情報処理システム
JP7688335B2 (ja) コミュニケーション支援システム、情報処理装置、コミュニケーション支援方法、及びプログラム
JP2024074245A (ja) コミュニケーション支援システム、コミュニケーション支援装置、コミュニケーション支援方法、及びプログラム
CN113157241A (zh) 交互设备、交互装置及交互系统
KR20210042277A (ko) 음성 처리 방법 및 장치
CN117882102A (zh) 通信支持系统、信息处理设备、通信支持方法和程序
JP2024068624A (ja) 情報処理装置、情報入力支援システム、情報入力支援方法、及びプログラム
US12561049B2 (en) Information processing system, information processing apparatus, and information processing method
US20240212670A1 (en) Communication support system, communication support method, and non-transitory recording medium
US20250111849A1 (en) System, apparatus, and method of supporting communication
CN118573648B (zh) 消息发送方法、装置、设备及存储介质
US12063122B2 (en) Method for operating voice chat room dependent on message chat room, and server and terminal for performing the same
JP2025058667A (ja) 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240307

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250508

R150 Certificate of patent or registration of utility model

Ref document number: 7688335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150