JP2022113066A - 支援装置、支援方法及び支援プログラム - Google Patents

支援装置、支援方法及び支援プログラム Download PDF

Info

Publication number
JP2022113066A
JP2022113066A JP2021009185A JP2021009185A JP2022113066A JP 2022113066 A JP2022113066 A JP 2022113066A JP 2021009185 A JP2021009185 A JP 2021009185A JP 2021009185 A JP2021009185 A JP 2021009185A JP 2022113066 A JP2022113066 A JP 2022113066A
Authority
JP
Japan
Prior art keywords
user
unit
support device
support
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021009185A
Other languages
English (en)
Inventor
裕美 金児
Hiromi Kaneko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2021009185A priority Critical patent/JP2022113066A/ja
Publication of JP2022113066A publication Critical patent/JP2022113066A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】オンライン会議において高品質な自動ファシリテートを行うこと。【解決手段】支援装置10は、オンライン会議に参加しているユーザの端末から音声及び画像を取得する。支援装置10は、取得した音声及び画像が所定の条件を満たすユーザを特定する。支援装置10は、特定したユーザの発話を促す。例えば、支援装置10は、オンライン会議の音声の中に出てきたワードにあらかじめ対応付けられたユーザを特定し、チャット欄にテキストメッセージを出力することで特定したユーザの発話を促すことができる。【選択図】図1

Description

本発明は、支援装置、支援方法及び支援プログラムに関する。
従来、会議のファシリテートを支援するための技術が知られている。例えば、参加者からの投稿文の要約を絵等を併記して分かりやすく提示する技術が知られている(例えば、特許文献1を参照)。また、例えば、発言等から各参加者の会議への寄与度を計測し、当該寄与度に基づいて会議の活性化の状況を測定する技術が知られている(例えば、特許文献2を参照)。
特開2018-136597号公報 特開2007-047461号公報
しかしながら、従来の技術には、オンライン会議において高品質な自動ファシリテートを行うことが難しい場合があるという問題がある。
例えば、特許文献1の技術は投稿文の内容を分かりやすく伝えるものであり、投稿文の内容に対する発話を直接的に促すことはできない。また、例えば、特許文献2の技術については、会議への寄与度だけでは活性化の状況を十分に評価できない場合があると考えられる。現実の会議においても、それぞれ専門分野や役職が異なる各参加者が均等に発話するのが良いとは限らない。
上述した課題を解決し目的を達成するために、支援装置は、オンライン会議に参加しているユーザの端末から音声及び画像を取得する取得部と、前記取得部によって取得された音声及び画像が所定の条件を満たすユーザを特定する特定部と、前記特定部によって特定されたユーザの発話を促す促進部と、を有することを特徴とする。
本発明によれば、オンライン会議において高品質な自動ファシリテートを行うことができる。
図1は、第1の実施形態に係る支援システムの構成例を示す図である。 図2は、第1の実施形態に係る支援装置の構成例を示す図である。 図3は、ユーザ情報の例を示す図である。 図4は、画面の例を示す図である。 図5は、第1の実施形態に係る支援装置の処理の流れを示すフローチャートである。 図6は、支援プログラムを実行するコンピュータの一例を示す図である。
以下に、本願に係る支援装置、支援方法及び支援プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
[第1の実施形態の構成]
まず、図1を用いて、第1の実施形態に係る支援システムの構成について説明する。図1は、第1の実施形態に係る支援システムの構成例を示す図である。図1に示すように、支援システム1は、支援装置10、端末20a、端末20b、端末20c及び端末20dを有する。
支援装置10は、オンライン会議システムを支援するための装置である。支援装置10は、各端末を介してユーザUa、ユーザUb、ユーザUc、ユーザUdの音声及び画像を収集し、収集した音声及び画像を各端末に配信する。支援装置10は、ネットワークNを介して各端末と接続されている。ネットワークNは、例えばインターネットである。
各端末は、支援装置10から提供された音声及び画像を出力する。例えば、図1の例では、端末20aは、支援装置10から提供された各ユーザの動画像を画面に出力する。また、画面には、各ユーザが入力したテキストメッセージが表示されるチャット欄が設けられている。さらに、端末20aは、支援装置10から提供された各ユーザの音声を出力する。
チャット欄には、テキストを入力したユーザを特定するための情報とともにテキストメッセージが表示される。図1の例では、ユーザUaが「こんにちは。」というテキストメッセージを発信している。
ここで、チャット欄に表示されている「司会ボット」は、支援装置10によって自動生成されたテキストメッセージの仮想的な発信主体である。図1の例では、「司会ボット」が「環境問題に詳しいUbさんいかがですか?」というテキストメッセージを発信している。
「司会ボット」によるテキストメッセージの発信は、支援装置10がオンライン会議のファシリテートを支援するための機能の一部である。支援装置10は、取得した音声及び画像を基に、オンライン会議を活性化させるための出力を行う。例えば、支援装置10は、図1のようにテキストメッセージを出力してもよいし、音声を出力してもよい。
特に支援装置10は、会議を活性化させるのに適したユーザの発話を促すことによりオンライン会議を活性化させ、ファシリテートを支援する。支援装置10は、オンライン会議における各ユーザの音声及び画像をリアルタイムに分析し、発話に適したユーザを特定する。
図1の例では、ユーザUbが環境問題に詳しいことが事前にわかっているものとする。また、「Ubさん」はユーザUbを指すものとする。例えば、会議中のユーザの音声の中に環境問題又は環境問題に関連するワードが出現した場合、支援装置10は、テキストメッセージの表示によりユーザUbの発話を促す。
また、支援装置10は、ユーザの音声以外にも様々な情報から発話を促すユーザを特定することができる。支援装置10による発話を促すユーザの詳細な特定方法については後述する。
ここで、支援装置10の構成について説明する。図2は、第1の実施形態に係る支援装置の構成例を示す図である。図2に示すように、支援装置10は、通信部11、入出力部12、記憶部13及び制御部14を有する。
通信部11は、ネットワークを介して、他の装置との間でデータ通信を行う。例えば、通信部11はNIC(Network Interface Card)である。入出力部12は、データの入出力を行うためのインタフェースである。入出力部12は、例えばマウスやキーボード等の入力装置、及びディスプレイ等の出力装置と接続される。
記憶部13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部13は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部13は、支援装置10で実行されるOS(Operating System)や各種プログラムを記憶する。記憶部13は、モデル情報131及びユーザ情報132を記憶する。
モデル情報131は、発話を促すユーザを特定するためのモデルの構築に関する情報である。例えば、モデル情報131は、ニューラルネットワークを構築するための重み行列及びバイアス値等である。モデルを使った処理の詳細については後述する。
ユーザ情報132は、ユーザの個人に関する情報である。図3は、ユーザ情報の例を示す図である。図3に示すように、ユーザ情報132には、ユーザごとの性別、年齢、及びキーワードが含まれる。性別及び年齢は属性情報の一例である。属性情報には、図示した者以外にも、ユーザの部署、役職、保有するスキル、趣味等が含まれていてもよい。また、キーワードは、例えば各ユーザの専門分野及び得意とする分野に関するワードであり、あらかじめ設定されているものとする。
制御部14は、支援装置10全体を制御する。制御部14は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部14は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部14は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部14は、取得部141、特定部142、促進部143及び更新部144を有する。
取得部141は、オンライン会議に参加しているユーザの端末から音声及び画像を取得する。取得部141は、取得した音声及び画像を、後段の処理に合わせて変換してもよい。
特定部142は、取得部141によって取得された音声及び画像が所定の条件を満たすユーザを特定する。例えば、特定部142は、モデル情報131を基に構築されたモデルに、取得部141によって取得された情報を入力して得られた情報を基にユーザを特定する。
モデルは、入力された音声又は画像から、ユーザごとのスコアを出力するモデルであって、ファシリテータであるユーザが実際に発話を促したユーザの傾向を示すデータによって訓練されたモデルである。
例えば、モデルは各ユーザごとのスコアを算出し、特定部142は最もスコアが高いユーザを特定する。ここでのスコアは、ユーザごとの発話に対するふさわしさの度合い、ユーザごとの発話をした場合の会議の活性化度合い等と言い換えることができる。
ここで、特定部142によるユーザを特定する方法の具体例について説明する。ここで説明する具体例は、機械学習の手法によって訓練されたモデルによって実現されてもよいし、あらかじめ規定されたルールベースのモデルによって実現されてもよい。
特定部142は、ユーザのいずれかに対応付けられたキーワードが、取得部141によって取得された音声に含まれている場合、キーワードに対応付けられたユーザを特定する。
例えば、取得部141が取得した音声の中に「環境問題」というワードが出てきた場合、特定部142は、ユーザ情報132を参照し、キーワード「環境問題」と対応付けられたユーザUbを特定する。なお、特定部142は、音声にキーワードが含まれているか否かを、既知の音声認識技術により判定することができる。
また、特定部142は、音声の中に出てきたワードそのものだけでなく、当該ワードと類似するワードに対応するユーザを特定してもよい。この場合、特定部142は、あらかじめ類似するワード同士を対応付けた類語辞典形式のデータを参照してユーザを特定することができる。例えば、特定部142は、音声の中に出てきた「地球温暖化」をキーとして類語辞典形式のデータを検索して得られた「環境問題」に対応するユーザUbを特定する。
また、特定部142は、音声の中にキーワードとの類似度が大きいワードが出てきた場合、当該キーワードに対応するユーザを特定する。例えば、音声の中に「サッカー」、「オリンピック」といったワードが出てきた場合、特定部142は、それらのワードとの類似度が大きい「スポーツ」に対応するユーザUdを特定する。なお、ワード間の類似度は、Word2Vec等により計算されるものであってもよい。
特定部142は、取得部141によって取得された音声を基に、ユーザのうち発話頻度が所定値(閾値)以下であるユーザを特定する。例えば、特定部142は、一定の期間における各ユーザの発話時間を記録しておき、最も発話時間が短かったユーザを特定する。また、特定部142は、発話時間に限らず、発話したワード数によって発話頻度を計測してもよい。
特定部142がユーザを特定するための発話頻度の閾値は、あらかじめ設定された固定値であってもよいし、熟練したファシリテータが実際に発言を促した参加者の発言頻度を基に、機械学習の手法により最適化されたものであってもよい。
特定部142は、ユーザのうちミュート機能のオンとオフを一定回数以上繰り返しているユーザを特定する。オンライン会議において、雑音防止等の観点から、発話を行っているユーザ以外はミュート機能をオンにしている場合がある。ミュート機能をオンにしたユーザの端末へ入力された音声は、他のユーザの端末には送信されない。
そして、ミュート機能がオンの場合、ユーザが発話を始めるためにはミュート機能をオフにする必要がある。このとき、ユーザが発話を始めてよいか否かを明確に判断しかねている場合、ミュート機能のオンオフを繰り返す場合がある。例えば、特定部142は、例えば5秒間に3回以上ミュート機能のオン又はオフを行ったユーザを特定する。
特定部142がユーザを特定するためのミュート機能のオンオフに関する期間及び回数は、「5秒間に3回以上」のようにあらかじめ設定されたものであってもよいし、実際の会議において発言した参加者の発言直前の挙動を基に、機械学習の手法により最適化されたものであってもよい。
特定部142は、取得部141によって取得された画像を基に、あらかじめ定められた所定の動作を行ったユーザを特定する。例えば、首を傾げる動作や眉をひそめる動作を行ったユーザは、他のユーザの発話に対して反論を希望していると判断することができる。この場合、特定部142は、首を傾げる動作又は眉をひそめる動作を行ったユーザを特定する。なお、特定部142は、ユーザの動作を既知の画像認識技術により認識することができる。
例えば、特定部142は、画像を入力とし、発言を希望する度合いを出力するモデルを用いてユーザを特定する。例えば、このようなモデルは、参加者が所定の動作を行ったときの画像と、当該動作を行ったときに発言を所望していたか否かを参加者から聞き取った結果と、を組み合わせたデータを用いて学習することができる。
促進部143は、特定部142によって特定されたユーザの発話を促す。促進部143は、図1のようにテキストメッセージにより発話を促してもよいし、音声により発話を促してもよい。
また、促進部143は、特定部142がユーザを特定した方法に応じて、発話を促すメッセージを変化させてもよい。例えば、特定部142がミュート機能のオンとオフを一定回数以上繰り返しているユーザとしてユーザUcを特定した場合、促進部143は、「Ucさん、何か話したいことがあるようですね?」といったメッセージを出力する。
また、促進部143は、図4のようにポップアップメッセージによる発話を促してもよい。図4は、画面の例を示す図である。図4の例では、促進部143は、ユーザUbの発話を促すため、「環境問題についてはUbさんが詳しいですよ。」というポップアップメッセージを端末の画面に表示させる。
促進部143は、特定する方法ごとに用意されたテンプレートを利用してメッセージを生成してもよい。例えば、促進部143は、「XXXさん、何か話したいことがあるようですね?」というテンプレートの「XXX」ユーザの名前に置き換えることでメッセージを生成する。
さらに、促進部143は、特定部142によって特定されたユーザに関する情報を、ユーザのうちファシリテータとしてあらかじめ指定されたユーザに対して通知する。例えば、促進部143は、図4に示すポップアップメッセージを、ファシリテータとしてあらかじめ指定されたユーザUaの端末20aにのみ表示させ、他のユーザの端末には表示させないようにする。
更新部144は、モデル情報131を更新する。特に、更新部144は、機械学習の手法によりモデル情報131を更新する。例えば、更新部144は、オンライン会議の音声及び画像を入力して得られるユーザごとのスコアと、人手で決定した各ユーザのスコアとの差分が小さくなるようにモデル情報131を更新する。
[第1の実施形態の処理]
図5は、第1の実施形態に係る支援装置の処理の流れを示すフローチャートである。まず、支援装置10は、オンライン会議の音声及び画像を取得する(ステップS101)。
そして、支援装置10は、取得した情報を基に、発話を促すユーザを特定する(ステップS102)。支援装置10は、特定したユーザの発話を促進する(ステップS103)。例えば、支援装置10は、テキストメッセージ又は音声の出力により特定したユーザを通知することで発話を促進する。
[第1の実施形態の効果]
これまで説明してきたように、取得部141は、オンライン会議に参加しているユーザの端末から音声及び画像を取得する。特定部142は、取得部141によって取得された音声及び画像が所定の条件を満たすユーザを特定する。促進部143は、特定部142によって特定されたユーザの発話を促す。このように、支援装置10は、オンラインにおける音声及び画像を基に、各時点の状況に応じて発話するのに適したユーザを特定することができる。その結果、本実施形態によれば、オンライン会議において高品質な自動ファシリテートを行うことができる。
特定部142は、ユーザのいずれかに対応付けられたキーワードが、取得部141によって取得された音声に含まれている場合、キーワードに対応付けられたユーザを特定する。これにより、支援装置10は、オンライン会議の話題に合わせたユーザの発言を引き出すことができる。
特定部142は、取得部141によって取得された音声を基に、ユーザのうち発言頻度が所定値以下であるユーザを特定する。このように、支援装置10は、発言頻度が少ないユーザの発話を促すことで、オンライン会議を活性化させることができる。
特定部142は、ユーザのうちミュート機能のオンとオフを一定回数以上繰り返しているユーザを特定する。これにより、支援装置10は、発話を始めてよいか否かを明確に判断しかねているユーザに発話を促すことができる。
特定部142は、取得部141によって取得された画像を基に、あらかじめ定められた所定の動作を行ったユーザを特定する。これにより、支援装置10は、ユーザの心理に応じて発話を促すことができる。
促進部143は、特定部142によって特定されたユーザに関する情報を、ユーザのうちファシリテータとしてあらかじめ指定されたユーザに対して通知する。これにより、支援装置10は、ユーザによるファシリテートを支援することができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。なお、プログラムは、CPUだけでなく、GPU等の他のプロセッサによって実行されてもよい。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、支援装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の支援処理を実行する支援プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の支援プログラムを情報処理装置に実行させることにより、情報処理装置を支援装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
また、支援装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の支援処理に関するサービスを提供する支援サーバ装置として実装することもできる。例えば、支援サーバ装置は、オンライン会議の参加者の音声及び画像を入力とし、参加者の発話を促すメッセージを出力とする支援サービスを提供するサーバ装置として実装される。この場合、支援サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の支援処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。
図6は、支援プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、支援装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、支援装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
N ネットワーク
1 支援システム
10 支援装置
11 通信部
12 入出力部
13 記憶部
14 制御部
20a、20b、20c、20d 端末
Ua、Ub、Uc、Ud ユーザ
131 モデル情報
132 ユーザ情報
141 取得部
142 特定部
143 促進部
144 更新部

Claims (8)

  1. オンライン会議に参加しているユーザの端末から音声及び画像を取得する取得部と、
    前記取得部によって取得された音声及び画像が所定の条件を満たすユーザを特定する特定部と、
    前記特定部によって特定されたユーザの発話を促す促進部と、
    を有することを特徴とする支援装置。
  2. 前記特定部は、前記ユーザのいずれかに対応付けられたキーワードが、前記取得部によって取得された音声に含まれている場合、前記キーワードに対応付けられたユーザを特定することを特徴とする請求項1に記載の支援装置。
  3. 前記特定部は、前記取得部によって取得された音声を基に、前記ユーザのうち発言頻度が所定値以下であるユーザを特定することを特徴とする請求項1又は2に記載の支援装置。
  4. 前記特定部は、前記ユーザのうちミュート機能のオンとオフを一定回数以上繰り返しているユーザを特定することを特徴とする請求項1から3のいずれか1項に記載の支援装置。
  5. 前記特定部は、前記取得部によって取得された画像を基に、あらかじめ定められた所定の動作を行ったユーザを特定することを特徴とする請求項1から4のいずれか1項に記載の支援装置。
  6. 前記促進部は、前記特定部によって特定されたユーザに関する情報を、前記ユーザのうちファシリテータとしてあらかじめ指定されたユーザに対して通知することを特徴とする請求項1から5のいずれか1項に記載の支援装置。
  7. 支援装置によって実行される支援方法であって、
    オンライン会議に参加しているユーザの端末から音声及び画像を取得する取得工程と、
    前記取得工程によって取得された音声及び画像が所定の条件を満たすユーザを特定する特定工程と、
    前記特定工程によって特定されたユーザの発話を促す促進工程と、
    を含むことを特徴とする支援方法。
  8. コンピュータを請求項1から6のいずれか1項に記載の支援装置として機能させるための支援プログラム。
JP2021009185A 2021-01-22 2021-01-22 支援装置、支援方法及び支援プログラム Pending JP2022113066A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021009185A JP2022113066A (ja) 2021-01-22 2021-01-22 支援装置、支援方法及び支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021009185A JP2022113066A (ja) 2021-01-22 2021-01-22 支援装置、支援方法及び支援プログラム

Publications (1)

Publication Number Publication Date
JP2022113066A true JP2022113066A (ja) 2022-08-03

Family

ID=82657080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021009185A Pending JP2022113066A (ja) 2021-01-22 2021-01-22 支援装置、支援方法及び支援プログラム

Country Status (1)

Country Link
JP (1) JP2022113066A (ja)

Similar Documents

Publication Publication Date Title
US11552814B2 (en) Proactive provision of new content to group chat participants
EP3095113B1 (en) Digital personal assistant interaction with impersonations and rich multimedia in responses
CN107391521B (zh) 基于消息分类自动扩增消息交换话题
US20200135225A1 (en) Producing comprehensible subtitles and captions for an effective group viewing experience
KR102429407B1 (ko) 사용자 구성의 맞춤형 인터렉티브 대화 애플리케이션
JP7371135B2 (ja) 特定話者スピーチモデルを使用した話者認識
US11676607B2 (en) Contextual denormalization for automatic speech recognition
US20230352004A1 (en) Mixed client-server federated learning of machine learning model(s)
JP2022113066A (ja) 支援装置、支援方法及び支援プログラム
US20230138820A1 (en) Real-time name mispronunciation detection
US11397857B2 (en) Methods and systems for managing chatbots with respect to rare entities
JP7405526B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN113767379B (zh) 使用内容代理和/或存储的内容参数来渲染内容
US11924150B2 (en) System(s) and method(s) for enabling a representative associated with an entity to modify a trained voice bot associated with the entity
CN113785540B (zh) 使用机器学习提名方生成内容宣传的方法、介质和系统
US20240121487A1 (en) Systems and methods for generating a video summary of a virtual event
Campbell et al. Expressivity in interactive speech synthesis; some paralinguistic and nonlinguistic issues of speech prosody for conversational dialogue systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240508