JP2017118364A - コミュニケーションシステム、コミュニケーション装置およびコミュニケーションプログラム - Google Patents
コミュニケーションシステム、コミュニケーション装置およびコミュニケーションプログラム Download PDFInfo
- Publication number
- JP2017118364A JP2017118364A JP2015252585A JP2015252585A JP2017118364A JP 2017118364 A JP2017118364 A JP 2017118364A JP 2015252585 A JP2015252585 A JP 2015252585A JP 2015252585 A JP2015252585 A JP 2015252585A JP 2017118364 A JP2017118364 A JP 2017118364A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- participant
- unit
- information
- next speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【解決手段】会話に参加する複数の参加者を撮影した映像信号に基づいて表示する表示部103と、参加者の呼吸情報、参加者の頭部の動きに関する情報である頭部情報および参加者が注視している対象に関する情報である注視対象情報の少なくとも一つと、参加者の音声を集音した音信号とに基づいて、次話者を推定した次話者情報を出力する次話者推定部107と、次話者情報に基づいて、表示部に表示される参加者が次話者であると判断された場合に、次話者であることを示す表示態様で次話者と判断された参加者を表示部に表示させる映像制御部109とを備える。
【選択図】図2
Description
(第1の実施形態)
図1は、第1の実施形態における複数のテレビ会議システム(コミュニケーションシステム)を含む通信システムの全体構成の概略を示す図である。
参考文献1:澤田 宏、外4名、"多人数多マイクでの発話区間検出〜ピンマイクでの事例〜"、日本音響学会 春季研究発表会、pp.679−680、2007年3月
参考文献2:中野 有紀子、外3名、“非言語情報に基づく受話者推定機構を用いた多人数会話システム”、人工知能学会論文誌 29巻1号、pp.69−79、2014年
上述した受話者を推定する方法では、現話者の顔の向きから受話者を推定していたが、本実施形態のテレビ会議端末10には、各参加者に装着された注視対象検出装置15が接続されているので、現話者に装着された注視対象検出装置15からの注視対象情報に基づいて、現話者の注視対象である受話者を特定してもよい。
図5は、第1の実施形態におけるテレビ会議システム1の動作を示すフロー図である。図5において、参加者が各テレビ会議システム1の各装置(テレビ会議端末10等)の電源を入れる等を行うことにより、各テレビ会議システム1が備える各装置が起動する(ステップS101)。
上述した第1の実施形態では、1台のテレビ会議端末10に対して複数人の参加者がいる場合は、その人数分のマイク11およびカメラ12を設置する構成としたが、この構成に限られるものではなく、種々の構成が考えられる。例えば、参加者の人数に関係なく1台のテレビ会議端末10に対して、1つのマイク11および1つのカメラ12を設置する構成であってもよい。この場合は、例えば、カメラ12は、参加者全員を撮影可能な位置に設置する。映像制御部109は、現話者情報、受話者情報、次話者確率に基づいて、映像入力部102からの映像信号の中に映っている複数の参加者の中から、現話者、受話者および次話者に該当する参加者がいれば、その参加者に対して現話者、受話者又は次話者と分かる指標等を表示部103に表示する。
第2の実施形態におけるテレビ会議システム(コミュニケーションシステム)1aの構成例について説明する。第2の実施形態におけるテレビ会議システム1aは、1台のテレビ会議端末10aの前に複数の参加者がいることが前提となる。テレビ会議システム1aは、話者情報に基づいて、現話者、受話者および次話者の少なくとも一人をカメラ12aでズームアップして撮影することができるという特徴を有する。
図10は、第2の実施形態におけるテレビ会議システム1aの動作を示すフロー図である。図10に示すとおりステップS101〜S103、S104〜S107は、図5に示した第1の実施形態におけるテレビ会議システム1の動作と同じ処理であり、その説明を省略する。
次に、上述した第1の実施形態におけるテレビ会議システム1および第2の実施形態におけるテレビ会議システム1aに共通である次話者を推定する処理の具体例について説明する。テレビ会議システム1およびテレビ会議システム1aにおける次話者推定には、例えば、以下の参考文献3、4の技術などを適用することができるが、任意の既存の技術を利用してもよい。参考文献3、4記載の技術を利用した場合は、注視対象検出装置15が出力する注視対象情報に基づく発話者と非発話者の注視行動の遷移パターンを用いて、次話者推定部107は、次発話者および発話のタイミングを予測する。
参考文献4:石井亮、外4名、“複数人対話における注視遷移パターンに基づく次話者と発話タイミングの予測”、人工知能学会研究会資料、SIG-SLUD-B301-06、pp.27-34、2013年
会話の参加者の呼吸動作は次発話者と発話のタイミングに深い関連性がある。このことを利用して、会話の参加者の呼吸動作をリアルタイムに計測し、計測された呼吸動作から発話の開始直前に行われる特徴的な呼吸動作を検出し、この呼吸動作を基に次発話者とその発話タイミングを高精度に算出する。具体的には、発話開始直前におこなわれる呼吸動作の特徴として、発話を行っている発話者は、継続して発話する際(発話者継続時)には、発話終了直後にすぐに急激に息を吸い込む。逆に発話者が次に発話を行わない際(発話者交替時)には、発話者継続時に比べて、発話終了時から間を空けて、ゆっくりと息を吸い込む。また、発話者交替時に、次に発話をおこなう次発話者は、発話を行わない非発話者に比べて大きく息を吸い込む。このような発話の前におこなわれる呼吸は、発話開始に対しておおよそ決められたタイミングで行われる。このように、発話の直前に次発話者は特徴的な息の吸い込みを行うため、このような息の吸い込みの情報は、次発話者とその発話タイミングを予測するのに有用である。本次話者推定技術では、人物の息の吸い込みに着目し、息の吸い込み量や吸い込み区間の長さ、タイミングなどの情報を用いて、次発話者と発話タイミングを予測する。
・MINa,k:参加者Paの息の吸い込み開始時のRSP値Ra,t、すなわち、息の吸い込み区間Ia,kのRSP値Ra,tの最小値。
・MAXa,k:参加者Paの息の吸い込み終了時のRSP値Ra,t、すなわち、息の吸い込み区間Ia,kのRSP値Ra,tの最大値。
・AMPa,k:参加者Paの息の吸い込み区間Ia,kのRSP値Ra,tの振幅、すなわち、MAXa,k−MINa,kで算出される値。吸い込み区間Ia,kでの息の吸い込み量を表す。
・DURa,k:参加者Paの息の吸い込み区間Ia,kの長さ、すなわち、息の吸い込み区間Ia,kの終了位置の離散時刻te(k)から開始位置の離散時刻ts(k)を減じて得られる値te(k)−ts(k)。
・SLOa,k:参加者Paの息の吸い込み区間Ia,kにおけるRSP値Ra,tの単位時間当たりの傾きの平均値、すなわち、AMPa,k/DURa,kで算出される値。吸い込み区間Ia,kでの息の吸い込み量の時間変化を表す。
・INT1a,k:手前の発話区間Ukの終了時刻tue(k)(発話区間末)から参加者Paの息の吸い込みが開始されるまでの間隔、すなわち、息の吸い込み区間Ia,kの開始位置の離散時刻ts(k)から発話区間Ukの終了時刻tue(k)を減じて得られる値ts(k)−tue(k)。発話区間Ukと吸い込み区間Ia,kとの時間関係を表す。
・INT2a,k:参加者Paの息の吸い込み終了時から次発話者の発話区間Uk+1が開始されるまでの間隔、すなわち、次発話者の発話区間Uk+1の開始時刻tus(k+1)から息の吸い込み区間Ia,kの終了位置の離散時刻te(k)を減じて得られる値tus(k+1)−te(k)。発話区間Uk+1と吸い込み区間Ia,kとの時間関係を表す。パラメータλ’a,kにINT2a,kを加えたものをパラメータλa,kと表記する。
上述した実施形態の次話者推定部107が推定する参加者iの時刻tにおける次話者確率Pns i(t)は、参加者iが本次話者推定技術における参加者Paである場合、確率P1a×確率P2a(t)により算出される。
視線行動をさらに利用する場合、各参加者Pa(ただし、a=1,…,A)には注視対象検出装置15がさらに装着される。注視対象検出装置15は、参加者Paが誰を注視しているか(注視対象)を検出し、参加者Paおよび各離散時刻tでの注視対象Ga,tを表す情報を次話者推定部107に送る。次話者推定部107は、注視対象情報G1,t,…,GA,t、発話区間Uk、および話者情報Pukを入力とし、発話区間終了前後における注視対象ラベル情報θv,k(ただし、v=1,…,V、Vは注視対象ラベルの総数)を生成する。注視対象ラベル情報は、発話区間Ukの終了時点Tseに対応する時間区間における参加者の注視対象を表す情報である。ここでは、終了時点Tseを含む有限の時間区間における参加者Paの注視対象をラベル付けした注視対象ラベル情報θv,kを例示する。この場合、例えば、発話区間Ukの終了時点Tseよりも前の時点Tse−Tbから終了時点Tseよりも後の時点Tse+Taまでの区間に出現した注視行動を扱う。Tb,Taは0以上の任意の値でよいが、目安として、Tbは0秒〜2.0秒、Taは0秒〜3.0秒程度にするのが適当である。
・ラベルS:話者(すなわち、話者である参加者Pukを表す)
・ラベルLξ:非話者(ただし、ξは互いに異なる非話者である参加者を識別し、ξ=1,…,A−1である。例えば、ある参加者が、非話者P2、非話者P3、の順に注視をしていたとき、非話者P2にL1というラベル、非話者P3にL2というラベルが割り当てられる。)
・ラベルX:誰も見ていない
・INT1(=ET_RGL−ST_RGL):注視対象ラベルRGLの開始時刻ST_RGLと終了時刻ET_RGLの間隔
・INT2(=ST_U−ST_RGL):注視対象ラベルRGLの開始時刻ST_RGLが発話区間の開始時刻ST_Uよりもどれくらい前であったか
・INT3(=ET_U−ST_RGL):注視対象ラベルRGLの開始時刻ST_RGLが発話区間の終了時刻ET_Uよりもどれくらい前であったか
・INT4(=ET_RGL−ST_U):注視対象ラベルRGLの終了時刻ET_RGLが発話区間の開始時刻ST_Uよりもどれくらい後であったか
・INT5(=ET_U−ET_RGL):注視対象ラベルRGLの終了時刻ET_RGLが発話区間の終了時刻ET_Uよりもどれくらい前であったか
・INT6(=ST_RGL−ST_RGL’):注視対象ラベルRGLの開始時刻ST_RGLが他の注視対象ラベルRGL’の開始時刻ST_RGL’よりもどれくらい後であったか
・INT7(=ET_RGL’−ST_RGL):注視対象ラベルRGLの開始時刻ST_RGLが他の注視対象ラベルRGL’の終了時刻ET_RGL’よりもどれくらい前であったか
・INT8(=ET_RGL−ST_RGL’):注視対象ラベルRGLの終了時刻ET_RGLが注視対象ラベルRGL’の開始時刻ST_RGL’よりもどれくらい後であったか
・INT9(=ET_RGL−ET_RGL’):注視対象ラベルRGLの終了時刻ET_RGLが注視対象ラベルRGL’の終了時刻ET_RGL’よりもどれくらい後であったか
・INT1=ET_SL1−ST_SL1
・INT2=ST_U−ST_SL1
・INT3=ET_U−ST_SL1
・INT4=ET_SL1−ST_U
・INT5=ET_U−ET_SL1
・INT6=ST_SL1−ST_LL1
・INT7=ET_LL1−ST_SL1
・INT8=ET_SL1−ST_LL1
・INT9=ET_SL1−ET_LL1
参考文献5:石井 亮、外3名、“複数人対話での話者交替に関する頭部動作の分析 〜次話者と発話開始タイミングの予測モデルの構築に向けて〜”,HCGシンポジウム、2014年
次話者推定部107は、参考文献5に記載の技術を用いて頭部動作情報に基づく次話者の推定を行う構成であってもよい。また、次話者推定部107は、頭部動作計測装置16からの頭部動作情報に基づいて参加者の頭の動きを判断したが、映像入力部102からの各参加者の画像データを解析して、参加者の頭部の動きを特定してもよい。
Claims (7)
- 会話に参加する複数の参加者の音声を含む音を集音して第1の音信号を出力する集音部と、
前記参加者を撮影して第1の映像信号を出力する撮像部と、
前記参加者の呼吸に関する情報である呼吸情報、前記参加者の頭部の動きに関する情報である頭部情報および前記参加者が注視している対象に関する情報である注視対象情報の少なくとも一つと、前記集音部からの前記第1の音信号とに基づいて、前記参加者の中で次の話者となる参加者である次話者を推定した第1の次話者情報を出力する次話者推定部と、
前記撮像部が出力する前記第1の映像信号に基づいて前記参加者の映像を表示する表示部と、
前記次話者推定部が出力した前記第1の次話者情報に基づいて、前記表示部に表示される参加者が次話者であると判断された場合に、次話者であることを示す表示態様で次話者と判断された参加者を前記表示部に表示させる映像制御部と、
を備えるコミュニケーションシステム。 - 前記集音部からの前記第1の音信号に基づいて前記参加者の中で発話中である現話者を特定して現話者情報を出力する現話者特定部を更に備え、
前記映像制御部は、前記現話者特定部が出力した前記現話者情報に基づいて、前記表示部に表示される参加者が現話者であると判断された場合に、現話者であることを示す表示態様で現話者と判断された参加者を前記表示部に表示させる請求項1に記載のコミュニケーションシステム。 - 前記集音部からの前記第1の音信号と前記撮像部からの前記第1の映像信号とに基づいて、前記参加者の中で発話中である現話者の話の受け手である受話者を推定して受話者情報を出力する受話者推定部を更に備え、
前記映像制御部は、前記受話者推定部が出力した前記受話者情報に基づいて、前記表示部に表示される参加者が受話者であると判断された場合に、受話者であることを示す表示態様で受話者と判断された参加者を前記表示部に表示させる請求項1または請求項2に記載のコミュニケーションシステム。 - 前記次話者、前記現話者または前記受話者であることを示す前記表示態様は、前記次話者、前記現話者または前記受話者である参加者の表示領域を強調する枠で囲うことである請求項1から請求項3のいずれか一項に記載のコミュニケーションシステム。
- 前記参加者の内の少なくとも1人は遠隔地にいる場合に、遠隔地にいる前記参加者を撮影した第2の映像信号と、遠隔地にいる前記参加者の音声を含む第2の音信号と、遠隔地にいる前記参加者における次話者を推定した第2の次話者情報とを受信する受信部と、
前記集音部からの前記第1の音信号および前記受信部が受信した前記第2の音信号に応じて発音する発音部とをさらに備え、
前記表示部は、前記撮像部が出力する前記第1の映像信号と、前記受信部が受信した前記第2の映像信号とに基づいて前記参加者の映像を表示し、
前記映像制御部は、前記次話者推定部が出力した前記第1の次話者情報と、前記受信部が受信した第2の次話者情報とに基づいて、前記表示部に表示される参加者が次話者であると判断された場合に、次話者であることを示す表示態様で次話者と判断された参加者を前記表示部に表示させる請求項1から請求項4のいずれか一項に記載のコミュニケーションシステム。 - 会話に参加する複数の参加者の音声を含む音を集音して音信号を出力する集音部からの前記音信号が入力される音声入力部と、
前記参加者を撮影して映像信号を出力する撮像部からの前記映像信号が入力される映像入力部と、
前記参加者の呼吸に関する情報である呼吸情報、前記参加者の頭部の動きに関する情報である頭部情報および前記参加者が注視している対象に関する情報である注視対象情報の少なくとも一つと、前記集音部からの前記音信号とに基づいて、前記参加者の中で次の話者となる参加者である次話者を推定した次話者情報を出力する次話者推定部と、
前記映像入力部に入力された前記映像信号に基づいて前記参加者の映像を表示する表示部と、
前記次話者推定部が出力した前記次話者情報に基づいて、前記表示部に表示される参加者が次話者であると判断された場合に、次話者であることを示す表示態様で次話者と判断された参加者を前記表示部に表示させる映像制御部と、
を備えるコミュニケーション装置。 - 表示部を備え、会話に参加する複数の参加者の音声を含む音を集音して音信号を出力する集音部と前記参加者を撮影して映像信号を出力する撮像部とに接続されたコミュニケーション装置で実行されるコミュニケーションプログラムであって、
前記参加者の呼吸に関する情報である呼吸情報、前記参加者の頭部の動きに関する情報である頭部情報および前記参加者が注視している対象に関する情報である注視対象情報の少なくとも一つと、前記集音部からの前記音信号とに基づいて、前記参加者の中で次の話者となる参加者である次話者を推定した次話者情報を出力する次話者推定ステップと、
前記撮像部が出力した前記映像信号に基づいて前記参加者の映像を前記表示部に表示させる表示ステップと、
前記次話者推定ステップにおいて出力した前記次話者情報に基づいて、前記表示部に表示される参加者が次話者であると判断された場合に、次話者であることを示す表示態様で次話者と判断された参加者を前記表示部に表示させる映像制御ステップと、
をコンピュータに実行させるためのコミュニケーションプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015252585A JP2017118364A (ja) | 2015-12-24 | 2015-12-24 | コミュニケーションシステム、コミュニケーション装置およびコミュニケーションプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015252585A JP2017118364A (ja) | 2015-12-24 | 2015-12-24 | コミュニケーションシステム、コミュニケーション装置およびコミュニケーションプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017118364A true JP2017118364A (ja) | 2017-06-29 |
Family
ID=59232211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015252585A Pending JP2017118364A (ja) | 2015-12-24 | 2015-12-24 | コミュニケーションシステム、コミュニケーション装置およびコミュニケーションプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017118364A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019156079A1 (ja) * | 2018-02-07 | 2019-08-15 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
WO2019203528A1 (en) | 2018-04-17 | 2019-10-24 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
JP7150114B1 (ja) | 2021-09-02 | 2022-10-07 | 株式会社ドワンゴ | コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム |
WO2022230081A1 (ja) * | 2021-04-28 | 2022-11-03 | 三菱電機株式会社 | 映像伝送システム、映像伝送方法及び映像受信装置 |
WO2023084570A1 (ja) * | 2021-11-09 | 2023-05-19 | 日本電信電話株式会社 | 発話推定装置、発話推定方法及び発話推定プログラム |
WO2023162073A1 (ja) * | 2022-02-24 | 2023-08-31 | 日本電信電話株式会社 | 学習装置、学習方法及び学習プログラム |
WO2024070550A1 (ja) * | 2022-09-29 | 2024-04-04 | 京セラ株式会社 | システム、電子機器、システムの制御方法、及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030220971A1 (en) * | 2002-05-23 | 2003-11-27 | International Business Machines Corporation | Method and apparatus for video conferencing with audio redirection within a 360 degree view |
JP2004515982A (ja) * | 2000-12-05 | 2004-05-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | テレビ会議及び他の適用においてイベントを予測する方法及び装置 |
JP2007147762A (ja) * | 2005-11-24 | 2007-06-14 | Fuji Xerox Co Ltd | 発話者予測装置および発話者予測方法 |
JP2011061450A (ja) * | 2009-09-09 | 2011-03-24 | Nippon Telegr & Teleph Corp <Ntt> | 会議通信システム、会議通信方法及びプログラム |
JP2011118632A (ja) * | 2009-12-02 | 2011-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 発話の予備動作検出及び伝達方法及び装置及びプログラム |
JP2014238525A (ja) * | 2013-06-10 | 2014-12-18 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
-
2015
- 2015-12-24 JP JP2015252585A patent/JP2017118364A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004515982A (ja) * | 2000-12-05 | 2004-05-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | テレビ会議及び他の適用においてイベントを予測する方法及び装置 |
US20030220971A1 (en) * | 2002-05-23 | 2003-11-27 | International Business Machines Corporation | Method and apparatus for video conferencing with audio redirection within a 360 degree view |
JP2007147762A (ja) * | 2005-11-24 | 2007-06-14 | Fuji Xerox Co Ltd | 発話者予測装置および発話者予測方法 |
JP2011061450A (ja) * | 2009-09-09 | 2011-03-24 | Nippon Telegr & Teleph Corp <Ntt> | 会議通信システム、会議通信方法及びプログラム |
JP2011118632A (ja) * | 2009-12-02 | 2011-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 発話の予備動作検出及び伝達方法及び装置及びプログラム |
JP2014238525A (ja) * | 2013-06-10 | 2014-12-18 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
Non-Patent Citations (2)
Title |
---|
ISHII ET AL.: "Predicting who will be the next speaker and when in multi-party meeting", NTT TECHNICAL REVIEW, vol. 13, no. 7, JPN6018016622, July 2015 (2015-07-01), JP, ISSN: 0003904550 * |
中野 有紀子, 外3名: "非言語情報に基づく受話者推定機構を用いた多人数会話システム", 人口知能学会論文誌, vol. 29巻1号, JPN6018016625, 30 April 2013 (2013-04-30), pages 69 - 79, ISSN: 0003904549 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019156079A1 (ja) * | 2018-02-07 | 2019-08-15 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
JP2019139387A (ja) * | 2018-02-07 | 2019-08-22 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
US11475911B2 (en) | 2018-02-07 | 2022-10-18 | Nippon Telegraph And Telephone Corporation | Estimation device, estimation method and program |
KR102453084B1 (ko) * | 2018-04-17 | 2022-10-12 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN111937376A (zh) * | 2018-04-17 | 2020-11-13 | 三星电子株式会社 | 电子设备及其控制方法 |
EP3701715A4 (en) * | 2018-04-17 | 2020-12-02 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND METHOD OF CONTROLLING IT |
CN111937376B (zh) * | 2018-04-17 | 2022-08-09 | 三星电子株式会社 | 电子设备及其控制方法、可读记录介质 |
KR20190121016A (ko) * | 2018-04-17 | 2019-10-25 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
WO2019203528A1 (en) | 2018-04-17 | 2019-10-24 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
WO2022230081A1 (ja) * | 2021-04-28 | 2022-11-03 | 三菱電機株式会社 | 映像伝送システム、映像伝送方法及び映像受信装置 |
JP7150114B1 (ja) | 2021-09-02 | 2022-10-07 | 株式会社ドワンゴ | コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム |
WO2023032736A1 (ja) * | 2021-09-02 | 2023-03-09 | 株式会社ドワンゴ | コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム |
JP2023036147A (ja) * | 2021-09-02 | 2023-03-14 | 株式会社ドワンゴ | コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム |
WO2023084570A1 (ja) * | 2021-11-09 | 2023-05-19 | 日本電信電話株式会社 | 発話推定装置、発話推定方法及び発話推定プログラム |
WO2023162073A1 (ja) * | 2022-02-24 | 2023-08-31 | 日本電信電話株式会社 | 学習装置、学習方法及び学習プログラム |
WO2024070550A1 (ja) * | 2022-09-29 | 2024-04-04 | 京セラ株式会社 | システム、電子機器、システムの制御方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017118364A (ja) | コミュニケーションシステム、コミュニケーション装置およびコミュニケーションプログラム | |
JP6651989B2 (ja) | 映像処理装置、映像処理方法、及び映像処理システム | |
JP4212274B2 (ja) | 発言者識別装置及び該発言者識別装置を備えたテレビ会議システム | |
JP5458027B2 (ja) | 次発話者誘導装置、次発話者誘導方法および次発話者誘導プログラム | |
JP7036046B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2008139762A (ja) | プレゼンテーション支援装置および方法並びにプログラム | |
JP2007213282A (ja) | 講演者支援装置および講演者支援方法 | |
WO2017191711A1 (ja) | 制御装置、制御方法およびコンピュータプログラム | |
WO2017191713A1 (ja) | 制御装置、制御方法及びコンピュータプログラム | |
WO2011027475A1 (ja) | テレビ会議装置 | |
JP6363987B2 (ja) | 音声処理システム、音声処理装置および音声処理プログラム | |
JP6445473B2 (ja) | 会話支援システム、会話支援装置及び会話支援プログラム | |
JP6480351B2 (ja) | 発話制御システム、発話制御装置及び発話制御プログラム | |
WO2018135304A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
JP6383349B2 (ja) | コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム | |
CN113924542B (zh) | 用于确定情绪状态的头戴式耳机信号 | |
JP5143114B2 (ja) | 発話の予備動作検出及び伝達方法及び装置及びプログラム | |
JP7197957B2 (ja) | 反応解析システムおよび反応解析装置 | |
JP4585380B2 (ja) | 次発言者検出方法、装置、およびプログラム | |
JP6502865B2 (ja) | 会話支援システム、会話支援装置及び会話支援プログラム | |
JP2016042345A (ja) | 推定装置、その方法およびプログラム | |
JP6550951B2 (ja) | 端末、ビデオ会議システム、及びプログラム | |
JP6335157B2 (ja) | 会話支援システム、会話支援装置及び会話支援プログラム | |
KR20160028868A (ko) | 안면부 영상 인식 및 외부 입력 장비를 이용한 음성 합성 시스템 및 음성 합성 방법 | |
JP2004248125A (ja) | 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170828 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180515 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180830 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181030 |