JP2017117161A - コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム - Google Patents
コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム Download PDFInfo
- Publication number
- JP2017117161A JP2017117161A JP2015251203A JP2015251203A JP2017117161A JP 2017117161 A JP2017117161 A JP 2017117161A JP 2015251203 A JP2015251203 A JP 2015251203A JP 2015251203 A JP2015251203 A JP 2015251203A JP 2017117161 A JP2017117161 A JP 2017117161A
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- participant
- conversation
- probability
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 148
- 238000004891 communication Methods 0.000 title claims abstract description 99
- 238000005259 measurement Methods 0.000 claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 17
- 230000001755 vocal effect Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 abstract 1
- 238000000034 method Methods 0.000 description 24
- 230000029058 respiratory gaseous exchange Effects 0.000 description 19
- 230000006399 behavior Effects 0.000 description 17
- 230000007704 transition Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 102100030206 Integrator complex subunit 9 Human genes 0.000 description 7
- 101710092893 Integrator complex subunit 9 Proteins 0.000 description 7
- 102100024061 Integrator complex subunit 1 Human genes 0.000 description 6
- 101710092857 Integrator complex subunit 1 Proteins 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 102000008016 Eukaryotic Initiation Factor-3 Human genes 0.000 description 5
- 108010089790 Eukaryotic Initiation Factor-3 Proteins 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 102100028043 Fibroblast growth factor 3 Human genes 0.000 description 4
- 108050002021 Integrator complex subunit 2 Proteins 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000000241 respiratory effect Effects 0.000 description 4
- 230000008602 contraction Effects 0.000 description 3
- 230000037406 food intake Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 101710092886 Integrator complex subunit 3 Proteins 0.000 description 2
- 101710092887 Integrator complex subunit 4 Proteins 0.000 description 2
- 102100039131 Integrator complex subunit 5 Human genes 0.000 description 2
- 101710092888 Integrator complex subunit 5 Proteins 0.000 description 2
- 102100030147 Integrator complex subunit 7 Human genes 0.000 description 2
- 101710092890 Integrator complex subunit 7 Proteins 0.000 description 2
- 102100030148 Integrator complex subunit 8 Human genes 0.000 description 2
- 101710092891 Integrator complex subunit 8 Proteins 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 102100025254 Neurogenic locus notch homolog protein 4 Human genes 0.000 description 2
- 102100037075 Proto-oncogene Wnt-3 Human genes 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012854 evaluation process Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000008929 regeneration Effects 0.000 description 2
- 238000011069 regeneration method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010024229 Leprosy Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
一方、会話中のユーザの状態を自動的にモニタリングする技術がある(例えば、特許文献1参照)。この技術では、会話の参加者の頷き、笑い、合いの手などを検出し、時系列にモニタリングする。
従来からある次話者及び発話開始タイミングの予測技術は、会話の参加者の視線、呼吸、頭部動作などの非言語情報と、話者交替の状況の一般的なルールをモデル化したものである。従って、次話者及び発話開始タイミングの予測結果が、実際の次話者や発話開始タイミングと合致しないということは、一般的なルールを逸脱した状況が発生したことを意味する。よって、予測結果に反して発話を行った人物や、発話を行えなかった人物は、一般的な会話のルールに乗っ取って発話を行えないことから、コミュニケーションスキル(以下、「スキル」とも記載する。)が低いと考えられる。
第1パラメータ算出部551は、各参加者の第1パラメータS1を算出する。参加者Uiが発話者であるm番目(mはN+1以下の整数)の発話IPUmについての第1パラメータS1を第1パラメータSi 1(m)とする。第1パラメータSi 1(m)は、以下の式(1)のように算出される。式(1)において、ti mは、参加者Uiが発話者である発話IPUmの発話開始時刻である。第1パラメータSi 1(m)は、参加者Uiが発話IPUmを開始した時刻ti mの次話者確率Pi m(t)がどれくらい高かったかを示す。1/Lは、次話者確率の期待値である。第1パラメータSi 1(m)の値が大きいほど、参加者Uiのコミュニケーションスキルが高いことを表す。
再生制御部58は、記憶部52の映像記憶部523に記憶されている映像データを再生し、出力部59に映像の表示と音声の出力を行う。再生制御部58は、映像データの出力に合わせて、映像データの再生箇所における各参加者のコミュニケーションスキルの評価結果や、次話者確率などを出力部59に表示する。また、再生制御部58は、コミュニケーションスキルの評価結果を出力部59に表示し、その表示の中から入力部57により選択された評価結果が得られた発話のシーンの映像データを再生し、出力部59に映像及び音声を出力する。
出力部59は、各種データを出力する。出力部59は、例えば、画像を表示するディスプレイ及び音声を出力するスピーカーである。
コミュニケーションスキル評価システム1は、会話中の各参加者の音声のデータ及び非言語行動のデータと、会話中の映像データを収集する(ステップS105)。すなわち、音声入力装置2は、会話中の各参加者の音声のデータを送信し、計測装置3は、会話中に計測した各参加者の非言語行動のデータを送信する。受信部51は、音声入力装置2から受信した参加者の音声のデータに基づいて音声情報を音声情報記憶部521に書き込み、計測装置3から受信した各参加者の非言語行動の計測結果を示すデータに基づいて計測情報を計測情報記憶部522に書き込む。また、撮影装置4は、会話中の参加者を撮影し、撮影により得られた映像データを送信する。受信部51は、撮影装置4から受信した映像データを映像記憶部523に書き込む。
タイムライン72は、映像表示領域71に現在表示されている映像の再生時刻が、映像の開始時刻から終了時刻までの間のどの時点であるかを表示する。ユーザが、タイムライン72をマウス(入力部57)によりクリックすると、再生制御部58は、そのクリックされた箇所に対応した再生時刻の映像を映像表示領域71に表示する。
操作ボタン73は、ユーザが再生、一時停止、停止、フレーム戻りなどの再生制御を指定するためのボタンである。ユーザが、操作ボタン73をクリックすると、再生制御部58は、クリックされたボタンに応じて、映像データの再生開始、再生の一時停止、再生の停止、再生時刻を遡って再生、などを行う。
これにより、参加者は、自身のコミュニケーションスキルが高かった発話のシーンや、低かった発話のシーンを映像や音声で確認し、自身の会話中の行動を見直すことができる。また、コミュニケーションスキルが高かった他の参加者の発話のシーンを確認し、参考にすることもできる。
入力部57により、映像再生指示と、再生開始時刻と、評価確認対象の参加者Uiとが入力される(ステップS205)。なお、再生開始時刻の入力は省略可能である。再生制御部58は、映像データを映像記憶部523から読み出す(ステップS210)。さらに、再生制御部58は、発話情報記憶部524に記憶されている各発話の発話情報を読み出し、参加者Uiが発話者である発話IPUmの発話情報と、参加者Ui以外が発話者である発話IPUoの発話情報とに分類する。再生制御部58は、評価結果記憶部526から各発話IPUmの第1パラメータSi 1(m)と、各発話IPUoの第2パラメータSi 2(o)を読み出す。再生制御部58は、各発話IPUmごとに、発話IPUmの発話情報から読み出した発話開始時刻及び発話内容、直前の発話の発話情報から読み出した発話者、次の発話の発話情報から読み出した発話者、発話IPUmのときの第1パラメータSi 1(m)の値を対応付けて列毎に時系列で表示する第1の評価表示データを生成する。さらに、再生制御部58は、各発話IPUoごとに、発話IPUoの発話情報から読み出した発話開始時刻及び発話内容、直前の発話の発話情報から読み出した発話者、次の発話の発話情報から読み出した発話者、発話IPUoの第2パラメータSi 2(o)の値を対応付けて列毎に時系列で表示する第2の評価表示データを生成する(ステップS215)。
また、上記においては、第1又は第2の評価表示データの列がクリックされたときに、再生制御部58が、クリックされた列に対応した発話の前後のシーンを含むように再生区間を決定して映像データを再生している。しかし、再生制御部58は、予め発話情報に登録された再生区間の情報、または、再生区間の映像データを読み出してもよい。この場合、発話区間検出部53は、図5のステップS110において発話情報記憶部524に書き込む発話情報を生成する際に、各発話の発話区間及び発話者の情報に加え、再生区間の情報、または、再生区間の映像データをさらに発話情報に設定する。
タイミング表示画面90には、時間を横軸として、連続した2つの発話IPUn及び発話IPUn+1の発話区間及び発話内容が表示される。発話区間及び発話内容は、発話した参加者に対応付けて表示される。さらに、タイミング表示画面90には、各参加者Ui(i=1〜L)の次話者確率Pi n+1(t)が表示される。再生制御部58は、タイミング表示画面90の表示と同時に映像データを再生して出力部59に出力している場合、タイミング表示画面90に、映像データの現在の再生箇所の時刻を表すライン91を表示する。また、再生制御部58は、次話者確率が最も高い時刻を表すライン92を表示する。ライン92は、次話者が発話を開始する理想的なタイミングを表す。
このとき、コミュニケーションスキル評価装置は、映像データの再生箇所の発話について算出されたスキル判別パラメータを、他の発話について算出されたスキル判別パラメータと異なる態様で表示する。また、コミュニケーションスキル評価装置は、各発話のスキル判別パラメータに加え、発話内容及び発話者と、直前又は次の発話の発話内容及び発話者を表示する。また、コミュニケーションスキル評価装置は、表示中の発話毎のスキル判別パラメータに基づいて、ユーザが選択した発話に対応した映像データの部分を再生する。
さらに、コミュニケーションスキル評価装置は、図9に示すように、時間軸に沿って、連続する発話それぞれの開始から終了までの区間及び発話内容と、連続する発話のうち後の発話についての各参加者の次話者確率とを並べて表示する。このとき、コミュニケーションスキル評価装置は、時間軸に沿って並べて表示された連続する発話の区間及び発話内容と、各参加者の次話者確率に加えて、映像データの現在の再生箇所の時刻を表す情報と、最も次話者確率が高い時刻を表す情報とを表示する。
(参考文献2)石井亮,外4名,“複数人対話における注視遷移パターンに基づく次話者と発話タイミングの予測”,人工知能学会研究会資料,SIG-SLUD-B301-06, pp.27-34, 2013.
会話の参加者の呼吸動作は次発話者と発話のタイミングに深い関連性がある。このことを利用して、会話の参加者の呼吸動作をリアルタイムに計測し、計測された呼吸動作から発話の開始直前に行われる特徴的な呼吸動作を検出し、この呼吸動作を基に次発話者とその発話タイミングを高精度に算出する。具体的には、発話開始直前におこなわれる呼吸動作の特徴として、発話を行っている発話者は、継続して発話する際(発話者継続時)には、発話終了直後にすぐに急激に息を吸い込む。逆に発話者が次に発話を行わない際(発話者交替時)には、発話者継続時に比べて、発話終了時から間を空けて、ゆっくりと息を吸い込む。また、発話者交替時に、次に発話をおこなう次発話者は、発話を行わない非発話者に比べて大きく息を吸い込む。このような発話の前におこなわれる呼吸は、発話開始に対しておおよそ決められたタイミングで行われる。このように、発話の直前に次発話者は特徴的な息の吸い込みを行うため、このような息の吸い込みの情報は、次発話者とその発話タイミングを予測するのに有用である。本次話者推定技術では、人物の息の吸い込みに着目し、息の吸い込み量や吸い込み区間の長さ、タイミングなどの情報を用いて、次発話者と発話タイミングを予測する。
・MINa,k:参加者Paの息の吸い込み開始時のRSP値Ra,t、すなわち、息の吸い込み区間Ia,kのRSP値Ra,tの最小値。
・MAXa,k:参加者Paの息の吸い込み終了時のRSP値Ra,t、すなわち、息の吸い込み区間Ia,kのRSP値Ra,tの最大値。
・AMPa,k:参加者Paの息の吸い込み区間Ia,kのRSP値Ra,tの振幅、すなわち、MAXa,k−MINa,kで算出される値。吸い込み区間Ia,kでの息の吸い込み量を表す。
・DURa,k:参加者Paの息の吸い込み区間Ia,kの長さ、すなわち、息の吸い込み区間Ia,kの終了位置の離散時刻te(k)から開始位置の離散時刻ts(k)を減じて得られる値te(k)−ts(k)。
・SLOa,k:参加者Paの息の吸い込み区間Ia,kにおけるRSP値Ra,tの単位時間当たりの傾きの平均値、すなわち、AMPa,k/DURa,kで算出される値。吸い込み区間Ia,kでの息の吸い込み量の時間変化を表す。
・INT1a,k:手前の発話区間Ukの終了時刻tue(k)(発話区間末)から参加者Paの息の吸い込みが開始されるまでの間隔、すなわち、息の吸い込み区間Ia,kの開始位置の離散時刻ts(k)から発話区間Ukの終了時刻tue(k)を減じて得られる値ts(k)−tue(k)。発話区間Ukと吸い込み区間Ia,kとの時間関係を表す。
・INT2a,k:参加者Paの息の吸い込み終了時から次発話者の発話区間Uk+1が開始されるまでの間隔、すなわち、次発話者の発話区間Uk+1の開始時刻tus(k+1)から息の吸い込み区間Ia,kの終了位置の離散時刻te(k)を減じて得られる値tus(k+1)−te(k)。発話区間Uk+1と吸い込み区間Ia,kとの時間関係を表す。パラメータλ’a,kにINT2a,kを加えたものをパラメータλa,kと表記する。
上述した実施形態のコミュニケーションスキル評価装置5の次話者推定部54が推定する参加者Uiの次話者確率Pi n+1(t)は、参加者Uiが本次話者推定技術における参加者Paである場合、確率P1a×確率P2a(t)により算出される。
視線行動をさらに利用する場合、各参加者Pa(ただし、a=1,…,A)には注視対象検出装置がさらに装着される。注視対象検出装置は、参加者Paが誰を注視しているか(注視対象)を検出し、参加者Paおよび各離散時刻tでの注視対象Ga,tを表す情報を推定装置に送る。推定装置は、注視対象情報G1,t,…,GA,t、発話区間Uk、および話者情報Pukを入力とし、発話区間終了前後における注視対象ラベル情報θv,k(ただし、v=1,…,V、Vは注視対象ラベルの総数)を生成する。注視対象ラベル情報は、発話区間Ukの終了時点Tseに対応する時間区間における参加者の注視対象を表す情報である。ここでは、終了時点Tseを含む有限の時間区間における参加者Paの注視対象をラベル付けした注視対象ラベル情報θv,kを例示する。この場合、例えば、発話区間Ukの終了時点Tseよりも前の時点Tse−Tbから終了時点Tseよりも後の時点Tse+Taまでの区間に出現した注視行動を扱う。Tb,Taは0以上の任意の値でよいが、目安として、Tbは0秒〜2.0秒、Taは0秒〜3.0秒程度にするのが適当である。
・ラベルS:話者(すなわち、話者である参加者Pukを表す)
・ラベルLξ:非話者(ただし、ξは互いに異なる非話者である参加者を識別し、ξ=1,…,A−1である。例えば、ある参加者が、非話者P2、非話者P3、の順に注視をしていたとき、非話者P2にL1というラベル、非話者P3にL2というラベルが割り当てられる。)
・ラベルX:誰も見ていない
・INT1(=ET_RGL−ST_RGL):注視対象ラベルRGLの開始時刻ST_RGLと終了時刻ET_RGLの間隔
・INT2(=ST_U−ST_RGL):注視対象ラベルRGLの開始時刻ST_RGLが発話区間の開始時刻ST_Uよりもどれくらい前であったか
・INT3(=ET_U−ST_RGL):注視対象ラベルRGLの開始時刻ST_RGLが発話区間の終了時刻ET_Uよりもどれくらい前であったか
・INT4(=ET_RGL−ST_U):注視対象ラベルRGLの終了時刻ET_RGLが発話区間の開始時刻ST_Uよりもどれくらい後であったか
・INT5(=ET_U−ET_RGL):注視対象ラベルRGLの終了時刻ET_RGLが発話区間の終了時刻ET_Uよりもどれくらい前であったか
・INT6(=ST_RGL−ST_RGL’):注視対象ラベルRGLの開始時刻ST_RGLが他の注視対象ラベルRGL’の開始時刻ST_RGL’よりもどれくらい後であったか
・INT7(=ET_RGL’−ST_RGL):注視対象ラベルRGLの開始時刻ST_RGLが他の注視対象ラベルRGL’の終了時刻ET_RGL’よりもどれくらい前であったか
・INT8(=ET_RGL−ST_RGL’):注視対象ラベルRGLの終了時刻ET_RGLが注視対象ラベルRGL’の開始時刻ST_RGL’よりもどれくらい後であったか
・INT9(=ET_RGL−ET_RGL’):注視対象ラベルRGLの終了時刻ET_RGLが注視対象ラベルRGL’の終了時刻ET_RGL’よりもどれくらい後であったか
・INT1=ET_SL1−ST_SL1
・INT2=ST_U−ST_SL1
・INT3=ET_U−ST_SL1
・INT4=ET_SL1−ST_U
・INT5=ET_U−ET_SL1
・INT6=ST_SL1−ST_LL1
・INT7=ET_LL1−ST_SL1
・INT8=ET_SL1−ST_LL1
・INT9=ET_SL1−ET_LL1
2 音声入力装置
3 計測装置
5 コミュニケーションスキル評価装置
51 受信部
52 記憶部
53 発話区間検出部
54 次話者推定部
55 評価部
56 音声認識部
57 入力部
58 再生制御部
59 出力部
521 音声情報記憶部
522 計測情報記憶部
523 映像記憶部
524 発話情報記憶部
525 次話者確率記憶部
526 評価結果記憶部
551 第1パラメータ算出部
552 第2パラメータ算出部
553 評価結果出力部
Claims (8)
- 会話中の参加者を撮影する撮影部と、
前記参加者の会話中の音声データを入力する音声入力部と、
前記参加者の会話中の非言語行動を計測する計測部と、
前記音声データに基づいて各発話の開始及び終了の時刻と発話した参加者とを検出する発話区間検出部と、
前記計測部による計測結果に基づいて、会話中の各発話の終了後に前記参加者それぞれが次に発話を行う確率である次話者確率を推定する次話者推定部と、
発話毎に、コミュニケーションスキルを定量的に表すスキル判別パラメータの値を前記発話が開始されたときの前記次話者確率に基づいて参加者別に算出する評価部と、
前記撮影部による撮影により得られた映像データを再生して会話中の参加者の映像の表示及び音声の出力を行うとともに、前記参加者の発話毎の前記スキル判別パラメータを表示する再生制御部と、
を備えることを特徴とするコミュニケーションスキル評価システム。 - 会話中の参加者の音声データに基づいて各発話の開始及び終了の時刻と発話した参加者とを検出する発話区間検出部と、
前記参加者の会話中の非言語行動の計測結果に基づいて、会話中の各発話の終了後に前記参加者それぞれが次に発話を行う確率である次話者確率を推定する次話者推定部と、
発話毎に、コミュニケーションスキルを定量的に表すスキル判別パラメータの値を前記発話が開始されたときの前記次話者確率に基づいて参加者別に算出する評価部と、
会話中の参加者を撮影した映像データを再生して映像の表示及び音声の出力を行うとともに、前記参加者の発話毎の前記スキル判別パラメータを表示する再生制御部と、
を備えることを特徴とするコミュニケーションスキル評価装置。 - 前記再生制御部は、前記映像データの再生箇所の発話について算出された前記スキル判別パラメータを、他の発話について算出された前記スキル判別パラメータと異なる態様で表示する、
ことを特徴とする請求項2に記載のコミュニケーションスキル評価装置。 - 前記再生制御部は、表示中の発話毎の前記スキル判別パラメータに基づいて選択された発話に対応した前記映像データの部分を再生する、
ことを特徴とする請求項2又は請求項3に記載のコミュニケーションスキル評価装置。 - 各発話の発話内容を記憶する記憶部をさらに備え、
前記再生制御部は、前記映像データを再生して映像の表示及び音声の出力を行うとともに、発話毎に、発話内容及び発話者と、直前又は次の発話の発話内容及び発話者と、前記スキル判別パラメータとを表示する、
ことを特徴とする請求項2から請求項4のいずれか一項に記載のコミュニケーションスキル評価装置。 - 前記再生制御部は、時間軸に沿って、連続する発話それぞれの開始から終了までの区間及び発話内容と、連続する前記発話のうち後の発話についての各参加者の前記次話者確率とを並べて表示する、
ことを特徴とする請求項2から請求項5のいずれか一項に記載のコミュニケーションスキル評価装置。 - 前記再生制御部は、前記時間軸に沿って並べて表示された連続する発話の区間及び発話内容と、各参加者の前記次話者確率とに加えて、映像データの現在の再生箇所の時刻を表す情報と、最も次話者確率が高い時刻を表す情報とを表示する、
ことを特徴とする請求項6に記載のコミュニケーションスキル評価装置。 - コンピュータに、
会話中の参加者の音声データに基づいて各発話の開始及び終了の時刻と発話した参加者とを検出する発話区間検出ステップと、
前記参加者の会話中の非言語行動の計測結果に基づいて、会話中の各発話の終了後に前記参加者それぞれが次に発話を行う確率である次話者確率を推定する次話者確率推定ステップと、
発話毎に、コミュニケーションスキルを定量的に表すスキル判別パラメータの値を前記発話が開始されたときの前記次話者確率に基づいて参加者別に算出する評価ステップと、
会話中の参加者を撮影した映像データを再生して映像の表示及び音声の出力を行うとともに、前記参加者の発話毎の前記スキル判別パラメータを表示する再生制御ステップと、
を実行させるためのコミュニケーションスキル評価プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015251203A JP6383349B2 (ja) | 2015-12-24 | 2015-12-24 | コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015251203A JP6383349B2 (ja) | 2015-12-24 | 2015-12-24 | コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017117161A true JP2017117161A (ja) | 2017-06-29 |
JP6383349B2 JP6383349B2 (ja) | 2018-08-29 |
Family
ID=59234425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015251203A Active JP6383349B2 (ja) | 2015-12-24 | 2015-12-24 | コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6383349B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019093392A1 (ja) * | 2017-11-10 | 2019-05-16 | 日本電信電話株式会社 | コミュニケーションスキル評価システム、装置、方法、及びプログラム |
WO2022024778A1 (ja) * | 2020-07-27 | 2022-02-03 | 株式会社 東芝 | コミュニケーションシステム及び評価方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004515982A (ja) * | 2000-12-05 | 2004-05-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | テレビ会議及び他の適用においてイベントを予測する方法及び装置 |
JP2007147762A (ja) * | 2005-11-24 | 2007-06-14 | Fuji Xerox Co Ltd | 発話者予測装置および発話者予測方法 |
JP2011118632A (ja) * | 2009-12-02 | 2011-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 発話の予備動作検出及び伝達方法及び装置及びプログラム |
JP2014238525A (ja) * | 2013-06-10 | 2014-12-18 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
-
2015
- 2015-12-24 JP JP2015251203A patent/JP6383349B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004515982A (ja) * | 2000-12-05 | 2004-05-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | テレビ会議及び他の適用においてイベントを予測する方法及び装置 |
JP2007147762A (ja) * | 2005-11-24 | 2007-06-14 | Fuji Xerox Co Ltd | 発話者予測装置および発話者予測方法 |
JP2011118632A (ja) * | 2009-12-02 | 2011-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 発話の予備動作検出及び伝達方法及び装置及びプログラム |
JP2014238525A (ja) * | 2013-06-10 | 2014-12-18 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019093392A1 (ja) * | 2017-11-10 | 2019-05-16 | 日本電信電話株式会社 | コミュニケーションスキル評価システム、装置、方法、及びプログラム |
JPWO2019093392A1 (ja) * | 2017-11-10 | 2020-10-22 | 日本電信電話株式会社 | コミュニケーションスキル評価システム、装置、方法、及びプログラム |
US12027062B2 (en) | 2017-11-10 | 2024-07-02 | Nippon Telegraph And Telephone Corporation | Communication skill evaluation system, communication skill evaluation device and communication skill evaluation method |
WO2022024778A1 (ja) * | 2020-07-27 | 2022-02-03 | 株式会社 東芝 | コミュニケーションシステム及び評価方法 |
JP7536279B2 (ja) | 2020-07-27 | 2024-08-20 | ボイット株式会社 | コミュニケーションシステム及び評価方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6383349B2 (ja) | 2018-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10987596B2 (en) | Spectator audio analysis in online gaming environments | |
CN111415677B (zh) | 用于生成视频的方法、装置、设备和介质 | |
US8396708B2 (en) | Facial expression representation apparatus | |
JP6923827B2 (ja) | コミュニケーションスキル評価システム、装置、方法、及びプログラム | |
Ishii et al. | Analysis of respiration for prediction of" who will be next speaker and when?" in multi-party meetings | |
JP2017118364A (ja) | コミュニケーションシステム、コミュニケーション装置およびコミュニケーションプログラム | |
JP5989603B2 (ja) | 推定装置、推定方法、およびプログラム | |
Ishii et al. | Using respiration to predict who will speak next and when in multiparty meetings | |
JP2011186521A (ja) | 感情推定装置および感情推定方法 | |
JP6775387B2 (ja) | 推定方法及び推定システム | |
US20170213076A1 (en) | Facial capture analysis and training system | |
Włodarczak et al. | Respiratory turn-taking cues | |
JP2006338529A (ja) | 会話構造推定方法 | |
JP2016012216A (ja) | 会議分析装置、方法及びプログラム | |
JP6383349B2 (ja) | コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム | |
JP2018171683A (ja) | ロボットの制御プログラム、ロボット装置、及びロボットの制御方法 | |
JP6363987B2 (ja) | 音声処理システム、音声処理装置および音声処理プログラム | |
JP2006279111A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6445473B2 (ja) | 会話支援システム、会話支援装置及び会話支援プログラム | |
JP6480351B2 (ja) | 発話制御システム、発話制御装置及び発話制御プログラム | |
JP6363986B2 (ja) | コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム | |
JP4775961B2 (ja) | 映像を用いた発音の推定方法 | |
JP2016042345A (ja) | 推定装置、その方法およびプログラム | |
JP6762973B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2023084715A1 (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170828 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6383349 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |