JP6210239B2 - 会話解析装置、会話解析方法及びプログラム - Google Patents
会話解析装置、会話解析方法及びプログラム Download PDFInfo
- Publication number
- JP6210239B2 JP6210239B2 JP2015086269A JP2015086269A JP6210239B2 JP 6210239 B2 JP6210239 B2 JP 6210239B2 JP 2015086269 A JP2015086269 A JP 2015086269A JP 2015086269 A JP2015086269 A JP 2015086269A JP 6210239 B2 JP6210239 B2 JP 6210239B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- conversation
- speaker
- unit
- contribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 92
- 238000011156 evaluation Methods 0.000 claims description 90
- 230000000694 effects Effects 0.000 claims description 67
- 238000000034 method Methods 0.000 claims description 61
- 238000004364 calculation method Methods 0.000 claims description 51
- 230000008569 process Effects 0.000 claims description 30
- 238000007405 data analysis Methods 0.000 claims description 2
- 230000005236 sound signal Effects 0.000 description 34
- 238000013500 data storage Methods 0.000 description 17
- 238000013075 data extraction Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 238000000926 separation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 9
- 230000004807 localization Effects 0.000 description 7
- 239000013256 coordination polymer Substances 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
- H04L12/1831—Tracking arrangements for later retrieval, e.g. recording contents, participants activities or behavior, network status
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42221—Conversation recording systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/50—Aspects of automatic or semi-automatic exchanges related to audio conference
- H04M2203/5072—Multiple active speakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Telephonic Communication Services (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
Description
他方、複数人が共同して行われる行動において意思疎通は重要な要素である。各種の業務その他の行動において、会話、会議その他の意思疎通の効率化が期待されている。そこで、各参加者において積極的に議論に参加することや、合意形成に努力することが求められることがある。
以下、図面を参照しながら本発明の第1の実施形態について説明する。
図1は、本実施形態に係る会話解析システム1の構成を示すブロック図である。
会話解析システム1は、会話解析装置10、収音部30、操作入力部31、再生部32及び表示部33を含んで構成される。
収音部30は、自部に到来した音を収集し、収集した音に基づくM(Mは、1以上の整数)チャネルの音声信号を生成する。収音部30は、例えば、M個のマイクロホンを備え、各マイクロホンをそれぞれ異なる位置に配列して形成されるマイクロホンアレイである。収音部30は、生成した音声信号を会話解析装置10に送信する。
再生部32は、会話解析装置10から入力された音声信号に基づく音声を再生する。再生部32は、例えば、スピーカを含んで構成される。
表示部33は、会話解析装置10から入力された画像信号に基づく画像を表示する。表示部33は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ、等のいずれかを含んで構成される。入力される画像信号は、例えば、各種の表示画面を示す提示データである。
会話解析装置10は、入出力部110、データ記憶部112、発言データ取得部120及び制御部130を含んで構成される。会話解析装置10は、専用のハードウェアで構成されてもよいし、汎用のハードウェア上で所定のプログラムで指示される処理を実行にすることにより実現されてもよい。会話解析装置10は、例えば、汎用のハードウェアとしてパーソナルコンピュータ、携帯電話機(いわゆる、スマートフォンを含む)、タブレット端末装置、等の電子機器を用いて構成されてもよい。
入出力部110は、例えば、収音部30から入力された音声信号を発言データ取得部120に出力し、操作入力部31から入力された操作信号を制御部130に出力する。また、入出力部110は、制御部130から入力された音声信号及び画像信号を、それぞれ再生部32及び表示部33に出力する。入出力部110は、例えば、データ入出力インタフェースである。
音声認識部125は、音源、即ち、話者毎に生成したテキストデータ、その発言内容を表す音源別音声信号及び発言区間データを区間毎に対応付けて発言データを生成する。音声認識部125は、話者毎に生成した発言データをデータ記憶部112に記憶する。
会話評価部160は、算出した評価値を示す会話評価データを提示データ生成部170に出力する。
また、既に複数セッションの会話がなされている場合、会話評価部160は、個々のセッションの会話自体の総貢献度の順序を定め、定めた順序を所定の段階数のランクのいずれかに分類してもよい。その場合、会話評価部160は、分類された会話の評価ラベルを評価値の他の一項目として定める。
なお、抽出区間の指定を促すために、発言データ抽出部180は、抽出部分を指示するための抽出区間指定画面を表示部33に表示させてもよい。
次に、活発度の算出方法について説明する。
活発度算出部141は、ある会話に参加する話者に係る発言区間データが示す発言区間を特定する。活発度算出部141は、特定した発言区間毎にその発言時間dに対応する実効発言量f(d)を定める。図2に示す例では、話者iによるl番目(lは、1以上の整数)の発言に係る発言時間dilが所定の発言時間の下限dth未満である場合、活発度算出部141は、対応する実効発言量f(dil)を0と定める。発言時間dilが、下限dth以上である場合、活発度算出部141は、発言時間dilを対応する実効発言量f(dil)と定める。発言時間の下限dthは、例えば、2秒である。活発度算出部141は、話者i毎にその会話(セッション)内における発言区間毎の実効発言量f(dil)の総和Σlf(dil)を当該話者の活発度Uiとして算出する。つまり、発言時間が下限dth以上である実効的な発言の発言時間が活発度Uiの算出に用いられ、発言時間が下限dth未満である発言区間と判定された区間が排除される。そのため、会話の合意形成に直接貢献しない短い発話、例えば、フィラー、相づち、発言と判定された物音などのノイズが排除される。
次に、割り込みの成否判定方法について説明する。割り込みとは、ある話者jの発言中において、他の話者iの発言を開始することを意味する。図3に示す例では、時刻tj1から時刻tj2までの話者jによる発言中である時刻ti1における話者iによる発話の開始、時刻tj3から時刻tj4までの話者jによる発言中である時刻ti3における話者iによる発話の開始は、いずれも割り込みと判定される。
なお、ある話者jの発言中において、開始された他の話者iの発言のうち、発言時間が所定の発言時間の閾値(例えば、上述の発言時間の下限dth)よりも短い発言については、割込判定部142は、割り込みに係る発言として扱わない。上述したように、かかる発言は、会話の合意形成に直接貢献しないためである。
次に、結論言及区間の判定方法について説明する。
図4は、結論言及区間の判定方法を説明するための図である。
図4に示すテキストデータの例は、ある会話に係る話者毎の発言を示すテキストデータTx01と、その結論区間のテキストデータTx02である。それぞれの発言は、発言開始時刻及び話者に対応付けられている。テキストデータTx01では、3名の話者X、Y、Z間でなされる会話における発言が、発言開始時刻が早い順に配列されている。テキストデータTx02は、2015年4月7日15時23分に開始された話者Xによる発話「転入者へのキャンペーンを強化する。」という結論文を示す。
次に、結論言及量の算出方法について説明する。
結論言及判定部143は、式(1)に示すように各話者iの結論言及時刻siにおける重要度関数g(si)の会話内の総和を、話者iの結論言及量Riとして算出する。
次に、貢献度の算出方法について説明する。
貢献度算出部152は、式(2)に示すように、発言状態データが示す話者iの活発度Ui、話者iから話者jへの割込量Iij、被割込量Iji、結論言及量Riについて重み付き加算を行って話者iの貢献度Ciを算出する。
結論区間が与えられない場合、結論文中のキーワードが特定されない場合には、結論言及量Riが算出されないので、式(2)の右辺第4項のwrRiの加算が省略される。
会話評価部160は、話者の組み合わせの評価において、参加者として特定の話者の組み合わせを含む会話に係る貢献度Ciを算出してもよい。一般に参加者は、会話によって異なりうる。図6に示す例では、セッション1の参加者はX、Yの2名、セッション2の参加者はX、Zの2名、セッション3の参加者はZ、Wの2名、セッション4の参加者はX、Y、Wの3名、セッション5の参加者は、X、Z、Wの3名である。ここで、会話評価部160は、データ記憶部112から読み出した発言データからセッションm毎の話者iを特定する。会話評価部160は、既に行われたM回のセッション全体における全参加者NTのうち各セッションmに参加する話者iの数(参加者数)、話者i毎の参加セッション数(参加セッション数)を計数する。セッションmの参加者数は、Σipim、参加セッション数は、Σmpimとなる。ここで、pimは、セッションmに話者iが参加したか否かを示すフラグ値である。pimが1とは、セッションmに話者iが参加したことを示し、pimが0とは、セッションmに話者iが参加しなかったことを示す。例えば、会話評価部160は、式(3)に示すように話者i1及びi2がいずれも参加するセッションm毎の話者iの貢献度Ciの総和を貢献度CPiとして算出することができる。
次に、本実施形態に係る表示画面の例について説明する。
図7は、本実施形態に係る表示画面の一例(表示画面D01)を示す図である。
表示画面D01は、重み係数、評価、個人別評価、セッション評価、割り込み状態の各項目を含む総合画面である。重み係数の項目には、活発度Ui、割込量(割り込み度)Iij、被割込量(割り込まれ度)Iji、結論言及量(結論言及度)Riのそれぞれに乗算される重み係数wu、wi1、wi2、wrを入力するための入力欄が設けられている。入力欄は、[…]で表される部分である。ユーザによる入力欄に数値を設定するための操作入力に応じて生じた操作信号に基づいて、係数設定部151は、設定された数値を重み係数として示す係数データを生成する。貢献度算出部152は、発言状態解析部140から発言状態データを取得し、発言状態データが示す指標値を、係数データが示す重み係数に基づいて重み付き加算を行って各話者の貢献度を算出する。
相対評価の表示領域には、内訳として話者X、Y、Zの相対評価値毎の区分を含み、それらの全体が100%である1つの棒グラフが含まれる。各区分の長さは、話者i毎の貢献度Ciもしくは相対評価値Ci’に比例する。これらの棒グラフは、発言状態解析部140が算出した各指標値、貢献度算出部152が算出した貢献度、会話評価部160が算出した相対評価値に基づいて提示データ生成部170が生成した提示情報である。このように、話者i毎の貢献度Ciの割合が可視化される。
表示画面D02は、個々の話者の会話毎の貢献度を表示する個人詳細画面である。表示画面D02は、表題として「参加者」と[…]で表される入力欄を有する。この入力欄は、話者Xの氏名や識別情報を設定するためのユーザによる操作入力を受け付けるための入力欄である。貢献度算出部152は、操作入力によって生じた操作信号で指示された話者Xの貢献度をセッション毎に算出する。
表示画面D02には、設定された話者Xの会話(セッション)が行われた日時毎の貢献度(セッション)を示す折れ線グラフが表示されている。この折れ線グラフで表される日時に対応付けられた貢献度は、貢献度算出部152が算出したセッション毎の貢献度を提示データ生成部170が提示情報として取得した情報である。表示画面D02に示す例では、貢献度は日時の経過に応じて増加する。このような表示により、話者毎の会話に対する貢献の度合いのセッションに応じた変化が可視化される。このようにして、ユーザは、例えば、会話技術の向上や変化の契機を把握することができる。
表示画面D03は、ある話者を含む話者の組み合わせ毎の貢献度を表示する組み合わせ詳細画面である。表示画面D03は、表題として「参加者」と[…]で表される入力欄を有する。この入力欄にユーザによる話者の氏名や識別情報を設定するためのユーザによる操作入力を受け付けるための入力欄である。会話評価部160は、操作入力によって生じた操作信号で指示された話者Xを含む話者の組み合わせを含む会話における話者Xの貢献度CXを算出する。
図9に示す例では、例えば、話者XとYの組み合わせ(X+Y)について、話者Xの貢献度CXの平均値は10.5であり、その対話の数は50である。話者X、Y、Zの組み合わせ(X+Y+Z)について、話者Xの貢献度CXの平均値は9.5であり、その対話の数は30である。話者X、Zの組み合わせ(X+Z)について、話者Xの貢献度CXの平均値は8.3であり、その対話の数は40である。従って、図9に示す例では、話者Xの貢献度は、話者Yとの組み合わせで参加する会話において高く、話者Zとの組み合わせで参加する会話において低い。従って、ユーザは、同一の話者Xであっても話者の組み合わせによる貢献度の依存性を把握することができる。ユーザは、例えば、話者Xの発言による貢献が期待される参加者の組み合わせ、あるいは貢献が期待されない参加者の組み合わせを見出すことができる。
なお、表示画面D03は、さらに「総合」、「個人詳細」、「終了」の文字が付されたボタンBT04、BT01、BT03を含む。
次に、本実施形態に係る会話解析処理について説明する。
図10は、本実施形態に係る会話解析処理を示すフローチャートである。
(ステップS101)活発度算出部141は、発言データに含まれる発言区間データが示す発言区間毎の継続時間である発言時間dに応じた実効発言量uijの会話に参加する話者iについての総和を活発度Uiとして算出する。その後、ステップS102に進む。
(ステップS102)割込判定部142は、発言時間データが示す話者毎の発言区間に基づいて、ある話者iから他の話者jへの発言の割り込みを判定する。割込判定部142は、割り込みに係る発言の実効発言量uijに割り込みの成否に応じた係数を乗じて発言別割込量の会話内における割り込みに係る発言別割込量の総和を割込量Iijとして算出する。また、割込判定部142は、ある話者iに割り込まれた他の話者jの発言毎の実効発言量ujiの会話内における総和を被割込量Ijiとして算出する。その後、ステップS103に進む。
(ステップS103)結論言及判定部143は、会話の結論を表す結論文を示すテキストデータを取得する。結論言及判定部143は、会話内の各話者iの発言を表すテキストデータのうち、結論文の要素となるキーワードを含む結論言及区間を判定する。結論言及判定部143は、判定した結論言及区間に基づいて結論言及量Riを算出する。その後、ステップS104に進む。
(ステップS105)貢献度算出部152は、各話者iの指標値である活発度、割込量、被割込量及び結論言及量のそれぞれに係る重み係数を乗じて得られた乗算値の総和を貢献度Ciとして算出する。その後、ステップS106に進む。
(ステップS106)会話評価部160は、各話者の貢献度Ciに基づいて会話における話者間の貢献状態を示す評価値、例えば、貢献度比、評価ラベル、話者の組み合わせ毎の特定の話者iの貢献度CPiを取得する。
(ステップS108)提示データ生成部170は、生成した提示データを表示部33に入出力部110を介して出力することにより、提示情報を表示させる。その後、図10に示す処理を終了する。
この構成によれば、会話に参加する話者の貢献の度合いを定量的に示す貢献度が取得される。貢献度を手がかりとして話者に対する会話への貢献を促すことにより、会話の効率化が図られる。
この構成によれば、会話に参加する話者による発言の活発性の度合いを定量的に示す活発度が取得される。活発度を手がかりとして話者に対する会話へ活発な発言を促すことにより、会話の効率化が図られる。
この構成によれば、発言状態として他の話者への発言の割り込みが判定される。判定された発言の割り込みの度合いを手がかりとして話者に対する割り込みの回避もしくは有効な割り込みを促すことにより、会話の効率化が図られる。
この構成によれば、発言状態として結論の要素に言及した発言が特定される。特定した結論の要素に言及した発言の度合いを手がかりとして話者に対して結論に誘導する発言を促すことにより、会話の効率化が図られる。
この構成によれば、会話に参加する話者間の貢献状態を定量的に示す評価値が取得される。評価値を手がかりとして話者間の貢献状態の改善を促すことにより、会話の効率化が図られる。
次に本発明の第2の実施形態について説明する。上述した実施形態と同一の構成については、同一の符号を付してその説明を援用する。
図11は、本実施形態に係る会話解析システム1Aの構成を示すブロック図である。
会話解析システム1Aは、会話解析装置10A、収音部30、操作入力部31、再生部32及び表示部33を含んで構成される。
会話解析装置10は、入出力部110、データ記憶部112、発言データ取得部120及び制御部130Aを含んで構成される。
制御部130Aは、発言状態解析部140A、係数設定部151、貢献度算出部152、会話評価部160、提示データ生成部170A及び発言データ抽出部180Aを含んで構成される。
発言状態解析部140は、活発度算出部141、割込判定部142、結論言及判定部143及び活性区間判定部144Aを含んで構成される。
次に、本実施形態に係る発言データ出力処理について説明する。
図12は、本実施形態に係る発言データ出力処理の一例を示すフローチャートである。図12に示す発言データ出力処理は、相対音量、相対ピッチに基づいて活性区間を検出する場合を例にする。
(ステップS202)活性区間判定部144Aは、相対音量と相対ピッチが、それぞれ所定の閾値よりも高い区間を活性区間として特定する。その後、ステップS203に進む。
(ステップS204)発言データ抽出部180Aは、抽出した発言データに含まれるテキストデータが示すテキストの画像を表す画像データを表示部33に出力する。また、発言データ抽出部180Aは、発言データに含まれる音源別音声信号を再生部32に出力する。その後、図12に示す処理を終了する。
活性区間判定部144Aは、活性区間の判定において発言の盛り上がり度が所定の盛り上がり度の閾値よりも高い区間を特定してもよい。発言の盛り上がり度は、発言の活性度を示す他の指標である。発言の盛り上がり度は、各時刻における会話において話者の交代の度合いを定量的に示す指標である。活性区間判定部144Aは、音源別音声信号と発言区間データに基づいて、例えば、式(4)を用いて盛り上がり度f(t)を算出する。
図13は、本実施形態に係る発言データ出力処理の他の例を示すフローチャートである。
図13に示す発言データ出力処理は、ステップS211、S212、S203及びS204を有する。
(ステップS212)活性区間判定部144Aは、算出した盛り上がり度が、所定の盛り上がり度の閾値よりも高い区間を活性区間として特定する。その後、ステップS203に進む。
この構成により、会話を形成する発言のうち活性の高い区間を含む発言が会話への貢献が高い発言として抽出される。抽出された発言を手がかりとして、会話における発言内容の把握や発言状態の分析を効率的に行うことができる。
例えば、会話解析システム1、1Aにおいて、収音部30の個数は複数であってもよい。その場合、発言データ取得部120は、個々の収音部30により取得される音声信号を音源別音源信号として取得してもよい。その場合、音源定位部121及び音源分離部122が省略されてもよい。また、個々の収音部30は、少なくとも1チャネルの音声信号を取得することができればよい。
また、会話解析装置10、10Aは、収音部30、操作入力部31、再生部32及び表示部33のいずれか又はその組み合わせと一体化され、単一の会話解析装置として構成されてもよい。
Claims (7)
- 各話者の音声と当該話者の発言を示す発言データを取得する発言データ取得部と、
前記音声に基づいて各話者の発言状態を解析する発言状態解析部と、
前記発言状態に基づいて各話者の会話への貢献度を算出する貢献度算出部と、
を備え、
前記発言状態解析部は、
前記発言状態として他の話者への発言の割り込みを判定する割込判定部
を備える会話解析装置。 - 前記発言状態解析部は、
前記発言状態として発言時間に基づいて前記会話における活発度を算出する活発度算出部、
を備える請求項1に記載の会話解析装置。 - 前記発言状態解析部は、
前記発言状態として前記会話の結論の要素への言及を判定する結論言及判定部
を備える請求項1又は請求項2に記載の会話解析装置。 - 各話者の前記貢献度に基づいて前記会話における話者間の貢献状態を示す評価値を算出する会話評価部と、
を備える請求項1から請求項3のいずれか一項に記載の会話解析装置。 - 前記発言データのうち前記発言の活性が所定の活性の閾値よりも高い区間を含む発言を特定する発言データ解析部と、
を備える請求項1から請求項4のいずれか一項に記載の会話解析装置。 - 会話解析装置における会話解析方法であって、
各話者の音声と当該話者の発言を示す発言データを取得する発言データ取得過程と、
前記音声に基づいて各話者の発言状態を解析する発言状態解析過程と、
前記発言状態に基づいて各話者の会話への貢献度を算出する貢献度算出過程と、
を有し、
前記発言状態解析過程は、
前記発言状態として他の話者への発言の割り込みを判定する割込判定過程
を有する会話解析方法。 - 会話解析装置のコンピュータに、
各話者の音声と当該話者の発言を示す発言データを取得する発言データ取得手順、
前記音声に基づいて各話者の発言状態を解析する発言状態解析手順、
前記発言状態に基づいて各話者の会話への貢献度を算出する貢献度算出手順、
を実行させるためのプログラムであって、
前記発言状態解析手順は、
前記発言状態として他の話者への発言の割り込みを判定する割込判定手順
を有するプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015086269A JP6210239B2 (ja) | 2015-04-20 | 2015-04-20 | 会話解析装置、会話解析方法及びプログラム |
US15/097,431 US10020007B2 (en) | 2015-04-20 | 2016-04-13 | Conversation analysis device, conversation analysis method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015086269A JP6210239B2 (ja) | 2015-04-20 | 2015-04-20 | 会話解析装置、会話解析方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016206355A JP2016206355A (ja) | 2016-12-08 |
JP6210239B2 true JP6210239B2 (ja) | 2017-10-11 |
Family
ID=57128549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015086269A Active JP6210239B2 (ja) | 2015-04-20 | 2015-04-20 | 会話解析装置、会話解析方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10020007B2 (ja) |
JP (1) | JP6210239B2 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10451430B2 (en) * | 2016-07-26 | 2019-10-22 | International Business Machines Corporation | Navigation alerting using conversation analysis |
US10628496B2 (en) * | 2017-03-27 | 2020-04-21 | Dell Products, L.P. | Validating and correlating content |
JP6543848B2 (ja) * | 2017-03-29 | 2019-07-17 | 本田技研工業株式会社 | 音声処理装置、音声処理方法及びプログラム |
US10311874B2 (en) | 2017-09-01 | 2019-06-04 | 4Q Catalyst, LLC | Methods and systems for voice-based programming of a voice-controlled device |
JP7035476B2 (ja) * | 2017-11-20 | 2022-03-15 | 富士通株式会社 | 音声処理プログラム、音声処理装置、及び音声処理方法 |
CN109859749A (zh) * | 2017-11-30 | 2019-06-07 | 阿里巴巴集团控股有限公司 | 一种语音信号识别方法和装置 |
JP2019101385A (ja) * | 2017-12-08 | 2019-06-24 | 富士通株式会社 | 音声処理装置、音声処理方法及び音声処理用コンピュータプログラム |
WO2019130815A1 (ja) * | 2017-12-25 | 2019-07-04 | 京セラドキュメントソリューションズ株式会社 | 情報処理装置及び評価方法 |
JP6589040B1 (ja) * | 2018-01-16 | 2019-10-09 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
JP6589042B1 (ja) * | 2018-01-16 | 2019-10-09 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
JP6660974B2 (ja) * | 2018-03-30 | 2020-03-11 | 本田技研工業株式会社 | 情報提供装置、情報提供方法、およびプログラム |
US11886473B2 (en) | 2018-04-20 | 2024-01-30 | Meta Platforms, Inc. | Intent identification for agent matching by assistant systems |
US11010436B1 (en) | 2018-04-20 | 2021-05-18 | Facebook, Inc. | Engaging users by personalized composing-content recommendation |
US11715042B1 (en) | 2018-04-20 | 2023-08-01 | Meta Platforms Technologies, Llc | Interpretability of deep reinforcement learning models in assistant systems |
US11676220B2 (en) | 2018-04-20 | 2023-06-13 | Meta Platforms, Inc. | Processing multimodal user input for assistant systems |
US11307880B2 (en) | 2018-04-20 | 2022-04-19 | Meta Platforms, Inc. | Assisting users with personalized and contextual communication content |
US20190355352A1 (en) * | 2018-05-18 | 2019-11-21 | Honda Motor Co., Ltd. | Voice and conversation recognition system |
JP6634128B1 (ja) * | 2018-08-28 | 2020-01-22 | 株式会社 日立産業制御ソリューションズ | 会議評価装置、会議評価方法及び会議評価プログラム |
US10776889B2 (en) * | 2018-10-01 | 2020-09-15 | International Business Machines Corporation | Stakeholder equity valuation in collaborative projects |
JP7135886B2 (ja) * | 2019-01-24 | 2022-09-13 | トヨタ自動車株式会社 | 促し発話装置、促し発話方法及びプログラム |
JP7177348B2 (ja) * | 2019-02-06 | 2022-11-24 | 日本電信電話株式会社 | 音声認識装置、音声認識方法およびプログラム |
CN111970293B (zh) * | 2020-08-24 | 2023-04-07 | 成都天奥信息科技有限公司 | 一种基于VoIP地空语音通信的同步比选及跟随技术方法 |
JP7449577B2 (ja) | 2021-05-17 | 2024-03-14 | 株式会社シンギュレイト | 情報処理装置、情報処理方法、およびプログラム |
US12046231B2 (en) * | 2021-08-05 | 2024-07-23 | Ubkang (Qingdao) Technology Co., Ltd. | Conversation facilitating method and electronic device using the same |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0877010A (ja) * | 1994-09-07 | 1996-03-22 | Hitachi Ltd | データ分析方法および装置 |
US5911131A (en) * | 1995-12-20 | 1999-06-08 | Vig; Tommy | Computer aided calculation, appraisal and valuation of works of art |
US7490092B2 (en) * | 2000-07-06 | 2009-02-10 | Streamsage, Inc. | Method and system for indexing and searching timed media information based upon relevance intervals |
US20070129942A1 (en) * | 2005-12-01 | 2007-06-07 | Ban Oliver K | Visualization and annotation of the content of a recorded business meeting via a computer display |
JP5055781B2 (ja) * | 2006-02-14 | 2012-10-24 | 株式会社日立製作所 | 会話音声分析方法、及び、会話音声分析装置 |
JP4816221B2 (ja) | 2006-04-21 | 2011-11-16 | ヤマハ株式会社 | 収音装置および音声会議装置 |
US8195522B1 (en) * | 2008-06-30 | 2012-06-05 | Amazon Technologies, Inc. | Assessing users who provide content |
US8887068B2 (en) * | 2009-07-31 | 2014-11-11 | Verizon Patent And Licensing Inc. | Methods and systems for visually chronicling a conference session |
JP2011053629A (ja) * | 2009-09-04 | 2011-03-17 | Sharp Corp | 会議中継装置及びコンピュータプログラム |
US8140541B2 (en) * | 2009-09-30 | 2012-03-20 | Michael Campbell Koss | Time-weighted scoring system and method |
US8477921B2 (en) * | 2010-06-30 | 2013-07-02 | International Business Machines Corporation | Managing participation in a teleconference by monitoring for use of an unrelated term used by a participant |
JP5618865B2 (ja) * | 2011-02-25 | 2014-11-05 | Kddi株式会社 | ディスカッション活性化支援装置、ディスカッション活性化支援方法およびコンピュータプログラム |
BR112014008457A2 (pt) * | 2011-10-18 | 2017-04-11 | Unify Gmbh & Co Kg | processo e dispositivo para obtenção de dados gerados em uma conferência |
US20130117279A1 (en) * | 2011-10-24 | 2013-05-09 | IdeaString, LLC | Systems and Methods for Dynamic Conversation Management |
JP5751143B2 (ja) * | 2011-11-15 | 2015-07-22 | コニカミノルタ株式会社 | 議事録作成支援装置、議事録作成支援システム、および、議事録作成用プログラム |
US20130132138A1 (en) * | 2011-11-23 | 2013-05-23 | International Business Machines Corporation | Identifying influence paths and expertise network in an enterprise using meeting provenance data |
US10152542B2 (en) * | 2012-04-09 | 2018-12-11 | Oath Inc. | Ranking and ordering of user generated content |
US9094523B2 (en) * | 2012-06-28 | 2015-07-28 | Dolby Laboratories Licensing Corporation | Metric for meeting commencement in a voice conferencing system |
US20140351719A1 (en) * | 2012-06-29 | 2014-11-27 | JadeLynx Pty Ltd. | On-Line Collaboration Systems and Methods |
US9495350B2 (en) * | 2012-09-14 | 2016-11-15 | Avaya Inc. | System and method for determining expertise through speech analytics |
JP5433760B2 (ja) * | 2012-10-18 | 2014-03-05 | 株式会社日立製作所 | 会議分析システム |
US9928383B2 (en) * | 2014-10-30 | 2018-03-27 | Pearson Education, Inc. | Methods and systems for network-based analysis, intervention, and anonymization |
US9811521B2 (en) * | 2013-09-30 | 2017-11-07 | Google Inc. | Methods, systems, and media for presenting recommended content based on social cues |
US9576023B2 (en) * | 2014-07-14 | 2017-02-21 | International Business Machines Corporation | User interface for summarizing the relevance of a document to a query |
US9703858B2 (en) * | 2014-07-14 | 2017-07-11 | International Business Machines Corporation | Inverted table for storing and querying conceptual indices |
US9710570B2 (en) * | 2014-07-14 | 2017-07-18 | International Business Machines Corporation | Computing the relevance of a document to concepts not specified in the document |
US20160117624A1 (en) * | 2014-10-23 | 2016-04-28 | International Business Machines Incorporated | Intelligent meeting enhancement system |
-
2015
- 2015-04-20 JP JP2015086269A patent/JP6210239B2/ja active Active
-
2016
- 2016-04-13 US US15/097,431 patent/US10020007B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016206355A (ja) | 2016-12-08 |
US10020007B2 (en) | 2018-07-10 |
US20160307571A1 (en) | 2016-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6210239B2 (ja) | 会話解析装置、会話解析方法及びプログラム | |
JP6703420B2 (ja) | 会話解析装置、会話解析方法およびプログラム | |
US20200127865A1 (en) | Post-conference playback system having higher perceived quality than originally heard in the conference | |
US10522151B2 (en) | Conference segmentation based on conversational dynamics | |
US10516782B2 (en) | Conference searching and playback of search results | |
US10057707B2 (en) | Optimized virtual scene layout for spatial meeting playback | |
US9641681B2 (en) | Methods and systems for determining conversation quality | |
US11076052B2 (en) | Selective conference digest | |
Morbini et al. | Which ASR should I choose for my dialogue system? | |
JP5024154B2 (ja) | 関連付け装置、関連付け方法及びコンピュータプログラム | |
US20180190266A1 (en) | Conference word cloud | |
Anderson et al. | Recognition of elderly speech and voice-driven document retrieval | |
US20200013389A1 (en) | Word extraction device, related conference extraction system, and word extraction method | |
WO2014203328A1 (ja) | 音声データ検索システム、音声データ検索方法、及びコンピュータ読み取り可能な記憶媒体 | |
JP6672114B2 (ja) | 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム | |
JP2020160425A (ja) | 評価システム、評価方法、及びコンピュータプログラム。 | |
Sanchez et al. | Domain adaptation and compensation for emotion detection. | |
WO2020196743A1 (ja) | 評価システム及び評価方法 | |
JP6183147B2 (ja) | 情報処理装置、プログラム、及び方法 | |
Saukh et al. | Quantle: fair and honest presentation coach in your pocket | |
JPH08137875A (ja) | 対話活性化装置 | |
Schaaf et al. | Are you dictating to me? detecting embedded dictations in doctor-patient conversations | |
JP4986301B2 (ja) | 音声認識処理機能を用いたコンテンツ検索装置、プログラム及び方法 | |
Li et al. | Acoustic measures for real-time voice coaching | |
US20220172711A1 (en) | System with speaker representation, electronic device and related methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170829 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6210239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |