JP2020160425A5 - - Google Patents

Download PDF

Info

Publication number
JP2020160425A5
JP2020160425A5 JP2019173105A JP2019173105A JP2020160425A5 JP 2020160425 A5 JP2020160425 A5 JP 2020160425A5 JP 2019173105 A JP2019173105 A JP 2019173105A JP 2019173105 A JP2019173105 A JP 2019173105A JP 2020160425 A5 JP2020160425 A5 JP 2020160425A5
Authority
JP
Japan
Prior art keywords
speaker
voice
evaluation
evaluation system
negotiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019173105A
Other languages
English (en)
Other versions
JP2020160425A (ja
JP7160778B2 (ja
Filing date
Publication date
Application filed filed Critical
Priority to JP2019173105A priority Critical patent/JP7160778B2/ja
Priority claimed from JP2019173105A external-priority patent/JP7160778B2/ja
Publication of JP2020160425A publication Critical patent/JP2020160425A/ja
Publication of JP2020160425A5 publication Critical patent/JP2020160425A5/ja
Application granted granted Critical
Publication of JP7160778B2 publication Critical patent/JP7160778B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (33)

  1. 第一の話者と第二の話者との間の商談におけるディジタル機器を通じた前記第一の話者から前記第二の話者へのディジタル資料の表示の有無及び表示タイミングの少なくとも一方を判別可能な表示情報を取得するように構成される取得部と、
    前記取得部により取得された前記表示情報から判別される前記ディジタル資料の表示の有無及び表示タイミングの少なくとも一方に基づき、前記第一の話者による商談行為を評価するように構成される評価部と、
    を備える評価システム。
  2. 請求項1記載の評価システムであって、
    前記ディジタル資料は、複数のディジタル資料であり、
    前記評価部は、前記複数のディジタル資料に関する前記表示タイミングとして、前記複数のディジタル資料の表示順序に基づき、前記商談行為を評価する評価システム。
  3. 請求項2記載の評価システムであって、
    前記評価部は、前記表示順序が予め定められた模範的な順序から乖離するほど、評価を下げるように、前記商談行為を評価する評価システム。
  4. 請求項1~請求項3のいずれか一項記載の評価システムであって、
    前記評価部は、前記商談において前記ディジタル資料が表示されなかった場合には前記ディジタル資料が表示された場合よりも評価を下げるように、前記商談行為を評価する評価システム。
  5. 請求項1~請求項4のいずれか一項記載の評価システムであって、
    前記取得部は、前記第一の話者と前記第二の話者との間の前記商談上の音声が記録された音声データを取得するように構成され、
    前記評価部は、前記音声データに記録された音声に更に基づき、前記商談行為を評価する評価システム。
  6. 請求項5記載の評価システムであって、
    複数のトピックに対応して、複数の評価モデルが用意され、
    前記評価部は、前記複数の評価モデルのうち、前記商談に対応するトピックの評価モデルを用いて、前記商談行為を評価する評価システム。
  7. 請求項6記載の評価システムであって、
    前記評価部は、前記商談において表示される前記ディジタル資料に対応するトピックの評価モデルを用いて前記音声データに記録された音声を評価することにより、前記商談行為を評価する評価システム。
  8. 請求項5~請求項7のいずれか一項記載の評価システムであって、
    前記評価部は、前記商談において表示される前記ディジタル資料に対応するトピックのキーワードを前記音声データに記録された音声から抽出し、前記抽出したキーワードに基づき、前記商談行為を評価する評価システム。
  9. 請求項6~請求項8のいずれか一項記載の評価システムであって、
    前記評価部は、前記ディジタル資料が表示された場合には、表示された前記ディジタル資料に基づき前記トピックを判別し、前記ディジタル資料が表示されなかった場合には、前記音声データに記録された音声に基づき前記トピックを判別する評価システム。
  10. 請求項5~請求項9のいずれか一項記載の評価システムであって、
    前記音声データに記録された音声を、前記第一の話者の音声と前記第二の話者の音声とに分離するように構成される分離部
    を備え、
    前記評価部は、前記分離部により分離された前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方と、前記ディジタル資料の表示の有無及び表示タイミングの少なくとも一方と、に基づき、前記商談行為を評価する評価システム。
  11. 請求項10記載の評価システムであって、
    前記第一の話者は、予め音声の特徴が登録された登録者であり、
    前記分離部は、登録された前記第一の話者の前記音声の特徴に基づき、前記音声データに記録された音声を、前記登録者である前記第一の話者の音声と、前記登録者以外の前記第二の話者の音声とに分離する評価システム。
  12. 請求項10又は請求項11記載の評価システムであって、
    前記評価部は、前記分離部により分離された前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方に基づいて前記第一の話者の発話行為を評価すると共に、前記第一の話者による前記ディジタル資料の表示行為を評価することによって、前記商談行為を評価する評価システム。
  13. 請求項12記載の評価システムであって、
    前記評価部は、前記第二の話者の音声に基づいて、前記第一の話者の前記発話行為を評価する評価システム。
  14. 請求項12又は請求項13記載の評価システムであって、
    前記評価部は、前記第二の話者の音声に含まれるキーワードに基づき、前記第一の話者の前記発話行為を評価する評価システム。
  15. 請求項12~請求項14のいずれか一項記載の評価システムであって、
    前記評価部は、前記第一の話者と前記第二の話者との間のトピックに対応するキーワードを前記第二の話者の音声から抽出し、前記抽出したキーワードに基づき、前記第一の話者の前記発話行為を評価する評価システム。
  16. 請求項12~請求項15のいずれか一項記載の評価システムであって、
    前記評価部は、前記第二の話者の話速、音量、及び音高の少なくとも一つに基づき、前記第一の話者の前記発話行為を評価する評価システム。
  17. 請求項12~請求項16のいずれか一項記載の評価システムであって、
    前記評価部は、前記第一の話者の音声に基づいて、前記第一の話者の前記発話行為を評価する評価システム。
  18. 請求項12~請求項17のいずれか一項記載の評価システムであって、
    前記評価部は、前記第一の話者の音声及び前記第二の話者の音声から判別される前記第一の話者及び前記第二の話者の発話の分布に関する情報に基づき、前記第一の話者の前記発話行為を評価する評価システム。
  19. 請求項18記載の評価システムであって、
    前記評価部は、前記分布に関する情報としての、前記第一の話者と前記第二の話者との間の発話時間及び発話量の少なくとも一方の比率に基づき、前記第一の話者の前記発話行為を評価する評価システム。
  20. 請求項12~請求項19のいずれか一項記載の評価システムであって、
    前記評価部は、前記第二の話者の音声に基づき、前記第二の話者が有する課題を推定し、前記第一の話者の音声に基づき、前記第一の話者が前記第二の話者に対して、推定した前記課題に対応する予め定められた情報を提供しているか否かを判定し、当該判定結果に応じて、前記第一の話者の前記発話行為を評価する評価システム。
  21. 請求項12~請求項20のいずれか一項記載の評価システムであって、
    前記評価部は、前記第一の話者の音声及び前記第二の話者の音声に基づき、前記第一の話者が予め定められたシナリオに従って、前記第二の話者の反応に対応した話を前記第二の話者に展開しているか否かを判定し、当該判定結果に応じて、前記第一の話者の前記発話行為を評価する評価システム。
  22. 第一の話者と第二の話者との間の商談上の音声が記録された音声データを取得するように構成される取得部と、
    前記取得部により取得された前記音声データに記録された音声を、前記第一の話者の音声と前記第二の話者の音声とに分離するように構成される分離部と、
    前記第一の話者の発話行為を、前記分離部により分離された前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方に基づいて評価するように構成される評価部と、
    を備え
    前記評価部は、前記第一の話者と前記第二の話者との間のトピックに対応するキーワードを前記第二の話者の音声から抽出し、前記抽出したキーワードに基づき、前記第一の話者の前記発話行為を評価する評価システム。
  23. 第一の話者と第二の話者との間の商談上の音声が記録された音声データを取得するように構成される取得部と、
    前記取得部により取得された前記音声データに記録された音声を、前記第一の話者の音声と前記第二の話者の音声とに分離するように構成される分離部と、
    前記第一の話者の発話行為を、前記分離部により分離された前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方に基づいて評価するように構成される評価部と、
    を備え
    前記評価部は、前記第一の話者から前記第二の話者に向けてディジタル機器を通じて表示されるディジタル資料の識別情報に基づき、前記表示される前記ディジタル資料に対応するキーワードを前記第二の話者の音声から抽出し、前記抽出したキーワードに基づき、前記第一の話者の前記発話行為を評価する評価システム。
  24. 第一の話者と第二の話者との間の商談上の音声が記録された音声データを取得するように構成される取得部と、
    前記取得部により取得された前記音声データに記録された音声を、前記第一の話者の音声と前記第二の話者の音声とに分離するように構成される分離部と、
    前記第一の話者の発話行為を、前記分離部により分離された前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方に基づいて評価するように構成される評価部と、
    を備え
    前記評価部は、複数の評価モデルのうち、前記第一の話者と前記第二の話者との間のトピックに対応する評価モデルに、前記第一の話者の音声に関する特徴データを入力して得られる前記対応する評価モデルからの出力に基づき、前記第一の話者の前記発話行為を評価し、
    前記複数の評価モデルのそれぞれは、対応するトピックの模範的な発話行為に関する特徴データを教師データとして用いた機械学習により構築される評価システム。
  25. 第一の話者と第二の話者との間の商談上の音声が記録された音声データを取得するように構成される取得部と、
    前記取得部により取得された前記音声データに記録された音声を、前記第一の話者の音声と前記第二の話者の音声とに分離するように構成される分離部と、
    前記第一の話者の発話行為を、前記分離部により分離された前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方に基づいて評価するように構成される評価部と、
    を備え
    前記評価部は、前記第一の話者から前記第二の話者に向けてディジタル機器を通じて表示されるディジタル資料の識別情報に基づき、複数の評価モデルのうち、前記表示される前記ディジタル資料に対応する評価モデルを選択し、前記選択した評価モデルに前記第一の話者の音声に関する特徴データを入力して得られる前記選択した評価モデルからの出力に基づき、前記第一の話者の前記発話行為を評価し、
    前記複数の評価モデルのそれぞれは、対応するディジタル資料を用いた模範的な発話行為に関する特徴データを教師データとして用いた機械学習により構築される評価システム。
  26. 請求項1~請求項9のいずれか一項記載の評価システムにおける前記取得部及び前記評価部としてコンピュータを機能させるためのコンピュータプログラム。
  27. 請求項10~請求項25のいずれか一項記載の評価システムにおける前記取得部、前記分離部、及び前記評価部としてコンピュータを機能させるためのコンピュータプログラム。
  28. コンピュータにより実行される評価方法であって、
    第一の話者と第二の話者との間の商談におけるディジタル機器を通じた前記第一の話者から前記第二の話者へのディジタル資料の表示の有無及び表示タイミングの少なくとも一方を判別可能な表示情報を取得することと、
    取得した前記表示情報から判別される前記ディジタル資料の表示の有無及び表示タイミングの少なくとも一方に基づき、前記第一の話者による商談行為を評価することと、
    を含む評価方法。
  29. コンピュータにより実行される評価方法であって、
    第一の話者と第二の話者との間の商談上の音声が記録された音声データを取得することと、
    前記商談におけるディジタル機器を通じた前記第一の話者から前記第二の話者へのディジタル資料の表示の有無及び表示タイミングの少なくとも一方を判別可能な表示情報を取得することと、
    取得した前記音声データに記録された音声と、取得した前記表示情報から判別される前記ディジタル資料の表示の有無及び表示タイミングの少なくとも一方と、に基づき、前記第一の話者による商談行為を評価することと、
    を含む評価方法。
  30. コンピュータにより実行される評価方法であって、
    第一の話者と第二の話者との間の商談上の音声が記録された音声データを取得することと、
    前記取得した前記音声データに記録された音声を、前記第一の話者の音声と前記第二の話者の音声とに分離することと、
    前記第一の話者の発話行為を、前記分離した前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方に基づいて評価することと、
    を含み
    前記評価することは、前記第一の話者と前記第二の話者との間のトピックに対応するキーワードを前記第二の話者の音声から抽出し、前記抽出したキーワードに基づき、前記第一の話者の前記発話行為を評価することを含む評価方法。
  31. コンピュータにより実行される評価方法であって、
    第一の話者と第二の話者との間の商談上の音声が記録された音声データを取得することと、
    前記取得した前記音声データに記録された音声を、前記第一の話者の音声と前記第二の話者の音声とに分離することと、
    前記第一の話者の発話行為を、前記分離した前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方に基づいて評価することと、
    を含み
    前記評価することは、前記第一の話者から前記第二の話者に向けてディジタル機器を通じて表示されるディジタル資料の識別情報に基づき、前記表示される前記ディジタル資料に対応するキーワードを前記第二の話者の音声から抽出し、前記抽出したキーワードに基づき、前記第一の話者の前記発話行為を評価することを含む評価方法。
  32. コンピュータにより実行される評価方法であって、
    第一の話者と第二の話者との間の商談上の音声が記録された音声データを取得することと、
    前記取得した前記音声データに記録された音声を、前記第一の話者の音声と前記第二の話者の音声とに分離することと、
    前記第一の話者の発話行為を、前記分離した前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方に基づいて評価することと、
    を含み
    前記評価することは、複数の評価モデルのうち、前記第一の話者と前記第二の話者との間のトピックに対応する評価モデルに、前記第一の話者の音声に関する特徴データを入力して得られる前記対応する評価モデルからの出力に基づき、前記第一の話者の前記発話行為を評価することを含み、
    前記評価方法は更に、
    前記複数の評価モデルのそれぞれを、対応するトピックの模範的な発話行為に関する特徴データを教師データとして用いた機械学習により構築することを含む評価方法。
  33. コンピュータにより実行される評価方法であって、
    第一の話者と第二の話者との間の商談上の音声が記録された音声データを取得することと、
    前記取得した前記音声データに記録された音声を、前記第一の話者の音声と前記第二の話者の音声とに分離することと、
    前記第一の話者の発話行為を、前記分離した前記第一の話者の音声及び前記第二の話者の音声の少なくとも一方に基づいて評価することと、
    を含み
    前記評価することは、前記第一の話者から前記第二の話者に向けてディジタル機器を通じて表示されるディジタル資料の識別情報に基づき、複数の評価モデルのうち、前記表示される前記ディジタル資料に対応する評価モデルを選択し、前記選択した評価モデルに前記第一の話者の音声に関する特徴データを入力して得られる前記選択した評価モデルからの出力に基づき、前記第一の話者の前記発話行為を評価することを含み、
    前記評価方法は更に、
    前記複数の評価モデルのそれぞれを、対応するトピックの模範的な発話行為に関する特徴データを教師データとして用いた機械学習により構築することを含む評価方法。
JP2019173105A 2019-09-24 2019-09-24 評価システム、評価方法、及びコンピュータプログラム。 Active JP7160778B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019173105A JP7160778B2 (ja) 2019-09-24 2019-09-24 評価システム、評価方法、及びコンピュータプログラム。

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173105A JP7160778B2 (ja) 2019-09-24 2019-09-24 評価システム、評価方法、及びコンピュータプログラム。

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019061311A Division JP6594577B1 (ja) 2019-03-27 2019-03-27 評価システム、評価方法、及びコンピュータプログラム。

Publications (3)

Publication Number Publication Date
JP2020160425A JP2020160425A (ja) 2020-10-01
JP2020160425A5 true JP2020160425A5 (ja) 2022-03-15
JP7160778B2 JP7160778B2 (ja) 2022-10-25

Family

ID=72643283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019173105A Active JP7160778B2 (ja) 2019-09-24 2019-09-24 評価システム、評価方法、及びコンピュータプログラム。

Country Status (1)

Country Link
JP (1) JP7160778B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113593529B (zh) * 2021-07-09 2023-07-25 北京字跳网络技术有限公司 说话人分离算法的评估方法、装置、电子设备和存储介质
JP7123448B1 (ja) 2021-11-09 2022-08-23 株式会社バベル 情報処理方法、コンピュータプログラム及び情報処理装置
JP2024006627A (ja) * 2022-07-04 2024-01-17 パナソニックIpマネジメント株式会社 評価システム、評価装置および評価方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334075A (ja) * 1994-06-03 1995-12-22 Hitachi Ltd プレゼンテーション支援装置
JP2007219161A (ja) 2006-02-16 2007-08-30 Ricoh Co Ltd プレゼンテーション評価装置及びプレゼンテーション評価方法
JP2009069894A (ja) 2007-09-10 2009-04-02 Fuji Xerox Co Ltd 商談支援装置及び商談支援プログラム
WO2019053958A1 (ja) 2017-09-12 2019-03-21 ジャパンモード株式会社 評価支援システム及び評価支援装置

Similar Documents

Publication Publication Date Title
CN105427858B (zh) 实现语音自动分类的方法及系统
JP6799574B2 (ja) 音声対話の満足度の確定方法及び装置
JP6857581B2 (ja) 成長型対話装置
US9792905B2 (en) Apparatus and method for analysis of language model changes
CN107305541A (zh) 语音识别文本分段方法及装置
US20170365258A1 (en) Utterance presentation device, utterance presentation method, and computer program product
JP2020160425A5 (ja)
KR20200021162A (ko) 상담원의 상담내용을 기반으로 상담 챗봇을 학습하는 시스템 및 방법
CN109543020B (zh) 问询处理方法及系统
CN108899033B (zh) 一种确定说话人特征的方法及装置
KR102529262B1 (ko) 전자 장치 및 제어 방법
TW201044330A (en) Teaching material auto expanding method and learning material expanding system using the same, and machine readable medium thereof
JP7208564B2 (ja) 応対履歴作成支援装置、応対履歴作成支援方法、プログラム、及び表示装置
JP2020160425A (ja) 評価システム、評価方法、及びコンピュータプログラム。
KR20190065194A (ko) 회의록 열람 문서 생성 방법 및 그 장치
JP5258056B2 (ja) 質問文候補提示装置
KR20130068624A (ko) 화자 그룹 기반 음성인식 장치 및 방법
CN110099332B (zh) 一种音频环境展示方法及装置
CN107507627A (zh) 语音数据热度分析方法及系统
JP7125630B2 (ja) 要点抽出装置、要点抽出方法、及びプログラム
WO2020196743A1 (ja) 評価システム及び評価方法
CN114822557A (zh) 课堂中不同声音的区分方法、装置、设备以及存储介质
WO2021256043A1 (ja) 推定装置、推定方法、学習装置、学習方法およびプログラム
JP5763573B2 (ja) 質問相手選択装置、質問相手選択方法および質問相手選択プログラム
Pandharipande et al. Candidate Speech Extraction from Multi-speaker Single-Channel Audio Interviews