JP6627625B2 - 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム - Google Patents
応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム Download PDFInfo
- Publication number
- JP6627625B2 JP6627625B2 JP2016079530A JP2016079530A JP6627625B2 JP 6627625 B2 JP6627625 B2 JP 6627625B2 JP 2016079530 A JP2016079530 A JP 2016079530A JP 2016079530 A JP2016079530 A JP 2016079530A JP 6627625 B2 JP6627625 B2 JP 6627625B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- nodding
- nod
- user
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Description
以下、図面を参照して実施形態の一例である第1実施形態を詳細に説明する。
(UA−UB)/UB … (1)
以下、図面を参照して実施形態の一例である第2実施形態を詳細に説明する。第1実施形態と同様の構成及び作用については説明を省略する。
FS(NS,NST) …(4)
第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測する最適うなずき値予測部と、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する最適うなずき情報出力部と、
を含む応対支援装置。
(付記2)
前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
付記1の応対支援装置。
(付記3)
前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、
付記1または付記2の応対支援装置。
(付記4)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記1〜付記3の何れかの応対支援装置。
(付記5)
第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得するうなずき評価値取得部と、
を含む応対評価装置。
(付記6)
前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
付記5の応対評価装置。
(付記7)
前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、
付記5または付記6の応対評価装置。
(付記8)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記5〜付記7の何れかの応対評価装置。
(付記9)
プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援方法。
(付記10)
前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
付記9の応対支援方法。
(付記11)
前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、
付記9または付記10の応対支援方法。
(付記12)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記9〜付記11の何れかの応対支援方法。
(付記13)
プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価方法。
(付記14)
前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
付記13の応対評価方法。
(付記15)
前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、
付記13または付記14の応対評価方法。
(付記16)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記13〜付記15の何れかの応対評価方法。
(付記17)
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援処理をプロセッサに実行させるためのプログラム。
(付記18)
前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
付記17のプログラム。
(付記19)
前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、
付記17または付記18のプログラム。
(付記20)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記17〜付記19の何れかのプログラム。
(付記21)
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価処理をプロセッサに実行させるためのプログラム。
(付記22)
前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
付記21のプログラム。
(付記23)
前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、
付記21または付記22のプログラム。
(付記24)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記21〜付記23の何れかのプログラム。
11 応対評価装置
23 状態取得部
24 うなずき値取得部
25 最適うなずき値予測部
26 最適うなずき情報出力部
28 うなずき評価値取得部
31 CPU
32 一次記憶部
33 二次記憶部
Claims (12)
- 第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測する最適うなずき値予測部と、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する最適うなずき情報出力部と、
を含む応対支援装置。 - 前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
請求項1に記載の応対支援装置。 - 前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、
請求項1または請求項2に記載の応対支援装置。 - 前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
請求項1〜請求項3の何れか1項に記載の応対支援装置。 - 第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得するうなずき評価値取得部と、
を含む応対評価装置。 - 前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
請求項5に記載の応対評価装置。 - 前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、
請求項5または請求項6に記載の応対評価装置。 - 前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
請求項5〜請求項7の何れか1項に記載の応対評価装置。 - プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援方法。 - プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価方法。 - 第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援処理をプロセッサに実行させるためのプログラム。 - 第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価処理をプロセッサに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016079530A JP6627625B2 (ja) | 2016-04-12 | 2016-04-12 | 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016079530A JP6627625B2 (ja) | 2016-04-12 | 2016-04-12 | 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017189291A JP2017189291A (ja) | 2017-10-19 |
JP6627625B2 true JP6627625B2 (ja) | 2020-01-08 |
Family
ID=60084636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016079530A Active JP6627625B2 (ja) | 2016-04-12 | 2016-04-12 | 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6627625B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6867971B2 (ja) * | 2018-03-26 | 2021-05-12 | 株式会社 日立産業制御ソリューションズ | 会議支援装置及び会議支援システム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8715178B2 (en) * | 2010-02-18 | 2014-05-06 | Bank Of America Corporation | Wearable badge with sensor |
JP2013052049A (ja) * | 2011-09-02 | 2013-03-21 | National Institute Of Information & Communication Technology | 対人コミュニケーションにおける同調性検出装置 |
JP6407521B2 (ja) * | 2013-11-27 | 2018-10-17 | キヤノンメディカルシステムズ株式会社 | 診療支援装置 |
-
2016
- 2016-04-12 JP JP2016079530A patent/JP6627625B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017189291A (ja) | 2017-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3469582B1 (en) | Neural network-based voiceprint information extraction method and apparatus | |
US10020007B2 (en) | Conversation analysis device, conversation analysis method, and program | |
US7369991B2 (en) | Speech recognition system, speech recognition method, speech synthesis system, speech synthesis method, and program product having increased accuracy | |
WO2017187712A1 (ja) | 情報処理装置 | |
JP4546767B2 (ja) | 感情推定装置及び感情推定プログラム | |
JP6251145B2 (ja) | 音声処理装置、音声処理方法およびプログラム | |
US20110224978A1 (en) | Information processing device, information processing method and program | |
KR20060090687A (ko) | 시청각 콘텐츠 합성을 위한 시스템 및 방법 | |
JP2003162294A (ja) | 感情検出方法及び感情検出装置 | |
US20210174702A1 (en) | Communication skill evaluation system, device, method, and program | |
JP2021152682A (ja) | 音声処理装置、音声処理方法、およびプログラム | |
JP4792703B2 (ja) | 音声解析装置、音声解析方法及び音声解析プログラム | |
JP2018169506A (ja) | 会話満足度推定装置、音声処理装置および会話満足度推定方法 | |
JP2008158055A (ja) | 言語発音練習支援システム | |
KR20210071713A (ko) | 스피치 스킬 피드백 시스템 | |
JP6627625B2 (ja) | 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム | |
JP2015038725A (ja) | 発話アニメーション生成装置、方法、及びプログラム | |
JP4775961B2 (ja) | 映像を用いた発音の推定方法 | |
JP7370050B2 (ja) | 読唇装置及び読唇方法 | |
JP6784255B2 (ja) | 音声処理装置、音声処理システム、音声処理方法、およびプログラム | |
JP6791816B2 (ja) | 音声区間検出装置、音声区間検出方法、およびプログラム | |
Abel et al. | A data driven approach to audiovisual speech mapping | |
WO2019073668A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6686553B2 (ja) | 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置 | |
JP6233103B2 (ja) | 音声合成装置、音声合成方法及び音声合成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6627625 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |