JP2017189291A - 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム - Google Patents
応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム Download PDFInfo
- Publication number
- JP2017189291A JP2017189291A JP2016079530A JP2016079530A JP2017189291A JP 2017189291 A JP2017189291 A JP 2017189291A JP 2016079530 A JP2016079530 A JP 2016079530A JP 2016079530 A JP2016079530 A JP 2016079530A JP 2017189291 A JP2017189291 A JP 2017189291A
- Authority
- JP
- Japan
- Prior art keywords
- value
- nod
- user
- nodding
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims description 93
- 230000004044 response Effects 0.000 title claims description 84
- 238000000034 method Methods 0.000 title claims description 26
- 230000008859 change Effects 0.000 claims abstract description 150
- 230000033001 locomotion Effects 0.000 claims abstract description 105
- 230000014509 gene expression Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 18
- 230000009471 action Effects 0.000 claims description 17
- 230000001815 facial effect Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 8
- 238000012854 evaluation process Methods 0.000 claims description 7
- 230000010365 information processing Effects 0.000 description 16
- 230000006399 behavior Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000013500 data storage Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 210000003128 head Anatomy 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
以下、図面を参照して実施形態の一例である第1実施形態を詳細に説明する。
(UA−UB)/UB … (1)
以下、図面を参照して実施形態の一例である第2実施形態を詳細に説明する。第1実施形態と同様の構成及び作用については説明を省略する。
FS(NS,NST) …(4)
第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測する最適うなずき値予測部と、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する最適うなずき情報出力部と、
を含む応対支援装置。
(付記2)
前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
付記1の応対支援装置。
(付記3)
前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、
付記1または付記2の応対支援装置。
(付記4)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記1〜付記3の何れかの応対支援装置。
(付記5)
第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得するうなずき評価値取得部と、
を含む応対評価装置。
(付記6)
前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
付記5の応対評価装置。
(付記7)
前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、
付記5または付記6の応対評価装置。
(付記8)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記5〜付記7の何れかの応対評価装置。
(付記9)
プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援方法。
(付記10)
前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
付記9の応対支援方法。
(付記11)
前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、
付記9または付記10の応対支援方法。
(付記12)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記9〜付記11の何れかの応対支援方法。
(付記13)
プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価方法。
(付記14)
前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
付記13の応対評価方法。
(付記15)
前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、
付記13または付記14の応対評価方法。
(付記16)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記13〜付記15の何れかの応対評価方法。
(付記17)
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援処理をプロセッサに実行させるためのプログラム。
(付記18)
前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
付記17のプログラム。
(付記19)
前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、
付記17または付記18のプログラム。
(付記20)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記17〜付記19の何れかのプログラム。
(付記21)
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価処理をプロセッサに実行させるためのプログラム。
(付記22)
前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
付記21のプログラム。
(付記23)
前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、
付記21または付記22のプログラム。
(付記24)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記21〜付記23の何れかのプログラム。
11 応対評価装置
23 状態取得部
24 うなずき値取得部
25 最適うなずき値予測部
26 最適うなずき情報出力部
28 うなずき評価値取得部
31 CPU
32 一次記憶部
33 二次記憶部
Claims (12)
- 第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測する最適うなずき値予測部と、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する最適うなずき情報出力部と、
を含む応対支援装置。 - 前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
請求項1に記載の応対支援装置。 - 前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、
請求項1または請求項2に記載の応対支援装置。 - 前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
請求項1〜請求項3の何れか1項に記載の応対支援装置。 - 第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得するうなずき評価値取得部と、
を含む応対評価装置。 - 前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
請求項5に記載の応対評価装置。 - 前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、
請求項5または請求項6に記載の応対評価装置。 - 前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
請求項5〜請求項7の何れか1項に記載の応対評価装置。 - プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援方法。 - プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価方法。 - 第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援処理をプロセッサに実行させるためのプログラム。 - 第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価処理をプロセッサに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016079530A JP6627625B2 (ja) | 2016-04-12 | 2016-04-12 | 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016079530A JP6627625B2 (ja) | 2016-04-12 | 2016-04-12 | 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017189291A true JP2017189291A (ja) | 2017-10-19 |
JP6627625B2 JP6627625B2 (ja) | 2020-01-08 |
Family
ID=60084636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016079530A Expired - Fee Related JP6627625B2 (ja) | 2016-04-12 | 2016-04-12 | 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6627625B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019169099A (ja) * | 2018-03-26 | 2019-10-03 | 株式会社 日立産業制御ソリューションズ | 会議支援装置及び会議支援システム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110201959A1 (en) * | 2010-02-18 | 2011-08-18 | Bank Of America | Systems for inducing change in a human physiological characteristic |
JP2013052049A (ja) * | 2011-09-02 | 2013-03-21 | National Institute Of Information & Communication Technology | 対人コミュニケーションにおける同調性検出装置 |
JP2015103183A (ja) * | 2013-11-27 | 2015-06-04 | 株式会社東芝 | 診療支援装置 |
-
2016
- 2016-04-12 JP JP2016079530A patent/JP6627625B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110201959A1 (en) * | 2010-02-18 | 2011-08-18 | Bank Of America | Systems for inducing change in a human physiological characteristic |
JP2013052049A (ja) * | 2011-09-02 | 2013-03-21 | National Institute Of Information & Communication Technology | 対人コミュニケーションにおける同調性検出装置 |
JP2015103183A (ja) * | 2013-11-27 | 2015-06-04 | 株式会社東芝 | 診療支援装置 |
Non-Patent Citations (1)
Title |
---|
渡邊 栄治、外2名: "面接における面接者と被面接者のうなずき動作の分析", 電子情報通信学会技術研究報告, vol. 114, no. 273, JPN6019042210, 2014, JP, pages 7 - 12, ISSN: 0004144144 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019169099A (ja) * | 2018-03-26 | 2019-10-03 | 株式会社 日立産業制御ソリューションズ | 会議支援装置及び会議支援システム |
Also Published As
Publication number | Publication date |
---|---|
JP6627625B2 (ja) | 2020-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7369991B2 (en) | Speech recognition system, speech recognition method, speech synthesis system, speech synthesis method, and program product having increased accuracy | |
EP2363852B1 (en) | Computer-based method and system of assessing intelligibility of speech represented by a speech signal | |
JP6251145B2 (ja) | 音声処理装置、音声処理方法およびプログラム | |
JPWO2017187712A1 (ja) | 情報処理装置 | |
JP2003162294A (ja) | 感情検出方法及び感情検出装置 | |
KR20060090687A (ko) | 시청각 콘텐츠 합성을 위한 시스템 및 방법 | |
JP2008139762A (ja) | プレゼンテーション支援装置および方法並びにプログラム | |
JP2004347761A (ja) | 音声認識装置、音声認識方法、該音声認識方法をコンピュータに対して実行させるためのコンピュータ実行可能なプログラムおよび記憶媒体 | |
JP2005348872A (ja) | 感情推定装置及び感情推定プログラム | |
CN112017690B (zh) | 一种音频处理方法、装置、设备和介质 | |
JP2018169506A (ja) | 会話満足度推定装置、音声処理装置および会話満足度推定方法 | |
JP2021043258A (ja) | 制御システム、及び制御方法 | |
Patel et al. | Relationship between acoustic voice onset and offset and selected instances of oscillatory onset and offset in young healthy men and women | |
JP2015038725A (ja) | 発話アニメーション生成装置、方法、及びプログラム | |
JP6627625B2 (ja) | 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム | |
JP4775961B2 (ja) | 映像を用いた発音の推定方法 | |
JP4411590B2 (ja) | 音声可視化方法及び該方法を記憶させた記録媒体 | |
WO2019073668A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6686553B2 (ja) | 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置 | |
JP6233103B2 (ja) | 音声合成装置、音声合成方法及び音声合成プログラム | |
Lykartsis et al. | Prediction of dialogue success with spectral and rhythm acoustic features using dnns and svms | |
JP6633579B2 (ja) | 音響信号処理装置、方法及びプログラム | |
JP6653687B2 (ja) | 音響信号処理装置、方法及びプログラム | |
JP4177751B2 (ja) | 声質モデル生成方法、声質変換方法、並びにそれらのためのコンピュータプログラム、当該プログラムを記録した記録媒体、及び当該プログラムによりプログラムされたコンピュータ | |
WO2019156079A1 (ja) | 推定装置、推定方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6627625 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |