JP6686553B2 - 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置 - Google Patents
応対品質評価プログラム、応対品質評価方法及び応対品質評価装置 Download PDFInfo
- Publication number
- JP6686553B2 JP6686553B2 JP2016044736A JP2016044736A JP6686553B2 JP 6686553 B2 JP6686553 B2 JP 6686553B2 JP 2016044736 A JP2016044736 A JP 2016044736A JP 2016044736 A JP2016044736 A JP 2016044736A JP 6686553 B2 JP6686553 B2 JP 6686553B2
- Authority
- JP
- Japan
- Prior art keywords
- nod
- value
- evaluation value
- person
- response evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004044 response Effects 0.000 title claims description 216
- 238000013441 quality evaluation Methods 0.000 title claims description 38
- 238000000034 method Methods 0.000 title claims description 15
- 230000033001 locomotion Effects 0.000 claims description 215
- 238000011156 evaluation Methods 0.000 claims description 206
- 230000008859 change Effects 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 15
- 241000590419 Polygonia interrogationis Species 0.000 claims description 7
- 230000002123 temporal effect Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 11
- 239000000284 extract Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
以下、図面を参照して実施形態の一例である第1実施形態を詳細に説明する。なお、第1〜第4実施形態では、抽出した人物領域の時間変化で表される人物領域の人物の動作が、うなずき動作である場合について説明する。
E1=exp(−|SR−r×NR|/SR) …(1)
F1(x1)は、以下の性質を有する関数である。x1=(GDU+GDL)/2−NDであり、|x1|≦(GDU−GDL)/2である場合、F1(x1)=1である。また、|x1|>(GDU−GDL)/2である場合、F1(x1)=1−(|x1|/((GDU+GDL)/2))である。なお、E2<0となった場合、E2=0とする。
F2(x2)は、以下の性質を有する関数である。x2=(GTU+GTL)/2−NTであり、|x2|≦(GTU−GTL)/2である場合、F2(x2)=1であり、|x2|>(GTU−GTL)/2である場合、F2(x2)=1−(|x2|/((GTU+GTL)/2))である。
第1応対評価値=E1×E2×E3…(4)
CPU21は、ステップ160で、ステップ120で取得した全ての符号音声の第1応対評価値を取得したか否かを判定する。ステップ160の判定が肯定された場合、CPU21は、ステップ170で、式(5)により、全体応対評価値を取得する。
全体応対評価値=第1応対評価値の合計/符号音声の数の合計…(5)
次に、実施形態の一例である第2実施形態を説明する。第1実施形態と同様の構成及び作用については説明を省略する。
うなずき割合評価値=F3((Q+P)/2−TNT/TST)…(6)
Qは適切なうなずき割合範囲の上限値であり、Pは適切なうなずき割合範囲の下限値である。Q及びPは、例えば、優秀店員による過去の応対の情報セットを分析することにより、取得される。
全体応対評価値=第2応対評価値の合計/符号音声の数の合計…(7)
次に、実施形態の一例である第3実施形態を説明する。第1実施形態及び第2実施形態と同様の構成及び作用については説明を省略する。図8に例示するように、第3実施形態では、CPU21は、ブロック41で、句点符号音声の総数41Cを取得する。CPU21は、ブロック46で、符号音声の総数41Bに対する句点符号音声の総数41Cの割合である句点割合46Aを取得する。
応対評価調整値=(PR−SPR)×SP…(8)
SPは、現在処理している句点符号音声の1つ前の句点符号音声までに、第1応対評価値が第2閾値の一例である所定の閾値を連続して越えた句点符号音声の個数を表す。式(8)によれば、句点割合PRが大きくなるに従って、又は、第1応対評価値が所定の閾値を連続して越えた句点符号音声の個数が多くなるに従って、応対評価調整値は大きくなる。
第1応対評価値=第1応対評価値/(1+応対評価調整値)…(9)
次に、実施形態の一例である第4実施形態を説明する。第1〜第3実施形態と同様の構成及び作用については、説明を省略する。図10に例示するように、第4実施形態では、CPU21は、句点割合46Aが標準句点割合23Eを越え、かつ、現在処理している符号音声が句点符号音声である場合、ブロック49で、応対評価調整値49Aを取得する。応対評価調整値49Aは、句点符号音声に対応するうなずき動作の深さの分散に基づいて取得される。CPU21は、ブロック50で、第1応対評価値43Aに応対評価調整値49Aを適用することで、第4応対評価値50Aを取得する。
EDU’=EDU+(PR−SPR)×m…(10)
mは実験的に取得される定数である。即ち、後述するうなずき動作の深さの分散を適切に取得することが可能となるように、適切であると判定されるうなずき動作の深さの幅を広げる。また、例えば、第1基準範囲の下限値EDLをEDL’に変更してもよい。
EDL’=EDL−(PR−SPR)×m…(10)’
応対評価調整値=(PR−SPR)×(PVR−FVR)×n…(11)
PVRは、現在の句点符号音声までの句点符号音声に対応するうなずき動作の深さの分散であり、FVRは、1つ前の句点符号音声までの句点符号音声に対応するうなずき動作の深さの分散である。nは、実験的に取得される定数である。即ち、現在の句点符号音声までの句点符号音声に対応するうなずき動作の深さの分散が、1つ前の句点符号音声までの句点符号音声に対応するうなずき動作の深さの分散より大きい場合、応対評価調整値は大きくなる。
第1応対評価値=第1応対評価値+応対評価調整値…(12)
即ち、応対評価調整値が大きくなるに従って、大きくなるように第1応対評価値は調整される。
発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声及び/または前記発話の速度情報を含む発話情報を取得し、
取得した前記発話情報に対応する動画像から前記発話情報に応じて変化する人物領域を抽出し、
抽出した前記人物領域の時間変化と、取得した前記発話情報に基づいて、前記音声に対する前記人物領域で特定される人物の応対評価値を取得する、
処理をコンピュータに実行させるプログラム。
(付記2)
前記人物領域の時間変化は、前記人物領域の人物の動作を表し、前記人物領域の時間変化が前記人物の顔のピッチングを含む場合、前記人物の動作はうなずき動作であると判定され、
前記応対評価値は、前記うなずき動作の度合いに基づいて、前記音声に対するうなずき動作の適切さを示す第1応対評価値を含む、
付記1のプログラム。
(付記3)
前記うなずき動作の度合いは、うなずき動作の速度、うなずき動作の深さ、及びうなずき動作の回数の少なくとも1つの物理量であり、
前記処理は、
前記物理量が前記うなずき動作の速度である場合は、うなずき動作の速度と前記発話の速度とを比較し、
前記物理量がうなずき動作の深さである場合は、うなずき動作の深さと第1基準値とを比較し、
前記物理量がうなずき動作の回数である場合は、うなずき動作の回数と第2基準値とを比較し、
比較結果に基づいて前記適切さを示す第1応対評価値を取得する、
付記2のプログラム。
(付記4)
前記第1応対評価値は、
第1応対評価値=F1((GDU+GDL)/2−ND)
×F2((GTU+GTL)/2−NT)
×exp(−|SR−r×NR|/SR)
で決定され、
GDUは、前記第1基準値を含む第1基準範囲の上限値であり、
GDLは、前記第1基準値を含む前記第1基準範囲の下限値であり、
NDは、第2ユーザのうなずきの深さであり、
GTUは、前記第2基準値を含む第2基準範囲の上限値であり、
GTLは、前記第2基準値を含む前記第2基準範囲の下限値であり
NTは、前記第2ユーザのうなずきの回数であり、
x1=(GDU+GDL)/2−NDであり、
|x1|≦(GDU−GDL)/2である場合、F1(x1)=1であり、
|x1|>(GDU−GDL)/2である場合、F1(x1)=1−(|x1|/((GDU+GDL)/2))であり、
x2=(GTU+GTL)/2−NTであり、
|x2|≦(GTU−GTL)/2である場合、F2(x2)=1であり、
|x2|>(GTU−GTL)/2である場合、F2(x2)=1−(|x2|/((GTU+GTL)/2))であり、
SRは第1ユーザの発話の速度であり、
NRは、前記第2ユーザのうなずきの速度であり、
rは第3基準値によって決定される値である、
付記3のプログラム。
(付記5)
前記処理は、
前記発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声である符号音声の総数を取得し、
前記第2ユーザのうなずき動作の総数を取得し、
前記うなずき動作の総数を前記符号音声の総数で除算した値に基づいてうなずき割合評価値を取得し、前記第1応対評価値と前記うなずき割合評価値とに基づいて、第2応対評価値を取得する、
付記4のプログラム。
(付記6)
前記第2応対評価値は、前記第1応対評価値と前記うなずき割合評価値との加重合計である、
付記5のプログラム。
(付記7)
前記処理は、
前記第1ユーザの発話の句点に対応する音声である句点符号音声を取得し、前記句点符号音声の総数を、前記符号音声の総数で除算した値である句点割合値を取得し、
前記句点割合値が第1閾値を越える場合、前記句点符号音声に対応し、かつ、前記第1応対評価値が第2閾値を越えるうなずき動作が連続する回数が増えるに従って、前記第1応対評価値を低減することで、第3応対評価値を決定する、
付記5または付記6のプログラム。
(付記8)
前記処理は、
前記第1ユーザの発話の句点に対応する音声である句点符号音声を取得し、前記句点符号音声の総数を、前記符号音声の総数で除算した値である句点割合値を取得し、
取得した前記句点符号音声に対応する第2ユーザのうなずき動作の深さを取得し、
前記句点割合値が第1閾値を越える場合、前記句点符号音声に対応する前記第2ユーザのうなずき動作の深さの分散が大きくなるに従って、前記第1応対評価値を増大することで、第4応対評価値を決定する、
付記5または付記6の何れかに記載のプログラム。
(付記9)
プロセッサが、
発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声及び/または前記発話の速度情報を含む発話情報を取得し、
取得した前記発話情報に対応する動画像から前記発話情報に応じて変化する人物領域を抽出し、
抽出した前記人物領域の時間変化と、取得した前記発話情報に基づいて、前記音声に対する前記人物領域で特定される人物の応対評価値を取得する、
応対品質評価方法。
(付記10)
前記人物領域の時間変化は、前記人物領域の人物の動作を表し、前記人物領域の時間変化が前記人物の顔のピッチングを含む場合、前記人物の動作はうなずき動作であると判定され、
前記応対評価値は、前記うなずき動作の度合いに基づいて、前記音声に対するうなずき動作の適切さを示す第1応対評価値を含む、
付記9の応対品質評価方法。
(付記11)
前記うなずき動作の度合いは、うなずき動作の速度、うなずき動作の深さ、及びうなずき動作の回数の少なくとも1つの物理量であり、
前記プロセッサは、
前記物理量が前記うなずき動作の速度である場合は、うなずき動作の速度と前記発話の速度とを比較し、
前記物理量がうなずき動作の深さである場合は、うなずき動作の深さと第1基準値とを比較し、
前記物理量がうなずき動作の回数である場合は、うなずき動作の回数と第2基準値とを比較し、
比較結果に基づいて前記適切さを示す第1応対評価値を取得する、
付記10の応対品質評価方法。
(付記12)
前記第1応対評価値は、
第1応対評価値=F1((GDU+GDL)/2−ND)
×F2((GTU+GTL)/2−NT)
×exp(−|SR−r×NR|/SR)
で決定され、
GDUは、前記第1基準値を含む第1基準範囲の上限値であり、
GDLは、前記第1基準値を含む前記第1基準範囲の下限値であり、
NDは、第2ユーザのうなずきの深さであり、
GTUは、前記第2基準値を含む第2基準範囲の上限値であり、
GTLは、前記第2基準値を含む前記第2基準範囲の下限値であり
NTは、前記第2ユーザのうなずきの回数であり、
x1=(GDU+GDL)/2−NDであり、
|x1|≦(GDU−GDL)/2である場合、F1(x1)=1であり、
|x1|>(GDU−GDL)/2である場合、F1(x1)=1−(|x1|/((GDU+GDL)/2))であり、
x2=(GTU+GTL)/2−NTであり、
|x2|≦(GTU−GTL)/2である場合、F2(x2)=1であり、
|x2|>(GTU−GTL)/2である場合、F2(x2)=1−(|x2|/((GTU+GTL)/2))であり、
SRは第1ユーザの発話の速度であり、
NRは、前記第2ユーザのうなずきの速度であり、
rは第3基準値によって決定される値である、
付記11の応対品質評価方法。
(付記13)
前記プロセッサは、
前記発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声である符号音声の総数を取得し、
前記第2ユーザのうなずき動作の総数を取得し、
前記うなずき動作の総数を前記符号音声の総数で除算した値に基づいてうなずき割合評価値を取得し、前記第1応対評価値と前記うなずき割合評価値とに基づいて、第2応対評価値を取得する、
付記12の応対品質評価方法。
(付記14)
前記第2応対評価値は、前記第1応対評価値と前記うなずき割合評価値との加重合計である、
付記13の応対品質評価方法。
(付記15)
前記プロセッサは、
前記第1ユーザの発話の句点に対応する音声である句点符号音声を取得し、前記句点符号音声の総数を、前記符号音声の総数で除算した値である句点割合値を取得し、
前記句点割合値が第1閾値を越える場合、前記句点符号音声に対応し、かつ、前記第1応対評価値が第2閾値を越えるうなずき動作が連続する回数が増えるに従って、前記第1応対評価値を低減することで、第3応対評価値を決定する、
付記13または付記14の応対品質評価方法。
(付記16)
前記プロセッサは、
前記第1ユーザの発話の句点に対応する音声である句点符号音声を取得し、前記句点符号音声の総数を、前記符号音声の総数で除算した値である句点割合値を取得し、
取得した前記句点符号音声に対応する第2ユーザのうなずき動作の深さを取得し、
前記句点割合値が第1閾値を越える場合、前記句点符号音声に対応する前記第2ユーザのうなずき動作の深さの分散が大きくなるに従って、前記第1応対評価値を増大することで、第4応対評価値を決定する、
付記13または付記14の応対品質評価方法。
(付記17)
発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声及び/または前記発話の速度情報を含む発話情報を取得する発話情報取得部と、
取得した前記発話情報に対応する動画像から前記発話情報に応じて変化する人物領域を抽出し、抽出した前記人物領域の時間変化と、取得した前記発話情報に基づいて、前記音声に対する前記人物領域で特定される人物の応対評価値を取得する応対評価部と、
を含む応対品質評価装置。
(付記18)
前記人物領域の時間変化は、前記人物領域の人物の動作を表し、前記人物領域の時間変化が前記人物の顔のピッチングを含む場合、前記人物の動作はうなずき動作であると判定され、
前記応対評価値は、前記うなずき動作の度合いに基づいて、前記音声に対するうなずき動作の適切さを示す第1応対評価値を含む、
付記17の応対品質評価装置。
(付記19)
前記うなずき動作の度合いは、うなずき動作の速度、うなずき動作の深さ、及びうなずき動作の回数の少なくとも1つの物理量であり、
前記応対評価部は、
前記物理量が前記うなずき動作の速度である場合は、うなずき動作の速度と前記発話の速度とを比較し、
前記物理量がうなずき動作の深さである場合は、うなずき動作の深さと第1基準値とを比較し、
前記物理量がうなずき動作の回数である場合は、うなずき動作の回数と第2基準値とを比較し、
比較結果に基づいて前記適切さを示す第1応対評価値を取得する、
付記18の応対品質評価装置。
(付記20)
前記第1応対評価値は、
第1応対評価値=F1((GDU+GDL)/2−ND)
×F2((GTU+GTL)/2−NT)
×exp(−|SR−r×NR|/SR)
で決定され、
GDUは、前記第1基準値を含む第1基準範囲の上限値であり、
GDLは、前記第1基準値を含む前記第1基準範囲の下限値であり、
NDは、第2ユーザのうなずきの深さであり、
GTUは、前記第2基準値を含む第2基準範囲の上限値であり、
GTLは、前記第2基準値を含む前記第2基準範囲の下限値であり
NTは、前記第2ユーザのうなずきの回数であり、
x1=(GDU+GDL)/2−NDであり、
|x1|≦(GDU−GDL)/2である場合、F1(x1)=1であり、
|x1|>(GDU−GDL)/2である場合、F1(x1)=1−(|x1|/((GDU+GDL)/2))であり、
x2=(GTU+GTL)/2−NTであり、
|x2|≦(GTU−GTL)/2である場合、F2(x2)=1であり、
|x2|>(GTU−GTL)/2である場合、F2(x2)=1−(|x2|/((GTU+GTL)/2))であり、
SRは第1ユーザの発話の速度であり、
NRは、前記第2ユーザのうなずきの速度であり、
rは第3基準値によって決定される値である、
付記19の応対品質評価装置。
(付記21)
前記第2ユーザのうなずき動作の総数を取得する前記うなずき情報取得部、
をさらに含み、
前記発話情報取得部は、前記発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声である符号音声の総数を取得し、
前記応対評価部は、前記うなずき動作の総数を前記符号音声の総数で除算した値に基づいてうなずき割合評価値を取得し、前記第1応対評価値と前記うなずき割合評価値とに基づいて、第2応対評価値を取得する、
付記20の応対品質評価装置。
(付記22)
前記第2応対評価値は、前記第1応対評価値と前記うなずき割合評価値との加重合計である、
付記22に記載の応対品質評価装置。
(付記23)
前記発話情報取得部は、前記第1ユーザの発話の句点に対応する音声である句点符号音声を取得し、前記句点符号音声の総数を、前記符号音声の総数で除算した値である句点割合値を取得し、
前記応対評価部は、前記句点割合値が第1閾値を越える場合、前記句点符号音声に対応し、かつ、前記第1応対評価値が第2閾値を越えるうなずき動作が連続する回数が増えるに従って、前記第1応対評価値を低減することで、第3応対評価値を決定する、
付記21または付記22の応対品質評価装置。
(付記24)
前記発話情報取得部は、前記第1ユーザの発話の句点に対応する音声である句点符号音声を取得し、前記句点符号音声の総数を、前記符号音声の総数で除算した値である句点割合値を取得し、
前記うなずき情報取得部は、前記発話情報取得部で取得した前記句点符号音声に対応する第2ユーザのうなずき動作の深さを取得し、
前記応対評価部は、前記句点割合値が第1閾値を越える場合、前記句点符号音声に対応する前記第2ユーザのうなずき動作の深さの分散が大きくなるに従って、前記第1応対評価値を増大することで、第4応対評価値を決定する、
付記21または付記22に記載の応対品質評価装置。
11 発話情報取得部
12 うなずき情報取得部
13 応対評価部
21 CPU
22 一次記憶部
23 二次記憶部
Claims (9)
- 被応対者の発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声及び/または前記発話の速度情報を含む発話情報を取得し、
取得した前記発話情報に対応する応対者の動画像から前記発話情報に応じて変化する人物領域を抽出し、
抽出した前記人物領域の時間変化と、取得した前記発話情報に基づいて、前記音声に対する前記人物領域で特定される人物の応対評価値を取得する、
処理であって、
前記人物領域の時間変化は、前記人物領域の人物の動作を表し、前記人物領域の時間変化が前記人物の顔のピッチングを含む場合、前記人物の動作はうなずき動作であると判定され、
前記応対評価値は、前記うなずき動作の度合いに基づいて、前記被応対者の音声に対する前記応対者のうなずき動作の適切さを示す第1応対評価値を含む、
処理をコンピュータに実行させるプログラム。 - 前記うなずき動作の度合いは、うなずき動作の速度、うなずき動作の深さ、及びうなずき動作の回数の少なくとも1つの物理量であり、
前記処理は、
前記物理量が前記うなずき動作の速度である場合は、うなずき動作の速度と前記発話の速度とを比較し、
前記物理量がうなずき動作の深さである場合は、うなずき動作の深さと第1基準値とを比較し、
前記物理量がうなずき動作の回数である場合は、うなずき動作の回数と第2基準値とを比較し、
比較結果に基づいて前記適切さを示す第1応対評価値を取得する、
請求項1に記載のプログラム。 - 前記第1応対評価値は、
第1応対評価値=F1((GDU+GDL)/2−ND)
×F2((GTU+GTL)/2−NT)
×exp(−|SR−r×NR|/SR)
で決定され、
GDUは、前記第1基準値を含む第1基準範囲の上限値であり、
GDLは、前記第1基準値を含む前記第1基準範囲の下限値であり、
NDは、第2ユーザのうなずきの深さであり、
GTUは、前記第2基準値を含む第2基準範囲の上限値であり、
GTLは、前記第2基準値を含む前記第2基準範囲の下限値であり
NTは、前記第2ユーザのうなずきの回数であり、
x1=(GDU+GDL)/2−NDであり、
|x1|≦(GDU−GDL)/2である場合、F1(x1)=1であり、
|x1|>(GDU−GDL)/2である場合、F1(x1)=1−(|x1|/((GDU+GDL)/2))であり、
x2=(GTU+GTL)/2−NTであり、
|x2|≦(GTU−GTL)/2である場合、F2(x2)=1であり、
|x2|>(GTU−GTL)/2である場合、F2(x2)=1−(|x2|/((GTU+GTL)/2))であり、
SRは第1ユーザの発話の速度であり、
NRは、前記第2ユーザのうなずきの速度であり、
rは第3基準値によって決定される値である、
請求項2に記載のプログラム。 - 前記処理は、
前記発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声である符号音声の総数を取得し、
前記第2ユーザのうなずき動作の総数を取得し、
前記うなずき動作の総数を前記符号音声の総数で除算した値に基づいてうなずき割合評価値を取得し、前記第1応対評価値と前記うなずき割合評価値とに基づいて、第2応対評価値を取得する、
請求項3に記載のプログラム。 - 前記第2応対評価値は、前記第1応対評価値と前記うなずき割合評価値との加重合計である、
請求項4に記載のプログラム。 - 前記処理は、
前記第1ユーザの発話の句点に対応する音声である句点符号音声を取得し、前記句点符号音声の総数を、前記符号音声の総数で除算した値である句点割合値を取得し、
前記句点割合値が第1閾値を越える場合、前記句点符号音声に対応し、かつ、前記第1応対評価値が第2閾値を越えるうなずき動作が連続する回数が増えるに従って、前記第1応対評価値を低減することで、第3応対評価値を決定する、
請求項4または請求項5に記載のプログラム。 - 前記処理は、
前記第1ユーザの発話の句点に対応する音声である句点符号音声を取得し、前記句点符号音声の総数を、前記符号音声の総数で除算した値である句点割合値を取得し、
取得した前記句点符号音声に対応する第2ユーザのうなずき動作の深さを取得し、
前記句点割合値が第1閾値を越える場合、前記句点符号音声に対応する前記第2ユーザのうなずき動作の深さの分散が大きくなるに従って、前記第1応対評価値を増大することで、第4応対評価値を決定する、
請求項4または請求項5に記載のプログラム。 - プロセッサが、
被応対者の発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声及び/または前記発話の速度情報を含む発話情報を取得し、
取得した前記発話情報に対応する応対者の動画像から前記発話情報に応じて変化する人物領域を抽出し、
抽出した前記人物領域の時間変化と、取得した前記発話情報に基づいて、前記音声に対する前記人物領域で特定される人物の応対評価値を取得し、
前記人物領域の時間変化は、前記人物領域の人物の動作を表し、前記人物領域の時間変化が前記人物の顔のピッチングを含む場合、前記人物の動作はうなずき動作であると判定され、
前記応対評価値は、前記うなずき動作の度合いに基づいて、前記被応対者の音声に対する前記応対者のうなずき動作の適切さを示す第1応対評価値を含む、
応対品質評価方法。 - 被応対者の発話の句点、読点、感嘆符、及び疑問符の少なくとも1つに対応する音声及び/または前記発話の速度情報を含む発話情報を取得する発話情報取得部と、
取得した前記発話情報に対応する応対者の動画像から前記発話情報に応じて変化する人物領域を抽出し、抽出した前記人物領域の時間変化と、取得した前記発話情報に基づいて、前記音声に対する前記人物領域で特定される人物の応対評価値を取得する応対評価部と、
を含み、
前記人物領域の時間変化は、前記人物領域の人物の動作を表し、前記人物領域の時間変化が前記人物の顔のピッチングを含む場合、前記人物の動作はうなずき動作であると判定され、
前記応対評価値は、前記うなずき動作の度合いに基づいて、前記被応対者の音声に対する前記応対者のうなずき動作の適切さを示す第1応対評価値を含む、
応対品質評価装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016044736A JP6686553B2 (ja) | 2016-03-08 | 2016-03-08 | 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016044736A JP6686553B2 (ja) | 2016-03-08 | 2016-03-08 | 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017162100A JP2017162100A (ja) | 2017-09-14 |
JP6686553B2 true JP6686553B2 (ja) | 2020-04-22 |
Family
ID=59857586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016044736A Active JP6686553B2 (ja) | 2016-03-08 | 2016-03-08 | 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6686553B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108093249A (zh) * | 2017-12-21 | 2018-05-29 | 珠海格力电器股份有限公司 | 一种图像处理方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1159662C (zh) * | 1998-05-13 | 2004-07-28 | 国际商业机器公司 | 连续语音识别中的标点符号自动生成装置及方法 |
JP2013031009A (ja) * | 2011-07-28 | 2013-02-07 | Fujitsu Ltd | 情報処理装置、ダイジェスト生成方法、及びダイジェスト生成プログラム |
US20150327802A1 (en) * | 2012-12-15 | 2015-11-19 | Tokyo Institute Of Technology | Evaluation apparatus for mental state of human being |
JP6407521B2 (ja) * | 2013-11-27 | 2018-10-17 | キヤノンメディカルシステムズ株式会社 | 診療支援装置 |
JP2015179306A (ja) * | 2014-03-18 | 2015-10-08 | セイコーエプソン株式会社 | 姿勢検出装置、電子機器、頭部装着型装置及び姿勢検出方法 |
-
2016
- 2016-03-08 JP JP2016044736A patent/JP6686553B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017162100A (ja) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7680666B2 (en) | Speech recognition system, speech recognition method, speech synthesis system, speech synthesis method, and program product | |
EP3156978A1 (en) | A system and a method for secure speaker verification | |
JP6251145B2 (ja) | 音声処理装置、音声処理方法およびプログラム | |
CN108538308B (zh) | 基于语音的口型和/或表情模拟方法及装置 | |
US10304439B2 (en) | Image processing device, animation display method and computer readable medium | |
Llorach et al. | Web-based live speech-driven lip-sync | |
JP2018169506A (ja) | 会話満足度推定装置、音声処理装置および会話満足度推定方法 | |
CN112735454A (zh) | 音频处理方法、装置、电子设备和可读存储介质 | |
JP2018180334A (ja) | 感情認識装置、方法およびプログラム | |
CN112614510A (zh) | 一种音频质量评估方法及装置 | |
RU2721180C1 (ru) | Способ генерации анимационной модели головы по речевому сигналу и электронное вычислительное устройство, реализующее его | |
Ravi et al. | Voice quality and between-frame entropy for sleepiness estimation | |
JP2015169827A (ja) | 音声処理装置、音声処理方法および音声処理プログラム | |
EP2030195B1 (en) | Speech differentiation | |
JP6686553B2 (ja) | 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置 | |
Chetty et al. | Robust face-voice based speaker identity verification using multilevel fusion | |
JP6728116B2 (ja) | 音声認識装置、音声認識方法およびプログラム | |
JP4775961B2 (ja) | 映像を用いた発音の推定方法 | |
Eyben et al. | Audiovisual vocal outburst classification in noisy acoustic conditions | |
Abel et al. | A data driven approach to audiovisual speech mapping | |
Zhang et al. | Articulatory movement features for short-duration text-dependent speaker verification | |
JP6627625B2 (ja) | 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム | |
Narwekar et al. | PRAV: A Phonetically Rich Audio Visual Corpus. | |
Asada et al. | Quantitative Evaluation of Facial Expressions and Movements of Persons While Using Video Phone. | |
Yasmin et al. | Discrimination of male and female voice using occurrence pattern of spectral flux |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200316 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6686553 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |