JP6627625B2 - 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム - Google Patents

応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム Download PDF

Info

Publication number
JP6627625B2
JP6627625B2 JP2016079530A JP2016079530A JP6627625B2 JP 6627625 B2 JP6627625 B2 JP 6627625B2 JP 2016079530 A JP2016079530 A JP 2016079530A JP 2016079530 A JP2016079530 A JP 2016079530A JP 6627625 B2 JP6627625 B2 JP 6627625B2
Authority
JP
Japan
Prior art keywords
value
nodding
nod
user
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016079530A
Other languages
English (en)
Other versions
JP2017189291A (ja
Inventor
典弘 覚幸
典弘 覚幸
哲 中島
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016079530A priority Critical patent/JP6627625B2/ja
Publication of JP2017189291A publication Critical patent/JP2017189291A/ja
Application granted granted Critical
Publication of JP6627625B2 publication Critical patent/JP6627625B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラムに関する。
店舗窓口で店員が顧客へ応対を行う場合、顧客に好印象を与える高い品質の応対を行うことが店員に求められている。また、応対において、顧客が示す態度に対する肯定的動作である店員のうなずき動作が応対品質に大きく影響を与えることが知られている。店員の適切なうなずき動作は、顧客が示す態度を店員が理解していると顧客に解釈させ、顧客に満足感を与える。例えば、会議の参加者が会議の内容を理解しているか否かを判定するために、うなずき動作を検出する技術が存在する。
特開2009−267621号公報 特開2007−97668号公報
杉山ら、「クラウド型音声認識APIを用いて適切な話速を定量的に評価・改善するセルフチェックサービス」、情報処理学会第76回全国大会、2014年、頁4−797及び頁4−798 カプア(Kapoor)ら、「リアルタイム肯定(うなずく)動作及び否定(頭を振る)動作検出手段(A Real-Time Head Nod and Shake Detector)」、知覚ユーザインターフェイスに関する2001年ワークショップ抄録(Proceedings of the 2001 workshop on Perceptive user interfaces)、2001年、頁1〜頁5 ウェイ(Wei)ら、「継続的な人感情認識のためのリアルタイム肯定(うなずく)動作及び否定(頭を振る)動作検出(REAL TIME HEAD NOD AND SHAKE DETECTION FOR CONTINUOUS HUMAN AFFECT RECOGNITION)」、マルチメディアインタラクティブサービスのための画像分析(Image Analysis for Multimedia Interactive Services)、2013年 ナカムラ(Nakamura)ら、「アクティブアピアランスモデルに基づく肯定(うなずく)動作検出システムの改良(Development of Nodding Detection System Based on Active Appearance Model)」、システム統合に関するIEEE/SICE国際シンポジウム(IEEE/SICE International Symposium on System Integration)、日本、2013年、頁400〜頁405
しかしながら、顧客の示す態度が変化した場合には、店員のうなずき動作も適切に変化しないと、顧客が受ける印象はむしろ悪化する。したがって、店員のうなずき動作を検出するだけでは、顧客に好印象を与える最適うなずき動作の情報を提供することは困難である。
本発明は、1つの側面として、第1ユーザが示す態度が変化した場合に、第2ユーザが行う最適うなずき動作の情報を提供することを目的とする。
1つの実施形態では、状態取得部は、第1ユーザの状態を表す状態値を取得する。うなずき値取得部は、第1ユーザの状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得する。最適うなずき値予測部は、状態値の変化割合が所定値を越えた場合に、所定値を越える前のうなずき値及び変化割合を用いて、所定値を越えた後の最適うなずき値を予測する。最適うなずき情報出力部は、予測した最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する。
1つの側面として、第1ユーザが示す態度が変化した場合に、第2ユーザが行う最適うなずき動作の情報を提供することを可能とする。
第1実施形態に係る応対支援装置の要部機能の一例を示すブロック図である。 第1実施形態に係る応対支援装置のハードウェアの構成の一例を示すブロック図である。 第1実施形態に係る応対支援処理の概要を説明するための概念図である。 第1実施形態に係る応対支援処理の流れの一例を示すフローチャートである。 第1実施形態に係るうなずき画像処理の流れの一例を示すフローチャートである。 第1実施形態に係る発話音声処理の流れの一例を示すフローチャートである。 第1実施形態に係る最適うなずき表示処理の流れの一例を示すフローチャートである。 第1実施形態に係る類似うなずきについて説明するための概念図である。 第1実施形態に係る類似うなずきについて説明するための概念図である。 第2実施形態に係る応対評価装置の要部機能の一例を示すブロック図である。 第2実施形態に係る応対評価装置のハードウェアの構成の一例を示すブロック図である。 第2実施形態に係る応対評価処理の概要を説明するための概念図である。 第2実施形態に係る応対評価処理の流れの一例を示すフローチャートである。 第2実施形態に係る発話音声処理の流れの一例を示すフローチャートである。 第2実施形態に係るうなずき画像処理の流れの一例を示すフローチャートである。 第2実施形態に係るうなずき評価値表示処理の流れの一例を示すフローチャートである。 第2実施形態に係る類似うなずきについて説明するための概念図である。 第2実施形態に係る類似うなずきについて説明するための概念図である。 第2実施形態に係る類似うなずきについて説明するための概念図である。
[第1実施形態]
以下、図面を参照して実施形態の一例である第1実施形態を詳細に説明する。
図1に示す応対支援装置10は、第1検出部21、第2検出部22、状態取得部23、うなずき値取得部24、最適うなずき値予測部25、最適うなずき情報出力部26、及び出力部29を含む。第1検出部21は、例えば、顧客である第1ユーザが示す態度、即ち、第1ユーザから発せられた第1ユーザの状態に関する情報を検出する。第2検出部22は、例えば、店員である第2ユーザのうなずき動作に関する情報を検出する。
状態取得部23は、第1検出部21が検出した情報から、第1ユーザから発せられた第1ユーザの状態を表す状態値を取得する。うなずき値取得部24は、第2検出部22が検出した情報から、第1ユーザの状態に対して反応した第2ユーザのうなずき動作の程度を表すうなずき値を取得する。
最適うなずき値予測部25は、状態値の変化割合が所定値を越えた場合に、所定値を越える前のうなずき値及び変化割合を用いて、所定値を越えた後の最適うなずき値を予測する。最適うなずき情報出力部26は、予測した最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部29に出力する。
応対支援装置10は、一例として、図2に示すように、プロセッサの一例であるCPU(Central Processing Unit)31、一次記憶部32、二次記憶部33、外部インターフェイス34、マイク(マイクロフォン)35、カメラ36、及びディスプレイ37を含む。CPU31、一次記憶部32、二次記憶部33、外部インターフェイス34、マイク35、カメラ36、及びディスプレイ37は、バス39を介して相互に接続されている。
一次記憶部32は、例えば、RAM(Random Access Memory)などの揮発性のメモリである。二次記憶部33は、例えば、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)などの不揮発性のメモリである。
二次記憶部33は、プログラム格納領域33A及びデータ格納領域33Bを含む。プログラム格納領域33Aは、一例として、応対支援プログラムを記憶している。CPU31は、プログラム格納領域33Aから応対支援プログラムを読み出して一次記憶部32に展開する。
CPU31は、応対支援プログラムを実行することで、図1の状態取得部23、うなずき値取得部24、最適うなずき値予測部25、及び最適うなずき情報出力部26として動作する。なお、応対支援プログラムは、外部サーバに記憶され、ネットワークを介して、一次記憶部32に展開されてもよいし、DVD(Digital Versatile Disc)などの非一時的記録媒体に記憶され、記録媒体読込装置を介して、一次記憶部32に展開されてもよい。
マイク35は、第1検出部21の一例であり、第1ユーザの発話音声を検出する指向性マイクであってよい。カメラ36は、第2検出部22の一例であり、第2ユーザのうなずき動作を検出することができるように第2ユーザに向けて配置される。マイク35で検出した発話音声の音声データ及びカメラ36で検出した第2ユーザの画像データは、二次記憶部33のデータ格納領域33Bに記憶される。
ディスプレイ37は、出力部29の一例であり、後述する最適うなずき動作を表す情報を表示する。外部インターフェイス34には、外部装置が接続され、外部インターフェイス34は、外部装置とCPU31との間の各種情報の送受信を司る。なお、マイク35、カメラ36及びディスプレイ37が応対支援装置10に含まれている例について説明したが、マイク35、カメラ36及びディスプレイ37の全部または一部は、外部インターフェイス34を介して接続される外部装置であってもよい。
なお、応対支援装置10は、例えば、パーソナルコンピュータであってよいが、本実施形態は、これに限定されない。例えば、応対支援装置10は、タブレット、スマートデバイス、または、応対支援専用装置などであってよい。
次に、応対支援装置10の作用の概略について説明する。本実施形態では、図3に例示するように、CPU31は、マイク35が検出した第1ユーザの発話音声の音声データを取得し、音声データから第1ユーザから発せられた第1ユーザの状態を表す状態値の一例である発話速度51Aを取得する。
CPU31は、カメラ36が検出した第2ユーザの画像データを取得し、第1ユーザの状態に対して反応した第2ユーザのうなずき動作の程度を表すうなずき値の一例であるうなずき動作の速度52Aを取得する。CPU31は、発話速度の変化割合51Bが所定値を越えた場合に、所定値を越える前のうなずき動作の速度52A及び変化割合51Bを用いて、所定値を越えた後の最適うなずき値53を予測する。CPU31は、最適うなずき値53を表す情報をディスプレイ37に表示する。
次に、応対支援装置10の作用について説明する。図4Aに例示するように、CPU31は、ステップ101で、マイク35が検出した第1ユーザの発話音声の音声データ及びカメラ36が検出した第2ユーザの画像データを所定時間分取得する。所定時間は、例えば、5秒であってよい。
CPU31は、ステップ102で、後述するうなずき画像処理を実行し、ステップ103で、後述する発話音声情報処理を実行する。CPU31は、ステップ104で、例えば、第2ユーザが応対支援装置10をオフしたか否かを判定することにより、応対が終了したか否か判定する。ステップ104の判定が否定された場合、即ち、応対が終了していない場合、CPU31は、ステップ101に戻る。ステップ104の判定が肯定された場合、即ち、対話が終了した場合、CPU31は、応対支援処理を終了する。
図4Aのステップ102のうなずき画像処理の詳細を図4Bに例示する。CPU31は、ステップ111で、ステップ101で取得した画像データにうなずき動作が含まれているか否か判定する。ステップ111の判定が肯定された場合、即ち、画像データにうなずき動作が含まれている場合、ステップ112で、1回毎のうなずき動作の速度を取得して、うなずき画像処理を終了する。
例えば、画像における第2ユーザの眉間から顔の最下端までの距離の変動及び変動に要する時間を計測することで、うなずき動作の速度を取得する。また、例えば、画像に撮影されている第2ユーザの顔又は瞳孔を追跡することにより取得した情報を、隠れマルコフモデル又はアクティブアピアランスモデルによって分析することにより、うなずき動作の速度を取得してもよい。
CPU31は、取得したうなずき動作の速度をうなずき動作の開始時間と対応付けて二次記憶部33のデータ格納領域33Bに記憶する。ステップ111の判定が否定された場合、即ち、画像データにうなずき動作が含まれていない場合、CPU31は、うなずき画像処理を終了する。
なお、今回のステップ101で取得した画像データに完了していないうなずき動作が含まれる場合、完了していないうなずき動作の開始時点からの画像データは次回のうなずき画像処理で処理される。即ち、完了していないうなずき動作の開始時点からの画像データは、次回のうなずき画像処理で、次回のステップ101で取得される画像データと併せて処理される。次回のステップ101で取得される画像データは、完了していないうなずき動作の続きのうなずき動作を含むためである。
図4Aのステップ103の発話音声情報処理の詳細を図4Cに例示する。CPU31は、ステップ121で、音声データの発話速度を取得し、ステップ122で、今回の発話音声情報処理で処理している音声データが応対開始直後の音声データであるか否か判定する。ステップ122の判定が肯定された場合、即ち、今回の発話音声情報処理で処理している音声データが応対開始直後の音声データである場合、CPU31は発話音声情報処理を終了する。
ステップ122の判定が否定された場合、CPU31は、ステップ123で、発話速度の変化割合が所定値より大きいか否か判定する。発話速度の変化割合は、前回の発話音声情報処理のステップ121で取得した発話速度をUB、今回のステップ121で取得した発話速度をUAとしたとき、式(1)で求められ、所定値は、例えば、0.1であってよい。
(UA−UB)/UB … (1)
ステップ123の判定が肯定された場合、即ち、発話速度の変化割合が所定値より大きいと判定された場合、第1ユーザが示す態度が変化したと判断し、CPU31は、ステップ124で、後述する最適うなずき表示処理を行い、発話音声情報処理を終了する。ステップ123の判定が否定された場合、即ち、発話速度の変化割合が所定値以下であると判定された場合、第1ユーザが示す態度が変化していないと判断し、CPU31は、発話音声情報処理を終了する。
図4Cのステップ124の最適うなずき表示処理の詳細を図4Dに例示する。CPU31は、ステップ131で、今回の図4Aのステップ101で取得した音声データの開始時間の前に開始されたうなずき動作が少なくとも1回存在するか否かを判定する。ステップ131の判定が否定された場合、CPU31は最適うなずき表示処理を終了する。
ステップ131の判定が肯定された場合、CPU31は、ステップ132で、最適うなずき値ONSを取得する。図5Aに例示するように、今回のステップ101で取得した音声データの開始時間TT(以下、変化時刻TTともいう)の前に開始されたうなずき動作NIBが少なくとも1回存在する場合に、ステップ131の判定は肯定される。
最適うなずき値ONSは、所定値を越える前の第1ユーザの発話速度をUB、所定値を越えた後の第1ユーザの発話速度をUA、所定値を越える前の第2ユーザのうなずき動作NIBの速度をNBS、正の係数をaaとしたとき、式(2)で表される。
なお、正の係数aaは、発話速度の単位(例えば、モーラ/秒または音節/秒)とうなずき動作の速度の単位(例えば、角度/秒)とを一致させる値である。例えば、観察者が発話速度の変化割合とうなずき動作の速度の変化割合とが同じであると主観的に判定する場合に、発話速度の変化割合とaa×うなずき動作の速度の変化割合とが同じ値となるように値aaを設定する。
式(2)によれば、最適うなずき値ONSは、第1ユーザの発話速度の変化割合(UA−UB)/UBと第2ユーザのうなずき動作の速度の変化割合との差を最小とするうなずき動作の速度である。即ち、最適うなずき値ONSによるうなずき動作が第2ユーザによって行われた場合、第1ユーザの発話速度の変化割合と第2ユーザのうなずき動作の速度の変化割合とが同調するため、第1ユーザは、第2ユーザが第1ユーザの発話を適切に理解していると判定する可能性が高い。
CPU31は、ステップ133で、最適うなずき値に基づいて、最適うなずき動作を表す情報をディスプレイ37に表示する。また、CPU31は、最適うなずき動作を表す情報と共に、実際に第2ユーザが行ったうなずき動作を表す情報を、ディスプレイ37に表示してもよい。
例えば、最適うなずき動作を表す情報は最適うなずき動作の速度の数値であってもよいし、最適うなずき動作の速度に対応する速度で点滅する図形であってもよいし、「もっと速く」、「もっと遅く」などの文字列であってもよい。また、ディスプレイ37に最適うなずき動作を表す情報を表示すると共に、例えば、出力部29の一例であるスピーカから最適うなずき動作の速度に対応する速度の音声を出力してもよい。また、ディスプレイ37に最適うなずき動作を表す情報を表示すると共に、最適うなずき動作の速度に対応する速度で、出力部29の一例であるバイブレータを振動させてもよい。
また、ディスプレイ37に最適うなずき動作を表す情報を表示する代わりに、出力部29の一例であるスピーカから最適うなずき動作の速度に対応する速度の音声を出力してもよい。また、ディスプレイ37に最適うなずき動作を表す情報を表示する代わりに、最適うなずき動作の速度に対応する速度で出力部29の一例であるバイブレータを振動させてもよい。
例えば、実際に第2ユーザが行ったうなずき動作を表す情報は、うなずき動作の速度の値であってもよいし、うなずき動作の速度に対応する速度で点滅する図形であってもよい。また、ディスプレイ37にうなずき動作を表す情報を表示すると共に、例えば、出力部29の一例であるスピーカからうなずき動作の速度に対応する速度の音声を出力してもよい。また、ディスプレイ37にうなずき動作を表す情報を表示すると共に、例えば、うなずき動作の速度に対応する速度で出力部29の一例であるバイブレータを振動させてもよい。
また、ディスプレイ37にうなずき動作を表す情報を表示する代わりに、例えば、出力部29の一例であるスピーカからうなずき動作の速度に対応する速度の音声を出力してもよい。また、ディスプレイ37にうなずき動作を表す情報を表示する代わりに、例えば、うなずき動作の速度に対応する速度で出力部29の一例であるバイブレータを振動させてもよい。
なお、本実施形態では、状態値が、第1ユーザによる発話の速度である例について説明したが、本実施形態はこれに限定されない。状態値は、第1ユーザの表情を表す顔の特徴点の位置を表す値、または、第1ユーザの動作を表す骨格の位置を表す値であってよい。顔の特徴点とは、例えば、眉、目、または口などの位置であり、骨格の位置とは、例えば、関節の位置であってよい。
この場合、応対支援装置10は、第1検出部21として、例えば、第1ユーザを撮影するカメラ、または第1ユーザの動作を検知するセンサを含む。また、状態値は、第1ユーザによる発話の速度を表す値、第1ユーザの表情を表す顔の特徴点の位置を表す値、または、第1ユーザの動作を表す骨格の位置を表す値の内、少なくとも2つの組み合わせであってよい。
また、本実施形態では、うなずき値が、うなずき動作の速度である例について説明したが、本実施形態はこれに限定されない。うなずき値は、うなずき動作の速度を表す値、所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及びうなずき動作の深さを表す値、の少なくとも1つであってよい。
サブうなずき動作とは、所定時間内の間隔で連続して行われるうなずき動作であり、所定時間は、例えば、0.3秒である。複数の連続するサブうなずき動作は1回のうなずき動作としてカウントされる。リピート数とは、1回のうなずき動作に含まれるサブうなずき動作の数である。即ち、リピート数が1のうなずき動作は1のサブうなずき動作を含み、リピート数が2のうなずき動作は連続して行われる2のサブうなずき動作を含む。
なお、リピート数が複数である場合、うなずき動作には複数のサブうなずき動作が含まれるため、うなずき動作の速度は、うなずき動作に含まれる複数のサブうなずき動作の速度の平均値であってよいが、本実施形態はこれに限定されない。例えば、うなずき動作に含まれる複数のサブうなずき動作の内、最初のサブうなずき動作の速度であってもよい。
また、リピート数が複数である場合、うなずき動作には複数のサブうなずき動作が含まれるため、うなずき動作の深さは、うなずき動作に含まれる複数のサブうなずき動作の深さの平均値であってよいが、本実施形態はこれに限定されない。例えば、うなずき動作に含まれる複数のサブうなずき動作の内、最初のサブうなずき動作の深さであってもよい。
例えば、画像における第2ユーザの眉間から顔の最下端までの距離の変動及び変動に要する時間を計測することで、うなずき動作の速度、リピート数、及び深さを取得する。また、例えば、画像に撮影されている第2ユーザの顔又は瞳孔を追跡することにより取得した情報を、隠れマルコフモデル又はアクティブアピアランスモデルによって分析することにより、うなずき動作の速度、リピート数、及び深さを取得してもよい。
本実施形態では、式(2)を使用して最適うなずき値を取得する例について説明したが、本実施形態はこれに限定されない。例えば、所定値を越えた後の状態値をSA、所定値を越える前の状態値をSB、所定値を越える前のうなずき値をNB、正の係数をaとしたとき、最適うなずき値ONは式(3)で表される。
本実施形態では、状態取得部は、第1ユーザの状態を表す状態値を取得する。うなずき値取得部は、第1ユーザの状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得する。最適うなずき値予測部は、状態値の変化割合が所定値を越えた場合に、所定値を越える前のうなずき値及び変化割合を用いて、所定値を越えた後の最適うなずき値を予測する。最適うなずき情報出力部は、予測した最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する。
本実施形態では、最適うなずき値は、状態値の変化割合と所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、所定値を越える前のうなずき値との和で表される。
本実施形態では、状態値の変化割合が所定値を越えた場合に、所定値を越える前のうなずき値及び変化割合を用いて、所定値を越えた後の最適うなずき値を予測する。これにより、本実施形態では、第1ユーザが示す態度が変化した場合に、第2ユーザが行う最適うなずき動作の情報を提供することができる。
[第2実施形態]
以下、図面を参照して実施形態の一例である第2実施形態を詳細に説明する。第1実施形態と同様の構成及び作用については説明を省略する。
図6に示す応対評価装置11は、第1検出部21、第2検出部22、状態取得部23、うなずき値取得部24、うなずき評価値取得部28及び出力部29を含む。うなずき評価値取得部28は、状態値の変化割合が所定値を越えた場合に、状態値の変化割合とうなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する。出力部29は、うなずき評価値取得部28で取得されたうなずき評価値を出力する。
応対評価装置11は、一例として、図7に示すように、プロセッサの一例であるCPU(Central Processing Unit)31、一次記憶部32、二次記憶部33、外部インターフェイス34、マイク(マイクロフォン)35、カメラ36、及びディスプレイ37を含む。CPU31、一次記憶部32、二次記憶部33、外部インターフェイス34、マイク35、カメラ36、及びディスプレイ37は、バス39を介して相互に接続されている。
二次記憶部33は、プログラム格納領域33A及びデータ格納領域33Bを含む。プログラム格納領域33Aは、一例として、応対評価プログラムを記憶している。CPU31は、プログラム格納領域33Aから応対評価プログラムを読み出して一次記憶部32に展開する。
CPU31は、応対評価プログラムを実行することで、図6の状態取得部23、うなずき値取得部24、及びうなずき評価値取得部28として動作する。なお、応対評価プログラムは、外部サーバに記憶され、ネットワークを介して、一次記憶部32に展開されてもよいし、DVD(Digital Versatile Disc)などの非一時的記録媒体に記憶され、記録媒体読込装置を介して、一次記憶部32に展開されてもよい。ディスプレイ37は、出力部29の一例であり、後述するうなずき評価値を表示する。
なお、応対評価装置11は、例えば、パーソナルコンピュータであってよいが、本実施形態は、これに限定されない。例えば、応対評価装置11は、タブレット、スマートデバイス、又は、応対評価専用装置などであってよい。
次に、応対評価装置11の作用の概略について説明する。本実施形態では、図8に例示するように、CPU31は、マイク35が検出した第1ユーザの発話音声の音声データを取得し、音声データから第1ユーザから発せられた第1ユーザの状態を表す状態値の一例である発話速度51Aを取得する。CPU31は、カメラ36が検出した第2ユーザの画像データを取得し、第1ユーザの状態に対して反応した第2ユーザのうなずき動作の程度を表すうなずき値の一例であるうなずき動作の速度52Aを取得する。
CPU31は、発話速度の変化割合51Bが所定値を越えた場合に、発話速度の変化割合51Bとうなずき動作の速度52Bの変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値54を取得する。CPU31は、うなずき評価値54をディスプレイ37に表示する。
次に、応対評価装置11の作用について説明する。図9Aに例示するように、CPU31は、ステップ141で、後述する変数F1、変数F2、及びカウンタSNに0を設定する。CPU31は、ステップ142で、マイク35が検出した第1ユーザの発話音声の音声データ及びカメラ36が検出した第2ユーザの画像データを所定時間分取得する。所定時間は、例えば、5秒であってよい。
CPU31は、ステップ143で、後述する発話音声情報処理を実行し、ステップ144で、後述するうなずき画像処理を実行し、ステップ145で、後述するうなずき評価値表示処理を実行する。CPU31は、ステップ146で、例えば、第2ユーザが応対評価装置11をオフしたか否かを判定することにより、応対が終了したか否か判定する。ステップ146の判定が否定された場合、即ち、応対が終了していない場合、CPU31は、ステップ142に戻る。ステップ146の判定が肯定された場合、即ち、応対が終了した場合、CPU31は、応対評価処理を終了する。
図9Aのステップ143の発話音声情報処理の詳細を図9Bに例示する。CPU31は、ステップ151で、音声データの発話速度を取得し、ステップ152で、今回の発話音声情報処理で処理している音声データが応対開始直後の音声データであるか否か判定する。ステップ152の判定が肯定された場合、即ち、今回の発話音声情報処理で処理している音声データが応対開始直後の音声データである場合、CPU31は発話音声情報処理を終了する。
ステップ152の判定が否定された場合、CPU31はステップ153で、発話速度の変化割合が所定値より大きいか否か判定する。詳細には、上記したように、式(1)が所定値より大きいか否か判定する。
ステップ153の判定が否定された場合、即ち、発話速度の変化割合が所定値以下であると判定された場合、CPU31は、発話音声情報処理を終了する。ステップ153の判定が肯定された場合、即ち、発話速度の変化割合が所定値より大きいと判定された場合、CPU31は、ステップ154で、音声データの開始時刻を変化時刻TTとして取得する。
CPU31は、ステップ155で、ステップ154で取得した変化時刻TTの前に開始されたうなずき動作が少なくとも1つ存在するか否か判定する。うなずき動作は、後述するうなずき画像処理で検出される。
ステップ155の判定が否定されると、即ち、変化時刻TTの前に開始されたうなずき動作が存在しないと判定されると、CPU31は発話音声情報処理を終了する。ステップ155の判定が肯定されると、即ち、変化時刻TTの前に開始されたうなずき動作が存在すると判定されると、CPU31は変数F1に1を設定し、発話音声情報処理を終了する。即ち、変数F1は、発話速度の変化割合が所定値を越え、変化時刻TTの前に開始されたうなずき動作が存在するため、うなずき評価値を取得することが可能であることを示す変数である。
図9Aのステップ144のうなずき画像処理の詳細を図9Cに例示する。CPU31は、ステップ161で、ステップ142で取得した画像データにうなずき動作が含まれているか否か判定する。ステップ161の判定が否定された場合、即ち、画像データにうなずき動作が含まれていない場合、CPU31は、うなずき画像処理を終了する。
ステップ161の判定が肯定された場合、即ち、画像データにうなずき動作が含まれている場合、CPU31は、ステップ162で、うなずき動作の速度を取得する。CPU31は、うなずき動作毎にうなずき動作の速度と開始時間とを対応付けて、二次記憶部33のデータ格納領域33Bに記憶する。
なお、今回のステップ142で取得した画像データに完了していないうなずき動作が含まれる場合、完了していないうなずき動作の開始時点からの画像データは次回のうなずき画像処理で処理される。即ち、完了していないうなずき動作の開始時点からの画像データは、次回のうなずき画像処理で、次回のステップ142で取得される画像データと併せて処理される。次回のステップ142で取得される画像データは、完了していないうなずき動作の続きのうなずき動作を含むためである。
CPU31は、ステップ163で、変数F1に1が設定されているか否か、即ち、発話速度の変化割合が所定値を越えたか否かを判定し、併せて、後述するステップ164で類似うなずきであるか否か判定していない未判定うなずきが存在するか否か判定する。ステップ163の判定が否定された場合、即ち、発話速度の変化割合が所定値を越えていないか、もしくは未判定うなずきが存在しない場合、CPU31は、うなずき画像処理を終了する。
ステップ163の判定が肯定された場合、即ち、発話速度の変化割合が所定値を越えており、未判定うなずきが存在する場合、CPU31は、ステップ164で、未判定うなずきの各々が類似うなずきであるか否か時系列に判定する。詳細には、図10Aに例示する変化時刻TTの直前のうなずき動作NIBと、変化時刻TT以降のうなずき動作NOD(N)(Nは自然数)の各々とが類似するか否かNを1から1つずつ増加させて判定する。
うなずき動作NIBとNOD(N)とが類似するか否かは、NSをうなずき動作NOD(N)の速度、NSTをうなずき動作NIBの速度、wを正の係数としたとき、式(4)の類似度合いを示す値FSが所定値を下回るか否かで判定することができる。
FS(NS,NST) …(4)
ここで、FS(x、y)は、x及びyを入力としたとき、1−|x−y|/wを出力する関数である。但し、1−|x−y|/w<0である場合、FS(x、y)の出力は0である。
ステップ164の判定が肯定された場合、即ち、未判定うなずきが類似うなずきであると判定された場合、CPU31は、ステップ166でカウンタSNのカウント値に1を加算する。変数SNは連続する類似うなずきの回数をカウントする変数である。うなずき動作NIBとうなずき動作NOD(N)とが類似しないと判定されるまで、Nの値を1ずつ増加させてステップ163〜ステップ164の判定を繰り返す。
ステップ164の判定が否定された場合、即ち、未判定うなずきが類似うなずきではないと判定された場合、CPU31は、ステップ165で、変数F2に1を設定する。即ち、変数F2は、変化割合が所定値を越えた後、類似うなずき動作が存在しない、あるいは、存在しなくなったことを示す変数である。CPU31は、うなずき画像処理を終了する。
図9Aのステップ145のうなずき評価値表示処理の詳細を図9Dに例示する。CPU31は、ステップ171で、変数F2に1が設定されているか否か、即ち、発話速度の変化割合が所定値を越えた後、類似うなずきが存在しない、あるいは、存在しなくなったか否か判定する。判定が否定された場合、即ち、変数F2に1が設定されていない場合、CPU31はうなずき評価値表示処理を終了する。
ステップ171の判定が肯定された場合、即ち、変数F2に1が設定されている場合、CPU31は、ステップ172でうなずき評価値を取得する。うなずき評価値NEは、所定値を越える前後の発話速度の変化割合をSUC、所定値を越える前後のうなずき動作の速度の変化割合をNUC、変化時刻TTの直前のうなずき動作NIBと類似する連続するうなずき動作の回数をM、bb、cc及びddを調整係数としたとき、式(5)で表される。
式(5)の分母に含まれる|SUC−bb・NUC|は、所定値を越える前後の発話速度の変化割合SUCとうなずき動作の速度の変化割合NUCとの同調度合いを表し、同調の度合いが大きくなるにしたがって小さくなる。即ち、同調度合いが大きくなるにしたがって、うなずき評価値NEは大きくなる。
調整係数bbは、発話速度の変化割合SUCとうなずき動作の速度の変化割合NUCとを一致させる値である。例えば、観察者が発話速度の変化割合SUCとうなずき動作の速度の変化割合NUCとが同じであると主観的に判定する場合に、発話速度の変化割合SUCとbb×うなずき動作の速度の変化割合NUCとが同じ値となるように値bbを設定する。
図10Bに例示する変化時刻TTの直前のうなずき動作NIBと類似する連続するうなずき動作の回数Mは、図9Cのステップ166でカウンタSNを使用してカウントされた値である。回数Mは式(5)の分母に含まれるため、回数Mが増加するにしたがって、うなずき評価値NEは小さくなる。変化時刻TT以降のうなずき動作は、発話速度の変化割合SUCと同調して変化することが期待されるためである。
CPU31は、ステップ173で、ステップ172で取得したうなずき評価値を表す情報をディスプレイ37に表示し、ステップ174で、変数F1、変数F2及びカウンタSNに0を設定し、うなずき評価値表示処理を終了する。
例えば、うなずき評価値を表す情報はうなずき評価値の数値であってもよいし、うなずき評価値のレベルを表す図形(例えば、よい評価にはスターマーク5個、悪い評価にはスターマーク1個、など)であってもよい。また、うなずき評価値を表す情報は、「もっと速く」、「もっと遅く」などの文字列であってもよい。また、ディスプレイ37にうなずき評価値を表す情報を表示すると共に、例えば、出力部29の一例であるスピーカからうなずき評価値のレベルに対応する音量(例えば、よい評価には小さい音量、悪い評価には大きい音量、など)で音声を出力してもよい。また、ディスプレイ37にうなずき評価値を表す情報を表示すると共に、うなずき評価値のレベルに対応する強さ(例えば、よい評価には弱い振動、悪い評価には強い振動、など)で、出力部29の一例であるバイブレータを振動させてもよい。
また、ディスプレイ37にうなずき評価値を表す情報を表示する代わりに、出力部29の一例であるスピーカからうなずき評価値のレベルに対応する音量で音声を出力してもよい。また、ディスプレイ37にうなずき評価値を表す情報を表示する代わりに、うなずき評価値のレベルに対応する強さで出力部29の一例であるバイブレータを振動させてもよい。
なお、第1実施形態の応対支援処理と第2実施形態の応対評価処理とを並行して実行し、最適うなずき予測値を表す情報をうなずき評価値を表す情報と共にディスプレイ37に表示してもよい。また、うなずき評価値が所定値を越える場合には、うなずき評価値を表す情報をディスプレイ37に表示しなくてもよい。
なお、図9Cのステップ164で類似うなずきを判定するために、うなずき動作の速度を使用したが、本実施形態はこれに限定されない。例えば、うなずき動作の深さ、またはリピート数を使用して類似うなずきを判定するようにしてもよい。うなずき動作の速度による類似度合いをFS、深さによる類似度合いをFD、リピート数による類似度合いをFRとすると、類似度合いは、例えば、FS×FD、FS×FR、FD×FR、または、FS×FD×FRで取得されてもよい。なお、類似度合いFD及びFRは、類似度合いFSと同様に取得できるため、詳細な説明を省略する。
なお、うなずき評価値NEが式(5)で表される例について説明したが、うなずき評価値NEは、変化時間TTの直前のうなずき動作NIBと類似する連続するうなずき動作の回数Mを含めない式(6)で表されてもよい。
また、うなずき評価値NEは、式(7)で表されてもよい。ここで、図10Cに例示するように、変化時刻TTの直前のうなずき動作NIBに類似する、変化時刻TT以前の連続するうなずき動作の回数をL、thを所定の閾値、Iを(L+M)個のうなずき動作の類似度合いの平均とする。また、ee、gg、hhを調整係数、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする。
うなずき動作の回数Lは、うなずき動作の回数Mと同様に取得することができるため、詳細な説明を省略する。本実施形態では、類似うなずきであるか否か判定する際に、変化時刻TTの直前のうなずき動作NIBと類似するか否かについて判定する例について説明したが、本実施形態はこれに限定されない。例えば、変化時刻TTの直前のうなずき動作と隣接するうなずき動作以外のうなずき動作については、各々のうなずき動作がうなずき動作NIB側で隣接するうなずき動作と類似するか否かについて判定するようにしてもよい。
本実施形態では、状態値が、第1ユーザによる発話の速度である例について説明したが、本実施形態はこれに限定されない。状態値は、第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、第1ユーザの動作を表す骨格の位置を表す値であってよい。
この場合、応対評価装置11は、第1検出部21として、例えば、第1ユーザを撮影するカメラ、または第1ユーザの動作を検知するセンサを含む。また、状態値は、第1ユーザによる発話の速度を表す値、第1ユーザの表情を表す顔の特徴点の位置を表す値、または、第1ユーザの動作を表す骨格の位置を表す値の内、少なくとも2つの組み合わせであってよい。
本実施形態では、うなずき値が、うなずき動作の速度である例について説明したが、本実施形態はこれに限定されない。うなずき値は、うなずき動作の速度を表す値、1回のうなずき動作に含まれるサブうなずき動作のリピート数を表す値、及びうなずき動作の深さを表す値、の少なくとも1つであってよい。
本実施形態は、状態値が、第1ユーザによる発話の速度を表す値であり、うなずき値が、うなずき動作の速度を表す値である例のうなずき評価値について説明したが、本実施形態はこれに限定されない。うなずき評価値NEは、所定値を越える前後の状態値の変化の割合をSC、所定値を越える前後のうなずき値の変化の割合をNC、b、c、d、e、g、hを調整係数したとき、式(8)〜式(10)の何れかで表されてもよい。
本実施形態では、状態取得部は、第1ユーザの状態を表す状態値を取得する。うなずき取得部は、第1ユーザの状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得する。うなずき評価値取得部は、状態値の変化割合が所定値を越えた場合に、状態値の変化割合とうなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する。
本実施形態では、うなずき評価値は、状態値の変化割合が所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、または、類似うなずき動作の類似度合いの増大にしたがって小さくなる。または、本実施形態では、うなずき評価値は、状態値の変化割合が所定値を越えた後の、所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加にしたがって小さくなる。
本実施形態では、状態値の変化割合が所定値を越えた場合に、状態値の変化割合とうなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する。これにより、本実施形態では、第1ユーザが示す態度が変化した場合に、第2ユーザが行ったうなずき動作を適切に評価することができる。
なお、第1及び第2実施形態では、図4Aのステップ101または図9Aのステップ142で取得した音声データ毎に発話速度を取得し、取得した分の音声データの開始時間または終了時間で発話速度の変化割合が所定値を越えたか否か判定する例について説明した。しかしながら、本実施形態はこれに限定されない。
例えば、所定時間以上の音声の休止時間で音声データを区切り、休止時間の終了時間で発話速度の変化割合が所定値を越えたか否か判定するようにしてもよい。一般的に、発話される文と文との間、又は句と句との間には休止時間が存在し、新しい文または句を発話する際に発話速度が変化することが多いためである。
なお、第1実施形態では、最適うなずき値を取得する際に、変化時刻TTの直前のうなずき動作NIBのうなずき値を使用する例について説明したが、第1実施形態はこれに限定されない。例えば、図5Bに例示するように、変化時刻TTの直前のうなずき動作NIBに類似する、変化時刻TT以前のL回連続するうなずき動作のうなずき値の平均を使用してもよい。
なお、第1及び第2実施形態では、応対と並行してリアルタイムに応対支援処理もしくは応対評価処理を実行する例について説明したが、本実施形態はこれに限定されない。例えば、応対の画像データ及び音声データを予め二次記憶部33のデータ格納部33Bに記憶しておき、当該画像データ及び音声データを使用して応対支援処理もしくは応対評価装置を実行してもよい。
なお、式(1)〜式(10)は例示であり、本実施形態は、これらの式に限定されない。また、図4A〜図4D、及び図9A〜図9Dのフローチャートは一例であり、ステップの順序は、図4A〜図4D、及び図9A〜図9Dのフローチャートのステップの順序に限定されない。
例えば、顧客である第1ユーザの態度が変化した場合、例えば、店員である第2ユーザのうなずき動作が変化しなければ、第1ユーザは、第2ユーザが、第1ユーザの状況を適切に理解しているか否か不安に感じ、第1ユーザの第2ユーザへの印象は悪化する。第2ユーザのうなずき動作は、第1ユーザが示す態度に対する肯定的動作であるためである。
一方、第1ユーザの態度が変化した場合、第1ユーザの態度の変化割合に同調するように、第2ユーザのうなずき動作が変化すれば、第1ユーザは、第2ユーザが、第1ユーザの態度を適切に理解していると感じ、第1ユーザは第2ユーザの応対に好印象をもつ。なお、第2ユーザは、例えば、カウンセラー、コンサルタントなどであってもよく、第1ユーザは、例えば、クライアントなどであってもよい。
第1実施形態によれば、状態値の変化割合が所定値を越えた場合に、変化割合を用いて第2ユーザが行う最適うなずき動作の情報を提供することで、第2ユーザが第1ユーザに好印象を与える応対を行うことができるように支援することができる。また、第2実施形態によれば、状態値の変化割合が所定値を越えた場合に、状態値の変化割合とうなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき動作の評価値を取得する。これにより、第2ユーザの応対が第1ユーザに好印象を与える印象であるか否かについて客観的に評価することができる。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測する最適うなずき値予測部と、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する最適うなずき情報出力部と、
を含む応対支援装置。
(付記2)
前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
付記1の応対支援装置。
(付記3)
前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、

付記1または付記2の応対支援装置。
(付記4)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記1〜付記3の何れかの応対支援装置。
(付記5)
第1ユーザの状態を表す状態値を取得する状態取得部と、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得するうなずき評価値取得部と、
を含む応対評価装置。
(付記6)
前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
付記5の応対評価装置。
(付記7)
前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、

付記5または付記6の応対評価装置。
(付記8)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記5〜付記7の何れかの応対評価装置。
(付記9)
プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援方法。
(付記10)
前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
付記9の応対支援方法。
(付記11)
前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、

付記9または付記10の応対支援方法。
(付記12)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記9〜付記11の何れかの応対支援方法。
(付記13)
プロセッサが、
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価方法。
(付記14)
前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
付記13の応対評価方法。
(付記15)
前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、

付記13または付記14の応対評価方法。
(付記16)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記13〜付記15の何れかの応対評価方法。
(付記17)
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
応対支援処理をプロセッサに実行させるためのプログラム。
(付記18)
前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
付記17のプログラム。
(付記19)
前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、

付記17または付記18のプログラム。
(付記20)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記17〜付記19の何れかのプログラム。
(付記21)
第1ユーザの状態を表す状態値を取得し、
前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
応対評価処理をプロセッサに実行させるためのプログラム。
(付記22)
前記うなずき評価値は、
前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
前記類似うなずき動作の類似度合いの増大、または、
前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
の少なくとも1つにしたがって小さくなる、
付記21のプログラム。
(付記23)
前記うなずき評価値NEは、
前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、

付記21または付記22のプログラム。
(付記24)
前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
付記21〜付記23の何れかのプログラム。
10 応対支援装置
11 応対評価装置
23 状態取得部
24 うなずき値取得部
25 最適うなずき値予測部
26 最適うなずき情報出力部
28 うなずき評価値取得部
31 CPU
32 一次記憶部
33 二次記憶部

Claims (12)

  1. 第1ユーザの状態を表す状態値を取得する状態取得部と、
    前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
    前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測する最適うなずき値予測部と、
    予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する最適うなずき情報出力部と、
    を含む応対支援装置。
  2. 前記最適うなずき値は、前記状態値の変化割合と前記所定値を越える前のうなずき値とから予測したうなずき値の予測変化量と、前記所定値を越える前のうなずき値との和で表される、
    請求項1に記載の応対支援装置。
  3. 前記所定値を越えた後の状態値をSA、前記所定値を越える前の状態値をSB、前記所定値を越える前のうなずき値をNB、正の係数をaとしたとき、前記最適うなずき値ONは以下の式で表される、

    請求項1または請求項2に記載の応対支援装置。
  4. 前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
    前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
    請求項1〜請求項3の何れか1項に記載の応対支援装置。
  5. 第1ユーザの状態を表す状態値を取得する状態取得部と、
    前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得するうなずき値取得部と、
    前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得するうなずき評価値取得部と、
    を含む応対評価装置。
  6. 前記うなずき評価値は、
    前記状態値の変化割合が前記所定値を越える前後にわたって連続する類似うなずき動作の回数の増加、
    前記類似うなずき動作の類似度合いの増大、または、
    前記状態値の変化割合が前記所定値を越えた後の、前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数の増加、
    の少なくとも1つにしたがって小さくなる、
    請求項5に記載の応対評価装置。
  7. 前記うなずき評価値NEは、
    前記所定値を越える前後の前記状態値の変化の割合をSC、前記所定値を越える前後の前記うなずき値の変化の割合をNC、前記所定値を越えた後の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をM、前記所定値を越える前の前記所定値を越える直前のうなずき動作と類似する連続するうなずき動作の回数をL、前記所定値を越える前後にわたって連続する類似うなずき動作の類似度合いの平均をI、b、c、d、e、g、hを調整係数、thを類似うなずき回数閾値、FF(x)を入力xがx≧0の場合x、x<0の場合0を出力する関数とする場合、以下の式の何れかで表される、

    請求項5または請求項6に記載の応対評価装置。
  8. 前記状態値は、前記第1ユーザによる発話の速度を表す値、前記第1ユーザの表情を表す顔の特徴点の位置を表す値、及び、前記第1ユーザの動作を表す骨格の位置を表す値、の少なくとも1つであり、
    前記うなずき値は、前記うなずき動作の速度を表す値、前記うなずき動作において所定時間内の間隔で行われるサブうなずき動作のリピート数を表す値、及び前記うなずき動作の深さを表す値、の少なくとも1つである、
    請求項5〜請求項7の何れか1項に記載の応対評価装置。
  9. プロセッサが、
    第1ユーザの状態を表す状態値を取得し、
    前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
    前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
    予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
    応対支援方法。
  10. プロセッサが、
    第1ユーザの状態を表す状態値を取得し、
    前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
    前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
    応対評価方法。
  11. 第1ユーザの状態を表す状態値を取得し、
    前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
    前記状態値の変化割合が所定値を越えた場合に、前記所定値を越える前の前記うなずき値及び前記変化割合を用いて、前記所定値を越えた後の最適うなずき値を予測し、
    予測した前記最適うなずき値に基づいて、最適うなずき動作を表す情報を出力部に出力する、
    応対支援処理をプロセッサに実行させるためのプログラム。
  12. 第1ユーザの状態を表す状態値を取得し、
    前記第1ユーザの前記状態に対する第2ユーザのうなずき動作の程度を表すうなずき値を取得し、
    前記状態値の変化割合が所定値を越えた場合に、前記状態値の変化割合と前記うなずき値の変化割合との同調度合いが大きくなるにしたがって大きくなるうなずき評価値を取得する、
    応対評価処理をプロセッサに実行させるためのプログラム。
JP2016079530A 2016-04-12 2016-04-12 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム Active JP6627625B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016079530A JP6627625B2 (ja) 2016-04-12 2016-04-12 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016079530A JP6627625B2 (ja) 2016-04-12 2016-04-12 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム

Publications (2)

Publication Number Publication Date
JP2017189291A JP2017189291A (ja) 2017-10-19
JP6627625B2 true JP6627625B2 (ja) 2020-01-08

Family

ID=60084636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016079530A Active JP6627625B2 (ja) 2016-04-12 2016-04-12 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム

Country Status (1)

Country Link
JP (1) JP6627625B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6867971B2 (ja) * 2018-03-26 2021-05-12 株式会社 日立産業制御ソリューションズ 会議支援装置及び会議支援システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8715178B2 (en) * 2010-02-18 2014-05-06 Bank Of America Corporation Wearable badge with sensor
JP2013052049A (ja) * 2011-09-02 2013-03-21 National Institute Of Information & Communication Technology 対人コミュニケーションにおける同調性検出装置
JP6407521B2 (ja) * 2013-11-27 2018-10-17 キヤノンメディカルシステムズ株式会社 診療支援装置

Also Published As

Publication number Publication date
JP2017189291A (ja) 2017-10-19

Similar Documents

Publication Publication Date Title
EP3469582B1 (en) Neural network-based voiceprint information extraction method and apparatus
US10020007B2 (en) Conversation analysis device, conversation analysis method, and program
US7369991B2 (en) Speech recognition system, speech recognition method, speech synthesis system, speech synthesis method, and program product having increased accuracy
WO2017187712A1 (ja) 情報処理装置
JP4546767B2 (ja) 感情推定装置及び感情推定プログラム
JP6251145B2 (ja) 音声処理装置、音声処理方法およびプログラム
US20110224978A1 (en) Information processing device, information processing method and program
KR20060090687A (ko) 시청각 콘텐츠 합성을 위한 시스템 및 방법
JP2003162294A (ja) 感情検出方法及び感情検出装置
US20210174702A1 (en) Communication skill evaluation system, device, method, and program
JP2021152682A (ja) 音声処理装置、音声処理方法、およびプログラム
JP4792703B2 (ja) 音声解析装置、音声解析方法及び音声解析プログラム
JP2018169506A (ja) 会話満足度推定装置、音声処理装置および会話満足度推定方法
JP2008158055A (ja) 言語発音練習支援システム
KR20210071713A (ko) 스피치 스킬 피드백 시스템
JP6627625B2 (ja) 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム
JP2015038725A (ja) 発話アニメーション生成装置、方法、及びプログラム
JP4775961B2 (ja) 映像を用いた発音の推定方法
JP7370050B2 (ja) 読唇装置及び読唇方法
JP6784255B2 (ja) 音声処理装置、音声処理システム、音声処理方法、およびプログラム
JP6791816B2 (ja) 音声区間検出装置、音声区間検出方法、およびプログラム
Abel et al. A data driven approach to audiovisual speech mapping
WO2019073668A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6686553B2 (ja) 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置
JP6233103B2 (ja) 音声合成装置、音声合成方法及び音声合成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191118

R150 Certificate of patent or registration of utility model

Ref document number: 6627625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150