JP2019133451A - 評価方法、評価装置、評価プログラム、および、評価システム - Google Patents
評価方法、評価装置、評価プログラム、および、評価システム Download PDFInfo
- Publication number
- JP2019133451A JP2019133451A JP2018015717A JP2018015717A JP2019133451A JP 2019133451 A JP2019133451 A JP 2019133451A JP 2018015717 A JP2018015717 A JP 2018015717A JP 2018015717 A JP2018015717 A JP 2018015717A JP 2019133451 A JP2019133451 A JP 2019133451A
- Authority
- JP
- Japan
- Prior art keywords
- data
- evaluation
- communication
- user
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 381
- 238000004891 communication Methods 0.000 claims abstract description 365
- 238000000034 method Methods 0.000 claims abstract description 110
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 60
- 238000005516 engineering process Methods 0.000 claims abstract description 49
- 238000006243 chemical reaction Methods 0.000 claims abstract description 28
- 238000004458 analytical method Methods 0.000 claims description 123
- 230000010354 integration Effects 0.000 claims description 34
- 230000009471 action Effects 0.000 claims description 15
- 238000013481 data capture Methods 0.000 claims description 15
- 230000008921 facial expression Effects 0.000 abstract description 52
- 238000007405 data analysis Methods 0.000 description 68
- 230000006870 function Effects 0.000 description 64
- 238000013480 data collection Methods 0.000 description 56
- 230000008859 change Effects 0.000 description 38
- 238000004364 calculation method Methods 0.000 description 32
- 238000012545 processing Methods 0.000 description 30
- 230000014509 gene expression Effects 0.000 description 16
- 230000008451 emotion Effects 0.000 description 15
- 230000006872 improvement Effects 0.000 description 15
- 230000004044 response Effects 0.000 description 15
- 238000013500 data storage Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000007935 neutral effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000003672 processing method Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 206010011224 Cough Diseases 0.000 description 3
- 238000007596 consolidation process Methods 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 102100028065 Fibulin-5 Human genes 0.000 description 2
- 101710170766 Fibulin-5 Proteins 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000013707 sensory perception of sound Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000003339 best practice Methods 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
(1)得られた表情カテゴリー別の数値を、発話したユーザ別に区分する。
(2)発話したユーザ別に区分した、表情カテゴリー別の数値を相対化した値に変換する。例えば、ユーザAについて得た(第1数値データ)が、(表情カテゴリー:喜楽)の数値が5.0、(表情カテゴリー:中立)の数値が3.0、(表情カテゴリー:怒気)が2.0の場合、それぞれの値を合計値(5.0+3.0+2.0=10.0)で割り、比率の値(%)に変換する(前記例では右記数値に変換される:喜楽=50%、中立=30%、怒気=20%)。
(3)(2)で得られた表情カテゴリー別の数値を、データ収集時間にもとづき時系列に整理する。
ここで解析される、映像データの時間の区分は業務目的に応じ最適な区分を用いることが好ましい。例えば、前記データ収集装置1aで収集された映像データを、収集時点に沿い10分の1秒ごとに映像データを切り出し、表情データを人工知能技術で数値化する手法が含まれる。なお、これらの処理は予め決められた業務目的に応じて最適な処理方法と内容を選択することが好ましい。取得データ分析部26で分析されたデータは、映像データ及び音声データ処理部40に送信される。
(a)音声データから発話された言葉や単語を抽出し、それらをテキストデータに変換する処理。
(b)発話からテキスト化されたデータからキーワードを抽出する処理。
(c)抽出されたテキストデータの言葉や単語について、ユーザの感情的な側面から肯定的な意味合いを持つか否定的な意味合いを持つかに関する解析を行い、肯定的な度合いか否定的な度合いを示す数値(第2数値データ(肯否度分析値))を出力する処理。
(1)得られたテキストデータを発話したユーザ主体別に区分する。
(2)得られたテキストデータに含まれる、文字数を算出する。
(3)発話されたテキスト1文字あたりの発話速度(1文字あたりにかかる秒数)を算出し出力する。
(4)音声データが収集された時間データに基づき、発話された時間帯と発話されていない時間帯に区分して、それぞれにフラグ付けする処理を行う。フラグ付けは例えば、発話された時間帯は発話フラグを与え、発話していない時間に関して、片方のユーザが発話しており、他方のユーザが無音の場合、発話していないユーザが”傾聴”しているとの傾聴フラグを与えるなどの処理を含む。前記のフラグ付けは左記定義に応じて自動付与される手法が含まれる。または業務目的に応じて、評価者が行うことも好ましい。
(5)発話されたテキストが質問の意図を含む発話に関し、質問としてフラグ付けがなされる。これには所定の質問語彙DB(データベース)に基づき、前記の発話されたテキストに質問語彙が含まれるかで判別するなどの公知の手法が用いられる。または、または業務目的に応じて、評価者が質問と判別しフラグ付けを行うことも好ましい。
(1)評価対象となるコミュニケーションイベントを定める:図7の例では、前記統合ステップS3で得た整理統合データをもとに、ユーザAのコミュニケーションイベント(発話「本日は何かお探しですか」と、その発話時のユーザA表情)が評価対象となる。
(2)(1)で定められたコミュニケーションイベントに対する反応となるデータを定める:図7の例では、前記統合ステップS3で得た整理統合データをもとに、該当するユーザAのコミュニケーションイベントに対し、ユーザBが反応した時点のデータを定め、差分データ取得の算出に用いる。
(3)差分データを取得するための時点を定める:図7の例では、ユーザAコミュニケーションイベント時点(9:00:27〜9:00:32)をT2時点とし、その直前となる時点(9:00:22〜9:00:27)をT1時点と定める。ここで定める時点の選択や方法は、予め決められた業務目的に応じて最適な処理方法と内容を選択することが好ましい。例えば、相手ユーザの反応としての変化を算出する際、コミュニケーションイベント直後の時点を用いて、コミュニケーションイベント時点と比較することも好ましい。または、例えば、相手ユーザの反応としての変化を算出する際、コミュニケーションイベント直前時点と、コミュニケーションイベント直後時点で比較することも望ましい。
(4)差分データを取得する:図7の例では、前記統合ステップS3で得た整理統合データをもとに、各ユーザの表情カテゴリー別の数値に関し、T1時点からT2時点への変化量を算出し、差分データとして取得している。算出式は下記の通りである。なお、ここで用いる算出式は、予め決められた業務目的に応じて最適な算出式を用いることが望ましい。変化量を算出するために、前記統合ステップS3で得た整理統合データをもとに、例えばユーザ両者の表情数値をベクトル化し、ベクトルの変化量とベクトル角度の比較から、ユーザAに対するユーザBの反応の度合いを推定することも望ましい。
算出式例:(表情カテゴリー別に右記式で算出)(T2時点の数値)−(T1時点の数値)=(表情変化量)
ここでT2時点の数値とT1時点の数値は、一例として、下記方法で値を定めている。なお、対象ユーザの表情カテゴリー別データについて、ここで用いる時間区分は、業務目的に応じ最適な区分を用いることが好ましい。例えば、前記データ収集装置1aで収集された映像データを、収集時点に沿い10分の1秒ごとに切り出し、そのように切り出された映像データごとに、人工知能技術で表情データを数値化したデータを用いる手法が含まれる。
・T2時点の数値:対象時間内(9:00:27〜9:00:32)に収集された、対象ユーザの表情カテゴリー別データに関し、相加平均値を用い、T2時点の数値と定める。
・T1時点の数値:対象時間内(9:00:22〜9:00:27)に収集された、対象ユーザの表情カテゴリー別データに関し、相加平均値を用い、T2時点の数値と定める。
なお、上記で数値を定める方法は、上記方法に限定されず、業務目的に応じて最適な方法と内容を選択することが好ましい。
図7の例では、前記算出式を用いた、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する例として、T2時点とT1時点の変化から、ユーザ別に下記のように表情変化量の差分データを表情カテゴリー別に算出している。:
・ユーザA
喜楽:10.0%−5.0%=5.0%、悲哀:2.0%−1.0%=1.0%、怒気:1.0%−1.0%=0%、驚愕:3.0%−1.0%=2.0%、中立:75.0%−80.0%=(−5.0%)、嫌悪:3.0%−5.0%=(−2.0%)、軽侮:1.0%−1.0%=0%、恐れ:5.0%−6.0%=(−1.0%)
(上記表情値とその変化量を、該当コミュニケーションイベント時にユーザAがユーザBに対して意図した表情として推定)
・ユーザB
喜楽:1.0%−1.0%=0%、悲哀:10.0%−1.0%=9.0%、怒気:1.0%−1.0%=0%、驚愕:2.0%−1.0%=1.0%、中立:64.0%−85.0%=(−21.0%)、嫌悪:3.0%−5.0%=(−2.0%)、軽侮:4.0%−1.0%=3.0%、恐れ:15.0%−5.0%=10.0%
(上記表情値とその変化量を、ユーザAのコミュニケーションイベントに対するユーザBの反応表情として推定)
上記に例として示されているように、評価対象となるユーザのコミュニケーションイベントに関し評価するため、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する。前記評価対象ユーザのコミュニケーション総体に含まれる、コミュニケーションイベントすべてかその一部に関し、同様に異なる時間における相手ユーザの反応の差分に対応する差分データを取得する。上記の例に依らず、評価対象ユーザと相手ユーザが3名以上のケースでも、前記方法により、異なる時間における相手ユーザの反応の差分に対応する差分データを取得することも好ましい。
(1)
(1−1) コミュニケーションイベント単位で評価データ値(Val)を付与する(1001)。
(1−2) 前記1001のコミュニケーションイベント単位に付与された評価データ値(Val)を用い、それらのコミュニケーションイベントで構成されるコミュニケーション総体へ評価データ値(Val)を付与する(1002)。
(2)予め決められた分析項目のデータに関し、評価データ値(Val)をそれぞれ算出し付与する(1010)。
(3) コミュニケーション結果として事後に得た業務結果に基づき評価データ値(Val)を付与する(1020)。
(4)上記各フロー(1002)(1010)(1020)で取得した評価データ値(Val)について、予め業務に沿い与えられた、評価基準値と評価テーブルに基づき、それに対応する評価値(T)をそれぞれ算出し、それぞれの評価データ値(Val)の種類に応じ、予め定められた重み付け係数(W)を掛けて、評価値(Y)を算出する(1030)。
(5)上記1030で算出した評価値(Y)を前記の評価データ値(Val)種類すべてについて合計して最終評価(Z)を算出し、評価対象ユーザのコミュニケーションスキル、あるいは、評価対象ユーザのコミュニケーション内容に関する評価結果として付与する(1040)。
(1)評価対象となるユーザのコミュニケーションイベント(下記例では(A)が該当)と、それに対する相手ユーザの反応データ(下記例では(B)が該当)を定める(1001a)。
(図9の例で定められたデータ)
(A)評価対象データ(ユーザAコミュニケーションイベント):ユーザA発話「本日は何かお探しですか」と、ユーザA表情(前記表情変化量(ユーザA))を含むコミュニケーションイベント。
(B)(A)に対する、相手ユーザBの反応データ(ユーザBコミュニケーションイベント): ユーザB発話「(発話無し)」と、ユーザB表情(前記表情変化量(ユーザB))を含むコミュニケーションイベント。
(2)評価対象データと、それに対する相手ユーザの反応データの差分データにもとづき、 統合値を算出する(1001b)。
発話統合値を算出する際は、例として下記の算出式(1)算出式(2)の式が用いられる。ここで用いる算出式は、予め決められた業務目的に応じて最適な式や算出方法を選択することが好ましい。
算出式(1)発話統合値の算出:((肯否度分析値)−(値中央値※1))×100=発話統合値
※1:ここで用いる値中央値は、前記(テキストデータに対応する人工知能技術)の手法(この例ではテキストの感情分析を含む肯否度分析)に応じて定まる中央値、あるいはその手法が含む度合い尺度のなかで最も中立的な値を用いることが望ましい。
算出式(2)
(2−1) 表情統合値の算出:
(ア)肯定感情(表情)の変化量合計=喜楽(%)変化量/1 ※2
(イ)否定感情(表情)の変化量合計=(悲哀(%)変化量 +怒気(%)変化量+嫌悪(%)変化量+軽侮(%)変化量+恐れ(%)変化量)/5 ※3
※2:ここで用いる除数は、肯定感情として、業務目的に沿い予め定められた項目の数を用いる(この例では、喜楽を肯定感情とし、その項目数1を用いる)
※3:ここで用いる除数は、否定感情として、業務目的に沿い予め定められた項目の数で除算する(この例では、悲哀、怒気、嫌悪、軽侮、恐れを否定感情とし、その項目数5を用いる)
(2−2)
表情統合値=((ア)−(イ))×100
(図9の例での統合値算出の例)
算出例
(図9のユーザA)発話統合値の算出 : (0.52(肯否度分析値)−0.50(値中央値))× 100=2.0
(図9のユーザA)表情統合値の算出 :
(ア)5.0%/1=5.0%(喜楽変化量)
(イ)(1.0%(悲哀変化量)+0%(怒気変化量)+(−2%(嫌悪変化量))+0%(軽侮変化量)+(−1%(恐れ変化量))/5=( −0.4%)
表情統合値=((ア) − (イ))×100=5.4
(図9のユーザB)発話統合値の算出 : 0.0 (この例では、ユーザBの発話が無いため0を与える)
(図9のユーザB)表情統合値の算出 :
(ウ)0.0%/1=0.0% (喜楽変化量)
(エ)(9.0%(悲哀変化量) +0%(怒気変化量)+(−2.0%(嫌悪変化量))+3.0%(軽侮変化量)+10.0%(恐れ変化量)/5=4.0%
表情統合値=((ウ) − (エ))×100=(−4.0)
(3)前記1001bで得た、ユーザごとに発話統合値と表情統合値を合計し、その合計値をユーザ間で比較し、差を算出する(1001c)。
(図9の例での算出例)
(3−1) ユーザごとの発話統合値と表情統合値の合計:
(図9のユーザA)2.0(発話統合値)+5.4(表情統合値)=7.4
(図9のユーザB)0.0(発話統合値)+(−4.0(表情統合値))=(−4.0)
(3−2)前記合計値をユーザ間で比較し、ユーザ間での差を算出:7.4−(−4.0)=11.4
(4)前記1001c で算出された差を二乗した値を用い、評価対象データとなるユーザのコミュニケーションイベントに対し、評価データ値(Val)を付与する(1001d)。
(図9の例での、差の二乗値による評価データ値(Val)の算出例)
11.4 の二乗値 =130.0(ここでは例として小数第2位で四捨五入した値を用いる)
上記130.0が、(A)評価対象データ(ユーザAコミュニケーションイベント)に関する評価データ値(Val)として付与される。
(1)コミュニケーション開始時点からコミュニケーション終了時点までに含まれる、評価対象ユーザのコミュニケーションイベントに関し、前記(1001)の手法でそれぞれ評価データ値(Val)を算出し、算出した評価データ値(Val)をコミュニケーション総体について合計する(1002a)。
(2)コミュニケーション開始時点からコミュニケーション終了時点までの、評価対象ユーザのコミュニケーションイベントの回数について、合計回数を算出する(1002b)。
(3)1002a で得た合計値を、1002b で得た合計回数の数で除算する(1002c)。
(4)1002cで得た除算の結果値をもって、ユーザAのコミュニケーション総体に関する評価データ値(Val)として付与する(1002d)。
算出される評価データ値(Val)の項目例として、下記のような項目が挙げられる。ここで算出する項目の選択や、その算出方法は、予め決められた業務目的に応じて最適な項目選択と算出方法を選択することが好ましい。
(a)会話時間合計
(a1)ユーザA発話時間 合計
(a2)相手(ユーザB)の発話時間 合計
(a3)ユーザAの傾聴時間 合計
(b)ユーザ別の発話時間合計と全体時間においてそれぞれが占める比率
(b1)ユーザAの発話が占める比率(a1)/((a1)+(a2))
(b2)ユーザBの発話が占める比率(a2)/((a1)+(a2))
(c)ユーザAの発話時間(a1)/ユーザBの発話時間(a2)
(d)ユーザAの傾聴時間比率(ユーザAの傾聴時間(a3)/発話時間合計((a1)+(a2))
(e)ユーザAのコミュニケーションイベント(発話)合計回数
(f)ユーザAが発した質問発話の回数
(g) 発話に占める質問比率 (ユーザA質問回数/ユーザAコミュニケーションイベント(発話)合計回数)
(h)相手ユーザとの発話速度の差 (※発話1文字あたりにかかった秒数)
(h1)ユーザA発話の平均速度
(h2)ユーザB発話の平均速度
(i)ユーザ別のポジティブ※表情平均(%)
(i1)ユーザAのポジティブ※表情平均(%)
(i2)ユーザBのポジティブ※表情平均(%)
(j)ユーザ別のネガティブ※表情平均(%)
(j1)ユーザAのネガティブ※表情平均(%)
(j2)ユーザBのネガティブ※表情平均(%)
(k)ユーザA発話時の、ユーザBのポジティブ※表情平均(%)
(l)ユーザA発話時の、ユーザBのネガティブ※表情平均(%)
(m)ユーザA傾聴時の、ユーザBのポジティブ※表情平均(%)
(n)ユーザA傾聴時の、ユーザBのネガティブ※表情平均(%)
・業務目的達成に向け、相手の満足度等が得られたか?
(例)企業の社内コミュニケーションにおいて、上司が部下とのコーチングコミュニケーションを行った結果として、同セッションに関し、上司が部下から得た事後評価等。
(例)研修でのロールプレイおいて、ロールプレイコミュニケーションを行った結果として、同セッションに関し、評価対象のユーザがロールプレイ相手から得た事後評価等。
・当初のコミュニケーション目的が達成されたか?
(例)小売店で、店員が顧客と商談コミュニケーションを行った結果として、該当顧客が商品を購入したか、していないかの結果等。
・業務目的達成に向け、必要な情報が得られたか?
(例)法人営業において、営業が法人顧客と商談コミュニケーションを行った結果として、法人顧客がもつニーズ、予算金額、決裁者、希望納期に関する情報が取得できたか等。
(図12の例で用いられる、業務結果による評価データ値(Val)の付与例)
(例)会話相手(ユーザB)から得た、アンケート結果の評価を付与する。
コミュニケーション総体の事後に得た、ユーザBからのアンケート結果で、ユーザAのコミュニケーション総体に関する評価を得る。そのアンケート結果に基づき、ユーザBの満足度を下記算出式でNSAT(Net Satisfaction:満足度)として算出し、そのNSAT値をユーザAのコミュニケーション総体に関する評価データ値(Val)として付与する。
NSAT計算式※(例): NSAT=P − N+100
P=(最高評価(図12の例なら“5”)の回答数)/回答総数(図12の例なら、回答総数6を用いる)
(図12の例でのP算出例) P=0/6=0
N=(最低と最低から2番目の評価(図12の例なら“1”と“2”)の回答数の和)/回答総数(図12の例なら、回答総数6を用いる)
(図12の例でのN算出例) N=2/6=0.33 (ここでは例として小数第3位で四捨五入した値を用いる)
(図12の例でのNSAT算出例) NSAT=0−0.33+100=99.7(ここでは例として小数第2位で四捨五入した値を用いる)
※NSATの計算式は、上記例に限らず、アンケート結果の手法や項目数に応じて、最適な手法を用いることが好ましい。
(1)
(1−1) 前記(1002、1010と1020)から得た評価データ値(Val)について、それに対応する、予め業務に沿い与えられた、評価基準値と評価テーブルに基づき、それぞれ評価値(T)を算出する(1030a)。
(1−2) 前記1030aで得た各分析項目の評価値(T)に、予め業務に沿い与えられた、評価データ値(Val)種類に対応する重み付け係数(W)を乗じて(掛けて)、評価値(Y)を算出する(1030b)。
(2)上記1030bで算出した評価値(Y)を前記の評価項目すべてについて合計して最終評価(Z)を算出し、評価対象ユーザのコミュニケーションスキル、あるいは、評価対象ユーザのコミュニケーション内容に関する評価結果として付与する(1040)。
上記の例であるように、予め決められた業務目的に応じて最適なかたちで選択された項目に関し、前記(1002、1010と1020)の手順で得た評価データ値(Val)を用い、それらに対応する評価テーブルを参照し、予め決められた業務目的に応じて定めた重み付け係数を用いて評価値(Y)を算出することで、より広範な観点に基づき、客観性が高く、業務目的に沿った評価を付与することが可能となる。結果として、評価対象ユーザが持つ業務の生産性を高めるかたちで、コミュニケーションスキルの改善を図ることが可能となる。ここで用いる評価基準値の選択、重み付け係数の値の選択、評価テーブルに含まれる値や尺度の構成、その算出方法は、予め決められた業務目的に応じて最適な評価基準値の選択、重み付け係数の値の選択、評価テーブルでの値や尺度の構成や算出方法を選択することが好ましい。
・複数のユーザの最終評価の比較により、予め決められた業務の観点で、コミュニケーションスキルの高い評価を事前に持つユーザと高い評価を持たないユーザについて、コミュニケーションスキルの比較を行い、高いコミュニケーション評価につながる差異要素を可視化することで、より具体的な観点で、高い評価を持つユーザのスキルを他方ユーザが取り入れることが可能となる。
・評価対象となるユーザについて、任意の知見によるコミュニケーション手法を学ぶ前のコミュニケーション評価(最終評価)と、前記知見によるコミュニケーション手法を学んだ後のコミュニケーション評価(最終評価)の比較により、該当ユーザが前記知見によるコミュニケーション手法を身に付けたかの度合いを可視化することができる。
・複数の任意コミュニケーション学習方法に関し、その効果の度合いをコミュニケーション学習方法ごとに可視化することで、より効果的なコミュニケーション学習方法を選択することが可能となる。そのために、該当する複数のコミュニケーション学習方法について、それを学ぶ複数ユーザについて学習前と学習後のコミュニケーション評価(最終評価)の変化を比較することで、どちらのコミュニケーション学習方法がユーザのコミュニケーションスキルを向上させたかの度合いを可視化し、活用することができる。上記例のように、本発明の枠組みを活用する手法は、予め決められた業務目的に応じて最適な手法を用いて、活用することが好ましい。
(1)装置例としてカメラから得られるデータ項目例(視覚で得られるデータ項目例):
・表情
・しぐさ(生理的なしぐさ)
・しぐさ(身振り手振り)
・目線の動き
・頭部の動き(うなずき、横振りなど)
・体の姿勢や手足の動き(例:手足の組み方、前のめり重心、後ろ重心)
・服装
(2)装置例としてマイクから得られるデータ項目例(聴覚で得られるデータ項目例):
・声のトーン、高低
・声の音量
・発声リズム(スピード、呼吸)
・無音(傾聴、沈黙等)
・笑い、咳、嗚咽等の生理的現象
(3)装置例として温度センサー、振動センサーが含まれる装置(例:スマートフォン、装着型デバイス等)から得られるデータ項目例:
・温度(気温、体温など)
・揺れ(身体)
(4)装置例として、電子装置(例:本発明に含まれるデータ収集装置等)から得られるデータ項目例:
・時間情報(映像データ、音声データの収集時間等)
2…データ解析装置 3…カメラ
4…映像データ取込部 5…映像データ処理部
6…映像データ蓄積部 7…映像データ送信部
10…マイク 11…音声データ取込部
12…音声データ処理部 13…音声データ蓄積部
14…音声データ送信部 15…データ収集時間記録部
20…映像データ受信部 21…音声データ受信部
22…映像データ解析部 23…AI呼出部
24…解析命令及びデータ送信部 25…解析結果取得部
26…取得データ分析部 30…音声データ解析部
31…AI呼出部 32…解析命令及びデータ送信部
33…解析結果取得部 34…取得データ分析部
40…映像データ及び音声データ処理部
41…映像データ及び音声データ解析部
42…解析結果出力部 43…データ蓄積部
44…表示装置
50…AIプログラム解析部 51…AIプログラム映像解析部
52…AIプログラム音声解析部
100…コミュニケーションの評価システム
101…通信ネットワーク 102…インターネット
103…データベース
200〜250…データ取込みステップ
302〜306…映像解析ステップS1
310〜319…音声解析ステップS2
330…統合ステップS3
331…差分データ取得ステップS4
332…評価ステップS5
340…出力ステップS6
1000…1050 評価ステップS5に含まれるステップ
Claims (12)
- ユーザ間におけるコミュニケーションの評価を支援する評価方法であって、コミュニケーションの映像データと音声データとを取り込むデータ取込ステップと、前記データ取込ステップにより取り込まれた前記映像データを、前記映像データに対応する人工知能技術を使って第1数値データに変換する映像解析ステップと、前記データ取込ステップにより取り込まれた前記音声データを、前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って前記テキストデータを第2数値データに変換する音声解析ステップと、前記第1数値データと前記テキストデータと前記第2数値データとを組み合わせて時系列に整理統合し、整理統合データを取得する統合ステップと、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得ステップと、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価ステップと前記評価ステップで得た前記評価結果を出力する出力ステップとを備える評価方法。
- 前記統合ステップは、前記整理統合データに基づき、ユーザが任意時点で行ったコミュニケーション行為を評価する最小単位としてコミュニケーションイベントを定めるステップと、前記ユーザそれぞれに異なる時点におけるコミュニケーションイベントを定めるステップと、前記コミュニケーションイベントに基づき、前記コミュニケーションの開始時点から終了時点までに含まれる前記コミュニケーションイベントを時系列にまとめ統合したデータを、コミュニケーション総体として定めるステップとを有する、請求項1に記載の評価方法。
- 前記差分データ取得ステップは、前記コミュニケーションイベントごとに、前記相手ユーザの前記差分データを取得するステップを有する、請求項2に記載の評価方法。
- 前記評価ステップは、前記整理統合データと前記差分データに基づき、前記ユーザごとに前記評価結果を算出するステップを有し、前記整理統合データと前記差分データに基づき、前記コミュニケーション総体の内容に関し前記評価結果を算出するステップを有する、請求項2に記載の評価方法。
- 前記評価軸は、業務上与えられるコミュニケーション目的から規定される、コミュニケーションの評価基準を含み、前記評価ステップは、前記評価軸を参照して付与される、前記コミュニケーションイベントと前記コミュニケーション総体の少なくとも何れかへの評価値の付与、前記の業務上のコミュニケーション目的に沿い予め決められた分析項目に関する評価値の付与、及び、前記コミュニケーションの結果として得られた業務結果への評価値の付与、の少なくとも何れかを含み、前記評価結果を算出するステップを有する、請求項2に記載の評価方法。
- ユーザ間におけるコミュニケーションの評価を支援する評価装置であって、コミュニケーションの映像データと音声データとを取り込むデータ取込機能と、前記データ取込機能により取り込まれた前記映像データを、前記映像データに対応する人工知能技術を使って第1数値データに変換する映像解析機能と、前記データ取込機能により取り込まれた前記音声データを、前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って前記テキストデータを第2数値データに変換する音声解析機能と、前記第1数値データと前記テキストデータと前記第2数値データとを組み合わせて時系列に整理統合し、整理統合データを取得する統合機能と、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得機能と、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価機能と前記評価機能で得た前記評価結果を出力する出力機能とを備える評価装置。
- 前記統合機能は、前記整理統合データに基づき、ユーザが任意時点で行ったコミュニケーション行為を評価する最小単位としてコミュニケーションイベントを定める機能と、前記ユーザそれぞれに異なる時点におけるコミュニケーションイベントを定める機能と、前記コミュニケーションイベントに基づき、前記コミュニケーションの開始時点から終了時点までに含まれる前記コミュニケーションイベントを時系列にまとめ統合したデータを、コミュニケーション総体として定める機能とを有する、請求項6に記載の評価装置。
- 前記差分データ取得機能は、前記コミュニケーションイベントごとに、前記相手ユーザの前記差分データを取得する機能を有する、請求項7に記載の評価装置。
- 前記評価機能は、前記整理統合データと前記差分データに基づき、前記ユーザごとに前記評価結果を算出する機能を有し、前記整理統合データと前記差分データに基づき、前記コミュニケーション総体の内容に関し前記評価結果を算出する機能を有する、請求項7に記載の評価装置。
- 前記評価軸は、業務上与えられるコミュニケーション目的から規定される、コミュニケーションの評価基準を含み、前記評価機能は、前記評価軸を参照して付与される、前記コミュニケーションイベントと前記コミュニケーション総体の少なくとも何れかへの評価値の付与、前記の業務上のコミュニケーション目的に沿い予め決められた分析項目に関する評価値の付与、及び、前記コミュニケーションの結果として得られた業務結果への評価値の付与、の少なくとも何れかを含み、前記評価結果を算出する機能を有する、請求項7に記載の評価装置。
- 情報端末に組み込むことにより、情報端末を請求項6から請求項10のいずれか1項に記載の装置として制御および動作をさせる評価プログラム。
- ユーザ間におけるコミュニケーションの評価を支援する評価システムであって、コミュニケーションの映像データと音声データとを取り込むデータ取込機能と、前記データ取込機能により取り込まれた前記映像データを、前記映像データに対応する人工知能技術を使って第1数値データに変換する映像解析機能と、前記データ取込機能により取り込まれた前記音声データを、前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って前記テキストデータを第2数値データに変換する音声解析機能と、前記第1数値データと前記テキストデータと前記第2数値データとを組み合わせて時系列に整理統合し、整理統合データを取得する統合機能と、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得機能と、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価機能と前記評価機能で得た前記評価結果を出力する出力機能とを備える評価システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018015717A JP6715410B2 (ja) | 2018-01-31 | 2018-01-31 | 評価方法、評価装置、評価プログラム、および、評価システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018015717A JP6715410B2 (ja) | 2018-01-31 | 2018-01-31 | 評価方法、評価装置、評価プログラム、および、評価システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019133451A true JP2019133451A (ja) | 2019-08-08 |
JP6715410B2 JP6715410B2 (ja) | 2020-07-01 |
Family
ID=67547502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018015717A Active JP6715410B2 (ja) | 2018-01-31 | 2018-01-31 | 評価方法、評価装置、評価プログラム、および、評価システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6715410B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022004567A1 (ja) * | 2020-07-02 | 2022-01-06 | パナソニックIpマネジメント株式会社 | コミュニケーション解析システム、及び、コミュニケーション解析方法 |
WO2022024778A1 (ja) * | 2020-07-27 | 2022-02-03 | 株式会社 東芝 | コミュニケーションシステム及び評価方法 |
WO2022091981A1 (ja) * | 2020-10-28 | 2022-05-05 | ベルフェイス株式会社 | 情報処理システム |
JP2023025793A (ja) * | 2021-08-11 | 2023-02-24 | アフラック生命保険株式会社 | 人材育成支援システム、連携支援システム、方法及びコンピュータプログラム |
JP7519976B2 (ja) | 2021-10-19 | 2024-07-22 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 面談支援装置、面談支援方法及びコンピュータプログラム |
JP7535987B2 (ja) | 2021-10-04 | 2024-08-19 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 面談支援装置、面談支援方法及びコンピュータプログラム |
JP7535986B2 (ja) | 2021-10-04 | 2024-08-19 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 面談支援装置、面談支援方法及びコンピュータプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006061632A (ja) * | 2004-08-30 | 2006-03-09 | Ishisaki:Kk | 感情データ提供装置、心理解析装置、および電話ユーザ心理解析方法 |
JP2017045434A (ja) * | 2015-08-28 | 2017-03-02 | 株式会社Ubic | データ分析システム、データ分析方法、プログラム、および、記録媒体 |
JP2017091570A (ja) * | 2017-01-19 | 2017-05-25 | Psソリューションズ株式会社 | 対話インターフェース |
JP2017201479A (ja) * | 2016-05-06 | 2017-11-09 | 日本ユニシス株式会社 | コミュニケーション支援システム |
-
2018
- 2018-01-31 JP JP2018015717A patent/JP6715410B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006061632A (ja) * | 2004-08-30 | 2006-03-09 | Ishisaki:Kk | 感情データ提供装置、心理解析装置、および電話ユーザ心理解析方法 |
JP2017045434A (ja) * | 2015-08-28 | 2017-03-02 | 株式会社Ubic | データ分析システム、データ分析方法、プログラム、および、記録媒体 |
JP2017201479A (ja) * | 2016-05-06 | 2017-11-09 | 日本ユニシス株式会社 | コミュニケーション支援システム |
JP2017091570A (ja) * | 2017-01-19 | 2017-05-25 | Psソリューションズ株式会社 | 対話インターフェース |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022004567A1 (ja) * | 2020-07-02 | 2022-01-06 | パナソニックIpマネジメント株式会社 | コミュニケーション解析システム、及び、コミュニケーション解析方法 |
JPWO2022004567A1 (ja) * | 2020-07-02 | 2022-01-06 | ||
JP7369942B2 (ja) | 2020-07-02 | 2023-10-27 | パナソニックIpマネジメント株式会社 | コミュニケーション解析システム、及び、コミュニケーション解析方法 |
WO2022024778A1 (ja) * | 2020-07-27 | 2022-02-03 | 株式会社 東芝 | コミュニケーションシステム及び評価方法 |
JP7536279B2 (ja) | 2020-07-27 | 2024-08-20 | ボイット株式会社 | コミュニケーションシステム及び評価方法 |
WO2022091981A1 (ja) * | 2020-10-28 | 2022-05-05 | ベルフェイス株式会社 | 情報処理システム |
JP2023025793A (ja) * | 2021-08-11 | 2023-02-24 | アフラック生命保険株式会社 | 人材育成支援システム、連携支援システム、方法及びコンピュータプログラム |
JP7462595B2 (ja) | 2021-08-11 | 2024-04-05 | アフラック生命保険株式会社 | 人材育成支援システム、連携支援システム、方法及びコンピュータプログラム |
JP7535987B2 (ja) | 2021-10-04 | 2024-08-19 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 面談支援装置、面談支援方法及びコンピュータプログラム |
JP7535986B2 (ja) | 2021-10-04 | 2024-08-19 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 面談支援装置、面談支援方法及びコンピュータプログラム |
JP7519976B2 (ja) | 2021-10-19 | 2024-07-22 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 面談支援装置、面談支援方法及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6715410B2 (ja) | 2020-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6715410B2 (ja) | 評価方法、評価装置、評価プログラム、および、評価システム | |
JP6260979B1 (ja) | 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム | |
CN106663383B (zh) | 分析受试者的方法和系统 | |
US9691296B2 (en) | Methods and apparatus for conversation coach | |
US20220392625A1 (en) | Method and system for an interface to provide activity recommendations | |
US10146882B1 (en) | Systems and methods for online matching using non-self-identified data | |
US10376197B2 (en) | Diagnosing system for consciousness level measurement and method thereof | |
Mariooryad et al. | Exploring cross-modality affective reactions for audiovisual emotion recognition | |
CN110689261A (zh) | 服务质量评测产品定制平台及方法 | |
WO2020148920A1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2018032164A (ja) | 面接システム | |
CN114566187B (zh) | 操作包括电子装置的系统的方法、电子装置及其系统 | |
Chollet et al. | Assessing public speaking ability from thin slices of behavior | |
JP2018206341A (ja) | 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム | |
KR101800546B1 (ko) | 가상 면접 시스템 | |
JP7392259B2 (ja) | 学習支援装置、学習支援方法およびプログラム | |
US20230290505A1 (en) | Context Aware Assessment | |
JP2016157388A (ja) | コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム | |
WO2023135939A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
Suzuki et al. | VFep: 3D graphic face representation based on voice-based emotion recognition | |
JP2020173415A (ja) | 教材提示システム及び教材提示方法 | |
Bahreini et al. | FILTWAM and voice emotion recognition | |
US20240177523A1 (en) | System and Methods of Predicting Personality and Morals through Facial Emotion Recognition | |
JP7152825B1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
Ma | Emotion-aware voice interfaces based on speech signal processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180323 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190924 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190924 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6715410 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |