JP2016157388A - コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム - Google Patents

コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム Download PDF

Info

Publication number
JP2016157388A
JP2016157388A JP2015036593A JP2015036593A JP2016157388A JP 2016157388 A JP2016157388 A JP 2016157388A JP 2015036593 A JP2015036593 A JP 2015036593A JP 2015036593 A JP2015036593 A JP 2015036593A JP 2016157388 A JP2016157388 A JP 2016157388A
Authority
JP
Japan
Prior art keywords
utterance
evaluation
feature
skill evaluation
communication skill
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015036593A
Other languages
English (en)
Other versions
JP6285377B2 (ja
Inventor
えりか 足利
Erika Ashikaga
えりか 足利
智広 山田
Tomohiro Yamada
智広 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015036593A priority Critical patent/JP6285377B2/ja
Publication of JP2016157388A publication Critical patent/JP2016157388A/ja
Application granted granted Critical
Publication of JP6285377B2 publication Critical patent/JP6285377B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】人のコミュニケーションスキルを効果的に改善すること。
【解決手段】解析装置1において、言語情報解析部111とメタ言語情報解析部112と非言語情報解析部113が、コミュニケーション中の対象者を撮影した撮像データから発話言語と音声の特徴と行動の特徴とを解析し、評価解析部114が、解析した特徴の度合いに基づく特徴ベクトルを発言毎にクラスタリングし、評価端末3で肯定評価された複数の発言に関する各クラスタの中心ベクトルをそれぞれ算出し、否定評価された発言に関する特徴のベクトルに最も類似する中心ベクトルを選択する。そして、評価解析部114は、選択した中心ベクトルに対応する発言の各特徴の度合いと否定評価された発言の各特徴の度合いとの差をそれぞれ算出し、差が最も大きい特徴を抽出する。その後、解析結果出力部123が、抽出した特徴を否定評価された発言に対する改善要素として対象者の閲覧端末4に出力する。
【選択図】図2

Description

本発明は、コミュニケーションスキルをトレーニングする際の演習中に評価された評価結果をフィードバックする技術に関する。
人と人とのコミュニケーションを円滑に行うためのスキルをコミュニケーションスキルという。コミュニケーションスキルは、トレーニングにより向上可能であり、スキルの教示、演習、フィードバック、般化を行うことで習得できる。従来、そのスキル測定やフィードバックは専門家又はスキルトレーニングの受講者によって実施されていたが、近年ではコンピュータで行うことが求められている。
そこで、非特許文献1では、就職面接時のコミュニケーションスキルを向上させる技術が記載されている。この技術では、音声を含む映像を取得し、被面接者の発話速度や笑顔の有無等を測定し、その測定結果をフィードバックしている。これにより、被面接者は、面接時における自分自身の行動を把握し、振り返ることができる。
また、非特許文献2では、コミュニケーションスキルとは少し異なるが、プレゼンテーションスキルを向上させる技術が記載されている。この技術では、プレゼンテーションの予行演習を録画し、WEB画面上に表示している。これにより、そのスキルを相互に評価することができる。
M. Hoque、外4名、"MACH: My Automated Conversation coacH"、Proc. UbiComp’13、2013年9月、p.697-p.706 原田、外2名、"Webを用いたプレゼンテーション・スキルアップ支援システム−ユーザ間の相互評価と発話音声の自動評価による学習支援−"、電子情報通信学会技研報告,Vol.111、No.473、2012年3月、p.41-p.46
しかしながら、従来の手法は、被スキル測定者の発言や行動の測定結果及びその評価結果を提示するに留まるため、自分自身の行動を改善するために何をどうすれば良いか等、具体的な改善方法を把握することができない。また、否定的な評価結果を提示する場合、その評価結果を提示するのみでは自尊心や自信を低下させてしまう等、被スキル測定者に悪影響を及ぼす恐れがある。
本発明は、上記事情を鑑みてなされたものであり、人のコミュニケーションスキルを効果的に改善することを目的とする。
以上の課題を解決するため、請求項1に記載のコミュニケーションスキル評価フィードバック装置は、コミュニケーション中の対象者を撮影した撮像データから複数の特徴を発言毎に解析する解析手段と、前記特徴の度合いに基づく特徴ベクトルを発言毎にクラスタリングするクラスタリング手段と、肯定評価された複数の発言に関する各クラスタの中心ベクトルをそれぞれ算出し、否定評価された発言に関する特徴のベクトルに最も類似する中心ベクトルを選択する選択手段と、選択した中心ベクトルに対応する発言の各特徴の度合いと前記否定評価された発言の各特徴の度合いとの差をそれぞれ算出し、差が最も大きい特徴を抽出する抽出手段と、抽出した特徴を前記否定評価された発言に対する改善要素として出力する出力手段と、を有することを要旨とする。
請求項2に記載のコミュニケーションスキル評価フィードバック装置は、請求項1に記載のコミュニケーションスキル評価フィードバック装置において、前記解析手段は、前記対象者が発した言語、前記対象者が発した音声の特徴、前記対象者が行った行動の特徴を解析することを要旨とする。
請求項3に記載のコミュニケーションスキル評価フィードバック方法は、コミュニケーションスキル評価フィードバック装置で行うコミュニケーションスキル評価フィードバック方法において、コミュニケーション中の対象者を撮影した撮像データから複数の特徴を発言毎に解析する解析ステップと、前記特徴の度合いに基づく特徴ベクトルを発言毎にクラスタリングするクラスタリングステップと、肯定評価された複数の発言に関する各クラスタの中心ベクトルをそれぞれ算出し、否定評価された発言に関する特徴のベクトルに最も類似する中心ベクトルを選択する選択ステップと、選択した中心ベクトルに対応する発言の各特徴の度合いと前記否定評価された発言の各特徴の度合いとの差をそれぞれ算出し、差が最も大きい特徴を抽出する抽出ステップと、抽出した特徴を前記否定評価された発言に対する改善要素として出力する出力ステップと、を有することを要旨とする。
請求項4に記載のコミュニケーションスキル評価フィードバックプログラムは、請求項1又は2に記載のコミュニケーションスキル評価フィードバック装置としてコンピュータを機能させることを要旨とする。
本発明によれば、人のコミュニケーションスキルを効果的に向上できる。
コミュニケーションスキル評価フィードバックシステムの全体構成を示す図である。 解析装置の機能ブロック構成を示す図である。 言語情報の解析処理フローを示す図である。 コミュニケーションスキルの評価解析処理フローを示す図である。 文書用単語の例を示す図である。
本発明は、発言や行動が否定的な評価であった場合、具体的な改善方法をわかりやすく提示することで、否定的な評価を受け入れにくいユーザに対しても肯定的な評価と同等のフィードバックの効果を与えることにある。以下、本発明の一実施の形態について図面を参照して説明する。
図1は、本実施の形態に係るコミュニケーションスキル評価フィードバックシステムの全体構成を示す図である。該システムは、コミュニケーションスキルをトレーニング中の受講者の発言及び行動を測定し、否定的な評価が得られた発言及び行動については肯定的な評価が得られた発言及び行動との差分を提示する。以下、本システムの構成例について詳述する。
該システムは、受講者の発言及び行動を測定する測定端末2と、受講者の発言及び行動に対する評価を入力する評価端末3と、入力された評価をもとに受講者の発言や行動に対する改善方法を解析する解析装置1と、解析された改善方法を受講者にフィードバックする閲覧端末4と、を備えて構成される。これら全ての端末及び装置は、インターネットやイントラネット等の通信網Nを介して接続されている。端末と装置間では相互通信可能であり、無線・有線は問わない。
測定端末2は、受講者の発言及び行動を測定するための端末である。受講時に表出した受講者の発言及び行動を撮影し、その撮像データ(映像・音声データ)を解析装置1に送信する。例えば、ビデオカメラ、アイトラッカー、加速度センサを用いる。
評価端末3は、受講者の発言及び行動を第三者が評価するための端末である。測定端末2で測定された音声データをもとに受講者の発言を文字化して映像データとともに画面に表示する。そして、表示された受講者の発言や行動に対し、説明力や理解力といった各指標に対する評価値の入力を要求し、入力された評価データを解析装置1に送信する。例えば、パソコン、タブレット端末を用いる。
閲覧端末4は、受講者の発言や行動について解析装置1で解析された改善方法を画面や音声で出力するための端末である。フィードバックすることを目的とするため、トレーニングを受けた受講者により使用される。例えば、タブレット端末を用いる。
次に、解析装置1について説明する。解析装置1は、測定端末2からの映像・音声データと評価端末3からの評価データとを用いて、受講者のコミュニケーションスキルの改善方法を解析する装置である。
解析装置1の機能ブロック構成を図2に示す。該解析装置1は、映像・音声データから受講者の発言や行動を解析し、評価データをもとに各発言を肯定的評価と否定的評価に分類して、否定的評価の発言に対する改善方法を解析する解析部11と、受講者の発言や行動を評価するための評価項目を評価端末3に送信し、該評価端末3で入力された評価データや解析部11で解析された改善方法を入出力する入出力部12と、を備えて構成される。以下、各部の機能について詳述する。
解析部11は、測定端末2からの映像・音声データを用いて、言語情報を解析する言語情報解析部111と、メタ言語情報を解析するメタ言語情報解析部112と、非言語情報を解析する非言語情報解析部113と、それらの解析結果と評価端末3からの評価データとを用いて受講者の発言や行動に対する改善方法を解析する評価解析部114と、改善方法を記載した文章を生成するための単語を記憶しておく文章用単語DB115と、を備えて構成される。
入出力部12は、受講者の発言及び行動とそれらに対する評価を入力するための評価項目とを含む評価情報を評価端末3に出力する評価情報出力部121と、評価端末3からの評価データを受信する評価結果受信部122と、解析部11で解析された改善方法を閲覧端末4に出力する解析結果出力部123と、を備えて構成される。
続いて、解析装置1で行う解析処理について説明する。
まず、図3を参照しながら、言語情報解析部111で行う言語情報の解析処理について説明する。言語情報解析部111では、測定端末2で測定された音声データから、発話区間を抽出して発言開始時刻と発言終了時刻を算出する処理と、音声認識により発話単語を推定する処理とを実行する。発話とは言語が発せられた音声を指し、発言とは同じ受講者が連続して発した発話を指す。
まず、ステップS101において、音声データから人が発している音の時間帯を発話区間として抽出する。例えば、音のレベルに対して予め閾値を設けておき、該閾値を超える音であれば発話区間とする。これ以外の抽出方法を用いてもよい。
次に、ステップS102において、抽出した各発話区間の発話開始時刻と発話終了時刻を算出する。例えば、入力された音声データの開始時刻を0とし、抽出した発話区間の開始時刻を「0:00:03.23」、終了時刻を「0:00:13.55」のように算出する。「」内は「時間:分:秒.ミリ秒」を指す。
次に、ステップS103において、発話区間の音声データに対して音声認識を行い、各発話区間で発話された発話単語を取得する。音声認識については、既存の音声認識ツールや音声認識手法を用いる。なお、取得した発話単語は、後の処理部に送るため、一時的に明示しない記憶領域に記憶しておく。
次に、ステップS104において、時間的に隣接する2つの発話区間の間の時間を求め、予め設けておいた閾値thと比較する。具体的には、時系列で1番始めの発話区間を除き、現在処理中の発話区間の発話開始時刻と1つ前の発話区間の発話終了時刻との差分を発話間時間として求め、閾値thを比較する。
次に、発話間時間が閾値thよりも小さい場合、ステップS105において、現在処理中の発話区間の話者が1つ前の発話区間の話者と同一であるか否かを判定する。例えば、各発話区間の発話時間における映像データを解析し、口が動いている受講者をその発話の話者として識別する。そして、2つの発話区間で識別された両話者が同一であるかに基づき判定する。なお、話者の識別方法については、声紋を照合する手法等、その他の識別方法を用いてもよい。
次に、1つ前の発話区間の話者と同じである場合、ステップS106において、現在処理中の発話区間の発話と1つ前の発話区間の発話とを1つの発言とする。
一方、発話間時間が閾値thよりも大きい場合、又は、1つ前の発話区間の話者と異なる場合、ステップS107において、現在処理中の発話区間の発話と1つ前の発話区間の発話とを異なる発言とする。
最後に、ステップS108において、ステップS106又はステップS107で設定した発言について発言開始時刻と発言終了時刻を算出する。
以降、全ての発話区間に対してステップS102からステップS108を繰り返す。その後、各発言の発話単語と発言開始時刻・発言終了時刻を言語情報としてメタ言語情報解析部112と評価解析部114に送信する。
次に、メタ言語情報解析部112で行うメタ言語解析処理について説明する。メタ言語情報解析部112では、測定端末2で測定された音声データと、言語情報解析部111で解析された音声認識結果(各発言の発話単語)とから、発言内容以外の音声の特徴を解析・抽出し、その特徴量をメタ言語情報として時刻情報を含めて評価解析部114に送信する。例えば、発話速度、トーン、音量を解析・抽出する。その他の特徴でもよい。なお、発言内容以外の音声の特徴の抽出手段・抽出方法については、既存の抽出ツールや抽出手法を用いる。
次に、非言語情報解析部113で行う非言語解析処理について説明する。非言語情報解析部113では、測定端末2で測定された映像データから、発言時の言語以外の特徴を解析・抽出し、その特徴量を非言語情報として時刻情報を含めて評価解析部114に送る。例えば、視線、頭部動作、ジェスチャ、表情を解析・抽出する。その他の特徴でもよい。なお、言語以外の特徴の抽出手段・抽出方法については、既存の抽出ツールや抽出手法を用いる。
次に、図4を参照しながら、評価解析部114で行う評価解析処理について説明する。評価解析部114では、解析した言語情報、メタ言語情報、非言語情報を発言毎にベクトル化し、発言に対する評価者の評価結果に基づき各発言を肯定的評価(以下、肯定的評価の発言ベクトル)と否定的評価(以下、否定的評価の発言ベクトル)に分類する。そして、否定的評価の発言ベクトルと肯定的評価の発言ベクトルとを比較し、否定的評価の発言の修正案を提示するための特徴量を抽出する。
まず、ステップS201において、各発言に対して、発言時間に含まれる言語情報、メタ言語情報、非言語情報を取得する。例えば、1つ目の発言時間が「0:00:03.23」から「0:00:21.52」の場合、この時間内の音声認識結果、発話速度、トーン、音量、注視対象、頷き、首ふり、手の動き、表情を取得する。
次に、ステップS202において、取得した各特徴を数値化する。数値化方法については、特徴量が加算可能な値であれば総数とする。時間の経過に伴い変動する値であれば発言時間内の平均値とする。発言時間内でいずれかに分類可能な測定データであれば発言時間内の割合とする。
例えば、音声認識結果については、発言内の自立語数をカウントし、各自立語の難易度{n(n:自然数)段階で表現}の割合を算出する。発話単語の難易度については、既存の技術を用いて算出する。例えば、日本語能力試験の出題基準に則って難易度を判定する。
発話速度、トーン、音量については、発言内の平均値を算出する。注視対象については、発言内での各注視対象の割合を算出する。その際、それぞれの割合を加算すると合計が1となるようにする。頷き、首ふり、手の動きについては、発言内のそれぞれの回数をカウントする。表情については、発言内の各表情の割合を算出する。その際、それぞれの割合を加算すると合計が1となるようにする。
次に、ステップS203において、数値化した各特徴量を多次元ベクトルとして表現する。例えば、[単語数,単語難易度(1),単語難易度(2),…,単語難易度(n),発話速度,トーン,音量,注視対象(a),注視対象(b),…,注視対象(その他),頷き,首ふり,手の動き,表情(笑),表情(怒),表情(悲)…,表情(無)]のように、各特徴を要素とした多次元ベクトルとして表現する。
ステップS201からステップS203は全ての発言に対して実施される。そして、全ての発言に対してベクトル化を行った後、ステップS204において、各特徴量を正規化する。この正規化とは、多変量解析を実施するための正規化であり、各特徴量の平均が0、分散が1となるように変換することを指す。
次に、ステップS205において、評価結果受信部122から送信された評価データを参照し、肯定的と評価された各発言の多次元ベクトルを発言毎にそれぞれクラスタリングする。
肯定的な評価とは、評価データにおいて中央値よりも高い評価となる評価を指す。例えば、2段階評価(良,悪)であれば、良が肯定的な評価となる。5段階評価(大変良い,良い,どちらでもない,悪い,大変悪い)であれば、大変良い又は良いが肯定的な評価となる。なお、クラスタリングについては、クラスタの重複なくベクトルを分類するため、ハードクラスタリング手法を用いる。例えば、k−meansを用いる。これ以外のクラスタリング手法を用いてもよい。
次に、ステップS206において、各クラスタの中心ベクトルをそれぞれ算出し、これを肯定的な発言パターンとする。これにより、肯定的と評価された全ての発言に対して中心ベクトルが個々に定義される。
これ以降の処理は、否定的評価の発言に対する改善方法を解析するため、全ての否定的評価の発言ベクトルに対して実行する。
次に、ステップS207において、否定的評価の発言ベクトルと複数の中心ベクトルとを比較し、否定的評価の発言ベクトルに最も近い中心ベクトル(=肯定的な発言パターン)を選択する。
例えば、否定的評価の発言ベクトルと各中心ベクトルとの類似度をそれぞれ算出し、最も類似度が高い中心ベクトルを抽出する。類似度の算出方法については、例えば、2つのベクトルのなす角を求め、該なす角が小さいほど類似度を大きくする方法が考えられる。その他、2つのベクトルの距離を求め、該距離が小さいほど類似度を大きくする方法がある。これら以外の算出方法を用いてもよい。なお、否定的評価の発言ベクトルについては、ステップS205と同様に多次元ベクトルをクラスタリングすることで求めてもよい。
次に、ステップS208において、上記否定的評価の発言ベクトルの各特徴量と上記最も類似度の高い中心ベクトルの各特徴量との差分をそれぞれ求め、差分の絶対値が最も大きい特徴量を修正すべき要素として抽出する。
次に、ステップS209において、抽出した修正要素をもとに、受講者に提示する具体的な行動の修正案となる文章の目的語を生成する。この修正案となる文章をアドバイス文と呼ぶ。
具体的には、「XXをYYすると良くなります」というようなアドバイス文のフォーマットを予め用意しておき、修正要素をもとにXXの単語を図5の文章用単語DB115から選択する。例えば、修正要素が発話速度であれば、XXとして「話す速さ」という単語が選択される。
最後に、ステップS210において、ステップS208で求めた差分の正負(プラス又はマイナス)をもとに、上記アドバイス文の動詞を生成する。具体的には、±符号によって上記アドバイス文のフォーマットのYYの単語を文章用単語DB115から選択する。例えば、修正要素が発話速度であり、±符号がプラスであれば、YYとして「遅く」という単語が選択される。
ステップS207からステップS210は全ての否定的評価の発言ベクトルに実施される。その後、言語・メタ・非言語の各解析結果と、それに対する評価者の評価結果(=評価データ)と、否定的評価の発言に対するアドバイス文とを、解析結果出力部123に送信する。
次に、評価情報出力部121で行う評価情報の出力処理について説明する。評価情報出力部121では、評価者が評価値を入力する際に、どの発言に対する評価であるかをわかりやすくするために、受講者の発言を文字化した発言データと該発言を評価するための評価項目とを送信する。それら2つのデータを1つの発言が終了する度(=ステップS107が実行される度)に評価端末3に送信し、発言毎に評価値の入力を評価者に促す。
なお、発言データについては、ステップS101からステップS103で行う処理と同様の処理を行うことで取得する。評価項目については、予め解析装置1に入力しておく。評価項目とは、評価者が会話を評価するための項目であり、例えば、「内容がわかりやすかったか」、「相手に自分の意思を伝えているか」等、主観的及び抽象的な評価項目を用いる。
次に、評価結果受信部122で行う評価結果の受信処理について説明する。評価結果受信部122では、評価者により評価端末3で入力された評価データを受信し、評価解析部114へ送信する。評価解析部114へ送信する際には、どの発言に対する評価であるかがわかるように、発言開始時刻・発言終了時刻の時間情報を付与して送信する。
次に、解析結果出力部123で行う解析結果の出力処理について説明する。解析結果出力部123では、評価解析部114から送信された、全ての測定データ(言語情報、メタ言語情報、非言語情報)と、それに対する評価者の評価結果と、否定的評価の発言に対するアドバイス文とを提示するための表示データを生成する。
表示データは、閲覧端末4で閲覧可能な形式であればどのような形式でもよい。例えば、Webブラウザで閲覧可能なHTMLファイル形式がある。測定データは、発言毎のデータであることが分かるように、棒グラフや折れ線グラフ等のグラフで表示する。評価結果は、そのグラフ上に重畳して表示してもよいし、データを選択(例えばマウスオーバーのように1つのデータにフォーカスされるようなインタラクション操作)した場合に表示してもよい。各測定値が示すデータの評価が肯定的であるか否定的であるかがわかるような表示とする。
アドバイス文は、受講者が否定的な評価のデータを選択した場合に表示してもよいし、否定的な評価のデータの近くに予め表示しておいてもよい。その際、どのデータに対するアドバイス文であるかがわかるような表示とする。
本実施の形態によれば、否定的な評価を受けた受講者の各発言に対して改善方法を具体的に提示するため、否定的な評価を受け入れにくいユーザに対しても肯定的な評価と同等のフィードバックの効果を与えることができ、受講者のコミュニケーションスキルを効果的に向上できる。
最後に、本発明の効果について説明する。従来の技術では、コミュニケーション時の発言や行動をコンピュータで測定し、その測定値を提示する、又は、コミュニケーションの良し悪しを提示するだけであった。一方、本発明は、人が行った評価とコンピュータで解析した発言及び行動とを関連付け、否定的な評価が得られた行動に対しては、肯定的な評価が得られた行動とどのような特徴がどの程度異なっているかを提示する。つまり、評価結果から自動的に生成されたアドバイス文により具体的な改善方法を提示するので、否定的な評価を受け入れにくい受講者にとっても肯定的な評価と同等のコミュニケーションスキル向上効果を得ることができる。
最後に、本実施の形態で説明した解析装置1は、CPU等の演算機能やメモリ等の記憶機能を備えたコンピュータで実現できる。また、解析装置1としてとしてコンピュータを機能させるためのプログラムや該プログラムの記憶媒体を作成することも可能である。
1…解析装置(コミュニケーションスキル評価フィードバック装置)
11…解析部
111…言語情報解析部
112…メタ言語情報解析部
113…非言語情報解析部
114…評価解析部
115…文章用単語DB
12…入出力部
121…評価情報出力部
122…評価結果受信部
123…解析結果出力部
2…測定端末
3…評価端末
4…閲覧端末
S101〜S108,S201〜S210…ステップ

Claims (4)

  1. コミュニケーション中の対象者を撮影した撮像データから複数の特徴を発言毎に解析する解析手段と、
    前記特徴の度合いに基づく特徴ベクトルを発言毎にクラスタリングするクラスタリング手段と、
    肯定評価された複数の発言に関する各クラスタの中心ベクトルをそれぞれ算出し、否定評価された発言に関する特徴のベクトルに最も類似する中心ベクトルを選択する選択手段と、
    選択した中心ベクトルに対応する発言の各特徴の度合いと前記否定評価された発言の各特徴の度合いとの差をそれぞれ算出し、差が最も大きい特徴を抽出する抽出手段と、
    抽出した特徴を前記否定評価された発言に対する改善要素として出力する出力手段と、
    を有することを特徴とするコミュニケーションスキル評価フィードバック装置。
  2. 前記解析手段は、
    前記対象者が発した言語、前記対象者が発した音声の特徴、前記対象者が行った行動の特徴を解析することを特徴とする請求項1に記載のコミュニケーションスキル評価フィードバック装置。
  3. コミュニケーションスキル評価フィードバック装置で行うコミュニケーションスキル評価フィードバック方法において、
    コミュニケーション中の対象者を撮影した撮像データから複数の特徴を発言毎に解析する解析ステップと、
    前記特徴の度合いに基づく特徴ベクトルを発言毎にクラスタリングするクラスタリングステップと、
    肯定評価された複数の発言に関する各クラスタの中心ベクトルをそれぞれ算出し、否定評価された発言に関する特徴のベクトルに最も類似する中心ベクトルを選択する選択ステップと、
    選択した中心ベクトルに対応する発言の各特徴の度合いと前記否定評価された発言の各特徴の度合いとの差をそれぞれ算出し、差が最も大きい特徴を抽出する抽出ステップと、
    抽出した特徴を前記否定評価された発言に対する改善要素として出力する出力ステップと、
    を有することを特徴とするコミュニケーションスキル評価フィードバック方法。
  4. 請求項1又は2に記載のコミュニケーションスキル評価フィードバック装置としてコンピュータを機能させることを特徴とするコミュニケーションスキル評価フィードバックプログラム。
JP2015036593A 2015-02-26 2015-02-26 コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム Active JP6285377B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015036593A JP6285377B2 (ja) 2015-02-26 2015-02-26 コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015036593A JP6285377B2 (ja) 2015-02-26 2015-02-26 コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム

Publications (2)

Publication Number Publication Date
JP2016157388A true JP2016157388A (ja) 2016-09-01
JP6285377B2 JP6285377B2 (ja) 2018-02-28

Family

ID=56826131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015036593A Active JP6285377B2 (ja) 2015-02-26 2015-02-26 コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム

Country Status (1)

Country Link
JP (1) JP6285377B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060374A (ja) * 2016-10-05 2018-04-12 富士ゼロックス株式会社 情報処理装置、評価システムおよびプログラム
JP2022081050A (ja) * 2020-11-19 2022-05-31 トヨタ自動車株式会社 発言評価システム、発言評価方法、及び、プログラム
JP7576332B2 (ja) 2021-02-12 2024-10-31 株式会社フォーサイト 講義評価システムおよび方法
JP7646272B1 (ja) 2025-01-15 2025-03-17 株式会社フォーサイト コミュニケーション支援システムおよび方法
JP7659354B1 (ja) 2023-09-22 2025-04-09 俊朗 飯島 プロフィール情報収集システム、プロフィール情報収集方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7521328B2 (ja) 2020-08-26 2024-07-24 トヨタ自動車株式会社 コミュニケーションシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045363A (ja) * 2011-08-25 2013-03-04 Nippon Telegr & Teleph Corp <Ntt> 文脈依存性推定装置、発話クラスタリング装置、方法、及びプログラム
JP2014135017A (ja) * 2013-01-11 2014-07-24 Kddi Corp プログラム、端末装置およびデータ処理方法
JP2014186451A (ja) * 2013-03-22 2014-10-02 Nippon Telegr & Teleph Corp <Ntt> 感情推定装置、感情推定方法、および、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045363A (ja) * 2011-08-25 2013-03-04 Nippon Telegr & Teleph Corp <Ntt> 文脈依存性推定装置、発話クラスタリング装置、方法、及びプログラム
JP2014135017A (ja) * 2013-01-11 2014-07-24 Kddi Corp プログラム、端末装置およびデータ処理方法
JP2014186451A (ja) * 2013-03-22 2014-10-02 Nippon Telegr & Teleph Corp <Ntt> 感情推定装置、感情推定方法、および、プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060374A (ja) * 2016-10-05 2018-04-12 富士ゼロックス株式会社 情報処理装置、評価システムおよびプログラム
JP2022081050A (ja) * 2020-11-19 2022-05-31 トヨタ自動車株式会社 発言評価システム、発言評価方法、及び、プログラム
JP7354992B2 (ja) 2020-11-19 2023-10-03 トヨタ自動車株式会社 発言評価システム、発言評価方法、及び、プログラム
US12100390B2 (en) 2020-11-19 2024-09-24 Toyota Jidosha Kabushiki Kaisha Speech evaluation system, speech evaluation method, and non-transitory computer readable medium storing program
JP7576332B2 (ja) 2021-02-12 2024-10-31 株式会社フォーサイト 講義評価システムおよび方法
JP7659354B1 (ja) 2023-09-22 2025-04-09 俊朗 飯島 プロフィール情報収集システム、プロフィール情報収集方法、及びプログラム
JP2025064930A (ja) * 2023-09-22 2025-04-17 俊朗 飯島 プロフィール情報収集システム、プロフィール情報収集方法、及びプログラム
JP7646272B1 (ja) 2025-01-15 2025-03-17 株式会社フォーサイト コミュニケーション支援システムおよび方法

Also Published As

Publication number Publication date
JP6285377B2 (ja) 2018-02-28

Similar Documents

Publication Publication Date Title
CN115413348B (zh) 用于自动验证和量化面试问题回答的系统和方法
US10706873B2 (en) Real-time speaker state analytics platform
US11551804B2 (en) Assisting psychological cure in automated chatting
JP6285377B2 (ja) コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム
JP6617053B2 (ja) 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法
US20190130910A1 (en) Information processing apparatus
US11080723B2 (en) Real time event audience sentiment analysis utilizing biometric data
US20210271864A1 (en) Applying multi-channel communication metrics and semantic analysis to human interaction data extraction
JP6715410B2 (ja) 評価方法、評価装置、評価プログラム、および、評価システム
Morales et al. A linguistically-informed fusion approach for multimodal depression detection
KR102670492B1 (ko) 인공지능을 활용한 심리 상담 방법 및 장치
CN114138960A (zh) 用户意图识别方法、装置、设备及介质
US20230176911A1 (en) Task performance adjustment based on video analysis
CN112749869A (zh) 适性化职缺媒合系统及方法
US11361754B2 (en) Method and system for speech effectiveness evaluation and enhancement
CN114566187B (zh) 操作包括电子装置的系统的方法、电子装置及其系统
US20230290332A1 (en) System and method for automatically generating synthetic head videos using a machine learning model
KR101747712B1 (ko) 스마트폰을 통한 면접 자동인식 실시간관리방법
KR20210071713A (ko) 스피치 스킬 피드백 시스템
CN109102813B (zh) 声纹识别方法、装置、电子设备和存储介质
US20240202634A1 (en) Dialogue training device, dialogue training system, dialogue training method, and computer-readable medium
KR20130112581A (ko) 스마트 기기를 이용한 목소리 트레이닝 서비스 제공 방법
CN111149153A (zh) 信息处理装置以及说话解析方法
US20220172711A1 (en) System with speaker representation, electronic device and related methods
CN117132136A (zh) 一种用于分析用户交流的系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180201

R150 Certificate of patent or registration of utility model

Ref document number: 6285377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150