JP6715410B2 - Evaluation method, evaluation device, evaluation program, and evaluation system - Google Patents

Evaluation method, evaluation device, evaluation program, and evaluation system Download PDF

Info

Publication number
JP6715410B2
JP6715410B2 JP2018015717A JP2018015717A JP6715410B2 JP 6715410 B2 JP6715410 B2 JP 6715410B2 JP 2018015717 A JP2018015717 A JP 2018015717A JP 2018015717 A JP2018015717 A JP 2018015717A JP 6715410 B2 JP6715410 B2 JP 6715410B2
Authority
JP
Japan
Prior art keywords
data
evaluation
communication
user
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018015717A
Other languages
Japanese (ja)
Other versions
JP2019133451A (en
Inventor
甲斐義章
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yoshifumi Kai
Original Assignee
Yoshifumi Kai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yoshifumi Kai filed Critical Yoshifumi Kai
Priority to JP2018015717A priority Critical patent/JP6715410B2/en
Publication of JP2019133451A publication Critical patent/JP2019133451A/en
Application granted granted Critical
Publication of JP6715410B2 publication Critical patent/JP6715410B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、人のコミュニケーション行為に関し、正確にその内容を記録し、その内容について人工知能技術を用いて分析し、人のコミュニケーションスキルとコミュニケーション内容の評価することを可能とする、評価方法、評価装置、評価プログラム、および、評価システム に関する。 The present invention relates to a communication action of a person, accurately records the content thereof, analyzes the content using an artificial intelligence technique, and makes it possible to evaluate a person's communication skill and communication content. Equipment, evaluation program, and evaluation system.

関連する技術、方法としては、例えば特許文献1〜6に、関連する技術情報がある。 As related techniques and methods, there are related technical information in Patent Documents 1 to 6, for example.

特許文献1では、非言語行動を測定し、被験者の心理状態の情報を出力し、被疑者の行動に関する虚偽検出の結果を表示させる方法が提案されている。 Patent Document 1 proposes a method of measuring nonverbal behavior, outputting information on the psychological state of a subject, and displaying the result of false detection regarding the behavior of the suspect.

特許文献2では、バイオメトリック・センサーを活用し、主に歩行、走行、睡眠などを測定し、行動のゴールに対する進捗や結果を表示させる方法が提案されている。 Patent Document 2 proposes a method of utilizing a biometric sensor to measure mainly walking, running, sleep, and the like, and displaying the progress and result of the action goal.

特許文献3では、ウェアラブル端末を用いて会話を記録分析し、カメラ映像からの笑顔判定からその利用者の会話相手の受容度および話者の会話の巧みさを分析し、ある話題について他人への影響が大きいユーザ(インフルエンサー)を抽出することを可能にする方法が提案されている。 In Patent Document 3, a conversation is recorded and analyzed using a wearable terminal, the acceptability of the conversation partner of the user and the skill of the conversation of the speaker are analyzed based on a smile determination from a camera image, and a certain topic to another person is analyzed. A method has been proposed that makes it possible to extract users (influencers) who have a large influence.

特許文献4では、ユーザの発話の文脈意味を理解する際、ユーザの感情分類によって文脈意味の理解精度を高めることができる発話意味分析プログラムを用いることで、肯定意味/否定意味の理解の誤りを防ぎ、ユーザに対するコンピュータ対話システムについて対話シナリオの進行が崩れないようにすることを可能にする方法が提案されている。 In Patent Document 4, when the context meaning of a user's utterance is understood, an utterance meaning analysis program that can improve the understanding accuracy of the context meaning according to the emotion classification of the user is used to correct the misunderstanding of the positive meaning/negative meaning. Methods have been proposed to prevent and prevent the progression of dialogue scenarios for computer dialogue systems to the user.

特許文献5では、対話の発言内容をクラスタリング手段から肯定・否定の評価軸に基づき分析し、コミュニケーションスキルを評価する方法が提案されている。 Patent Document 5 proposes a method of evaluating the communication skill by analyzing the speech contents of the dialogue from the clustering means based on the positive/negative evaluation axis.

特許文献6では、対話システムまたは人における聞き役対話を評価する方法が提案されている。 Patent Document 6 proposes a dialogue system or a method for evaluating a listening dialogue in a person.

特表2004−527313号公報Japanese Patent Publication No. 2004-527313 特開2017−188089号公報JP, 2017-188089, A 特開2016−103081号公報JP, 2016-103081, A 特開2017−156854号公報JP, 2017-156854, A 特開2016−157388号公報JP, 2016-157388, A 特開2011−44060号公報JP, 2011-44060, A

しかしながら、特許文献1に記載の技術は、虚偽検出を主な目的として、非言語行動を分析するものであり、会話や表情を含むコミュニケーションスキルの測定や評価には言及していない。 However, the technique described in Patent Document 1 is intended to analyze nonverbal behavior, mainly for detecting falsehood, and does not refer to measurement or evaluation of communication skills including conversation and facial expressions.

特許文献2に記載の技術は、あくまで歩行、走行、睡眠を対象にした行動分析のみに留まり、会話や表情を含むコミュニケーションスキルの評価には言及していない。 The technique described in Patent Document 2 is limited to behavior analysis for walking, running, and sleep, and does not refer to evaluation of communication skills including conversation and facial expressions.

特許文献3に記載の技術は、ある話題について他人への影響が大きいユーザ(インフルエンサー)を抽出することを目的として、所定データリストに登録された限定な単語による会話分析、および、所定のデータ定義に基づく笑顔判定および所定指標のデータセットに限定した仕組みを提供するが、怒り、悲しみなどの他の感情要素を踏まえたコミュニケーション分析、評価や、データリストに無い単語を含むコミュニケーションを分析と評価するものではない。 The technique described in Patent Document 3 aims at extracting a user (influencer) who has a large influence on another person about a certain topic, conversation analysis using limited words registered in a predetermined data list, and predetermined data. It provides a mechanism to limit smiles based on the definition and a data set of a predetermined index, but analyzes and evaluates communication based on other emotional elements such as anger and sadness, and analyzes and evaluates communication that includes words not in the data list. Not something to do.

特許文献4に記載の技術は、対話の整合性のとれた対話プログラムの提供を目的として、任意の個人に関する非言語的行動あるいは言語的行動の測定、観察からの出力の仕組みを提供するもので、複数の話者相互のコミュニケーション分析、評価の方法や、それに基づくコミュニケーション技術評価、または話者のコミュニケーション方法の改善に向けた結果提供を言及するものではない。 The technique described in Patent Document 4 provides a mechanism for measuring nonverbal behavior or verbal behavior regarding an arbitrary individual or outputting from observation for the purpose of providing a dialogue program having a consistent dialogue. It does not refer to the method of analysis and evaluation of communication between multiple speakers, evaluation of communication technology based on it, or provision of results for improving the communication method of speakers.

特許文献5に記載の技術は、コミュニケーションスキルの向上が目的とされてはいるものの、発話された言語情報からテキスト情報のみ用い、肯定あるいは否定の評価軸でコミュニケーションスキルの評価を出力する方法に留まるものであり、表情要素および傾聴部分を含めた双方向なコミュニケーション分析を方法として持つものではない。 Although the technology described in Patent Document 5 is aimed at improving communication skills, it is limited to a method of using only text information from uttered linguistic information and outputting communication skill evaluation based on a positive or negative evaluation axis. However, it does not have a method of interactive communication analysis including facial expression elements and listening parts.

特許文献6では、対話システムまたは人における聞き役対話を評価する目的であり、コミュニケーション全体に関わる評価を目的としておらず、また、雑談などの対話のみにもとづき対話評価を行うため、表情の要素を用いる評価には言及していない。 In Patent Document 6, the purpose is to evaluate a dialogue system or a listening dialogue in a person, not to evaluate the whole communication. Further, in order to perform dialogue evaluation only based on dialogue such as chat, a facial expression element is used. No mention of evaluation.

ところで、コミュニケーションに関わるスキルアップトレーニングや教育方法は様々なサービスが公知である。そうしたサービスで用いられる方法は、講師による座学研修やロールプレイング、講師との個別面談やコーチングなどの方法が一般的である。 By the way, various services are known for skill improvement training and education methods related to communication. The methods used in such services are generally classroom lectures by teachers, role-playing, individual interviews with coaches and coaching.

そうした方法では、コミュニケーションスキル現状把握や改善結果に関して、アンケート、ヒヤリングや講師や受講者自身などの主観判断で、良し悪しが判断されることが多い。 In such a method, it is often the case that the good or bad is judged by questionnaires, hearings and subjective judgments of the instructor and the students themselves regarding the current grasp of communication skills and improvement results.

そうした主観判断以外に、スキル現状把握、スキル改善結果を判別する手段が無いことから、本質的なスキル改善に至らない、あるいは、至りにくいことがある。 Other than such subjective judgment, there is no means for grasping the current state of skill and determining the result of skill improvement, so that essential skill improvement may or may not be achieved.

そのため、より客観的なデータに基づくかたちで、コミュニケーションスキル現状把握や改善結果を可視化でき、それをふまえて効率的にコミュニケーションスキル改善につながる仕組みが求められている。 Therefore, there is a need for a mechanism that can grasp the current state of communication skills and visualize the improvement results based on more objective data, and that leads to efficient communication skill improvement.

業務上、人のコミュニケーションが含まれる分野、例えば、接客分野、医療分野、教育分野、エンターテインメント分野、サービス分野等で同様な課題が存在する。 In business, there are similar problems in fields including human communication, such as customer service, medical care, education, entertainment, and service.

そこで本発明では、コミュニケーションに関する、客観的なデータの取得、そのデータの分析方法及び分析結果の提供を通じて、より効果的な手段で、スキル現状の可視化、および、スキル改善の結果の可視化を図り、より確実なスキル改善が実現できる、評価方法、評価装置、評価プログラム、及び、評価システムを提供することを目的とする。また従来手法はウェアラブル端末や専用装置を使用するため実現するためのシステムコストが高価になるケースが多いが、本発明では高価な装置等を購入する必要が無く、比較的低コストで実現できる。 Therefore, in the present invention, regarding the communication, through the acquisition of objective data, the analysis method and the analysis result of the data, by a more effective means, the visualization of the current situation of the skill, and the visualization of the result of the skill improvement, An object of the present invention is to provide an evaluation method, an evaluation device, an evaluation program, and an evaluation system that can realize more reliable skill improvement. In addition, although the conventional method often uses a wearable terminal or a dedicated device to increase the system cost for implementation, the present invention does not need to purchase an expensive device or the like and can be implemented at a relatively low cost.

簡潔には、本明細書に説明される対象事項の種々の態様は、上記課題を解決するため、人のコミュニケーションの映像データと音声データを取り込み、人工知能技術を用いて数値データ化し、それらの数値データ化されたデータに基づき解析し、人のコミュニケーション内容および人のコミュニケーションスキルに関し評価を行う、評価方法、評価装置、評価プログラム、及び、評価システムを提供することを目的とする。 Briefly, various aspects of the subject matter described in the present specification, in order to solve the above-mentioned problems, capture video data and audio data of human communication, and convert them into numerical data using artificial intelligence technology, An object of the present invention is to provide an evaluation method, an evaluation device, an evaluation program, and an evaluation system, which analyze based on numerical data and evaluate the communication content and communication skill of a person.

(1)ユーザ間におけるコミュニケーションの評価を支援する評価方法であって、コミュニケーションの映像データと音声データとを取り込むデータ取込ステップと、前記データ取込ステップにより取り込まれた前記映像データを、前記映像データに対応する人工知能技術を使って第1数値データに変換する映像解析ステップと、前記データ取込ステップにより取り込まれた前記音声データを、前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って前記テキストデータを第2数値データに変換する音声解析ステップと、前記第1数値データと前記テキストデータと前記第2数値データとを組み合わせて時系列に整理統合し、整理統合データを取得する統合ステップと、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得ステップと、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価ステップと、前記評価ステップで得た前記評価結果を出力する出力ステップとを備える評価方法。 (1) An evaluation method that supports evaluation of communication between users, comprising: a data capturing step of capturing communication video data and audio data; and the video data captured by the data capturing step, An image analysis step of converting into first numerical data using an artificial intelligence technology corresponding to the data, and the voice data captured by the data capturing step into text data using the artificial intelligence technology corresponding to the voice data. And a voice analysis step of converting the text data into second numerical data by using an artificial intelligence technique corresponding to the text data, and combining the first numerical data, the text data and the second numerical data. And a consolidation step of consolidating and consolidating in a time series to obtain consolidation data; a difference data acquiring step of acquiring difference data corresponding to the difference in reaction of the other user at different times from the consolidation integrated data; An evaluation step of calculating an evaluation result including at least one of the evaluation of the content of the communication based on the difference data and the evaluation of the communication skill of the user with reference to a predetermined evaluation axis according to the communication purpose, and the evaluation. An output step of outputting the evaluation result obtained in step.

(2)前記統合ステップは、前記整理統合データに基づき、ユーザが任意時点で行ったコミュニケーション行為を評価する最小単位としてコミュニケーションイベントを定めるステップと、前記ユーザそれぞれに異なる時点におけるコミュニケーションイベントを定めるステップと、前記コミュニケーションイベントに基づき、前記コミュニケーションの開始時点から終了時点までに含まれる前記コミュニケーションイベントを時系列にまとめ統合したデータを、コミュニケーション総体として定めるステップとを有する、前記(1)に記載の評価方法。 (2) The integrating step includes a step of defining a communication event as a minimum unit for evaluating a communication action performed by a user at an arbitrary time point based on the consolidated integrated data, and a step of defining a communication event at a different time point for each user. The method according to (1), further comprising a step of defining, as a communication whole, data in which the communication events included from the start time to the end time of the communication are collected and integrated in a time series based on the communication event. ..

(3)前記差分データ取得ステップは、前記コミュニケーションイベントごとに、前記相手ユーザの前記差分データを取得するステップを有する、前記(2)に記載の評価方法。 (3) The evaluation method according to (2), wherein the difference data acquisition step includes a step of acquiring the difference data of the partner user for each communication event.

(4)前記評価ステップは、前記整理統合データと前記差分データに基づき、前記ユーザごとに前記評価結果を算出するステップを有し、前記整理統合データと前記差分データに基づき、前記コミュニケーション総体の内容に関し前記評価結果を算出するステップを有する、前記(2)に記載の評価方法。 (4) The evaluation step includes a step of calculating the evaluation result for each user based on the consolidation integrated data and the difference data, and the content of the communication whole body based on the consolidation integrated data and the difference data. The evaluation method according to (2) above, which includes a step of calculating the evaluation result regarding.

(5)前記評価軸は、業務上与えられるコミュニケーション目的から規定される、コミュニケーションの評価基準を含み、前記評価ステップは、前記評価軸を参照して付与される、前記コミュニケーションイベントと前記コミュニケーション総体の少なくとも何れかへの評価値の付与、前記の業務上のコミュニケーション目的に沿い予め決められた分析項目に関する評価値の付与、及び、前記コミュニケーションの結果として得られた業務結果への評価値の付与、の少なくとも何れかを含み、前記評価結果を算出するステップを有する、前記(2)に記載の評価方法。 (5) The evaluation axis includes a communication evaluation standard defined from the purpose of communication given in the business, and the evaluation step includes the communication event and the communication total, which are given with reference to the evaluation axis. Assigning an evaluation value to at least one of them, assigning an evaluation value relating to a predetermined analysis item according to the communication purpose in the business, and assigning an evaluation value to the business result obtained as a result of the communication, The evaluation method according to (2) above, including a step of calculating at least one of the above.

(6)ユーザ間におけるコミュニケーションの評価を支援する評価装置であって、コミュニケーションの映像データと音声データとを取り込むデータ取込機能と、前記データ取込機能により取り込まれた前記映像データを、前記映像データに対応する人工知能技術を使って第1数値データに変換する映像解析機能と、前記データ取込機能により取り込まれた前記音声データを、前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って前記テキストデータを第2数値データに変換する音声解析機能と、前記第1数値データと前記テキストデータと前記第2数値データとを組み合わせて時系列に整理統合し、整理統合データを取得する統合機能と、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得機能と、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価機能と前記評価機能で得た前記評価結果を出力する出力機能とを備える評価装置。 (6) An evaluation device that supports evaluation of communication between users, comprising a data capturing function for capturing video data and audio data for communication, and the video data captured by the data capturing function for the video. An image analysis function for converting into first numerical data using an artificial intelligence technology corresponding to the data, and the voice data captured by the data capturing function is converted into text data using the artificial intelligence technology corresponding to the voice data. And a voice analysis function for converting the text data into second numerical data by using an artificial intelligence technology corresponding to the text data, and combining the first numerical data, the text data and the second numerical data. And a difference data acquisition function for acquiring difference data corresponding to the difference in the reaction of the other user at different times from the consolidation integrated data, An evaluation function and an evaluation function for calculating an evaluation result including at least one of the evaluation of the content of the communication based on the difference data and the evaluation of the communication skill of the user with reference to a predetermined evaluation axis according to the communication purpose. An evaluation device having an output function of outputting the evaluation result obtained in 1.

(7)前記統合機能は、前記整理統合データに基づき、ユーザが任意時点で行ったコミュニケーション行為を評価する最小単位としてコミュニケーションイベントを定める機能と、前記ユーザそれぞれに異なる時点におけるコミュニケーションイベントを定める機能と、前記コミュニケーションイベントに基づき、前記コミュニケーションの開始時点から終了時点までに含まれる前記コミュニケーションイベントを時系列にまとめ統合したデータを、コミュニケーション総体として定める機能とを有する、前記(6)に記載の評価装置。 (7) The integration function includes a function of defining a communication event as a minimum unit for evaluating a communication action performed by a user at an arbitrary time point based on the organized integration data, and a function of defining a communication event at a different time point for each user. The evaluation device according to (6), having a function of defining, as a communication whole, data obtained by time-sequentially integrating the communication events included from the start time to the end time of the communication based on the communication event. ..

(8)前記差分データ取得機能は、前記コミュニケーションイベントごとに、前記相手ユーザの前記差分データを取得する機能を有する、前記(7)に記載の評価装置。 (8) The evaluation device according to (7), wherein the difference data acquisition function has a function of acquiring the difference data of the opponent user for each communication event.

(9)前記評価機能は、前記整理統合データと前記差分データに基づき、前記ユーザごとに前記評価結果を算出する機能を有し、前記整理統合データと前記差分データに基づき、前記コミュニケーション総体の内容に関し前記評価結果を算出する機能を有する、前記(7)に記載の評価装置。 (9) The evaluation function has a function of calculating the evaluation result for each user based on the consolidation integrated data and the difference data, and the content of the communication whole body based on the consolidation integrated data and the difference data. The evaluation device according to (7) above, which has a function of calculating the evaluation result regarding.

(10)前記評価軸は、業務上与えられるコミュニケーション目的から規定される、コミュニケーションの評価基準を含み、前記評価機能は、前記評価軸を参照して付与される、前記コミュニケーションイベントと前記コミュニケーション総体の少なくとも何れかへの評価値の付与、前記の業務上のコミュニケーション目的に沿い予め決められた分析項目に関する評価値の付与、及び、前記コミュニケーションの結果として得られた業務結果への評価値の付与、の少なくとも何れかを含み、前記評価結果を算出する機能を有する、前記(7)に記載の評価装置。 (10) The evaluation axis includes a communication evaluation standard that is defined from the purpose of communication given in business, and the evaluation function includes the communication event and the communication total that are given with reference to the evaluation axis. Assigning an evaluation value to at least one of them, assigning an evaluation value relating to a predetermined analysis item according to the communication purpose in the business, and assigning an evaluation value to the business result obtained as a result of the communication, The evaluation device according to (7), which includes at least one of the above and has a function of calculating the evaluation result.

(11)情報端末に組み込むことにより、情報端末を前記(6)から前記(10)のいずれか1項に記載の装置として制御および動作をさせる評価プログラム。 (11) An evaluation program which, when incorporated in an information terminal, controls and operates the information terminal as the device according to any one of (6) to (10).

(12)ユーザ間におけるコミュニケーションの評価を支援する評価システムであって、コミュニケーションの映像データと音声データとを取り込むデータ取込機能と、前記データ取込機能により取り込まれた前記映像データを、前記映像データに対応する人工知能技術を使って第1数値データに変換する映像解析機能と、前記データ取込機能により取り込まれた前記音声データを、前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って前記テキストデータを第2数値データに変換する音声解析機能と、前記第1数値データと前記テキストデータと前記第2数値データとを組み合わせて時系列に整理統合し、整理統合データを取得する統合機能と、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得機能と、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価機能と前記評価機能で得た前記評価結果を出力する出力機能とを備える評価システム。 (12) An evaluation system that supports evaluation of communication between users, comprising a data capturing function for capturing video data and audio data of communication, and the video data captured by the data capturing function for the video. An image analysis function for converting into first numerical data using an artificial intelligence technology corresponding to the data, and the voice data captured by the data capturing function is converted into text data using the artificial intelligence technology corresponding to the voice data. And a voice analysis function for converting the text data into second numerical data by using an artificial intelligence technology corresponding to the text data, and combining the first numerical data, the text data and the second numerical data. And a difference data acquisition function for acquiring difference data corresponding to the difference in the reaction of the other user at different times from the consolidation integrated data, An evaluation function and an evaluation function for calculating an evaluation result including at least one of the evaluation of the content of the communication based on the difference data and the evaluation of the communication skill of the user with reference to a predetermined evaluation axis according to the communication purpose. And an output function for outputting the evaluation result obtained in step 1.

本発明によれば、怒り、喜び、悲しみなど多様な感情要素の数値化と分析、および、多様な単語や無音時間を含む会話分析を通じて、複数のユーザ相互のコミュニケーションを分析及び評価する方法により、ユーザのコミュニケーションスキル評価またはコミュニケーション方法の改善に向けた提案と方法を提供するものである。 According to the present invention, by quantifying and analyzing various emotional elements such as anger, joy, and sadness, and a method of analyzing and evaluating communication among a plurality of users through conversation analysis including various words and silent periods, It provides suggestions and methods for evaluating communication skills of users or improving communication methods.

本発明によれば、コミュニケーションに関して、データを収集し、それらのデータに関し人工知能技術を用い解析した数値データを活用し、客観的なデータに基づいた評価を行う。その評価を通じ、より効果的な手段で、評価対象ユーザのコミュニケーションスキル現状の可視化、及び、そのコミュニケーションスキル改善の結果の可視化を図り、より確実なスキル改善が実現できる。また従来手法はウェアラブル端末や専用装置を使用するため実現するためのシステムコストが高価になるケースが多いが、本発明では高価な装置等を購入する必要が無く、比較的低コストで実現できる。 According to the present invention, regarding communication, data is collected, numerical data obtained by analyzing the data using artificial intelligence technology is utilized, and evaluation is performed based on objective data. Through the evaluation, more effective means can be used to visualize the current communication skill of the user to be evaluated and the result of the improvement of the communication skill, thereby realizing more reliable skill improvement. In addition, although the conventional method often uses a wearable terminal or a dedicated device to increase the system cost for implementation, the present invention does not need to purchase an expensive device or the like and can be implemented at a relatively low cost.

本発明によれば、評価ステップでは、評価対象ユーザのコミュニケーションの内容、または、評価対象ユーザのコミュニケーションスキルに関する評価結果を算出する。この評価結果は、整理統合データから取得された差分データに基づいて算出される方法を含む。前記の取得された差分データは、コミュニケーション総体を通じて得た、会話相手の反応を網羅的に用いて構成される。そのため、これまでによくある、講師により主観的に定めた一律の閾値等を用いた絶対評価に比べて、より実態に沿う評価結果を得ることができ、実質的なコミュニケーションの評価を支援する。これにより、様々な会話の状況におけるコミュニケーションに関し、実質的かつ定量的な評価を得ることが可能となる。上記から、本発明では、コミュニケーションに関する、客観的なデータ取得、そのデータに基づく評価結果の提供を通じて、より効果的な手段で、スキル現状の可視化、および、スキル改善の結果の可視化を図り、より確実なスキル改善が実現できる。 According to the present invention, in the evaluation step, the evaluation result regarding the communication content of the evaluation target user or the communication skill of the evaluation target user is calculated. The evaluation result includes a method calculated based on the difference data acquired from the consolidated integrated data. The acquired difference data is configured by comprehensively using the reactions of the conversation partners obtained through the communication as a whole. Therefore, it is possible to obtain a more realistic evaluation result than the absolute evaluation using a uniform threshold value that is subjectively determined by the instructor, which supports evaluation of substantial communication. This makes it possible to obtain a substantial and quantitative evaluation of communication in various conversation situations. From the above, in the present invention, through the objective acquisition of data regarding communication and the provision of evaluation results based on the data, the visualization of the current state of skills and the visualization of the results of skill improvement can be achieved by more effective means, and more A sure skill improvement can be realized.

本実施形態における評価システムの一例を示すブロック図である。It is a block diagram which shows an example of the evaluation system in this embodiment. 本実施形態における、データ収集装置、データ解析装置、人工知能を用いた解析部と表示装置のシステムと、それらが有する機能部の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of a system of a data collection device, a data analysis device, an analysis unit and a display device using artificial intelligence, and a functional unit included in them in the present embodiment. 本実施形態における、コミュニケーションの映像データと音声データの取り込みに関するステップを例として図示するフロー図である。It is a flowchart which illustrates the step regarding the capture of the video data and audio data of communication in this embodiment as an example. 本実施形態における、取り込まれた映像データの映像解析ステップ、取り込まれた音声データの音声解析ステップ、その統合ステップ、整理統合データに基づく差分データ取得ステップ、差分データなどを用いた評価ステップとその評価出力ステップに関し、一例としてステップを図示するフロー図である。In the present embodiment, a video analysis step of captured video data, a voice analysis step of captured audio data, an integration step thereof, a differential data acquisition step based on consolidation integrated data, an evaluation step using differential data, and the evaluation thereof. FIG. 6 is a flow diagram illustrating steps as an example regarding output steps. 本実施形態における、統合ステップにおけるコミュニケーションイベントを定める手法の一例を示す模式図である。It is a schematic diagram which shows an example of the method of defining the communication event in the integration step in this embodiment. 本実施形態における、統合ステップにおけるコミュニケーション総体を定める手法の一例を示す模式図である。It is a schematic diagram which shows an example of the method of defining the communication whole in the integration step in this embodiment. 本実施形態における、前記整理統合データを用いた差分データ取得ステップにおける差分データ取得の手法の一例を示す模式図である。It is a schematic diagram which shows an example of the method of the difference data acquisition in the difference data acquisition step using the said consolidation integrated data in this embodiment. 本実施形態における、評価ステップに含まれるフローの全体概要の一例を示すフロー図である。It is a flow figure showing an example of the whole outline of the flow included in the evaluation step in this embodiment. 本実施形態における、評価ステップに含まれる、コミュニケーションイベント単位での評価データ値付与フローの概要とその具体例を一例として示したフロー図である。It is the flowchart which showed the outline and the specific example of the evaluation data value provision flow in the communication event unit contained in the evaluation step in this embodiment. 本実施形態における、評価ステップに含まれる、コミュニケーション総体への評価データ値付与フローの概要とその具体例を一例として示したフロー図である。It is the flowchart which showed the outline|summary and the specific example of the evaluation data value provision flow to the communication whole contained in the evaluation step in this embodiment. 本実施形態における、評価ステップに含まれる、整理統合データに基づくデータ値算出の概要と具体例を一例として示した図である。It is the figure which showed as an example the outline and specific example of the data value calculation based on the consolidation integrated data contained in the evaluation step in this embodiment. 本実施形態における、評価ステップに含まれる、事後に得た業務結果に基づく評価データ値付与の概要とその具体例を一例として示した図である。It is the figure which showed as an example the outline|summary of the evaluation data value provision based on the work result obtained after the fact included in the evaluation step, and its specific example in this embodiment. 本実施形態における、評価ステップに含まれる、最終評価の付与フローの概要とその具体例を一例として示したフロー図である。It is the flowchart which showed the outline|summary of the provision flow of the final evaluation included in the evaluation step, and its specific example as an example in this embodiment. 本実施形態における、コミュニケーション評価方法に活用可能なデータ項目例を一例として示した表である6 is a table showing an example of data items that can be used in the communication evaluation method in the present embodiment.

本発明の音声データとは、マイクを通じて収集可能なデータで、人のコミュニケーションに関わる音声の要素として、人の発話音声、笑いや咳や嗚咽等の生理的な音声を収集かつデータ化し、コミュニケーション分析要素としてこれを用いる。あるユーザの発話音声がなく、かつ、同時間帯にその相手ユーザが発話している場合、あるユーザの発話音声がない時間帯を傾聴として区分し、コミュニケーション分析要素としてこれを用いる。 The voice data of the present invention is data that can be collected through a microphone, and as an element of voice related to human communication, collects and converts human speech voice, physiological voice such as laughter, cough, and throat into data, and performs communication analysis. Use this as an element. When there is no speech of a certain user and the other user speaks at the same time, the time when there is no speech of a certain user is classified as listening and this is used as a communication analysis element.

本発明の映像データとは、カメラを通じて収集可能なデータで、人(以降ユーザと記載する)のコミュニケーションに関わる映像の要素として、ユーザの表情、しぐさ、目線、頭部、身体の動き及び服装等の映像を収集かつデータ化し、コミュニケーション分析要素としてこれを用いる。 The image data of the present invention is data that can be collected through a camera, and is a user's facial expression, gesture, line of sight, head, body movement, clothes, etc. as elements of images related to communication of a person (hereinafter referred to as a user). The video of is collected and made into data, and this is used as a communication analysis element.

本発明の人工知能技術とは、機械学習、ディープラーニングに代表される公知のAIプログラム、AIライブラリまたはAIプラットフォーム(総合サービス)を含む方法を活用し、音声データに対応する人工知能技術、映像データに対応する人工知能技術とテキストデータに対応する人工知能技術には、例えば隠れマルコフモデル、畳み込みニューラルネットワーク(CNN)、再帰型ニューラルネットワーク(RNN)、LSTM(Long short-term memory)などの公知のモデルや方法が用いられる。公知であるため、ここではその説明は省略する。用いる人工知能技術は、コミュニケーション評価において、予め定められた業務目的に沿い適した手法を用いることが好ましい。 The artificial intelligence technology of the present invention is a method including a known AI program represented by machine learning or deep learning, an AI library, or an AI platform (total service), and is used as an artificial intelligence technology or video data corresponding to voice data. The artificial intelligence technology corresponding to and the artificial intelligence technology corresponding to text data include known Markov models, convolutional neural networks (CNN), recurrent neural networks (RNN), LSTM (Long short-term memory), etc. Models and methods are used. Since it is known, its description is omitted here. As for the artificial intelligence technology to be used, it is preferable to use a method suitable for a predetermined business purpose in communication evaluation.

本発明の第1数値データとは、前記映像データを解析した結果から得られた数値データを含む。例えば前記の人工知能技術を用い、前記映像データを解析した結果から得た、ユーザの表情を感情カテゴリー別に数値化した数値データが含まれる。ここで用いるユーザの感情区分などは公知であるため、ここではその説明は省略する。業務目的に応じ、前記映像データから得たコミュニケーション要素に関し、人工知能技術を用いて映像データからユーザの行為に関する判別を行いその行為に関する意味づけを行いデータとして用いる手法も好ましい。また、業務目的に応じ、得た映像データに関し評価者による数値付与、フラグ付けや意味付けを含むことも好ましい。例えば、手のしぐさ、腕組みなどへのフラグ付け、意味付けが挙げられる。 The first numerical data of the present invention includes numerical data obtained from a result of analyzing the video data. For example, it includes numerical data obtained by analyzing the video data using the artificial intelligence technology and numerically expressing the facial expression of the user for each emotion category. Since the user's emotion classification used here is well known, the description thereof is omitted here. According to the business purpose, it is also preferable that the communication element obtained from the video data is discriminated as to the user's action from the video data by using an artificial intelligence technique and the action is meaningfully used as data. It is also preferable that the evaluator includes numerical value addition, flagging, and meaning addition to the obtained video data according to the business purpose. For example, gestures of hands, flagging of arms, etc., and meaning are given.

本発明の第2数値データとは、前記音声データを解析した結果から得られた数値データを含む。例えば、前記の人工知能技術により前記音声データをテキスト化したデータを用い、前記テキストに含まれる単語や文章について感情分析し、肯定的か否定的かの度合いに応じ数値化された数値データ(以降、肯否度分析値と表現する)が含まれる。公知であるため、ここではその説明は省略する。業務目的に応じ、前記音声データから得たコミュニケーション要素に関し、人工知能技術を用いて音声データからユーザの発話行為に関する判別を行いその発話行為に関する意味づけを行いデータとして用いる手法も好ましい。業務目的に応じ、前記テキストデータに関し、公知の人工知能技術を用いてそれが含む意図に関する判別を行いそれに基づく意味づけを行いデータとして用いる手法も好ましい。また、業務目的に応じ、得た音声データに関し評価者による数値付与、フラグ付けや意味付けを含むことも好ましい。例えば、咳、声のうわずり、などへのフラグ付け、意味付けが挙げられる。 The second numerical data of the present invention includes numerical data obtained from the result of analyzing the voice data. For example, using the data obtained by converting the voice data into text by the artificial intelligence technology, the sentiment analysis is performed on the words or sentences included in the text, and numerical data numerically converted according to the degree of positive or negative (hereinafter , Expressed as a positive or negative analysis value). Since it is known, its description is omitted here. According to the business purpose, it is also preferable that the communication element obtained from the voice data is distinguished from the voice data by using the artificial intelligence technology and the user's utterance action is determined and the utterance action is meaningfully used as data. According to the business purpose, it is also preferable to use a known artificial intelligence technique for the text data to determine the intention included in the text data, to make meaning based on the discrimination, and to use the data as data. It is also preferable that the evaluator includes numerical value addition, flagging, and meaning addition to the obtained voice data according to the business purpose. For example, coughing, whispering, etc. may be flagged or given meaning.

本発明のテキストデータとは、前記音声データについて、前記人工知能技術を用いて、ユーザの音声をテキストデータに変換したデータを含み、例えば発話された会話の文章、単語がテキストデータに変換されたデータが含まれる。 The text data of the present invention includes, with respect to the voice data, data obtained by converting the user's voice into text data by using the artificial intelligence technology. For example, a sentence of a spoken conversation or a word is converted into text data. Contains data.

本発明のコミュニケーションイベントは、任意時点についてユーザごとに区分された整理統合データに基づき定義されるコミュニケーション評価の最小単位であり、例えば任意のユーザの発話行為や傾聴行為、発話を含まないコミュニケーション行為を含む。発話を含まないコミュニケーション行為は例えば笑顔などの行為を含む。 The communication event of the present invention is a minimum unit of communication evaluation defined on the basis of consolidated integrated data divided for each user at an arbitrary time point. For example, a utterance action, a listening action, or a communication action not including an utterance of any user is performed. Including. Communication actions that do not include speech include actions such as smiling faces.

本発明のコミュニケーション総体は、評価対象となるユーザのコミュニケーション行為の開始時点から終了時点までで定められる、コミュニケーション評価の対象であり、コミュニケーション総体には、時系列に沿い連続して、複数生成される、前記コミュニケーションイベントが含まれる。 The communication whole of the present invention is a communication evaluation target defined from the start time to the end time of the communication action of the user who is the evaluation target, and a plurality of the communication whole is continuously generated along the time series. , The communication event is included.

本発明の時系列に整理統合とは、前記の人工知能技術を用いた解析で得た、第1数値データとテキストデータと第2数値データをユーザ別に区分し、映像データと音声データそれぞれ収集した時点の時間情報に沿い、時系列に整理し、同一ユーザに関するデータとして統合し、整理統合データを得るステップを含む。 The time-series consolidation of the present invention means that the first numerical data, the text data, and the second numerical data obtained by the analysis using the artificial intelligence technology are classified by the user and the video data and the audio data are collected respectively. It includes a step of arranging in time series along with the time information at the time point, integrating as data regarding the same user, and obtaining consolidated data.

本発明の差分データとは、評価対象ユーザの任意のコミュニケーションイベントについて評価するために用いるデータであり、例えば、相手ユーザの反応を算出する際、評価対象ユーザの前記コミュニケーションイベントの前後の時点で、コミュニケーションの相手ユーザの反応の変化の度合いについて前記の整理統合データに基づき、相手ユーザの表情に関する第1数値データを比較し、その変化の度合いを差分として算出したデータを含む。また例えば、評価対象ユーザの任意のコミュニケーションイベントについて、評価対象ユーザ自身がコミュニケーションイベントで意図した表情を数値化するため、コミュニケーションイベント直前時点とコミュニケーションイベント時点で、評価対象ユーザの表情に関する変化を前記の整理統合データに基づき比較し、第1数値データの変化の度合いを差分として算出したデータを含むことも望ましい。 The difference data of the present invention is data used to evaluate any communication event of the evaluation target user, for example, when calculating the reaction of the other user, at the time before and after the communication event of the evaluation target user, It includes data obtained by comparing the first numerical value data regarding the facial expression of the other user with respect to the degree of change in the reaction of the other user of the communication based on the above-mentioned consolidated integrated data, and calculating the degree of change as a difference. Further, for example, for any communication event of the evaluation target user, in order to quantify the facial expression intended by the evaluation target user himself/herself in the communication event, the change regarding the facial expression of the evaluation target user at the time immediately before the communication event and the communication event is described above. It is also desirable to include data that is compared based on the consolidated integrated data and that the degree of change of the first numerical data is calculated as a difference.

本発明の予め決められた評価軸とは、業務上与えられるコミュニケーション目的から規定される、コミュニケーションの評価基準が含まれる。例えば、その評価軸に沿って評価項目と評価基準値が選定され、その評価項目に関する評価テーブルが定められる。前記の評価軸に基づく評価テーブルを参照して、評価対象ユーザが行うコミュニケーション内容とコミュニケーションスキルが評価される。評価軸に沿って、例えば、コミュニケーションのどのデータを評価項目とするか、評価項目の数値基準をどのような値とするか、観測されたデータが数値基準より良いか悪いかの度合いを判別する評価テーブルをどのような数値で設定するかなどが定められる。 The predetermined evaluation axis of the present invention includes a communication evaluation standard defined by the purpose of communication given in business. For example, an evaluation item and an evaluation reference value are selected along the evaluation axis, and an evaluation table regarding the evaluation item is determined. By referring to the evaluation table based on the evaluation axis, the content of communication and communication skill performed by the user to be evaluated are evaluated. Along the evaluation axis, for example, determine which data of communication is used as an evaluation item, what value is used as the numerical standard of the evaluation item, and the degree of whether the observed data is better or worse than the numerical standard. The numerical value to be set in the evaluation table is determined.

本発明の業務結果とは、コミュニケーション総体の結果として得られる項目を含む。業務結果は、前記の予め決められた評価軸によって定められるコミュニケーション目的が、コミュニケーション総体によってどの程度達成されたかを判別するのに用いられ、コミュニケーション内容、ユーザのコミュニケーションスキルを評価するための要素の一つとなる。業務結果には、例えば、評価対象ユーザの相手ユーザからのコミュニケーション総体後に得られたアンケート結果や、法人営業の文脈において評価対象の営業(ユーザ)が法人顧客と商談コミュニケーションを行った結果からその法人顧客がもつ、ニーズ、課題、予算金額、決裁者、希望納期に関する情報が取得できたか等の結果情報が含まれる。 The work result of the present invention includes items obtained as a result of the communication as a whole. The work result is used to determine how much the communication purpose defined by the predetermined evaluation axis has been achieved by the communication as a whole, and is one of the elements for evaluating the communication content and the communication skill of the user. It becomes one. The business result is, for example, a questionnaire result obtained after the communication with the other users of the evaluation target user or a result of the business (user) who is the evaluation target performing business negotiation communication with the business customer in the context of the business sales of the business user. It includes result information such as whether the customer has information on needs, issues, budget amount, authorizer, desired delivery date, etc.

本発明の評価値とは、前記コミュニケーションイベント、前記コミュニケーション総体、業務上のコミュニケーション目的に沿い予め決められた分析項目、および、前記のコミュニケーション総体の後に得た業務結果の少なくとも何れか一つについて付与され、それらの評価の度合いを可視化するために用いる値を含む。例えば、評価値の付与は、前記コミュニケーションイベント、前記コミュニケーション総体、業務上のコミュニケーション目的に沿い予め決められた分析項目、および、前記のコミュニケーション総体の後に得た業務結果の少なくともいずれかから得た評価項目の評価データ値に関し、前記の評価軸に基づく評価テーブルを参照して、評価値が付与される。 The evaluation value of the present invention is given to at least one of the communication event, the communication overall, an analysis item predetermined according to the communication purpose in the business, and the business result obtained after the communication overall. And the values used to visualize their degree of evaluation. For example, the evaluation value is given by at least one of the communication event, the communication overall, an analysis item predetermined according to the communication purpose in the business, and the work result obtained after the communication overall. With respect to the evaluation data value of the item, the evaluation value is given by referring to the evaluation table based on the evaluation axis.

本発明の評価とは、評価対象ユーザのコミュニケーションスキルと、そのコミュニケーション内容に関する良し悪しの度合いを判別し、本発明で得る整理統合データと差分データに基づき、数値でその度合いを表すステップを含む概念である。前記の良し悪しの定義と基準は、業務上与えられるコミュニケーション目的から定められる。例えば、業務で得られた知見に基づき、業務の目的を達成する可能性を高めると推定されるデータに肯定的な意味を与え、業務の目的を達成する可能性を低めると推定されるデータに低い評価を与える手法が含まれる。それらの推定には公知の知見を用いる手法を含むことも好ましい。 The evaluation of the present invention is a concept including a step of judging the communication skill of the user to be evaluated and the degree of good or bad of the communication content, and expressing the degree by a numerical value based on the consolidated integrated data and the difference data obtained by the present invention. Is. The above definition and standard of good and bad are determined from the communication purpose given in the business. For example, based on the knowledge obtained from work, we give a positive meaning to the data that is estimated to increase the possibility of achieving the purpose of the work, and the data that is estimated to reduce the possibility of achieving the purpose of the work. Techniques that give a low rating are included. It is also preferable that such estimation includes a method using known knowledge.

本発明の評価結果とは、評価対象ユーザのコミュニケーションスキル、もしくは、評価対象ユーザのコミュニケーション内容に関する、最終評価を含む概念である。例えば、最終評価は、前記の整理統合データと前記差分データに基づき得られた、コミュニケーションイベントへの評価データ値、コミュニケーション総体への評価データ値と、前記の業務上のコミュニケーション目的に沿い予め決められた分析項目に関する評価データ値と、コミュニケーション総体後に得た業務結果に基づく評価データ値をもとに総合的に算出される。前記の総合的な算出は、前記の各評価データ値について、予め決められた評価軸に基づく評価テーブルを参照して、それぞれに該当する評価値を付与し、そこから得た評価値について、それぞれ対応する重み付け係数を用いて算出された値を合計するかたちで算出される。前記の合計された算出結果を最終評価とし、評価対象ユーザのコミュニケーションスキル、もしくは、評価対象ユーザのコミュニケーション内容に関する、評価結果として与える手法が含まれる。業務の目的に応じて、上記に加えて、例えば評価者などの第三者が付与する評価値を含む手法も好ましい。 The evaluation result of the present invention is a concept including the final evaluation regarding the communication skill of the evaluation target user or the communication content of the evaluation target user. For example, the final evaluation is predetermined based on the evaluation data value for the communication event, the evaluation data value for the communication whole, and the communication purpose in the business, which are obtained based on the consolidated integrated data and the difference data. It is calculated comprehensively based on the evaluation data value concerning the analysis item and the evaluation data value based on the work result obtained after the communication as a whole. The comprehensive calculation, for each of the evaluation data values, with reference to the evaluation table based on a predetermined evaluation axis, to give the corresponding evaluation value, for each of the evaluation values obtained therefrom, It is calculated by summing the values calculated using the corresponding weighting factors. A method of giving the summed calculation result as the final evaluation and giving it as the evaluation result regarding the communication skill of the evaluation target user or the communication content of the evaluation target user is included. In addition to the above, a method including an evaluation value given by a third party such as an evaluator is also preferable depending on the purpose of the work.

本発明は、評価対象ユーザとその相手ユーザが行うコミュニケーションから、音声情報と映像情報を取得し取り込むデータ取込方法と,取り込んだそれぞれのデータを人工知能技術により解析する方法とを含み、前記の解析された音声データと表情データを前記ユーザと前記コミュニケーションイベントごとに区分し時系列に整理統合し、相手ユーザ反応を差分データに基づいて解析し、業務上予め定められた評価軸に基づき、コミュニケーション内容に関する評価、および、ユーザのコミュニケーションスキルの少なくともいずれかに関する評価を提供する方法に関する。 The present invention includes a data acquisition method for acquiring and acquiring audio information and video information from communication performed by a user to be evaluated and its counterpart user, and a method of analyzing each acquired data by artificial intelligence technology. The analyzed voice data and facial expression data are sorted according to the user and the communication event and organized and integrated in time series, the reaction of the other user is analyzed based on the difference data, and communication is performed based on the evaluation axis predetermined in the business. The present invention relates to a method for providing an evaluation regarding content and/or an evaluation regarding communication skills of a user.

本発明の活用例としては、営業の客先コミュニケーション、小売り店頭の販売コミュニケーション、上司と部下間のコーチングコミュニケーション、教師と生徒の間のティーチングコミュニケーション、医療現場での医者や看護士等の医療機関スタッフと患者とのコミュニケーション、手話による複数ユーザ間でのコミュニケーション、聴衆に向けたプレゼンテーションコミュニケーション、レストランなどで飲食に際し提示した食事や飲料を食す顧客の反応や評価をみるコミュニケーション、音楽やダンスなどのエンターテイメントイベントで演奏やダンス表現に対する聴衆の反応や評価をみるコミュニケーション、アロマサロンで香りを提供するサービスで顧客の反応や評価をみるコミュニケーション、玩具売り場で玩具を与えたとき顧客の反応や評価をみるコミュニケーション、看板やサインボードなどの交通や商業サインを顧客に見せた際の相手の反応や評価をみるコミュニケーション、展示会で絵や陶芸品やデジタルアートなどを来場客に見せたときの相手の反応や評価をみるなど、様々なコミュニケーション領域で業務上必要なコミュニケーションを発する人のコミュニケーションの内容とその技術、または相手に提示するコミュニケーションの表現と手法の評価と改善において好適に利用し得る。 Examples of utilization of the present invention include sales customer communication, retail store sales communication, coaching communication between supervisors and subordinates, teaching communication between teachers and students, medical institution staff such as doctors and nurses at medical sites. And patients, communication between multiple users using sign language, presentation communication for the audience, communication to see the reaction and evaluation of customers who eat meals and drinks presented at restaurants etc., entertainment events such as music and dance Communication to see the reaction and evaluation of the audience to performance and dance expression, Communication to see the reaction and evaluation of the customer with the service that provides aroma at the aroma salon, Communication to see the reaction and evaluation of the customer when giving a toy at the toy department, See the reaction and evaluation of the other party when showing traffic and commercial signs such as signs and signboards to the customer Communication, reaction and evaluation of the other party when showing pictures, ceramics and digital art at the exhibition Can be suitably used in evaluating and improving the communication content and technology of a person who issues communication necessary for work in various communication areas, or the expression and method of communication presented to the other party.

以下、本発明の実施形態について説明する。なお、本発明は、以下の形態や業態のみに限定されるものではない。以下の形態から本件の発明者が自明な範囲で適宜変更する形態や業態での活用も含まれる。すなわち、本明細書に説明されるいかなる特定の実施形態、態様、概念、構造、機能性又は例示にも限定されない。むしろ、本明細書に説明される実施形態、態様、概念、構造、機能性又は例示のいずれもが非限定的であり、本発明は一般にコミュニケーションから映像データと音声データを数値化し、コミュニケーション内容の評価および、人のコミュニケーションスキルの評価において利益及び利点を提供する種々の方法で使用されることができる Hereinafter, embodiments of the present invention will be described. The present invention is not limited to the following forms and business types. Including the following forms, the inventors of the present invention may make appropriate changes within the obvious range and use in business forms. That is, it is not limited to any particular embodiment, aspect, concept, structure, functionality or illustration described herein. Rather, any of the embodiments, aspects, concepts, structures, functionalities or illustrations described herein are non-limiting, and the present invention generally quantifies video and audio data from communication to improve communication content. Can be used in a variety of ways to provide benefits and benefits in assessment and assessment of a person's communication skills

図1に、 本発明に係るシステム100の概念図として全体構成の例を示している。例えば図1に示す通り、システム100は、データ収集装置1aとデータ収集装置1bと、データ解析装置2およびインターネット102を介して利用するデータベース装置103を備えている。この例では、データ収集装置1aとデータ収集装置1bが、評価対象となるユーザのコミュニケーションの映像データと音声データを取り込み、データ解析装置2に送信する機能を有する。データ解析装置2は、受信した前記映像データを前記映像データに対応する人工知能技術を使って第1数値データに変換する。データ解析装置2は、受信した音声データを前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って第2数値データに変換する。また、データ解析装置2は、第1数値データ、テキストデータと第2数値データを組み合わせて時系列に整理統合し、整理統合データを取得する統合機能と、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得機能と、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価機能を有する。また、データ解析装置2は取り込まれた映像データと音声データを解析および変換するため、インターネット102を介してデータベース103上にある人工知能技術を用いる機能を有する。データベース103はインターネット102を介して活用するクラウドサービスを含むことも好ましい。これら各装置の構成、機能およびステップについて、例を用いて具体的に説明する。 FIG. 1 shows an example of the overall configuration as a conceptual diagram of a system 100 according to the present invention. For example, as shown in FIG. 1, the system 100 includes a data collection device 1a, a data collection device 1b, a data analysis device 2, and a database device 103 used via the Internet 102. In this example, the data collection device 1 a and the data collection device 1 b have a function of capturing video data and audio data of the communication of the user to be evaluated and transmitting them to the data analysis device 2. The data analysis device 2 converts the received video data into first numerical data using an artificial intelligence technique corresponding to the video data. The data analysis device 2 converts the received voice data into text data using an artificial intelligence technique corresponding to the voice data, and converts it into second numerical data using an artificial intelligence technique corresponding to the text data. In addition, the data analysis device 2 combines the first numerical data, the text data, and the second numerical data to consolidate them in a time series, and consolidates them in a time series. A difference data acquisition function that acquires difference data corresponding to the difference in user reaction, and an evaluation axis that is predetermined according to the purpose of communication in business is referred to, and the content of the communication is evaluated based on the difference data, and the user. It has an evaluation function of calculating an evaluation result including at least one of the communication skill evaluations. In addition, the data analysis device 2 has a function of using artificial intelligence technology on the database 103 via the Internet 102 in order to analyze and convert the captured video data and audio data. The database 103 also preferably includes a cloud service utilized via the Internet 102. The configuration, function, and steps of each of these devices will be specifically described using examples.

図2に例として示されるように、データ収集装置1aは、カメラ装置3を通じた映像データ取込の機能と、マイク装置10を通じた音声データ取込の機能を有する。データ収集装置1aは、映像データ取込の機能を実現するため、カメラ装置3と、映像データ取込部4と、映像データ処理部5と、映像データ蓄積部6と映像データ送信部7を備える。データ収集装置1aは、音声データ取込の機能を実現するため、マイク装置10と、音声データ取込部11と、音声データ処理部12と、音声データ蓄積部13と音声データ送信部14を備える。データ収集装置1aは、評価対象のコミュニケーションの映像データと音声データが収集された時間を記録するデータ収集時間記録部15を有する。データ収集装置1bは、上記に例として説明したデータ収集装置1aの機能と少なくとも同じかそれ以上の機能と装置を持つことが望ましい。 As shown as an example in FIG. 2, the data collection device 1 a has a function of capturing video data through the camera device 3 and a function of capturing audio data through the microphone device 10. The data collection device 1a includes a camera device 3, a video data acquisition unit 4, a video data processing unit 5, a video data storage unit 6, and a video data transmission unit 7 in order to realize the function of capturing video data. .. The data collecting device 1a includes a microphone device 10, a voice data capturing unit 11, a voice data processing unit 12, a voice data storage unit 13, and a voice data transmitting unit 14 in order to realize a function of capturing voice data. .. The data collection device 1a includes a data collection time recording unit 15 that records the time when the video data and the audio data of the communication to be evaluated are recorded. The data collection device 1b preferably has at least the same function or device as the function of the data collection device 1a described above as an example.

図3にデータ収集装置1aでの映像データ取込ステップと音声データ取込ステップの例を示している。図3の例に示されるように、データ収集装置1aでの映像データ取込ステップD1は、コミュニケーションを行う対象ユーザの表情等の映像を、カメラ装置3を通じて収集の上映像データとして取り込み、取り込んだ映像データを解析に適するデータ形式に変換処理し、処理されたデータを蓄積保存およびデータ解析装置2に送信するステップを備える。データ収集装置1aでの音声データ取込ステップD2は、コミュニケーションを行う対象ユーザの音声等を、マイク装置10を通じて収集の上音声データとして取り込み、音声データを解析に適するデータ形式に変換処理し、処理された音声データを蓄積保存およびデータ解析装置2に送信するステップを備える。上述した映像データ取込ステップD1と、音声データ取込ステップD2とを含むステップを、データ取込ステップとする。前記のデータ取込ステップにおいて、データ収集装置1aでは、共通した時間設定が予めセットされ、評価対象のコミュニケーションの映像データと音声データが収集された時間を記録する機能を持ち、映像データと音声データそれぞれの記録された時間データは映像データと音声データとともにデータ解析装置2に送信されるステップを含む。上記に例として説明した、データ収集装置1aの機能は、データ収集装置1bでも少なくとも同じ機能と装置を持つことが望ましい。 FIG. 3 shows an example of the video data capturing step and the audio data capturing step in the data collection device 1a. As shown in the example of FIG. 3, in the video data capturing step D1 in the data collecting device 1a, a video image such as the facial expression of the target user who communicates is captured through the camera device 3 and captured as video data. It is provided with a step of converting the image data into a data format suitable for analysis and transmitting the processed data to the storage/storage and data analysis device 2. The voice data capturing step D2 in the data collection device 1a captures the voice or the like of the target user who communicates with the microphone device 10 as collected voice data, converts the voice data into a data format suitable for analysis, and processes the data. The method further comprises the step of storing the stored voice data and transmitting it to the data analysis and storage device 2. The step including the above-mentioned video data acquisition step D1 and audio data acquisition step D2 is referred to as a data acquisition step. In the data acquisition step, in the data collection device 1a, the common time setting is preset, and the data collection device 1a has a function of recording the time when the video data and the audio data of the communication to be evaluated are recorded. Each recorded time data includes the step of being transmitted to the data analysis device 2 along with the video data and the audio data. As for the functions of the data collection device 1a described above as an example, it is desirable that the data collection device 1b has at least the same functions and devices.

前記のデータ収集装置1aとデータ収集装置1bで実現される前記の各機能部は、映像撮影機能を持つ内部接続あるいは外部接続されたウェブカメラやビデオカメラ、音声収集機能を持つ内部接続あるいは外部接続されたマイク、入出力IFや、CPU、RAM、GPUなどのプロセッサとデータ蓄積用のハードウェア部品により基本的に実現される。 Each of the functional units realized by the data collection device 1a and the data collection device 1b is a web camera or a video camera internally or externally connected with an image capturing function, and an internal or external connection having an audio collecting function. It is basically realized by a built-in microphone, input/output IF, a processor such as CPU, RAM, and GPU, and hardware parts for data storage.

前記のデータ収集装置1aとデータ収集装置1bは、評価対象となるユーザ一もしくは複数のユーザに関し、その表情等の動画データとその音声等のデータを取り込む。評価対象となるユーザの人数の増加に応じて、同じ機能を有するデータ収集装置を増やすことも好ましい。その際、データ収集装置1aとデータ収集装置1bは公知のコンピュータやタブレット端末、スマートフォン等の携帯端末、ウェアラブル端末あるいはクレジットカードサイズの簡素なコンピュータやFPGAのようなプログラマブルロジックデバイス装置などを使用してもよい。また、カメラ装置とマイク装置についてデータ収集装置1aとデータ収集装置1bに備え付けられたものを使用してもよいし、外部装置として公知のカメラ装置やマイク装置、あるいは両方の機能を持つ装置をデータ収集装置1aとデータ収集装置1bに取り付け、それらを使用してもよい。 The data collecting device 1a and the data collecting device 1b fetch moving image data such as facial expressions and data such as voices of one or more users to be evaluated. It is also preferable to increase the number of data collection devices having the same function as the number of users to be evaluated increases. At that time, the data collection device 1a and the data collection device 1b use well-known computers, tablet terminals, mobile terminals such as smartphones, wearable terminals or computers with a simple credit card size, programmable logic device devices such as FPGAs, etc. Good. As the camera device and the microphone device, those provided in the data collection device 1a and the data collection device 1b may be used, or a device known as an external device or a device having both functions may be used as the data. You may attach them to the collection device 1a and the data collection device 1b, and use them.

前記のデータ収集装置1aとデータ収集装置1bは、取り込んだ動画データと音声データをデータ解析装置2での処理に適した形式に適宜変換する。前記の取り込んだデータと、変換されたデータはデータ収集装置1aとデータ収集装置1bで蓄積される。前記の変換に際し、データ収集装置1aとデータ収集装置1bは、動画データと音声データをMP3やWAV、WMA、WMVやMP2またはMP4など公知の形式にデータ変換し、変換した前記データを有線ネットワーク媒体あるいは無線ネットワーク媒体などで構成される非限定的なネットワークを介してデータ解析装置2へと送る。 The data collection device 1a and the data collection device 1b appropriately convert the captured moving image data and audio data into a format suitable for processing by the data analysis device 2. The acquired data and the converted data are accumulated in the data collecting device 1a and the data collecting device 1b. In the conversion, the data collection device 1a and the data collection device 1b convert the moving image data and the audio data into a known format such as MP3, WAV, WMA, WMV, MP2 or MP4, and the converted data is a wired network medium. Alternatively, it is sent to the data analysis device 2 via a non-limiting network configured by a wireless network medium or the like.

図1に例として示されるデータ収集装置1bは、上述のデータ収集装置1aと同じ役割と、少なくとも同等かそれ以上の機能を持ち、データ取込ステップを実現する機能を有する。こうしたデータ収集装置は少なくとも1台以上用いることが好ましいが、コミュニケーションのデータを収集する対象ユーザの人数に応じて、データ収集装置1aと同じ役割と、少なくとも同等かそれ以上の機能を持つ装置の台数を増やして用いることも好ましい。 The data collection device 1b shown as an example in FIG. 1 has the same role as the above-described data collection device 1a, and at least the same function or higher, and has the function of realizing the data acquisition step. It is preferable to use at least one such data collection device, but depending on the number of target users who collect communication data, the number of devices having the same role as the data collection device 1a and at least the same or more functions. It is also preferable to increase and use.

図2で例として示される通り、データ解析装置2は、データ収集装置1aおよびデータ収集装置1bから収集した映像データおよび音声データに対し、それぞれに対応する人工知能技術による解析を行い、映像データと音声データを数値データやテキストデータに変換する機能部を有する。データ解析装置2は、前記の変換されたデータ結果を取得し、時系列に整理統合する機能部と、前記整理統合データを分析し、整理統合されたデータに基づき取得した差分データを分析する機能部と、前記分析から得られたデータから、業務目的に応じ予め決められた評価軸に沿い評価結果を算出する機能部と、評価結果を出力する機能部と蓄積する機能部を有する。前記の評価結果の出力は表示装置で前記評価結果を表示する。以下、これら各機能とその装置構成について具体的に説明する。 As shown in FIG. 2 as an example, the data analysis device 2 analyzes the video data and the audio data collected from the data collection device 1a and the data collection device 1b by the corresponding artificial intelligence technology to obtain the video data. It has a functional unit that converts voice data into numerical data and text data. The data analysis device 2 obtains the converted data results, consolidates them in time series, and analyzes the consolidated data, and analyzes the difference data acquired based on the consolidated data. And a functional unit that calculates an evaluation result from the data obtained from the analysis along an evaluation axis that is predetermined according to the business purpose, a functional unit that outputs the evaluation result, and a functional unit that accumulates. The output of the evaluation result is displayed on the display device. Hereinafter, each of these functions and the device configuration thereof will be specifically described.

前記のデータ解析装置2は、映像データ受信部20、音声データ受信部21、映像データ解析部22、音声データ解析部30、映像データ及び音声データ処理部(時系列整理及び統合)40、映像データ及び音声データ解析(差分データ取得、分析及び評価)部41、解析結果出力(評価結果出力)部42、及びデータ蓄積部43を有する。これらの各機能部は、入出力IFや、CPU、RAM、GPUなどのプロセッサとデータ蓄積用のハードウェア部品により基本的に実現される。前記のデータ解析装置2が、データ収集装置1a、データ収集装置1b、少なくともいずれかの機能と役割を兼ねて持ち、例えば前記の各機能部を手段として機能させるプログラムを含む装置としてもよい。 The data analysis device 2 includes the video data receiving unit 20, the audio data receiving unit 21, the video data analyzing unit 22, the audio data analyzing unit 30, the video data and audio data processing unit (time series arrangement and integration) 40, the video data. And a voice data analysis (difference data acquisition, analysis and evaluation) unit 41, an analysis result output (evaluation result output) unit 42, and a data storage unit 43. Each of these functional units is basically realized by an input/output IF, a processor such as CPU, RAM, and GPU, and hardware parts for data storage. The data analysis device 2 may have a function and a role of at least one of the data collection device 1a and the data collection device 1b, and may be, for example, a device including a program that causes each of the functional units described above to function as means.

図2に例として示されるように、データ収集装置1aとデータ収集装置1bからデータ解析装置2へ送信されてきた映像データと音声データとそれぞれのデータが収集された時間データは、データ解析装置2の映像データ解析部22と音声データ解析部30で、AIプログラム解析部50を用いてそれぞれ解析される。 As shown as an example in FIG. 2, the video data and the audio data transmitted from the data collection device 1a and the data collection device 1b to the data analysis device 2 and the time data when the respective data are collected are the data analysis device 2 The video data analysis unit 22 and the audio data analysis unit 30 are analyzed using the AI program analysis unit 50, respectively.

図2に例として示される、AIプログラム解析部50は、その際呼び出されるAIプログラムであり、それらのAIプログラムは解析目的に応じ、少なくとも一つもしくは複数の公知の人工知能技術を含むAIプログラム、AIライブラリまたはAIプラットフォーム(総合サービス)が使用される。それらのAIプログラム、AIライブラリまたはAIプラットフォーム(総合サービス)は、外部のデータベース103上に配置されたAIプログラム、AIライブラリまたはAIプラットフォーム(総合サービス)をインターネット102のウェブサーバーを介してAPIで呼び出し、命令と解析するデータの送信や、解析結果の受信などを行っても良い。または、少なくとも一つもしくは複数のAIプログラム、AIライブラリやAIプラットフォーム(総合サービス)をデータ解析装置2内あるいはデータ収集装置1aやデータ収集装置1b内に配置して、それを呼び出し、命令と解析するデータの送信や、解析結果の受信など、例えば前記の各機能部を各手段として機能させるプログラムを含む装置としてもよい。 The AI program analysis unit 50 shown as an example in FIG. 2 is an AI program that is called at that time, and these AI programs include at least one or a plurality of known artificial intelligence technologies according to the analysis purpose. AI library or AI platform (comprehensive service) is used. The AI program, AI library or AI platform (general service) calls the AI program, AI library or AI platform (general service) arranged on the external database 103 with an API via the web server of the Internet 102, The command and data to be analyzed may be transmitted, and the analysis result may be received. Alternatively, at least one or a plurality of AI programs, AI libraries, and AI platforms (general services) are arranged in the data analysis device 2 or the data collection device 1a or the data collection device 1b, and are called to analyze the commands. For example, a device including a program that causes each of the functional units described above to function as each unit, such as data transmission and analysis result reception, may be used.

図2と例として示されるように、解析結果出力部42では、映像データ及び音声データ解析部41で生成された評価結果を視覚的に見やすく且つそれらの評価結果をもとに業務上望ましい結果を得るために活用しやすい表現に変換し、出力する。 As shown in FIG. 2 and as an example, the analysis result output unit 42 makes it easy to visually see the evaluation results generated by the video data and audio data analysis unit 41, and based on those evaluation results, a desired result for business is displayed. It is converted into an expression that is easy to use and output in order to obtain it.

図2に例として示されるように、表示装置44は、データ解析装置2の解析結果出力部42で出力された評価結果を表示する。これに際して、データ解析装置2に備えられたディスプレイ装置、データ解析装置2に接続されたディスプレイ装置、データ解析装置2に有線または無線でつながったコンピュータ端末上のディスプレイ装置、データ解析装置2に有線または無線でつながったタブレット端末や携帯電話(スマートフォン)いずれかのディスプレイ装置、あるいはデータ解析装置2に有線または無線でつながった大型ディスプレイ装置などの、ディスプレイを備える物理装置を使用して表示してもよい。または、データ解析装置2の解析結果出力部42で出力された評価結果データを、データ解析装置2からインターネットを介しWebサーバーにデータを送信し、ユーザはインターネットを通じて、携帯端末やコンピュータ端末、タブレット端末などのディスプレイを備える物理装置でその結果を表示してもよい。左記の出力は、図4に例として記載された、出力ステップS6 の過程の一例である。 As shown as an example in FIG. 2, the display device 44 displays the evaluation result output by the analysis result output unit 42 of the data analysis device 2. At this time, a display device provided in the data analysis device 2, a display device connected to the data analysis device 2, a display device on a computer terminal wired or wirelessly connected to the data analysis device 2, a data analysis device 2 wired or Display may be performed using a physical device having a display, such as a display device that is either wirelessly connected to a tablet terminal or a mobile phone (smartphone), or a large display device that is connected to the data analysis device 2 by wire or wirelessly. .. Alternatively, the evaluation result data output by the analysis result output unit 42 of the data analysis device 2 is transmitted from the data analysis device 2 to a Web server via the Internet, and the user can access the mobile terminal, computer terminal, or tablet terminal via the Internet. The result may be displayed on a physical device having a display such as. The output on the left is an example of the process of the output step S6 described as an example in FIG.

図2に例として示されるように、データ蓄積部43は、データ解析装置2内の映像データ解析部22、音声データ解析部30、AIプログラム解析部50、映像データ及び音声データ処理部40、映像データ及び音声データ解析部41、解析結果出力部42で得たデータを蓄積する。これに際して、データ蓄積部43はデータ解析装置2に備えられた、例えばハードディスクやSSDなどのデータ蓄積用のストレージ装置を活用しても良いし、または、データ解析装置2に接続された外部記憶装置として例えばUSBメモリ、SDカードなどの電子記憶媒体を使用しても良い。あるいは、データ解析装置2に有線または無線でつながったインターネット上の記憶媒体として、クラウドストレージなどの電子記憶媒体を使用しても良い。蓄積されたデータから、任意の評価対象ユーザの複数の会話ケースに関して、同様なデータ分析を行い、そこから生成される評価結果を比較することも好ましい。 As shown as an example in FIG. 2, the data storage unit 43 includes a video data analysis unit 22, a voice data analysis unit 30, an AI program analysis unit 50, a video data and voice data processing unit 40, a video in the data analysis device 2. The data and voice data analysis unit 41 and the data obtained by the analysis result output unit 42 are accumulated. At this time, the data storage unit 43 may utilize a storage device such as a hard disk or SSD for data storage provided in the data analysis device 2, or an external storage device connected to the data analysis device 2. For example, an electronic storage medium such as a USB memory or an SD card may be used. Alternatively, an electronic storage medium such as a cloud storage may be used as the storage medium on the Internet that is connected to the data analysis device 2 by wire or wirelessly. It is also preferable to perform similar data analysis on a plurality of conversation cases of an arbitrary evaluation target user from the accumulated data and compare the evaluation results generated from the same data analysis.

図4に例として示されるように、データ解析装置2に含まれる、映像データ解析部22は、映像解析ステップS1 を行う。映像解析ステップS1 では、AI呼出部23で、データ収集装置1aまたはデータ収集装置1bから受信した映像データを解析するためのAIプログラム映像解析部51(映像データに対応する人工知能技術)を呼び出し、解析命令及びデータ送信部24で解析命令と、受信した映像データをAIプログラム映像解析部51へ送信する。その際用いられる解析命令には、業務目的に応じて、映像データから例えばユーザの表情に関する分析やその感情分析を行う解析命令が含まれる。AIプログラム映像解析部51ではそれらの解析命令と解析に使用する映像データを受けとり、命令された解析処理を実行し、(第1数値データ)に変換した結果を生成する。ここで用いる人工知能技術は、コミュニケーション評価において、予め定められた業務目的に沿い最適な技術や手法を用いることが好ましい。AIプログラム映像解析部51で左記のように解析され生成された結果データは、解析結果取得部25で受け取られ、取得データ分析部26で業務上必要な観点でさらにデータ分析が実施される。AIプログラム映像解析部51での解析から得られる結果(第1数値データ)は、例えば、得られた映像データから評価対象ユーザの表情に関し、図4に例えば示される、喜楽、悲哀、怒気、驚愕、中立、嫌悪、軽侮、恐れなどのような表情カテゴリー別に数値化された値を出力する。この際に用いる、表情カテゴリーの種別は、公知の知見に基づいた区分が用いられる。 As shown as an example in FIG. 4, the video data analysis unit 22 included in the data analysis device 2 performs a video analysis step S1. In the video analysis step S1, the AI calling unit 23 calls the AI program video analysis unit 51 (artificial intelligence technology corresponding to video data) for analyzing the video data received from the data collection device 1a or the data collection device 1b, The analysis command and data transmission unit 24 transmits the analysis command and the received video data to the AI program video analysis unit 51. The analysis command used at that time includes, for example, an analysis command for analyzing the facial expression of the user or the emotion of the user from the video data according to the business purpose. The AI program image analysis unit 51 receives the analysis instruction and the image data used for the analysis, executes the instructed analysis process, and generates a result converted into (first numerical data). As for the artificial intelligence technology used here, in communication evaluation, it is preferable to use an optimum technology or method according to a predetermined business purpose. The result data analyzed and generated by the AI program image analysis unit 51 as described on the left is received by the analysis result acquisition unit 25, and the acquired data analysis unit 26 further performs data analysis from the viewpoint necessary for the business. The result (first numerical data) obtained from the analysis by the AI program image analysis unit 51 is, for example, the pleasure, sorrow, anger, and startleness shown in FIG. 4 regarding the facial expression of the user to be evaluated from the obtained image data. Outputs numerical values for each facial expression category such as neutral, dislike, disrespect, fear, etc. As the type of facial expression category used at this time, a classification based on known knowledge is used.

前記のようにAIプログラム映像解析部51から出力され解析結果取得部25で受け取られた解析結果は、取得データ分析部26で、予め定められた業務上必要な観点に沿う内容で、データ分析が実施される。取得データ分析部26での分析として、例えば下記のような分析が実行される。分析手法は予め定められた業務目的に応じて最適な選択を行うことが好ましく、例えば下記(1)と(3)のみの分析とするなどの手法が選択されることも好ましい。
(1)得られた表情カテゴリー別の数値を、発話したユーザ別に区分する。
(2)発話したユーザ別に区分した、表情カテゴリー別の数値を相対化した値に変換する。例えば、ユーザAについて得た(第1数値データ)が、(表情カテゴリー:喜楽)の数値が5.0、(表情カテゴリー:中立)の数値が3.0、(表情カテゴリー:怒気)が2.0の場合、それぞれの値を合計値(5.0+3.0+2.0=10.0)で割り、比率の値(%)に変換する(前記例では右記数値に変換される:喜楽=50%、中立=30%、怒気=20%)。
(3)(2)で得られた表情カテゴリー別の数値を、データ収集時間にもとづき時系列に整理する。
ここで解析される、映像データの時間の区分は業務目的に応じ最適な区分を用いることが好ましい。例えば、前記データ収集装置1aで収集された映像データを、収集時点に沿い10分の1秒ごとに映像データを切り出し、表情データを人工知能技術で数値化する手法が含まれる。なお、これらの処理は予め決められた業務目的に応じて最適な処理方法と内容を選択することが好ましい。取得データ分析部26で分析されたデータは、映像データ及び音声データ処理部40に送信される。
As described above, the analysis result output from the AI program video analysis unit 51 and received by the analysis result acquisition unit 25 is analyzed by the acquired data analysis unit 26 in accordance with a predetermined viewpoint necessary for work and data analysis. Be implemented. As the analysis in the acquired data analysis unit 26, for example, the following analysis is executed. It is preferable to select the most appropriate analysis method according to a predetermined business purpose, and it is also preferable to select a method such as the analysis of only the following (1) and (3).
(1) The obtained numerical values for each facial expression category are classified for each user who speaks.
(2) The numerical values for each facial expression category, which are classified according to the user who speaks, are converted into a relative value. For example, the (first numerical value data) obtained for the user A has a numerical value of 5.0 for (expression category: pleasure), 3.0 for (expression category: neutral), and 2. for (expression category: anger). In the case of 0, each value is divided by the total value (5.0+3.0+2.0=10.0) and converted into a ratio value (%) (in the above example, it is converted into the numerical value on the right: pleasure=50% , Neutral = 30%, anger = 20%).
(3) The numerical values for each facial expression category obtained in (2) are arranged in a time series based on the data collection time.
It is preferable to use the optimum time division of the video data analyzed here according to the business purpose. For example, a method is included in which the video data collected by the data collection device 1a is cut out every tenth of a second along the time of collection and the facial expression data is digitized by an artificial intelligence technique. In addition, it is preferable to select an optimum processing method and content for these processings according to a predetermined business purpose. The data analyzed by the acquired data analysis unit 26 is transmitted to the video data and audio data processing unit 40.

図4に例として示されるように、データ解析装置2に含まれる、音声データ解析部30は、音声解析ステップS2 を行う。音声解析ステップS2 では、AI呼出部31を有し、受信した音声データを解析するためのAIプログラム音声解析部52(音声データに対応する人工知能技術)を呼び出し、解析命令及びデータ送信部32で解析命令とあわせてデータをAIプログラム音声解析部52に含まれる(音声データに対応する人工知能技術)へ送信する。AIプログラム音声解析部52に含まれる(音声データに対応する人工知能技術)ではそれらの指示とデータを受けとり、解析を実行し結果を生成する。その際用いられる解析命令には、業務目的に応じて、音声データから例えば発話された言葉について抽出し、それらをテキストデータ に変換する処理を行う。次に、前記テキストデータに関し、AIプログラム音声解析部52に含まれる(テキストデータに対応する人工知能技術)でそのテキスト内容の感情度合いを分析し数値化する処理を例えば行う。前記の感情度合いの分析は例えば肯定度と否定度の度合いを分析し、その度合いに応じた数値化をする処理を含む(肯否度分析)。ここで用いる人工知能技術は、コミュニケーション評価において、予め定められた業務目的に沿い最適な手法や技術を用いることが好ましい。前記テキストデータを解析するためのAIプログラム(テキストデータに対応する人工知能技術)を呼び出し、解析命令及びデータ送信部32で解析命令とあわせてデータをAIプログラム音声解析部52に含まれる(テキストデータに対応する人工知能技術)へ送信する。AIプログラム音声解析部52に含まれる(テキストデータに対応する人工知能技術)ではそれらの指示とデータを受けとり、解析を実行し結果を生成し、AIプログラムの解析結果(第2数値データ)を得る。前記で得たAIプログラムの解析結果(第2数値データ)は、解析結果取得部33で受け取り、取得データ分析部34で分析された後、映像データ及び音声データ処理部40に送信される。前記で得た解析結果(第2数値データ)は、発話されたテキスト内容の感情度合いを数値化したデータ(肯否度分析値)を含む。 または、発話からテキスト化されたデータ(テキストデータ)からキーワードを抽出し、キーワード分析を行うことも望ましい。これらの解析方法は業務目的に応じて、最適な方法や技術を選択し使用することが好ましい。 As shown as an example in FIG. 4, the voice data analysis unit 30 included in the data analysis device 2 performs a voice analysis step S2. In the voice analysis step S2, the AI calling unit 31 is provided, and the AI program voice analysis unit 52 (artificial intelligence technology corresponding to voice data) for analyzing the received voice data is called, and the analysis command and data transmission unit 32 is used. The data together with the analysis command is transmitted to (artificial intelligence technology corresponding to the voice data) included in the AI program voice analysis unit 52. The AI program voice analysis unit 52 (artificial intelligence technology corresponding to voice data) receives these instructions and data, executes analysis, and generates a result. For the analysis command used at that time, a process of extracting, for example, spoken words from voice data and converting them into text data according to the business purpose is performed. Next, with respect to the text data, for example, a process of analyzing the emotion level of the text content and digitizing it by (artificial intelligence technology corresponding to the text data) included in the AI program voice analysis unit 52 is performed. The above-mentioned analysis of the emotional degree includes, for example, a process of analyzing the degree of the affirmation degree and the degree of denial, and digitizing the degree (acceptability degree analysis). As for the artificial intelligence technology used here, in communication evaluation, it is preferable to use an optimal method or technology according to a predetermined business purpose. An AI program for analyzing the text data (artificial intelligence technology corresponding to the text data) is called, and the data is included in the AI program voice analysis unit 52 together with the analysis command in the analysis command and data transmission unit 32 (text data). (Artificial intelligence technology corresponding to the). The AI program voice analysis unit 52 (artificial intelligence technology corresponding to text data) receives these instructions and data, executes analysis and generates a result, and obtains an analysis result (second numerical data) of the AI program. .. The analysis result (second numerical data) of the AI program obtained above is received by the analysis result acquisition unit 33, analyzed by the acquired data analysis unit 34, and then transmitted to the video data and audio data processing unit 40. The analysis result (second numerical data) obtained as described above includes data (quantity/acceptability analysis value) in which the emotional degree of the uttered text contents is digitized. Alternatively, it is also desirable to extract the keyword from the data (text data) converted into text from the utterance and perform the keyword analysis. For these analysis methods, it is preferable to select and use the most suitable method or technique according to the business purpose.

前記データ解析装置2の、AIプログラム音声解析部52に含まれる(音声データに対応する人工知能技術)と(テキストデータに対応する人工知能技術)への解析命令に含まれる処理は、例えば下記のような処理が少なくとも一つ以上含まれる。これらの解析命令に含まれる処理は予め決められた業務目的に応じて、最適な処理を選択し前記命令に含めることが好ましい。
(a)音声データから発話された言葉や単語を抽出し、それらをテキストデータに変換する処理。
(b)発話からテキスト化されたデータからキーワードを抽出する処理。
(c)抽出されたテキストデータの言葉や単語について、ユーザの感情的な側面から肯定的な意味合いを持つか否定的な意味合いを持つかに関する解析を行い、肯定的な度合いか否定的な度合いを示す数値(第2数値データ(肯否度分析値))を出力する処理。
The processing included in the analysis command to (artificial intelligence technology corresponding to voice data) and (artificial intelligence technology corresponding to text data) included in the AI program voice analysis unit 52 of the data analysis device 2 is, for example, as follows. At least one such process is included. As for the processing included in these analysis commands, it is preferable to select the optimum processing according to a predetermined business purpose and include it in the command.
(A) A process of extracting spoken words or words from voice data and converting them into text data.
(B) A process of extracting a keyword from the data converted into text from the utterance.
(C) Regarding the extracted words and words in the text data, we analyze whether they have a positive meaning or a negative meaning from the emotional side of the user, and determine the positive or negative degree. A process of outputting the indicated numerical value (second numerical data (acceptability analysis value)).

前記データ解析装置2に含まれる解析結果取得部33では、AIプログラム音声解析部52に含まれる(音声データに対応する人工知能技術)と(テキストデータに対応する人工知能技術)から解析され生成されたデータを受け取り、取得データ分析部34で、予め定められた業務上必要な観点に沿う内容で、データ分析が実施される。ここで行うデータ分析の方法やその分析に用いるデータ定義の方法は、予め決められた業務目的に応じて最適な処理方法と内容を選択することが好ましい。取得データ分析部34で分析されたデータは、映像データ及び音声データ処理部40に送信される。取得データ分析部34での分析では、例えば下記のような分析のうち少なくとも一つ以上が実行される。
(1)得られたテキストデータを発話したユーザ主体別に区分する。
(2)得られたテキストデータに含まれる、文字数を算出する。
(3)発話されたテキスト1文字あたりの発話速度(1文字あたりにかかる秒数)を算出し出力する。
(4)音声データが収集された時間データに基づき、発話された時間帯と発話されていない時間帯に区分して、それぞれにフラグ付けする処理を行う。フラグ付けは例えば、発話された時間帯は発話フラグを与え、発話していない時間に関して、片方のユーザが発話しており、他方のユーザが無音の場合、発話していないユーザが”傾聴”しているとの傾聴フラグを与えるなどの処理を含む。前記のフラグ付けは左記定義に応じて自動付与される手法が含まれる。または業務目的に応じて、評価者が行うことも好ましい。
(5)発話されたテキストが質問の意図を含む発話に関し、質問としてフラグ付けがなされる。これには所定の質問語彙DB(データベース)に基づき、前記の発話されたテキストに質問語彙が含まれるかで判別するなどの公知の手法が用いられる。または、または業務目的に応じて、評価者が質問と判別しフラグ付けを行うことも好ましい。
The analysis result acquisition unit 33 included in the data analysis device 2 is analyzed and generated from (artificial intelligence technology corresponding to voice data) and (artificial intelligence technology corresponding to text data) included in the AI program voice analysis unit 52. The acquired data is received, and the acquired data analysis unit 34 analyzes the data in accordance with a predetermined viewpoint necessary for the business. As for the method of data analysis performed here and the method of data definition used for the analysis, it is preferable to select an optimum processing method and contents according to a predetermined business purpose. The data analyzed by the acquired data analysis unit 34 is transmitted to the video data and audio data processing unit 40. In the analysis by the acquired data analysis unit 34, for example, at least one of the following analyzes is executed.
(1) The obtained text data is classified according to the main subject of the utterance.
(2) The number of characters included in the obtained text data is calculated.
(3) The utterance speed (the number of seconds required for each character) per one character of the uttered text is calculated and output.
(4) Based on the collected time data of the voice data, the time zone in which the speech is uttered and the time zone in which the speech data is not uttered are classified, and a process of flagging each is performed. Flagging, for example, gives an utterance flag during the time of utterance, and when one user is uttering and the other user is silent about the time when not uttering, the user who is not uttering "listens" It includes processing such as giving a listening flag indicating that the The aforementioned flagging includes a method that is automatically added according to the definition on the left. Alternatively, it is also preferable that the evaluator performs it according to the business purpose.
(5) An utterance in which the uttered text includes the intent of the question is flagged as a question. For this, a known method such as determining based on a predetermined question vocabulary DB (database) whether the uttered text includes the question vocabulary is used. Alternatively, or according to the business purpose, it is also preferable that the evaluator discriminates the question and flags it.

図4に例として示されるように、映像データ及び音声データ処理部40では、統合ステップS3 を実施する。統合ステップS3 では、映像データ解析部22と音声データ解析部30から送られた解析結果データを映像データ及び音声データ処理部40で受け取り、映像データと音声データがデータ収集装置でカメラとマイクで収集された時間データにあわせてユーザ別にデータ整理およびデータ統合し、整理統合データを得る処理を行う。図5には例として、映像データ及び音声データ処理部40で行われる処理結果から、任意のユーザに関し、前記のデータ収集装置上での収集された時間データにあわせてデータが整理統合され、整理統合データを得た結果が示されている。映像データ及び音声データ処理部40で処理されたデータは、映像データ及び音声データ解析部41に送信される。映像データ及び音声データ解析部41では、差分データ取得ステップS4と評価ステップS5を実施し、そこから得た評価結果は解析結果出力部42に送られ出力(出力ステップS6)される。前記の評価結果はデータ蓄積部43で蓄積され、表示装置44で表示される。映像データ及び音声データ処理部40で行うデータ処理は、上述の処理手法に限定されず、業務目的に応じて最適な処理方法と内容を選択することが好ましい。 As shown as an example in FIG. 4, the video data and audio data processing unit 40 performs an integration step S3. In the integration step S3, the analysis result data sent from the video data analysis unit 22 and the audio data analysis unit 30 is received by the video data and audio data processing unit 40, and the video data and the audio data are collected by the camera and the microphone by the data collection device. Data consolidation and data integration for each user is performed according to the obtained time data, and processing for obtaining consolidation integrated data is performed. In FIG. 5, as an example, from the processing result performed by the video data and audio data processing unit 40, data is sorted and integrated for any user according to the time data collected on the data collection device. The results obtained with integrated data are shown. The data processed by the video data/audio data processing unit 40 is transmitted to the video data/audio data analysis unit 41. The video data and audio data analysis unit 41 executes the difference data acquisition step S4 and the evaluation step S5, and the evaluation result obtained therefrom is sent to the analysis result output unit 42 and output (output step S6). The evaluation result is stored in the data storage unit 43 and displayed on the display device 44. The data processing performed by the video data and audio data processing unit 40 is not limited to the above-described processing method, and it is preferable to select the optimum processing method and content according to the business purpose.

前記統合ステップS3 から、ユーザ別に整理統合データを得た上で、評価対象ユーザのコミュニケーションスキルの評価を行うことで、評価対象となるユーザ自身が自分のコミュニケーションを客観的に可視化し、自身のコミュニケーション実施結果や自身のコミュニケーションスキルに関し、振り返ることを容易にし、それに基づきコミュニケーション改善への取り組みをしやすくなる。また、コミュニケーションスキル評価が高い他ユーザがいる場合、その高評価ユーザのコミュニケーションスキルが客観的に可視化されるため、それをベストプラクティスとして位置づけ、別ユーザのコミュニケーション改善の支援に役立てられる効果が見込まれる。 From the integration step S3, the integrated data for each user is obtained, and then the communication skill of the evaluation target user is evaluated, so that the evaluation target user himself/herself visualizes his/her own communication, and the own communication is performed. It will be easier to look back on the implementation results and your communication skills, and it will be easier for you to work on communication improvement based on that. In addition, if there is another user who has a high communication skill evaluation, the communication skill of the highly evaluated user is objectively visualized, so it is positioned as a best practice, and it is expected that it will be useful for helping another user improve communication. ..

図5に例として示されるように、前記の統合ステップS3 では前述の整理統合データをもとに基づき、コミュニケーションイベントE1を定めるステップが含まれる。そのステップは、映像データ及び音声データ処理部40で行われる処理に含まれ、例えば、評価対象のコミュニケーションの中で、任意のユーザが任意の時点で行った発話または傾聴などの一行為を一つのコミュニケーションイベントE1として、コミュニケーションを評価する最小単位として定める。 As shown in FIG. 5 as an example, the integration step S3 includes a step of defining the communication event E1 based on the above-mentioned consolidated integration data. The step is included in the processing performed by the video data and audio data processing unit 40. For example, in the communication of the evaluation target, one action such as utterance or listening performed by any user at any time is performed. The communication event E1 is defined as the minimum unit for evaluating communication.

前記のように、コミュニケーションを評価する最小単位として、ユーザが行うコミュニケーションイベントE1ごとに評価を算出することで、評価対象ユーザが自身のどのコミュニケーション行為に関して、改善を図るべき要素か、あるいは改善が不要な要素かを認識するための支援材料となる。 As described above, by calculating the evaluation for each communication event E1 performed by the user as the minimum unit for evaluating communication, which communication action the user to be evaluated should improve, or no improvement is necessary. It becomes a supporting material for recognizing whether it is a proper element.

図6に例として示されるように、前記の映像データ及び音声データ処理部40で行われる統合ステップS3 ではコミュニケーション総体E2を定めるステップが含まれる。コミュニケーション総体E2は、評価対象となるコミュニケーション行為の開始時点から終了時点までで定められる、コミュニケーション評価の対象であり、コミュニケーション総体E2には、時系列に沿い連続して、複数生成される、前記コミュニケーションイベントE1が含まれる。 As shown as an example in FIG. 6, the integration step S3 performed by the video data and audio data processing unit 40 includes a step of defining the communication whole E2. The communication whole E2 is a target of communication evaluation determined from the start time to the end time of the communication action to be evaluated, and the communication whole E2 is continuously generated in time series, and a plurality of the communication are generated. Event E1 is included.

図7に、映像データ及び音声データ解析部41で実施される、差分データ取得ステップS4 の処理に関する例が示される。図7の例では、ユーザAが行った任意のコミュニケーションイベントを評価するため、異なる時間における相手ユーザ(図7例ではユーザB)の反応の差分に対応する差分データを取得する例として、前記統合ステップS3で得た整理統合データをもとに、コミュニケーション相手であるユーザBの反応を異なる時点(時間)において取得し、その時点間の変化量を差分として取得している。この例では、ユーザAが行った任意のコミュニケーションイベントが、ユーザBからどのような反応を引き出したかについて差分データとして取得し可視化するため、下記の処理を行っている。
(1)評価対象となるコミュニケーションイベントを定める:図7の例では、前記統合ステップS3で得た整理統合データをもとに、ユーザAのコミュニケーションイベント(発話「本日は何かお探しですか」と、その発話時のユーザA表情)が評価対象となる。
(2)(1)で定められたコミュニケーションイベントに対する反応となるデータを定める:図7の例では、前記統合ステップS3で得た整理統合データをもとに、該当するユーザAのコミュニケーションイベントに対し、ユーザBが反応した時点のデータを定め、差分データ取得の算出に用いる。
(3)差分データを取得するための時点を定める:図7の例では、ユーザAコミュニケーションイベント時点(9:00:27〜9:00:32)をT2時点とし、その直前となる時点(9:00:22〜9:00:27)をT1時点と定める。ここで定める時点の選択や方法は、予め決められた業務目的に応じて最適な処理方法と内容を選択することが好ましい。例えば、相手ユーザの反応としての変化を算出する際、コミュニケーションイベント直後の時点を用いて、コミュニケーションイベント時点と比較することも好ましい。または、例えば、相手ユーザの反応としての変化を算出する際、コミュニケーションイベント直前時点と、コミュニケーションイベント直後時点で比較することも望ましい。
(4)差分データを取得する:図7の例では、前記統合ステップS3で得た整理統合データをもとに、各ユーザの表情カテゴリー別の数値に関し、T1時点からT2時点への変化量を算出し、差分データとして取得している。算出式は下記の通りである。なお、ここで用いる算出式は、予め決められた業務目的に応じて最適な算出式を用いることが望ましい。変化量を算出するために、前記統合ステップS3で得た整理統合データをもとに、例えばユーザ両者の表情数値をベクトル化し、ベクトルの変化量とベクトル角度の比較から、ユーザAに対するユーザBの反応の度合いを推定することも望ましい。
算出式例:(表情カテゴリー別に右記式で算出)(T2時点の数値)−(T1時点の数値)=(表情変化量)
ここでT2時点の数値とT1時点の数値は、一例として、下記方法で値を定めている。なお、対象ユーザの表情カテゴリー別データについて、ここで用いる時間区分は、業務目的に応じ最適な区分を用いることが好ましい。例えば、前記データ収集装置1aで収集された映像データを、収集時点に沿い10分の1秒ごとに切り出し、そのように切り出された映像データごとに、人工知能技術で表情データを数値化したデータを用いる手法が含まれる。
・T2時点の数値:対象時間内(9:00:27〜9:00:32)に収集された、対象ユーザの表情カテゴリー別データに関し、相加平均値を用い、T2時点の数値と定める。
・T1時点の数値:対象時間内(9:00:22〜9:00:27)に収集された、対象ユーザの表情カテゴリー別データに関し、相加平均値を用い、T2時点の数値と定める。
なお、上記で数値を定める方法は、上記方法に限定されず、業務目的に応じて最適な方法と内容を選択することが好ましい。
図7の例では、前記算出式を用いた、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する例として、T2時点とT1時点の変化から、ユーザ別に下記のように表情変化量の差分データを表情カテゴリー別に算出している。:
・ユーザA
喜楽:10.0%−5.0%=5.0%、悲哀:2.0%−1.0%=1.0%、怒気:1.0%−1.0%=0%、驚愕:3.0%−1.0%=2.0%、中立:75.0%−80.0%=(−5.0%)、嫌悪:3.0%−5.0%=(−2.0%)、軽侮:1.0%−1.0%=0%、恐れ:5.0%−6.0%=(−1.0%)
(上記表情値とその変化量を、該当コミュニケーションイベント時にユーザAがユーザBに対して意図した表情として推定)
・ユーザB
喜楽:1.0%−1.0%=0%、悲哀:10.0%−1.0%=9.0%、怒気:1.0%−1.0%=0%、驚愕:2.0%−1.0%=1.0%、中立:64.0%−85.0%=(−21.0%)、嫌悪:3.0%−5.0%=(−2.0%)、軽侮:4.0%−1.0%=3.0%、恐れ:15.0%−5.0%=10.0%
(上記表情値とその変化量を、ユーザAのコミュニケーションイベントに対するユーザBの反応表情として推定)
上記に例として示されているように、評価対象となるユーザのコミュニケーションイベントに関し評価するため、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する。前記評価対象ユーザのコミュニケーション総体に含まれる、コミュニケーションイベントすべてかその一部に関し、同様に異なる時間における相手ユーザの反応の差分に対応する差分データを取得する。上記の例に依らず、評価対象ユーザと相手ユーザが3名以上のケースでも、前記方法により、異なる時間における相手ユーザの反応の差分に対応する差分データを取得することも好ましい。
FIG. 7 shows an example of the processing of the difference data acquisition step S4 performed by the video data and audio data analysis unit 41. In the example of FIG. 7, in order to evaluate an arbitrary communication event performed by the user A, as an example of acquiring difference data corresponding to the difference in reaction of the other user (user B in the example of FIG. 7) at different times, the integration Based on the consolidated integrated data obtained in step S3, the reaction of the user B who is a communication partner is acquired at different time points (time), and the amount of change between the time points is acquired as a difference. In this example, the following processing is performed in order to obtain and visualize as differential data what kind of reaction an arbitrary communication event performed by the user A has elicited from the user B.
(1) Defining a communication event to be evaluated: In the example of FIG. 7, the communication event of the user A (utterance “What are you looking for today?” is based on the consolidated integrated data obtained in the integration step S3. And the facial expression of user A at the time of the utterance) is evaluated.
(2) Determine the data that will be the reaction to the communication event defined in (1): In the example of FIG. 7, for the communication event of the corresponding user A based on the consolidated integrated data obtained in the integrating step S3. , The data at the time when the user B reacts is determined and used for the calculation of the difference data acquisition.
(3) Defining the time point for obtaining the difference data: In the example of FIG. 7, the time point of the user A communication event (9:00:27 to 9:00:32) is set to T2 time point, and the time point immediately before that is (9 :00:22 to 9:00:27) is set as T1. Regarding the selection and method of the time point determined here, it is preferable to select the optimum processing method and content according to the predetermined business purpose. For example, when the change as the reaction of the other user is calculated, it is also preferable to use the time point immediately after the communication event and compare with the time point of the communication event. Alternatively, for example, when the change as the reaction of the other user is calculated, it is also desirable to compare the time immediately before the communication event and the time immediately after the communication event.
(4) Obtaining difference data: In the example of FIG. 7, the amount of change from the time point T1 to the time point T2 is calculated based on the consolidated integrated data obtained in the integrating step S3, with respect to the numerical values of each user's facial expression category. It is calculated and acquired as difference data. The calculation formula is as follows. The calculation formula used here is preferably an optimum calculation formula according to a predetermined business purpose. In order to calculate the amount of change, based on the consolidated integrated data obtained in the integration step S3, for example, the facial expression numerical values of both users are vectorized, and the amount of change of the vector and the vector angle are compared to determine that It is also desirable to estimate the degree of reaction.
Example of calculation formula: (calculated by the formula on the right for each facial expression category) (Numerical value at T2)-(Numerical value at T1) = (Facial expression change amount)
Here, as an example, the numerical value at the time point T2 and the numerical value at the time point T1 are determined by the following method. In addition, it is preferable to use an optimal time segment according to a business purpose for the time segment segment used for the facial expression category data of the target user. For example, the video data collected by the data collection device 1a is cut out every 1/10 second along the time of collection, and for each of the cut-out video data, data obtained by digitizing facial expression data by artificial intelligence technology. The method of using is included.
-Numerical value at time T2: Regarding the data for each facial expression category of the target user collected within the target time (9:00:27 to 9:00:32), the arithmetic mean value is used to determine the numerical value at the time T2.
-Numerical value at time point T1: Regarding the data by target user's facial expression category collected within the target time (9:00:22 to 9:00:27), the arithmetic mean value is used and determined as the numerical value at time point T2.
The method of determining the numerical value is not limited to the above method, and it is preferable to select the optimum method and content according to the business purpose.
In the example of FIG. 7, as an example of obtaining difference data corresponding to the difference in the reaction of the other user at different times using the above calculation formula, the facial expression change for each user is as follows from the change at time T2 and time T1. The amount difference data is calculated for each facial expression category. :
・User A
Pleasant: 10.0%-5.0%=5.0%, sorrow: 2.0%-1.0%=1.0%, anger: 1.0%-1.0%=0%, startle: 3.0%-1.0%=2.0%, neutral: 75.0%-80.0 %=(-5.0%), Aversion: 3.0%-5.0%=(-2.0%), Minority: 1.0%-1.0%=0%, Fear: 5.0%-6.0%=(-1.0%)
(The above facial expression value and its change amount are estimated as the facial expression intended by User A for User B at the relevant communication event)
-User B
Pleasant: 1.0%-1.0%=0%, sorrow: 10.0%-1.0%=9.0%, anger: 1.0%-1.0%=0%, startle: 2.0%-1.0%=1.0%, neutral: 64.0%-85.0 %=(−21.0%), Disgust: 3.0%−5.0%=(−2.0%), Minority: 4.0%−1.0%=3.0%, Fear: 15.0%−5.0%=10.0%
(The above facial expression value and its change amount are estimated as the reaction facial expression of user B to the communication event of user A)
As shown as an example above, in order to evaluate the communication event of the user to be evaluated, difference data corresponding to the difference in reaction of the other user at different times is acquired. Regarding all or some of the communication events included in the total communication of the user to be evaluated, difference data corresponding to the difference in reaction of the other user at different times is similarly acquired. It is also preferable to obtain the difference data corresponding to the difference in the reaction of the other user at different times by the method even in the case where there are three or more users to be evaluated and the other users regardless of the above example.

図7に例として示されるように、評価対象ユーザが行った、任意のコミュニケーションイベントに対して、そのコミュニケーションイベント時点を軸にして、相手ユーザの反応の変化量を時系列に分析し、算出することで、相手の反応を可視化できる。そのようなかたちで、評価対象ユーザが行った、任意のコミュニケーションイベントに対して、相手ユーザがどのような反応をしたか、あるいは反応をしていないかをデータとして可視化することで、評価対象ユーザが相手から期待した反応を得られたか、もしくは、期待した反応を得られなかったのかの度合いを客観的に評価することが出来る。その客観的な評価をもとに、自身が行ったコミュニケーションイベントの効果を“相手目線”で客観化し、自身のコミュニケーションスキルの改善に役立てることが出来る。 As shown as an example in FIG. 7, for an arbitrary communication event performed by the evaluation target user, the amount of change in the reaction of the other user is analyzed and calculated in time series around the time of the communication event. By doing so, the reaction of the other party can be visualized. In such a form, the evaluation target user can be visualized by visualizing how the other user reacts or does not react to an arbitrary communication event performed by the evaluation target user. It is possible to objectively evaluate the degree of whether the person got the expected reaction from the other party or did not get the expected reaction. Based on that objective evaluation, the effect of the communication event that one has done can be made objective from the "other's point of view", and it can be used to improve one's communication skills.

前記の例では、ユーザAとユーザBの間で行われた連続したコミュニケーションイベントに関し、ユーザAが行ったコミュニケーションイベントごとに上述のような差分データを算出し、連続したコミュニケーションイベントを含むコミュニケーション総体に関し、総合的な評価を付与するための一要素として活用する。すなわち、評価対象であるユーザAのコミュニケーションについての総合評価に反映する一要素として用いる。 In the above example, regarding the continuous communication events performed between the user A and the user B, the difference data as described above is calculated for each communication event performed by the user A, and regarding the communication whole including the continuous communication events. , Use it as an element to give a comprehensive evaluation. That is, it is used as one element reflected in the comprehensive evaluation of the communication of the user A, which is the evaluation target.

前記のようにコミュニケーション総体として捉え、そのコミュニケーション内容に関し、総合的に評価対象にすることで、業務上のコミュニケーション目的に沿った視点で、コミュニケーション実施の内容とその結果を総合的に把握し、業務目的を達成する効果を出すための視点で評価者が評価を行うことが可能となる。それにより、評価対象となるユーザが、業務目的に沿うコミュニケーション結果を得るための視点で、自身が行ったコミュニケーションを総体的な視点で客観化し、自身のコミュニケーションスキルの改善に役立てることが出来る。 As described above, by considering the communication as a whole and making the communication contents comprehensively evaluated, it is possible to comprehensively understand the contents of the communication implementation and its results from the perspective of the communication purpose in the business. It enables the evaluator to make an evaluation from the viewpoint of producing the effect of achieving the purpose. As a result, the user to be evaluated can objectively make the communication performed by himself/herself from a holistic viewpoint from the viewpoint of obtaining the communication result in line with the business purpose, and can be useful for improving his/her communication skill.

図8には、映像データ及び音声データ解析部41で実施される、評価ステップS5 に含まれるフローの全体概要が例示的に示されている。前記統合ステップS3 と前記差分データ取得ステップS4から得たデータを用いて、下記具体例にある、評価データ値(Val)付与の処理が実施される。この際、コミュニケーション総体の結果として事後に得た業務結果は例えば評価者により別途付与され、その評価データ値(Val)を用いる手法が含まれる。前記評価ステップS5 で用いる、コミュニケーション評価のための項目と評価基準値の選定、及び、その評価項目に関する評価テーブルは、業務上与えられるコミュニケーション目的に沿い定められる。下記に評価ステップS5 に含まれるフローの具体例を示す。
(1)
(1−1) コミュニケーションイベント単位で評価データ値(Val)を付与する(1001)。
(1−2) 前記1001のコミュニケーションイベント単位に付与された評価データ値(Val)を用い、それらのコミュニケーションイベントで構成されるコミュニケーション総体へ評価データ値(Val)を付与する(1002)。
(2)予め決められた分析項目のデータに関し、評価データ値(Val)をそれぞれ算出し付与する(1010)。
(3) コミュニケーション結果として事後に得た業務結果に基づき評価データ値(Val)を付与する(1020)。
(4)上記各フロー(1002)(1010)(1020)で取得した評価データ値(Val)について、予め業務に沿い与えられた、評価基準値と評価テーブルに基づき、それに対応する評価値(T)をそれぞれ算出し、それぞれの評価データ値(Val)の種類に応じ、予め定められた重み付け係数(W)を掛けて、評価値(Y)を算出する(1030)。
(5)上記1030で算出した評価値(Y)を前記の評価データ値(Val)種類すべてについて合計して最終評価(Z)を算出し、評価対象ユーザのコミュニケーションスキル、あるいは、評価対象ユーザのコミュニケーション内容に関する評価結果として付与する(1040)。
FIG. 8 exemplarily shows the overall outline of the flow included in the evaluation step S5, which is carried out by the video data and audio data analysis unit 41. Using the data obtained from the integration step S3 and the difference data acquisition step S4, the evaluation data value (Val) assignment process in the following specific example is performed. At this time, a work result obtained after the fact as a result of the communication overall is separately given by, for example, an evaluator, and a method of using the evaluation data value (Val) is included. The items for communication evaluation and the evaluation reference values used in the evaluation step S5, and the evaluation table for the evaluation items are determined according to the communication purpose given in the business. A specific example of the flow included in the evaluation step S5 is shown below.
(1)
(1-1) An evaluation data value (Val) is assigned in communication event units (1001).
(1-2) Using the evaluation data value (Val) given to each communication event unit of 1001, the evaluation data value (Val) is given to the communication whole composed of those communication events (1002).
(2) The evaluation data value (Val) is calculated and assigned to the data of the predetermined analysis item (1010).
(3) The evaluation data value (Val) is given as the communication result based on the work result obtained after the fact (1020).
(4) Regarding the evaluation data value (Val) acquired in each of the above flows (1002) (1010) (1020), the evaluation value (T) corresponding to it based on the evaluation reference value and the evaluation table given along with the work in advance. ) Are respectively calculated, and the evaluation value (Y) is calculated by multiplying a predetermined weighting coefficient (W) according to the type of each evaluation data value (Val) (1030).
(5) The final evaluation (Z) is calculated by summing the evaluation value (Y) calculated in 1030 above for all the evaluation data value (Val) types, and the communication skill of the evaluation target user or the evaluation target user It is given as an evaluation result regarding communication contents (1040).

図9には、評価ステップS5 に含まれる、コミュニケーションイベント単位で評価データ値(Val)を付与する(1001)フローが例示的に示されている。前記統合ステップS3 と前記差分データ取得ステップS4 から得たデータを用いて、下記評価データ値(Val)付与の処理を平行して実施する。
(1)評価対象となるユーザのコミュニケーションイベント(下記例では(A)が該当)と、それに対する相手ユーザの反応データ(下記例では(B)が該当)を定める(1001a)。
(図9の例で定められたデータ)
(A)評価対象データ(ユーザAコミュニケーションイベント):ユーザA発話「本日は何かお探しですか」と、ユーザA表情(前記表情変化量(ユーザA))を含むコミュニケーションイベント。
(B)(A)に対する、相手ユーザBの反応データ(ユーザBコミュニケーションイベント): ユーザB発話「(発話無し)」と、ユーザB表情(前記表情変化量(ユーザB))を含むコミュニケーションイベント。
(2)評価対象データと、それに対する相手ユーザの反応データの差分データにもとづき、 統合値を算出する(1001b)。
発話統合値を算出する際は、例として下記の算出式(1)算出式(2)の式が用いられる。ここで用いる算出式は、予め決められた業務目的に応じて最適な式や算出方法を選択することが好ましい。
算出式(1)発話統合値の算出:((肯否度分析値)−(値中央値※1))×100=発話統合値
※1:ここで用いる値中央値は、前記(テキストデータに対応する人工知能技術)の手法(この例ではテキストの感情分析を含む肯否度分析)に応じて定まる中央値、あるいはその手法が含む度合い尺度のなかで最も中立的な値を用いることが望ましい。
算出式(2)
(2−1) 表情統合値の算出:
(ア)肯定感情(表情)の変化量合計=喜楽(%)変化量/1 ※2
(イ)否定感情(表情)の変化量合計=(悲哀(%)変化量 +怒気(%)変化量+嫌悪(%)変化量+軽侮(%)変化量+恐れ(%)変化量)/5 ※3
※2:ここで用いる除数は、肯定感情として、業務目的に沿い予め定められた項目の数を用いる(この例では、喜楽を肯定感情とし、その項目数1を用いる)
※3:ここで用いる除数は、否定感情として、業務目的に沿い予め定められた項目の数で除算する(この例では、悲哀、怒気、嫌悪、軽侮、恐れを否定感情とし、その項目数5を用いる)
(2−2)
表情統合値=((ア)−(イ))×100
(図9の例での統合値算出の例)
算出例
(図9のユーザA)発話統合値の算出 : (0.52(肯否度分析値)−0.50(値中央値))× 100=2.0
(図9のユーザA)表情統合値の算出 :
(ア)5.0%/1=5.0%(喜楽変化量)
(イ)(1.0%(悲哀変化量)+0%(怒気変化量)+(−2%(嫌悪変化量))+0%(軽侮変化量)+(−1%(恐れ変化量))/5=( −0.4%)
表情統合値=((ア) − (イ))×100=5.4
(図9のユーザB)発話統合値の算出 : 0.0 (この例では、ユーザBの発話が無いため0を与える)
(図9のユーザB)表情統合値の算出 :
(ウ)0.0%/1=0.0% (喜楽変化量)
(エ)(9.0%(悲哀変化量) +0%(怒気変化量)+(−2.0%(嫌悪変化量))+3.0%(軽侮変化量)+10.0%(恐れ変化量)/5=4.0%
表情統合値=((ウ) − (エ))×100=(−4.0)
(3)前記1001bで得た、ユーザごとに発話統合値と表情統合値を合計し、その合計値をユーザ間で比較し、差を算出する(1001c)。
(図9の例での算出例)
(3−1) ユーザごとの発話統合値と表情統合値の合計:
(図9のユーザA)2.0(発話統合値)+5.4(表情統合値)=7.4
(図9のユーザB)0.0(発話統合値)+(−4.0(表情統合値))=(−4.0)
(3−2)前記合計値をユーザ間で比較し、ユーザ間での差を算出:7.4−(−4.0)=11.4
(4)前記1001c で算出された差を二乗した値を用い、評価対象データとなるユーザのコミュニケーションイベントに対し、評価データ値(Val)を付与する(1001d)。
(図9の例での、差の二乗値による評価データ値(Val)の算出例)
11.4 の二乗値 =130.0(ここでは例として小数第2位で四捨五入した値を用いる)
上記130.0が、(A)評価対象データ(ユーザAコミュニケーションイベント)に関する評価データ値(Val)として付与される。
FIG. 9 exemplarily shows a flow (1001) of adding an evaluation data value (Val) in communication event unit, which is included in the evaluation step S5. Using the data obtained from the integration step S3 and the difference data acquisition step S4, the following evaluation data value (Val) assignment processing is performed in parallel.
(1) The communication event of the user to be evaluated ((A) in the following example) and the reaction data of the other user to that ((B) in the following example) are defined (1001a).
(Data defined in the example of FIG. 9)
(A) Evaluation target data (user A communication event): A communication event including the utterance of user A "What are you looking for today?" and the facial expression of user A (the amount of facial expression change (user A)).
(B) Response data of the other user B to (A) (user B communication event): A communication event including the user B utterance “(no utterance)” and the user B facial expression (the facial expression change amount (user B)).
(2) The integrated value is calculated based on the difference data between the evaluation target data and the reaction data of the other user against it (1001b).
When calculating the utterance integrated value, the following formulas (1) and (2) are used as an example. As the calculation formula used here, it is preferable to select an optimum formula or calculation method according to a predetermined business purpose.
Calculation formula (1) Calculation of utterance integrated value: ((acceptability analysis value)-(median value *1)) x 100 = utterance integrated value *1: The median value used here is It is desirable to use the median value that is determined according to the method of the corresponding artificial intelligence technology (in this example, the affirmative or negative analysis including the sentiment analysis of the text), or the most neutral value in the degree scale included in the method. ..
Calculation formula (2)
(2-1) Calculation of facial expression integrated value:
(A) Total change in positive emotions (expression) = pleasure (%) change/1 *2
(A) Total change in negative emotion (facial expression) = (sorrow (%) change + anger (%) change + disgust (%) change + neglect (%) change + fear (%) change) / 5 *3
*2: The divisor used here uses the number of items determined in advance according to the business purpose as the positive emotion (in this example, Kiraku is the positive emotion, and the number of items is 1).
*3: The divisor used here is the negative emotion divided by the number of predetermined items according to the business purpose (in this example, sadness, anger, disgust, neglect, and fear are negative emotions, and the number of items is 5). Is used)
(2-2)
Facial expression integrated value=((A)-(I))×100
(Example of integrated value calculation in the example of FIG. 9)
Calculation example (user A in FIG. 9) Calculation of utterance integrated value: (0.52 (acceptability analysis value)−0.50 (median value))×100=2.0
(User A in FIG. 9) Calculation of facial expression integrated value:
(A) 5.0%/1=5.0% (please change)
(B) (1.0% (change of sadness) + 0% (change of anger) + (-2% (change of disgust)) + 0% (change of neglect) + (-1% (change of fear))/5 = (-0.4%)
Facial expression integrated value = ((A)-(I)) x 100 = 5.4
(User B in FIG. 9) Calculation of integrated utterance value: 0.0 (in this example, 0 is given because there is no utterance by user B)
(User B in FIG. 9) Calculation of facial expression integrated value:
(C) 0.0%/1=0.0% (please change amount)
(D) (9.0% (change of sadness) +0% (change of anger) + (-2.0% (change of disgust)) +3.0% (change of neglect) + 10.0% (change of fear)/5 = 4.0%
Facial expression integrated value = ((c)-(d)) x 100 = (-4.0)
(3) The utterance integrated value and the facial expression integrated value obtained in 1001b are totaled for each user, and the total value is compared between the users to calculate a difference (1001c).
(Calculation example in the example of FIG. 9)
(3-1) Sum of utterance integrated value and facial expression integrated value for each user:
(User A in FIG. 9) 2.0 (utterance integrated value) + 5.4 (facial expression integrated value) = 7.4
(User B in FIG. 9) 0.0 (utterance integrated value) + (-4.0 (facial expression integrated value)) = (-4.0)
(3-2) The total value is compared between users and the difference between users is calculated: 7.4−(−4.0)=11.4
(4) Using the value obtained by squaring the difference calculated in 1001c, the evaluation data value (Val) is added to the communication event of the user, which is the evaluation target data (1001d).
(Example of calculating the evaluation data value (Val) by the squared value of the difference in the example of FIG. 9)
Squared value of 11.4 = 130.0 (Here, the value rounded to the first decimal place is used as an example)
The above 130.0 is given as the evaluation data value (Val) for (A) evaluation target data (user A communication event).

図10には、評価ステップS5 に含まれる、コミュニケーション総体への評価データ値(Val)付与(1002)のフローが例示的に示されている。前記(1001)で得たコミュニケーションイベント単位の評価データ値(Val)を用いて、下記の処理を実施する。
(1)コミュニケーション開始時点からコミュニケーション終了時点までに含まれる、評価対象ユーザのコミュニケーションイベントに関し、前記(1001)の手法でそれぞれ評価データ値(Val)を算出し、算出した評価データ値(Val)をコミュニケーション総体について合計する(1002a)。
(2)コミュニケーション開始時点からコミュニケーション終了時点までの、評価対象ユーザのコミュニケーションイベントの回数について、合計回数を算出する(1002b)。
(3)1002a で得た合計値を、1002b で得た合計回数の数で除算する(1002c)。
(4)1002cで得た除算の結果値をもって、ユーザAのコミュニケーション総体に関する評価データ値(Val)として付与する(1002d)。
FIG. 10 exemplarily shows a flow of giving an evaluation data value (Val) (1002) to the entire communication, which is included in the evaluation step S5. The following processing is performed using the evaluation data value (Val) in communication event units obtained in (1001) above.
(1) With respect to the communication event of the evaluation target user, which is included from the communication start time to the communication end time, the evaluation data value (Val) is calculated by the method of (1001), and the calculated evaluation data value (Val) is calculated. Sum up the total communication (1002a).
(2) The total number of communication events of the evaluation target user from the communication start time to the communication end time is calculated (1002b).
(3) Divide the total value obtained in 1002a by the total number of times obtained in 1002b (1002c).
(4) The result value of the division obtained in 1002c is given as the evaluation data value (Val) regarding the communication whole of the user A (1002d).

図11には、評価ステップS5 に含まれる、前記整理統合データ、前記差分データに基づく、評価データ値(Val)の算出(1010)の例が示されている。統合ステップS3、差分データ取得ステップS4 で、得たデータに基づき、評価対象ユーザのコミュニケーション総体について、予め決められた評価項目に関し、評価データ値(Val)を算出する。
算出される評価データ値(Val)の項目例として、下記のような項目が挙げられる。ここで算出する項目の選択や、その算出方法は、予め決められた業務目的に応じて最適な項目選択と算出方法を選択することが好ましい。
(a)会話時間合計
(a1)ユーザA発話時間 合計
(a2)相手(ユーザB)の発話時間 合計
(a3)ユーザAの傾聴時間 合計
(b)ユーザ別の発話時間合計と全体時間においてそれぞれが占める比率
(b1)ユーザAの発話が占める比率(a1)/((a1)+(a2))
(b2)ユーザBの発話が占める比率(a2)/((a1)+(a2))
(c)ユーザAの発話時間(a1)/ユーザBの発話時間(a2)
(d)ユーザAの傾聴時間比率(ユーザAの傾聴時間(a3)/発話時間合計((a1)+(a2))
(e)ユーザAのコミュニケーションイベント(発話)合計回数
(f)ユーザAが発した質問発話の回数
(g) 発話に占める質問比率 (ユーザA質問回数/ユーザAコミュニケーションイベント(発話)合計回数)
(h)相手ユーザとの発話速度の差 (※発話1文字あたりにかかった秒数)
(h1)ユーザA発話の平均速度
(h2)ユーザB発話の平均速度
(i)ユーザ別のポジティブ※表情平均(%)
(i1)ユーザAのポジティブ※表情平均(%)
(i2)ユーザBのポジティブ※表情平均(%)
(j)ユーザ別のネガティブ※表情平均(%)
(j1)ユーザAのネガティブ※表情平均(%)
(j2)ユーザBのネガティブ※表情平均(%)
(k)ユーザA発話時の、ユーザBのポジティブ※表情平均(%)
(l)ユーザA発話時の、ユーザBのネガティブ※表情平均(%)
(m)ユーザA傾聴時の、ユーザBのポジティブ※表情平均(%)
(n)ユーザA傾聴時の、ユーザBのネガティブ※表情平均(%)
FIG. 11 shows an example of calculation (1010) of the evaluation data value (Val) based on the consolidated integrated data and the difference data included in the evaluation step S5. In the integration step S3 and the difference data acquisition step S4, an evaluation data value (Val) is calculated for a predetermined evaluation item for the communication body of the evaluation target user based on the obtained data.
The following items are examples of items of the calculated evaluation data value (Val). Regarding the selection of the items to be calculated and the calculation method thereof, it is preferable to select the optimum item selection and calculation method according to the predetermined business purpose.
(A) Total conversation time (a1) Total utterance time of user A (a2) Total utterance time of the other party (user B) (a3) Total listening time of user A (b) Total utterance time for each user and total time Ratio
(B1) Ratio of user A's utterance (a1)/((a1)+(a2))
(B2) Ratio of user B's utterance (a2)/((a1)+(a2))
(C) User A's utterance time (a1)/User B's utterance time (a2)
(D) User A listening time ratio (User A listening time (a3)/total utterance time ((a1) + (a2))
(E) Total number of communication events (utterances) by user A (f) Number of question utterances by user A (g) Question rate in utterances (number of questions for user A/total number of communication events for user A (utterances))
(H) Difference in utterance speed from the other user (*Number of seconds spent per utterance character)
(H1) Average speed of user A's utterance (h2) Average speed of user B's utterance (i) Positive by user *Average facial expression (%)
(I1) Positive of User A *Average facial expression (%)
(I2) Positive for User B *Facial expression average (%)
(J) Negative by user *Facial expression average (%)
(J1) Negative of User A *Average facial expression (%)
(J2) Negative of User B *Average facial expression (%)
(K) User B's positivity when user A speaks *Facial expression average (%)
(L) Negative of User B when speaking to User A *Average facial expression (%)
(M) User B's positive when listening to user A *Average facial expression (%)
(N) Negative of user B when listening to user A *Average facial expression (%)

図12には、評価ステップS5 に含まれる、事後に得た業務結果に基づく評価データ値(Val)付与(1020)の例が示されている。コミュニケーション結果として、コミュニケーション総体の事後に得た、少なくとも一つ以上の業務結果からの評価データ値(Val)を付与する。コミュニケーション総体の結果として事後に得た業務結果は、例えば評価者により別途付与され、その評価データ値(Val)を用いる手法が含まれる。コミュニケーション総体の事後に得た業務結果とは、例として下記のような結果が含まれる。ここで用いる業務結果の選択や、その算出方法は、予め決められた業務目的に応じて最適な業務結果の選択とそれに応じた評価データ(Val)の定義、その定義に応じた評価データ(Val)の算出方法を選択することが好ましい。業務目的に応じて、複数の業務結果を用いることも好ましい。
・業務目的達成に向け、相手の満足度等が得られたか?
(例)企業の社内コミュニケーションにおいて、上司が部下とのコーチングコミュニケーションを行った結果として、同セッションに関し、上司が部下から得た事後評価等。
(例)研修でのロールプレイおいて、ロールプレイコミュニケーションを行った結果として、同セッションに関し、評価対象のユーザがロールプレイ相手から得た事後評価等。
・当初のコミュニケーション目的が達成されたか?
(例)小売店で、店員が顧客と商談コミュニケーションを行った結果として、該当顧客が商品を購入したか、していないかの結果等。
・業務目的達成に向け、必要な情報が得られたか?
(例)法人営業において、営業が法人顧客と商談コミュニケーションを行った結果として、法人顧客がもつニーズ、予算金額、決裁者、希望納期に関する情報が取得できたか等。
(図12の例で用いられる、業務結果による評価データ値(Val)の付与例)
(例)会話相手(ユーザB)から得た、アンケート結果の評価を付与する。
コミュニケーション総体の事後に得た、ユーザBからのアンケート結果で、ユーザAのコミュニケーション総体に関する評価を得る。そのアンケート結果に基づき、ユーザBの満足度を下記算出式でNSAT(Net Satisfaction:満足度)として算出し、そのNSAT値をユーザAのコミュニケーション総体に関する評価データ値(Val)として付与する。
NSAT計算式※(例): NSAT=P − N+100
P=(最高評価(図12の例なら“5”)の回答数)/回答総数(図12の例なら、回答総数6を用いる)
(図12の例でのP算出例) P=0/6=0
N=(最低と最低から2番目の評価(図12の例なら“1”と“2”)の回答数の和)/回答総数(図12の例なら、回答総数6を用いる)
(図12の例でのN算出例) N=2/6=0.33 (ここでは例として小数第3位で四捨五入した値を用いる)
(図12の例でのNSAT算出例) NSAT=0−0.33+100=99.7(ここでは例として小数第2位で四捨五入した値を用いる)
※NSATの計算式は、上記例に限らず、アンケート結果の手法や項目数に応じて、最適な手法を用いることが好ましい。
FIG. 12 shows an example of the evaluation data value (Val) assignment (1020) based on the work result obtained after the fact, which is included in the evaluation step S5. As the communication result, an evaluation data value (Val) obtained from at least one work result obtained after the whole communication is given. The work result obtained after the fact as a result of the communication overall is, for example, separately given by the evaluator and includes a method of using the evaluation data value (Val). Examples of the work results obtained after the communication overall include the following results. The selection of the business result used here and the calculation method are the selection of the optimum business result according to the predetermined business purpose, the definition of the evaluation data (Val) corresponding to it, and the evaluation data (Val) according to the definition. It is preferable to select the calculation method of ). It is also preferable to use a plurality of business results depending on the business purpose.
・Is the satisfaction level of the other party obtained in order to achieve the business purpose?
(Example) In a company's internal communication, as a result of the coaching communication with his subordinates as a result of the supervisor's coaching, ex-post evaluation etc. obtained from his subordinates regarding the same session.
(Example) As a result of performing role play communication in role play during training, ex-post evaluation etc. obtained by the user to be evaluated from the role play partner regarding the same session.
・Has the original communication purpose been achieved?
(Example) As a result of a salesclerk communicating with a customer at a retail store, whether the customer has purchased the product or not.
・Is the necessary information obtained to achieve the business purpose?
(Example) In corporate sales, as a result of business negotiations with corporate customers, it was possible to obtain information about the corporate customers' needs, budget amount, authorizers, and desired delivery dates.
(Example of assigning evaluation data value (Val) based on business results used in the example of FIG. 12)
(Example) Give the evaluation of the questionnaire result obtained from the conversation partner (user B).
With the result of the questionnaire from the user B obtained after the communication aggregate, the evaluation regarding the communication aggregate of the user A is obtained. Based on the result of the questionnaire, the satisfaction level of the user B is calculated as NSAT (Net Satisfaction: Satisfaction level) by the following calculation formula, and the NSAT value is given as the evaluation data value (Val) of the communication aggregate of the user A.
NSAT calculation formula * (example): NSAT = P-N + 100
P = (number of answers with the highest rating ("5" in the example of Fig. 12)) / total number of responses (6 total responses are used in the example of Fig. 12)
(Example of calculating P in the example of FIG. 12) P=0/6=0
N = (the lowest and the second lowest from the evaluation (the sum of the numbers of responses "1" and "2" in the example of Fig. 12))/total number of responses (in the example of Fig. 12, the total number of responses is 6)
(Example of calculating N in the example of FIG. 12) N=2/6=0.33 (Here, the value rounded to the third decimal place is used as an example)
(Example of NSAT calculation in the example of FIG. 12) NSAT=0-0.33+100=99.7 (Here, the value rounded to the second decimal place is used as an example.)
*The NSAT calculation formula is not limited to the above example, but it is preferable to use an optimum method according to the method of the questionnaire result and the number of items.

業務上のコミュニケーション目的がある場合、該当するコミュニケーション目的が達成されたかの度合いに応じて、コミュニケーション総体の結果に対し評価がなされることが好ましい。そのため、本出願の方法において、コミュニケーション総体後に別途得た業務結果を評価要素の一つとして用いることで、業務上効果を上げるための観点で、評価対象ユーザのコミュニケーションスキルの改善に役立てることが出来る。一例として、コミュニケーションを終えた後に、相手ユーザが評価対象ユーザに対して提供する、コミュニケーション総体への評価または評価対象ユーザのコミュニケーションスキルに関する評価は、コミュニケーション改善に向けた客観的な視点を評価対象ユーザにもたらし、評価対象ユーザが自身のコミュニケーションスキルを改善する際、相手目線に沿った、本質的なコミュニケーション改善につなげることが可能となる。 When there is a business communication purpose, it is preferable to evaluate the result of the communication overall according to the degree to which the corresponding communication purpose has been achieved. Therefore, in the method of the present application, by using the work result separately obtained after the communication as a whole as one of the evaluation factors, it is possible to improve the communication skill of the user to be evaluated from the viewpoint of improving the work effect. .. As an example, after the communication is finished, the evaluation of the overall communication or the evaluation of the communication skill of the evaluation target user, which the other user provides to the evaluation target user, is an objective viewpoint for improving the communication. As a result, it becomes possible for the users to be evaluated to improve their communication skills, which leads to essential communication improvements along the line of sight of the other person.

図13には、評価ステップS5 に含まれる、最終評価の付与のフローが例として示されている。このフローには下記手順が含まれる。
(1)
(1−1) 前記(1002、1010と1020)から得た評価データ値(Val)について、それに対応する、予め業務に沿い与えられた、評価基準値と評価テーブルに基づき、それぞれ評価値(T)を算出する(1030a)。
(1−2) 前記1030aで得た各分析項目の評価値(T)に、予め業務に沿い与えられた、評価データ値(Val)種類に対応する重み付け係数(W)を乗じて(掛けて)、評価値(Y)を算出する(1030b)。
(2)上記1030bで算出した評価値(Y)を前記の評価項目すべてについて合計して最終評価(Z)を算出し、評価対象ユーザのコミュニケーションスキル、あるいは、評価対象ユーザのコミュニケーション内容に関する評価結果として付与する(1040)。
上記の例であるように、予め決められた業務目的に応じて最適なかたちで選択された項目に関し、前記(1002、1010と1020)の手順で得た評価データ値(Val)を用い、それらに対応する評価テーブルを参照し、予め決められた業務目的に応じて定めた重み付け係数を用いて評価値(Y)を算出することで、より広範な観点に基づき、客観性が高く、業務目的に沿った評価を付与することが可能となる。結果として、評価対象ユーザが持つ業務の生産性を高めるかたちで、コミュニケーションスキルの改善を図ることが可能となる。ここで用いる評価基準値の選択、重み付け係数の値の選択、評価テーブルに含まれる値や尺度の構成、その算出方法は、予め決められた業務目的に応じて最適な評価基準値の選択、重み付け係数の値の選択、評価テーブルでの値や尺度の構成や算出方法を選択することが好ましい。
FIG. 13 shows an example of the flow of giving the final evaluation, which is included in the evaluation step S5. This flow includes the following procedures.
(1)
(1-1) Regarding the evaluation data value (Val) obtained from the above (1002, 1010 and 1020), the evaluation value (T ) Is calculated (1030a).
(1-2) Multiply (multiply) the evaluation value (T) of each analysis item obtained in 1030a by a weighting coefficient (W) corresponding to the type of evaluation data value (Val) given in advance according to the work. ), and the evaluation value (Y) is calculated (1030b).
(2) The evaluation value (Y) calculated in 1030b above is summed for all of the above evaluation items to calculate the final evaluation (Z), and the evaluation result regarding the communication skill of the evaluation target user or the communication content of the evaluation target user. (1040).
As in the above example, using the evaluation data value (Val) obtained in the procedure of (1002, 1010 and 1020) for the items selected in the most suitable manner according to the predetermined business purpose, By calculating the evaluation value (Y) by using the weighting coefficient determined according to the predetermined business purpose by referring to the evaluation table corresponding to, the objectiveness is high and the business purpose is high based on a wider perspective. It is possible to give an evaluation according to. As a result, it is possible to improve communication skills by increasing the productivity of the work of the user to be evaluated. The selection of the evaluation reference value used here, the selection of the value of the weighting coefficient, the configuration of the values and scales included in the evaluation table, the calculation method, the selection of the optimum evaluation reference value according to the predetermined business purpose, weighting It is preferable to select the value of the coefficient, the configuration of the value and the scale in the evaluation table, and the calculation method.

前記例の評価対象となるユーザのコミュニケーションスキルの変化を比較するため、該当ユーザについて、上記の最終評価(Z)を任意時点で複数回取得し、該当ユーザのコミュニケーションスキルに関する評価を時系列で比較することで、該当ユーザのコミュニケーションスキルの時間変化を評価することも好ましい。 In order to compare the changes in the communication skills of the users to be evaluated in the above example, the above-mentioned final evaluation (Z) is obtained multiple times at any given time for the relevant users, and the evaluations regarding the communication skills of the relevant users are compared in time series. By doing so, it is also preferable to evaluate the time change of the communication skill of the corresponding user.

前述の、複数時点でのユーザ評価データの比較では、評価対象ユーザが学習する、コミュニケーション改善手法に関する学習の結果について、改善する手法を学ぶ前の時点のコミュニケーション結果と、改善方法を学んだ後の時点のコミュニケーション結果を比較することで、評価対象ユーザがコミュニケーション改善手法を学習し、その手法を身に付けたかに関する度合いを可視化することが可能になる。例として、下記のような手法を用いて、より客観的かつ効果的なコミュニケーション評価の支援を行うことが可能である。
・複数のユーザの最終評価の比較により、予め決められた業務の観点で、コミュニケーションスキルの高い評価を事前に持つユーザと高い評価を持たないユーザについて、コミュニケーションスキルの比較を行い、高いコミュニケーション評価につながる差異要素を可視化することで、より具体的な観点で、高い評価を持つユーザのスキルを他方ユーザが取り入れることが可能となる。
・評価対象となるユーザについて、任意の知見によるコミュニケーション手法を学ぶ前のコミュニケーション評価(最終評価)と、前記知見によるコミュニケーション手法を学んだ後のコミュニケーション評価(最終評価)の比較により、該当ユーザが前記知見によるコミュニケーション手法を身に付けたかの度合いを可視化することができる。
・複数の任意コミュニケーション学習方法に関し、その効果の度合いをコミュニケーション学習方法ごとに可視化することで、より効果的なコミュニケーション学習方法を選択することが可能となる。そのために、該当する複数のコミュニケーション学習方法について、それを学ぶ複数ユーザについて学習前と学習後のコミュニケーション評価(最終評価)の変化を比較することで、どちらのコミュニケーション学習方法がユーザのコミュニケーションスキルを向上させたかの度合いを可視化し、活用することができる。上記例のように、本発明の枠組みを活用する手法は、予め決められた業務目的に応じて最適な手法を用いて、活用することが好ましい。
In the above-mentioned comparison of user evaluation data at multiple time points, regarding the result of learning about the communication improvement method that the evaluation target user learns, the communication result before learning the improvement method and the learning result after learning the improvement method By comparing the communication results at the time point, it becomes possible to visualize the degree to which the evaluation target user has learned the communication improvement method and has acquired the method. For example, the following methods can be used to support more objective and effective communication evaluation.
・By comparing the final evaluations of multiple users, the communication skills of users who have a high evaluation of communication skills and users who do not have a high evaluation of communication skills are compared from the viewpoint of a predetermined work, and a high communication evaluation is made. By visualizing the connected difference elements, it is possible for the other user to incorporate the skill of the user with a high evaluation from a more specific viewpoint.
-For the users to be evaluated, by comparing the communication evaluation (final evaluation) before learning the communication method by the arbitrary knowledge and the communication evaluation (final evaluation) after learning the communication method by the aforementioned knowledge, the corresponding user is It is possible to visualize the degree to which a communication method based on knowledge has been acquired.
-For a plurality of arbitrary communication learning methods, it is possible to select a more effective communication learning method by visualizing the degree of the effect for each communication learning method. To that end, which communication learning method improves the user's communication skills by comparing the changes in the communication evaluation (final evaluation) before and after learning for multiple users who learn the corresponding communication learning method. It is possible to visualize and utilize the degree to which it has been done. As in the above example, it is preferable to use the method of utilizing the framework of the present invention by using an optimal method according to a predetermined business purpose.

前記の例の通り、ユーザのコミュニケーションに関し、主にカメラ装置より得た映像データと、マイク装置より得た音声データから、それぞれに対応する人工知能技術を用いて解析し、その解析結果等に基づき、業務目的に応じた評価軸で分析し、コミュニケーションの評価を行う例を挙げた。前記例に限らず、ユーザのコミュニケーションからどのデータを選択し、収集と分析を行うかは、予め決められた業務目的に応じて最適なデータ選択とその収集を行い、それらのデータに応じた分析方法を選択することが好ましい。図14には、コミュニケーション評価方法に活用可能なデータ項目の例が示されており、例として下記項目が含まれる。
(1)装置例としてカメラから得られるデータ項目例(視覚で得られるデータ項目例):
・表情
・しぐさ(生理的なしぐさ)
・しぐさ(身振り手振り)
・目線の動き
・頭部の動き(うなずき、横振りなど)
・体の姿勢や手足の動き(例:手足の組み方、前のめり重心、後ろ重心)
・服装
(2)装置例としてマイクから得られるデータ項目例(聴覚で得られるデータ項目例):
・声のトーン、高低
・声の音量
・発声リズム(スピード、呼吸)
・無音(傾聴、沈黙等)
・笑い、咳、嗚咽等の生理的現象
(3)装置例として温度センサー、振動センサーが含まれる装置(例:スマートフォン、装着型デバイス等)から得られるデータ項目例:
・温度(気温、体温など)
・揺れ(身体)
(4)装置例として、電子装置(例:本発明に含まれるデータ収集装置等)から得られるデータ項目例:
・時間情報(映像データ、音声データの収集時間等)
As described in the above example, regarding the user communication, the image data mainly obtained from the camera device and the voice data obtained from the microphone device are analyzed by using the corresponding artificial intelligence technology, and based on the analysis result, etc. An example was given in which communication was evaluated by analyzing the evaluation axis according to the business purpose. Not limited to the above example, which data should be selected from the user's communication and collected and analyzed should be selected and collected optimally according to the predetermined business purpose and analyzed according to the data. It is preferable to choose a method. FIG. 14 shows an example of data items that can be used in the communication evaluation method, and includes the following items as examples.
(1) Example of data item obtained from camera as example of device (example of data item visually obtained):
・Facial expression/gesture (physiological gesture)
・Gesture (gesturing)
・Movement of eyes ・Movement of head (nod, sideways, etc.)
-Body posture and limb movements (eg, limb assembly, front center of gravity, rear center of gravity)
-Example of data item obtained from microphone as an example of clothing (2) device (example of data item obtained by hearing):
・Voice tone, pitch ・Voice volume ・Voice rhythm (speed, breathing)
・Silence (listening, silence, etc.)
・Physiological phenomena such as laughter, cough, and sore throat (3) Examples of data items obtained from devices including temperature sensors and vibration sensors (eg, smartphones, wearable devices, etc.):
・Temperature (air temperature, body temperature, etc.)
・Shake (body)
(4) As an example of a device, an example of data items obtained from an electronic device (eg, a data collection device included in the present invention):
・Time information (collection time of video data, audio data, etc.)

なお、上述した実施形態によれば、例えばデータ解析装置2は、データ取込ステップ、映像解析ステップ、音声解析ステップ、統合ステップ、差分データ取得ステップ、評価ステップ、及び出力ステップに対応するデータ取込機能、映像解析機能、音声解析機能、統合機能、差分データ取得機能、評価機能、及び出力機能を備えた評価装置としてもよい。また、コンピュータ、タブレット端末、FPGAのようなプログラマブルロジックデバイス装置などを、例えば上記評価装置等の情報端末における各手段として機能させる評価プログラムを含む装置としてもよい。 In addition, according to the above-described embodiment, for example, the data analysis device 2 acquires data corresponding to the data acquisition step, the video analysis step, the audio analysis step, the integration step, the difference data acquisition step, the evaluation step, and the output step. The evaluation device may include a function, a video analysis function, a voice analysis function, an integration function, a difference data acquisition function, an evaluation function, and an output function. Further, a computer, a tablet terminal, a programmable logic device such as an FPGA, or the like may be an apparatus including an evaluation program that causes each unit of the information terminal such as the evaluation apparatus described above to function.

以上、図面から本発明の実施形態について説明した。なお、本発明は、上記の形態や業態のみに限定されるものではない。上記の形態から本件の発明者が自明な範囲で適宜変更する形態や業態での活用も含まれる。 The embodiments of the present invention have been described above with reference to the drawings. It should be noted that the present invention is not limited to the above-mentioned forms and business types. The present invention also includes use in a form or business mode in which the inventor of the present case appropriately changes within the obvious range.

1a…データ収集装置 1b…データ収集装置
2…データ解析装置 3…カメラ
4…映像データ取込部 5…映像データ処理部
6…映像データ蓄積部 7…映像データ送信部
10…マイク 11…音声データ取込部
12…音声データ処理部 13…音声データ蓄積部
14…音声データ送信部 15…データ収集時間記録部
20…映像データ受信部 21…音声データ受信部
22…映像データ解析部 23…AI呼出部
24…解析命令及びデータ送信部 25…解析結果取得部
26…取得データ分析部 30…音声データ解析部
31…AI呼出部 32…解析命令及びデータ送信部
33…解析結果取得部 34…取得データ分析部
40…映像データ及び音声データ処理部
41…映像データ及び音声データ解析部
42…解析結果出力部 43…データ蓄積部
44…表示装置
50…AIプログラム解析部 51…AIプログラム映像解析部
52…AIプログラム音声解析部
100…コミュニケーションの評価システム
101…通信ネットワーク 102…インターネット
103…データベース
200〜250…データ取込みステップ
302〜306…映像解析ステップS1
310〜319…音声解析ステップS2
330…統合ステップS3
331…差分データ取得ステップS4
332…評価ステップS5
340…出力ステップS6
1000…1050 評価ステップS5に含まれるステップ
1a...Data collection device 1b...Data collection device
2... Data analysis device 3... Camera
4... Video data acquisition unit 5... Video data processing unit 6... Video data storage unit 7... Video data transmission unit
10... Microphone 11... Audio data capturing unit 12... Audio data processing unit 13... Audio data storage unit 14... Audio data transmitting unit 15... Data collection time recording unit 20... Video data receiving unit 21... Audio data receiving unit 22... Video Data analysis unit 23...AI calling unit 24...Analysis command and data transmission unit 25...Analysis result acquisition unit 26...Acquired data analysis unit 30...Voice data analysis unit 31...AI calling unit 32...Analysis command and data transmission unit 33...Analysis Result acquisition unit 34... Acquired data analysis unit 40... Video data and audio data processing unit 41... Video data and audio data analysis unit 42... Analysis result output unit 43... Data storage unit 44... Display device 50... AI program analysis unit 51... AI program video analysis unit 52... AI program audio analysis unit
100... Communication evaluation system 101... Communication network 102... Internet 103... Database 200-250... Data acquisition steps 302-306... Video analysis step S1
310-319... Voice analysis step S2
330... Integration step S3
331... Difference data acquisition step S4
332... Evaluation step S5
340... Output step S6
1000...1050 Steps included in evaluation step S5

Claims (12)

ユーザ間におけるコミュニケーションの評価を支援する評価方法であって、コミュニケーションの映像データと音声データとを取り込むデータ取込ステップと、前記データ取込ステップにより取り込まれた前記映像データを、前記映像データに対応する人工知能技術を使って第1数値データに変換する映像解析ステップと、前記データ取込ステップにより取り込まれた前記音声データを、前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って前記テキストデータを第2数値データに変換する音声解析ステップと、前記第1数値データと前記テキストデータと前記第2数値データとを組み合わせて時系列に整理統合し、整理統合データを取得する統合ステップと、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得ステップと、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価ステップと前記評価ステップで得た前記評価結果を出力する出力ステップとを備え、前記データ取込ステップ、前記映像解析ステップ、前記音声解析ステップ、前記統合ステップ、前記差分データ取得ステップ、前記評価ステップ及び前記出力ステップは、コンピュータにより実行される評価方法。
An evaluation method that supports evaluation of communication between users, wherein a data capturing step of capturing communication video data and audio data, and the video data captured by the data capturing step correspond to the video data. The video analysis step of converting into the first numerical value data by using the artificial intelligence technology, and the voice data captured by the data capturing step are converted into text data using the artificial intelligence technology corresponding to the voice data. , A voice analysis step of converting the text data into second numerical data using an artificial intelligence technique corresponding to the text data, and a time series by combining the first numerical data, the text data and the second numerical data. And a consolidation data for collecting consolidation data, and a difference data acquisition step for obtaining difference data corresponding to the difference in the reaction of the other user at different times from the consolidation integrated data, for the purpose of business communication. Along with the evaluation axis determined in advance along with the evaluation step of calculating the evaluation result including at least one of the evaluation of the content of the communication based on the difference data and the evaluation of the communication skill of the user, and the evaluation step. An output step of outputting the evaluation result, wherein the data acquisition step, the video analysis step, the audio analysis step, the integration step, the difference data acquisition step, the evaluation step and the output step are executed by a computer. Evaluation method.
前記統合ステップは、前記整理統合データに基づき、ユーザが任意時点で行ったコミュニケーション行為を評価する最小単位としてコミュニケーションイベントを定めるステップと、前記ユーザそれぞれに異なる時点におけるコミュニケーションイベントを定めるステップと、前記コミュニケーションイベントに基づき、前記コミュニケーションの開始時点から終了時点までに含まれる前記コミュニケーションイベントを時系列にまとめ統合したデータを、コミュニケーション総体として定めるステップとを有する、請求項1に記載の評価方法。 The integrating step defines a communication event as a minimum unit for evaluating a communication action performed by a user at an arbitrary time point based on the consolidated integrated data; a step of defining a communication event at a different time point for each of the users; The method according to claim 1, further comprising the step of defining, as a communication whole, data obtained by chronologically integrating and integrating the communication events included from the start time to the end time of the communication based on the event. 前記差分データ取得ステップは、前記コミュニケーションイベントごとに、前記相手ユーザの前記差分データを取得するステップを有する、請求項2に記載の評価方法。 The evaluation method according to claim 2, wherein the difference data acquisition step includes a step of acquiring the difference data of the partner user for each communication event. 前記評価ステップは、前記整理統合データと前記差分データに基づき、前記ユーザごとに前記評価結果を算出するステップを有し、前記整理統合データと前記差分データに基づき、前記コミュニケーション総体の内容に関し前記評価結果を算出するステップを有する、請求項2に記載の評価方法。 The evaluation step includes a step of calculating the evaluation result for each user based on the consolidation integrated data and the difference data, and the evaluation regarding the content of the communication whole body based on the consolidation integrated data and the difference data. The evaluation method according to claim 2, comprising a step of calculating a result. 前記評価軸は、業務上与えられるコミュニケーション目的から規定される、コミュニケーションの評価基準を含み、前記評価ステップは、前記評価軸を参照して付与される、前記コミュニケーションイベントと前記コミュニケーション総体の少なくとも何れかへの評価値の付与、前記の業務上のコミュニケーション目的に沿い予め決められた分析項目に関する評価値の付与、及び、前記コミュニケーションの結果として得られた業務結果への評価値の付与、の少なくとも何れかを含み、前記評価結果を算出するステップを有する、請求項2に記載の評価方法。 The evaluation axis includes a communication evaluation standard defined from a communication purpose given in business, and the evaluation step is given with reference to the evaluation axis, and is at least one of the communication event and the communication whole body. At least one of assigning an evaluation value to the evaluation result, assigning an evaluation value regarding a predetermined analysis item according to the communication purpose in the business, and assigning an evaluation value to the business result obtained as a result of the communication. The evaluation method according to claim 2, further comprising: a step of calculating the evaluation result including. ユーザ間におけるコミュニケーションの評価を支援する評価装置であって、コミュニケーションの映像データと音声データとを取り込むデータ取込機能と、前記データ取込機能により取り込まれた前記映像データを、前記映像データに対応する人工知能技術を使って第1数値データに変換する映像解析機能と、前記データ取込機能により取り込まれた前記音声データを、前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って前記テキストデータを第2数値データに変換する音声解析機能と、前記第1数値データと前記テキストデータと前記第2数値データとを組み合わせて時系列に整理統合し、整理統合データを取得する統合機能と、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得機能と、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価機能と前記評価機能で得た前記評価結果を出力する出力機能とを備える評価装置。 An evaluation device supporting evaluation of communication between users, wherein a data capturing function for capturing video data and audio data of communication and the video data captured by the data capturing function correspond to the video data. The video analysis function for converting into the first numerical data by using the artificial intelligence technology and the voice data captured by the data capturing function are converted into the text data by using the artificial intelligence technology corresponding to the voice data. , A time-series combination of a voice analysis function for converting the text data into second numerical data using an artificial intelligence technology corresponding to the text data, and the first numerical data, the text data, and the second numerical data. The consolidation function for consolidating and consolidating into and the consolidation data, and the difference data acquisition function for acquiring the difference data corresponding to the difference in the reaction of the other user at different times from the consolidation integrated data, and for the purpose of business communication. Along with a predetermined evaluation axis, the evaluation function for calculating the evaluation result including at least one of the evaluation of the content of the communication based on the difference data and the evaluation of the communication skill of the user and the evaluation function are obtained. An evaluation device having an output function of outputting the evaluation result. 前記統合機能は、前記整理統合データに基づき、ユーザが任意時点で行ったコミュニケーション行為を評価する最小単位としてコミュニケーションイベントを定める機能と、前記ユーザそれぞれに異なる時点におけるコミュニケーションイベントを定める機能と、前記コミュニケーションイベントに基づき、前記コミュニケーションの開始時点から終了時点までに含まれる前記コミュニケーションイベントを時系列にまとめ統合したデータを、コミュニケーション総体として定める機能とを有する、請求項6に記載の評価装置。 The integration function includes a function of defining a communication event as a minimum unit for evaluating a communication action performed by a user at an arbitrary time point based on the consolidated integration data, a function of defining a communication event at a different time point for each of the users, and the communication The evaluation device according to claim 6, further comprising a function of defining, as a communication whole, data obtained by chronologically integrating and integrating the communication events included from the start time to the end time of the communication based on the event. 前記差分データ取得機能は、前記コミュニケーションイベントごとに、前記相手ユーザの前記差分データを取得する機能を有する、請求項7に記載の評価装置。 The evaluation device according to claim 7, wherein the difference data acquisition function has a function of acquiring the difference data of the opponent user for each communication event. 前記評価機能は、前記整理統合データと前記差分データに基づき、前記ユーザごとに前記評価結果を算出する機能を有し、前記整理統合データと前記差分データに基づき、前記コミュニケーション総体の内容に関し前記評価結果を算出する機能を有する、請求項7に記載の評価装置。 The evaluation function has a function of calculating the evaluation result for each user based on the consolidation integrated data and the difference data. Based on the consolidation integrated data and the difference data, the evaluation regarding the contents of the communication whole body is performed. The evaluation device according to claim 7, which has a function of calculating a result. 前記評価軸は、業務上与えられるコミュニケーション目的から規定される、コミュニケーションの評価基準を含み、前記評価機能は、前記評価軸を参照して付与される、前記コミュニケーションイベントと前記コミュニケーション総体の少なくとも何れかへの評価値の付与、前記の業務上のコミュニケーション目的に沿い予め決められた分析項目に関する評価値の付与、及び、前記コミュニケーションの結果として得られた業務結果への評価値の付与、の少なくとも何れかを含み、前記評価結果を算出する機能を有する、請求項7に記載の評価装置。 The evaluation axis includes a communication evaluation standard defined from the purpose of communication given in business, and the evaluation function is given with reference to the evaluation axis, and is at least one of the communication event and the communication whole body. At least one of assigning an evaluation value to the evaluation result, assigning an evaluation value regarding a predetermined analysis item according to the communication purpose in the business, and assigning an evaluation value to the business result obtained as a result of the communication. The evaluation device according to claim 7, further comprising a function of calculating the evaluation result. 情報端末に組み込むことにより、情報端末を請求項6から請求項10のいずれか1項に記載の装置として制御および動作をさせる評価プログラム。 An evaluation program which, when incorporated into an information terminal, controls and operates the information terminal as the device according to any one of claims 6 to 10. ユーザ間におけるコミュニケーションの評価を支援する評価システムであって、コミュニケーションの映像データと音声データとを取り込むデータ取込機能と、前記データ取込機能により取り込まれた前記映像データを、前記映像データに対応する人工知能技術を使って第1数値データに変換する映像解析機能と、前記データ取込機能により取り込まれた前記音声データを、前記音声データに対応する人工知能技術を使ってテキストデータに変換し、前記テキストデータに対応する人工知能技術を使って前記テキストデータを第2数値データに変換する音声解析機能と、前記第1数値データと前記テキストデータと前記第2数値データとを組み合わせて時系列に整理統合し、整理統合データを取得する統合機能と、前記整理統合データから、異なる時間における相手ユーザの反応の差分に対応する差分データを取得する差分データ取得機能と、業務上のコミュニケーション目的に沿い予め決められた評価軸を参照し、前記差分データに基づく前記コミュニケーションの内容の評価、及びユーザのコミュニケーションスキルの評価の少なくとも何れかを含む評価結果を算出する評価機能と前記評価機能で得た前記評価結果を出力する出力機能とを備える評価システム。 An evaluation system that supports evaluation of communication between users, wherein a data capturing function for capturing video data and audio data for communication and the video data captured by the data capturing function correspond to the video data. The video analysis function for converting into the first numerical data by using the artificial intelligence technology and the voice data captured by the data capturing function are converted into the text data by using the artificial intelligence technology corresponding to the voice data. , A time-series combination of a voice analysis function for converting the text data into second numerical data using an artificial intelligence technology corresponding to the text data, and the first numerical data, the text data, and the second numerical data. The consolidation function for consolidating and consolidating into and the consolidation data, and the difference data acquisition function for acquiring the difference data corresponding to the difference in the reaction of the other user at different times from the consolidation integrated data, and for the purpose of business communication. Along with a predetermined evaluation axis, the evaluation function for calculating the evaluation result including at least one of the evaluation of the content of the communication based on the difference data and the evaluation of the communication skill of the user and the evaluation function are obtained. An evaluation system having an output function of outputting the evaluation result.
JP2018015717A 2018-01-31 2018-01-31 Evaluation method, evaluation device, evaluation program, and evaluation system Active JP6715410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018015717A JP6715410B2 (en) 2018-01-31 2018-01-31 Evaluation method, evaluation device, evaluation program, and evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018015717A JP6715410B2 (en) 2018-01-31 2018-01-31 Evaluation method, evaluation device, evaluation program, and evaluation system

Publications (2)

Publication Number Publication Date
JP2019133451A JP2019133451A (en) 2019-08-08
JP6715410B2 true JP6715410B2 (en) 2020-07-01

Family

ID=67547502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018015717A Active JP6715410B2 (en) 2018-01-31 2018-01-31 Evaluation method, evaluation device, evaluation program, and evaluation system

Country Status (1)

Country Link
JP (1) JP6715410B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7369942B2 (en) * 2020-07-02 2023-10-27 パナソニックIpマネジメント株式会社 Communication analysis system and communication analysis method
JP2022023459A (en) * 2020-07-27 2022-02-08 株式会社東芝 Communication system and evaluation method
US20230334427A1 (en) * 2020-10-28 2023-10-19 Bellface Inc. Information processing system
JP7462595B2 (en) * 2021-08-11 2024-04-05 アフラック生命保険株式会社 Human resource development support system, collaboration support system, method, and computer program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006061632A (en) * 2004-08-30 2006-03-09 Ishisaki:Kk Emotion data supplying apparatus, psychology analyzer, and method for psychological analysis of telephone user
JP5885875B1 (en) * 2015-08-28 2016-03-16 株式会社Ubic Data analysis system, data analysis method, program, and recording medium
JP6730843B2 (en) * 2016-05-06 2020-07-29 日本ユニシス株式会社 Communication support system
JP6366749B2 (en) * 2017-01-19 2018-08-01 ソフトバンク株式会社 Interactive interface

Also Published As

Publication number Publication date
JP2019133451A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP6260979B1 (en) Event evaluation support system, event evaluation support device, and event evaluation support program
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
CN106663383B (en) Method and system for analyzing a subject
US20220392625A1 (en) Method and system for an interface to provide activity recommendations
US10146882B1 (en) Systems and methods for online matching using non-self-identified data
US10376197B2 (en) Diagnosing system for consciousness level measurement and method thereof
Batrinca et al. Multimodal personality recognition in collaborative goal-oriented tasks
KR102257427B1 (en) The psychological counseling system capable of real-time emotion analysis and method thereof
JP2018032164A (en) Interview system
KR101988334B1 (en) a mobile handset and a method of analysis efficiency for multimedia content displayed on the mobile handset
JP6649461B1 (en) Program, information processing apparatus and information processing method
Zhao et al. Semi-automated 8 collaborative online training module for improving communication skills
JP2018206341A (en) Event evaluation support system, event evaluation support device, and event evaluation support program
JP2016177483A (en) Communication support device, communication support method, and program
KR20220106029A (en) Method and apparatus for psychological counselingusing artificial intelligence
KR101800546B1 (en) Virtual interview system
WO2020155118A1 (en) Teaching test item matching method, apparatus and device
Wei Development and evaluation of an emotional lexicon system for young children
US20230290505A1 (en) Context Aware Assessment
US10820851B2 (en) Diagnosing system for consciousness level measurement and method thereof
JP2016157388A (en) Communication skill evaluation feedback device, communication skill evaluation feedback method and communication skill evaluation feedback program
JP2021058231A (en) Cognitive function estimation method, computer program, and cognitive function estimation device
WO2023135939A1 (en) Information processing device, information processing method, and program
Bahreini et al. FILTWAM and voice emotion recognition
US20240177523A1 (en) System and Methods of Predicting Personality and Morals through Facial Emotion Recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190924

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200410

R150 Certificate of patent or registration of utility model

Ref document number: 6715410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150