JP2019159586A - Impression derivation system, impression derivation method and impression derivation program - Google Patents
Impression derivation system, impression derivation method and impression derivation program Download PDFInfo
- Publication number
- JP2019159586A JP2019159586A JP2018043430A JP2018043430A JP2019159586A JP 2019159586 A JP2019159586 A JP 2019159586A JP 2018043430 A JP2018043430 A JP 2018043430A JP 2018043430 A JP2018043430 A JP 2018043430A JP 2019159586 A JP2019159586 A JP 2019159586A
- Authority
- JP
- Japan
- Prior art keywords
- impression
- information
- value
- derivation
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009795 derivation Methods 0.000 title claims abstract description 172
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000011156 evaluation Methods 0.000 claims abstract description 225
- 230000009471 action Effects 0.000 claims abstract description 113
- 230000008451 emotion Effects 0.000 claims description 191
- 239000000284 extract Substances 0.000 claims description 4
- 238000004891 communication Methods 0.000 abstract description 101
- 230000006399 behavior Effects 0.000 description 74
- 230000004044 response Effects 0.000 description 59
- 230000010365 information processing Effects 0.000 description 41
- 238000003384 imaging method Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 11
- 230000008921 facial expression Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 230000002349 favourable effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000009118 appropriate response Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000007115 recruitment Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000007958 sleep Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明の実施形態は、印象導出システム、印象導出方法および印象導出プログラムに関する。 Embodiments described herein relate generally to an impression derivation system, an impression derivation method, and an impression derivation program.
面接、研修などの対面のコミュニケーションを評価する場面は、多々存在する。対面のコミュニケーションを評価する場面のほとんどにおいて、人が自らの主観に基づいて、定性的に評価している。例えば、対面のコミュニケーションを評価する場面の例として、以下の(1)−(4)が挙げられる。
(1)企業の採用面接にて、面接官が志望者の適正を評価する。
(2)営業力を強化する研修にて、講師が受講者を評価したり、模範的な振る舞いを教えたりする。
(3)顧客との折衝にて、営業担当者が、顧客の理解の度合いを把握しながら話を進める。
(4)企業のセミナーや学校の授業にて、講師が聴衆の反応を見ながら話しを進める。
There are many scenes where face-to-face communication such as interviews and training is evaluated. In most of the situations where face-to-face communication is evaluated, people evaluate qualitatively based on their own subjectivity. For example, the following (1)-(4) are mentioned as an example of the scene which evaluates face-to-face communication.
(1) The interviewer evaluates the suitability of the candidate during the company recruitment interview.
(2) In training to strengthen sales capabilities, the instructor evaluates the students and teaches exemplary behavior.
(3) In negotiations with the customer, the sales representative advances the talk while grasping the degree of understanding of the customer.
(4) At corporate seminars and school classes, the instructor advances the conversation while watching the audience's reaction.
店舗の店員による接客時の対応を効率的かつ精度良く評価する技術が知られている(例えば、特許文献1参照)。この技術では、管理装置は、個別売上データをPOSレジスタから取得し、接客対応する店員の顔画像データをカメラから取得し、個別売上データに含まれる接客時間帯に対応する顔画像データから接客中の店員の表情を特定し、表情に応じて接客時の対応の評価値を示す接客対応ポイントを算出する。また、管理装置は、個別売上データと接客対応ポイントとを関連付けて管理し、これらのデータを集計することによって店員毎の接客時の対応を数値化して出力するとともに、売上金額と接客時の対応の評価値とを関係付けて出力する。 A technique for efficiently and accurately evaluating the response at the time of customer service by a store clerk is known (see, for example, Patent Document 1). In this technology, the management device acquires individual sales data from the POS register, acquires the face image data of the salesclerk corresponding to customer service from the camera, and is in service from the face image data corresponding to the customer service time zone included in the individual sales data. The customer clerk's facial expression is identified, and a customer service point indicating an evaluation value for the customer service is calculated according to the facial expression. In addition, the management device manages individual sales data and customer service points in association with each other, and sums up these data to quantify and output customer service responses for each store clerk. The evaluation value is related to and output.
特定の人の主観に基づく対面のコミュニケーションの評価は、客観性が乏しく、被評価者の納得感に欠けるため、的確なコミュニケーションの改善に結びつかないことがある。具体的には、面接官によって志望者の評価が異なるため、適切なマッチングができないことがある。受講者が、自分と優れた営業担当者との間で、振る舞いの差異を正しく認識できないことがある。顧客の理解に応じた的確な説明ができないことがある。聴衆が期待する講義構成、伝え方を実践できないことがある。
上記事情に鑑み、本発明は、対面のコミュニケーションの対象者の第三者へ与える印象を客観的に評価できる印象導出システム、印象導出方法および印象導出プログラムを提供することを目的とする。
The evaluation of face-to-face communication based on the subjectivity of a specific person has poor objectivity and lacks the satisfaction of the person being evaluated, and may not lead to an accurate improvement in communication. Specifically, because the candidate's evaluation differs depending on the interviewer, there are cases where appropriate matching cannot be performed. Participants may not be able to correctly recognize differences in behavior between themselves and good salespeople. There may be cases where accurate explanations according to customer understanding cannot be made. The audience may not be able to practice the lecture structure and how to communicate.
In view of the above circumstances, an object of the present invention is to provide an impression derivation system, an impression derivation method, and an impression derivation program that can objectively evaluate an impression given to a third party of a person to be face-to-face communication.
本発明の一態様は、センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得する取得部と、印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報である印象導出情報を記憶する記憶部と、前記取得部が取得した前記感情値と前記行動値とのいずれか一方又は両方と、前記記憶部に記憶された前記印象導出情報とに基づいて、前記対象者の第三者へ与える印象の評価値を導出する導出部とを備える、印象導出システムである。 According to one aspect of the present invention, an emotion value that is a value obtained by quantifying a parameter indicating a subject's emotion derived based on information acquired by a sensor, and an action value that is a value obtained by quantifying a parameter indicating behavior In order to derive an evaluation value of an impression created using a plurality of one or both of an acquisition unit that acquires one or both, information indicating an impression, a parameter indicating an emotion, and a parameter indicating an action A storage unit that stores impression derivation information, which is information associated with the information, and one or both of the emotion value and the action value acquired by the acquisition unit, and the impression stored in the storage unit An impression derivation system comprising: a derivation unit that derives an evaluation value of an impression given to a third party of the subject based on derivation information.
本発明の一態様は、上記の印象導出システムであって、前記記憶部は、対象者の第三者へ与える印象の評価値を導出するシーンの各々に対して、印象導出情報を記憶し、前記導出部は、複数の前記シーンのうち、印象の評価値を導出するシーンに対応する印象導出情報に基づいて、前記対象者の前記第三者へ与える印象の評価値を導出する。 One aspect of the present invention is the above-described impression derivation system, wherein the storage unit stores impression derivation information for each of the scenes for deriving an evaluation value of an impression given to a third party of the subject person, The derivation unit derives an evaluation value of an impression given to the third person of the target person based on impression derivation information corresponding to a scene from which an evaluation value of an impression is derived among the plurality of scenes.
本発明の一態様は、上記の印象導出システムであって、前記印象導出情報に含まれる印象の前記評価値を導出するための情報に含まれる感情を示すパラメータと行動を示すパラメータのいずれか一方又は両方は、前記第三者の属性によって異なる。 One aspect of the present invention is the impression derivation system described above, wherein either one of a parameter indicating an emotion and a parameter indicating an action are included in the information for deriving the evaluation value of the impression included in the impression derivation information Or both depend on the attribute of the third party.
本発明の一態様は、上記の印象導出システムであって、前記導出部が導出した前記印象の評価値の時系列データ又は、前記印象の評価値と他人の印象の評価値との比較結果を作成する分析部を備える。 One aspect of the present invention is the impression derivation system described above, in which time series data of the evaluation value of the impression derived by the derivation unit or a comparison result between the evaluation value of the impression and the evaluation value of another person's impression is obtained. An analysis unit is provided.
本発明の一態様は、上記の印象導出システムであって、前記分析部は、前記比較結果に基づいて、印象の評価値に影響する前記感情を示すパラメータと前記行動を示すパラメータとのいずれか一方又は両方を抽出する。 One aspect of the present invention is the impression derivation system described above, wherein the analysis unit is one of a parameter indicating the emotion and a parameter indicating the action that affects the evaluation value of the impression based on the comparison result. One or both are extracted.
本発明の一態様は、上記の印象導出システムであって、前記記憶部は、説明手順と説明基準時間とを記憶し、前記取得部は、前記対象者が使用する端末装置が取得した情報と前記記憶部に記憶されている前記説明手順と前記説明基準時間とに基づいて導出された前記対象者の行動値を取得する。 One aspect of the present invention is the impression derivation system described above, in which the storage unit stores an explanation procedure and an explanation reference time, and the acquisition unit includes information acquired by a terminal device used by the subject. The behavior value of the subject derived based on the explanation procedure and the explanation reference time stored in the storage unit is acquired.
本発明の一態様は、上記の印象導出システムであって、前記センサーが取得した情報には、前記対象者に関する情報と前記第三者に関する情報とのいずれか一方又は両方が含まれる。 One aspect of the present invention is the impression derivation system described above, and the information acquired by the sensor includes one or both of information related to the subject and information related to the third party.
本発明の一態様は、センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得するステップと、印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報と、前記取得するステップで取得した前記感情値と前記行動値とのいずれか一方又は両方とに基づいて、前記対象者の第三者へ与える印象の評価値を導出するステップとを有する、印象導出システムが実行する印象導出方法である。 According to one aspect of the present invention, an emotion value that is a value obtained by quantifying a parameter indicating a subject's emotion derived based on information acquired by a sensor, and an action value that is a value obtained by quantifying a parameter indicating behavior A method for deriving an evaluation value of an impression created using a plurality of one or both of a step of acquiring one or both, information indicating an impression, a parameter indicating an emotion, and a parameter indicating an action The evaluation value of the impression given to the third party of the target person is derived based on the information associated with the information and one or both of the emotion value and the behavior value acquired in the acquiring step. And an impression derivation method executed by an impression derivation system.
本発明の一態様は、コンピュータに、センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得するステップと、印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報と、前記取得するステップで取得した前記感情値と前記行動値とのいずれか一方又は両方とに基づいて、前記対象者の第三者へ与える印象の評価値を導出するステップとを実行させるプログラムである。 According to one embodiment of the present invention, an action value that is a value obtained by quantifying an emotion value that is a value obtained by quantifying a parameter that represents an emotion of a target person derived based on information acquired by a sensor and a parameter that indicates an action Deriving an evaluation value of an impression created by using one or both of a step of acquiring one or both of a value, information indicating an impression, and a parameter indicating an emotion and a parameter indicating an action Evaluation value to be given to the third person of the target person based on the information associated with the information to be performed and one or both of the emotion value and the action value acquired in the acquiring step Is a program that executes the step of deriving.
本発明の実施形態によれば、対面のコミュニケーションの対象者の第三者へ与える印象を客観的に評価できる印象導出システム、印象導出方法および印象導出プログラムを提供できる。 According to the embodiment of the present invention, it is possible to provide an impression derivation system, an impression derivation method, and an impression derivation program that can objectively evaluate an impression given to a third party of a person to be face-to-face communication.
次に、本実施形態の印象導出システム、印象導出方法および印象導出プログラムを、図面を参照しつつ説明する。以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。
なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づく」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づく」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
Next, an impression derivation system, an impression derivation method, and an impression derivation program according to this embodiment will be described with reference to the drawings. Embodiment described below is only an example and embodiment to which this invention is applied is not restricted to the following embodiment.
Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiments, and the repetitive description will be omitted.
Further, “based on XX” in the present application means “based on at least XX”, and includes a case based on another element in addition to XX. Further, “based on XX” is not limited to the case where XX is directly used, but also includes the case where it is based on an operation or processing performed on XX. “XX” is an arbitrary element (for example, arbitrary information).
(実施形態)
(印象導出システム)
図1は、実施形態の印象導出システムの一例を示す図である。
実施形態の印象導出システム10は、撮像装置20と、マイクロフォン30と、端末装置40と、クライアント端末400と、印象導出装置100と、クラウドサーバ200とを備える。
撮像装置20と、マイクロフォン30と、端末装置40と、クライアント端末400と、印象導出装置100と、クラウドサーバ200との間は、インターネットなどのネットワーク50を介して、有線又は無線で接続される。
撮像装置20と、マイクロフォン30と、端末装置40との設置場所の一例は、研修所などの施設60である。本実施形態の施設60では、対面のコミュニケーションの研修が行われる。
(Embodiment)
(Impression derivation system)
FIG. 1 is a diagram illustrating an example of an impression derivation system according to an embodiment.
The
The
An example of the installation location of the
印象の評価の対象者(以下「対象者」という)に、第三者を相手に、対面でコミュニケーションを行ってもらう。コミュニケーションの最中に、対象者と第三者のいずれか一方又は両方の情報を取得する。具体的には、撮像装置20は対象者を撮像し、マイクロフォン30はコミュニケーションの内容を録音し、端末装置40はコミュニケーションに使用した資料などの文書データや、コミュニケーションの最中の操作ログを取得する。
撮像装置20は、対象者IDと対象者を撮像することによって得られた動画データとを含む動画データを作成し、作成した動画データを、クラウドサーバ200へ送信する。マイクロフォン30は、対象者IDとコミュニケーションの内容を録音することによって得られた音声データとを含む音声データを作成し、作成した音声データを、クラウドサーバ200へ送信する。端末装置40は、対象者IDと、コミュニケーションに使用した資料などの文書データや、端末装置40の操作ログを示す情報とを、クラウドサーバ200へ送信する。
クラウドサーバ200は、撮像装置20が送信した動画データを取得し、取得した動画データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶する。クラウドサーバ200は、マイクロフォン30が送信した音声データを取得し、取得した音声データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶する。クラウドサーバ200は、端末装置40が送信した文書データを取得し、取得した文書ファイルと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶する。クラウドサーバ200は、端末装置40が送信した操作ログを示す情報を取得し、取得した操作ログを示す情報と、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶する。
Have the person who receives the impression evaluation (hereinafter referred to as “subject”) communicate face-to-face with a third party. During the communication, information on one or both of the target person and the third party is acquired. Specifically, the
The
The
対象者の印象を評価するユーザ(以下「ユーザ」という)は、対象者の印象を評価する場合に、クライアント端末400に対して、印象の評価を要求する操作を行う。クライアント端末400は、ユーザの操作に応じて、印象の評価を要求する情報である印象評価要求を作成し、作成した印象評価要求を、印象導出装置100へ送信する。印象評価要求には、評価を行う対象者の対象者IDと、印象の評価を行うシーンを示す情報と、評価を行う印象を示す情報とが含まれる。また、他の対象者のデータと比較する場合には、印象評価要求には、他の対象者のデータを示す情報(例えば、ファイル名)が含まれる。また、対象者の過去のデータと比較する場合には、印象評価要求には、対象者の過去のデータを示す情報(例えば、ファイル名)が含まれる。シーンについては、後述する。
印象導出装置100は、クライアント端末400が送信した印象評価要求を受信した場合に、クラウドサーバ200へアクセスし、対象者の映像データ、音声データ、文書データ、操作ログなどのセンサー取得情報を要求する情報であるセンサー取得情報要求を、クラウドサーバ200へ送信する。センサー取得情報要求には、対象者IDが含まれる。
クラウドサーバ200は、印象導出装置100が送信したセンサー取得情報要求にしたがって、対象者IDに関連付けて記憶されている対象者の映像データ、音声データ、文書データ、操作ログなどのセンサー取得情報を取得する。クラウドサーバ200は、取得したセンサー取得情報を含むセンサー取得情報応答を作成し、作成したセンサー取得情報応答を、印象導出装置100へ送信する。
A user who evaluates the impression of the target person (hereinafter referred to as “user”) performs an operation for requesting evaluation of the impression to the
When receiving an impression evaluation request transmitted from the
The
印象導出装置100は、クラウドサーバ200が送信したセンサー取得情報応答を受信し、受信したセンサー取得情報応答に含まれる対象者の動画データと音声データと文書を示すデータと操作ログを示す情報とを取得する。印象導出装置100は、取得した対象者の動画データと音声データと文書を示すデータと操作ログを示す情報とに基づいて、対象者の表情、身振りなどを認識する。印象導出装置100は、対象者の表情、身振りなどを認識した結果に基づいて、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのうちいずれか一方又は両方を導出する。
印象導出装置100は、導出した感情を示す一又は複数のパラメータの各々について感情値を導出する。また、印象導出装置100は、導出した行動を示す一又は複数のパラメータの各々について行動値を導出する。ここで、感情値は、対象者の表情、身振りなどを認識した結果に基づいて導出された感情を示す一又は複数のパラメータの各々について、その度合いを数値化したものである。行動値は、対象者の表情、身振りなどを認識した結果に基づいて導出された行動を表す一又は複数のパラメータの各々について、その度合いを数値化したものである。印象導出装置100は、感情を示す一又は複数のパラメータの各々について、感情値を関連付けて記憶する。印象導出装置100は、行動を示す一又は複数のパラメータの各々について、行動値を関連付けて記憶する。
印象導出装置100は、シーン毎に、印象を示す情報と、印象の評価値を導出するための導出式とを関連付けた印象導出情報を記憶している。導出式は、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成されている。導出式は、感情を示すパラメータと行動を示すパラメータとを、それぞれ一つ使用して作成されている場合もある。
The
The
The
クライアント端末400は、対象者IDと印象を評価するシーンを示す情報と評価する印象を示す情報とを含む印象評価要求を、印象導出装置100へ送信する。
印象導出装置100は、クライアント端末400が送信した印象評価要求を受信し、受信した印象評価要求に含まれる印象を評価するシーンと導出する印象を示す情報とに基づいて、その印象の評価値を導出するための導出式を取得する。印象導出装置100は、記憶している感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方から、取得した導出式に使用されているパラメータを取得し、取得したパラメータの感情値又は行動値をその導出式へ代入することによって、印象の評価値を導出する。印象導出装置100は、導出した印象の評価値に基づいて、印象を分析する。印象導出装置100は、印象の評価値と印象の分析結果とを含む印象評価応答を作成し、作成した印象評価応答を、クライアント端末400へ送信する。
クライアント端末400は、印象導出装置100が送信した印象評価結果を受信し、受信した印象評価結果に含まれる印象の評価値と印象の分析結果とを表示する。
The
The
The
以下、印象導出システム10を構成する印象導出装置100と、クラウドサーバ200と、クライアント端末400とについて、詳細に説明する。
(印象導出装置100)
図2は、実施形態の印象導出システムに含まれる印象導出装置とクラウドサーバとクライアント端末との一例を示すブロック図である。図2を参照して、印象導出装置100について説明する。
印象導出装置100は、パーソナルコンピュータ、サーバ、スマートフォン、タブレットコンピュータ又は産業用コンピュータ等の装置によって実現される。
印象導出装置100は、例えば、通信部110と、情報処理部130と、記憶部140とを備える。
通信部110は、通信モジュールによって実現される。通信部110はネットワーク50を介して、外部の通信装置と通信する。通信部110は、例えば無線LAN(Local Area Network)、有線LAN、ブルートゥース(Bluetooth)(登録商標)又はLTE(Long Term Evolution)(登録商標)などの通信方式で通信してもよい。
通信部110は、クライアント端末400が送信した印象評価要求を受信し、受信した印象評価要求を情報処理部130へ出力する。通信部110は、情報処理部130が出力したセンサー取得情報要求を取得し、取得したセンサー取得情報要求を、クラウドサーバ200へ送信する。通信部110は、クラウドサーバ200が送信したセンサー取得情報応答を受信し、受信したセンサー取得情報応答を情報処理部130へ出力する。通信部110は、情報処理部130が出力した印象評価応答を取得し、取得した印象評価応答を、クライアント端末400へ送信する。
Hereinafter, the
(Impression derivation device 100)
FIG. 2 is a block diagram illustrating an example of an impression derivation device, a cloud server, and a client terminal included in the impression derivation system of the embodiment. The
The
The
The communication unit 110 is realized by a communication module. The communication unit 110 communicates with an external communication device via the
The communication unit 110 receives the impression evaluation request transmitted from the
記憶部140は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。記憶部140の一部または全部は、印象導出装置100の一部として設けられる場合に代えて、NAS(Network Attached Storage)や外部のストレージサーバなど、印象導出装置100のプロセッサがネットワーク50を介してアクセス可能な外部装置により実現されてもよい。記憶部140には、情報処理部130により実行されるプログラム141と、アプリ142とが記憶される。さらに、記憶部140には、感情値行動値情報143と、印象導出情報144と、印象情報DB145とが記憶される。
The
アプリ142は、印象導出装置100に、印象評価要求を取得させ、取得させた印象評価要求に基づいて、センサー取得情報要求を作成させ、作成させたセンサー取得情報要求を、クラウドサーバ200へ送信させる。また、アプリ142は、印象導出装置100に、送信させたセンサー取得情報要求に対する応答であるセンサー取得情報応答を取得させ、取得させたセンサー取得情報応答に含まれる映像データと音声データと文書データと操作ログを示す情報を取得させる。また、アプリ142は、印象導出装置100に、取得させた映像データと音声データと文書データと操作ログを示す情報とに基づいて、感情値と行動値とのうちいずれか一方又は両方を導出させる。
また、アプリ142は、印象導出装置100に、記憶部140の印象導出情報144から、印象評価要求に含まれるシーンを示す情報と印象を示す情報とに基づいて、印象を示す情報に関連付けて記憶されている導出式を取得させる。また、アプリ142は、印象導出装置100に、取得させた導出式に基づいて、その導出式に含まれる感情を示す一又は複数のパラメータの感情値と、行動を示す一又は複数のパラメータの行動値のいずれか一方又は両方を、記憶部140の感情値行動値情報143から取得させ、取得させた感情値と行動値とのいずれか一方又は両方を、導出式に代入することによって、印象の評価値を導出させる。また、アプリ142は、印象導出装置100に、対象者IDと印象の評価値を示す情報とを取得させ、取得させた印象の評価値を示す情報を分析させる。
The
In addition, the
(感情値行動値情報143)
感情値行動値情報143は、時間と情報処理部130がセンサー取得情報から導出した感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方について、感情値と行動値とのいずれか一方又は両方とを、対象者ID毎に関連付けた情報である。例えば、感情値は、主に表情から導出される。例えば、行動値は、主に身振りから導出される。
図3は、感情値行動値情報の一例を示す図である。図3に示される例では、対象者ID「aaa」について、時間「00:00:00」と、表情から導出された感情を示すパラメータである喜びの感情値「7」と怒りの感情値「2」と、身振りから導出された行動を示すパラメータである頷きの行動値「0」と手振りの行動値「12」とが関連付けられている。図2に戻り、説明を続ける。
(Emotion value action value information 143)
The emotion value
FIG. 3 is a diagram illustrating an example of emotion value action value information. In the example shown in FIG. 3, with respect to the target person ID “aaa”, the time “00:00:00”, the emotion value “7” of joy, which is a parameter indicating the emotion derived from the facial expression, and the emotion value “ 2 ”is associated with a whispering action value“ 0 ”, which is a parameter indicating the action derived from gestures, and a gesture action value“ 12 ”. Returning to FIG. 2, the description will be continued.
(印象導出情報144)
印象導出情報144は、印象を示す情報(印象情報)と、印象の評価値と、印象の評価値を導出するための導出式とを、シーン毎に関連付けた情報である。印象導出情報144は、採用面談/社員面談、営業力を強化する研修、対面営業をリアルタイムに支援する場合、聴衆の反応・理解度を把握するなどのシーン毎に用意される。
ここで、採用面談/社員面談では、面談の相手を対象者とし、その対象者を撮影するとともに、音声を録音する。撮影することによって得られた動画データと録音することによって得られた音声データとに基づいて、感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方が取得される。取得された感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方に基づいて、本音で話している、適正があるなどの印象がデジタル化されることによって評価値が導出される。デジタル化された本音で話している、適正があるなどの印象に基づいて、最適なマッチングを図るとともに、優績者となる割合、離職率などとの相関を探ることができる。
営業力を強化する研修では、営業担当者を対象者とし、その対象者を撮影する。撮影することによって得られた動画データに基づいて、感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方が取得される。取得された感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方に基づいて、振る舞いの良否などの印象がデジタル化されることによって評価値が導出される。デジタル化された振る舞いの良否などの印象を、営業担当者向け研修で活用できる。
(Impression derivation information 144)
The
Here, in the recruitment interview / employee interview, the interviewee is the target person, and the target person is photographed and the voice is recorded. Based on the moving image data obtained by shooting and the sound data obtained by recording, one or both of the emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior are acquired. . Based on one or both of the emotion value of the parameter indicating the acquired emotion and the behavior value of the parameter indicating the behavior, the evaluation value is obtained by digitizing the impression that the speaker is speaking or is appropriate Is derived. Based on the impression that you are speaking digitally and that you have the appropriateness, you can try to find the best match, and find the correlation with the percentage of people who are excellent and the turnover rate.
In training to strengthen sales capabilities, sales representatives are targeted and photographed. Based on the moving image data obtained by shooting, either or both of the emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior are acquired. Based on one or both of the acquired emotion value of the parameter indicating the emotion and the behavior value of the parameter indicating the behavior, the evaluation value is derived by digitizing the impression such as the quality of the behavior. You can use the impressions of the digitalized behavior in training for sales representatives.
対面営業をリアルタイムに支援する場合には、折衝中の顧客を対象者とし、その対象者を撮影するとともに、音声を録音する。撮影することによって得られた動画データと録音することによって得られた音声データとに基づいて、感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方が取得される。取得された感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方に基づいて、顧客の反応などの印象がデジタル化されることによって評価値が導出される。デジタル化された顧客の反応などの印象を、営業担当者に通知(アノテー ション)し、適切な対応を促す。
聴衆の反応・理解度の把握する場合には、セミナー、授業等の受け手を対象者とし、その対象者を撮影するとともに、音声を録音する。撮影することによって得られた動画データと録音することによって得られた音声データとに基づいて、感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方が取得される。取得された感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方に基づいて、感情、理解度などの印象がデジタル化されることによって評価値が導出される。デジタル化された感情、理解度などの印象に基づいて、話者に適切な対応を促す。この場合、対象者は、複数人である。
When supporting face-to-face sales in real time, a customer who is negotiating is targeted, and the subject is photographed and voice is recorded. Based on the moving image data obtained by shooting and the sound data obtained by recording, one or both of the emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior are acquired. . Based on one or both of the acquired emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior, an evaluation value is derived by digitizing an impression such as a customer reaction. Notify sales representatives of digital customer impressions and other responses, and encourage appropriate responses.
When grasping the audience's reaction and level of understanding, the audience, such as seminars and classes, is targeted, and the audience is photographed and voices are recorded. Based on the moving image data obtained by shooting and the sound data obtained by recording, one or both of the emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior are acquired. . Based on one or both of the acquired emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior, an evaluation value is derived by digitizing impressions such as emotion and degree of understanding. Encourage speakers to take appropriate actions based on their digital feelings and impressions of understanding. In this case, there are a plurality of subjects.
図4は、印象導出情報の一例を示す図である。図4には、シーン1−シーンn(nは、n>0の整数)の各々について、印象を示す情報と、印象の評価値と、その印象の評価値を導出するための導出式とが関連付けられている。図4に示される例では、シーン1について、印象を示す情報「好感度」と、印象の評価値「A」と、導出式「喜び−怒り+10×頷き+手振り」とが関連づけられている。この式は、好感度の評価値「A」が、感情を示すパラメータである「喜び」の感情値から感情を示すパラメータである「怒り」の感情値を減算し、減算することによって得られた値から10と行動を示すパラメータである「頷き」の行動値との積を減算し、減算した結果得られた値から行動を示すパラメータである「手振り」の行動値を加算することによって得られることを示している。ここで、「10」は重みづけであり、「頷き」に重みづけがされている。これによって、好感度には、「頷き」の影響が大きいことを示される。
また、シーン1について、印象を示す情報「好感度」と、印象の評価値「B」と、導出式「嬉しい>80&怒り×2+悲しい<10」とが関連づけられている。この式は、印象の評価値「B」が、感情を示すパラメータである「嬉しい」の感情値が80より大きく、且つ感情を示すパラメータである「怒り」の感情値を2倍した値に感情を示すパラメータである「悲しい」の感情値を加えた値が10未満である導出式で与えられることが示されている。ここで、「2」は重みづけであり、「怒り」に重みづけがされている。これによって、好感度には、「怒り」の影響が大きいことを示される。
また、シーン1について、印象を示す情報「好感度」と、印象の評価値「C」と、導出式「嬉しい>50&怒り×2+悲しい<が30」とが関連づけられている。この式は、印象の評価値「C」が、感情を示すパラメータである「嬉しい」の感情値が50より大きく、且つ感情を示すパラメータである「怒り」の感情値を2倍した値に感情を示すパラメータである「悲しい」の感情値を加えた値が30未満である導出式で与えられることが示されている。ここで、「2」は重みづけであり、「怒り」に重みづけがされている。これによって、好感度には、「怒り」の影響が大きいことを示される。
また、シーン1について、印象を示す情報「説得力」と、印象の評価値「D」と、導出式「100−恐れ−嫌悪+10×手振り」とが関連づけられている。この式は、説得力の評価値「D」が、100から感情を示すパラメータである「恐れ」の感情値を減算し、減算することによって得られた値から感情を示すパラメータである「嫌悪」の感情値を減算し、減算した値から10と行動を示すパラメータである「手振り」の行動値との積を減算することによって得られることを示している。ここで、「10」は重みづけであり、「手振り」に重みづけがされている。これによって、説得力には、「手振り」の影響が大きいことを示される。
FIG. 4 is a diagram illustrating an example of impression derivation information. FIG. 4 shows information indicating an impression, an evaluation value of the impression, and a derivation formula for deriving the evaluation value of the impression for each of the
For
For
Further, for the
また、図4に示したもの以外の例として、印象を示す情報「親しみ」が、感情を示すパラメータ「喜び」の感情値と「怒り」の感情値と、行動を示すパラメータ「頷き」の行動値と「手振り」の行動値とで導出される。また、印象を示す情報「自信」が、感情を示すパラメータ「悲しみ」の感情値と「恐怖」の感情値と「嫌悪」の感情値と、行動を示すパラメータ「揺れ」の行動値とで導出される。また、印象を示す情報「熱意」と「共感」とが、感情を示すパラメータ「注意」の感情値と、行動を示すパラメータ「頷き」の行動値と「揺れ」の行動値とで導出される。また、印象を示す情報「支配」と「対応力」が、感情を示すパラメータ「驚き」の感情値と、行動を示すパラメータ「支配率」の行動値と「速さ」の行動値とで導出される。図2に戻り、説明を続ける。 Further, as an example other than that shown in FIG. 4, the information “Familiarity” indicating the impression includes the emotion value of the parameter “joy” indicating the emotion, the emotion value of “anger”, and the behavior of the parameter “swing” indicating the behavior. It is derived from the value and the action value of “hand gesture”. In addition, the information “confidence” indicating impression is derived from the emotion value of the parameter “sadness” indicating emotion, the emotion value of “fear”, the emotion value of “disgust”, and the behavior value of the parameter “swing” indicating behavior Is done. In addition, the impression information “enthusiasm” and “sympathy” are derived from the emotion value of the parameter “attention” indicating emotion, the behavior value of the parameter “buzz” indicating behavior, and the behavior value of “shake” . In addition, the information “domination” and “responsibility” indicating impression are derived from the emotion value of the parameter “surprise” indicating emotion, the behavior value of the parameter “dominance rate” indicating behavior, and the behavior value of “speed” Is done. Returning to FIG. 2, the description will be continued.
(印象情報DB145)
印象情報DB145は、対象者IDと印象情報とその印象の評価値を導出するのに使用した感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とのいずれか一方又は両方とを関連付けた情報である。
印象情報DB145は、後述する印象情報導出部124が出力したファイルを記憶する。ファイルには、対象者IDと、印象の評価値を導出した印象を示す情報と、その印象の評価値を導出するのに使用した感情を示す一又は複数のパラメータとそれらの感情値と、行動を示す一又は複数のパラメータの行動値とそれらの行動値とを関連付けた情報が含まれる。
図5は、印象情報DBの一例を示す図である。図5に示される例では、対象者ID「aaa」と、印象情報「好感度」と、印象の評価値を導出するのに使用した感情を示すパラメータである喜びの感情値「X」と、感情を示すパラメータである怒りの感情値「Y」と、行動を示すパラメータである頷きの行動値「Z」と、行動を示すパラメータである手振りの行動値「W」とが関連づけられている。印象情報DB145に記憶される情報は、後述する分析部138で使用される。図2に戻り説明を続ける。
(Impression information DB 145)
The
The
FIG. 5 is a diagram illustrating an example of the impression information DB. In the example shown in FIG. 5, the target person ID “aaa”, the impression information “favorability”, the emotion value “X” of joy that is a parameter indicating the emotion used to derive the evaluation value of the impression, An anger emotion value “Y” which is a parameter indicating emotion, a whispering behavior value “Z” which is a parameter indicating behavior, and an action value “W” of a hand gesture which is a parameter indicating behavior are associated with each other. Information stored in the
情報処理部130は、例えば、CPU(Central Processing Unit)などのプロセッサが記憶部140に格納されたプログラム141やアプリ142を実行することにより実現される機能部(以下、ソフトウェア機能部と称する)である。なお、情報処理部130の全部または一部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などのハードウェアにより実現されてもよく、ソフトウェア機能部とハードウェアとの組み合わせによって実現されてもよい。
情報処理部130は、例えば、取得部132と、感情値行動値導出部133と、印象情報導出部134と、作成部136と、分析部138とを備える。
The
The
取得部132は、通信部110が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答を、感情値行動値導出部133へ出力する。取得部132は、通信部110が出力した印象評価要求を取得し、取得した印象評価要求を、印象情報導出部134と作成部136とへ出力する。
The
感情値行動値導出部133は、取得部132が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答に含まれる映像データと音声データと文書データと操作ログとを取得する。感情値行動値導出部133は、取得した映像データと音声データと文書データと操作ログとに基づいて、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方を導出する。感情値行動値導出部133は、導出した一又は複数の感情を示すパラメータの各々について感情値を導出する。また、感情値行動値導出部133は、導出した一又は複数の行動を示すパラメータの各々について行動値を導出する。
具体的には、感情値行動値導出部133は、映像データを再生することによって得られる映像から、対象者の顔のパーツを特定し、特定したパーツをトラッキングしたり、筋肉のわずかな動きをデータ化したりすることによって、表情を識別する。感情値行動値導出部133は、識別した表情を分析することによって、喜び、怒り、悲しみ、驚き、恐怖、嫌悪、軽蔑などの感情を示す一又は複数のパラメータを導出する。感情値行動値導出部133は、導出した感情を示す一又は複数のパラメータの各々について、その度合いを数値化することによって感情値を導出する。
The emotion value behavior
Specifically, the emotion value behavior
また、感情値行動値導出部133は、映像データを再生することによって得られる映像から、対象者の関節ポイントを認識し、認識した関節ポイントに基づいて、身振り、立つ、寝る、歩く、転倒などの行動を示す一又は複数のパラメータを導出する。感情値行動値導出部133は、導出した行動を示す一又は複数のパラメータの各々について、その度合いを数値化することによって行動値を導出する。また、感情値行動値導出部133は、大きな動作だけでなく、上半身に特化して、微細な動作を識別し、識別した動作を示す一又は複数のパラメータを導出してもよい。そして、感情値行動値導出部133は、導出した動作を示す一又は複数のパラメータの各々について、その度合いを数値化することによって、行動値を導出してもよい。
ここでは、一例として、感情値行動値導出部133が、映像データを再生することによって得られる映像から、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方を導出する場合について説明した。感情値行動値導出部133は、音声データ、文書データ、操作ログから、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方を導出する。そして、感情値行動値導出部133は、導出した動作を示す一又は複数のパラメータの各々について、その度合いを数値化することによって、行動値を導出する。
例えば、感情値行動値導出部133は、音声データを再生することによって得られる音声から、喜び、怒り、哀しみ、興奮、平常などの感情を示す一又は複数のパラメータを導出する。また、例えば、記憶部140に、説明手順と説明基準時間とを記憶しておく。感情値行動値導出部133は、文書データと操作ログを示す情報と、記憶部140に記憶されている説明順序と説明基準時間とを比較することによって、説明順序と説明基準時間とにしたがっているか否かを判定する。感情値行動値導出部133は、説明順序と説明基準時間とにしたがっているか否かの判定結果に基づいて、説明順序、説明時間などの行動を示す一又は複数のパラメータを導出する。
感情値行動値導出部133は、感情を示す一又は複数のパラメータの各々と感情値との組み合わせと、行動を示す一又は複数のパラメータの各々と行動値との組み合わせのうちいずれか一方又は両方を、対象者IDと関連付けて、記憶部140の感情値行動値情報143に記憶する。
Further, the emotion value behavior
Here, as an example, the emotion value action
For example, the emotion value / behavior
The emotion value / behavior
印象情報導出部134は、取得部132が出力した印象評価要求を取得し、記憶部140の印象導出情報144から、取得した印象評価要求に含まれるシーンを示す情報に対応する印象導出情報を取得する。さらに、印象情報導出部134は、印象評価要求に含まれる印象を示す情報に基づいて、取得した印象導出情報から、印象情報を示す情報に関連付けられている導出式を取得する。
印象情報導出部134は、取得した導出式に基づいて、その導出式に含まれる感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とのいずれか一方又は両方を、記憶部140の感情値行動値情報143の対象者IDに関連付けられている感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とから取得する。
印象情報導出部134は、取得した一又は複数のパラメータの各々の感情値と取得した一又は複数のパラメータの各々の行動値とのいずれか一方又は両方を、導出式の該当するパラメータに代入することによって、印象の評価値を導出する。このように構成することによって、リアルタイムに、印象の評価値を導出できる。
The impression
The impression
The impression
また、ここで、印象情報導出部134は、記憶部140の感情値行動値情報143の対象者IDに関連付けられている感情を示す一又は複数のパラメータの各々について、時間に対して、感情値を平均化する、合計するなどの統計処理を行うことによって、各感情を示すパラメータの感情値を導出してもよい。また、印象情報導出部134は、記憶部140の感情値行動値情報143の対象者IDに関連付けられている行動を示す一又は複数のパラメータの各々について、時間に対して、行動値を平均化する、合計するなどの統計処理を行うことによって、各行動を示すパラメータの行動値を導出してもよい。
印象情報導出部134は、導出した感情値と導出した行動値とのいずれか一方又は両方を、導出式の該当するパラメータに代入することによって、印象の評価値を導出してもよい。
印象情報導出部134は、対象者IDと導出した印象の評価値を示す情報とを、分析部138へ出力する。さらに、印象情報導出部134は、対象者IDと、印象の評価値を導出した印象を示す情報と、その印象の評価値を導出するのに使用した感情を示す一又は複数のパラメータとそれらの感情値と、行動を示す一又は複数のパラメータの行動値とそれらの行動値とを関連付けたファイルを作成し、作成したファイルを、印象情報DB145へ記憶する。
Here, the impression
The impression
The impression
分析部138は、印象情報導出部134が出力した対象者IDと、印象の評価値を示す情報とを取得し、取得した印象の評価値を示す情報を分析する。具体的には、分析部138は、印象の評価値の時系列データを作成する。また、分析部138は、印象情報DB145から、対象者の過去の印象の評価値を取得し、取得した過去の印象の評価値に基づいて、同じ対象者について、印象の評価値と過去の印象の評価値との比較結果を作成する。
また、分析部138は、印象情報DB145から、他人の印象の評価値を取得し、取得した他人の印象の評価値に基づいて、対象者の印象の評価値と他人の印象の評価値との比較結果を作成する。また、分析部138は、印象の評価値と他人の印象の評価値との比較結果に基づいて、印象の評価値に影響する感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を抽出する。
例えば、模範的な保険募集人と一般的な募集人をそれぞれ撮影し、撮影することによって得られた映像データに基づいて、印象の評価値を導出する。分析部138は、模範的な保険募集人の印象の評価結果と一般的な募集人の印象の評価結果とを比較し、有意な差が認められるパラメータを抽出できるかを検証する。検証の結果、有意な差が認められるパラメータを抽出できた場合には、抽出できたパラメータが、模範的な保険募集人と一般的な募集人との印象に影響するものであると判断できる。さらに、分析部138は、抽出したパラメータを含む導出式を作成するようにしてもよい。このように構成することによって、模範的な保険募集人と一般的な募集人との印象に影響するパラメータに着目した印象の評価値を導出する導出式を作成できる。
分析部138は、対象者IDと印象の評価値を示す情報と印象の評価値の分析結果を示す情報とを、作成部136へ出力する。
作成部136は、取得部132が出力した印象評価要求を取得し、取得した印象評価要求に基づいて、対象者IDを含むセンサー取得情報要求を作成し、作成したセンサー取得情報要求を通信部110へ出力する。また、作成部136は、分析部138が出力した対象者IDと印象の評価値を示す情報と印象の評価値の分析結果を示す情報と含む印象評価応答を作成し、作成した印象評価応答を、通信部110へ出力する。
The
Further, the
For example, an exemplary insurance recruiter and a general recruiter are photographed, and an evaluation value of an impression is derived based on video data obtained by photographing. The
The
The
(クラウドサーバ200)
図2を参照して、クラウドサーバ200について説明する。
クラウドサーバ200は、パーソナルコンピュータ、サーバ、又は産業用コンピュータ等の装置によって実現される。
クラウドサーバ200は、例えば、通信部210と、情報処理部230と、記憶部240とを備える。
(Cloud server 200)
The
The
The
通信部210は、通信モジュールによって実現される。通信部210はネットワーク50を介して、外部の通信装置と通信する。通信部210は、例えば無線LAN、有線LAN、ブルートゥース(登録商標)又はLTE(登録商標)などの通信方式で通信してもよい。
通信部210は、撮像装置20が送信した映像データを受信し、受信した映像データを情報処理部230へ出力する。通信部210は、マイクロフォン30が送信した音声データを受信し、受信した音声データを情報処理部230へ出力する。通信部210は、端末装置40が送信した文書データと操作ログを示す情報とを受信し、受信した文書データと、操作ログを示す情報とを情報処理部230へ出力する。通信部210は、印象導出装置100が送信したセンサー取得情報要求を受信し、受信したセンサー取得情報要求を情報処理部230へ出力する。通信部210は、情報処理部230が出力したセンサー取得情報応答を、印象導出装置100へ送信する。
The
The
記憶部240は、例えば、RAM、ROM、HDD、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。記憶部240には、情報処理部230により実行されるプログラム242と、アプリ244とが記憶される。さらに、記憶部240には、検出情報246が記憶される。
アプリ244は、クラウドサーバ200に、映像データと、音声データと、文書データと、操作ログを示す情報とを取得させ、取得させた映像データと、音声データと、文書データと、操作ログを示す情報とを、対象者IDと関連付けて、記憶部240に記憶させる。また、アプリ244は、クラウドサーバ200に、センサー取得情報要求を取得させ、取得させたセンサー取得情報要求に基づいて、記憶部240に記憶されているセンサー取得情報を取得させ、取得させたセンサー取得情報を、印象導出装置100へ送信させる。
検出情報246は、対象者ID毎に、映像データと音声データと文書データと操作ログとのうち、情報処理部230が出力した情報を関連付けて記憶する。
The
The application 244 causes the
The detection information 246 stores information output by the
情報処理部230は、例えば、CPUなどのプロセッサが記憶部240に格納されたプログラム242を実行することにより実現されるソフトウェア機能部である。なお、情報処理部230の全部または一部は、LSI、ASIC、またはFPGAなどのハードウェアにより実現されてもよく、ソフトウェア機能部とハードウェアとの組み合わせによって実現されてもよい。
情報処理部230は、例えば、取得部232と、作成部236とを備える。
The
The
取得部232は、通信部210が出力した映像データを取得し、取得した映像データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した音声データを取得し、取得した音声データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した文書データを取得し、取得した文書データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した操作ログを示す情報を取得し、取得した操作ログを示す情報と、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。
また、取得部232は、通信部210が出力したセンサー取得情報要求を取得し、取得したセンサー取得情報要求に含まれる対象者IDに関連付けられている映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを、記憶部240の検出情報246から取得する。取得部232は、対象者IDと、取得した映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを、作成部236へ出力する。
作成部236は、取得部232が出力した対象者IDと映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを取得し、取得した対象者IDと映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを含み、印象導出装置100を宛先とするセンサー取得情報応答を作成する。作成部236は、作成したセンサー取得情報応答を、通信部210へ出力する。
The acquisition unit 232 acquires the video data output by the
The acquisition unit 232 acquires the sensor acquisition information request output from the
The creation unit 236 acquires the target person ID, the video data file, the audio data file, the document data file, and the operation log file output from the acquisition unit 232, and the acquired target ID and video data file A sensor acquisition information response including the audio data file, the document data file, and the operation log file is generated with the
(クライアント端末400)
図2を参照して、クライアント端末400について説明する。
クライアント端末400は、パーソナルコンピュータ、スマートフォン又はタブレットコンピュータ等の装置によって実現される。
クライアント端末400は、例えば、通信部410と、情報処理部430と、記憶部440と、操作部450と、表示部460とを備える。
(Client terminal 400)
The
The
The
通信部410は、通信モジュールによって実現される。通信部410はネットワーク50を介して、外部の通信装置と通信する。通信部410は、例えば無線LAN、有線LAN、ブルートゥース(登録商標)又はLTE(登録商標)などの通信方式で通信してもよい。
通信部410は、情報処理部430が出力した印象評価要求を、印象導出装置100へ送信する。通信部410は、印象導出装置100が送信した印象評価応答を受信し、受信した印象評価応答を、情報処理部430へ出力する。
The
The
記憶部440は、例えば、RAM、ROM、HDD、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。記憶部440には、情報処理部430により実行されるプログラム442と、アプリ444とが記憶される。
アプリ444は、クライアント端末400に印象評価要求を作成させ、作成させた印象評価要求を、印象導出装置100へ送信させる。アプリ444は、印象導出装置100が送信した印象評価応答を受信させ、受信させた印象評価応答を処理させる。
操作部450は、入力デバイスを備え、ユーザの操作を受け付ける。この入力デバイスには、キーボード等の文字情報を入力するデバイス、マウス、タッチパネル等のポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッド等が含まれる。
表示部460は、CPUなどのプロセッサによって制御され、画像、GUI(Graphical User Interface)などを表示する。この一例では、操作部450は、タッチパネルである。
The
The
The operation unit 450 includes an input device and accepts user operations. The input device includes a device for inputting character information such as a keyboard, a pointing device such as a mouse and a touch panel, a button, a dial, a joystick, a touch sensor, and a touch pad.
The display unit 460 is controlled by a processor such as a CPU, and displays an image, a GUI (Graphical User Interface), and the like. In this example, the operation unit 450 is a touch panel.
情報処理部430は、例えば、CPUなどのプロセッサが記憶部440に格納されたプログラム442とアプリ444とを実行することにより実現されるソフトウェア機能部である。なお、情報処理部430の全部または一部は、LSI、ASIC、またはFPGAなどのハードウェアにより実現されてもよく、ソフトウェア機能部とハードウェアとの組み合わせによって実現されてもよい。
情報処理部430は、例えば、取得部432と、処理部434と、作成部436とを備える。
For example, the
The
取得部432は、通信部410が出力した印象評価応答を取得し、取得した印象評価応答を、処理部434へ出力する。
処理部434は、ユーザが、操作部450に印象の評価を要求する操作を行った場合に、表示部460に、印象の評価を行う画面を表示する。
図6は、印象の評価を行う画面の一例を示す図である。図6に示される例では、印象の評価を行う画面には、「1.分析対象データ指定」欄と、「2.評価パターン指定」欄と、「3.コミュニケーション分析対象指定」欄と、「4.総合評価確認」欄とが表示される。
「1.分析対象データ指定」欄には、印象の評価を行う対象者の動画データを示す情報(例えば、ファイル名)と音声データを示す情報(例えば、ファイル名)と文書データを示す情報(例えば、ファイル名)と操作ログを示す情報(例えば、ファイル名)とのうち、少なくとも一つの情報が入力される。
「2.評価パターン指定」欄には、評価パターンとして、印象を評価するシーンを示す情報が入力され、評価項目として、印象を示す情報が入力される。
「3.コミュニケーション分析対象指定」欄には、対象者の過去の印象と比較する場合には、その対象者の過去のデータを示す情報(例えば、ファイル名)が入力される。また、「3.コミュニケーション分析対象指定」欄には、他の対象者の印象と比較する場合には、その他の対象者のデータを示す情報(例えば、ファイル名)が入力される。
「4.総合評価確認」欄には、感情を示すパラメータ、行動を示すパラメータの詳細や、印象の評価値を含めた総合的な評価結果が表示される。
The
When the user performs an operation for requesting impression evaluation from the operation unit 450, the
FIG. 6 is a diagram illustrating an example of a screen for evaluating an impression. In the example shown in FIG. 6, an impression evaluation screen includes “1. Analysis target data specification” column, “2. Evaluation pattern specification” column, “3. Communication analysis target specification” column, “ 4. “Comprehensive evaluation confirmation” column is displayed.
In the “1. Analysis target data designation” column, information (for example, a file name) indicating moving image data of a target person whose impression is to be evaluated, information (for example, a file name) indicating audio data, and information (for example, a file name) For example, at least one piece of information is input between the file name) and information indicating the operation log (for example, file name).
In the “2. Evaluation pattern designation” column, information indicating a scene for evaluating an impression is input as an evaluation pattern, and information indicating an impression is input as an evaluation item.
In the “3. Communication analysis target designation” field, information (for example, a file name) indicating past data of the target person is input when compared with the past impression of the target person. In addition, in the “3. Communication analysis target designation” field, information (for example, a file name) indicating data of other target persons is input when compared with impressions of other target persons.
In the “4. Comprehensive evaluation confirmation” column, a comprehensive evaluation result including a parameter indicating emotion, a detail of a parameter indicating action, and an evaluation value of impression is displayed.
印象の評価を行う画面で、必要な項目を入力した後、「分析開始」が押されることによって、処理部434は、作成部436へ、対象者IDとシーンを示す情報と印象を示す情報とを出力する。さらに、「3.コミュニケーション分析対象指定」欄に、対象者の過去のデータを示す情報や、他の対象者のデータを示す情報が入力された場合には、処理部434は、対象者IDと印象を示す情報とに加え、対象者の過去のデータを示す情報や、他の対象者のデータを示す情報を出力する。ここでは、処理部434が、作成部436へ、対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを出力した場合について説明を続ける。
処理部434は、取得部432が出力した印象評価応答を取得し、取得した印象評価応答を処理することによって、表示部460に印象評価結果を表示する。
After inputting necessary items on the screen for evaluating impressions, when “analysis start” is pressed, the
The
図7は、印象評価結果の表示画面の一例を示す図である。図7に示される例では、印象評価結果の表示画面は、「A」欄と「B」欄と「C」欄とに分けられる。「A」欄には、印象を示す情報と印象の評価値と印象の評価値のランクとが関連付けて表示される。ここで、評価値のランクは、印象の評価値を、評価値が高い方から、A、B、C、・・・と分類したものである。例えば、印象の評価値が、80以上をAランクとし、70以上80未満をBランクとし、60以上70未満をCランクとし、40以上60未満をDランクとする。
「B」欄には、対象者と他の対象者との印象の評価値の比較結果が表示される。図8に示される例では、対象者と他の対象者との印象の評価値の比較結果が、表とレーダーチャートで表されている。
「C」欄には、感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値のいずれか一方又は両方について、時系列データと、他の対象者との比較と、印象の評価値とが示される。図8に示される例では、時系列データは、積み上げグラフで表される。他の対象者との比較はレーダーチャートで表される。印象の評価値は、表で表される。
作成部436は、処理部434が出力した対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを取得し、取得した対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを含み、印象導出装置100を宛先とする印象評価要求を作成する。作成部436は、作成した印象評価要求を、通信部410へ出力する。
FIG. 7 is a diagram illustrating an example of an impression evaluation result display screen. In the example shown in FIG. 7, the impression evaluation result display screen is divided into an “A” field, a “B” field, and a “C” field. In the “A” column, information indicating an impression, an evaluation value of the impression, and a rank of the evaluation value of the impression are displayed in association with each other. Here, the rank of the evaluation value is obtained by classifying the evaluation value of the impression as A, B, C,... From the higher evaluation value. For example, the evaluation value of impression is 80 or more as A rank, 70 or more and less than 80 as B rank, 60 or more and less than 70 as C rank, and 40 or more and less than 60 as D rank.
In the “B” column, a comparison result of evaluation values of impressions of the subject and other subjects is displayed. In the example shown in FIG. 8, the comparison result of the evaluation values of the impressions of the subject and other subjects is represented by a table and a radar chart.
In the “C” column, the time series data and the other values for one or both of the emotion value of each of one or more parameters indicating emotion and the action value of each of one or more parameters indicating behavior The comparison with the subject and the evaluation value of the impression are shown. In the example shown in FIG. 8, the time series data is represented by a stacked graph. Comparison with other subjects is represented by a radar chart. The evaluation value of the impression is represented by a table.
The
(印象導出システム10の動作)
図8は、実施形態の印象導出システムの動作の一例を示すシーケンスチャートである。図8に示される例では、研修の対象者が、第三者を相手に、対面でコミュニケーションを行っている最中に取得される映像データと音声データと文書データと操作ログとに基づいて、対象者の印象の評価値を導出し、導出した印象の評価値と他人の印象の評価値とを比較する場合について説明する。
(ステップS11)
撮像装置20は、第三者を相手に、対面でコミュニケーションを行っている対象者を撮像する。
(ステップS12)
撮像装置20は、対象者IDと対象者を撮像することによって得られた映像データとを含む映像データを作成する。
(ステップS13)
撮像装置20は、作成した映像データを、クラウドサーバ200へ送信する。
(ステップS14)
マイクロフォン30は、対象者が、第三者を相手に、対面でコミュニケーションを行っている内容を録音する。
(ステップS15)
マイクロフォン30は、対象者IDとコミュニケーションの内容を録音することによって得られた音声データとを含む音声データを作成する。
(Operation of impression derivation system 10)
FIG. 8 is a sequence chart illustrating an example of the operation of the impression derivation system according to the embodiment. In the example shown in FIG. 8, the training target person is based on video data, audio data, document data, and operation logs acquired during a face-to-face communication with a third party. A case will be described in which the evaluation value of the impression of the target person is derived and the evaluation value of the derived impression is compared with the evaluation value of the impression of another person.
(Step S11)
The
(Step S12)
The
(Step S13)
The
(Step S14)
The
(Step S15)
The
(ステップS16)
マイクロフォン30は、作成した音声データを、クラウドサーバ200へ送信する。
(ステップS17)
端末装置40は、対象者が、第三者を相手に、対面でコミュニケーションを行っているときに使用した文書データと端末装置40の操作ログとを取得する。
(ステップS18)
端末装置40は、対象者IDと文書データと操作ログを示す情報と文書データと操作ログとを作成する。
(ステップS19)
端末装置40は、作成した文書データと操作ログとを、クラウドサーバ200へ送信する。
(ステップS20)
クラウドサーバ200の通信部210は、撮像装置20が送信した映像データを受信し、受信した映像データを情報処理部230へ出力する。通信部210は、マイクロフォン30が送信した音声データを受信し、受信した音声データを情報処理部230へ出力する。通信部210は、端末装置40が送信した文書データと操作ログを示す情報とを受信し、受信した文書データと、操作ログを示す情報とを情報処理部230へ出力する。
情報処理部230の取得部232は、通信部210が出力した映像データを取得し、取得した映像データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した音声データを取得し、取得した音声データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した文書データを取得し、取得した文書データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した操作ログを示す情報を取得し、取得した操作ログを示す情報と、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。
(Step S16)
The
(Step S17)
The
(Step S18)
The
(Step S19)
The
(Step S20)
The
The acquisition unit 232 of the
(ステップS21)
ユーザが、クライアント端末400に対して、印象の評価を要求する操作を行う。クライアント端末400の処理部434は、作成部436へ、対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを出力する。作成部436は、処理部434が出力した対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを取得し、取得した対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを含み、印象導出装置100を宛先とする印象評価要求を作成する。作成部436は、作成した印象評価要求を、通信部410へ出力する。通信部410は、作成部436が出力した印象評価要求を取得し、取得した印象評価要求を、印象導出装置100へ送信する。
(ステップS22)
印象導出装置100の通信部110は、クライアント端末400が送信した印象評価要求を受信し、受信した印象評価要求を情報処理部130へ出力する。取得部132は、通信部110が出力した印象評価要求を取得し、取得した印象評価要求を、作成部136へ出力する。作成部136は、取得部132が出力した印象評価要求を取得し、取得した印象評価要求に基づいて、対象者IDを含むセンサー取得情報要求を作成し、作成したセンサー取得情報要求を通信部110へ出力する。通信部110は、作成部136が出力したセンサー取得要求を取得し、取得したセンサー取得情報要求を、クラウドサーバ200へ送信する。
(Step S21)
The user performs an operation for requesting impression evaluation to the
(Step S22)
The communication unit 110 of the
(ステップS23)
クラウドサーバ200の通信部210は、印象導出装置100が送信したセンサー取得情報要求を受信し、受信したセンサー取得情報要求を情報処理部230へ出力する。取得部232は、通信部210が出力したセンサー取得情報要求を取得し、取得したセンサー取得情報要求に含まれる対象者IDに関連付けられている映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを、記憶部240の検出情報246から取得する。取得部232は、対象者IDと、取得した映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを、作成部236へ出力する。
作成部236は、取得部232が出力した対象者IDと、取得した映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを取得し、取得した対象者IDと、取得した映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを含み、印象導出装置100を宛先とするセンサー取得情報応答を作成する。作成部236は、作成したセンサー取得情報応答を、通信部210へ出力する。通信部210は、作成部236が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答を、印象導出装置100へ送信する。
(ステップS24)
印象導出装置100の通信部110は、クラウドサーバ200が送信したセンサー取得情報応答を受信し、受信したセンサー取得情報応答を、情報処理部130へ出力する。取得部132は、通信部110が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答を、感情値行動値導出部133へ出力する。
(Step S23)
The
The creation unit 236 acquires the target person ID output by the acquisition unit 232, the acquired video data file, audio data file, document data file, and operation log file, and acquires the acquired target person ID and A sensor acquisition information response including the video data file, the audio data file, the document data file, and the operation log file is created and the destination is the
(Step S24)
The communication unit 110 of the
(ステップS25)
印象導出装置100の感情値行動値導出部133は、取得部132が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答に含まれる映像データと音声データと文書データと操作ログとを取得する。感情値行動値導出部133は、取得した映像データと音声データと文書データと操作ログとに基づいて、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方を導出すする。感情値行動値導出部133は、導出した一又は複数の感情を示すパラメータの各々について感情値を導出する。また、感情値行動値導出部133は、導出した一又は複数の行動を示すパラメータの各々について行動値を導出する。感情値行動値導出部133は、導出した感情を示す一又は複数のパラメータの各々と感情値との組み合わせと、行動を示す一又は複数のパラメータの各々と行動値との組み合わせのとうちいずれか一方又は両方を、対象者IDと関連付けて、記憶部140の感情値行動値情報143に記憶する。
(ステップS26)
印象情報導出部134は、取得部132が出力した印象評価要求を取得し、記憶部140の印象導出情報144から、取得した印象評価要求に含まれるシーンを示す情報に対応する印象導出情報を取得する。さらに、印象情報導出部134は、印象評価要求に含まれる印象を示す情報に基づいて、取得した印象導出情報から、印象情報を示す情報に関連付けて記憶されている導出式を取得する。
印象情報導出部134は、取得した導出式に基づいて、その導出式に含まれる感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とのいずれか一方又は両方を、記憶部140の感情値行動値情報143の対象者IDに関連付けられている感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とから取得する。印象情報導出部134は、感情値と行動値とのいずれか一方又は両方を、導出式の該当するパラメータに代入することによって、印象の評価値を導出する。印象情報導出部134は、対象者IDと導出した印象の評価値を示す情報とを、分析部138へ出力する。
(Step S25)
The emotion value behavior
(Step S26)
The impression
The impression
分析部138は、印象情報導出部134が出力した対象者IDと印象の評価値を示す情報とを取得し、取得した印象の評価値を示す情報とを分析する。分析部138は、対象者IDと印象の評価値を示す情報と印象の評価値の分析結果を示す情報とを、作成部136へ出力する。作成部136は、分析部138が出力した対象者IDと印象の評価値を示す情報と印象の評価値の分析結果を示す情報と含む印象評価応答を作成し、作成した印象評価応答を、通信部110へ出力する。
(ステップS27)
通信部110は、情報処理部130が出力した印象評価応答を、クライアント端末400へ送信する。
その後、クライアント端末400の通信部410は、印象導出装置100が送信した印象評価応答を受信し、受信した印象評価応答を情報処理部430に出力する。情報処理部430の処理部434は、通信部410が出力した印象評価応答を取得し、取得した印象評価応答を処理することによって、表示部460に印象評価結果を表示する。
図9に示すシーケンスチャートにおいて、ステップS11−ステップS13と、ステップS14−ステップS16と、ステップS17−ステップS19とは、その順序を入れ替えてもよいし、並行して行われてもよい。
The
(Step S27)
The communication unit 110 transmits the impression evaluation response output from the
Thereafter, the
In the sequence chart shown in FIG. 9, step S11 to step S13, step S14 to step S16, and step S17 to step S19 may be switched in order or performed in parallel.
前述した実施形態では、撮像装置20と、マイクロフォン30と、端末装置40との設置場所の一例として、研修所などの施設60である場合について説明したが、この例に限られない。例えば、撮像装置20と、マイクロフォン30と、端末装置40とが、店頭の窓口に設置され、窓口の担当者の映像データと音声データと文書データと操作ログを示す情報とが印象導出装置100へ送信されてもよい。そして、印象導出装置100が導出した印象の評価結果に基づいて、窓口の担当者に適切な対応を促すようにしてもよい。
前述した実施形態では、コミュニケーションの最中に、撮像装置20は対象者を撮像し、マイクロフォン30はコミュニケーションの内容を録音し、端末装置40はコミュニケーションに使用した資料などの文書データや、コミュニケーションの最中の操作ログを取得する場合について説明したが、この例に限られない。例えば、コミュニケーションの最中に、対象者の視線の先の画像を取得してもよいし、第三者の視線の先の画像を取得してもよい。この場合、対象者の視線の先の画像と第三者の視線の先の画像のいずれか一方又は両方に基づいて、対象者の第三者への印象の評価値を導出してもよい。
前述した実施形態では、印象導出装置100が、印象を示す情報と、印象の評価値を導出するための導出式とを、シーン毎に関連付けた印象導出情報144を記憶する場合について説明したが、この限りでない。例えば、印象導出装置100は、印象を示す情報と、印象の評価値を導出するための導出式とを、シーン毎に関連付けたものを、第三者の年齢、性別などの属性毎に用意した印象導出情報144を記憶してもよい。ここで、印象を示す情報と、印象の評価値を導出するための導出式とを、シーン毎に関連付けたものは、第三者の属性によって異なる場合がある。このように構成することによって、第三者の属性に応じた印象の評価値を導出できる。
In the above-described embodiment, the case where the
In the above-described embodiment, during the communication, the
In the embodiment described above, the case where the
前述した実施形態では、クラウドサーバ200が、対象者IDに関連付けて記憶されている対象者の映像データと音声データと文書データと操作ログを示す情報とを含むセンサー取得情報応答を作成し、作成したセンサー取得情報応答を、印象導出装置100へ送信する。そして、印象導出装置100は、受信したセンサー取得情報応答に含まれる対象者の動画データと音声データと文書を示すデータと操作ログを示す情報とを取得する場合について説明したが、この例に限られない。例えば、クラウドサーバ200が、対象者IDに関連付けて記憶されている対象者の映像データと音声データと文書データと操作ログを示す情報との少なくとも一つを含むセンサー取得情報応答を作成し、作成したセンサー取得情報応答を、印象導出装置100へ送信するようにしてもよい。この場合、印象導出装置100は、受信したセンサー取得情報応答に含まれる対象者の動画データと音声データと文書を示すデータと操作ログを示す情報との少なくとも一つを取得する。
前述した実施形態では、クライアント端末400が、印象導出装置100へ印象評価要求を送信し、送信した印象評価要求に対して、印象導出装置100が送信した印象評価応答を受信する場合について説明したが、この例に限られない。例えば、印象導出装置100に、操作部と表示部とを備え、操作部を操作することによって、表示部に、印象の評価結果を表示させるようにしてもよい。
前述した実施形態では、撮像装置20が撮像することによって得られた映像データと、マイクロフォン30が録音することによって得られた音声データと、端末装置40が取得した文書データや、操作ログを示す情報とを、クラウドサーバ200に記憶する場合について説明したがこの限りでない。例えば、撮像装置20が撮像することによって得られた映像データと、マイクロフォン30が録音することによって得られた音声データと、端末装置40が取得した文書データや、操作ログを示す情報とを、印象導出装置100に記憶するようにしてもよい。
In the embodiment described above, the
In the embodiment described above, a case has been described in which the
In the above-described embodiment, video data obtained by imaging by the
実施形態の印象導出システムによれば、印象導出装置は、センサー(実施形態では、撮像装置20と、マイクロフォン30と、端末装置40)が取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得する取得部(実施形態では、取得部132と、感情値行動値導出部133)と、印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報である印象導出情報を記憶する記憶部(実施形態では、記憶部140の印象導出情報144)と、取得部が取得した感情値と行動値とのいずれか一方又は両方と、記憶部に記憶された印象導出情報とに基づいて、対象者の第三者へ与える印象の評価値を導出する導出部(実施形態では、印象情報導出部134)とを備える。
このように構成することによって、印象導出装置100は、表情、身振り、音声などのコミュニケーション要素に基づいて、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのうちいずれか一方又は両方を導出できる。また、印象導出装置100は、導出した感情を示す一又は複数のパラメータの各々について感情値を導出し、導出した行動を示す一又は複数のパラメータの各々について行動値を導出できる。印象導出装置100は、印象導出情報と、感情値と行動値とのいずれか一方又は両方とに基づいて、対象者の第三者へ与える印象の評価値を導出できるため、人の主観では定まらない定量的かつ客観的な指標値(印象の評価値)を導出できる。
According to the impression deriving system of the embodiment, the impression deriving device indicates the emotion of the subject derived based on information acquired by the sensors (in the embodiment, the
By configuring in this way, the
また、印象導出装置100は、記憶部140に、対象者の第三者へ与える印象の評価値を導出するシーンの各々に対して、印象導出情報を記憶し、導出部(実施形態では、印象情報導出部134)は、複数の前記シーンのうち、印象の評価値を導出するシーンに対応する印象導出情報に基づいて、前記対象者の前記第三者へ与える印象の評価値を導出する
このように構成することによって、印象を評価するシーン毎に、対象者の第三者へ与える印象の評価値を導出できる。
また、印象導出情報に含まれる印象の前記評価値を導出するための情報に含まれる感情を示すパラメータと行動を示すパラメータのいずれか一方又は両方は、前記第三者の属性によって異なる。このように構成することによって、第三者の属性に応じて、対象者の第三者へ与える印象の評価値を導出できる。
また、導出部(実施形態では、印象情報導出部134)が導出した前記印象の評価値の時系列データ又は、前記印象の評価値と他人の印象の評価値との比較結果を作成する分析部(実施形態では、分析部138)を備える。このように構成することによって、印象導出装置100は、対象者の印象の評価値の時系列データ又は、対象者の印象の評価値と他人の印象の評価値との比較結果を作成することができる。
また、分析部(実施形態では、分析部138)は、前記比較結果に基づいて、印象の評価値に影響する前記感情を示すパラメータと前記行動を示すパラメータとのいずれか一方又は両方を抽出する。このように構成することによって、印象導出装置100は、印象の評価値に影響する感情値と行動値とのいずれか一方又は両方を抽出できる。このため、印象導出装置100は、抽出した印象の評価値に影響する感情値と行動値とのいずれか一方又は両方を使用して、印象の評価値を導出するための導出式を、新たに定義できる。
Further, the
In addition, one or both of a parameter indicating emotion and a parameter indicating action included in the information for deriving the evaluation value of the impression included in the impression derivation information vary depending on the attribute of the third party. By configuring in this way, it is possible to derive an evaluation value of an impression given to the third party of the subject person according to the attribute of the third party.
Also, an analysis unit that creates time-series data of the evaluation value of the impression derived by the deriving unit (in the embodiment, the impression information deriving unit 134) or a comparison result between the evaluation value of the impression and the evaluation value of another person's impression (In the embodiment, an analysis unit 138) is provided. By configuring in this way, the
Further, the analysis unit (in the embodiment, the analysis unit 138) extracts one or both of the parameter indicating the emotion and the parameter indicating the action that affect the evaluation value of the impression based on the comparison result. . By configuring in this way, the
以上、実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組合せを行うことができる。これら実施形態は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
なお、上述した印象導出装置100、クラウドサーバ200、クライアント端末400は、コンピュータで実現するようにしてもよい。その場合、各機能ブロックの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録する。この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、CPUが実行することで実現してもよい。ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器などのハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROMなどの可搬媒体のことをいう。また、「コンピュータ読み取り可能な記録媒体」は、コンピュータシステムに内蔵されるハードディスクなどの記憶装置を含む。
As mentioned above, although embodiment was described, these embodiment was shown as an example and is not intending limiting the range of invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the scope of the invention. These embodiments are included in the scope and gist of the invention, and at the same time, are included in the invention described in the claims and the equivalents thereof.
The
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM. The “computer-readable recording medium” includes a storage device such as a hard disk built in the computer system.
さらに「コンピュータ読み取り可能な記録媒体」とは、短時間の間、動的にプログラムを保持するものを含んでいてもよい。短時間の間、動的にプログラムを保持するものは、例えば、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線である。
また、「コンピュータ読み取り可能な記録媒体」には、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよい。また、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、上記プログラムは、プログラマブルロジックデバイスを用いて実現されるものであってもよい。プログラマブルロジックデバイスは、例えば、FPGA(Field Programmable Gate Array)である。
Furthermore, the “computer-readable recording medium” may include a medium that dynamically holds a program for a short time. What holds the program dynamically for a short time is, for example, a communication line when the program is transmitted via a network such as the Internet or a communication line such as a telephone line.
In addition, the “computer-readable recording medium” may include a medium that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client. The program may be for realizing a part of the functions described above. Further, the program may be a program that can realize the above-described functions in combination with a program already recorded in the computer system. The program may be realized using a programmable logic device. The programmable logic device is, for example, an FPGA (Field Programmable Gate Array).
なお、上述の印象導出装置100、クラウドサーバ200、クライアント端末400は内部にコンピュータを有している。そして、上述した印象導出装置100、クラウドサーバ200、クライアント端末400の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
The
Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
10…印象導出システム、20…撮像装置、30…マイクロフォン、40…端末装置、50…ネットワーク、60…施設、100…印象導出装置、110…通信部、130…情報処理部、132…取得部、133…感情値行動値導出部、134…印象情報導出部、136…作成部、138…分析部、140…記憶部、141…プログラム、142…アプリ、143…感情値行動値情報、144…印象導出情報、145…印象情報DB、200…クラウドサーバ、210…通信部、230…情報処理部、232…取得部、236…作成部、240…記憶部、242…プログラム、244…アプリ、246…検出情報、400…クライアント端末、410…通信部、430…情報処理部、432…取得部、434…処理部、436…作成部、240…記憶部、442…プログラム、444…アプリ、450…操作部、460…表示部
DESCRIPTION OF
Claims (9)
印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報である印象導出情報を記憶する記憶部と、
前記取得部が取得した前記感情値と前記行動値とのいずれか一方又は両方と、前記記憶部に記憶された前記印象導出情報とに基づいて、前記対象者の第三者へ与える印象の評価値を導出する導出部と
を備える、印象導出システム。 Acquire one or both of an emotion value, which is a value obtained by quantifying a parameter indicating the emotion of the subject derived based on information acquired by the sensor, and an action value, which is a value obtained by quantifying the parameter indicating the behavior. An acquisition unit to
Impression derivation information that is information that associates information indicating an impression with information for deriving an evaluation value of an impression created by using one or both of a parameter indicating emotion and a parameter indicating action A storage unit for storing
Evaluation of impression given to a third party of the target person based on one or both of the emotion value and the action value acquired by the acquisition unit and the impression derivation information stored in the storage unit An impression derivation system comprising: a derivation unit for deriving a value.
前記導出部は、複数の前記シーンのうち、印象の評価値を導出するシーンに対応する印象導出情報に基づいて、前記対象者の前記第三者へ与える印象の評価値を導出する、請求項1に記載の印象導出システム。 The storage unit stores impression derivation information for each of the scenes for deriving an evaluation value of an impression given to a third party of the target person,
The derivation unit derives an evaluation value of an impression given to the third party of the target person based on impression derivation information corresponding to a scene from which an evaluation value of an impression is derived among the plurality of scenes. The impression derivation system according to 1.
を備える、請求項1から請求項3のいずれか一項に記載の印象導出システム。 The analysis unit for creating time-series data of the evaluation value of the impression derived by the deriving unit or a comparison result between the evaluation value of the impression and the evaluation value of another person's impression is provided. The impression derivation system according to one item.
前記取得部は、前記対象者が使用する端末装置が取得した情報と前記記憶部に記憶されている前記説明手順と前記説明基準時間とに基づいて導出された前記対象者の行動値を取得する、請求項1から請求項5のいずれか一項に記載の印象導出システム。 The storage unit stores an explanation procedure and an explanation reference time,
The acquisition unit acquires a behavior value of the target derived based on information acquired by a terminal device used by the target, the description procedure stored in the storage unit, and the description reference time. The impression derivation system according to any one of claims 1 to 5.
印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報と、前記取得するステップで取得した前記感情値と前記行動値とのいずれか一方又は両方とに基づいて、前記対象者の第三者へ与える印象の評価値を導出するステップと
を有する、印象導出システムが実行する印象導出方法。 Acquire one or both of an emotion value, which is a value obtained by quantifying a parameter indicating the emotion of the subject derived based on information acquired by the sensor, and an action value, which is a value obtained by quantifying the parameter indicating the behavior. And steps to
The information obtained by associating information indicating an impression with information for deriving an evaluation value of an impression created using one or both of a parameter indicating emotion and a parameter indicating behavior Deriving an evaluation value of an impression given to a third party of the target person based on either one or both of the emotion value and the action value acquired in the step, and executed by an impression derivation system Impression derivation method.
センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得するステップと、
印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報と、前記取得するステップで取得した前記感情値と前記行動値とのいずれか一方又は両方とに基づいて、前記対象者の第三者へ与える印象の評価値を導出するステップと
を実行させるプログラム。 On the computer,
Acquire one or both of an emotion value, which is a value obtained by quantifying a parameter indicating the emotion of the subject derived based on information acquired by the sensor, and an action value, which is a value obtained by quantifying the parameter indicating the behavior. And steps to
The information obtained by associating information indicating an impression with information for deriving an evaluation value of an impression created using one or both of a parameter indicating emotion and a parameter indicating behavior A program that executes a step of deriving an evaluation value of an impression given to a third party of the target person based on one or both of the emotion value and the action value acquired in the step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043430A JP7138456B2 (en) | 2018-03-09 | 2018-03-09 | Impression derivation system, impression derivation method and impression derivation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043430A JP7138456B2 (en) | 2018-03-09 | 2018-03-09 | Impression derivation system, impression derivation method and impression derivation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159586A true JP2019159586A (en) | 2019-09-19 |
JP7138456B2 JP7138456B2 (en) | 2022-09-16 |
Family
ID=67993591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018043430A Active JP7138456B2 (en) | 2018-03-09 | 2018-03-09 | Impression derivation system, impression derivation method and impression derivation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7138456B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012043300A (en) * | 2010-08-20 | 2012-03-01 | Nomura Research Institute Ltd | Business activity support system, communication terminal, business activity support method and computer program |
WO2012127592A1 (en) * | 2011-03-18 | 2012-09-27 | 富士通株式会社 | Call evaluation device and call evaluation method |
US20150269529A1 (en) * | 2014-03-24 | 2015-09-24 | Educational Testing Service | Systems and Methods for Assessing Structured Interview Responses |
WO2016189908A1 (en) * | 2015-05-27 | 2016-12-01 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017219989A (en) * | 2016-06-07 | 2017-12-14 | 株式会社採用と育成研究社 | Online interview evaluation device, method and program |
-
2018
- 2018-03-09 JP JP2018043430A patent/JP7138456B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012043300A (en) * | 2010-08-20 | 2012-03-01 | Nomura Research Institute Ltd | Business activity support system, communication terminal, business activity support method and computer program |
WO2012127592A1 (en) * | 2011-03-18 | 2012-09-27 | 富士通株式会社 | Call evaluation device and call evaluation method |
US20150269529A1 (en) * | 2014-03-24 | 2015-09-24 | Educational Testing Service | Systems and Methods for Assessing Structured Interview Responses |
WO2016189908A1 (en) * | 2015-05-27 | 2016-12-01 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017219989A (en) * | 2016-06-07 | 2017-12-14 | 株式会社採用と育成研究社 | Online interview evaluation device, method and program |
Also Published As
Publication number | Publication date |
---|---|
JP7138456B2 (en) | 2022-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11216784B2 (en) | Systems and methods for automating validation and quantification of interview question responses | |
US10984386B2 (en) | Interview system | |
Maxhuni et al. | Stress modelling and prediction in presence of scarce data | |
JP2018068618A (en) | Emotion estimating device, emotion estimating method, emotion estimating program, and emotion counting system | |
JP6531323B1 (en) | PROGRAM, INFORMATION PROCESSING APPARATUS, AND INFORMATION PROCESSING METHOD | |
JP6649461B1 (en) | Program, information processing apparatus and information processing method | |
Zhao et al. | Semi-automated 8 collaborative online training module for improving communication skills | |
JP6715410B2 (en) | Evaluation method, evaluation device, evaluation program, and evaluation system | |
JP2018049481A (en) | Information processing apparatus, evaluation system, and program | |
JP2020173714A (en) | Device, system, and program for supporting dialogue | |
CN116762125A (en) | Environment collaboration intelligent system and method | |
WO2019146405A1 (en) | Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique | |
US20200089961A1 (en) | Method for evaluating social intelligence and apparatus using the same | |
KR20220106029A (en) | Method and apparatus for psychological counselingusing artificial intelligence | |
JP6855737B2 (en) | Information processing equipment, evaluation systems and programs | |
JP7138456B2 (en) | Impression derivation system, impression derivation method and impression derivation program | |
JP6913995B1 (en) | Information processing system, information processing method and program | |
KR20210150988A (en) | Apparatus and method for acquiring of vitality quotient | |
Henriques et al. | Emotionally-aware multimodal interfaces: Preliminary work on a generic affective modality | |
JP7513534B2 (en) | Information processing device and information processing system | |
US11935329B2 (en) | Video analysis program | |
JP7445331B2 (en) | Video meeting evaluation terminal and video meeting evaluation method | |
WO2022145041A1 (en) | Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program | |
WO2022145039A1 (en) | Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program | |
WO2022145040A1 (en) | Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138456 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |