JP2019159586A - Impression derivation system, impression derivation method and impression derivation program - Google Patents

Impression derivation system, impression derivation method and impression derivation program Download PDF

Info

Publication number
JP2019159586A
JP2019159586A JP2018043430A JP2018043430A JP2019159586A JP 2019159586 A JP2019159586 A JP 2019159586A JP 2018043430 A JP2018043430 A JP 2018043430A JP 2018043430 A JP2018043430 A JP 2018043430A JP 2019159586 A JP2019159586 A JP 2019159586A
Authority
JP
Japan
Prior art keywords
impression
information
value
derivation
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018043430A
Other languages
Japanese (ja)
Other versions
JP7138456B2 (en
Inventor
明広 森
Akihiro Mori
明広 森
安藤 亮
Ryo Ando
亮 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Group Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2018043430A priority Critical patent/JP7138456B2/en
Publication of JP2019159586A publication Critical patent/JP2019159586A/en
Application granted granted Critical
Publication of JP7138456B2 publication Critical patent/JP7138456B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an impression derivation system, an impression derivation method and an impression derivation program capable of objectively evaluating an impression of a facing object person of communication to be given to a third person.SOLUTION: An impression derivation system includes: an acquisition unit for acquiring any one or both of a feeling value being a value obtained by digitizing a parameter showing a feeling of an object person derived on the basis of information acquired by a sensor and an action value being a value obtained by digitizing a parameter showing an action; a storage unit for storing impression derivation information being information obtained by associating information showing an impression with information for deriving an evaluation value of the impression created by using a plurality of any one or both of the parameter showing the feeling and the parameter showing the action; and a derivation unit for deriving the evaluation value of the impression of the object person to be given to a third person on the basis of any one or both of the feeling value and the action value acquired by the acquisition unit, and the impression derivation information stored in the storage unit.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、印象導出システム、印象導出方法および印象導出プログラムに関する。   Embodiments described herein relate generally to an impression derivation system, an impression derivation method, and an impression derivation program.

面接、研修などの対面のコミュニケーションを評価する場面は、多々存在する。対面のコミュニケーションを評価する場面のほとんどにおいて、人が自らの主観に基づいて、定性的に評価している。例えば、対面のコミュニケーションを評価する場面の例として、以下の(1)−(4)が挙げられる。
(1)企業の採用面接にて、面接官が志望者の適正を評価する。
(2)営業力を強化する研修にて、講師が受講者を評価したり、模範的な振る舞いを教えたりする。
(3)顧客との折衝にて、営業担当者が、顧客の理解の度合いを把握しながら話を進める。
(4)企業のセミナーや学校の授業にて、講師が聴衆の反応を見ながら話しを進める。
There are many scenes where face-to-face communication such as interviews and training is evaluated. In most of the situations where face-to-face communication is evaluated, people evaluate qualitatively based on their own subjectivity. For example, the following (1)-(4) are mentioned as an example of the scene which evaluates face-to-face communication.
(1) The interviewer evaluates the suitability of the candidate during the company recruitment interview.
(2) In training to strengthen sales capabilities, the instructor evaluates the students and teaches exemplary behavior.
(3) In negotiations with the customer, the sales representative advances the talk while grasping the degree of understanding of the customer.
(4) At corporate seminars and school classes, the instructor advances the conversation while watching the audience's reaction.

店舗の店員による接客時の対応を効率的かつ精度良く評価する技術が知られている(例えば、特許文献1参照)。この技術では、管理装置は、個別売上データをPOSレジスタから取得し、接客対応する店員の顔画像データをカメラから取得し、個別売上データに含まれる接客時間帯に対応する顔画像データから接客中の店員の表情を特定し、表情に応じて接客時の対応の評価値を示す接客対応ポイントを算出する。また、管理装置は、個別売上データと接客対応ポイントとを関連付けて管理し、これらのデータを集計することによって店員毎の接客時の対応を数値化して出力するとともに、売上金額と接客時の対応の評価値とを関係付けて出力する。   A technique for efficiently and accurately evaluating the response at the time of customer service by a store clerk is known (see, for example, Patent Document 1). In this technology, the management device acquires individual sales data from the POS register, acquires the face image data of the salesclerk corresponding to customer service from the camera, and is in service from the face image data corresponding to the customer service time zone included in the individual sales data. The customer clerk's facial expression is identified, and a customer service point indicating an evaluation value for the customer service is calculated according to the facial expression. In addition, the management device manages individual sales data and customer service points in association with each other, and sums up these data to quantify and output customer service responses for each store clerk. The evaluation value is related to and output.

特開2017−102846号公報JP 2017-102846 A

特定の人の主観に基づく対面のコミュニケーションの評価は、客観性が乏しく、被評価者の納得感に欠けるため、的確なコミュニケーションの改善に結びつかないことがある。具体的には、面接官によって志望者の評価が異なるため、適切なマッチングができないことがある。受講者が、自分と優れた営業担当者との間で、振る舞いの差異を正しく認識できないことがある。顧客の理解に応じた的確な説明ができないことがある。聴衆が期待する講義構成、伝え方を実践できないことがある。
上記事情に鑑み、本発明は、対面のコミュニケーションの対象者の第三者へ与える印象を客観的に評価できる印象導出システム、印象導出方法および印象導出プログラムを提供することを目的とする。
The evaluation of face-to-face communication based on the subjectivity of a specific person has poor objectivity and lacks the satisfaction of the person being evaluated, and may not lead to an accurate improvement in communication. Specifically, because the candidate's evaluation differs depending on the interviewer, there are cases where appropriate matching cannot be performed. Participants may not be able to correctly recognize differences in behavior between themselves and good salespeople. There may be cases where accurate explanations according to customer understanding cannot be made. The audience may not be able to practice the lecture structure and how to communicate.
In view of the above circumstances, an object of the present invention is to provide an impression derivation system, an impression derivation method, and an impression derivation program that can objectively evaluate an impression given to a third party of a person to be face-to-face communication.

本発明の一態様は、センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得する取得部と、印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報である印象導出情報を記憶する記憶部と、前記取得部が取得した前記感情値と前記行動値とのいずれか一方又は両方と、前記記憶部に記憶された前記印象導出情報とに基づいて、前記対象者の第三者へ与える印象の評価値を導出する導出部とを備える、印象導出システムである。   According to one aspect of the present invention, an emotion value that is a value obtained by quantifying a parameter indicating a subject's emotion derived based on information acquired by a sensor, and an action value that is a value obtained by quantifying a parameter indicating behavior In order to derive an evaluation value of an impression created using a plurality of one or both of an acquisition unit that acquires one or both, information indicating an impression, a parameter indicating an emotion, and a parameter indicating an action A storage unit that stores impression derivation information, which is information associated with the information, and one or both of the emotion value and the action value acquired by the acquisition unit, and the impression stored in the storage unit An impression derivation system comprising: a derivation unit that derives an evaluation value of an impression given to a third party of the subject based on derivation information.

本発明の一態様は、上記の印象導出システムであって、前記記憶部は、対象者の第三者へ与える印象の評価値を導出するシーンの各々に対して、印象導出情報を記憶し、前記導出部は、複数の前記シーンのうち、印象の評価値を導出するシーンに対応する印象導出情報に基づいて、前記対象者の前記第三者へ与える印象の評価値を導出する。   One aspect of the present invention is the above-described impression derivation system, wherein the storage unit stores impression derivation information for each of the scenes for deriving an evaluation value of an impression given to a third party of the subject person, The derivation unit derives an evaluation value of an impression given to the third person of the target person based on impression derivation information corresponding to a scene from which an evaluation value of an impression is derived among the plurality of scenes.

本発明の一態様は、上記の印象導出システムであって、前記印象導出情報に含まれる印象の前記評価値を導出するための情報に含まれる感情を示すパラメータと行動を示すパラメータのいずれか一方又は両方は、前記第三者の属性によって異なる。   One aspect of the present invention is the impression derivation system described above, wherein either one of a parameter indicating an emotion and a parameter indicating an action are included in the information for deriving the evaluation value of the impression included in the impression derivation information Or both depend on the attribute of the third party.

本発明の一態様は、上記の印象導出システムであって、前記導出部が導出した前記印象の評価値の時系列データ又は、前記印象の評価値と他人の印象の評価値との比較結果を作成する分析部を備える。   One aspect of the present invention is the impression derivation system described above, in which time series data of the evaluation value of the impression derived by the derivation unit or a comparison result between the evaluation value of the impression and the evaluation value of another person's impression is obtained. An analysis unit is provided.

本発明の一態様は、上記の印象導出システムであって、前記分析部は、前記比較結果に基づいて、印象の評価値に影響する前記感情を示すパラメータと前記行動を示すパラメータとのいずれか一方又は両方を抽出する。   One aspect of the present invention is the impression derivation system described above, wherein the analysis unit is one of a parameter indicating the emotion and a parameter indicating the action that affects the evaluation value of the impression based on the comparison result. One or both are extracted.

本発明の一態様は、上記の印象導出システムであって、前記記憶部は、説明手順と説明基準時間とを記憶し、前記取得部は、前記対象者が使用する端末装置が取得した情報と前記記憶部に記憶されている前記説明手順と前記説明基準時間とに基づいて導出された前記対象者の行動値を取得する。   One aspect of the present invention is the impression derivation system described above, in which the storage unit stores an explanation procedure and an explanation reference time, and the acquisition unit includes information acquired by a terminal device used by the subject. The behavior value of the subject derived based on the explanation procedure and the explanation reference time stored in the storage unit is acquired.

本発明の一態様は、上記の印象導出システムであって、前記センサーが取得した情報には、前記対象者に関する情報と前記第三者に関する情報とのいずれか一方又は両方が含まれる。   One aspect of the present invention is the impression derivation system described above, and the information acquired by the sensor includes one or both of information related to the subject and information related to the third party.

本発明の一態様は、センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得するステップと、印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報と、前記取得するステップで取得した前記感情値と前記行動値とのいずれか一方又は両方とに基づいて、前記対象者の第三者へ与える印象の評価値を導出するステップとを有する、印象導出システムが実行する印象導出方法である。   According to one aspect of the present invention, an emotion value that is a value obtained by quantifying a parameter indicating a subject's emotion derived based on information acquired by a sensor, and an action value that is a value obtained by quantifying a parameter indicating behavior A method for deriving an evaluation value of an impression created using a plurality of one or both of a step of acquiring one or both, information indicating an impression, a parameter indicating an emotion, and a parameter indicating an action The evaluation value of the impression given to the third party of the target person is derived based on the information associated with the information and one or both of the emotion value and the behavior value acquired in the acquiring step. And an impression derivation method executed by an impression derivation system.

本発明の一態様は、コンピュータに、センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得するステップと、印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報と、前記取得するステップで取得した前記感情値と前記行動値とのいずれか一方又は両方とに基づいて、前記対象者の第三者へ与える印象の評価値を導出するステップとを実行させるプログラムである。   According to one embodiment of the present invention, an action value that is a value obtained by quantifying an emotion value that is a value obtained by quantifying a parameter that represents an emotion of a target person derived based on information acquired by a sensor and a parameter that indicates an action Deriving an evaluation value of an impression created by using one or both of a step of acquiring one or both of a value, information indicating an impression, and a parameter indicating an emotion and a parameter indicating an action Evaluation value to be given to the third person of the target person based on the information associated with the information to be performed and one or both of the emotion value and the action value acquired in the acquiring step Is a program that executes the step of deriving.

本発明の実施形態によれば、対面のコミュニケーションの対象者の第三者へ与える印象を客観的に評価できる印象導出システム、印象導出方法および印象導出プログラムを提供できる。   According to the embodiment of the present invention, it is possible to provide an impression derivation system, an impression derivation method, and an impression derivation program that can objectively evaluate an impression given to a third party of a person to be face-to-face communication.

実施形態の印象導出システムの一例を示す図である。It is a figure which shows an example of the impression derivation system of embodiment. 実施形態の印象導出システムに含まれる印象導出装置とクラウドサーバとクライアント端末との一例を示すブロック図である。It is a block diagram showing an example of an impression derivation device, a cloud server, and a client terminal included in the impression derivation system of the embodiment. 感情値行動値情報の一例を示す図である。It is a figure which shows an example of emotion value action value information. 印象導出情報の一例を示す図である。It is a figure which shows an example of impression derivation information. 印象情報DBの一例を示す図である。It is a figure which shows an example of impression information DB. 印象の評価を行う画面の一例を示す図である。It is a figure which shows an example of the screen which performs evaluation of an impression. 印象評価結果の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of an impression evaluation result. 実施形態の印象導出システムの動作の一例を示すシーケンスチャートである。It is a sequence chart which shows an example of operation | movement of the impression derivation system of embodiment.

次に、本実施形態の印象導出システム、印象導出方法および印象導出プログラムを、図面を参照しつつ説明する。以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。
なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づく」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づく」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
Next, an impression derivation system, an impression derivation method, and an impression derivation program according to this embodiment will be described with reference to the drawings. Embodiment described below is only an example and embodiment to which this invention is applied is not restricted to the following embodiment.
Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiments, and the repetitive description will be omitted.
Further, “based on XX” in the present application means “based on at least XX”, and includes a case based on another element in addition to XX. Further, “based on XX” is not limited to the case where XX is directly used, but also includes the case where it is based on an operation or processing performed on XX. “XX” is an arbitrary element (for example, arbitrary information).

(実施形態)
(印象導出システム)
図1は、実施形態の印象導出システムの一例を示す図である。
実施形態の印象導出システム10は、撮像装置20と、マイクロフォン30と、端末装置40と、クライアント端末400と、印象導出装置100と、クラウドサーバ200とを備える。
撮像装置20と、マイクロフォン30と、端末装置40と、クライアント端末400と、印象導出装置100と、クラウドサーバ200との間は、インターネットなどのネットワーク50を介して、有線又は無線で接続される。
撮像装置20と、マイクロフォン30と、端末装置40との設置場所の一例は、研修所などの施設60である。本実施形態の施設60では、対面のコミュニケーションの研修が行われる。
(Embodiment)
(Impression derivation system)
FIG. 1 is a diagram illustrating an example of an impression derivation system according to an embodiment.
The impression derivation system 10 of the embodiment includes an imaging device 20, a microphone 30, a terminal device 40, a client terminal 400, an impression derivation device 100, and a cloud server 200.
The imaging device 20, the microphone 30, the terminal device 40, the client terminal 400, the impression derivation device 100, and the cloud server 200 are connected via a network 50 such as the Internet in a wired or wireless manner.
An example of the installation location of the imaging device 20, the microphone 30, and the terminal device 40 is a facility 60 such as a training facility. In the facility 60 of the present embodiment, face-to-face communication training is performed.

印象の評価の対象者(以下「対象者」という)に、第三者を相手に、対面でコミュニケーションを行ってもらう。コミュニケーションの最中に、対象者と第三者のいずれか一方又は両方の情報を取得する。具体的には、撮像装置20は対象者を撮像し、マイクロフォン30はコミュニケーションの内容を録音し、端末装置40はコミュニケーションに使用した資料などの文書データや、コミュニケーションの最中の操作ログを取得する。
撮像装置20は、対象者IDと対象者を撮像することによって得られた動画データとを含む動画データを作成し、作成した動画データを、クラウドサーバ200へ送信する。マイクロフォン30は、対象者IDとコミュニケーションの内容を録音することによって得られた音声データとを含む音声データを作成し、作成した音声データを、クラウドサーバ200へ送信する。端末装置40は、対象者IDと、コミュニケーションに使用した資料などの文書データや、端末装置40の操作ログを示す情報とを、クラウドサーバ200へ送信する。
クラウドサーバ200は、撮像装置20が送信した動画データを取得し、取得した動画データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶する。クラウドサーバ200は、マイクロフォン30が送信した音声データを取得し、取得した音声データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶する。クラウドサーバ200は、端末装置40が送信した文書データを取得し、取得した文書ファイルと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶する。クラウドサーバ200は、端末装置40が送信した操作ログを示す情報を取得し、取得した操作ログを示す情報と、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶する。
Have the person who receives the impression evaluation (hereinafter referred to as “subject”) communicate face-to-face with a third party. During the communication, information on one or both of the target person and the third party is acquired. Specifically, the imaging device 20 images the subject, the microphone 30 records the contents of communication, and the terminal device 40 acquires document data such as materials used for communication and an operation log during communication. .
The imaging device 20 creates moving image data including the target person ID and moving image data obtained by imaging the target person, and transmits the created moving image data to the cloud server 200. The microphone 30 creates voice data including the target person ID and voice data obtained by recording the contents of communication, and transmits the created voice data to the cloud server 200. The terminal device 40 transmits the target person ID, document data such as materials used for communication, and information indicating the operation log of the terminal device 40 to the cloud server 200.
The cloud server 200 acquires the moving image data transmitted by the imaging device 20, creates a file in which the acquired moving image data is associated with the target person ID, and stores the created file. The cloud server 200 acquires the audio data transmitted by the microphone 30, creates a file in which the acquired audio data is associated with the target person ID, and stores the created file. The cloud server 200 acquires the document data transmitted by the terminal device 40, creates a file in which the acquired document file is associated with the target person ID, and stores the created file. The cloud server 200 acquires information indicating the operation log transmitted by the terminal device 40, creates a file in which the information indicating the acquired operation log is associated with the target person ID, and stores the created file.

対象者の印象を評価するユーザ(以下「ユーザ」という)は、対象者の印象を評価する場合に、クライアント端末400に対して、印象の評価を要求する操作を行う。クライアント端末400は、ユーザの操作に応じて、印象の評価を要求する情報である印象評価要求を作成し、作成した印象評価要求を、印象導出装置100へ送信する。印象評価要求には、評価を行う対象者の対象者IDと、印象の評価を行うシーンを示す情報と、評価を行う印象を示す情報とが含まれる。また、他の対象者のデータと比較する場合には、印象評価要求には、他の対象者のデータを示す情報(例えば、ファイル名)が含まれる。また、対象者の過去のデータと比較する場合には、印象評価要求には、対象者の過去のデータを示す情報(例えば、ファイル名)が含まれる。シーンについては、後述する。
印象導出装置100は、クライアント端末400が送信した印象評価要求を受信した場合に、クラウドサーバ200へアクセスし、対象者の映像データ、音声データ、文書データ、操作ログなどのセンサー取得情報を要求する情報であるセンサー取得情報要求を、クラウドサーバ200へ送信する。センサー取得情報要求には、対象者IDが含まれる。
クラウドサーバ200は、印象導出装置100が送信したセンサー取得情報要求にしたがって、対象者IDに関連付けて記憶されている対象者の映像データ、音声データ、文書データ、操作ログなどのセンサー取得情報を取得する。クラウドサーバ200は、取得したセンサー取得情報を含むセンサー取得情報応答を作成し、作成したセンサー取得情報応答を、印象導出装置100へ送信する。
A user who evaluates the impression of the target person (hereinafter referred to as “user”) performs an operation for requesting evaluation of the impression to the client terminal 400 when evaluating the impression of the target person. The client terminal 400 creates an impression evaluation request, which is information for requesting impression evaluation, in response to a user operation, and transmits the created impression evaluation request to the impression derivation device 100. The impression evaluation request includes a target person ID of a target person to be evaluated, information indicating a scene to be evaluated and information indicating an impression to be evaluated. Further, when comparing with data of another subject, the impression evaluation request includes information (for example, a file name) indicating the data of the other subject. When comparing with the past data of the subject, the impression evaluation request includes information (for example, a file name) indicating the past data of the subject. The scene will be described later.
When receiving an impression evaluation request transmitted from the client terminal 400, the impression derivation device 100 accesses the cloud server 200 and requests sensor acquisition information such as video data, audio data, document data, and operation logs of the target person. A sensor acquisition information request that is information is transmitted to the cloud server 200. The sensor acquisition information request includes the target person ID.
The cloud server 200 acquires sensor acquisition information such as video data, audio data, document data, and operation logs stored in association with the target ID in accordance with the sensor acquisition information request transmitted by the impression derivation device 100. To do. The cloud server 200 creates a sensor acquisition information response including the acquired sensor acquisition information, and transmits the created sensor acquisition information response to the impression derivation device 100.

印象導出装置100は、クラウドサーバ200が送信したセンサー取得情報応答を受信し、受信したセンサー取得情報応答に含まれる対象者の動画データと音声データと文書を示すデータと操作ログを示す情報とを取得する。印象導出装置100は、取得した対象者の動画データと音声データと文書を示すデータと操作ログを示す情報とに基づいて、対象者の表情、身振りなどを認識する。印象導出装置100は、対象者の表情、身振りなどを認識した結果に基づいて、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのうちいずれか一方又は両方を導出する。
印象導出装置100は、導出した感情を示す一又は複数のパラメータの各々について感情値を導出する。また、印象導出装置100は、導出した行動を示す一又は複数のパラメータの各々について行動値を導出する。ここで、感情値は、対象者の表情、身振りなどを認識した結果に基づいて導出された感情を示す一又は複数のパラメータの各々について、その度合いを数値化したものである。行動値は、対象者の表情、身振りなどを認識した結果に基づいて導出された行動を表す一又は複数のパラメータの各々について、その度合いを数値化したものである。印象導出装置100は、感情を示す一又は複数のパラメータの各々について、感情値を関連付けて記憶する。印象導出装置100は、行動を示す一又は複数のパラメータの各々について、行動値を関連付けて記憶する。
印象導出装置100は、シーン毎に、印象を示す情報と、印象の評価値を導出するための導出式とを関連付けた印象導出情報を記憶している。導出式は、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成されている。導出式は、感情を示すパラメータと行動を示すパラメータとを、それぞれ一つ使用して作成されている場合もある。
The impression derivation device 100 receives the sensor acquisition information response transmitted by the cloud server 200, and receives the moving image data, the audio data, the data indicating the document, and the information indicating the operation log included in the received sensor acquisition information response. get. The impression deriving device 100 recognizes the facial expression, gesture, etc. of the target person based on the acquired moving image data, audio data, data indicating the document, and information indicating the operation log. The impression deriving device 100 derives one or both of one or more parameters indicating emotion and one or more parameters indicating behavior based on the result of recognizing the facial expression, gesture, etc. of the subject. .
The impression deriving device 100 derives an emotion value for each of one or more parameters indicating the derived emotion. The impression deriving device 100 derives an action value for each of one or a plurality of parameters indicating the derived action. Here, the emotion value is obtained by quantifying the degree of each of one or a plurality of parameters indicating the emotion derived based on the result of recognizing the facial expression, gesture, etc. of the subject person. The behavior value is obtained by quantifying the degree of each of one or a plurality of parameters representing the behavior derived based on the result of recognizing the subject's facial expression, gesture, and the like. The impression deriving device 100 stores an emotion value in association with each of one or more parameters indicating emotion. The impression derivation device 100 stores an action value in association with each of one or more parameters indicating the action.
The impression derivation device 100 stores impression derivation information in which information indicating an impression and a derivation formula for deriving an impression evaluation value are associated with each scene. The derivation formula is created by using one or both of a parameter indicating emotion and a parameter indicating action. The derivation formula may be created by using one parameter indicating emotion and one parameter indicating action.

クライアント端末400は、対象者IDと印象を評価するシーンを示す情報と評価する印象を示す情報とを含む印象評価要求を、印象導出装置100へ送信する。
印象導出装置100は、クライアント端末400が送信した印象評価要求を受信し、受信した印象評価要求に含まれる印象を評価するシーンと導出する印象を示す情報とに基づいて、その印象の評価値を導出するための導出式を取得する。印象導出装置100は、記憶している感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方から、取得した導出式に使用されているパラメータを取得し、取得したパラメータの感情値又は行動値をその導出式へ代入することによって、印象の評価値を導出する。印象導出装置100は、導出した印象の評価値に基づいて、印象を分析する。印象導出装置100は、印象の評価値と印象の分析結果とを含む印象評価応答を作成し、作成した印象評価応答を、クライアント端末400へ送信する。
クライアント端末400は、印象導出装置100が送信した印象評価結果を受信し、受信した印象評価結果に含まれる印象の評価値と印象の分析結果とを表示する。
The client terminal 400 transmits to the impression derivation device 100 an impression evaluation request that includes the target person ID, information indicating the scene for evaluating the impression, and information indicating the impression to be evaluated.
The impression derivation device 100 receives the impression evaluation request transmitted by the client terminal 400, and based on the scene that evaluates the impression included in the received impression evaluation request and the information indicating the derived impression, the impression evaluation value is calculated. Get the derivation formula for derivation. The impression deriving device 100 acquires parameters used in the acquired derivation formula from one or both of one or more parameters indicating the stored emotion and one or more parameters indicating the action. Then, the evaluation value of the impression is derived by substituting the acquired emotion value or action value of the parameter into the derivation formula. The impression deriving device 100 analyzes the impression based on the derived evaluation value of the impression. The impression derivation device 100 creates an impression evaluation response including the impression evaluation value and the impression analysis result, and transmits the created impression evaluation response to the client terminal 400.
The client terminal 400 receives the impression evaluation result transmitted by the impression derivation device 100, and displays the impression evaluation value and the impression analysis result included in the received impression evaluation result.

以下、印象導出システム10を構成する印象導出装置100と、クラウドサーバ200と、クライアント端末400とについて、詳細に説明する。
(印象導出装置100)
図2は、実施形態の印象導出システムに含まれる印象導出装置とクラウドサーバとクライアント端末との一例を示すブロック図である。図2を参照して、印象導出装置100について説明する。
印象導出装置100は、パーソナルコンピュータ、サーバ、スマートフォン、タブレットコンピュータ又は産業用コンピュータ等の装置によって実現される。
印象導出装置100は、例えば、通信部110と、情報処理部130と、記憶部140とを備える。
通信部110は、通信モジュールによって実現される。通信部110はネットワーク50を介して、外部の通信装置と通信する。通信部110は、例えば無線LAN(Local Area Network)、有線LAN、ブルートゥース(Bluetooth)(登録商標)又はLTE(Long Term Evolution)(登録商標)などの通信方式で通信してもよい。
通信部110は、クライアント端末400が送信した印象評価要求を受信し、受信した印象評価要求を情報処理部130へ出力する。通信部110は、情報処理部130が出力したセンサー取得情報要求を取得し、取得したセンサー取得情報要求を、クラウドサーバ200へ送信する。通信部110は、クラウドサーバ200が送信したセンサー取得情報応答を受信し、受信したセンサー取得情報応答を情報処理部130へ出力する。通信部110は、情報処理部130が出力した印象評価応答を取得し、取得した印象評価応答を、クライアント端末400へ送信する。
Hereinafter, the impression derivation device 100, the cloud server 200, and the client terminal 400 that constitute the impression derivation system 10 will be described in detail.
(Impression derivation device 100)
FIG. 2 is a block diagram illustrating an example of an impression derivation device, a cloud server, and a client terminal included in the impression derivation system of the embodiment. The impression derivation device 100 will be described with reference to FIG.
The impression deriving device 100 is realized by a device such as a personal computer, a server, a smartphone, a tablet computer, or an industrial computer.
The impression derivation device 100 includes, for example, a communication unit 110, an information processing unit 130, and a storage unit 140.
The communication unit 110 is realized by a communication module. The communication unit 110 communicates with an external communication device via the network 50. The communication unit 110 may perform communication using a communication method such as a wireless local area network (LAN), a wired LAN, Bluetooth (registered trademark), or LTE (Long Term Evolution) (registered trademark).
The communication unit 110 receives the impression evaluation request transmitted from the client terminal 400 and outputs the received impression evaluation request to the information processing unit 130. The communication unit 110 acquires the sensor acquisition information request output from the information processing unit 130 and transmits the acquired sensor acquisition information request to the cloud server 200. The communication unit 110 receives the sensor acquisition information response transmitted from the cloud server 200 and outputs the received sensor acquisition information response to the information processing unit 130. The communication unit 110 acquires the impression evaluation response output by the information processing unit 130 and transmits the acquired impression evaluation response to the client terminal 400.

記憶部140は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。記憶部140の一部または全部は、印象導出装置100の一部として設けられる場合に代えて、NAS(Network Attached Storage)や外部のストレージサーバなど、印象導出装置100のプロセッサがネットワーク50を介してアクセス可能な外部装置により実現されてもよい。記憶部140には、情報処理部130により実行されるプログラム141と、アプリ142とが記憶される。さらに、記憶部140には、感情値行動値情報143と、印象導出情報144と、印象情報DB145とが記憶される。   The storage unit 140 is realized by, for example, a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), a flash memory, or a hybrid storage device in which a plurality of these are combined. Instead of being provided as a part of the impression derivation device 100, a part or all of the storage unit 140 is replaced by a processor of the impression derivation device 100 such as a NAS (Network Attached Storage) or an external storage server via the network 50. It may be realized by an accessible external device. The storage unit 140 stores a program 141 executed by the information processing unit 130 and an application 142. Further, emotion value action value information 143, impression derivation information 144, and impression information DB 145 are stored in the storage unit 140.

アプリ142は、印象導出装置100に、印象評価要求を取得させ、取得させた印象評価要求に基づいて、センサー取得情報要求を作成させ、作成させたセンサー取得情報要求を、クラウドサーバ200へ送信させる。また、アプリ142は、印象導出装置100に、送信させたセンサー取得情報要求に対する応答であるセンサー取得情報応答を取得させ、取得させたセンサー取得情報応答に含まれる映像データと音声データと文書データと操作ログを示す情報を取得させる。また、アプリ142は、印象導出装置100に、取得させた映像データと音声データと文書データと操作ログを示す情報とに基づいて、感情値と行動値とのうちいずれか一方又は両方を導出させる。
また、アプリ142は、印象導出装置100に、記憶部140の印象導出情報144から、印象評価要求に含まれるシーンを示す情報と印象を示す情報とに基づいて、印象を示す情報に関連付けて記憶されている導出式を取得させる。また、アプリ142は、印象導出装置100に、取得させた導出式に基づいて、その導出式に含まれる感情を示す一又は複数のパラメータの感情値と、行動を示す一又は複数のパラメータの行動値のいずれか一方又は両方を、記憶部140の感情値行動値情報143から取得させ、取得させた感情値と行動値とのいずれか一方又は両方を、導出式に代入することによって、印象の評価値を導出させる。また、アプリ142は、印象導出装置100に、対象者IDと印象の評価値を示す情報とを取得させ、取得させた印象の評価値を示す情報を分析させる。
The application 142 causes the impression derivation device 100 to acquire an impression evaluation request, creates a sensor acquisition information request based on the acquired impression evaluation request, and transmits the created sensor acquisition information request to the cloud server 200. . In addition, the application 142 causes the impression derivation device 100 to acquire a sensor acquisition information response that is a response to the transmitted sensor acquisition information request, and includes video data, audio data, and document data included in the acquired sensor acquisition information response. Acquire information indicating the operation log. Further, the application 142 causes the impression derivation device 100 to derive one or both of the emotion value and the action value based on the acquired video data, audio data, document data, and information indicating the operation log. .
In addition, the app 142 stores the impression deriving device 100 in association with the information indicating the impression based on the information indicating the scene and the information indicating the impression included in the impression evaluation request from the impression deriving information 144 of the storage unit 140. Get the derived derivation. Further, the app 142, based on the derivation formula acquired by the impression derivation device 100, the emotion value of one or more parameters indicating the emotion included in the derivation formula and the behavior of one or more parameters indicating the behavior. Either or both of the values are acquired from the emotion value action value information 143 in the storage unit 140, and either or both of the acquired emotion value and action value are substituted into the derivation formula, The evaluation value is derived. In addition, the application 142 causes the impression derivation device 100 to acquire the target person ID and the information indicating the evaluation value of the impression, and to analyze the information indicating the acquired evaluation value of the impression.

(感情値行動値情報143)
感情値行動値情報143は、時間と情報処理部130がセンサー取得情報から導出した感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方について、感情値と行動値とのいずれか一方又は両方とを、対象者ID毎に関連付けた情報である。例えば、感情値は、主に表情から導出される。例えば、行動値は、主に身振りから導出される。
図3は、感情値行動値情報の一例を示す図である。図3に示される例では、対象者ID「aaa」について、時間「00:00:00」と、表情から導出された感情を示すパラメータである喜びの感情値「7」と怒りの感情値「2」と、身振りから導出された行動を示すパラメータである頷きの行動値「0」と手振りの行動値「12」とが関連付けられている。図2に戻り、説明を続ける。
(Emotion value action value information 143)
The emotion value action value information 143 is an emotion value for one or both of time and one or more parameters indicating the emotion derived from the sensor acquisition information by the information processing unit 130 and one or more parameters indicating the action. And / or action value is information associated with each subject ID. For example, emotion values are derived mainly from facial expressions. For example, the action value is derived mainly from gestures.
FIG. 3 is a diagram illustrating an example of emotion value action value information. In the example shown in FIG. 3, with respect to the target person ID “aaa”, the time “00:00:00”, the emotion value “7” of joy, which is a parameter indicating the emotion derived from the facial expression, and the emotion value “ 2 ”is associated with a whispering action value“ 0 ”, which is a parameter indicating the action derived from gestures, and a gesture action value“ 12 ”. Returning to FIG. 2, the description will be continued.

(印象導出情報144)
印象導出情報144は、印象を示す情報(印象情報)と、印象の評価値と、印象の評価値を導出するための導出式とを、シーン毎に関連付けた情報である。印象導出情報144は、採用面談/社員面談、営業力を強化する研修、対面営業をリアルタイムに支援する場合、聴衆の反応・理解度を把握するなどのシーン毎に用意される。
ここで、採用面談/社員面談では、面談の相手を対象者とし、その対象者を撮影するとともに、音声を録音する。撮影することによって得られた動画データと録音することによって得られた音声データとに基づいて、感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方が取得される。取得された感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方に基づいて、本音で話している、適正があるなどの印象がデジタル化されることによって評価値が導出される。デジタル化された本音で話している、適正があるなどの印象に基づいて、最適なマッチングを図るとともに、優績者となる割合、離職率などとの相関を探ることができる。
営業力を強化する研修では、営業担当者を対象者とし、その対象者を撮影する。撮影することによって得られた動画データに基づいて、感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方が取得される。取得された感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方に基づいて、振る舞いの良否などの印象がデジタル化されることによって評価値が導出される。デジタル化された振る舞いの良否などの印象を、営業担当者向け研修で活用できる。
(Impression derivation information 144)
The impression derivation information 144 is information in which impression information (impression information), an impression evaluation value, and a derivation formula for deriving an impression evaluation value are associated with each scene. The impression derivation information 144 is prepared for each scene such as grasping the audience's reaction / understanding degree in the case of hiring interview / employee interview, training for strengthening sales ability, and support for face-to-face sales in real time.
Here, in the recruitment interview / employee interview, the interviewee is the target person, and the target person is photographed and the voice is recorded. Based on the moving image data obtained by shooting and the sound data obtained by recording, one or both of the emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior are acquired. . Based on one or both of the emotion value of the parameter indicating the acquired emotion and the behavior value of the parameter indicating the behavior, the evaluation value is obtained by digitizing the impression that the speaker is speaking or is appropriate Is derived. Based on the impression that you are speaking digitally and that you have the appropriateness, you can try to find the best match, and find the correlation with the percentage of people who are excellent and the turnover rate.
In training to strengthen sales capabilities, sales representatives are targeted and photographed. Based on the moving image data obtained by shooting, either or both of the emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior are acquired. Based on one or both of the acquired emotion value of the parameter indicating the emotion and the behavior value of the parameter indicating the behavior, the evaluation value is derived by digitizing the impression such as the quality of the behavior. You can use the impressions of the digitalized behavior in training for sales representatives.

対面営業をリアルタイムに支援する場合には、折衝中の顧客を対象者とし、その対象者を撮影するとともに、音声を録音する。撮影することによって得られた動画データと録音することによって得られた音声データとに基づいて、感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方が取得される。取得された感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方に基づいて、顧客の反応などの印象がデジタル化されることによって評価値が導出される。デジタル化された顧客の反応などの印象を、営業担当者に通知(アノテー ション)し、適切な対応を促す。
聴衆の反応・理解度の把握する場合には、セミナー、授業等の受け手を対象者とし、その対象者を撮影するとともに、音声を録音する。撮影することによって得られた動画データと録音することによって得られた音声データとに基づいて、感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方が取得される。取得された感情を示すパラメータの感情値と行動を示すパラメータの行動値とのいずれか一方又は両方に基づいて、感情、理解度などの印象がデジタル化されることによって評価値が導出される。デジタル化された感情、理解度などの印象に基づいて、話者に適切な対応を促す。この場合、対象者は、複数人である。
When supporting face-to-face sales in real time, a customer who is negotiating is targeted, and the subject is photographed and voice is recorded. Based on the moving image data obtained by shooting and the sound data obtained by recording, one or both of the emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior are acquired. . Based on one or both of the acquired emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior, an evaluation value is derived by digitizing an impression such as a customer reaction. Notify sales representatives of digital customer impressions and other responses, and encourage appropriate responses.
When grasping the audience's reaction and level of understanding, the audience, such as seminars and classes, is targeted, and the audience is photographed and voices are recorded. Based on the moving image data obtained by shooting and the sound data obtained by recording, one or both of the emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior are acquired. . Based on one or both of the acquired emotion value of the parameter indicating emotion and the behavior value of the parameter indicating behavior, an evaluation value is derived by digitizing impressions such as emotion and degree of understanding. Encourage speakers to take appropriate actions based on their digital feelings and impressions of understanding. In this case, there are a plurality of subjects.

図4は、印象導出情報の一例を示す図である。図4には、シーン1−シーンn(nは、n>0の整数)の各々について、印象を示す情報と、印象の評価値と、その印象の評価値を導出するための導出式とが関連付けられている。図4に示される例では、シーン1について、印象を示す情報「好感度」と、印象の評価値「A」と、導出式「喜び−怒り+10×頷き+手振り」とが関連づけられている。この式は、好感度の評価値「A」が、感情を示すパラメータである「喜び」の感情値から感情を示すパラメータである「怒り」の感情値を減算し、減算することによって得られた値から10と行動を示すパラメータである「頷き」の行動値との積を減算し、減算した結果得られた値から行動を示すパラメータである「手振り」の行動値を加算することによって得られることを示している。ここで、「10」は重みづけであり、「頷き」に重みづけがされている。これによって、好感度には、「頷き」の影響が大きいことを示される。
また、シーン1について、印象を示す情報「好感度」と、印象の評価値「B」と、導出式「嬉しい>80&怒り×2+悲しい<10」とが関連づけられている。この式は、印象の評価値「B」が、感情を示すパラメータである「嬉しい」の感情値が80より大きく、且つ感情を示すパラメータである「怒り」の感情値を2倍した値に感情を示すパラメータである「悲しい」の感情値を加えた値が10未満である導出式で与えられることが示されている。ここで、「2」は重みづけであり、「怒り」に重みづけがされている。これによって、好感度には、「怒り」の影響が大きいことを示される。
また、シーン1について、印象を示す情報「好感度」と、印象の評価値「C」と、導出式「嬉しい>50&怒り×2+悲しい<が30」とが関連づけられている。この式は、印象の評価値「C」が、感情を示すパラメータである「嬉しい」の感情値が50より大きく、且つ感情を示すパラメータである「怒り」の感情値を2倍した値に感情を示すパラメータである「悲しい」の感情値を加えた値が30未満である導出式で与えられることが示されている。ここで、「2」は重みづけであり、「怒り」に重みづけがされている。これによって、好感度には、「怒り」の影響が大きいことを示される。
また、シーン1について、印象を示す情報「説得力」と、印象の評価値「D」と、導出式「100−恐れ−嫌悪+10×手振り」とが関連づけられている。この式は、説得力の評価値「D」が、100から感情を示すパラメータである「恐れ」の感情値を減算し、減算することによって得られた値から感情を示すパラメータである「嫌悪」の感情値を減算し、減算した値から10と行動を示すパラメータである「手振り」の行動値との積を減算することによって得られることを示している。ここで、「10」は重みづけであり、「手振り」に重みづけがされている。これによって、説得力には、「手振り」の影響が大きいことを示される。
FIG. 4 is a diagram illustrating an example of impression derivation information. FIG. 4 shows information indicating an impression, an evaluation value of the impression, and a derivation formula for deriving the evaluation value of the impression for each of the scenes 1 to n (n is an integer of n> 0). Associated. In the example shown in FIG. 4, for the scene 1, the information “liking” indicating the impression, the impression evaluation value “A”, and the derivation expression “joy-anger + 10 × whisper + hand gesture” are associated. This expression is obtained by subtracting the emotion value of “anger”, which is a parameter indicating emotion, from the emotion value of “joy”, which is a parameter indicating emotion, and subtracting the evaluation value “A” of likability. It is obtained by subtracting the product of 10 and the action value of “whit” which is a parameter indicating action from the value, and adding the action value of “hand gesture” which is a parameter indicating action from the value obtained as a result of the subtraction. It is shown that. Here, “10” is a weight, and “whisker” is weighted. As a result, it is shown that the influence of “whit” is large in the favorable sensitivity.
For scene 1, the impression information “favorability”, the impression evaluation value “B”, and the derivation formula “happy> 80 & anger × 2 + sad <10” are associated. This expression shows that the evaluation value “B” of the impression has a feeling value of “joyful” that is a parameter indicating emotion greater than 80, and the emotion value of “anger” that is a parameter indicating emotion is doubled. It is shown that the value obtained by adding the emotion value of “sad”, which is a parameter indicating “”, is given by a derivation formula that is less than 10. Here, “2” is weighting, and “anger” is weighted. As a result, it is shown that the influence of “anger” is large in the favorable feeling.
For scene 1, the impression information “favorability”, the impression evaluation value “C”, and the derivation expression “happy> 50 & anger × 2 + sad <30” are associated. This expression indicates that the impression evaluation value “C” has an emotion value of “joyful” that is a parameter indicating emotion greater than 50, and the emotion value of “anger” that is a parameter indicating emotion is doubled. It is shown that the value obtained by adding the emotion value of “sad”, which is a parameter indicating “”, is given by a derivation formula that is less than 30. Here, “2” is weighting, and “anger” is weighted. As a result, it is shown that the influence of “anger” is large in the favorable feeling.
Further, for the scene 1, the information “persuasion” indicating the impression, the evaluation value “D” of the impression, and the derivation expression “100−fear−disgust + 10 × hand gesture” are associated. In this formula, the persuasive evaluation value “D” subtracts the emotion value of “fear”, which is a parameter indicating emotion, from 100, and “hate” is a parameter indicating emotion from the value obtained by subtraction. Is obtained by subtracting the product of 10 and the action value of “hand gesture” which is a parameter indicating action from the subtracted value. Here, “10” is a weight, and “hand gesture” is weighted. This shows that the influence of “hand gesture” is great on persuasive power.

また、図4に示したもの以外の例として、印象を示す情報「親しみ」が、感情を示すパラメータ「喜び」の感情値と「怒り」の感情値と、行動を示すパラメータ「頷き」の行動値と「手振り」の行動値とで導出される。また、印象を示す情報「自信」が、感情を示すパラメータ「悲しみ」の感情値と「恐怖」の感情値と「嫌悪」の感情値と、行動を示すパラメータ「揺れ」の行動値とで導出される。また、印象を示す情報「熱意」と「共感」とが、感情を示すパラメータ「注意」の感情値と、行動を示すパラメータ「頷き」の行動値と「揺れ」の行動値とで導出される。また、印象を示す情報「支配」と「対応力」が、感情を示すパラメータ「驚き」の感情値と、行動を示すパラメータ「支配率」の行動値と「速さ」の行動値とで導出される。図2に戻り、説明を続ける。   Further, as an example other than that shown in FIG. 4, the information “Familiarity” indicating the impression includes the emotion value of the parameter “joy” indicating the emotion, the emotion value of “anger”, and the behavior of the parameter “swing” indicating the behavior. It is derived from the value and the action value of “hand gesture”. In addition, the information “confidence” indicating impression is derived from the emotion value of the parameter “sadness” indicating emotion, the emotion value of “fear”, the emotion value of “disgust”, and the behavior value of the parameter “swing” indicating behavior Is done. In addition, the impression information “enthusiasm” and “sympathy” are derived from the emotion value of the parameter “attention” indicating emotion, the behavior value of the parameter “buzz” indicating behavior, and the behavior value of “shake” . In addition, the information “domination” and “responsibility” indicating impression are derived from the emotion value of the parameter “surprise” indicating emotion, the behavior value of the parameter “dominance rate” indicating behavior, and the behavior value of “speed” Is done. Returning to FIG. 2, the description will be continued.

(印象情報DB145)
印象情報DB145は、対象者IDと印象情報とその印象の評価値を導出するのに使用した感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とのいずれか一方又は両方とを関連付けた情報である。
印象情報DB145は、後述する印象情報導出部124が出力したファイルを記憶する。ファイルには、対象者IDと、印象の評価値を導出した印象を示す情報と、その印象の評価値を導出するのに使用した感情を示す一又は複数のパラメータとそれらの感情値と、行動を示す一又は複数のパラメータの行動値とそれらの行動値とを関連付けた情報が含まれる。
図5は、印象情報DBの一例を示す図である。図5に示される例では、対象者ID「aaa」と、印象情報「好感度」と、印象の評価値を導出するのに使用した感情を示すパラメータである喜びの感情値「X」と、感情を示すパラメータである怒りの感情値「Y」と、行動を示すパラメータである頷きの行動値「Z」と、行動を示すパラメータである手振りの行動値「W」とが関連づけられている。印象情報DB145に記憶される情報は、後述する分析部138で使用される。図2に戻り説明を続ける。
(Impression information DB 145)
The impression information DB 145 includes each emotion value of one or more parameters indicating the subject ID, impression information, and emotion used to derive the evaluation value of the impression, and each of one or more parameters indicating the action. It is the information which linked | related one or both of action value.
The impression information DB 145 stores a file output by an impression information deriving unit 124 described later. The file includes the target person ID, information indicating the impression from which the impression evaluation value is derived, one or more parameters indicating the emotion used to derive the impression evaluation value, their emotion values, The information which linked | related the action value of the 1 or several parameter which shows this, and those action values is contained.
FIG. 5 is a diagram illustrating an example of the impression information DB. In the example shown in FIG. 5, the target person ID “aaa”, the impression information “favorability”, the emotion value “X” of joy that is a parameter indicating the emotion used to derive the evaluation value of the impression, An anger emotion value “Y” which is a parameter indicating emotion, a whispering behavior value “Z” which is a parameter indicating behavior, and an action value “W” of a hand gesture which is a parameter indicating behavior are associated with each other. Information stored in the impression information DB 145 is used by the analysis unit 138 described later. Returning to FIG.

情報処理部130は、例えば、CPU(Central Processing Unit)などのプロセッサが記憶部140に格納されたプログラム141やアプリ142を実行することにより実現される機能部(以下、ソフトウェア機能部と称する)である。なお、情報処理部130の全部または一部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などのハードウェアにより実現されてもよく、ソフトウェア機能部とハードウェアとの組み合わせによって実現されてもよい。
情報処理部130は、例えば、取得部132と、感情値行動値導出部133と、印象情報導出部134と、作成部136と、分析部138とを備える。
The information processing unit 130 is a functional unit (hereinafter referred to as a software functional unit) realized by a processor such as a CPU (Central Processing Unit) executing the program 141 and the application 142 stored in the storage unit 140, for example. is there. Note that all or part of the information processing unit 130 may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable Gate Array). It may be realized by a combination of a unit and hardware.
The information processing unit 130 includes, for example, an acquiring unit 132, an emotion value / behavior value deriving unit 133, an impression information deriving unit 134, a creating unit 136, and an analyzing unit 138.

取得部132は、通信部110が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答を、感情値行動値導出部133へ出力する。取得部132は、通信部110が出力した印象評価要求を取得し、取得した印象評価要求を、印象情報導出部134と作成部136とへ出力する。   The acquisition unit 132 acquires the sensor acquisition information response output by the communication unit 110, and outputs the acquired sensor acquisition information response to the emotion value behavior value deriving unit 133. The acquisition unit 132 acquires the impression evaluation request output by the communication unit 110, and outputs the acquired impression evaluation request to the impression information deriving unit 134 and the creation unit 136.

感情値行動値導出部133は、取得部132が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答に含まれる映像データと音声データと文書データと操作ログとを取得する。感情値行動値導出部133は、取得した映像データと音声データと文書データと操作ログとに基づいて、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方を導出する。感情値行動値導出部133は、導出した一又は複数の感情を示すパラメータの各々について感情値を導出する。また、感情値行動値導出部133は、導出した一又は複数の行動を示すパラメータの各々について行動値を導出する。
具体的には、感情値行動値導出部133は、映像データを再生することによって得られる映像から、対象者の顔のパーツを特定し、特定したパーツをトラッキングしたり、筋肉のわずかな動きをデータ化したりすることによって、表情を識別する。感情値行動値導出部133は、識別した表情を分析することによって、喜び、怒り、悲しみ、驚き、恐怖、嫌悪、軽蔑などの感情を示す一又は複数のパラメータを導出する。感情値行動値導出部133は、導出した感情を示す一又は複数のパラメータの各々について、その度合いを数値化することによって感情値を導出する。
The emotion value behavior value deriving unit 133 acquires the sensor acquisition information response output by the acquisition unit 132, and acquires video data, audio data, document data, and an operation log included in the acquired sensor acquisition information response. The emotion value action value deriving unit 133 is based on the acquired video data, audio data, document data, and operation log, and one or more parameters indicating emotion and one or more parameters indicating action Or both are derived. The emotion value action value deriving unit 133 derives an emotion value for each of the derived parameters indicating one or more emotions. The emotion value action value deriving unit 133 derives an action value for each of the derived parameters indicating one or more actions.
Specifically, the emotion value behavior value deriving unit 133 identifies the face part of the target person from the video obtained by reproducing the video data, tracks the identified part, and performs slight movement of the muscle. The expression is identified by converting it into data. The emotion value / behavior value deriving unit 133 derives one or more parameters indicating emotions such as joy, anger, sadness, surprise, fear, disgust, and contempt by analyzing the identified facial expressions. The emotion value behavior value deriving unit 133 derives an emotion value by quantifying the degree of each of one or a plurality of parameters indicating the derived emotion.

また、感情値行動値導出部133は、映像データを再生することによって得られる映像から、対象者の関節ポイントを認識し、認識した関節ポイントに基づいて、身振り、立つ、寝る、歩く、転倒などの行動を示す一又は複数のパラメータを導出する。感情値行動値導出部133は、導出した行動を示す一又は複数のパラメータの各々について、その度合いを数値化することによって行動値を導出する。また、感情値行動値導出部133は、大きな動作だけでなく、上半身に特化して、微細な動作を識別し、識別した動作を示す一又は複数のパラメータを導出してもよい。そして、感情値行動値導出部133は、導出した動作を示す一又は複数のパラメータの各々について、その度合いを数値化することによって、行動値を導出してもよい。
ここでは、一例として、感情値行動値導出部133が、映像データを再生することによって得られる映像から、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方を導出する場合について説明した。感情値行動値導出部133は、音声データ、文書データ、操作ログから、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方を導出する。そして、感情値行動値導出部133は、導出した動作を示す一又は複数のパラメータの各々について、その度合いを数値化することによって、行動値を導出する。
例えば、感情値行動値導出部133は、音声データを再生することによって得られる音声から、喜び、怒り、哀しみ、興奮、平常などの感情を示す一又は複数のパラメータを導出する。また、例えば、記憶部140に、説明手順と説明基準時間とを記憶しておく。感情値行動値導出部133は、文書データと操作ログを示す情報と、記憶部140に記憶されている説明順序と説明基準時間とを比較することによって、説明順序と説明基準時間とにしたがっているか否かを判定する。感情値行動値導出部133は、説明順序と説明基準時間とにしたがっているか否かの判定結果に基づいて、説明順序、説明時間などの行動を示す一又は複数のパラメータを導出する。
感情値行動値導出部133は、感情を示す一又は複数のパラメータの各々と感情値との組み合わせと、行動を示す一又は複数のパラメータの各々と行動値との組み合わせのうちいずれか一方又は両方を、対象者IDと関連付けて、記憶部140の感情値行動値情報143に記憶する。
Further, the emotion value behavior value deriving unit 133 recognizes the joint point of the target person from the video obtained by reproducing the video data, and gestures, stands, sleeps, walks, falls, etc. based on the recognized joint point One or a plurality of parameters indicating the behavior of The emotion value action value deriving unit 133 derives an action value by quantifying the degree of each of one or a plurality of parameters indicating the derived action. Further, the emotion value behavior value deriving unit 133 may identify not only a large motion but also a fine motion specifically for the upper body, and derive one or a plurality of parameters indicating the identified motion. Then, the emotion value behavior value deriving unit 133 may derive the behavior value by quantifying the degree of each of one or a plurality of parameters indicating the derived motion.
Here, as an example, the emotion value action value deriving unit 133 selects one or more parameters indicating emotion and one or more parameters indicating action from the video obtained by reproducing the video data. Or the case where both were derived was explained. The emotion value / behavior value deriving unit 133 derives one or both of one or more parameters indicating emotion and one or more parameters indicating behavior from the voice data, document data, and operation log. Then, the emotion value behavior value deriving unit 133 derives an action value by quantifying the degree of each of one or a plurality of parameters indicating the derived motion.
For example, the emotion value / behavior value deriving unit 133 derives one or a plurality of parameters indicating emotions such as joy, anger, sadness, excitement, and normality from the sound obtained by reproducing the sound data. Further, for example, the explanation procedure and the explanation reference time are stored in the storage unit 140. Whether the emotion value action value deriving unit 133 follows the explanation order and the explanation reference time by comparing the information indicating the document data and the operation log with the explanation order stored in the storage unit 140 and the explanation reference time. Determine whether or not. The emotion value behavior value deriving unit 133 derives one or a plurality of parameters indicating the behavior such as the explanation order and the explanation time based on the determination result of whether or not the explanation order and the explanation reference time are followed.
The emotion value / behavior value deriving unit 133 is one or both of a combination of one or more parameters indicating emotion and an emotion value, and a combination of each of one or more parameters indicating action and an action value. Is stored in the emotion value action value information 143 of the storage unit 140 in association with the subject ID.

印象情報導出部134は、取得部132が出力した印象評価要求を取得し、記憶部140の印象導出情報144から、取得した印象評価要求に含まれるシーンを示す情報に対応する印象導出情報を取得する。さらに、印象情報導出部134は、印象評価要求に含まれる印象を示す情報に基づいて、取得した印象導出情報から、印象情報を示す情報に関連付けられている導出式を取得する。
印象情報導出部134は、取得した導出式に基づいて、その導出式に含まれる感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とのいずれか一方又は両方を、記憶部140の感情値行動値情報143の対象者IDに関連付けられている感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とから取得する。
印象情報導出部134は、取得した一又は複数のパラメータの各々の感情値と取得した一又は複数のパラメータの各々の行動値とのいずれか一方又は両方を、導出式の該当するパラメータに代入することによって、印象の評価値を導出する。このように構成することによって、リアルタイムに、印象の評価値を導出できる。
The impression information deriving unit 134 acquires the impression evaluation request output by the acquiring unit 132, and acquires impression derivation information corresponding to information indicating the scene included in the acquired impression evaluation request from the impression derivation information 144 of the storage unit 140. To do. Furthermore, the impression information deriving unit 134 obtains a derivation formula associated with the information indicating the impression information from the acquired impression derivation information based on the information indicating the impression included in the impression evaluation request.
The impression information deriving unit 134, based on the acquired derivation formula, each emotion value of one or more parameters indicating emotions included in the derivation formula, and each action value of one or more parameters indicating behavior Either or both of the emotion values of one or more parameters indicating the emotion associated with the subject ID of the emotion value behavior value information 143 in the storage unit 140 and one or more parameters indicating the behavior Obtained from each action value.
The impression information deriving unit 134 substitutes one or both of the emotion value of each of the acquired one or more parameters and the action value of each of the acquired one or more parameters for the corresponding parameter of the derivation formula. Thus, the evaluation value of the impression is derived. With this configuration, an impression evaluation value can be derived in real time.

また、ここで、印象情報導出部134は、記憶部140の感情値行動値情報143の対象者IDに関連付けられている感情を示す一又は複数のパラメータの各々について、時間に対して、感情値を平均化する、合計するなどの統計処理を行うことによって、各感情を示すパラメータの感情値を導出してもよい。また、印象情報導出部134は、記憶部140の感情値行動値情報143の対象者IDに関連付けられている行動を示す一又は複数のパラメータの各々について、時間に対して、行動値を平均化する、合計するなどの統計処理を行うことによって、各行動を示すパラメータの行動値を導出してもよい。
印象情報導出部134は、導出した感情値と導出した行動値とのいずれか一方又は両方を、導出式の該当するパラメータに代入することによって、印象の評価値を導出してもよい。
印象情報導出部134は、対象者IDと導出した印象の評価値を示す情報とを、分析部138へ出力する。さらに、印象情報導出部134は、対象者IDと、印象の評価値を導出した印象を示す情報と、その印象の評価値を導出するのに使用した感情を示す一又は複数のパラメータとそれらの感情値と、行動を示す一又は複数のパラメータの行動値とそれらの行動値とを関連付けたファイルを作成し、作成したファイルを、印象情報DB145へ記憶する。
Here, the impression information deriving unit 134 determines the emotion value with respect to time for each of one or more parameters indicating the emotion associated with the subject ID of the emotion value action value information 143 in the storage unit 140. The emotion value of the parameter indicating each emotion may be derived by performing statistical processing such as averaging and summing. In addition, the impression information deriving unit 134 averages the behavior value with respect to time for each of one or a plurality of parameters indicating the behavior associated with the target person ID of the emotion value behavior value information 143 in the storage unit 140. The behavior value of the parameter indicating each behavior may be derived by performing statistical processing such as summing and summing.
The impression information deriving unit 134 may derive the evaluation value of the impression by substituting one or both of the derived emotion value and the derived action value into the corresponding parameter of the derivation formula.
The impression information deriving unit 134 outputs the target person ID and information indicating the derived evaluation value of the impression to the analyzing unit 138. Furthermore, the impression information deriving unit 134 includes the target person ID, the information indicating the impression from which the evaluation value of the impression is derived, one or a plurality of parameters indicating the emotion used to derive the evaluation value of the impression, and those parameters. A file in which the emotion value, the action value of one or a plurality of parameters indicating the action, and the action value are associated is created, and the created file is stored in the impression information DB 145.

分析部138は、印象情報導出部134が出力した対象者IDと、印象の評価値を示す情報とを取得し、取得した印象の評価値を示す情報を分析する。具体的には、分析部138は、印象の評価値の時系列データを作成する。また、分析部138は、印象情報DB145から、対象者の過去の印象の評価値を取得し、取得した過去の印象の評価値に基づいて、同じ対象者について、印象の評価値と過去の印象の評価値との比較結果を作成する。
また、分析部138は、印象情報DB145から、他人の印象の評価値を取得し、取得した他人の印象の評価値に基づいて、対象者の印象の評価値と他人の印象の評価値との比較結果を作成する。また、分析部138は、印象の評価値と他人の印象の評価値との比較結果に基づいて、印象の評価値に影響する感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を抽出する。
例えば、模範的な保険募集人と一般的な募集人をそれぞれ撮影し、撮影することによって得られた映像データに基づいて、印象の評価値を導出する。分析部138は、模範的な保険募集人の印象の評価結果と一般的な募集人の印象の評価結果とを比較し、有意な差が認められるパラメータを抽出できるかを検証する。検証の結果、有意な差が認められるパラメータを抽出できた場合には、抽出できたパラメータが、模範的な保険募集人と一般的な募集人との印象に影響するものであると判断できる。さらに、分析部138は、抽出したパラメータを含む導出式を作成するようにしてもよい。このように構成することによって、模範的な保険募集人と一般的な募集人との印象に影響するパラメータに着目した印象の評価値を導出する導出式を作成できる。
分析部138は、対象者IDと印象の評価値を示す情報と印象の評価値の分析結果を示す情報とを、作成部136へ出力する。
作成部136は、取得部132が出力した印象評価要求を取得し、取得した印象評価要求に基づいて、対象者IDを含むセンサー取得情報要求を作成し、作成したセンサー取得情報要求を通信部110へ出力する。また、作成部136は、分析部138が出力した対象者IDと印象の評価値を示す情報と印象の評価値の分析結果を示す情報と含む印象評価応答を作成し、作成した印象評価応答を、通信部110へ出力する。
The analysis unit 138 acquires the target person ID output by the impression information deriving unit 134 and information indicating the evaluation value of the impression, and analyzes the information indicating the acquired evaluation value of the impression. Specifically, the analysis unit 138 creates time-series data of impression evaluation values. Further, the analysis unit 138 acquires the evaluation value of the past impression of the target person from the impression information DB 145, and based on the acquired evaluation value of the past impression, the evaluation value and the past impression of the same target person. Create a comparison result with the evaluation value.
Further, the analysis unit 138 acquires the evaluation value of the impression of the other person from the impression information DB 145, and based on the acquired evaluation value of the impression of the other person, the evaluation value of the impression of the target person and the evaluation value of the impression of the other person Create comparison results. Further, the analysis unit 138 determines either or both of a parameter indicating an emotion and a parameter indicating an action that affect the evaluation value of the impression based on a comparison result between the evaluation value of the impression and the evaluation value of another person's impression. Extract.
For example, an exemplary insurance recruiter and a general recruiter are photographed, and an evaluation value of an impression is derived based on video data obtained by photographing. The analysis unit 138 compares the evaluation result of the impression of the exemplary insurance recruiter with the evaluation result of the impression of the general recruiter, and verifies whether or not a parameter with a significant difference can be extracted. As a result of the verification, when a parameter with a significant difference can be extracted, it can be determined that the extracted parameter affects the impression of the exemplary insurance recruiter and the general recruiter. Furthermore, the analysis unit 138 may create a derivation formula that includes the extracted parameters. By configuring in this way, it is possible to create a derivation formula for deriving an impression evaluation value focusing on parameters that affect the impression of an exemplary insurance recruiter and a general recruiter.
The analysis unit 138 outputs information indicating the target person ID and impression evaluation value and information indicating the analysis result of the impression evaluation value to the creation unit 136.
The creation unit 136 acquires the impression evaluation request output by the acquisition unit 132, creates a sensor acquisition information request including the target person ID based on the acquired impression evaluation request, and transmits the created sensor acquisition information request to the communication unit 110. Output to. The creation unit 136 creates an impression evaluation response including the target person ID output by the analysis unit 138, information indicating the impression evaluation value, and information indicating the analysis result of the impression evaluation value, and the created impression evaluation response is generated. And output to the communication unit 110.

(クラウドサーバ200)
図2を参照して、クラウドサーバ200について説明する。
クラウドサーバ200は、パーソナルコンピュータ、サーバ、又は産業用コンピュータ等の装置によって実現される。
クラウドサーバ200は、例えば、通信部210と、情報処理部230と、記憶部240とを備える。
(Cloud server 200)
The cloud server 200 will be described with reference to FIG.
The cloud server 200 is realized by a device such as a personal computer, a server, or an industrial computer.
The cloud server 200 includes, for example, a communication unit 210, an information processing unit 230, and a storage unit 240.

通信部210は、通信モジュールによって実現される。通信部210はネットワーク50を介して、外部の通信装置と通信する。通信部210は、例えば無線LAN、有線LAN、ブルートゥース(登録商標)又はLTE(登録商標)などの通信方式で通信してもよい。
通信部210は、撮像装置20が送信した映像データを受信し、受信した映像データを情報処理部230へ出力する。通信部210は、マイクロフォン30が送信した音声データを受信し、受信した音声データを情報処理部230へ出力する。通信部210は、端末装置40が送信した文書データと操作ログを示す情報とを受信し、受信した文書データと、操作ログを示す情報とを情報処理部230へ出力する。通信部210は、印象導出装置100が送信したセンサー取得情報要求を受信し、受信したセンサー取得情報要求を情報処理部230へ出力する。通信部210は、情報処理部230が出力したセンサー取得情報応答を、印象導出装置100へ送信する。
The communication unit 210 is realized by a communication module. The communication unit 210 communicates with an external communication device via the network 50. The communication unit 210 may communicate using a communication method such as a wireless LAN, a wired LAN, Bluetooth (registered trademark), or LTE (registered trademark).
The communication unit 210 receives the video data transmitted by the imaging device 20 and outputs the received video data to the information processing unit 230. The communication unit 210 receives the audio data transmitted by the microphone 30 and outputs the received audio data to the information processing unit 230. The communication unit 210 receives the document data transmitted by the terminal device 40 and information indicating the operation log, and outputs the received document data and information indicating the operation log to the information processing unit 230. The communication unit 210 receives the sensor acquisition information request transmitted by the impression derivation device 100, and outputs the received sensor acquisition information request to the information processing unit 230. The communication unit 210 transmits the sensor acquisition information response output from the information processing unit 230 to the impression derivation device 100.

記憶部240は、例えば、RAM、ROM、HDD、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。記憶部240には、情報処理部230により実行されるプログラム242と、アプリ244とが記憶される。さらに、記憶部240には、検出情報246が記憶される。
アプリ244は、クラウドサーバ200に、映像データと、音声データと、文書データと、操作ログを示す情報とを取得させ、取得させた映像データと、音声データと、文書データと、操作ログを示す情報とを、対象者IDと関連付けて、記憶部240に記憶させる。また、アプリ244は、クラウドサーバ200に、センサー取得情報要求を取得させ、取得させたセンサー取得情報要求に基づいて、記憶部240に記憶されているセンサー取得情報を取得させ、取得させたセンサー取得情報を、印象導出装置100へ送信させる。
検出情報246は、対象者ID毎に、映像データと音声データと文書データと操作ログとのうち、情報処理部230が出力した情報を関連付けて記憶する。
The storage unit 240 is realized by, for example, a RAM, a ROM, an HDD, a flash memory, or a hybrid storage device in which a plurality of these are combined. The storage unit 240 stores a program 242 executed by the information processing unit 230 and an application 244. Furthermore, detection information 246 is stored in the storage unit 240.
The application 244 causes the cloud server 200 to acquire video data, audio data, document data, and information indicating an operation log, and displays the acquired video data, audio data, document data, and an operation log. The information is stored in the storage unit 240 in association with the subject ID. Further, the application 244 causes the cloud server 200 to acquire a sensor acquisition information request, acquires sensor acquisition information stored in the storage unit 240 based on the acquired sensor acquisition information request, and acquires the acquired sensor. Information is transmitted to the impression derivation device 100.
The detection information 246 stores information output by the information processing unit 230 among the video data, audio data, document data, and operation log for each target person ID.

情報処理部230は、例えば、CPUなどのプロセッサが記憶部240に格納されたプログラム242を実行することにより実現されるソフトウェア機能部である。なお、情報処理部230の全部または一部は、LSI、ASIC、またはFPGAなどのハードウェアにより実現されてもよく、ソフトウェア機能部とハードウェアとの組み合わせによって実現されてもよい。
情報処理部230は、例えば、取得部232と、作成部236とを備える。
The information processing unit 230 is a software function unit that is realized, for example, when a processor such as a CPU executes a program 242 stored in the storage unit 240. Note that all or part of the information processing unit 230 may be realized by hardware such as LSI, ASIC, or FPGA, or may be realized by a combination of a software function unit and hardware.
The information processing unit 230 includes, for example, an acquisition unit 232 and a creation unit 236.

取得部232は、通信部210が出力した映像データを取得し、取得した映像データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した音声データを取得し、取得した音声データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した文書データを取得し、取得した文書データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した操作ログを示す情報を取得し、取得した操作ログを示す情報と、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。
また、取得部232は、通信部210が出力したセンサー取得情報要求を取得し、取得したセンサー取得情報要求に含まれる対象者IDに関連付けられている映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを、記憶部240の検出情報246から取得する。取得部232は、対象者IDと、取得した映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを、作成部236へ出力する。
作成部236は、取得部232が出力した対象者IDと映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを取得し、取得した対象者IDと映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを含み、印象導出装置100を宛先とするセンサー取得情報応答を作成する。作成部236は、作成したセンサー取得情報応答を、通信部210へ出力する。
The acquisition unit 232 acquires the video data output by the communication unit 210, creates a file in which the acquired video data is associated with the target person ID, and stores the created file in the detection information 246 of the storage unit 240. The acquisition unit 232 acquires the audio data output from the communication unit 210, creates a file in which the acquired audio data is associated with the target person ID, and stores the created file in the detection information 246 of the storage unit 240. The acquisition unit 232 acquires the document data output by the communication unit 210, creates a file in which the acquired document data is associated with the target person ID, and stores the created file in the detection information 246 of the storage unit 240. The acquisition unit 232 acquires information indicating the operation log output from the communication unit 210, creates a file in which the information indicating the acquired operation log is associated with the target person ID, and detects the created file in the storage unit 240 Store in information 246.
The acquisition unit 232 acquires the sensor acquisition information request output from the communication unit 210, and the video data file, the audio data file, and the document data associated with the target person ID included in the acquired sensor acquisition information request. And the operation log file are acquired from the detection information 246 in the storage unit 240. The acquisition unit 232 outputs the target person ID, the acquired video data file, audio data file, document data file, and operation log file to the creation unit 236.
The creation unit 236 acquires the target person ID, the video data file, the audio data file, the document data file, and the operation log file output from the acquisition unit 232, and the acquired target ID and video data file A sensor acquisition information response including the audio data file, the document data file, and the operation log file is generated with the impression derivation device 100 as the destination. The creation unit 236 outputs the created sensor acquisition information response to the communication unit 210.

(クライアント端末400)
図2を参照して、クライアント端末400について説明する。
クライアント端末400は、パーソナルコンピュータ、スマートフォン又はタブレットコンピュータ等の装置によって実現される。
クライアント端末400は、例えば、通信部410と、情報処理部430と、記憶部440と、操作部450と、表示部460とを備える。
(Client terminal 400)
The client terminal 400 will be described with reference to FIG.
The client terminal 400 is realized by a device such as a personal computer, a smartphone, or a tablet computer.
The client terminal 400 includes, for example, a communication unit 410, an information processing unit 430, a storage unit 440, an operation unit 450, and a display unit 460.

通信部410は、通信モジュールによって実現される。通信部410はネットワーク50を介して、外部の通信装置と通信する。通信部410は、例えば無線LAN、有線LAN、ブルートゥース(登録商標)又はLTE(登録商標)などの通信方式で通信してもよい。
通信部410は、情報処理部430が出力した印象評価要求を、印象導出装置100へ送信する。通信部410は、印象導出装置100が送信した印象評価応答を受信し、受信した印象評価応答を、情報処理部430へ出力する。
The communication unit 410 is realized by a communication module. The communication unit 410 communicates with an external communication device via the network 50. The communication unit 410 may communicate with a communication method such as a wireless LAN, a wired LAN, Bluetooth (registered trademark), or LTE (registered trademark).
The communication unit 410 transmits the impression evaluation request output from the information processing unit 430 to the impression derivation device 100. The communication unit 410 receives the impression evaluation response transmitted by the impression derivation device 100, and outputs the received impression evaluation response to the information processing unit 430.

記憶部440は、例えば、RAM、ROM、HDD、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。記憶部440には、情報処理部430により実行されるプログラム442と、アプリ444とが記憶される。
アプリ444は、クライアント端末400に印象評価要求を作成させ、作成させた印象評価要求を、印象導出装置100へ送信させる。アプリ444は、印象導出装置100が送信した印象評価応答を受信させ、受信させた印象評価応答を処理させる。
操作部450は、入力デバイスを備え、ユーザの操作を受け付ける。この入力デバイスには、キーボード等の文字情報を入力するデバイス、マウス、タッチパネル等のポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッド等が含まれる。
表示部460は、CPUなどのプロセッサによって制御され、画像、GUI(Graphical User Interface)などを表示する。この一例では、操作部450は、タッチパネルである。
The storage unit 440 is realized by, for example, a RAM, a ROM, an HDD, a flash memory, or a hybrid storage device in which a plurality of these are combined. The storage unit 440 stores a program 442 executed by the information processing unit 430 and an application 444.
The application 444 causes the client terminal 400 to create an impression evaluation request and transmits the created impression evaluation request to the impression derivation device 100. The application 444 receives the impression evaluation response transmitted by the impression derivation device 100 and processes the received impression evaluation response.
The operation unit 450 includes an input device and accepts user operations. The input device includes a device for inputting character information such as a keyboard, a pointing device such as a mouse and a touch panel, a button, a dial, a joystick, a touch sensor, and a touch pad.
The display unit 460 is controlled by a processor such as a CPU, and displays an image, a GUI (Graphical User Interface), and the like. In this example, the operation unit 450 is a touch panel.

情報処理部430は、例えば、CPUなどのプロセッサが記憶部440に格納されたプログラム442とアプリ444とを実行することにより実現されるソフトウェア機能部である。なお、情報処理部430の全部または一部は、LSI、ASIC、またはFPGAなどのハードウェアにより実現されてもよく、ソフトウェア機能部とハードウェアとの組み合わせによって実現されてもよい。
情報処理部430は、例えば、取得部432と、処理部434と、作成部436とを備える。
For example, the information processing unit 430 is a software function unit realized by a processor such as a CPU executing a program 442 and an application 444 stored in the storage unit 440. Note that all or part of the information processing unit 430 may be realized by hardware such as LSI, ASIC, or FPGA, or may be realized by a combination of a software function unit and hardware.
The information processing unit 430 includes, for example, an acquisition unit 432, a processing unit 434, and a creation unit 436.

取得部432は、通信部410が出力した印象評価応答を取得し、取得した印象評価応答を、処理部434へ出力する。
処理部434は、ユーザが、操作部450に印象の評価を要求する操作を行った場合に、表示部460に、印象の評価を行う画面を表示する。
図6は、印象の評価を行う画面の一例を示す図である。図6に示される例では、印象の評価を行う画面には、「1.分析対象データ指定」欄と、「2.評価パターン指定」欄と、「3.コミュニケーション分析対象指定」欄と、「4.総合評価確認」欄とが表示される。
「1.分析対象データ指定」欄には、印象の評価を行う対象者の動画データを示す情報(例えば、ファイル名)と音声データを示す情報(例えば、ファイル名)と文書データを示す情報(例えば、ファイル名)と操作ログを示す情報(例えば、ファイル名)とのうち、少なくとも一つの情報が入力される。
「2.評価パターン指定」欄には、評価パターンとして、印象を評価するシーンを示す情報が入力され、評価項目として、印象を示す情報が入力される。
「3.コミュニケーション分析対象指定」欄には、対象者の過去の印象と比較する場合には、その対象者の過去のデータを示す情報(例えば、ファイル名)が入力される。また、「3.コミュニケーション分析対象指定」欄には、他の対象者の印象と比較する場合には、その他の対象者のデータを示す情報(例えば、ファイル名)が入力される。
「4.総合評価確認」欄には、感情を示すパラメータ、行動を示すパラメータの詳細や、印象の評価値を含めた総合的な評価結果が表示される。
The acquisition unit 432 acquires the impression evaluation response output by the communication unit 410 and outputs the acquired impression evaluation response to the processing unit 434.
When the user performs an operation for requesting impression evaluation from the operation unit 450, the processing unit 434 displays a screen for performing impression evaluation on the display unit 460.
FIG. 6 is a diagram illustrating an example of a screen for evaluating an impression. In the example shown in FIG. 6, an impression evaluation screen includes “1. Analysis target data specification” column, “2. Evaluation pattern specification” column, “3. Communication analysis target specification” column, “ 4. “Comprehensive evaluation confirmation” column is displayed.
In the “1. Analysis target data designation” column, information (for example, a file name) indicating moving image data of a target person whose impression is to be evaluated, information (for example, a file name) indicating audio data, and information (for example, a file name) For example, at least one piece of information is input between the file name) and information indicating the operation log (for example, file name).
In the “2. Evaluation pattern designation” column, information indicating a scene for evaluating an impression is input as an evaluation pattern, and information indicating an impression is input as an evaluation item.
In the “3. Communication analysis target designation” field, information (for example, a file name) indicating past data of the target person is input when compared with the past impression of the target person. In addition, in the “3. Communication analysis target designation” field, information (for example, a file name) indicating data of other target persons is input when compared with impressions of other target persons.
In the “4. Comprehensive evaluation confirmation” column, a comprehensive evaluation result including a parameter indicating emotion, a detail of a parameter indicating action, and an evaluation value of impression is displayed.

印象の評価を行う画面で、必要な項目を入力した後、「分析開始」が押されることによって、処理部434は、作成部436へ、対象者IDとシーンを示す情報と印象を示す情報とを出力する。さらに、「3.コミュニケーション分析対象指定」欄に、対象者の過去のデータを示す情報や、他の対象者のデータを示す情報が入力された場合には、処理部434は、対象者IDと印象を示す情報とに加え、対象者の過去のデータを示す情報や、他の対象者のデータを示す情報を出力する。ここでは、処理部434が、作成部436へ、対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを出力した場合について説明を続ける。
処理部434は、取得部432が出力した印象評価応答を取得し、取得した印象評価応答を処理することによって、表示部460に印象評価結果を表示する。
After inputting necessary items on the screen for evaluating impressions, when “analysis start” is pressed, the processing unit 434 causes the creation unit 436 to send information indicating the target person ID and scene, information indicating the impression, Is output. Furthermore, when information indicating the target person's past data or information indicating data of another target person is input in the “3. Communication analysis target designation” field, the processing unit 434 displays the target person ID and In addition to the information indicating the impression, information indicating past data of the target person and information indicating data of other target persons are output. Here, the case where the processing unit 434 outputs the target person ID, information indicating a scene, information indicating an impression, and information indicating data of another target person to the creation unit 436 will be described.
The processing unit 434 acquires the impression evaluation response output by the acquisition unit 432 and displays the impression evaluation result on the display unit 460 by processing the acquired impression evaluation response.

図7は、印象評価結果の表示画面の一例を示す図である。図7に示される例では、印象評価結果の表示画面は、「A」欄と「B」欄と「C」欄とに分けられる。「A」欄には、印象を示す情報と印象の評価値と印象の評価値のランクとが関連付けて表示される。ここで、評価値のランクは、印象の評価値を、評価値が高い方から、A、B、C、・・・と分類したものである。例えば、印象の評価値が、80以上をAランクとし、70以上80未満をBランクとし、60以上70未満をCランクとし、40以上60未満をDランクとする。
「B」欄には、対象者と他の対象者との印象の評価値の比較結果が表示される。図8に示される例では、対象者と他の対象者との印象の評価値の比較結果が、表とレーダーチャートで表されている。
「C」欄には、感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値のいずれか一方又は両方について、時系列データと、他の対象者との比較と、印象の評価値とが示される。図8に示される例では、時系列データは、積み上げグラフで表される。他の対象者との比較はレーダーチャートで表される。印象の評価値は、表で表される。
作成部436は、処理部434が出力した対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを取得し、取得した対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを含み、印象導出装置100を宛先とする印象評価要求を作成する。作成部436は、作成した印象評価要求を、通信部410へ出力する。
FIG. 7 is a diagram illustrating an example of an impression evaluation result display screen. In the example shown in FIG. 7, the impression evaluation result display screen is divided into an “A” field, a “B” field, and a “C” field. In the “A” column, information indicating an impression, an evaluation value of the impression, and a rank of the evaluation value of the impression are displayed in association with each other. Here, the rank of the evaluation value is obtained by classifying the evaluation value of the impression as A, B, C,... From the higher evaluation value. For example, the evaluation value of impression is 80 or more as A rank, 70 or more and less than 80 as B rank, 60 or more and less than 70 as C rank, and 40 or more and less than 60 as D rank.
In the “B” column, a comparison result of evaluation values of impressions of the subject and other subjects is displayed. In the example shown in FIG. 8, the comparison result of the evaluation values of the impressions of the subject and other subjects is represented by a table and a radar chart.
In the “C” column, the time series data and the other values for one or both of the emotion value of each of one or more parameters indicating emotion and the action value of each of one or more parameters indicating behavior The comparison with the subject and the evaluation value of the impression are shown. In the example shown in FIG. 8, the time series data is represented by a stacked graph. Comparison with other subjects is represented by a radar chart. The evaluation value of the impression is represented by a table.
The creation unit 436 acquires the target person ID, the information indicating the scene, the information indicating the impression, the information indicating the data of the other target person, and the information indicating the data of the other target person, and the information indicating the acquired target person ID and the scene. An impression evaluation request including information indicating an impression and information indicating data of another target person and having the impression derivation device 100 as a destination is created. The creation unit 436 outputs the created impression evaluation request to the communication unit 410.

(印象導出システム10の動作)
図8は、実施形態の印象導出システムの動作の一例を示すシーケンスチャートである。図8に示される例では、研修の対象者が、第三者を相手に、対面でコミュニケーションを行っている最中に取得される映像データと音声データと文書データと操作ログとに基づいて、対象者の印象の評価値を導出し、導出した印象の評価値と他人の印象の評価値とを比較する場合について説明する。
(ステップS11)
撮像装置20は、第三者を相手に、対面でコミュニケーションを行っている対象者を撮像する。
(ステップS12)
撮像装置20は、対象者IDと対象者を撮像することによって得られた映像データとを含む映像データを作成する。
(ステップS13)
撮像装置20は、作成した映像データを、クラウドサーバ200へ送信する。
(ステップS14)
マイクロフォン30は、対象者が、第三者を相手に、対面でコミュニケーションを行っている内容を録音する。
(ステップS15)
マイクロフォン30は、対象者IDとコミュニケーションの内容を録音することによって得られた音声データとを含む音声データを作成する。
(Operation of impression derivation system 10)
FIG. 8 is a sequence chart illustrating an example of the operation of the impression derivation system according to the embodiment. In the example shown in FIG. 8, the training target person is based on video data, audio data, document data, and operation logs acquired during a face-to-face communication with a third party. A case will be described in which the evaluation value of the impression of the target person is derived and the evaluation value of the derived impression is compared with the evaluation value of the impression of another person.
(Step S11)
The imaging device 20 images a target person who is communicating face-to-face with a third party.
(Step S12)
The imaging device 20 creates video data including the target person ID and video data obtained by capturing the target person.
(Step S13)
The imaging device 20 transmits the created video data to the cloud server 200.
(Step S14)
The microphone 30 records the content of the subject communicating face-to-face with a third party.
(Step S15)
The microphone 30 creates voice data including the target person ID and voice data obtained by recording the contents of communication.

(ステップS16)
マイクロフォン30は、作成した音声データを、クラウドサーバ200へ送信する。
(ステップS17)
端末装置40は、対象者が、第三者を相手に、対面でコミュニケーションを行っているときに使用した文書データと端末装置40の操作ログとを取得する。
(ステップS18)
端末装置40は、対象者IDと文書データと操作ログを示す情報と文書データと操作ログとを作成する。
(ステップS19)
端末装置40は、作成した文書データと操作ログとを、クラウドサーバ200へ送信する。
(ステップS20)
クラウドサーバ200の通信部210は、撮像装置20が送信した映像データを受信し、受信した映像データを情報処理部230へ出力する。通信部210は、マイクロフォン30が送信した音声データを受信し、受信した音声データを情報処理部230へ出力する。通信部210は、端末装置40が送信した文書データと操作ログを示す情報とを受信し、受信した文書データと、操作ログを示す情報とを情報処理部230へ出力する。
情報処理部230の取得部232は、通信部210が出力した映像データを取得し、取得した映像データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した音声データを取得し、取得した音声データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した文書データを取得し、取得した文書データと、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。取得部232は、通信部210が出力した操作ログを示す情報を取得し、取得した操作ログを示す情報と、対象者IDとを関連付けたファイルを作成し、作成したファイルを記憶部240の検出情報246へ記憶する。
(Step S16)
The microphone 30 transmits the created audio data to the cloud server 200.
(Step S17)
The terminal device 40 acquires document data and an operation log of the terminal device 40 that are used when the target person performs face-to-face communication with a third party.
(Step S18)
The terminal device 40 creates information indicating the target person ID, document data, and operation log, document data, and an operation log.
(Step S19)
The terminal device 40 transmits the created document data and operation log to the cloud server 200.
(Step S20)
The communication unit 210 of the cloud server 200 receives the video data transmitted by the imaging device 20 and outputs the received video data to the information processing unit 230. The communication unit 210 receives the audio data transmitted by the microphone 30 and outputs the received audio data to the information processing unit 230. The communication unit 210 receives the document data transmitted by the terminal device 40 and information indicating the operation log, and outputs the received document data and information indicating the operation log to the information processing unit 230.
The acquisition unit 232 of the information processing unit 230 acquires the video data output from the communication unit 210, creates a file in which the acquired video data is associated with the target person ID, and uses the created file as detection information in the storage unit 240. Store to H.246. The acquisition unit 232 acquires the audio data output from the communication unit 210, creates a file in which the acquired audio data is associated with the target person ID, and stores the created file in the detection information 246 of the storage unit 240. The acquisition unit 232 acquires the document data output by the communication unit 210, creates a file in which the acquired document data is associated with the target person ID, and stores the created file in the detection information 246 of the storage unit 240. The acquisition unit 232 acquires information indicating the operation log output from the communication unit 210, creates a file in which the information indicating the acquired operation log is associated with the target person ID, and detects the created file in the storage unit 240 Store in information 246.

(ステップS21)
ユーザが、クライアント端末400に対して、印象の評価を要求する操作を行う。クライアント端末400の処理部434は、作成部436へ、対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを出力する。作成部436は、処理部434が出力した対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを取得し、取得した対象者IDとシーンを示す情報と印象を示す情報と他の対象者のデータを示す情報とを含み、印象導出装置100を宛先とする印象評価要求を作成する。作成部436は、作成した印象評価要求を、通信部410へ出力する。通信部410は、作成部436が出力した印象評価要求を取得し、取得した印象評価要求を、印象導出装置100へ送信する。
(ステップS22)
印象導出装置100の通信部110は、クライアント端末400が送信した印象評価要求を受信し、受信した印象評価要求を情報処理部130へ出力する。取得部132は、通信部110が出力した印象評価要求を取得し、取得した印象評価要求を、作成部136へ出力する。作成部136は、取得部132が出力した印象評価要求を取得し、取得した印象評価要求に基づいて、対象者IDを含むセンサー取得情報要求を作成し、作成したセンサー取得情報要求を通信部110へ出力する。通信部110は、作成部136が出力したセンサー取得要求を取得し、取得したセンサー取得情報要求を、クラウドサーバ200へ送信する。
(Step S21)
The user performs an operation for requesting impression evaluation to the client terminal 400. The processing unit 434 of the client terminal 400 outputs a target person ID, information indicating a scene, information indicating an impression, and information indicating data of another target person to the creation unit 436. The creation unit 436 acquires the target person ID, the information indicating the scene, the information indicating the impression, the information indicating the data of the other target person, and the information indicating the data of the other target person, and the information indicating the acquired target person ID and the scene. An impression evaluation request including information indicating an impression and information indicating data of another target person and having the impression derivation device 100 as a destination is created. The creation unit 436 outputs the created impression evaluation request to the communication unit 410. The communication unit 410 acquires the impression evaluation request output by the creation unit 436 and transmits the acquired impression evaluation request to the impression derivation device 100.
(Step S22)
The communication unit 110 of the impression derivation device 100 receives the impression evaluation request transmitted by the client terminal 400 and outputs the received impression evaluation request to the information processing unit 130. The acquisition unit 132 acquires the impression evaluation request output by the communication unit 110 and outputs the acquired impression evaluation request to the creation unit 136. The creation unit 136 acquires the impression evaluation request output by the acquisition unit 132, creates a sensor acquisition information request including the target person ID based on the acquired impression evaluation request, and transmits the created sensor acquisition information request to the communication unit 110. Output to. The communication unit 110 acquires the sensor acquisition request output by the creation unit 136 and transmits the acquired sensor acquisition information request to the cloud server 200.

(ステップS23)
クラウドサーバ200の通信部210は、印象導出装置100が送信したセンサー取得情報要求を受信し、受信したセンサー取得情報要求を情報処理部230へ出力する。取得部232は、通信部210が出力したセンサー取得情報要求を取得し、取得したセンサー取得情報要求に含まれる対象者IDに関連付けられている映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを、記憶部240の検出情報246から取得する。取得部232は、対象者IDと、取得した映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを、作成部236へ出力する。
作成部236は、取得部232が出力した対象者IDと、取得した映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを取得し、取得した対象者IDと、取得した映像データのファイルと音声データのファイルと文書データのファイルと操作ログのファイルとを含み、印象導出装置100を宛先とするセンサー取得情報応答を作成する。作成部236は、作成したセンサー取得情報応答を、通信部210へ出力する。通信部210は、作成部236が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答を、印象導出装置100へ送信する。
(ステップS24)
印象導出装置100の通信部110は、クラウドサーバ200が送信したセンサー取得情報応答を受信し、受信したセンサー取得情報応答を、情報処理部130へ出力する。取得部132は、通信部110が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答を、感情値行動値導出部133へ出力する。
(Step S23)
The communication unit 210 of the cloud server 200 receives the sensor acquisition information request transmitted by the impression derivation device 100 and outputs the received sensor acquisition information request to the information processing unit 230. The acquisition unit 232 acquires the sensor acquisition information request output from the communication unit 210, and the video data file, the audio data file, and the document data file associated with the target person ID included in the acquired sensor acquisition information request And the operation log file are acquired from the detection information 246 in the storage unit 240. The acquisition unit 232 outputs the target person ID, the acquired video data file, audio data file, document data file, and operation log file to the creation unit 236.
The creation unit 236 acquires the target person ID output by the acquisition unit 232, the acquired video data file, audio data file, document data file, and operation log file, and acquires the acquired target person ID and A sensor acquisition information response including the video data file, the audio data file, the document data file, and the operation log file is created and the destination is the impression derivation device 100. The creation unit 236 outputs the created sensor acquisition information response to the communication unit 210. The communication unit 210 acquires the sensor acquisition information response output by the creation unit 236, and transmits the acquired sensor acquisition information response to the impression derivation device 100.
(Step S24)
The communication unit 110 of the impression derivation device 100 receives the sensor acquisition information response transmitted by the cloud server 200 and outputs the received sensor acquisition information response to the information processing unit 130. The acquisition unit 132 acquires the sensor acquisition information response output by the communication unit 110, and outputs the acquired sensor acquisition information response to the emotion value behavior value deriving unit 133.

(ステップS25)
印象導出装置100の感情値行動値導出部133は、取得部132が出力したセンサー取得情報応答を取得し、取得したセンサー取得情報応答に含まれる映像データと音声データと文書データと操作ログとを取得する。感情値行動値導出部133は、取得した映像データと音声データと文書データと操作ログとに基づいて、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのいずれか一方又は両方を導出すする。感情値行動値導出部133は、導出した一又は複数の感情を示すパラメータの各々について感情値を導出する。また、感情値行動値導出部133は、導出した一又は複数の行動を示すパラメータの各々について行動値を導出する。感情値行動値導出部133は、導出した感情を示す一又は複数のパラメータの各々と感情値との組み合わせと、行動を示す一又は複数のパラメータの各々と行動値との組み合わせのとうちいずれか一方又は両方を、対象者IDと関連付けて、記憶部140の感情値行動値情報143に記憶する。
(ステップS26)
印象情報導出部134は、取得部132が出力した印象評価要求を取得し、記憶部140の印象導出情報144から、取得した印象評価要求に含まれるシーンを示す情報に対応する印象導出情報を取得する。さらに、印象情報導出部134は、印象評価要求に含まれる印象を示す情報に基づいて、取得した印象導出情報から、印象情報を示す情報に関連付けて記憶されている導出式を取得する。
印象情報導出部134は、取得した導出式に基づいて、その導出式に含まれる感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とのいずれか一方又は両方を、記憶部140の感情値行動値情報143の対象者IDに関連付けられている感情を示す一又は複数のパラメータの各々の感情値と、行動を示す一又は複数のパラメータの各々の行動値とから取得する。印象情報導出部134は、感情値と行動値とのいずれか一方又は両方を、導出式の該当するパラメータに代入することによって、印象の評価値を導出する。印象情報導出部134は、対象者IDと導出した印象の評価値を示す情報とを、分析部138へ出力する。
(Step S25)
The emotion value behavior value deriving unit 133 of the impression deriving device 100 acquires the sensor acquisition information response output by the acquisition unit 132, and the video data, audio data, document data, and operation log included in the acquired sensor acquisition information response. get. The emotion value action value deriving unit 133 is based on the acquired video data, audio data, document data, and operation log, and one or more parameters indicating emotion and one or more parameters indicating action Or both are derived. The emotion value action value deriving unit 133 derives an emotion value for each of the derived parameters indicating one or more emotions. The emotion value action value deriving unit 133 derives an action value for each of the derived parameters indicating one or more actions. The emotion value action value deriving unit 133 is one of a combination of one or a plurality of parameters indicating the derived emotion and an emotion value, and a combination of each of one or more parameters indicating the action and an action value. One or both are associated with the subject ID and stored in the emotion value / action value information 143 of the storage unit 140.
(Step S26)
The impression information deriving unit 134 acquires the impression evaluation request output by the acquiring unit 132, and acquires impression derivation information corresponding to information indicating the scene included in the acquired impression evaluation request from the impression derivation information 144 of the storage unit 140. To do. Further, the impression information deriving unit 134 acquires a derivation formula stored in association with information indicating impression information from the acquired impression derivation information based on information indicating the impression included in the impression evaluation request.
The impression information deriving unit 134, based on the acquired derivation formula, each emotion value of one or more parameters indicating emotions included in the derivation formula, and each action value of one or more parameters indicating behavior Either or both of the emotion values of one or more parameters indicating the emotion associated with the subject ID of the emotion value behavior value information 143 in the storage unit 140 and one or more parameters indicating the behavior Obtained from each action value. The impression information deriving unit 134 derives an impression evaluation value by substituting one or both of the emotion value and the action value into the corresponding parameter of the derivation formula. The impression information deriving unit 134 outputs the target person ID and information indicating the derived evaluation value of the impression to the analyzing unit 138.

分析部138は、印象情報導出部134が出力した対象者IDと印象の評価値を示す情報とを取得し、取得した印象の評価値を示す情報とを分析する。分析部138は、対象者IDと印象の評価値を示す情報と印象の評価値の分析結果を示す情報とを、作成部136へ出力する。作成部136は、分析部138が出力した対象者IDと印象の評価値を示す情報と印象の評価値の分析結果を示す情報と含む印象評価応答を作成し、作成した印象評価応答を、通信部110へ出力する。
(ステップS27)
通信部110は、情報処理部130が出力した印象評価応答を、クライアント端末400へ送信する。
その後、クライアント端末400の通信部410は、印象導出装置100が送信した印象評価応答を受信し、受信した印象評価応答を情報処理部430に出力する。情報処理部430の処理部434は、通信部410が出力した印象評価応答を取得し、取得した印象評価応答を処理することによって、表示部460に印象評価結果を表示する。
図9に示すシーケンスチャートにおいて、ステップS11−ステップS13と、ステップS14−ステップS16と、ステップS17−ステップS19とは、その順序を入れ替えてもよいし、並行して行われてもよい。
The analysis unit 138 acquires the target person ID output by the impression information deriving unit 134 and information indicating the impression evaluation value, and analyzes the acquired information indicating the evaluation value of the impression. The analysis unit 138 outputs information indicating the target person ID and impression evaluation value and information indicating the analysis result of the impression evaluation value to the creation unit 136. The creation unit 136 creates an impression evaluation response including the target person ID output by the analysis unit 138, information indicating the evaluation value of the impression, and information indicating the analysis result of the impression evaluation value, and the created impression evaluation response is communicated. Output to the unit 110.
(Step S27)
The communication unit 110 transmits the impression evaluation response output from the information processing unit 130 to the client terminal 400.
Thereafter, the communication unit 410 of the client terminal 400 receives the impression evaluation response transmitted by the impression derivation device 100, and outputs the received impression evaluation response to the information processing unit 430. The processing unit 434 of the information processing unit 430 acquires the impression evaluation response output by the communication unit 410 and displays the impression evaluation result on the display unit 460 by processing the acquired impression evaluation response.
In the sequence chart shown in FIG. 9, step S11 to step S13, step S14 to step S16, and step S17 to step S19 may be switched in order or performed in parallel.

前述した実施形態では、撮像装置20と、マイクロフォン30と、端末装置40との設置場所の一例として、研修所などの施設60である場合について説明したが、この例に限られない。例えば、撮像装置20と、マイクロフォン30と、端末装置40とが、店頭の窓口に設置され、窓口の担当者の映像データと音声データと文書データと操作ログを示す情報とが印象導出装置100へ送信されてもよい。そして、印象導出装置100が導出した印象の評価結果に基づいて、窓口の担当者に適切な対応を促すようにしてもよい。
前述した実施形態では、コミュニケーションの最中に、撮像装置20は対象者を撮像し、マイクロフォン30はコミュニケーションの内容を録音し、端末装置40はコミュニケーションに使用した資料などの文書データや、コミュニケーションの最中の操作ログを取得する場合について説明したが、この例に限られない。例えば、コミュニケーションの最中に、対象者の視線の先の画像を取得してもよいし、第三者の視線の先の画像を取得してもよい。この場合、対象者の視線の先の画像と第三者の視線の先の画像のいずれか一方又は両方に基づいて、対象者の第三者への印象の評価値を導出してもよい。
前述した実施形態では、印象導出装置100が、印象を示す情報と、印象の評価値を導出するための導出式とを、シーン毎に関連付けた印象導出情報144を記憶する場合について説明したが、この限りでない。例えば、印象導出装置100は、印象を示す情報と、印象の評価値を導出するための導出式とを、シーン毎に関連付けたものを、第三者の年齢、性別などの属性毎に用意した印象導出情報144を記憶してもよい。ここで、印象を示す情報と、印象の評価値を導出するための導出式とを、シーン毎に関連付けたものは、第三者の属性によって異なる場合がある。このように構成することによって、第三者の属性に応じた印象の評価値を導出できる。
In the above-described embodiment, the case where the facility 60 such as a training facility is provided as an example of the installation location of the imaging device 20, the microphone 30, and the terminal device 40 is not limited to this example. For example, the imaging device 20, the microphone 30, and the terminal device 40 are installed at a store counter, and video data, audio data, document data, and information indicating an operation log of the person in charge at the counter are sent to the impression derivation device 100. May be sent. Then, based on the impression evaluation result derived by the impression deriving device 100, an appropriate response may be urged to the person in charge at the window.
In the above-described embodiment, during the communication, the imaging device 20 images the subject, the microphone 30 records the content of the communication, and the terminal device 40 records the document data such as materials used for the communication or the communication. Although the case where the operation log in the middle is acquired has been described, the present invention is not limited to this example. For example, during communication, an image ahead of the subject's line of sight may be acquired, or an image ahead of the third person's line of sight may be acquired. In this case, the evaluation value of the impression of the subject toward the third party may be derived based on one or both of the image ahead of the subject's line of sight and the image ahead of the eye of the third party.
In the embodiment described above, the case where the impression derivation device 100 stores the impression derivation information 144 in which the information indicating the impression and the derivation formula for deriving the evaluation value of the impression are associated with each scene is described. This is not the case. For example, the impression derivation device 100 prepares information indicating an impression and a derivation formula for deriving an impression evaluation value for each scene, for each attribute such as the age and sex of a third party. The impression derivation information 144 may be stored. Here, the information in which the impression is associated with the derivation formula for deriving the evaluation value of the impression for each scene may differ depending on the attribute of the third party. By configuring in this way, it is possible to derive an evaluation value of an impression corresponding to a third party attribute.

前述した実施形態では、クラウドサーバ200が、対象者IDに関連付けて記憶されている対象者の映像データと音声データと文書データと操作ログを示す情報とを含むセンサー取得情報応答を作成し、作成したセンサー取得情報応答を、印象導出装置100へ送信する。そして、印象導出装置100は、受信したセンサー取得情報応答に含まれる対象者の動画データと音声データと文書を示すデータと操作ログを示す情報とを取得する場合について説明したが、この例に限られない。例えば、クラウドサーバ200が、対象者IDに関連付けて記憶されている対象者の映像データと音声データと文書データと操作ログを示す情報との少なくとも一つを含むセンサー取得情報応答を作成し、作成したセンサー取得情報応答を、印象導出装置100へ送信するようにしてもよい。この場合、印象導出装置100は、受信したセンサー取得情報応答に含まれる対象者の動画データと音声データと文書を示すデータと操作ログを示す情報との少なくとも一つを取得する。
前述した実施形態では、クライアント端末400が、印象導出装置100へ印象評価要求を送信し、送信した印象評価要求に対して、印象導出装置100が送信した印象評価応答を受信する場合について説明したが、この例に限られない。例えば、印象導出装置100に、操作部と表示部とを備え、操作部を操作することによって、表示部に、印象の評価結果を表示させるようにしてもよい。
前述した実施形態では、撮像装置20が撮像することによって得られた映像データと、マイクロフォン30が録音することによって得られた音声データと、端末装置40が取得した文書データや、操作ログを示す情報とを、クラウドサーバ200に記憶する場合について説明したがこの限りでない。例えば、撮像装置20が撮像することによって得られた映像データと、マイクロフォン30が録音することによって得られた音声データと、端末装置40が取得した文書データや、操作ログを示す情報とを、印象導出装置100に記憶するようにしてもよい。
In the embodiment described above, the cloud server 200 creates and creates a sensor acquisition information response including the video data, audio data, document data, and information indicating the operation log of the target person stored in association with the target person ID. The obtained sensor acquisition information response is transmitted to the impression deriving device 100. The impression deriving device 100 has been described with respect to the case of acquiring the subject's moving image data, audio data, data indicating the document, and information indicating the operation log included in the received sensor acquisition information response. I can't. For example, the cloud server 200 creates and creates a sensor acquisition information response including at least one of video data, audio data, document data, and information indicating an operation log of the target person stored in association with the target person ID. The acquired sensor information response may be transmitted to the impression derivation device 100. In this case, the impression derivation device 100 acquires at least one of the moving image data, audio data, data indicating the document, and information indicating the operation log included in the received sensor acquisition information response.
In the embodiment described above, a case has been described in which the client terminal 400 transmits an impression evaluation request to the impression derivation device 100 and receives an impression evaluation response transmitted by the impression derivation device 100 in response to the transmitted impression evaluation request. However, the present invention is not limited to this example. For example, the impression derivation device 100 may include an operation unit and a display unit, and the impression evaluation result may be displayed on the display unit by operating the operation unit.
In the above-described embodiment, video data obtained by imaging by the imaging device 20, audio data obtained by recording by the microphone 30, document data acquired by the terminal device 40, and information indicating an operation log However, this is not the case. For example, an impression of video data obtained by imaging by the imaging device 20, audio data obtained by recording by the microphone 30, document data acquired by the terminal device 40, and information indicating an operation log is given. You may make it memorize | store in the derivation | leading-out apparatus 100. FIG.

実施形態の印象導出システムによれば、印象導出装置は、センサー(実施形態では、撮像装置20と、マイクロフォン30と、端末装置40)が取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得する取得部(実施形態では、取得部132と、感情値行動値導出部133)と、印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報である印象導出情報を記憶する記憶部(実施形態では、記憶部140の印象導出情報144)と、取得部が取得した感情値と行動値とのいずれか一方又は両方と、記憶部に記憶された印象導出情報とに基づいて、対象者の第三者へ与える印象の評価値を導出する導出部(実施形態では、印象情報導出部134)とを備える。
このように構成することによって、印象導出装置100は、表情、身振り、音声などのコミュニケーション要素に基づいて、感情を示す一又は複数のパラメータと、行動を示す一又は複数のパラメータとのうちいずれか一方又は両方を導出できる。また、印象導出装置100は、導出した感情を示す一又は複数のパラメータの各々について感情値を導出し、導出した行動を示す一又は複数のパラメータの各々について行動値を導出できる。印象導出装置100は、印象導出情報と、感情値と行動値とのいずれか一方又は両方とに基づいて、対象者の第三者へ与える印象の評価値を導出できるため、人の主観では定まらない定量的かつ客観的な指標値(印象の評価値)を導出できる。
According to the impression deriving system of the embodiment, the impression deriving device indicates the emotion of the subject derived based on information acquired by the sensors (in the embodiment, the imaging device 20, the microphone 30, and the terminal device 40). An acquisition unit that acquires one or both of an emotion value that is a value obtained by quantifying a parameter and an action value that is a value obtained by quantifying a parameter indicating an action (in the embodiment, the acquisition unit 132 and an emotion value action value) The deriving unit 133) is associated with information indicating an impression and information for deriving an evaluation value of an impression created by using one or both of a parameter indicating emotion and a parameter indicating action One or both of a storage unit (impression derivation information 144 of the storage unit 140 in the embodiment) that stores impression derivation information that is information, and an emotion value and an action value acquired by the acquisition unit , Based on the impression stored in the storage unit derived information (in the embodiment, the impression information deriving unit 134) deriving unit that derives the evaluation value of the impression which gives the subject to third parties and a.
By configuring in this way, the impression derivation device 100 is one of one or more parameters indicating emotion and one or more parameters indicating action based on communication elements such as facial expressions, gestures, and voices. One or both can be derived. The impression deriving device 100 can derive an emotion value for each of one or more parameters indicating the derived emotion, and can derive an action value for each of the one or more parameters indicating the derived action. Since the impression deriving device 100 can derive the evaluation value of the impression given to the third party of the target person based on the impression deriving information and one or both of the emotion value and the action value, it is not determined by human subjectivity. No quantitative and objective index values (impression evaluation values) can be derived.

また、印象導出装置100は、記憶部140に、対象者の第三者へ与える印象の評価値を導出するシーンの各々に対して、印象導出情報を記憶し、導出部(実施形態では、印象情報導出部134)は、複数の前記シーンのうち、印象の評価値を導出するシーンに対応する印象導出情報に基づいて、前記対象者の前記第三者へ与える印象の評価値を導出する
このように構成することによって、印象を評価するシーン毎に、対象者の第三者へ与える印象の評価値を導出できる。
また、印象導出情報に含まれる印象の前記評価値を導出するための情報に含まれる感情を示すパラメータと行動を示すパラメータのいずれか一方又は両方は、前記第三者の属性によって異なる。このように構成することによって、第三者の属性に応じて、対象者の第三者へ与える印象の評価値を導出できる。
また、導出部(実施形態では、印象情報導出部134)が導出した前記印象の評価値の時系列データ又は、前記印象の評価値と他人の印象の評価値との比較結果を作成する分析部(実施形態では、分析部138)を備える。このように構成することによって、印象導出装置100は、対象者の印象の評価値の時系列データ又は、対象者の印象の評価値と他人の印象の評価値との比較結果を作成することができる。
また、分析部(実施形態では、分析部138)は、前記比較結果に基づいて、印象の評価値に影響する前記感情を示すパラメータと前記行動を示すパラメータとのいずれか一方又は両方を抽出する。このように構成することによって、印象導出装置100は、印象の評価値に影響する感情値と行動値とのいずれか一方又は両方を抽出できる。このため、印象導出装置100は、抽出した印象の評価値に影響する感情値と行動値とのいずれか一方又は両方を使用して、印象の評価値を導出するための導出式を、新たに定義できる。
Further, the impression deriving device 100 stores the impression deriving information for each of the scenes for deriving the evaluation value of the impression given to the third person of the subject in the storage unit 140, and the deriving unit (in the embodiment, the impression The information deriving unit 134) derives the evaluation value of the impression given to the third party of the target person based on the impression derivation information corresponding to the scene from which the evaluation value of the impression is derived among the plurality of scenes. By configuring in this way, it is possible to derive an evaluation value of the impression given to the third person of the subject for each scene for which the impression is evaluated.
In addition, one or both of a parameter indicating emotion and a parameter indicating action included in the information for deriving the evaluation value of the impression included in the impression derivation information vary depending on the attribute of the third party. By configuring in this way, it is possible to derive an evaluation value of an impression given to the third party of the subject person according to the attribute of the third party.
Also, an analysis unit that creates time-series data of the evaluation value of the impression derived by the deriving unit (in the embodiment, the impression information deriving unit 134) or a comparison result between the evaluation value of the impression and the evaluation value of another person's impression (In the embodiment, an analysis unit 138) is provided. By configuring in this way, the impression derivation device 100 can create time-series data of the evaluation value of the subject's impression or a comparison result between the evaluation value of the subject's impression and the evaluation value of the impression of the other person. it can.
Further, the analysis unit (in the embodiment, the analysis unit 138) extracts one or both of the parameter indicating the emotion and the parameter indicating the action that affect the evaluation value of the impression based on the comparison result. . By configuring in this way, the impression deriving device 100 can extract one or both of an emotion value and an action value that affect the evaluation value of the impression. For this reason, the impression derivation device 100 newly uses a derivation formula for deriving an impression evaluation value by using either one or both of an emotion value and an action value that affect the extracted impression evaluation value. Can be defined.

以上、実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組合せを行うことができる。これら実施形態は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
なお、上述した印象導出装置100、クラウドサーバ200、クライアント端末400は、コンピュータで実現するようにしてもよい。その場合、各機能ブロックの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録する。この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、CPUが実行することで実現してもよい。ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器などのハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROMなどの可搬媒体のことをいう。また、「コンピュータ読み取り可能な記録媒体」は、コンピュータシステムに内蔵されるハードディスクなどの記憶装置を含む。
As mentioned above, although embodiment was described, these embodiment was shown as an example and is not intending limiting the range of invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the scope of the invention. These embodiments are included in the scope and gist of the invention, and at the same time, are included in the invention described in the claims and the equivalents thereof.
The impression derivation device 100, the cloud server 200, and the client terminal 400 described above may be realized by a computer. In that case, a program for realizing the function of each functional block is recorded on a computer-readable recording medium. The program recorded on the recording medium may be read by a computer system and executed by the CPU. The “computer system” here includes hardware such as an OS (Operating System) and peripheral devices.
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM. The “computer-readable recording medium” includes a storage device such as a hard disk built in the computer system.

さらに「コンピュータ読み取り可能な記録媒体」とは、短時間の間、動的にプログラムを保持するものを含んでいてもよい。短時間の間、動的にプログラムを保持するものは、例えば、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線である。
また、「コンピュータ読み取り可能な記録媒体」には、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよい。また、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、上記プログラムは、プログラマブルロジックデバイスを用いて実現されるものであってもよい。プログラマブルロジックデバイスは、例えば、FPGA(Field Programmable Gate Array)である。
Furthermore, the “computer-readable recording medium” may include a medium that dynamically holds a program for a short time. What holds the program dynamically for a short time is, for example, a communication line when the program is transmitted via a network such as the Internet or a communication line such as a telephone line.
In addition, the “computer-readable recording medium” may include a medium that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client. The program may be for realizing a part of the functions described above. Further, the program may be a program that can realize the above-described functions in combination with a program already recorded in the computer system. The program may be realized using a programmable logic device. The programmable logic device is, for example, an FPGA (Field Programmable Gate Array).

なお、上述の印象導出装置100、クラウドサーバ200、クライアント端末400は内部にコンピュータを有している。そして、上述した印象導出装置100、クラウドサーバ200、クライアント端末400の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
The impression derivation device 100, the cloud server 200, and the client terminal 400 described above have a computer inside. Each process of the impression derivation device 100, the cloud server 200, and the client terminal 400 described above is stored in a computer-readable recording medium in the form of a program, and this program is read and executed by the computer. The above processing is performed.
Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

10…印象導出システム、20…撮像装置、30…マイクロフォン、40…端末装置、50…ネットワーク、60…施設、100…印象導出装置、110…通信部、130…情報処理部、132…取得部、133…感情値行動値導出部、134…印象情報導出部、136…作成部、138…分析部、140…記憶部、141…プログラム、142…アプリ、143…感情値行動値情報、144…印象導出情報、145…印象情報DB、200…クラウドサーバ、210…通信部、230…情報処理部、232…取得部、236…作成部、240…記憶部、242…プログラム、244…アプリ、246…検出情報、400…クライアント端末、410…通信部、430…情報処理部、432…取得部、434…処理部、436…作成部、240…記憶部、442…プログラム、444…アプリ、450…操作部、460…表示部 DESCRIPTION OF SYMBOLS 10 ... Impression derivation system, 20 ... Imaging device, 30 ... Microphone, 40 ... Terminal device, 50 ... Network, 60 ... Facility, 100 ... Impression derivation device, 110 ... Communication part, 130 ... Information processing part, 132 ... Acquisition part, 133 ... emotion value action value deriving unit, 134 ... impression information deriving unit, 136 ... creating unit, 138 ... analyzing unit, 140 ... storage unit, 141 ... program, 142 ... app, 143 ... emotion value action value information, 144 ... impression Derived information, 145 ... Impression information DB, 200 ... Cloud server, 210 ... Communication unit, 230 ... Information processing unit, 232 ... Acquisition unit, 236 ... Creation unit, 240 ... Storage unit, 242 ... Program, 244 ... Application, 246 ... Detection information, 400 ... client terminal, 410 ... communication unit, 430 ... information processing unit, 432 ... acquisition unit, 434 ... processing unit, 436 ... creation unit, 24 ... storage unit, 442 ... program, 444 ... application, 450 ... operation unit, 460 ... display unit

Claims (9)

センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得する取得部と、
印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報である印象導出情報を記憶する記憶部と、
前記取得部が取得した前記感情値と前記行動値とのいずれか一方又は両方と、前記記憶部に記憶された前記印象導出情報とに基づいて、前記対象者の第三者へ与える印象の評価値を導出する導出部と
を備える、印象導出システム。
Acquire one or both of an emotion value, which is a value obtained by quantifying a parameter indicating the emotion of the subject derived based on information acquired by the sensor, and an action value, which is a value obtained by quantifying the parameter indicating the behavior. An acquisition unit to
Impression derivation information that is information that associates information indicating an impression with information for deriving an evaluation value of an impression created by using one or both of a parameter indicating emotion and a parameter indicating action A storage unit for storing
Evaluation of impression given to a third party of the target person based on one or both of the emotion value and the action value acquired by the acquisition unit and the impression derivation information stored in the storage unit An impression derivation system comprising: a derivation unit for deriving a value.
前記記憶部は、対象者の第三者へ与える印象の評価値を導出するシーンの各々に対して、印象導出情報を記憶し、
前記導出部は、複数の前記シーンのうち、印象の評価値を導出するシーンに対応する印象導出情報に基づいて、前記対象者の前記第三者へ与える印象の評価値を導出する、請求項1に記載の印象導出システム。
The storage unit stores impression derivation information for each of the scenes for deriving an evaluation value of an impression given to a third party of the target person,
The derivation unit derives an evaluation value of an impression given to the third party of the target person based on impression derivation information corresponding to a scene from which an evaluation value of an impression is derived among the plurality of scenes. The impression derivation system according to 1.
前記印象導出情報に含まれる印象の前記評価値を導出するための情報に含まれる感情を示すパラメータと行動を示すパラメータのいずれか一方又は両方は、前記第三者の属性によって異なる、請求項1又は請求項2に記載の印象導出システム。   The parameter for indicating emotion and / or the parameter for indicating behavior included in the information for deriving the evaluation value of the impression included in the impression derivation information are different depending on the attribute of the third party. Or the impression derivation system according to claim 2. 前記導出部が導出した前記印象の評価値の時系列データ又は、前記印象の評価値と他人の印象の評価値との比較結果を作成する分析部
を備える、請求項1から請求項3のいずれか一項に記載の印象導出システム。
The analysis unit for creating time-series data of the evaluation value of the impression derived by the deriving unit or a comparison result between the evaluation value of the impression and the evaluation value of another person's impression is provided. The impression derivation system according to one item.
前記分析部は、前記比較結果に基づいて、印象の評価値に影響する前記感情を示すパラメータと前記行動を示すパラメータとのいずれか一方又は両方を抽出する、請求項4に記載の印象導出システム。   5. The impression derivation system according to claim 4, wherein the analysis unit extracts one or both of a parameter indicating the emotion and a parameter indicating the action that affect the evaluation value of the impression based on the comparison result. . 前記記憶部は、説明手順と説明基準時間とを記憶し、
前記取得部は、前記対象者が使用する端末装置が取得した情報と前記記憶部に記憶されている前記説明手順と前記説明基準時間とに基づいて導出された前記対象者の行動値を取得する、請求項1から請求項5のいずれか一項に記載の印象導出システム。
The storage unit stores an explanation procedure and an explanation reference time,
The acquisition unit acquires a behavior value of the target derived based on information acquired by a terminal device used by the target, the description procedure stored in the storage unit, and the description reference time. The impression derivation system according to any one of claims 1 to 5.
前記センサーが取得した情報には、前記対象者に関する情報と前記第三者に関する情報とのいずれか一方又は両方が含まれる、請求項1から請求項6のいずれか一項に記載の印象導出システム。   The impression derivation system according to any one of claims 1 to 6, wherein the information acquired by the sensor includes one or both of information on the subject and information on the third party. . センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得するステップと、
印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報と、前記取得するステップで取得した前記感情値と前記行動値とのいずれか一方又は両方とに基づいて、前記対象者の第三者へ与える印象の評価値を導出するステップと
を有する、印象導出システムが実行する印象導出方法。
Acquire one or both of an emotion value, which is a value obtained by quantifying a parameter indicating the emotion of the subject derived based on information acquired by the sensor, and an action value, which is a value obtained by quantifying the parameter indicating the behavior. And steps to
The information obtained by associating information indicating an impression with information for deriving an evaluation value of an impression created using one or both of a parameter indicating emotion and a parameter indicating behavior Deriving an evaluation value of an impression given to a third party of the target person based on either one or both of the emotion value and the action value acquired in the step, and executed by an impression derivation system Impression derivation method.
コンピュータに、
センサーが取得した情報に基づいて導出された対象者の感情を示すパラメータを数値化した値である感情値と行動を示すパラメータを数値化した値である行動値とのいずれか一方又は両方を取得するステップと、
印象を示す情報と、感情を示すパラメータと行動を示すパラメータとのいずれか一方又は両方を複数使用して作成された印象の評価値を導出するための情報とを関連付けた情報と、前記取得するステップで取得した前記感情値と前記行動値とのいずれか一方又は両方とに基づいて、前記対象者の第三者へ与える印象の評価値を導出するステップと
を実行させるプログラム。
On the computer,
Acquire one or both of an emotion value, which is a value obtained by quantifying a parameter indicating the emotion of the subject derived based on information acquired by the sensor, and an action value, which is a value obtained by quantifying the parameter indicating the behavior. And steps to
The information obtained by associating information indicating an impression with information for deriving an evaluation value of an impression created using one or both of a parameter indicating emotion and a parameter indicating behavior A program that executes a step of deriving an evaluation value of an impression given to a third party of the target person based on one or both of the emotion value and the action value acquired in the step.
JP2018043430A 2018-03-09 2018-03-09 Impression derivation system, impression derivation method and impression derivation program Active JP7138456B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018043430A JP7138456B2 (en) 2018-03-09 2018-03-09 Impression derivation system, impression derivation method and impression derivation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043430A JP7138456B2 (en) 2018-03-09 2018-03-09 Impression derivation system, impression derivation method and impression derivation program

Publications (2)

Publication Number Publication Date
JP2019159586A true JP2019159586A (en) 2019-09-19
JP7138456B2 JP7138456B2 (en) 2022-09-16

Family

ID=67993591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043430A Active JP7138456B2 (en) 2018-03-09 2018-03-09 Impression derivation system, impression derivation method and impression derivation program

Country Status (1)

Country Link
JP (1) JP7138456B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012043300A (en) * 2010-08-20 2012-03-01 Nomura Research Institute Ltd Business activity support system, communication terminal, business activity support method and computer program
WO2012127592A1 (en) * 2011-03-18 2012-09-27 富士通株式会社 Call evaluation device and call evaluation method
US20150269529A1 (en) * 2014-03-24 2015-09-24 Educational Testing Service Systems and Methods for Assessing Structured Interview Responses
WO2016189908A1 (en) * 2015-05-27 2016-12-01 ソニー株式会社 Information processing device, information processing method, and program
JP2017219989A (en) * 2016-06-07 2017-12-14 株式会社採用と育成研究社 Online interview evaluation device, method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012043300A (en) * 2010-08-20 2012-03-01 Nomura Research Institute Ltd Business activity support system, communication terminal, business activity support method and computer program
WO2012127592A1 (en) * 2011-03-18 2012-09-27 富士通株式会社 Call evaluation device and call evaluation method
US20150269529A1 (en) * 2014-03-24 2015-09-24 Educational Testing Service Systems and Methods for Assessing Structured Interview Responses
WO2016189908A1 (en) * 2015-05-27 2016-12-01 ソニー株式会社 Information processing device, information processing method, and program
JP2017219989A (en) * 2016-06-07 2017-12-14 株式会社採用と育成研究社 Online interview evaluation device, method and program

Also Published As

Publication number Publication date
JP7138456B2 (en) 2022-09-16

Similar Documents

Publication Publication Date Title
US11216784B2 (en) Systems and methods for automating validation and quantification of interview question responses
US10984386B2 (en) Interview system
Maxhuni et al. Stress modelling and prediction in presence of scarce data
JP2018068618A (en) Emotion estimating device, emotion estimating method, emotion estimating program, and emotion counting system
JP6531323B1 (en) PROGRAM, INFORMATION PROCESSING APPARATUS, AND INFORMATION PROCESSING METHOD
JP6649461B1 (en) Program, information processing apparatus and information processing method
Zhao et al. Semi-automated 8 collaborative online training module for improving communication skills
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
JP2018049481A (en) Information processing apparatus, evaluation system, and program
JP2020173714A (en) Device, system, and program for supporting dialogue
CN116762125A (en) Environment collaboration intelligent system and method
WO2019146405A1 (en) Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique
US20200089961A1 (en) Method for evaluating social intelligence and apparatus using the same
KR20220106029A (en) Method and apparatus for psychological counselingusing artificial intelligence
JP6855737B2 (en) Information processing equipment, evaluation systems and programs
JP7138456B2 (en) Impression derivation system, impression derivation method and impression derivation program
JP6913995B1 (en) Information processing system, information processing method and program
KR20210150988A (en) Apparatus and method for acquiring of vitality quotient
Henriques et al. Emotionally-aware multimodal interfaces: Preliminary work on a generic affective modality
JP7513534B2 (en) Information processing device and information processing system
US11935329B2 (en) Video analysis program
JP7445331B2 (en) Video meeting evaluation terminal and video meeting evaluation method
WO2022145041A1 (en) Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program
WO2022145039A1 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
WO2022145040A1 (en) Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220906

R150 Certificate of patent or registration of utility model

Ref document number: 7138456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350