JP6824146B2 - Evaluation device, method and program - Google Patents

Evaluation device, method and program Download PDF

Info

Publication number
JP6824146B2
JP6824146B2 JP2017236350A JP2017236350A JP6824146B2 JP 6824146 B2 JP6824146 B2 JP 6824146B2 JP 2017236350 A JP2017236350 A JP 2017236350A JP 2017236350 A JP2017236350 A JP 2017236350A JP 6824146 B2 JP6824146 B2 JP 6824146B2
Authority
JP
Japan
Prior art keywords
data
evaluation
subject
value
conscious
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017236350A
Other languages
Japanese (ja)
Other versions
JP2019105882A (en
Inventor
小林 明美
明美 小林
隆司 伊勢崎
隆司 伊勢崎
崇由 望月
崇由 望月
純史 布引
純史 布引
山田 智広
智広 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017236350A priority Critical patent/JP6824146B2/en
Publication of JP2019105882A publication Critical patent/JP2019105882A/en
Application granted granted Critical
Publication of JP6824146B2 publication Critical patent/JP6824146B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は、評価対象に対する被験者の反応に基づいて前記評価対象の評価を行う評価装置、方法およびプログラムに関する。 The present invention relates to an evaluation device, method and program for evaluating the evaluation target based on the reaction of the subject to the evaluation target.

実験や展示などの良し悪しを評価する方法として、アンケートによる評価方法が従来から使用されており、その一つとしてセマンティック・ディファレンシャル法(SD法)が広く知られている(例えば、非特許文献1を参照)。アンケートによる評価は、系統的な評価が可能である。しかし、一つの事象全体としての評価となるため、その事象の中に小さなイベントが連続的に起こり、そのイベントの逐次評価を行いたい場合には適さない。 As a method for evaluating the quality of experiments and exhibitions, a questionnaire evaluation method has been conventionally used, and the semantic differential method (SD method) is widely known as one of them (for example, Non-Patent Document 1). See). Evaluation by questionnaire can be systematically evaluated. However, since it is an evaluation of one event as a whole, it is not suitable when small events occur continuously in the event and it is desired to evaluate the events sequentially.

一方、人またはロボットが言葉や動きのやりとりをしている状態を評価する場合、やりとりを途中で中断させて評価することは、場の雰囲気を壊して正確な評価ができなくなる等の恐れがあり、適切ではない。そのため、正確な評価を行い、その後の改善を行うためには、連続的な評価を取得することが重要となる。ここで、被験者もしくは評価者からの評価が高くなるようにアルゴリズムの改善を行ったり、システムを改良することを学習と呼ぶ。 On the other hand, when evaluating the state in which a person or robot is exchanging words and movements, interrupting the exchange in the middle of the evaluation may destroy the atmosphere of the place and make accurate evaluation impossible. ,Not appropriate. Therefore, it is important to obtain continuous evaluations in order to make accurate evaluations and make subsequent improvements. Here, improving the algorithm or improving the system so that the evaluation from the subject or the evaluator is high is called learning.

連続的なデータとしては、表情、声、視線、姿勢、向き、動きなどといった評価者の動作に関わる情報や、心拍、発汗などといった生理情報などがある。従来、人間同士の会話において次回の話者を推定するために、視線情報をリアルタイムで利用する技術が知られている(例えば、非特許文献2を参照)。 The continuous data includes information related to the evaluator's movements such as facial expression, voice, line of sight, posture, direction, and movement, and physiological information such as heartbeat and sweating. Conventionally, there is known a technique of using line-of-sight information in real time in order to estimate the next speaker in a conversation between humans (see, for example, Non-Patent Document 2).

しかし、従来技術では、成人だけが評価者であったり、評価者が異なると推定システムが適用できなくなったりする問題があり、技術の適用可能な属性に偏りがある。 However, in the prior art, there is a problem that only an adult is an evaluator, or if the evaluator is different, the estimation system cannot be applied, and the applicable attributes of the technology are biased.

実際のフィールド実験や展示では、幅広い年代や性別など属性にばらつきが生じるため、属性が変わっても学習方法が同じ場合、適切な学習が行えない可能性がある。特に実際のフィールドにおいては、親子連れが多く訪れる。 In actual field experiments and exhibitions, attributes such as age and gender vary widely, so even if the attributes change, if the learning method is the same, proper learning may not be possible. Especially in the actual field, many parents and children visit.

従来、子どもを対象とした実験の多くで言われているように、子どもは大人と違って自分自身の考えをきちんと整理できていなかったり、表現できていないことがあり、子どもが直接評価判定を下すことは難しい。その代わり、表情や視線などといった動作に関わる情報などを取得し、それらを評価値として利用する方法が知られている(例えば、非特許文献3参照)。 As has been said in many experiments with children, children may not be able to properly organize or express their own thoughts, unlike adults, and children make direct evaluation judgments. It's difficult to give. Instead, there is known a method of acquiring information related to movements such as facial expressions and gaze and using them as evaluation values (see, for example, Non-Patent Document 3).

従来では、被験者もしくは評価者の属性に合わせて、表情を推定するなどは行っているが、複数の入力がある場合に、それらの入力特性を考慮して評価するには至っていない。 Conventionally, facial expressions are estimated according to the attributes of the subject or the evaluator, but when there are a plurality of inputs, the evaluation has not been made in consideration of the input characteristics.

実際の例を挙げると、押しボタンスイッチなどを設けて評価を行うとき、評価者が子どもの場合には、ボタンスイッチを押す行為自体に楽しみを見出し、ボタンスイッチの押下されたカウント数と実際の評価が結びつかない場合が多々ある。一方、表情や笑い声、視線などは感情や着目度を直接表していることが多く、評価の信頼性が高くなる。逆に評価者が大人の場合、公共の場では自身の感情表現を抑える傾向にあるので、表情などのデータよりも、ボタンスイッチを押すという行為自体の評価の信頼性が高くなる。 To give an actual example, when evaluating by providing a push button switch, if the evaluator is a child, he / she finds pleasure in the act of pressing the button switch, and the number of times the button switch is pressed and the actual number of times the button switch is pressed. There are many cases where the evaluation is not tied. On the other hand, facial expressions, laughter, gaze, etc. often directly represent emotions and attention, which increases the reliability of evaluation. On the contrary, when the evaluator is an adult, he / she tends to suppress his / her emotional expression in a public place, so that the evaluation of the act of pressing the button switch itself is more reliable than the data such as facial expressions.

市原茂、「セマンティック・ディファレンシャル法(SD法)の可能性と今後の課題」、人間工学、45.5 (2009) : 263-269Shigeru Ichihara, "Possibilities of Semantic Differential Law (SD Method) and Future Challenges", Ergonomics, 45.5 (2009): 263-269 Ishii, Ryo, et al., “Analysis of Respiration for Prediction of ‘Who Will Be Next Speaker and When?’ in Multi-Party Meetings.", Proceedings of the 16th International Conference on Multimodal Interaction. ACM, 2014.Ishii, Ryo, et al., “Analysis of Respiration for Prediction of‘ Who Will Be Next Speaker and When? ’In Multi-Party Meetings.”, Proceedings of the 16th International Conference on Multimodal Interaction. ACM, 2014. 澤畠康仁 他、「番組視聴時の視線分布と番組内容理解度の関係」、The Journal of The Institute of Image Information and Television Engineers 62.4 (2008): 587-594Yasuhito Sawahata et al., "Relationship between the distribution of eyes when watching a program and the degree of understanding of the program content", The Journal of The Institute of Image Information and Television Engineers 62.4 (2008): 587-594

複数種類の被験者情報を入力として学習等を行う際、従来技術では、被験者の属性が異なる場合でも、学習方法は統一的であり、被験者の属性を反映していなかった。しかし、被験者の属性が異なると、表情や声といった被験者が表出する動作情報の割合は変化し、被験者が表出する情報と評価自体が直接結びつかない場合も存在する。従来技術ではこれらの場合に被験者の属性を反映していないため、適切な学習が行えない要因となっていた。 When learning or the like is performed by inputting a plurality of types of subject information, in the prior art, even if the attributes of the subjects are different, the learning method is unified and does not reflect the attributes of the subjects. However, if the attributes of the subject are different, the ratio of the motion information expressed by the subject such as facial expression and voice changes, and there are cases where the information expressed by the subject and the evaluation itself are not directly linked. In these cases, the conventional technique does not reflect the attributes of the subject, which is a factor that prevents proper learning.

この発明は上記事情に着目してなされたもので、その目的とするところは、評価対象に対する被験者の反応に基づいて上記評価対象を評価する場合に、評価対象についてより信頼性の高い評価を行えるようにした評価装置、方法およびプログラムを提供しようとするものである。 The present invention has been made by paying attention to the above circumstances, and an object of the present invention is that when the evaluation target is evaluated based on the reaction of the subject to the evaluation target, the evaluation target can be evaluated with higher reliability. It is intended to provide such evaluation devices, methods and programs.

上記課題を解決するために、この発明の第1の態様は、評価対象に対する被験者の反応に基づいて前記評価対象の評価を行う評価装置にあって、前記評価対象に対する前記被験者の反応を表す動作データを取得し、前記被験者の属性を表す属性データを取得し、前記属性データに基づいて、前記動作データの信頼の度合いを表す信頼値を算出し、前記動作データと前記信頼値とに基づいて前記評価対象に対する評価値を算出するようにしたものである。 In order to solve the above problem, the first aspect of the present invention is an evaluation device that evaluates the evaluation target based on the reaction of the subject to the evaluation target, and operates to express the reaction of the subject to the evaluation target. Data is acquired, attribute data representing the attributes of the subject is acquired, a reliability value representing the degree of reliability of the operation data is calculated based on the attribute data, and based on the operation data and the reliability value. The evaluation value for the evaluation target is calculated.

この発明の第2の態様は、評価対象に対する評価値を、評価値算出部により算出された前記評価値に基づいて学習する学習部と、学習対象となる学習データと前記学習データに対する学習評価値とを関連付けて格納する学習データベースと、をさらに具備し、前記評価対象が前記学習データベースに前記学習データとして格納されているか否かを判定する。そして、前記評価対象が前記学習データベースに前記学習データとして格納されていないと判定された場合には、前記評価対象を前記学習データとし、かつ前記評価値算出部により算出された前記評価対象に対する評価値を前記学習評価値として、前記学習データベースに格納し、前記評価対象が前記学習データベースに前記学習データとして格納されていると判定された場合には、当該学習データに関連付けられている前記学習評価値を、前記算出された前記評価対象に対する評価値により変更するようにしたものである。 A second aspect of the present invention is a learning unit that learns an evaluation value for an evaluation target based on the evaluation value calculated by the evaluation value calculation unit, a learning data to be learned, and a learning evaluation value for the learning data. Further includes a learning database that stores the data in association with the above, and determines whether or not the evaluation target is stored as the learning data in the learning database. When it is determined that the evaluation target is not stored as the learning data in the learning database, the evaluation target is used as the learning data, and the evaluation target calculated by the evaluation value calculation unit is evaluated. The value is stored in the learning database as the learning evaluation value, and when it is determined that the evaluation target is stored in the learning database as the learning data, the learning evaluation associated with the learning data is determined. The value is changed according to the calculated evaluation value for the evaluation target.

この発明の第3の態様は、前記評価対象に対する前記被験者の反応を表す生体データおよび動きデータの少なくとも一つをあらかじめ定められた期間にわたって収集し、前記収集された生体データおよび動きデータの少なくとも一つに対し正規化処理を行い、正規化処理されたデータを前記動作データとするようにしたものである。 A third aspect of the present invention is to collect at least one of the biometric data and motion data representing the subject's reaction to the evaluation target over a predetermined period of time, and at least one of the collected biometric data and motion data. On the other hand, normalization processing is performed, and the normalized data is used as the operation data.

この発明の第4の態様は、前記動作データを、前記被験者の意識的な反応を表す意識的動作データと、前記被験者の無意識な反応を表す無意識的動作データとに分離し、前記意識的動作データの信頼値と、前記無意識的動作データの信頼値とを算出し、前記意識的動作データに前記算出処理部により算出された前記意識的動作データの信頼値を乗じて得られた値と、前記無意識的動作データに前記算出処理部により算出された前記無意識的動作データの信頼値を乗じて得られた値とを合成することにより、前記評価値を算出するようにしたものである。 A fourth aspect of the present invention separates the motion data into conscious motion data representing the conscious reaction of the subject and unconscious motion data representing the unconscious reaction of the subject, and the conscious motion. A value obtained by calculating the reliability value of the data and the reliability value of the unconscious operation data and multiplying the conscious operation data by the reliability value of the conscious operation data calculated by the calculation processing unit. The evaluation value is calculated by synthesizing the value obtained by multiplying the unconscious operation data by the reliability value of the unconscious operation data calculated by the calculation processing unit.

この発明の第5の態様は、前記被験者の属性を示す値をx、前記被験者の属性の種類ごとにあらかじめ定められた値をα、βとするとき、前記意識的動作データの信頼値を
f(x)=1/(1+exp(−αx+β))
により算出し、前記無意識的動作データの信頼値を1−f(x)により算出するようにしたものである。
In the fifth aspect of the present invention, when the value indicating the attribute of the subject is x and the predetermined values for each type of the attribute of the subject are α and β, the confidence value of the conscious movement data is f. (X) = 1 / (1 + exp (-αx + β))
The reliability value of the unconscious operation data is calculated by 1-f (x).

この発明の第1の態様によれば、評価対象に対する被験者の反応を表す動作データと、上記被験者の属性データに基づいて算出される信頼値とに基づいて、評価対象に対する評価値が算出される。このため、被験者の反応を表す動作データのみにより評価対象を評価する場合に比べ、被験者の属性を反映したより一層信頼性の高い評価を行うことができる。 According to the first aspect of the present invention, the evaluation value for the evaluation target is calculated based on the motion data representing the reaction of the subject to the evaluation target and the reliability value calculated based on the attribute data of the subject. .. Therefore, as compared with the case where the evaluation target is evaluated only by the motion data representing the reaction of the subject, it is possible to perform the evaluation with higher reliability reflecting the attributes of the subject.

この発明の第2の態様によれば、評価対象に対する被験者の反応を表す動作データと、属性データに基づいて算出される信頼値とに基づいて算出された、評価対象に対する評価値を用いて学習が行われる。すなわち、被験者の属性を反映した学習が行われる。このため、学習結果を用いて評価を行う場合にも、信頼性の高い評価を行うことができる。 According to the second aspect of the present invention, learning is performed using the evaluation value for the evaluation target calculated based on the motion data representing the reaction of the subject to the evaluation target and the reliability value calculated based on the attribute data. Is done. That is, learning that reflects the attributes of the subject is performed. Therefore, even when the evaluation is performed using the learning result, the evaluation can be performed with high reliability.

この発明の第3の態様によれば、一定期間にわたって収集された生体データおよび動きデータの少なくとも一つに対し正規化処理が行われるので、生体データおよび動きデータに基づく評価値の算出処理を最適化することが可能となる。 According to the third aspect of the present invention, at least one of the biometric data and the motion data collected over a certain period of time is normalized, so that the evaluation value calculation process based on the biometric data and the motion data is optimal. It becomes possible to change.

この発明の第4の態様によれば、被験者の動作データが、意識的な反応を表す意識的動作データと、無意識な反応を表す無意識的動作データとに分離され、これらのデータごとに信頼値が算出される。このため、被験者の意識的な反応と無意識な反応の各々についてより適切な信頼値を算出することができ、これにより評価値の信頼性をさらに高めることができる。 According to the fourth aspect of the present invention, the motion data of the subject is separated into the conscious motion data representing the conscious reaction and the unconscious motion data representing the unconscious reaction, and the reliability value for each of these data. Is calculated. Therefore, a more appropriate reliability value can be calculated for each of the conscious reaction and the unconscious reaction of the subject, and thus the reliability of the evaluation value can be further enhanced.

この発明の第5の態様によれば、被験者の属性を示す値をx、被験者の属性の種類ごとにあらかじめ定められた値をα、βとするとき、意識的動作の信頼値および無意識的動作の信頼値を、それぞれf(x)=1/(1+exp(−αx+β))および1−f(x)として算出することができ、これにより被験者の属性の種類を考慮したより評価を行うことができる。 According to the fifth aspect of the present invention, when the values indicating the attributes of the subject are x and the values predetermined for each type of the attribute of the subject are α and β, the confidence value of the conscious movement and the unconscious movement The confidence values of can be calculated as f (x) = 1 / (1 + exp (-αx + β)) and 1-f (x), respectively, which enables more evaluation considering the type of subject's attributes. it can.

すなわちこの発明の各態様によれば、評価対象に対する被験者の反応に基づいて上記評価対象を評価する場合に、評価対象についてより信頼性の高い評価を行うことができる評価装置、方法およびプログラムを提供することができる。 That is, according to each aspect of the present invention, when the evaluation target is evaluated based on the reaction of the subject to the evaluation target, an evaluation device, a method and a program capable of performing a more reliable evaluation of the evaluation target are provided. can do.

この発明の一実施形態に係る評価装置の機能構成を示すブロック図。The block diagram which shows the functional structure of the evaluation apparatus which concerns on one Embodiment of this invention. 図1に示した評価装置による処理手順の一例を示すフローチャート。The flowchart which shows an example of the processing procedure by the evaluation apparatus shown in FIG. 図2に示した処理のうち信頼値算出処理の一例を示すフローチャート。FIG. 5 is a flowchart showing an example of a reliability value calculation process among the processes shown in FIG. 図2に示した処理のうち評価値算出処理の一例を示すフローチャート。The flowchart which shows an example of the evaluation value calculation process among the process shown in FIG. 信頼値算出のために用いられるシグモイド関数の例を示す図。The figure which shows the example of the sigmoid function used for the confidence value calculation. 被験者情報検出機器から情報処理装置に送られるデータの例を示す図。The figure which shows the example of the data sent from the subject information detection device to the information processing apparatus.

以下、図面を参照してこの発明に係わる実施形態を説明する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings.

[一実施形態]
(構成)
図1は、この発明の一実施形態に係る評価装置を備えるシステムの機能構成を示すブロック図である。図中、1は評価装置としての情報処理装置、2は被験者情報検出機器、3は被験者、4は表示装置、5はオペレータ端末をそれぞれ示している。
[One Embodiment]
(Constitution)
FIG. 1 is a block diagram showing a functional configuration of a system including an evaluation device according to an embodiment of the present invention. In the figure, 1 is an information processing device as an evaluation device, 2 is a subject information detection device, 3 is a subject, 4 is a display device, and 5 is an operator terminal.

オペレータ端末5は、例えばシステムのオペレータが使用するパーソナルコンピュータであり、上記オペレータが被験者に提示すべき評価対象を設定するために使用される。またオペレータ端末5は、後述する情報処理装置1により得られた評価結果もしくは学習結果の出力先としても使用される。ただし、オペレータ端末5は、必須の構成要素ではなく、情報処理装置1に内蔵することもでき、省略することもできる。 The operator terminal 5 is, for example, a personal computer used by an operator of the system, and is used by the operator to set an evaluation target to be presented to a subject. The operator terminal 5 is also used as an output destination of the evaluation result or the learning result obtained by the information processing device 1 described later. However, the operator terminal 5 is not an indispensable component, and may be built in the information processing device 1 or omitted.

表示装置4は、例えば、評価対象となる文章、画像、映像等を被験者3に提示するために使用されるディスプレイである。なお、評価対象を音声として出力するスピーカ等に置き換えることも可能である。また表示装置4は、情報処理装置1に内蔵することもでき、あるいは、展示物や実演等の現物を評価対象とする事例では省略することもできる。 The display device 4 is, for example, a display used for presenting a sentence, an image, a video, or the like to be evaluated to the subject 3. It is also possible to replace the evaluation target with a speaker or the like that outputs voice. Further, the display device 4 can be built in the information processing device 1, or can be omitted in the case where the actual product such as an exhibit or a demonstration is to be evaluated.

被験者情報検出機器2は、動作情報検出部21と、属性情報検出部22と、出力部23とを備える。 The subject information detection device 2 includes an operation information detection unit 21, an attribute information detection unit 22, and an output unit 23.

動作情報検出部21は、動き情報検出部211と、生体情報検出部212とを備える。動き情報検出部211は、上記表示装置4により被験者に対し提示された評価対象に対する被験者3の反応を、被験者の動きを表す情報として検出する。被験者の動きを表す情報としては、例えば、被験者の表情、声、視線、姿勢、向き等の、被験者の無意識な動作が挙げられる。この無意識な動作は、例えばカメラにより撮像された被験者の顔や姿の画像から検出したり、マイクから収音された音から検出したり、被験者の体に装着された加速度センサや測距センサ等を用いて検出することができる。表情を表すデータの一例としては、喜び、驚き、怒り、悲しみ、無表情の各割合を表す数値データや笑顔度合いデータなどが挙げられる。この表情を表すデータは、例えばカメラにより撮像された被験者の顔画像から既知の顔画像分析技術により取得されるもので、具体例については後に詳しく述べる。 The motion information detection unit 21 includes a motion information detection unit 211 and a biological information detection unit 212. The motion information detection unit 211 detects the reaction of the subject 3 to the evaluation target presented to the subject by the display device 4 as information representing the motion of the subject. Information representing the movement of the subject includes, for example, the unconscious movement of the subject such as the facial expression, voice, line of sight, posture, and orientation of the subject. This unconscious movement can be detected from, for example, an image of the subject's face or figure captured by a camera, detected from the sound picked up by a microphone, an acceleration sensor or a distance measuring sensor attached to the subject's body, or the like. Can be detected using. Examples of data representing facial expressions include numerical data representing each ratio of joy, surprise, anger, sadness, and expressionlessness, and smile degree data. The data representing this facial expression is obtained by, for example, a known facial image analysis technique from the facial image of the subject captured by the camera, and a specific example will be described in detail later.

また動き情報検出部211は、被験者が操作可能な押しボタンスイッチを備える。押しボタンスイッチは、被験者の意識的な動作を検出するために使用される。例えば、押しボタンスイッチは2個用意される。一方の押しボタンスイッチは、評価対象物に対し被験者が面白いと感じたときにその意思を入力するために使用される。これに対し他方の押しボタンスイッチは、評価対象物に対し被験者が面白くないと感じたときにその意思を入力するために使用される。また面白さのレベルおよび面白くないと感じたときのそのレベルは、例えば、押しボタンスイッチの押下回数または押下時間により入力することが可能である。 Further, the motion information detection unit 211 includes a push button switch that can be operated by the subject. Pushbutton switches are used to detect the subject's conscious movements. For example, two pushbutton switches are prepared. One pushbutton switch is used to enter the intention of the subject when he / she finds it interesting to the object to be evaluated. On the other hand, the other push button switch is used to input the intention when the subject feels that the evaluation object is not interesting. Further, the level of fun and the level when it is not interesting can be input by, for example, the number of times the push button switch is pressed or the pressing time.

生体情報検出部212は、上記表示装置4により被験者に対し提示された評価対象に対する被験者3の反応を、被験者の生体情報もしくは生理情報として検出する。生体情報もしくは生理情報としては、例えば、被験者の心拍や発汗が挙げられる。これらの生体情報の検出には、例えば、被験者に装着されるホルター心電計を用いることができる。 The biological information detection unit 212 detects the reaction of the subject 3 to the evaluation target presented to the subject by the display device 4 as the biological information or the physiological information of the subject. Examples of biological information or physiological information include the heartbeat and sweating of the subject. For the detection of these biological information, for example, a Holter electrocardiograph worn on the subject can be used.

なお、動作情報検出部21は、動き情報検出部211と生体情報検出部212の両方を必ずしも備える必要はなく、検出する動作情報はシステムの管理者等が任意に設定することができる。 The motion information detection unit 21 does not necessarily have to include both the motion information detection unit 211 and the biometric information detection unit 212, and the motion information to be detected can be arbitrarily set by the system administrator or the like.

属性情報検出部22は、被験者3の属性情報を検出または取得する。属性情報検出部22で検出または取得される属性情報には、例えば、年齢、性別、職業などが含まれる。例えば、属性情報検出部22は、被験者の属性情報を記録したWeb上のデータベースや被験者が所持するスマートフォン等から上記属性に関する個人情報を読み出すことにより属性情報を取得する。もしくはオペレータが任意に入力することも可能である。また属性情報検出部22は、被験者の顔画像から年齢等を自動推定するソフトウェア等を用いて属性情報を検出するものであってもよい。 The attribute information detection unit 22 detects or acquires the attribute information of the subject 3. The attribute information detected or acquired by the attribute information detection unit 22 includes, for example, age, gender, occupation, and the like. For example, the attribute information detection unit 22 acquires the attribute information by reading the personal information related to the above attributes from a database on the Web in which the subject's attribute information is recorded, a smartphone owned by the subject, or the like. Alternatively, the operator can input it arbitrarily. Further, the attribute information detection unit 22 may detect the attribute information by using software or the like that automatically estimates the age or the like from the face image of the subject.

出力部23は、上記動作情報検出部21で動作情報として検出された動き情報と生体情報を含む動作データ、および属性情報検出部22で属性情報として検出された属性データを、所定の周期で情報処理装置1へ出力する。以下、動作データと属性データをまとめて被験者データとも呼ぶ。 The output unit 23 informs the motion data including the motion information and the biological information detected as the motion information by the motion information detection unit 21 and the attribute data detected as the attribute information by the attribute information detection unit 22 at a predetermined cycle. Output to processing device 1. Hereinafter, the motion data and the attribute data are collectively referred to as subject data.

情報処理装置1は、例えばパーソナルコンピュータまたはサーバ装置からなり、入出力インタフェースユニット11と、処理ユニット12と、記憶ユニット13とを備えている。 The information processing device 1 is composed of, for example, a personal computer or a server device, and includes an input / output interface unit 11, a processing unit 12, and a storage unit 13.

入出力インタフェースユニット11は、例えば有線または無線インタフェースを有し、外部機器、例えば、被験者情報検出機器2やオペレータ端末5から出力される各種情報を受信する機能と、評価対象、評価結果または学習結果を表す情報を送信する機能とを有する。有線インタフェースとしては、例えばLAN(Local Area Network)が使用され、また無線インタフェースとしては、例えばBluetooth(登録商標)などの小電力無線データ通信規格を採用したインタフェースが使用される。なお、被験者情報検出機器2は情報処理装置1内に内蔵するようにしてもよい。 The input / output interface unit 11 has, for example, a wired or wireless interface, and has a function of receiving various information output from an external device, for example, a subject information detection device 2 or an operator terminal 5, and an evaluation target, an evaluation result, or a learning result. It has a function of transmitting information representing the above. As the wired interface, for example, a LAN (Local Area Network) is used, and as the wireless interface, an interface adopting a low power wireless data communication standard such as Bluetooth (registered trademark) is used. The subject information detection device 2 may be built in the information processing device 1.

記憶ユニット13は、記憶媒体として例えばHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書込および読み出しが可能な不揮発性メモリを用いたものであり、この実施形態を実現するために必要な記憶領域として、プログラム記憶部の他に、データ記憶部131と、信頼性評価データベース(DB)132と、学習データベース(DB)133と、出力データ記憶部134とを備えている。 The storage unit 13 uses a non-volatile memory such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that can be written and read at any time as a storage medium, and in order to realize this embodiment. In addition to the program storage unit, a data storage unit 131, a reliability evaluation database (DB) 132, a learning database (DB) 133, and an output data storage unit 134 are provided as necessary storage areas.

処理ユニット12は、CPU(Central Processing Unit)を有し、この実施形態を実施する上で必要な処理機能として、評価対象取得部121と、出力処理部122と、データ取得部123と、正規化部124と、信頼値算出部125と、評価値算出部126と、学習部127とを備えている。これらの処理機能は、いずれも、図示しないプログラム記憶部に格納されたアプリケーションプログラムを上記CPUに実行させることにより実現される。 The processing unit 12 has a CPU (Central Processing Unit), and as processing functions necessary for implementing this embodiment, the evaluation target acquisition unit 121, the output processing unit 122, the data acquisition unit 123, and the normalization A unit 124, a reliability value calculation unit 125, an evaluation value calculation unit 126, and a learning unit 127 are provided. All of these processing functions are realized by causing the CPU to execute an application program stored in a program storage unit (not shown).

次に、情報処理装置1の処理ユニット12が備える構成についてさらに説明する。以下では、特に、動作データとして、被験者の表情データと、押しボタンスイッチにより入力される、評価対象が面白いか面白くないかを表す情報とが入力され、属性データとして年齢を表す情報が入力される場合を例に挙げて説明するが、他のデータに置き換えることもでき、他のデータを追加的に利用することも可能である。 Next, the configuration included in the processing unit 12 of the information processing device 1 will be further described. In the following, in particular, the facial expression data of the subject and the information input by the push button switch indicating whether the evaluation target is interesting or not are input as the motion data, and the information indicating the age is input as the attribute data. The case will be described as an example, but it can be replaced with other data, and other data can be additionally used.

評価対象取得部121は、被験者に提示すべき評価対象を表す情報を取得する。例えば、オペレータ端末5から、オペレータにより設定された評価対象の情報を取得する。また、図示しないWeb上のデータベース等から、事前に登録された評価対象の情報を図示しないネットワークを介して取得したり、学習データベース133に記憶された学習結果を評価対象の情報として取得することもできる。評価対象取得部121は、上記取得した評価対象を表す情報を出力処理部122に送る。 The evaluation target acquisition unit 121 acquires information representing the evaluation target to be presented to the subject. For example, the information of the evaluation target set by the operator is acquired from the operator terminal 5. In addition, information on the evaluation target registered in advance can be acquired from a database or the like on the Web (not shown) via a network (not shown), or the learning result stored in the learning database 133 can be acquired as information to be evaluated. it can. The evaluation target acquisition unit 121 sends information representing the acquired evaluation target to the output processing unit 122.

出力処理部122は、上記評価対象取得部121から送られた評価対象を表す情報を出力データ記憶部134に記憶させ、この記憶された評価対象を表す情報のうち被験者に提示すべき評価対象を表す情報を入出力インタフェースユニット11から表示装置4へ出力する。また出力処理部122は、上記表示装置4へ出力した評価対象を表す情報を、その出力時刻とともに、学習部127へも出力する。 The output processing unit 122 stores the information representing the evaluation target sent from the evaluation target acquisition unit 121 in the output data storage unit 134, and among the stored information representing the evaluation target, the evaluation target to be presented to the subject is stored. The information to be represented is output from the input / output interface unit 11 to the display device 4. Further, the output processing unit 122 also outputs the information representing the evaluation target output to the display device 4 to the learning unit 127 together with the output time.

また出力処理部122は、オペレータの要求に従って、評価値算出部126により算出された評価結果を表すデータと、学習データベース133に記憶された学習結果を表すデータを選択的に読み出し、入出力インタフェースユニット11から表示装置4またはオペレータ端末5へ送出する。なお、出力処理部122は、上記評価結果または学習結果を表すデータを図示しない他の外部機器等に送信することも可能である。 Further, the output processing unit 122 selectively reads out the data representing the evaluation result calculated by the evaluation value calculation unit 126 and the data representing the learning result stored in the learning database 133 according to the request of the operator, and is an input / output interface unit. It is transmitted from 11 to the display device 4 or the operator terminal 5. The output processing unit 122 can also transmit the evaluation result or the data representing the learning result to another external device or the like (not shown).

例えば、出力処理部122は、出力データ記憶部134に格納されたデータをあらかじめ定められた時刻に読み出して出力する。出力されるデータセットは、例えば、出力時刻と出力対象データとの組である。出力対象データの一例として、被験者に提示すべき文章等の評価対象を表すデータが考えられる。 For example, the output processing unit 122 reads out the data stored in the output data storage unit 134 at a predetermined time and outputs the data. The data set to be output is, for example, a set of the output time and the output target data. As an example of the output target data, data representing an evaluation target such as a sentence to be presented to the subject can be considered.

データ取得部123は、上記被験者情報検出機器2から出力された被験者データ、すなわち、動き情報および生体情報を含む動作データと、属性データを、入出力インタフェースユニット11を介して所定の周期で取得し、データ記憶部131に格納する。 The data acquisition unit 123 acquires subject data output from the subject information detection device 2, that is, motion data including motion information and biological information, and attribute data at a predetermined cycle via the input / output interface unit 11. , Stored in the data storage unit 131.

正規化部124は、データ記憶部131に格納された動きデータ、生体データおよび属性データを一定時間分ずつ読み出し、この一定時間分の動きデータ、生体データおよび属性データに対しリサンプリング処理を行う。また正規化部124は、上記読み出された動きデータおよび生体データについて正規化処理を行う。 The normalization unit 124 reads out the motion data, the biometric data, and the attribute data stored in the data storage unit 131 for a fixed period of time, and performs resampling processing on the motion data, the biometric data, and the attribute data for the fixed time. Further, the normalization unit 124 performs normalization processing on the read motion data and biometric data.

例えば、正規化部124は、リサンプリング周期が1分の場合、上記動きデータおよび生体データについてそれぞれ1分毎の平均値を算出する。なお、リサンプリング周期は任意に変更可能である。また正規化部124は、上記リサンプリング処理された動きデータおよび生体データに対して、さらに正規化処理を行う。正規化処理の一例については後に詳しく述べる。 For example, when the resampling cycle is 1 minute, the normalization unit 124 calculates the average value of each of the motion data and the biometric data every 1 minute. The resampling cycle can be changed arbitrarily. Further, the normalization unit 124 further normalizes the resampled motion data and biometric data. An example of the normalization process will be described in detail later.

信頼値算出部125は、信頼性評価DB132を用いて、被験者の属性に基づく、当該被験者の動作データの信頼の度合いを表す信頼値を算出する。信頼性評価DB132には被験者の属性毎の規定モデルが格納されている。 The reliability value calculation unit 125 uses the reliability evaluation DB 132 to calculate a reliability value indicating the degree of reliability of the motion data of the subject based on the attributes of the subject. The reliability evaluation DB 132 stores a defined model for each attribute of the subject.

例えば一実施形態では、信頼値算出部125は、正規化部124により正規化処理された被験者の動きデータおよび生体データを、意識的動作データと無意識的動作データとに分離する。そして信頼値算出部125は、信頼性評価DB132に格納された被験者の属性毎の規定モデルに従い、上記正規化部124によりリサンプリングされた属性データに基づいて、意識的動作データの信頼値と無意識的動作データの信頼値をそれぞれ算出する。信頼値の算出処理の一例については後に詳しく述べる。信頼値算出部125は、上記算出された信頼値を、上記意識的動作データおよび無意識的動作データと共に、評価値算出部126へ出力する。 For example, in one embodiment, the reliability value calculation unit 125 separates the motion data and the biological data of the subject normalized by the normalization unit 124 into conscious motion data and unconscious motion data. Then, the reliability value calculation unit 125 follows the specified model for each attribute of the subject stored in the reliability evaluation DB 132, and based on the attribute data resampled by the normalization unit 124, the reliability value and the unconsciousness of the conscious motion data. Calculate the reliability value of the target operation data. An example of the reliability value calculation process will be described in detail later. The reliability value calculation unit 125 outputs the calculated reliability value to the evaluation value calculation unit 126 together with the conscious operation data and the unconscious operation data.

評価値算出部126は、信頼値算出部125から出力された意識的動作データおよび無意識的動作データの各々について、同時に信頼値算出部125から出力された信頼値を加味した評価値を算出する。例えば、一実施形態では、評価値算出部126は、意識的動作データに意識的動作データの信頼値を乗じ、かつ無意識的動作データに無意識的動作データの信頼値を乗じる。そして評価値算出部126は、上記信頼値を乗じた意識的動作データと信頼値を乗じた無意識的動作データとを合計することにより、動作データの評価値を算出する。 The evaluation value calculation unit 126 calculates an evaluation value for each of the conscious operation data and the unconscious operation data output from the reliability value calculation unit 125, taking into account the reliability value output from the reliability value calculation unit 125 at the same time. For example, in one embodiment, the evaluation value calculation unit 126 multiplies the conscious motion data by the confidence value of the conscious motion data, and multiplies the unconscious motion data by the confidence value of the unconscious motion data. Then, the evaluation value calculation unit 126 calculates the evaluation value of the operation data by summing the conscious operation data multiplied by the reliability value and the unconscious operation data multiplied by the reliability value.

すなわち、評価値算出部126は、被験者情報検出機器2により検出された被験者の動き情報および生体情報について、意識的動作データおよび無意識的動作データ別に、被験者の属性情報に基づく重み付けを行った上で評価を行う。評価値算出部126は、上記算出された評価値を、例えば、時刻データと共に、出力処理部122および学習部127へ出力する。 That is, the evaluation value calculation unit 126 weights the subject's motion information and biological information detected by the subject information detection device 2 for each of the conscious motion data and the unconscious motion data based on the attribute information of the subject. Make an evaluation. The evaluation value calculation unit 126 outputs the calculated evaluation value together with, for example, time data to the output processing unit 122 and the learning unit 127.

学習部127は、評価値算出部126により評価値が算出されるごとに、当該評価値と、学習DB133に記憶された学習結果とに基づいて、上記評価値について学習処理を行い、この学習処理後の評価値を上記学習DB133に格納する。上記学習処理の一例についても、後に詳しく述べる。 Each time the evaluation value is calculated by the evaluation value calculation unit 126, the learning unit 127 performs a learning process on the evaluation value based on the evaluation value and the learning result stored in the learning DB 133, and this learning process The later evaluation value is stored in the learning DB 133. An example of the above learning process will also be described in detail later.

(動作)
次に、以上のように構成された評価装置としての情報処理装置1による情報処理動作を説明する。図2はその処理手順と処理内容を示すフローチャートである。
(motion)
Next, the information processing operation by the information processing device 1 as the evaluation device configured as described above will be described. FIG. 2 is a flowchart showing the processing procedure and the processing content.

(1)評価対象を表す情報の提示
ここでは、評価対象として文章データを提示する場合を例にとって説明する。オペレータがオペレータ端末5において評価対象となる文章データを入力すると、この文章データはオペレータ端末5から情報処理装置1へ送信される。
(1) Presentation of information representing an evaluation target Here, a case where text data is presented as an evaluation target will be described as an example. When the operator inputs text data to be evaluated on the operator terminal 5, the text data is transmitted from the operator terminal 5 to the information processing device 1.

情報処理装置1は、評価対象取得部121の制御の下、ステップS10により評価対象となるデータの受信の有無を監視している。この状態で、上記オペレータ端末5から文章データが送られると、ステップS11により上記オペレータ端末5から送信された文章データを入出力インタフェースユニット11を介して取り込み、出力処理部122に渡す。出力処理部122は、上記文章データを出力データ記憶部134に記憶させると共に、入出力インタフェースユニット11から表示装置4へ送信する。この結果、表示装置4では上記文章データが表示され、当該文章データが評価対象として被験者3に提示される。なお、WEb上のデータベースまたは学習DB133から評価対象の文章データを取得して、表示装置4に表示させることも可能である。 Under the control of the evaluation target acquisition unit 121, the information processing apparatus 1 monitors in step S10 whether or not the data to be evaluated is received. When the text data is sent from the operator terminal 5 in this state, the text data transmitted from the operator terminal 5 in step S11 is taken in via the input / output interface unit 11 and passed to the output processing unit 122. The output processing unit 122 stores the text data in the output data storage unit 134 and transmits the text data from the input / output interface unit 11 to the display device 4. As a result, the text data is displayed on the display device 4, and the text data is presented to the subject 3 as an evaluation target. It is also possible to acquire the text data to be evaluated from the database on the WEB or the learning DB 133 and display it on the display device 4.

出力処理部122はまた、後述する学習処理のため、表示装置4へ出力した文章データを、その出力時刻を示すデータとともに学習部127へも出力する。 The output processing unit 122 also outputs the sentence data output to the display device 4 to the learning unit 127 together with the data indicating the output time for the learning process described later.

(2)被験者データの取得
被験者情報検出機器2において、被験者は上記表示装置4に表示された文章データに対する評価、例えば面白いか面白くないかを押しボタンスイッチを操作することで入力する。そうすると、上記押しボタンスイッチの操作情報は動き情報検出部211により検出される。
(2) Acquisition of subject data In the subject information detection device 2, the subject inputs an evaluation of the text data displayed on the display device 4, for example, whether it is interesting or not by operating a push button switch. Then, the operation information of the push button switch is detected by the motion information detection unit 211.

また動き情報検出部211では、上記文章データを読んだ被験者の表情、声、視線、姿勢、向き等の被験者の無意識な動作が、一定の検出周期で、顔画像や音声、位置情報、体の動きを表す加速度データにより検出される。このうち、表情については、例えば喜び、驚き、怒り、悲しみ、無表情に分類されてそのレベルが数値化される。上記検出された押しボタンスイッチによる入力情報と被験者の表情等の検出情報は、動きの検出情報として被験者の識別情報(被験者ID)と共に出力部23から情報処理装置1へ送信される。 Further, in the motion information detection unit 211, the subject's unconscious movements such as the facial expression, voice, line of sight, posture, and orientation of the subject who read the above sentence data are detected in a constant detection cycle of the face image, voice, position information, and body. Detected by acceleration data representing motion. Of these, facial expressions are classified into, for example, joy, surprise, anger, sadness, and expressionless, and their levels are quantified. The input information by the detected push button switch and the detection information such as the facial expression of the subject are transmitted from the output unit 23 to the information processing device 1 together with the identification information (subject ID) of the subject as motion detection information.

上記動き情報検出部211による動きの検出動作と並行して、生体情報検出部212では、上記文章データを読んだ被験者の生体情報、例えば心拍や発汗が、上記一定の検出周期で心電計やポリグラフ計などにより検出され、その検出データは被験者IDと共に出力部23から情報処理装置1へ送信される。 In parallel with the motion detection operation by the motion information detection unit 211, the biometric information detection unit 212 displays the biometric information of the subject who has read the text data, such as heartbeat and sweating, in the electrocardiograph and the electrocardiograph in the constant detection cycle. It is detected by a polygraph meter or the like, and the detected data is transmitted from the output unit 23 to the information processing device 1 together with the subject ID.

さらに被験者情報検出機器2では、属性情報検出部22において、被験者の属性情報、例えば年齢、性別、職業が検出される。この属性情報の検出は、例えば、Web上のデータベースや被験者が所持するスマートフォン等から被験者の属性に関する情報を取得することによりなされたり、オペレータにより入力される。なお、被験者の顔画像から年齢等を推定するようにしてもよい。上記属性情報は、被験者IDと共に出力部23から情報処理装置1へ送信される。 Further, in the subject information detection device 2, the attribute information detection unit 22 detects the attribute information of the subject, for example, age, gender, and occupation. The detection of this attribute information is performed, for example, by acquiring information on the attributes of the subject from a database on the Web, a smartphone owned by the subject, or the like, or is input by the operator. The age and the like may be estimated from the facial image of the subject. The attribute information is transmitted from the output unit 23 to the information processing device 1 together with the subject ID.

ここで、図6は、被験者情報検出機器2の出力部23から出力される被験者データの例を示す図である。図6の例では、表情データとして、喜び(Joy)、驚き(Surprise)、怒り(Angry)、悲しみ(Sorrow)、無表情(Expressionless)の各割合が取得され、ボタンデータとして、被験者が面白いと感じたときに操作するための押しボタンスイッチ(「面白いボタン」)が押された回数(Funny)と、被験者が面白くないと感じたときに操作するための押しボタンスイッチ(「面白くないボタン」)が押された回数(Nofunny)が取得され、時刻および被験者IDとともに所定の周期で情報処理装置1に送られている。例えば、図6の例では、喜び(Joy)のデータだけを評価に用いることも、喜び(Joy)と怒り(Angry)の比を評価に用いることもでき、同様に、面白いボタンが押された回数(Funny)だけを評価に用いることも、面白いボタンが押された回数(Funny)と面白くないボタンが押された回数(Nofunny)との比を評価に用いることもでき、評価対象の性質等に応じてシステムの管理者等が自由に設定することができる。 Here, FIG. 6 is a diagram showing an example of subject data output from the output unit 23 of the subject information detection device 2. In the example of FIG. 6, each ratio of joy (Joy), surprise (Surprise), anger (Angry), sadness (Sorrow), and expressionless (Expressionless) is acquired as the expression data, and the subject is interesting as the button data. The number of times the push button switch (“interesting button”) was pressed to operate when it was felt (Funny), and the push button switch (“uninteresting button”) to operate when the subject felt uninteresting. The number of times (Nofunny) is pressed is acquired and sent to the information processing apparatus 1 together with the time and the subject ID at a predetermined cycle. For example, in the example of FIG. 6, only the joy (Joy) data can be used for evaluation, or the ratio of joy (Joy) and anger (Angry) can be used for evaluation, and similarly, an interesting button is pressed. Only the number of times (Funny) can be used for evaluation, or the ratio of the number of times an interesting button is pressed (Funny) to the number of times an uninteresting button is pressed (Nofunny) can be used for evaluation, such as the nature of the evaluation target. The system administrator or the like can freely set according to the above.

動作情報検出部21および属性情報検出部22で取得されるデータは、複数の装置で取得されても1つの装置で取得されてもよい。図6は、表情データと年齢データとが1つの装置で取得され、ボタンデータが別の装置で取得されたときのデータ例を示している。図6に示すように、それぞれの装置のサンプリング数が異なる場合、ある時刻において取得されていないデータは空欄として送信される。 The data acquired by the operation information detection unit 21 and the attribute information detection unit 22 may be acquired by a plurality of devices or by one device. FIG. 6 shows an example of data when facial expression data and age data are acquired by one device and button data is acquired by another device. As shown in FIG. 6, when the sampling number of each device is different, the data that has not been acquired at a certain time is transmitted as a blank.

なお、図6のデータは、市販のソフトウェアを用いて取得されたデータの一例であり、表情の解析には様々な手法を用いることが可能である。 The data in FIG. 6 is an example of data acquired by using commercially available software, and various methods can be used for facial expression analysis.

情報処理装置1は、データ取得部123の制御の下、ステップS12により被験者データの受信の有無を監視している。この状態で、被験者情報検出機器2から被験者データ、つまり動きデータ、生体データおよび属性データが送られると、当該被験者データをステップS13により入出力インタフェースユニット11を介して受信して、データ記憶部131に記憶させる。以後、被験者情報検出機器2から被験者データが送られるごとに、当該被験者データを受信してデータ記憶部131に蓄積させる。 Under the control of the data acquisition unit 123, the information processing device 1 monitors the presence / absence of reception of subject data in step S12. In this state, when subject data, that is, motion data, biological data, and attribute data are sent from the subject information detection device 2, the subject data is received via the input / output interface unit 11 in step S13, and the data storage unit 131. To memorize. After that, each time the subject information detection device 2 sends the subject data, the subject data is received and stored in the data storage unit 131.

(3)正規化処理
情報処理装置1は、正規化部124の制御の下、一定時間が経過するごとに、ステップS14においてデータ記憶部131から上記一定時間分の被験者データを読み出し、当該読み出された被験者データのうち、動きデータ、生体データおよび属性データについてリサンプリング処理を行い、さらに動きデータおよび生体データについて正規化処理を行う。
(3) Normalization processing Under the control of the normalization unit 124, the information processing device 1 reads the subject data for the fixed time from the data storage unit 131 in step S14 every time a fixed time elapses, and reads the subject data. Of the subject data, the motion data, the biometric data, and the attribute data are resampled, and the motion data and the biometric data are normalized.

例えば、リサンプリング周期は1分に設定され、上記動きデータおよび生体データについてそれぞれ1分毎の平均値が算出される。正規化処理では、あらかじめ定められた正規化周期で、被験者のID毎に、動きデータおよび生体データ各々の合計値が1となるように変換される。より具体的には、正規化周期15分で表情データの検出値の合計値が1200、押しボタンスイッチによる押下回数の合計値が80である場合、各分の表情データはそれぞれ1200で除算され、押下回数はそれぞれ80で除算される。なお、正規化処理の変換は、合計値が1となる変換でなくても、分布がガウス分布になる変換でも、その他の変換処理を利用しても良い。リサンプリング処理された属性データと、正規化処理された動きデータおよび生体データは、信頼値算出部125に送られる。 For example, the resampling cycle is set to 1 minute, and the average value for each minute is calculated for each of the motion data and the biometric data. In the normalization process, the total value of the motion data and the biometric data is converted to 1 for each subject ID in a predetermined normalization cycle. More specifically, when the total value of the detected values of the facial expression data is 1200 and the total number of presses by the push button switch is 80 in the normalization cycle of 15 minutes, the facial expression data for each minute is divided by 1200. The number of presses is divided by 80. Note that the conversion of the normalization process does not have to be a conversion in which the total value is 1, a conversion in which the distribution has a Gaussian distribution, or another conversion process may be used. The resampling-processed attribute data and the normalized motion data and biometric data are sent to the reliability value calculation unit 125.

(4)信頼値の算出処理
情報処理装置1は、ステップS15において、信頼値算出部125の制御の下、動作データの信頼値を以下のように算出する。
(4) Confidence value calculation process In step S15, the information processing apparatus 1 calculates the reliability value of the operation data under the control of the reliability value calculation unit 125 as follows.

図3は、信頼値算出処理の一例を示すフローチャートである。 FIG. 3 is a flowchart showing an example of the reliability value calculation process.

ステップS151において、信頼値算出部125は、正規化部124から、リサンプリング処理された属性データと、リサンプリング処理され正規化処理された動きデータおよび生体データとを取得する。 In step S151, the reliability value calculation unit 125 acquires the resampling-processed attribute data and the resampling-processed and normalized-processed motion data and biometric data from the normalization unit 124.

次いで、ステップS152において、信頼値算出部125は、動作データ、つまり動きデータおよび生体データを、意識的動作データと無意識的動作データとに分離する。意識的動作データの例として、例えば、アンケートや、拍手、押しボタンスイッチが押された回数などがある。無意識的動作データの例として、例えば、表情や、心拍、発汗などといった生理情報がある。声、視線、姿勢、向きなどのように、意識的動作データと無意識的動作データのどちらに分類してもよいデータもあり、どの属性をどちらに分類するかはシステムの管理者等があらかじめ決めておくことができる。 Next, in step S152, the reliability value calculation unit 125 separates the motion data, that is, the motion data and the biometric data into the conscious motion data and the unconscious motion data. Examples of conscious motion data include questionnaires, applause, and the number of times a pushbutton switch is pressed. Examples of unconscious motion data include physiological information such as facial expressions, heartbeats, and sweating. Some data, such as voice, line of sight, posture, orientation, etc., can be classified into either conscious movement data or unconscious movement data, and the system administrator etc. decides in advance which attribute should be classified into which. Can be kept.

次いで、ステップS153において、信頼値算出部125は、信頼性評価DB132に基づき、属性データに応じた意識的動作データの信頼値を算出する。信頼性評価DB132には、被験者の属性毎の規定モデルが予め格納されている。規定モデルは、例えばシグモイド関数によって定義される。図5にその一例を示す。信頼値算出部125は、被験者の属性を数値として示す値をx、属性の種類ごとにあらかじめ定められたパラメータをα、βとするとき、意識的動作データの信頼値を
f(x)=1/(1+exp(−αx+β))
により算出する。
Next, in step S153, the reliability value calculation unit 125 calculates the reliability value of the conscious operation data according to the attribute data based on the reliability evaluation DB 132. In the reliability evaluation DB 132, a defined model for each attribute of the subject is stored in advance. The default model is defined, for example, by the sigmoid function. An example is shown in FIG. The reliability value calculation unit 125 sets the reliability value of the conscious movement data as f (x) = 1 when the value indicating the attribute of the subject as a numerical value is x and the parameters predetermined for each type of attribute are α and β. / (1 + exp (-αx + β))
Calculated by

次に、ステップS154において、信頼値算出部125は、無意識的動作データの信頼値を算出する。一例として、無意識的動作データの信頼値は、意識的動作データの信頼値を1から減算することにより、すなわち、1−f(x)として算出される。 Next, in step S154, the reliability value calculation unit 125 calculates the reliability value of the unconscious operation data. As an example, the confidence value of the unconscious motion data is calculated by subtracting the confidence value of the conscious motion data from 1, that is, 1-f (x).

例えば、属性の種類が年齢である場合、α=1/5、β=−40の初期値をとる。αとβの値は、あらかじめ定められた更新タイミングでシグモイド関数をフィッティングされることにより更新されることができる。フィッティング方法の一例として、被験者の属性をxとしたときの、無意識動作データと意識的動作データの合計値に対する意識的動作データの値の比がf(x)となるようにフィッティングさせることができる。αとβを任意の固定値にすることも可能である。 For example, when the type of attribute is age, the initial values of α = 1/5 and β = -40 are taken. The values of α and β can be updated by fitting the sigmoid function at a predetermined update timing. As an example of the fitting method, when the attribute of the subject is x, the ratio of the value of the conscious movement data to the total value of the unconscious movement data and the conscious movement data can be f (x). .. It is also possible to set α and β to arbitrary fixed values.

ステップS155において、信頼値算出部125は、上記意識的動作データ、無意識的動作データ、意識的動作データの信頼値、および無意識的動作データの信頼値を、評価値算出部126に出力する。 In step S155, the reliability value calculation unit 125 outputs the conscious operation data, the unconscious operation data, the reliability value of the conscious operation data, and the reliability value of the unconscious operation data to the evaluation value calculation unit 126.

(5)評価値算出処理
情報処理装置1は、ステップS16において、評価値算出部126により、信頼値算出部125から出力された動作データと算出された信頼値とに基づいて、動作データの評価値を以下のように算出する。
(5) Evaluation value calculation process In step S16, the information processing apparatus 1 evaluates the operation data based on the operation data output from the reliability value calculation unit 125 and the calculated reliability value by the evaluation value calculation unit 126. Calculate the value as follows.

図4は、評価値算出処理の一例を示すフローチャートである。 FIG. 4 is a flowchart showing an example of the evaluation value calculation process.

ステップS161において、評価値算出部126は、信頼値算出部125から動作データ、つまり上記意識的動作データおよび無意識的動作データと、当該意識的動作データの信頼値および無意識的動作データの信頼値を取得する。 In step S161, the evaluation value calculation unit 126 obtains the operation data from the reliability value calculation unit 125, that is, the above-mentioned conscious operation data and unconscious operation data, and the reliability value of the conscious operation data and the reliability value of the unconscious operation data. get.

ステップS162において、評価値算出部126は、動作データに信頼値を重み付けとして適用して、評価値を算出する。一例としては、意識的動作データに意識的動作データの信頼値を乗じた値が意識的動作データの評価値として算出され、無意識的動作データに無意識的動作データの信頼値を乗じた値が無意識的動作データの評価値として算出される。次いで、上記算出された意識的動作データの評価値と無意識的動作データの評価値とを合成する。合成には、例えば加算処理が用いられる。かくして、動作データの評価値が動作データ評価値として算出される。 In step S162, the evaluation value calculation unit 126 applies the reliability value as a weight to the operation data to calculate the evaluation value. As an example, the value obtained by multiplying the conscious motion data by the confidence value of the conscious motion data is calculated as the evaluation value of the conscious motion data, and the value obtained by multiplying the unconscious motion data by the confidence value of the unconscious motion data is unconscious. It is calculated as an evaluation value of the target operation data. Next, the evaluation value of the calculated conscious movement data and the evaluation value of the unconscious movement data are combined. For the synthesis, for example, an addition process is used. Thus, the evaluation value of the operation data is calculated as the operation data evaluation value.

これにより、複数種類の情報を入力とする際に、それぞれの情報に被験者の属性に基づく重み付けをして評価に用いることができる。なお、複数種類の属性を用いる場合、それぞれの属性毎の信頼値をさらに乗じた値を評価値として算出することができる。一例として、属性1(例えば年齢)に対して得られた信頼値をf(x)、属性2(例えば性別)に対して得られた信頼値をf(x)とすると、意識的動作データにf(x)×f(x)を乗じたものを意識的動作データの評価値とすることができ、無意識的動作データに(1−f(x))×(1−f(x))を乗じたものを無意識的動作データの評価値とすることができる。 As a result, when a plurality of types of information are input, each information can be weighted based on the attributes of the subject and used for evaluation. When a plurality of types of attributes are used, a value obtained by further multiplying the reliability value for each attribute can be calculated as an evaluation value. As an example, if the confidence value obtained for attribute 1 (for example, age) is f 1 (x) and the confidence value obtained for attribute 2 (for example, gender) is f 2 (x), the subconscious action. The data multiplied by f 1 (x) × f 2 (x) can be used as the evaluation value of the conscious operation data, and the unconscious operation data is (1-f 1 (x)) × (1-f). 2 (x)) can be multiplied as the evaluation value of the unconscious motion data.

ステップS163において、評価値算出部126は、算出された動作データ評価値を出力する。一例として、評価値算出部126は、算出された動作データ評価値を、評価対象との関連付けを示すデータ、例えば被験者情報検出機器2により動作データが取得された時刻を示すデータと共に、出力処理部122と学習部127とに送ることができる。 In step S163, the evaluation value calculation unit 126 outputs the calculated operation data evaluation value. As an example, the evaluation value calculation unit 126 outputs the calculated operation data evaluation value together with data indicating the association with the evaluation target, for example, data indicating the time when the operation data is acquired by the subject information detection device 2. It can be sent to 122 and the learning unit 127.

(6)学習処理
情報処理装置1は、学習部127の制御の下、ステップS17において、評価値算出部126によって新たに算出された動作データ評価値と、学習DB133に記憶された学習結果とに基づいて、上記動作データ評価値について以下のように学習処理を行う。
(6) Learning process Under the control of the learning unit 127, the learning processing device 1 sets the operation data evaluation value newly calculated by the evaluation value calculation unit 126 and the learning result stored in the learning DB 133 in step S17. Based on this, the learning process is performed on the operation data evaluation value as follows.

すなわち、学習DB133には、それまでに学習した学習データと各学習データに対する学習評価値が格納されており、学習部127は、評価値算出部126から送られてきた時刻データおよび動作データ評価値と、出力処理部122から送られてきた出力時刻および評価対象データと、上記学習DB133に記憶された過去の学習結果とに基づいて、上記動作データ評価値について学習処理を行う。 That is, the learning DB 133 stores the learning data learned so far and the learning evaluation value for each learning data, and the learning unit 127 stores the time data and the operation data evaluation value sent from the evaluation value calculation unit 126. Then, learning processing is performed on the operation data evaluation value based on the output time and evaluation target data sent from the output processing unit 122 and the past learning result stored in the learning DB 133.

以下、面白さを感じる文章を学習データ例として用いた実施例について説明する。面白さを感じる文章の例として、駄洒落、小話、問答(例えば、「こんな〇○はイヤだ」というお題と、〇○に入れる回答のセット)等が挙げられる。ただし、学習データは、文章データに限られるものでなく、システムの管理者等が任意に設定することができる。 Hereinafter, an example in which an interesting sentence is used as an example of learning data will be described. Examples of sentences that you find interesting include puns, short stories, and questions and answers (for example, the subject "I don't like this XX" and a set of answers to put in XX). However, the learning data is not limited to text data, and can be arbitrarily set by the system administrator or the like.

学習DB133には、それまでに学習した文章データと各文章データに対する面白さ評価値が格納されている。初期設定の一例として、学習DB133には、文章データと、例えばランダムフォレスト法やニューラルネットワークを用いて分類された各文章データの面白さ評価値が初期値として格納されている。分類は0か1の2値にすることも可能であるし、レートをつけることも可能である。学習方法もシステム管理者の任意に設定することが可能である。 The learning DB 133 stores the sentence data learned so far and the fun evaluation value for each sentence data. As an example of the initial setting, the learning DB 133 stores the sentence data and the fun evaluation value of each sentence data classified by, for example, the random forest method or the neural network as the initial value. The classification can be a binary value of 0 or 1, or a rate can be assigned. The learning method can also be set arbitrarily by the system administrator.

学習部127は、出力処理部122から送られてきた評価対象データと、評価値算出部126から送られてきた動作データ評価値とを関連づける。より具体的には、学習部127は、出力処理部122から評価対象データとともに送られてきた評価対象の出力時刻を示すデータを識別し、その出力時刻に対応する時刻情報を備える、評価値算出部126から送られてきた動作データ評価値を識別し、評価対象データと動作データ評価値とを関連づける。 The learning unit 127 associates the evaluation target data sent from the output processing unit 122 with the operation data evaluation value sent from the evaluation value calculation unit 126. More specifically, the learning unit 127 identifies the data indicating the output time of the evaluation target sent from the output processing unit 122 together with the evaluation target data, and includes time information corresponding to the output time to calculate the evaluation value. The operation data evaluation value sent from the unit 126 is identified, and the evaluation target data and the operation data evaluation value are associated with each other.

次いで、学習部127は、評価対象データ、すなわち評価対象とされた文章データが、学習DB133に学習データとして格納されているか否かを判定する。学習DB133に学習データとして格納されていないと判定された場合、学習部127は、当該評価対象データを学習データとし、当該評価対象データに関連づけられた動作データ評価値を学習評価値として学習DB133を更新する。すでに評価対象データが学習DB133に学習データとして格納されていると判定された場合、学習部127は、学習DB133の学習評価値のみを、当該評価対象データに関連付けられた動作データ評価値により更新することができる。学習DB133に格納された学習結果は、オペレータ等の要求に応じて、随時、出力処理部122を通じて出力されることができる。 Next, the learning unit 127 determines whether or not the evaluation target data, that is, the sentence data to be evaluated is stored as learning data in the learning DB 133. When it is determined that the learning data is not stored in the learning DB 133, the learning unit 127 uses the evaluation target data as the learning data and the operation data evaluation value associated with the evaluation target data as the learning evaluation value. Update. When it is determined that the evaluation target data has already been stored as learning data in the learning DB 133, the learning unit 127 updates only the learning evaluation value of the learning DB 133 with the operation data evaluation value associated with the evaluation target data. be able to. The learning result stored in the learning DB 133 can be output through the output processing unit 122 at any time in response to a request from the operator or the like.

(7)出力処理
情報処理装置1は、出力処理部122の制御の下、ステップS18において、上記学習処理により更新された評価値のデータを学習DB133から読み出し、オペレータ端末5へ送信する。なお、出力処理部122では、ステップS16で算出された評価値、ステップS15で得られた信頼値、ステップS14で得られた正規化された動きの検出情報および生体検出情報と、属性情報、またはステップS13で得られた被験者データを出力することも可能である。出力先は、表示装置4としてもよく、またオペレータが事前に指定した外部の端末であってもよい。
(7) Output processing The information processing apparatus 1 reads the evaluation value data updated by the learning process from the learning DB 133 and transmits it to the operator terminal 5 in step S18 under the control of the output processing unit 122. In the output processing unit 122, the evaluation value calculated in step S16, the reliability value obtained in step S15, the normalized motion detection information and the biological detection information obtained in step S14, and the attribute information, or It is also possible to output the subject data obtained in step S13. The output destination may be the display device 4, or may be an external terminal designated in advance by the operator.

一例として、学習部127による学習結果をオペレータ端末5などの外部機器に出力する場合、例えば、学習DB133内の学習評価値が高いものから順に学習結果として出力することができる。 As an example, when the learning result by the learning unit 127 is output to an external device such as the operator terminal 5, for example, the learning result can be output in order from the one having the highest learning evaluation value in the learning DB 133.

(効果)
以上詳述したように、この発明の一実施形態では、システムのオペレータ等によって設定された文章データを評価対象として取得し、当該文章データを出力して被験者に提示し、提示した文章データに対する被験者の反応を検出する。特に、被験者の反応のうち、被験者の意識的な反応を表す意識的動作として、押しボタンスイッチが押された回数を検出し、被験者の無意識的な反応を表す無意識的動作として、被験者の顔画像から取得される、喜び、驚き、怒り、悲しみ、無表情の各割合を表す数値を検出する。また、被験者の属性を表す属性データとして、被験者の年齢を取得または推定する。年齢としての属性に対応する規定モデルを用いて、被験者の年齢から、意識的動作データおよび無意識的動作データの各々について、それぞれの信頼の度合いを表す信頼値を算出する。そして、意識的動作データおよび無意識的動作データの各々にそれぞれの信頼値を乗じてから合成することによって、動作データ全体の評価値を算出するようにしている。さらに、評価対象を被験者への提示のために出力した時刻と、動作データが取得された時刻とに基づいて、評価対象とそれに対する評価値とを関連づけて学習に用いるようにしている。
(effect)
As described in detail above, in one embodiment of the present invention, the text data set by the operator of the system or the like is acquired as an evaluation target, the text data is output and presented to the subject, and the subject with respect to the presented text data. Detect the reaction of. In particular, among the reactions of the subject, the facial image of the subject is detected as the number of times the push button switch is pressed as a conscious action representing the conscious reaction of the subject, and as an unconscious action representing the unconscious reaction of the subject. Detects numerical values that represent the percentages of joy, surprise, anger, sadness, and expressionlessness obtained from. In addition, the age of the subject is acquired or estimated as the attribute data representing the attribute of the subject. Using a prescribed model corresponding to the attribute as age, a reliability value representing the degree of trust of each of the conscious movement data and the unconscious movement data is calculated from the age of the subject. Then, the evaluation value of the entire motion data is calculated by multiplying each of the conscious motion data and the unconscious motion data by their respective trust values and then synthesizing them. Further, based on the time when the evaluation target is output for presentation to the subject and the time when the motion data is acquired, the evaluation target and the evaluation value for the evaluation target are associated with each other and used for learning.

したがって、一実施形態によれば、オペレータによる入力または所定のアルゴリズムを用いるなど、評価対象をフレキシブルに設定して評価を行うことができる。また、経時的に収集されたデータを利用できるので、複数のイベントを含む評価対象群についても、全体評価だけでなく、含まれるイベントごとに逐次評価を行うことができる。特に、時間的に連続した一連のイベントについても、イベントを中断させることなく、所望のタイミングおよび所望の期間について、より詳細かつ正確な評価を行うことができる。さらに、属性を加味した評価が行えるので、来場者等の年代や性別を問わず被験者もしくは評価者になってもらうことができ、より多くの標本数に基づいた評価を行うことができる。また、大人では表出しにくい種類の反応を、子どもの被験者から検出することにより、従来は得がたかった多様な評価を行うことができる。 Therefore, according to one embodiment, the evaluation target can be flexibly set and the evaluation can be performed by inputting by the operator or using a predetermined algorithm. In addition, since the data collected over time can be used, it is possible to perform not only the overall evaluation but also the sequential evaluation for each event included in the evaluation target group including a plurality of events. In particular, even for a series of events that are continuous in time, a more detailed and accurate evaluation can be performed for a desired timing and a desired period without interrupting the event. Furthermore, since the evaluation can be performed in consideration of the attributes, it is possible to have the subject or the evaluator regardless of the age and gender of the visitors, and the evaluation based on a larger number of samples can be performed. In addition, by detecting a type of reaction that is difficult for adults to express from a child subject, it is possible to perform various evaluations that were difficult to obtain in the past.

複数種類の動作情報を入力に用いる場合にも、それぞれに被験者の属性に基づく重み付けをして評価に用いることができるので、より信頼性の高い評価を行うことができる。また、属性に応じて異なるモデルを設定することにより、性差よりも年齢差の因子を強めるなど、システムの管理者等が評価環境を自由に設定することもできる。属性に応じたモデルは、シグモイド関数等のフィッティングにより最適化を図ることもできる。さらに、複数の属性を加味したより詳細な評価値を算出することもできる。また、上記評価値算出方法は、取得する動作データおよび属性データの種類が増えても適用できるので、評価に用いるデータをシステム管理者が自由に設定することができる。 Even when a plurality of types of motion information are used for input, each of them can be weighted based on the attributes of the subject and used for the evaluation, so that a more reliable evaluation can be performed. In addition, by setting different models according to the attributes, the system administrator or the like can freely set the evaluation environment, such as strengthening the factor of age difference rather than gender difference. The model according to the attribute can be optimized by fitting a sigmoid function or the like. Further, it is possible to calculate a more detailed evaluation value in consideration of a plurality of attributes. Further, since the evaluation value calculation method can be applied even if the types of operation data and attribute data to be acquired increase, the system administrator can freely set the data used for evaluation.

また、一実施形態によれば、5種類の表情それぞれの割合を検出し、正規化して評価に用いているので、単に笑顔だけを検出する場合に比べ、より複雑かつ多様な評価を行うことができる。また、押しボタンスイッチを2個用意し、被験者が面白いと感じたときにボタンスイッチを押下した回数だけでなく、面白くないと感じたときに押下した回数も評価に用いているので、より正確な評価を行うことができる。 Further, according to one embodiment, since the ratios of each of the five types of facial expressions are detected, normalized and used for the evaluation, more complicated and diverse evaluations can be performed as compared with the case where only a smile is detected. it can. In addition, two pushbutton switches are prepared, and not only the number of times the subject pressed the button switch when he / she felt it was interesting, but also the number of times he / she pressed it when he / she felt it was not interesting was used for evaluation, so it was more accurate. Evaluation can be performed.

[他の実施形態]
なお、この発明は上記実施形態に限定されるものではない。例えば、動き情報検出部211が備える検出装置の一例として、被験者が操作可能な押しボタンスイッチを示したが、被験者が評価スコアや感想等を入力できるキーボードやディスプレイを用いることも可能である。また、被験者の拍手を検出する音量センサや振動センサ等を採用することもできる。また、測距センサ等で位置情報を取得することも可能である。また、加速度センサだけでなく、角速度センサや地磁気センサなどを用いることも可能である。
[Other Embodiments]
The present invention is not limited to the above embodiment. For example, although a push button switch that can be operated by the subject is shown as an example of the detection device included in the motion information detection unit 211, it is also possible to use a keyboard or display on which the subject can input an evaluation score, an impression, or the like. Further, a volume sensor, a vibration sensor, or the like that detects the applause of the subject can also be adopted. It is also possible to acquire position information with a distance measuring sensor or the like. Moreover, it is also possible to use not only an acceleration sensor but also an angular velocity sensor, a geomagnetic sensor and the like.

また、評価対象が情報処理装置1の出力処理部122を経て提示される実施例を説明したが、必ずしも出力処理部122を経由する必要はない。さらに、上述のように、評価対象の提示方法は、表示装置4上での提示に限られるものではない。評価対象は、他の外部機器を用いて表示装置4上に出力されることもでき、図示しないスピーカ等により音声出力されることもでき、実演によって提示されることもでき、様々な実施形態が可能である。 Further, although the embodiment in which the evaluation target is presented via the output processing unit 122 of the information processing apparatus 1 has been described, it is not always necessary to pass through the output processing unit 122. Further, as described above, the method of presenting the evaluation target is not limited to the presentation on the display device 4. The evaluation target can be output on the display device 4 using another external device, can be output as audio by a speaker (not shown), or can be presented by a demonstration. It is possible.

信頼性評価に用いる規定モデルの例としてシグモイド関数を示したが、他の様々な関数を用いることが可能である。また、動作データを意識的動作データと無意識的動作データとに分離して信頼値を求める手法を例示したが、動作データを分離せずに、属性に応じた信頼値を求めることもできる。 The sigmoid function is shown as an example of the specified model used for reliability evaluation, but various other functions can be used. Further, although the method of obtaining the reliability value by separating the operation data into the conscious operation data and the unconscious operation data has been illustrated, it is also possible to obtain the reliability value according to the attribute without separating the operation data.

さらに、学習データが学習DB内にあるか否かの判定をして更新を行う学習例を挙げて説明したが、学習方法は、システム管理者が適切に設定することができる。 Further, although the learning example of determining whether or not the learning data is in the learning DB and updating the learning data has been described, the learning method can be appropriately set by the system administrator.

その他、動作データおよび属性データの種類やその取得手段、信頼値算出の方法、ならびに一連の処理手順および処理内容等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。 In addition, the types of operation data and attribute data, their acquisition means, the method of calculating the reliability value, a series of processing procedures, processing contents, and the like can be variously modified and implemented without departing from the gist of the present invention.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, the present invention is not limited to the above-described embodiment as it is, and at the implementation stage, the components can be modified and embodied without departing from the gist thereof. In addition, various inventions can be formed by an appropriate combination of a plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components from different embodiments may be combined as appropriate.

1…情報処理装置、2…被験者情報検出機器、3…被験者、4…表示装置、5…オペレータ端末、11…入出力インタフェースユニット、12…処理ユニット、13…記憶ユニット、21…動作情報検出部、22…属性情報検出部、23…出力部、121…評価対象取得部、122…出力処理部、123…データ取得部、124…正規化部、125…信頼値算出部、126…評価値算出部、127…学習部、131…データ記憶部、132…信頼性評価データベース、133…学習データベース、134…出力データ記憶部、211…動き情報検出部、212…生体情報検出部。 1 ... Information processing device, 2 ... Subject information detection device, 3 ... Subject, 4 ... Display device, 5 ... Operator terminal, 11 ... Input / output interface unit, 12 ... Processing unit, 13 ... Storage unit, 21 ... Operation information detection unit , 22 ... Attribute information detection unit, 23 ... Output unit, 121 ... Evaluation target acquisition unit, 122 ... Output processing unit, 123 ... Data acquisition unit, 124 ... Normalization unit, 125 ... Reliability value calculation unit, 126 ... Evaluation value calculation Units 127 ... Learning unit, 131 ... Data storage unit, 132 ... Reliability evaluation database, 133 ... Learning database, 134 ... Output data storage unit, 211 ... Motion information detection unit, 212 ... Biological information detection unit.

Claims (6)

評価対象に対する被験者の反応に基づいて前記評価対象の評価を行う評価装置であって、
前記評価対象に対する前記被験者の反応を表す動作データを取得する第1の取得部と、
前記動作データを、前記被験者の意識的な反応を表す意識的動作データと、前記被験者の無意識な反応を表す無意識的動作データとに分離する分離部と、
前記意識的動作データの信頼値と、前記無意識的動作データの信頼値とを算出する信頼値算出処理部と、
前記意識的動作データ、前記無意識的動作データ、前記意識的動作データの信頼値、および前記無意識的動作データの信頼値に基づいて、前記評価対象に対する評価値を算出する評価値算出部と
を具備する評価装置。
An evaluation device that evaluates the evaluation target based on the reaction of the subject to the evaluation target.
A first acquisition unit that acquires motion data representing the reaction of the subject to the evaluation target, and
A separation unit that separates the motion data into conscious motion data representing the conscious reaction of the subject and unconscious motion data representing the unconscious reaction of the subject.
A reliability value calculation processing unit that calculates a reliability value of the conscious operation data and a reliability value of the unconscious operation data,
It is provided with an evaluation value calculation unit that calculates an evaluation value for the evaluation target based on the conscious movement data, the unconscious movement data, the reliability value of the conscious movement data, and the reliability value of the unconscious movement data. Evaluation device.
前記評価値算出部は、前記意識的動作データに前記意識的動作データの信頼値を乗じて得られた値と、前記無意識的動作データに前記無意識的動作データの信頼値を乗じて得られた値とを合成することにより、前記評価値を算出する、請求項1に記載の評価装置。The evaluation value calculation unit was obtained by multiplying the conscious motion data by the reliability value of the conscious motion data and the unconscious motion data by the confidence value of the unconscious motion data. The evaluation device according to claim 1, wherein the evaluation value is calculated by synthesizing the value with the value. 前記被験者の属性を表す属性データを取得する第2の取得部をさらに備え、A second acquisition unit for acquiring attribute data representing the attributes of the subject is further provided.
前記信頼値算出処理部は、前記属性データに基づいて、前記意識的動作データの信頼値および前記無意識的動作データの信頼値を算出する、請求項1または2に記載の評価装置。The evaluation device according to claim 1 or 2, wherein the reliability value calculation processing unit calculates a reliability value of the conscious operation data and a reliability value of the unconscious operation data based on the attribute data.
前記信頼値算出処理部は、前記被験者の属性を示す値をx、前記被験者の属性の種類ごとにあらかじめ定められた値をα、βとするとき、前記意識的動作データの信頼値を
f(x)=1/(1+exp(−αx+β))
により算出し、前記無意識的動作データの信頼値を1−f(x)により算出する、
請求項に記載の評価装置。
When the value indicating the attribute of the subject is x and the predetermined values for each type of the attribute of the subject are α and β, the reliability value calculation processing unit sets the reliability value of the conscious movement data to f ( x) = 1 / (1 + exp (-αx + β))
The reliability value of the unconscious operation data is calculated by 1-f (x).
The evaluation device according to claim 3 .
プロセッサと記憶部とを備える評価装置が、評価対象に対する被験者の反応に基づいて前記評価対象の評価を行う評価方法であって、
前記評価対象に対する前記被験者の反応を表す動作データを取得することと、
前記動作データを、前記被験者の意識的な反応を表す意識的動作データと、前記被験者の無意識な反応を表す無意識的動作データとに分離することと、
前記意識的動作データの信頼値と、前記無意識的動作データの信頼値とを算出することと、
前記意識的動作データ、前記無意識的動作データ、前記意識的動作データの信頼値、および前記無意識的動作データの信頼値に基づいて、前記評価対象に対する評価値を算出することと
を具備する評価方法。
An evaluation device including a processor and a storage unit is an evaluation method for evaluating the evaluation target based on the reaction of the subject to the evaluation target.
Acquiring motion data representing the reaction of the subject to the evaluation target,
Separating the motion data into conscious motion data representing the conscious reaction of the subject and unconscious motion data representing the unconscious reaction of the subject.
To calculate the reliability value of the conscious operation data and the reliability value of the unconscious operation data,
An evaluation method comprising calculating an evaluation value for the evaluation target based on the conscious movement data, the unconscious movement data, the reliability value of the conscious movement data, and the reliability value of the unconscious movement data. ..
請求項1乃至請求項の何れかに記載の評価装置の各手段をプロセッサに実行させるプログラム。
A program that causes a processor to execute each means of the evaluation device according to any one of claims 1 to 4 .
JP2017236350A 2017-12-08 2017-12-08 Evaluation device, method and program Active JP6824146B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017236350A JP6824146B2 (en) 2017-12-08 2017-12-08 Evaluation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236350A JP6824146B2 (en) 2017-12-08 2017-12-08 Evaluation device, method and program

Publications (2)

Publication Number Publication Date
JP2019105882A JP2019105882A (en) 2019-06-27
JP6824146B2 true JP6824146B2 (en) 2021-02-03

Family

ID=67062460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236350A Active JP6824146B2 (en) 2017-12-08 2017-12-08 Evaluation device, method and program

Country Status (1)

Country Link
JP (1) JP6824146B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4449552B2 (en) * 2004-04-19 2010-04-14 ソニー株式会社 Information processing apparatus and method, and program
EP1817919A4 (en) * 2004-11-29 2011-07-20 Arbitron Inc Systems and processes for use in media and/or market research
JP2009207837A (en) * 2008-03-06 2009-09-17 Nippon Koden Corp Biological signal measuring device
US8509820B2 (en) * 2009-06-30 2013-08-13 Ntt Docomo, Inc. Location identifying method and location identifying device
JP2014035594A (en) * 2012-08-07 2014-02-24 Dts Kk Emotion evaluation system for communicator on the basis of gsr value and biological information
JP6617013B2 (en) * 2015-11-26 2019-12-04 ロボットスタート株式会社 Robot advertising system, robot, robot advertising method and program
JP2017135475A (en) * 2016-01-25 2017-08-03 フィールズ株式会社 Evaluation device, evaluation method and computer program

Also Published As

Publication number Publication date
JP2019105882A (en) 2019-06-27

Similar Documents

Publication Publication Date Title
US11937929B2 (en) Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
Al-Shaqi et al. Progress in ambient assisted systems for independent living by the elderly
Behoora et al. Machine learning classification of design team members' body language patterns for real time emotional state detection
Carneiro et al. Multimodal behavioral analysis for non-invasive stress detection
Vinola et al. A survey on human emotion recognition approaches, databases and applications
US20220392625A1 (en) Method and system for an interface to provide activity recommendations
WO2016195474A1 (en) Method for analysing comprehensive state of a subject
Jaques et al. Understanding and predicting bonding in conversations using thin slices of facial expressions and body language
WO2019086856A1 (en) Systems and methods for combining and analysing human states
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
JP2016177483A (en) Communication support device, communication support method, and program
Kang et al. A visual-physiology multimodal system for detecting outlier behavior of participants in a reality TV show
Medjden et al. Adaptive user interface design and analysis using emotion recognition through facial expressions and body posture from an RGB-D sensor
Rincon et al. Detecting emotions through non-invasive wearables
US20190008466A1 (en) Life log utilization system, life log utilization method, and recording medium
Lei et al. Emotion or expressivity? an automated analysis of nonverbal perception in a social dilemma
US20230011923A1 (en) System for providing a virtual focus group facility
JP6824146B2 (en) Evaluation device, method and program
El Arbaoui et al. A Survey on the Application of the Internet of Things in the Diagnosis of Autism Spectrum Disorder
Ktistakis et al. Applications of ai in healthcare and assistive technologies
JP2019212263A (en) Information processor and program
KR20210150988A (en) Apparatus and method for acquiring of vitality quotient
WO2022145041A1 (en) Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program
WO2022145038A1 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
WO2022145039A1 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210112

R150 Certificate of patent or registration of utility model

Ref document number: 6824146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150