JP2671666B2 - Kansei evaluation device - Google Patents

Kansei evaluation device

Info

Publication number
JP2671666B2
JP2671666B2 JP26454591A JP26454591A JP2671666B2 JP 2671666 B2 JP2671666 B2 JP 2671666B2 JP 26454591 A JP26454591 A JP 26454591A JP 26454591 A JP26454591 A JP 26454591A JP 2671666 B2 JP2671666 B2 JP 2671666B2
Authority
JP
Japan
Prior art keywords
evaluation
image information
viewpoint
subject
sensitivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP26454591A
Other languages
Japanese (ja)
Other versions
JPH05108002A (en
Inventor
照子 吉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP26454591A priority Critical patent/JP2671666B2/en
Publication of JPH05108002A publication Critical patent/JPH05108002A/en
Application granted granted Critical
Publication of JP2671666B2 publication Critical patent/JP2671666B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、人の感性に基づいた商
品を開発するために、設計から生産にいたる各工程で広
く用いられている感性評価装置に関し、特に感性評価の
精度および効率を向上させた感性評価装置に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sensitivity evaluation device which is widely used in each process from design to production in order to develop a product based on human sensitivity, and particularly to improve accuracy and efficiency of sensitivity evaluation. The present invention relates to an improved sensitivity evaluation device.

【0002】[0002]

【従来の技術】近年、感性評価装置が種々提案されてい
る。このような感性評価装置における感性評価は主に心
理学的評価法が用いられる。なかでもデザイン(商品の
意図を表現するための色や形の組み合わせ)等がどのよ
うにユーザに受けとめられるかをしらべるために、心理
学的評価法としてほぼ確立されたセマンティック・ディ
ファレンシャル法(以下、単にSD法という)がよく用
いられる。SD法は多くの形容詞対で構成された尺度を
被験者に評価させることによって評価対象(物や言葉)
が与えるイメージを分析するための方法である。また、
この評価に際しては、主観的判断基準が変動することを
少なくするために、評価に先だって評価対象全体を被験
者に見せるという手続きが一般にとられる。
2. Description of the Related Art In recent years, various sensitivity evaluation devices have been proposed. Psychological evaluation methods are mainly used for the sensitivity evaluation in such sensitivity evaluation devices. Among them, the semantic differential method, which is almost established as a psychological evaluation method (hereinafter, referred to as “the combination of colors and shapes for expressing the intention of a product”), is investigated in order to find out how the user can perceive it. The SD method) is often used. The SD method is an evaluation target (object or word) by having a subject evaluate a scale composed of many adjective pairs.
Is a method for analyzing the images given by. Also,
At the time of this evaluation, in order to reduce the fluctuation of the subjective judgment criteria, a procedure of showing the entire evaluation target to the subject prior to the evaluation is generally used.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、SD法
の適用において問題となるのは、図9に示すように各評
価対象の評価の再現性があまり良くない点である。すな
わち、この図9においては1回目と2回目とでは評価結
果が大幅に異なり、例えば評価対象がはっきりした印象
を持つのか、ぼんやりした印象を持つのか判断すること
が出来ない。
However, a problem in the application of the SD method is that the reproducibility of the evaluation of each evaluation object is not so good as shown in FIG. That is, in FIG. 9, the evaluation results are significantly different between the first time and the second time, and it is impossible to judge whether the evaluation target has a clear impression or a vague impression, for example.

【0004】このことは、例えば新規開発品に対する評
価の良否を判断する際、非常に重大なこととなる。この
再現性不良のおもな原因は評価を始める前に設定した主
観的判断基準が、各評価対象を評価する過程で、変化す
ることがあげられる。
This is very important, for example, when judging the quality of evaluation of a newly developed product. The main cause of this poor reproducibility is that the subjective judgment criteria set before starting the evaluation change in the process of evaluating each evaluation target.

【0005】従来、この問題点を解決するために、複数
の心理学的評価法を組み合わせて適用することによって
精度の向上を図る方法が用いられることがある。しか
し、このような心理学的方法のみでは、被験者が何をど
のように見て評価を行っているかという評価の過程がほ
とんど分からないため、必ずしも精度を向上させうると
は限らない。また、複数の心理学的方法を併用すること
によって、多くの時間が必要となり商品開発に適用する
には困難を伴う。
Conventionally, in order to solve this problem, a method of improving accuracy by applying a plurality of psychological evaluation methods in combination may be used. However, since such a psychological method alone hardly reveals the evaluation process of what the subject looks at and how the evaluation is performed, the accuracy cannot always be improved. In addition, by using a plurality of psychological methods together, it takes a lot of time and it is difficult to apply the method to product development.

【0006】本発明は上記課題に鑑みてなされたもの
で、被験者の感性に基づく評価データの信頼性を向上さ
せることの出切る感性評価装置を提供することを目的と
する。
The present invention has been made in view of the above problems, and an object of the present invention is to provide a sensitivity evaluation device that can improve reliability of evaluation data based on the sensitivity of a subject.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
本願第1の発明は、視覚的に与えられる情報に対する感
性評価を行う被験者の視点の位置を検出する視点検出手
段と、前記感性評価によって得られる感性評価データを
入力する入力手段と、この入力手段から入力される感性
評価データを前記視点検出手段から入力された視点検出
データをもとに解析する解析手段とを有することを要旨
とする。
In order to achieve the above object, a first invention of the present application is a viewpoint detecting means for detecting a position of a subject's viewpoint for visually evaluating information, and a viewpoint detecting means. The gist is to have an input means for inputting the obtained affective evaluation data and an analyzing means for analyzing the affective evaluation data input from the input means based on the viewpoint detection data input from the viewpoint detecting means. .

【0008】また、本願第2の発明は、呈示される複数
の画像情報間の類似についての感性評価を行う感性評価
装置において、前記画像情報に対する感性評価を行う際
の被験者の画像上における視点の位置を検出する視点検
出手段と、前記感性評価によって得られる複数の画像情
報間の類似性についての感性評価データを入力する入力
手段と、この入力手段から入力される感性評価データを
前記視点検出手段から入力された検出データをもとに評
価する評価手段とを有することを要旨とする。
A second aspect of the present invention is a sensitivity evaluation apparatus for evaluating the similarity between a plurality of presented image information, and a viewpoint of an image of a subject at the time of performing the sensitivity evaluation on the image information. Point-of-view detection means for detecting a position, input means for inputting sensitivity evaluation data regarding similarity between a plurality of image information obtained by the sensitivity evaluation, and sensitivity evaluation data input from this input means for the viewpoint detection means. The gist is to have an evaluation means for evaluating based on the detection data input from.

【0009】[0009]

【作用】本願第1の発明の感性評価装置は、まず被験者
に対し視覚的に情報を与え、この情報に対する感性評価
を行う。このときの被験者の視点の位置を視点検出手段
で検出するとともに、この視点検出データを解析手段に
出力する。この解析手段は前記感性評価によって得られ
る感性評価データをこの視点検出データをもとに解析す
る。
The sensitivity evaluation apparatus of the first invention of the present application first visually gives information to the subject and evaluates the sensitivity to this information. The position of the subject's viewpoint at this time is detected by the viewpoint detecting means, and this viewpoint detection data is output to the analyzing means. The analyzing means analyzes the affective evaluation data obtained by the affective evaluation based on the viewpoint detection data.

【0010】また、本願第2の発明の感性評価装置は、
図2に示すように、まずステップS1,S3で被験者に
対し視覚的に複数の画像情報を与え、この画像情報間の
類似についての感性評価を行う。このときの被験者の画
像上における視点を視点検出手段で検出し(ステップS
5、S7)、検出データを評価手段に出力する。この評
価手段はステップS9で前記感性評価によって得られる
複数の画像情報間の類似性についての感性評価データを
検出データをもとに評価し、例えば当該感性評価データ
を採用するか(ステップS11)、否か(ステップS1
3)を決定する。
The sensitivity evaluation device of the second invention of the present application is
As shown in FIG. 2, first, in steps S1 and S3, a plurality of pieces of image information are visually provided to the subject, and the sensitivity of the similarity between the pieces of image information is evaluated. The viewpoint on the image of the subject at this time is detected by the viewpoint detecting means (step S
5, S7), the detection data is output to the evaluation means. This evaluation means evaluates the affective evaluation data on the similarity between the plurality of image information obtained by the affective evaluation in step S9 based on the detected data, and, for example, adopts the affective evaluation data (step S11), Whether or not (step S1
3) is determined.

【0011】[0011]

【実施例】以下、図面を参照して本発明に係る一実施例
を説明する。図1は本実施例における感性評価装置のブ
ロック図であり、解析手段及び評価手段を構成するコン
ピュータ1と、被験者に対し視覚的に複数の画像情報を
与えることができる評価用画像呈示装置3と、視点検出
手段としての眼球運動計測装置5と、入力手段としての
感性評価入力装置7と、感性評価の実験経過を確認する
ための呈示画像情報に対する被験者の視点の位置の表
示、被験者が感性評価値を入力するために必要な評価項
目の表示及びコンピュータ1によって解析され或いは評
価された感性評価結果の表示を行うモニタ9と、モニタ
9により表示された感性評価結果を可視情報としてプリ
ントアウトするプリンタ11によって構成される。
An embodiment according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a sensitivity evaluation device according to the present embodiment, which includes a computer 1 forming an analysis unit and an evaluation unit, and an evaluation image presentation device 3 capable of visually giving a plurality of image information to a subject. An eye movement measuring device 5 as a viewpoint detecting means, a kansei evaluation input device 7 as an input means, a display of the position of the viewpoint of the subject with respect to the presented image information for confirming the experimental progress of the kansei evaluation, and the subject's kansei evaluation A monitor 9 for displaying evaluation items necessary for inputting a value and a kansei evaluation result analyzed or evaluated by the computer 1, and a printer for printing out the kansei evaluation result displayed by the monitor 9 as visible information. It is composed of 11.

【0012】次に上述したブロックの構成について説明
する。
Next, the configuration of the above blocks will be described.

【0013】評価用画像呈示装置3は、図3に示すよう
に例えば2つの投影装置3A,3Bによってスクリーン
10上に画像情報A,Bを投影するものである。画像処
理装置3Cには画像情報が予め記憶されるコンピュータ
1からの指示により任意若しくは予め定めた画像情報を
投影装置に出力するものである。評価対象として与えら
れる画像情報はコンピュータグラフィックスによる3次
元画像で呈示される。なお、評価用画像呈示装置3は、
投影装置とスクリーンによって構成されるものに限ら
ず、大型ディスプレイに任意の数の画像情報を呈示させ
ても良い。また、呈示する評価用画像情報の切り換え
は、被験者自身または感性評価装置の操作者がキーボー
ドを介してコンピュータ1に指示することにより行うこ
とができ、コンピュータ1は指示に従って評価用画像呈
示装置3により呈示する画像情報を変えるように予めプ
ログラムされている。
As shown in FIG. 3, the evaluation image presenting apparatus 3 projects image information A and B on the screen 10 by, for example, two projection apparatuses 3A and 3B. The image processing apparatus 3C outputs arbitrary or predetermined image information to the projection apparatus according to an instruction from the computer 1 in which the image information is stored in advance. The image information given as an evaluation target is presented as a three-dimensional image by computer graphics. The evaluation image presenting apparatus 3 is
The image information is not limited to the one configured by the projection device and the screen, and a large display may present any number of image information. Further, the switching of the evaluation image information to be presented can be performed by the subject himself or the operator of the sensitivity evaluation device instructing the computer 1 via the keyboard, and the computer 1 operates the evaluation image presenting device 3 in accordance with the instruction. It is pre-programmed to change the image information presented.

【0014】眼球運動計測装置5は、角膜反射型或いは
強膜反射型アイカメラ(例えば、ナック社製EMR−6
00)が適用され、被験者の頭部に装着される視野撮像
装置及び光源の目の反射光の検出装置によって構成され
る。この眼球運動計測装置5は被験者の眼球運動を測定
して、被験者の知覚する視野の中心視の対象点(以下視
点という)の位置を座標としてコンピュータ1に出力す
るものである。なお、コンピュータ1には、頭部の位置
に対応して、評価用画像呈示装置3により呈示される評
価対象としての画像情報の領域が被験者の視野内の座標
上ではどの位置になるのかが予め設定されている。よっ
て、眼球運動計測装置5から出力される視点の座標デー
タとコンピュータ1に予め設定された画像情報領域の座
標データに基づき被験者がどの画像情報を見ているかを
知ることができる。
The eye movement measuring device 5 is a corneal reflection type or sclera reflection type eye camera (for example, EMR-6 manufactured by Nac Co.).
00) is applied, and is configured by a visual field imaging device mounted on the head of the subject and a device for detecting reflected light from the eyes of the light source. The eye movement measuring device 5 measures the eye movement of a subject and outputs the position of a target point (hereinafter referred to as a viewpoint) of the central vision of the visual field perceived by the subject to the computer 1 as coordinates. It should be noted that the computer 1 previously knows, in correspondence with the position of the head, which position on the coordinates within the visual field of the subject the image information area to be presented by the evaluation image presenting apparatus 3 is. It is set. Therefore, it is possible to know which image information the subject is looking at based on the coordinate data of the viewpoint output from the eye movement measuring device 5 and the coordinate data of the image information area preset in the computer 1.

【0015】感性評価入力装置7は、例えば、コンピュ
ータ1に接続されたキーボードやマウスにより構成さ
れ、モニタ9により表示された評価項目に対する被験者
の感性評価はキーボード等を介して入力される。なお、
評価項目の表示は全感性評価入力の度に全てを表示する
ようにしても良いしキーボードを介して指示することに
より順次表示されるようにしても良い。また、感性評価
の入力は、被験者自身がモニタに表示された評価項目を
みて被験者自身で入力しても良いし、操作者が被験者に
評価項目を問いかけ被験者が回答した感性評価を操作者
が入力しても良い。
The sensitivity evaluation input device 7 is composed of, for example, a keyboard and a mouse connected to the computer 1, and the sensitivity evaluation of the subject for the evaluation item displayed on the monitor 9 is input via the keyboard or the like. In addition,
All of the evaluation items may be displayed each time the whole affective evaluation is input, or may be sequentially displayed by instructing via the keyboard. The sensitivity evaluation may be input by the subject himself or herself by looking at the evaluation items displayed on the monitor, or the operator may ask the subject about the evaluation items and the operator may input the sensitivity evaluations answered by the subject. You may.

【0016】ここで、感性評価の方法について説明す
る。被験者が行う感性評価は、一般に良く用いられてい
るSD法を適用する。まず、評価に先立ち、評価対象が
5,6点の場合には同時に全評価対象の画像情報を呈示
し、それ以上の場合は2つずつまたは簡便にいくつかの
グループに分けて呈示する。なお、呈示開示時から眼球
運動計測装置5により被験者の視点位置が計測されてい
る。次いで、評価対象としての画像情報を1つずつ呈示
する。被験者は呈示された画像情報についてSD法評価
を行い、各評価項目に対する感性評価値をキーボードか
ら5段階で入力する。被験者が全ての評価対象について
感性評価を行ったらキーボードの所定のキーを押すこと
により感性評価値の入力を終了する。
Here, a method of evaluating the sensitivity will be described. The commonly used SD method is applied to the sensitivity evaluation performed by the subject. First, prior to the evaluation, the image information of all the evaluation objects is presented at the same time when the evaluation objects are 5, 6 points, and in the case of more than that, it is presented two by two or simply divided into several groups. It should be noted that the viewpoint position of the subject has been measured by the eye movement measuring device 5 since the time of disclosure of the presentation. Next, the image information to be evaluated is presented one by one. The subject performs the SD method evaluation on the presented image information, and inputs the affective evaluation value for each evaluation item from the keyboard in five levels. When the subject has performed the affective evaluation on all the evaluation targets, the input of the affective evaluation value is completed by pressing a predetermined key on the keyboard.

【0017】次に、本発明者が知見した、2つの画像情
報についての類似性と視点の動きとの関係を図3から図
5に基づき説明する。まず、図3に示すように同一の被
験者に複数組の2つの画像情報を見せて似ているか否か
を評価させた。なお、複数組の2つの画像情報の中には
画像情報A,Bの組がランダムに呈示されるように予め
定めた。また被験者が評価をしている際、被験者が2つ
の画像情報をどのように見ているかを視点の動きによっ
て検出するようにした。以上の評価実験の結果、例え同
じ画像情報A,Bを呈示したとしても被験者は、似てい
ると評価した場合と似ていないと評価した場合があっ
た。これは、画像情報A,Bを2回呈示する間に呈示さ
れた画像情報により被験者の感性評価基準が変化したた
めと考えられる。
Next, the relationship between the similarity of the two pieces of image information and the movement of the viewpoint, which the present inventor has found, will be described with reference to FIGS. 3 to 5. First, as shown in FIG. 3, the same subject was shown two sets of two pieces of image information to evaluate whether or not they were similar. It should be noted that it is predetermined that a set of image information A and B is randomly presented in the plurality of sets of two image information. Also, when the subject is evaluating, how the subject views the two image information is detected by the movement of the viewpoint. As a result of the above-described evaluation experiment, there were cases where the subject evaluated that the image information A and B did not resemble each other even if the same image information A and B were presented. It is considered that this is because the subject's sensibility evaluation standard was changed by the image information presented while the image information A and B were presented twice.

【0018】図4は、呈示した画像情報A,Bに対し被
験者が異なる評価をした場合の検出結果からどの画像情
報を注視しているかを観察時間毎に対応させて表したも
のである。図4(a)は被験者が全く似ていないと評価
した場合の被験者の視点の動きを示し、図4(b)はや
や似ていると評価した場合の被験者の視点の動きを示し
たものである。また図4(a),(b)に示される各帯
状部分は、被験者の視点の位置が画像情報A,Bの領域
にあり、かつ被験者が画像情報A,B内の情報を処理し
ている時間(以下、注視時間という)を表し、帯状部分
間の空白部分は視点の位置が画像情報A,Bの情報を処
理していない時間、例えば画像情報A,B内に視点があ
っても視点が定まっていない時間、または画像情報A,
Bの領域外にある時間、例えば視点が画像情報Aから画
像情報Bへ移動している時間である。
FIG. 4 shows which image information is gazed from the detection result when the subject makes different evaluations of the presented image information A and B in association with each observation time. FIG. 4 (a) shows the movement of the subject's viewpoint when the subject is evaluated to be dissimilar, and FIG. 4 (b) shows the movement of the subject's viewpoint when the subject is evaluated to be somewhat similar. is there. Further, in each of the strip-shaped portions shown in FIGS. 4A and 4B, the position of the viewpoint of the subject is in the area of the image information A and B, and the subject processes the information in the image information A and B. Time (hereinafter referred to as "gaze time") is represented, and the blank portion between the band-shaped portions is the time when the viewpoint position is not processing the information of the image information A and B, for example, the viewpoint is present in the image information A and B. Is not fixed, or image information A,
The time is outside the area B, for example, the time when the viewpoint moves from the image information A to the image information B.

【0019】なお、被験者が情報を処理しているか否か
の検出は、眼球運動計測装置5にて行われ、具体的には
被験者の視点がある時刻にあった位置から該位置を中心
とする所定の範囲(半径1°以内)内で100msec
以上とどまったか否かを検出することにより行われる。
これは、100msec以下の短い時間では被験者は画
像で表された情報を認識することはできないと考えられ
るからである。
It should be noted that the detection of whether or not the subject is processing information is performed by the eye movement measuring device 5, and specifically, the viewpoint of the subject is centered on the position at a certain time. 100 msec within a given range (within 1 ° radius)
This is performed by detecting whether or not the above is maintained.
This is because it is considered that the subject cannot recognize the information represented by the image in a short time of 100 msec or less.

【0020】この図4(a),(b)から判ることは、
画像情報を最初に処理した時点(注視時間の始点)後、
約3秒までの視点の動きの傾向としては、被験者が似て
いると感じる場合は画像情報A,Bを短い時間の間に交
互に見てから、また似ていないと感じる場合には各画像
情報を比較的長時間それぞれ個別に見た後、短時間画像
情報A,Bを見てから感性評価の決定を行っていること
である。これは、似ていると感じた2つの画像情報に関
しては評価を決定する前に、より詳細な視覚情報を得る
ための感性評価課程を反映するものと考えられる。
What can be seen from FIGS. 4 (a) and 4 (b) is that
After processing the image information for the first time (starting point of gazing time),
As the tendency of the movement of the viewpoint up to about 3 seconds, when the subject feels similar, the image information A and B are alternately viewed in a short time, and when the subject feels dissimilar, each image That is, after individually viewing the information for a relatively long time, the sensitivity evaluation is determined after viewing the short-time image information A and B. It is considered that this reflects the kansei evaluation process for obtaining more detailed visual information before the evaluation is determined for the two pieces of image information that are felt to be similar.

【0021】図5は、全評価対象の感性評価の実験結果
を示す。2つの画像情報に対する視点の動きを表すパラ
メータとして評価対象の注視時間比(T=An+1/B
n)を用いている。図5(a)は、注視時間比と類似性
との関係を表したものであり、図5(b)は、注視時間
比Tを求めるために必要なパラメータである注視時間A
n+1,Bnを説明するための図である。注視時間An
またはBnとは、被験者がn回目に画像情報Aまたは画
像情報Bを見たときの注視時間であり、たとえばnが3
の場合、注視時間比Tは、3回目に画像情報Bを見てい
た時間に対する4回目に画像情報Aを見ていた時間の比
により求めることができる。
FIG. 5 shows the result of an experiment for evaluating the sensitivity of all evaluation objects. The gaze time ratio (T = An + 1 / B) of the evaluation target is used as a parameter indicating the movement of the viewpoint with respect to the two image information.
n) is used. FIG. 5A shows the relationship between the gaze time ratio and the similarity, and FIG. 5B shows the gaze time A which is a parameter required to obtain the gaze time ratio T.
It is a figure for demonstrating n + 1 and Bn. Gaze time An
Alternatively, Bn is a gaze time when the subject views the image information A or the image information B for the nth time, and n is 3 for example.
In this case, the gaze time ratio T can be obtained from the ratio of the time when the image information A was seen the fourth time to the time when the image information B was seen the third time.

【0022】図5を見ると、個人差はあるものの全体的
には、似ていないと感じる場合は図4(a)に示したよ
うに画像情報Aと画像情報Bのそれぞれ注視時間が大き
く変化(小さくなっている)しているため、注視時間比
Tは小さくなることが判る。また似ていると感じる場合
は図4(b)に示したように画像情報A,Bの注視時間
にあまり差がないため注視時間比は大きくなることが判
る。これらのことから、注視時間比を演算し、基準値と
しての指標tと注視時間比とを比較することにより、画
像情報A,Bの類似性(類似しているか否か)を判別す
ることができる。
As shown in FIG. 5, when there are individual differences, but when it is felt that they are not similar to each other as shown in FIG. 4A, the gaze time of image information A and that of image information B change greatly. It can be seen that the gaze time ratio T is small because it is (small). Further, when they are similar to each other, it can be seen that there is not much difference between the gaze times of the image information A and B as shown in FIG. From these, by calculating the gaze time ratio and comparing the index t as the reference value with the gaze time ratio, it is possible to determine the similarity (whether or not the image information A and B are similar). it can.

【0023】なお、指標tの値は評価対象に依存するた
め本装置の使用に先立ち、予備実験を行い設定する必要
がある。この設定は、以下のように行う。まず、実際に
行う感性評価の評価対象と類似した多数の画像情報を呈
示し、被験者にSD法によって評価させ、類似性の判断
を行う。そして画像情報を呈示している時の視線の動き
を検出する。検出結果を図6に示す。なお、図6は、2
00msec毎の視点の動きの軌跡を示している。即
ち、図6(a)は0〜200msec、図6(b)は2
01msec〜400msec,図6(c)は401m
sec〜600msecの時間帯の視点の動きの軌跡を
示している。このような検出結果から図4に示す注視時
間を計測し、注視時間比Tを演算する。この注視時間比
Tと被験者による感性評価(類似性)とについて、図5
(a)に示す表を作成し、類似しているか否かの基準値
を決定し指標tとする。図5(a)の場合であれば、t
=1とする。
Since the value of the index t depends on the object to be evaluated, it is necessary to perform a preliminary experiment and set it before using this device. This setting is performed as follows. First, a large number of pieces of image information similar to the evaluation target of the actual sensitivity evaluation are presented, and the subject is evaluated by the SD method to determine the similarity. Then, the movement of the line of sight when the image information is presented is detected. FIG. 6 shows the detection results. In addition, in FIG.
The locus | trajectory of the movement of the viewpoint for every 00 msec is shown. That is, FIG. 6A shows 0 to 200 msec, and FIG.
01 msec to 400 msec, 401 m in FIG. 6 (c)
The locus | trajectory of the movement of the viewpoint of the time zone of sec-600msec is shown. The gaze time shown in FIG. 4 is measured from such a detection result, and the gaze time ratio T is calculated. FIG. 5 shows the gaze time ratio T and the sensitivity evaluation (similarity) by the subject.
The table shown in (a) is created, and a reference value for similarity is determined and used as an index t. In the case of FIG. 5A, t
= 1.

【0024】次に、コンピュータ1の動作を図7に示し
たフローチャートに基づいて説明する。まず、ステップ
S21では、眼球運動計測装置5から視点の座標データ
を継時的に入力する。そして、入力された視点の座標デ
ータとコンピュータ1に予め設定された画像情報領域の
座標データとに基づき、どの時点にどの画像情報がみら
れていたかを検出する。次にステップS23で、操作者
などによってキーボードなどから入力された評価対象数
iをもとに、全ての評価対象の組合わせを作成すると共
に組合わせ数mを算出する。なお、ステップS23にお
いて、jは作成した組の番号を示す。従って、6つの評
価対象があるときには、組数mは15通り存在し、jは
1〜15となる。
Next, the operation of the computer 1 will be described with reference to the flowchart shown in FIG. First, in step S21, the coordinate data of the viewpoint is continuously input from the eye movement measuring device 5. Then, based on the input viewpoint coordinate data and the coordinate data of the image information area preset in the computer 1, it is detected which image information was seen at which time. Next, in step S23, combinations of all evaluation targets are created and the number of combinations m is calculated based on the evaluation target number i input by the operator or the like from the keyboard or the like. In step S23, j represents the number of the created set. Therefore, when there are 6 evaluation targets, the number of sets m is 15 and j is 1 to 15.

【0025】次にステップS25で各評価対象に対しS
D法により被験者が評価した感性評価値を入力する。次
にステップS27では、jを1とする。そして組合わせ
番号が1番目の組の評価対象についてステップS29以
降の処理を行う。次にステップS29では、ステップS
21での検出結果及びその時刻に基づき、j番目の組
(ここではj=1)の画像情報に対して視点が存在する
場合の内、最初に画像情報を処理した時点から約3秒の
間のデータを基に画像情報毎の注視時間を計測する。例
えば、視点が画像情報A,B,A,B,Cと移動した場
合は、画像情報Bから画像情報Cに移動した時点より前
は画像情報A,Bの組のデータとなり、又視点が最後に
画像情報Bに存在した時点以降は画像情報B,Cの組の
データとなる。そしてこのデータの内、画像情報A,B
の組であれば、最初に画像情報を処理した時点から3秒
の間の各画像情報の注視時間を計測する。この注視時間
に基づき注視時間比T=An+1/Bnを演算する。
Next, in step S25, S
The sensitivity evaluation value evaluated by the subject by the D method is input. Next, in step S27, j is set to 1. Then, the processing from step S29 is performed on the evaluation target of the first combination number. Next, in step S29, step S
Based on the detection result in 21 and the time, in the case where the viewpoint exists for the j-th group (here, j = 1) of image information, for about 3 seconds from the time when the image information is first processed. The gaze time for each image information is measured based on the data of. For example, when the viewpoint moves to the image information A, B, A, B, and C, the data of the group of the image information A and B becomes the data before the time when the viewpoint moves from the image information B to the image information C, and the viewpoint ends. After the time of being present in the image information B, the data becomes a set of image information B and C. Of this data, the image information A, B
In the case of the set, the gaze time of each image information for 3 seconds from the time when the image information is first processed is measured. Based on this gaze time, a gaze time ratio T = An + 1 / Bn is calculated.

【0026】なお、演算の際にステップS21での検出
結果に基づいて2つの画像情報を交互に見た回数を判別
し、2回未満の場合は、その組の画像情報は比較されて
いないということであるから感性評価に対する視点の動
きによる信頼性の推定は困難であるので、被験者が入力
した感性評価値を統計処理に供するためにそのまま保存
する(ステップS31)。一方2つの画像情報を交互に
見た回数が2回以上の場合はその組の画像情報は交互に
比較され類似性に関する判断が可能であるため、ステッ
プS33で注視時間比T(=An+1/Bn)と指標t
とを比較することにより2つの画像情報の類似性を判断
する。即ち注視時間Tが指標tより大きい場合(YE
S)は、2つの画像情報は類似していると判断される。
また注視時間Tが指標t以下の場合(NO)は、2つの
画像情報は類似していないと判断される。
In the calculation, the number of times two pieces of image information are alternately viewed is determined based on the detection result in step S21. If the number is less than two, the image information of the set is not compared. Since it is difficult to estimate the reliability of the affective evaluation based on the movement of the viewpoint, the affective evaluation value input by the subject is saved as it is for the statistical processing (step S31). On the other hand, when the number of times the two pieces of image information are viewed alternately is two or more, the sets of image information are compared alternately and it is possible to determine the similarity. Therefore, in step S33, the gazing time ratio T (= An + 1 / Bn ) And the index t
The similarity between the two pieces of image information is determined by comparing and. That is, when the gaze time T is larger than the index t (YE
In S), it is determined that the two pieces of image information are similar.
If the gaze time T is equal to or less than the index t (NO), it is determined that the two pieces of image information are not similar.

【0027】次に、ステップS35,S37ではステッ
プS25で入力された全評価対象の感性評価値内、j番
目の組(ここではj=1)の画像情報に対応する2つの
感性評価値を比較する。比較の方法は、例えば各評価項
目にする値同士を比較し一致もしくは所定範囲内にある
か否かを判断することにより行う。ステップS35でY
ESの場合は、注視時間比によっては類似していると判
断され(ステップ33)、かつ感性評価値によっても類
似していると判断されたことになる。またステップS3
7でNOの場合は、注視時間比によっては類似していな
いと判断され(ステップ33)、かつ感性評価値によっ
ても類似していないと判断されたことになる。
Next, in steps S35 and S37, two sensitivity evaluation values corresponding to the image information of the j-th group (here, j = 1) in the sensitivity evaluation values of all the evaluation objects input in step S25 are compared. To do. The comparison method is performed, for example, by comparing the values of the respective evaluation items and determining whether they match or are within a predetermined range. Y in step S35
In the case of ES, it is judged that they are similar depending on the gaze time ratio (step 33), and it is judged that they are also similar according to the affective evaluation value. Step S3
In the case of 7 and NO, it is determined that they are not similar depending on the gaze time ratio (step 33), and it is also determined that they are not similar according to the affective evaluation value.

【0028】すなわち、注視時間による類似性と感性評
価による類似性とが一致しているため、感性評価値の信
頼性は高いと判断することができる。よって、ステップ
S39に進み、これらの感性評価を統計処理に供するた
め保存する。また、ステップS35でNOの場合は、注
視時間比によっては類似していると判断され(ステップ
S33)、かつ感性評価値によっては類似していないと
判断されたことになる。またステップS39でYESの
場合は、注視時間比によっては類似していないと判断さ
れ(ステップS33)、かつ感性評価値によっては類似
していると判断されたことになる。すなわち、評価を行
っている間に感性評価基準が変化している可能性があ
り、注視時間比による類似性と感性評価値による類似性
とが不一致となるため、感性評価値の信頼性は低いと判
断することができる。よって、ステップS41に進み、
これらの感性評価値は統計処理に供しないこととし保存
しない。
That is, since the similarity based on the gaze time and the similarity based on the sensitivity evaluation match, it can be determined that the reliability of the sensitivity evaluation value is high. Therefore, the process proceeds to step S39, and these sentiment evaluations are saved for statistical processing. If NO in step S35, it is determined that they are similar depending on the gaze time ratio (step S33), and it is determined that they are not similar depending on the affective evaluation value. If YES in step S39, it is determined that they are not similar depending on the gaze time ratio (step S33), and it is determined that they are similar depending on the affective evaluation value. That is, the sensitivity evaluation standard may have changed during the evaluation, and the similarity by the gaze time ratio and the similarity by the sensitivity evaluation value do not match, so the reliability of the sensitivity evaluation value is low. Can be determined. Therefore, the process proceeds to step S41,
These sentiment evaluation values are not saved for statistical processing and are not saved.

【0029】そして、ステップS43,S45により全
ての組に対してステップS29〜(S31,S39,S
41)の処理を行った後ステップS47でステップS3
1,S39で保存された値を基に市販の統計解析プログ
ラム(例えば、NEC98用多変量解析プログラム)を
用いて、図8に示すように評価対象毎に心理的イメージ
を解析したり、この解析結果を基に各評価対象毎の類似
性を解析し、新規開発商品に対する評価の良否を判別し
てモニタ9及びプリンタ11に出力して終了する。
Then, in steps S43 and S45, steps S29 to (S31, S39, S) are performed for all the sets.
41), and then step S3 in step S47.
1, using a commercially available statistical analysis program (for example, a multivariate analysis program for NEC98) based on the values stored in S39, analyze a psychological image for each evaluation target as shown in FIG. Based on the result, the similarity of each evaluation target is analyzed, the quality of the evaluation of the newly developed product is determined, and the result is output to the monitor 9 and the printer 11, and the process ends.

【0030】上記図7に示した手続きによって、視点の
動きに基づいて被験者の感性評価値を補正することによ
り従来の方法(図9参照)による感性評価値よりも再現
性のよう評価値を得ることができた(図8参照)。
By the procedure shown in FIG. 7 above, the evaluation value of the subject is corrected based on the movement of the viewpoint to obtain an evaluation value such as reproducibility rather than the evaluation value of sensitivity by the conventional method (see FIG. 9). It was possible (see FIG. 8).

【0031】[0031]

【発明の効果】上述したように、本発明の感性評価装置
によれば、再現性に優れた評価値を得ることができると
いう効果がある。
As described above, according to the sensitivity evaluation device of the present invention, it is possible to obtain an evaluation value having excellent reproducibility.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例を示すブロック図である。FIG. 1 is a block diagram showing one embodiment of the present invention.

【図2】本発明の基本的な考え方を示す図である。FIG. 2 is a diagram showing a basic idea of the present invention.

【図3】本発明の一実施例における感性評価場面を示す
図である。
FIG. 3 is a diagram showing a sensitivity evaluation scene in one embodiment of the present invention.

【図4】同じ画像対を見ても心理評価が異なる場合、視
点の動きのパタンも変化することを示す図である。
FIG. 4 is a diagram showing that the pattern of the movement of the viewpoint also changes when the psychological evaluations are different even if the same image pair is viewed.

【図5】心理評価による類似度と視点の動きのパタンか
ら算出した指標の関係を示す図である。
FIG. 5 is a diagram showing a relationship between a degree of similarity based on psychological evaluation and an index calculated from a pattern of viewpoint movement.

【図6】図8において測定する視点の動きの一測定例を
示す図である。
FIG. 6 is a diagram showing an example of measurement of viewpoint movement measured in FIG. 8;

【図7】心理評価結果の信頼性を視点の動きのパタンに
よる指標を用いて、推定する計算の流れを示す図であ
る。
FIG. 7 is a diagram showing a flow of calculation for estimating the reliability of a psychological evaluation result by using an index based on a pattern of viewpoint movement.

【図8】本発明を適用する感性評価における再現性を示
す図である。。
FIG. 8 is a diagram showing reproducibility in kansei evaluation to which the present invention is applied. .

【図9】従来の感性評価における再現性を示す図であ
る。
FIG. 9 is a diagram showing reproducibility in a conventional sensitivity evaluation.

【符号の説明】[Explanation of symbols]

1 コンピュータ 3 評価用画像呈示装置 3A 投影装置 3B 投影装置 3C 画像処理装置 5 眼球運動計測装置 7 心理評価入力装置 9 モニタ 11 プリンタ 1 Computer 3 Image Display Device for Evaluation 3A Projector 3B Projector 3C Image Processor 5 Eye Movement Measuring Device 7 Psychological Evaluation Input Device 9 Monitor 11 Printer

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 視覚的に与えられる情報に対する感性評
価を行う被験者の視点の位置を検出する視点検出手段
と、 前記感性評価によって得られる感性評価データを入力す
る入力手段と、 この入力手段から入力される感性評価データを前記視点
検出手段から入力された視点検出データをもとに解析す
る解析手段とを有することを特徴とする感性評価装置。
1. A viewpoint detecting means for detecting a position of a viewpoint of a subject who performs a sensitivity evaluation on visually given information, an input means for inputting a sensitivity evaluation data obtained by the sensitivity evaluation, and an input from the input means. And an analyzing unit for analyzing the sentiment evaluation data based on the viewpoint detection data input from the viewpoint detecting unit.
【請求項2】 呈示される複数の画像情報間の類似につ
いての感性評価を行う感性評価装置において、 前記画像情報に対する感性評価を行う際の被験者の画像
上における視点の位置を検出する視点検出手段と、 前記感性評価によって得られる複数の画像情報間の類似
性についての感性評価データを入力する入力手段と、 この入力手段から入力される感性評価データを前記視点
検出手段から入力された検出データをもとに評価する評
価手段とを有することを特徴とする感性評価装置。
2. A kansei evaluation device for kansei evaluation of similarity between a plurality of presented image information, a viewpoint detecting means for detecting a position of a viewpoint on an image of a subject when kansei evaluation is performed on the image information. And input means for inputting the affective evaluation data regarding the similarity between the plurality of image information obtained by the affective evaluation, and the affective evaluation data input from this input means for detecting the detection data input from the viewpoint detecting means. A sensibility evaluation device comprising: an evaluation unit for making an original evaluation.
JP26454591A 1991-10-14 1991-10-14 Kansei evaluation device Expired - Lifetime JP2671666B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26454591A JP2671666B2 (en) 1991-10-14 1991-10-14 Kansei evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26454591A JP2671666B2 (en) 1991-10-14 1991-10-14 Kansei evaluation device

Publications (2)

Publication Number Publication Date
JPH05108002A JPH05108002A (en) 1993-04-30
JP2671666B2 true JP2671666B2 (en) 1997-10-29

Family

ID=17404761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26454591A Expired - Lifetime JP2671666B2 (en) 1991-10-14 1991-10-14 Kansei evaluation device

Country Status (1)

Country Link
JP (1) JP2671666B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080752A (en) * 2014-10-10 2016-05-16 学校法人早稲田大学 Medical activity training appropriateness evaluation device
JP6859010B2 (en) * 2020-10-16 2021-04-14 長谷川香料株式会社 Time-lapse sensory evaluation system and time-lapse sensory evaluation method

Also Published As

Publication number Publication date
JPH05108002A (en) 1993-04-30

Similar Documents

Publication Publication Date Title
CN110167421B (en) System for integrally measuring clinical parameters of visual function
JP5244992B2 (en) Analysis method of practical eyesight
CN107847122A (en) Visual field measuring method, visual field measuring device and eye test sighting target
TWI657799B (en) Electronic apparatus and method for providing skin detection information thereof
US20180070814A1 (en) Systems and methods for combined structure and function evaluation of retina
US20120035498A1 (en) Apparatus and method for improving eye-hand coordination
Moacdieh et al. The effects of data density, display organization, and stress on search performance: An eye tracking study of clutter
CN111248851A (en) Visual function self-testing method
Beauny et al. Unconscious categorization of sub-millisecond complex images
JP2671666B2 (en) Kansei evaluation device
KR20180040090A (en) The method and apparatus for determining metamorphopsia based on user interaction
JP7004218B2 (en) Motion analysis device, motion analysis method, motion analysis program and motion analysis system
JPH07129095A (en) Three dimensional image information terminal device
JP7177276B2 (en) SYSTEM, COMPUTER PROGRAM AND METHOD FOR TMT EXAMINATION RESULT DISPLAY
US20210393180A1 (en) Metrics for impairment detecting device
JP2009136663A (en) Full-field retinal function scanning program
US20160089018A1 (en) A method for measuring visual acuity
KR102576480B1 (en) measurement of human vision
JP3772514B2 (en) Image evaluation system
KR100401912B1 (en) System for evaluation of human sensibility ergonomics
CN113974581B (en) Matching method and system for dynamic incision characteristics of pulse diagnosis
CN115996664B (en) Method and apparatus for determining refractive error
JPH1094515A (en) Apparatus and method for examination of binocular visual function
JP2023136726A (en) Gaze analyzer, gaze analysis method, gaze analysis program, and training method
Allaham Investigating Inter-Individual Differences in Human Brightness Perception