WO2007135796A1 - コンテンツに対する利用者応答を評価する制御装置 - Google Patents

コンテンツに対する利用者応答を評価する制御装置 Download PDF

Info

Publication number
WO2007135796A1
WO2007135796A1 PCT/JP2007/054093 JP2007054093W WO2007135796A1 WO 2007135796 A1 WO2007135796 A1 WO 2007135796A1 JP 2007054093 W JP2007054093 W JP 2007054093W WO 2007135796 A1 WO2007135796 A1 WO 2007135796A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
content
subject
control device
viewpoint
Prior art date
Application number
PCT/JP2007/054093
Other languages
English (en)
French (fr)
Inventor
Koichi Kikuchi
Seiji Ozaki
Naoki Kanamori
Hiroyuki Kaneta
Wataru Kurashima
Tsuyoshi Hanamura
Original Assignee
Visual Interactive Sensitivity Research Institute Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visual Interactive Sensitivity Research Institute Co., Ltd. filed Critical Visual Interactive Sensitivity Research Institute Co., Ltd.
Priority to JP2008516571A priority Critical patent/JP4874332B2/ja
Publication of WO2007135796A1 publication Critical patent/WO2007135796A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Definitions

  • Control device for evaluating user response to content
  • the present invention relates to a system for evaluating a subject's response to presented content. More specifically, the present invention relates a situation in which a subject responds by presenting a predetermined content on a display and observing the content, with the physiological response of the subject. It is related to the technology that measures and evaluates based on the measurement results.
  • Patent Document 1 As shown in Patent Document 1 and the like, a system that acquires information about eye movements and evaluates the presented content measures the passive reaction of the subject by the unilaterally presented video content, and uses the video content. It was an evaluation, not a test subject's response.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-282471
  • an object of the present invention is to improve the effectiveness and operability of the result when evaluating the result of the test subject's response to the presented content.
  • the present invention measures and analyzes a subject's physiological response (for example, eye movement) in conjunction with response data when presenting content to the subject and measuring the subject's response to the content. is there. Thereby, the effectiveness of a test subject's response result can be determined. In particular, it is suitable for evaluation of questionnaire collection.
  • a subject's physiological response for example, eye movement
  • the subject is asked to view the presented content in a natural posture and the response of the subject is measured.
  • the degree of concentration is changed from the change in the blink occurrence frequency, and the change in the emotion is changed by the autonomic nervous system reaction.
  • Each is determined from a change in a certain pupil.
  • a control device is based on the above knowledge, presents a predetermined content on a display, measures a physiological reaction of observing the presented content, and presents it based on the data.
  • the content presenting unit that presents the content to the subject, and the subject's response to the presented content
  • An information capturing unit that captures physiological response information
  • a processing unit that generates evaluation information for evaluating the response of the subject based on the captured physiological response information, the exemplified content, and the generated evaluation
  • a display processing unit that generates screen display information including the content and the evaluation information.
  • response data in natural viewing is obtained under a state in which the burden on the subject associated with the measurement that does not require the subject to be equipped with a measurement sensor or marker is reduced. It is expected to be possible.
  • the ability to present the content is also integrated into each of the control capabilities of the measurement, analysis, and display functions, so that the response of the subject to the content can be evaluated without requiring a high level of specialized knowledge. Can do.
  • the occurrence frequency of the blink of the subject is measured and analyzed, it is determined whether the subject is interested in the presented content or the force with which the subject is less interested and the response of the subject is valid. It can be evaluated whether or not
  • the content presented to the subject is composed of video data, web page data, computer game data, or data output from a computer program, and is a character string, diagram, symbol, picture. , Including at least one of a photo and a moving image for instructing the subject to respond. This allows the subject to respond easily.
  • the information capturing unit accompanies the operation of the subject by any one of a button, a keyboard, a mouse, a touch panel, a remote controller, and a controller attached to a game device for the presented content. Response information is captured.
  • the processing unit calculates blink frequency, pupil size, and viewpoint movement data based on the eyeball image. It is characterized in that at least one of them is calculated as data associated with a time axis, and evaluation information is generated based on the data.
  • the processing unit calculates a degree of attention, concentration, liking or disgusting with respect to the content of the subject based on the physiological response information, and the degree is determined based on the response of the subject. It is characterized by using evaluation information for evaluating.
  • the invention's effect it is possible to improve the effectiveness and operability of the result when evaluating the result of the response of the subject to the presented content.
  • FIG. 1 is a schematic diagram showing a basic configuration of a content user response evaluation system according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a screen example of a viewpoint locus and a selection result.
  • FIG. 3 is a diagram showing an example of a screen when a question sentence is read.
  • FIG. 4 is a diagram showing a configuration of the control means 300 shown in FIG.
  • FIG. 5 is a diagram showing an example of a screen generated by the content evaluation stage 361.
  • FIG. 6 is a diagram showing an example of a screen generated by the content evaluation stage 361.
  • FIG. 7 is a diagram showing an example of a screen generated by the web evaluation stage 362.
  • FIG. 8 is a diagram showing an example of a screen generated by the web evaluation stage 362.
  • FIG. 9 is a diagram showing an example of a screen generated by the web evaluation stage 362.
  • FIG. 10 is a diagram showing an example of a screen generated by the web evaluation stage 362.
  • FIG. 11 is a diagram showing an example of a screen generated by the questionnaire evaluation stage 363.
  • FIG. 12 shows an example of a screen generated by the questionnaire evaluation stage 363.
  • FIG. 13 is a diagram showing an example of a screen generated by an education / training processing stage 364.
  • FIG. 14 is a diagram showing a configuration example of a network system when using the posted content evaluation stage 365.
  • FIG. 15 is a diagram showing an example of a screen generated by the posted content evaluation stage 365.
  • FIG. 16 is a schematic diagram showing a basic configuration (another configuration) of a content user response evaluation system according to an embodiment of the present invention.
  • FIG. 17 is a diagram showing a configuration of the control means 301 shown in FIG.
  • FIG. 18 is a diagram showing a screen example in the case of cursor measurement.
  • FIG. 19 is a diagram showing a screen example in the case of cursor measurement.
  • FIG. 20 is a diagram showing a screen example in the case of cursor measurement.
  • FIG. 21 is a diagram showing a screen example in the case of cursor measurement.
  • FIG. 22 is a diagram showing an example screen for cursor measurement.
  • FIG. 23 is a diagram showing a screen example of content used in the questionnaire evaluation stage 363 (when there are two options).
  • FIG. 24 is a diagram showing an example of a screen generated by the questionnaire evaluation stage 363 (when there are two options).
  • FIG. 25 is a diagram showing an example of a screen generated by the questionnaire evaluation stage 363 (when there are two options).
  • FIG. 26 shows an example of a screen generated by the questionnaire evaluation stage 363 (when there are four options).
  • FIG. 27 is a diagram showing an example of a screen generated by the questionnaire evaluation stage 363 (when there are four options).
  • FIG. 28 is a diagram showing an example of a screen generated by an education / training processing stage 364.
  • FIG. 29 is a diagram showing an example of a screen displaying the transition of the scroll stop position and the staying time.
  • the system for evaluating the user response to this content includes, as its basic components, a display 100 for content presentation and a camera 200 for imaging the eyeball of a subject 600.
  • the display 100 for presenting content can use a screen screen of a projector, a liquid crystal display panel, etc. in addition to a normal cathode ray tube receiver.
  • Camera 200 is infrared In this example, which is preferably an infrared camera with a line lamp 210, it will be described as an infrared camera.
  • the infrared camera 200 is set using a stand or the like so as to take an image of the eyeball of the subject 600 at a position about 50 to LOOcm away from the subject 600.
  • the chin rest 220 can be prepared. It is also possible to automatically track the position of the face and eyeball and measure eye movement.
  • the infrared camera 200 can be attached to the head of the subject 600 using a head-mounted device.
  • the subject to be viewed may be a general scene that is visible to the subject 600, rather than being a pre-captured video.
  • a scene in the viewing angle of the subject 600 is simultaneously photographed by a camera attached in the opposite direction to the infrared camera 200, and is used in the processing described later as being equivalent to the photographed video power presentation content.
  • the control means 300 reads the contents from the presentation content database 310 and outputs the presented contents to the display 100. At the same time, the subject response information from the subject response input means 500 and the eyeball from the infrared camera 200 are displayed. The eye movement information that is an image is taken in synchronously, and the acquired data is stored in the acquired data database 320 together with the synchronous information. Data analysis and monitor display are performed based on the acquired data.
  • This control means 300 may be of a personal computer (personal computer) class.
  • the input means 500 may be any one of a button, a keyboard, a mouse, a touch panel, a remote controller, a controller attached to the game device, and the like. However, of these! /, It is not limited to any deviation! /.
  • the presentation content database 310 and the acquired data database 320 may be devices connected to a network such as the Internet or a LAN and installed at a location different from the control means 300.
  • the present invention is also applicable to a portable information terminal such as a mobile phone equipped with a camera equipped with a large display, such as a desktop computer.
  • a personal computer as a control means having the above-described phase functions and a portable information terminal with a camera are connected via an Internet line. You may make it receive the eyeball image which responds to it.
  • FIG. 2 and FIG. 3 are screen examples generated by the user response evaluation system shown in FIG.
  • the trajectory of the viewpoint obtained from the analysis result of the eye movement as a physiological reaction is indicated by broken lines 1010 and 1110, and the selection result is indicated by locations 1020 and 1120 where the mouse is clicked.
  • the question text is selected after reading the question text and confirming the two options.
  • Figure 3 does not read the question text, but selects only one option. In this case, in the example shown in Fig. 3, it is clear that the reaction is taking place without paying attention to the presented content, so it is possible to eliminate the sample power of the questionnaire survey as not valid data.
  • whether or not it is effective is determined by measuring whether the line of sight moves faithfully over the question sentence, and by measuring the degree of coincidence between the locus of the viewpoint by the line of sight movement and the character string of the presented content. Judgment is made by setting.
  • the change in the size of the pupil diameter can be used as an index indicating whether or not the presented content is interested (or attracting attention). To determine the degree of attention to the questionnaire.
  • the distance from the locus of the power viewpoint should be the time fluctuation values, and a (t), b (t), c (t), d (t), respectively (d (t) is the distance of the orbital force Indicates reciprocal).
  • pupil area data may be used instead of pupil diameter data.
  • the degree of interest in the content presented by the subject at a certain time t can be measured by the magnitude of this numerical value.
  • It can also be defined as a simple function, or it can be any function of w, X, y, z (may be a non-linear function such as a polynomial with condition judgment).
  • f (t) is integrated over a specific time, and the integrated value is used as a numerical value obtained by normalizing per unit time, so that the degree of concentration in the time interval can be obtained.
  • the degree of concentration at the time of response can be calculated for each question of the questionnaire, and it can be determined whether or not the subject's response is valid by comparing whether or not it is greater than a preset threshold.
  • control means 300 can be controlled to change the presented content. is there.
  • the imaging means for imaging the eyeball of the subject 600 for example, if only the blink occurrence frequency is measured, a normal camera may be used.
  • an infrared camera is preferably employed. According to the infrared camera, a high-contrast image excluding the external image reflected in the iris can be obtained, so that image processing and data analysis can be executed stably and at high speed.
  • control means 300 calculates the interest / interest level of the subject at the time of measurement using a polynomial or a judgment formula using the physiological response data as a parameter, and the subject continuously concentrates on the presented content. It has the function of confirming the validity of the subject response data. It is possible to change the scenario of the presented content based on its effectiveness.
  • control means 300 provides the presented content and the corresponding subject response data and In order to know the context of eye movement, the presentation content or eye movement data can be displayed in time series and can be scrolled over the length of the specified content. It is preferable.
  • control means 300 also calculates the gaze position of the subject with respect to the eye movement data force, and superimposes the gaze point on the presentation content. Can also be displayed.
  • FIG. 4 is a diagram showing the configuration of the control means 300.
  • the control means 300 includes a content reading / displaying means 330, an information fetching means 340, a data processing means 350, and a display processing means 360.
  • the content readout display means 330 reads out the content from the presentation content database 310 and outputs it to the presentation display 100 for presenting the content to the subject 600 for display. Further, the content reading / display unit 330 outputs the read content to the display processing unit 360 and outputs time information such as a frame number in the content to the information capturing unit 340. This time information is used by the information capturing means 340 to generate synchronization information between the subject response information a and the eye movement information b.
  • the information capturing means 340 inputs subject response information a including the mouse cursor position (coordinates) and mouse click position (coordinates) according to the mouse operation and click operation of the subject 600, respectively.
  • the eye movement information b which is an eyeball image taken by the camera 200, is input.
  • the information fetching means 340 inputs the time information of the content from the content reading display means 330, and the time information of the input content so that the subject response information and the eye movement information can be associated with the content. Synchronous information is generated based on this.
  • the information capturing means 340 accumulates the subject response information a (mouse cursor position and mouse click position), eye movement information b, and synchronization information in the acquisition data database 320, and data processing means 350 Output to.
  • the force in which the subject response information a is the mouse cursor position and the mouse click position is not limited to this.
  • the input means 500 shown in FIG. In the case of a keyboard, touch panel, remote control, game machine controller, etc., position information that can be imported from these devices by operating the subject 600 (information corresponding to the mouse cursor position and information corresponding to the mouse click position) ).
  • the data processing means 350 inputs the subject response information a (mouse cursor position and mouse click position), eye movement information b, and synchronization information from the information capturing means 340, or reads out from the acquired data database 320, Data to be displayed on the monitor screen 400 together with the content is generated, and the generated data is output to the display processing means 360.
  • the data processing means 350 includes a viewpoint / pupil / blink processing stage 351, an interest / interest degree calculation stage 352, and an IDAS point calculation stage 353.
  • the viewpoint 'pupil' blink processing stage 351 is based on the eye movement information b and the synchronization information from the information capturing means 340 or the acquisition data database 320, and at the time corresponding to the content. Gaze movement data, pupil diameter data, and blink frequency data are calculated. Specifically, the viewpoint, pupil, and blink processing stage 351 extracts the pupil image from the eyeball image that is the eye movement information b, and based on the center position of the pupil and the position information on the screen set in advance. To calculate the viewpoint position. Since the viewpoint position calculation method is a known technique, detailed description thereof is omitted here. For details, refer to Japanese Patent Application Laid-Open No. 2004-282471 published before the filing of this application.
  • the gaze movement data such as the movement speed of the viewpoint and the locus of the viewpoint by calculating the viewpoint position over time.
  • the pupil diameter is calculated based on the extracted pupil image.
  • the blink occurrence frequency is calculated based on the temporal change of the extracted pupil image. In this case, the number of blinks can be obtained.
  • the interest / interest level calculation stage 352 calculates the interest level by using the pupil diameter calculated by the viewpoint / pupil / blink processing stage 351. Specifically, if P (t) is the pupil diameter at time t and I (t) is the interest / interest level at time t, the interest 'interest level calculation stage 352 first calculates the pupil diameter P (t). In order to remove high-frequency components and measurement noise, low-pass filtering is performed by performing operations such as moving average.
  • the interest 'interest degree calculation stage 352 calculates the interest' interest degree I (t) by the following equation.
  • the threshold value th is an intermediate value between the maximum value P and the minimum value P, for example, as in the following equation.
  • the “interest” interest level calculation stage 352 determines whether or not the blink occurrence frequency calculated by the viewpoint / pupil * blink processing stage 351 is greater than a preset threshold value. If the threshold value is larger than the threshold value, the interest / interest level I (t) may be forced to zero for the continuous blink generation interval.
  • IDAS point calculation stage 353 calculates I (Interest: interest) point, D (Desire: desire request) point, A (Action: action result) point and S (Stay: “dwell time”)
  • the IDAS point calculation stage 353 calculates the I point in an area centered around the viewpoint of the interest / interest degree I (t) calculated by the interest'interest degree calculation stage 352.
  • the viewpoint position and interest / interest level I (t) when the following conditions are satisfied are generated as I points.
  • the movement amount ⁇ d (movement speed of the viewpoint position) force at a predetermined time ⁇ t as shown in the following equation: Then, it is determined whether or not it is smaller than a preset threshold th v .
  • the moving speed force of the viewpoint position is smaller than the preset threshold th and the interest / interest degree I (t) is preset.
  • the threshold value is equal to or greater than the threshold th, the viewpoint position and the interest / interest level I (t) at that time are generated as the I point.
  • the I point is a dilation point of the pupil with respect to the content to be measured, which is extracted by utilizing the principle that the pupil dilates when there is an interest or interest, and has a visual effect. Used to analyze the response to.
  • the IDAS point calculation stage 353 is generated as described above when calculating the D point.
  • the viewpoint position and interest / interest level I (t) when the following conditions are satisfied are generated as the D point.
  • the first condition is that the point is I.
  • the second condition is the viewpoint position at the I point.
  • the IDAS point calculation stage 353 has the distance between the viewpoint position and the mouse cursor position at the I point shorter than the threshold th and
  • the viewpoint position and the interest level I (t) at that time are generated as the D point.
  • the D point is a point where the mouse cursor position is matched so as to follow the I point, and is extracted as the previous stage of the mouse click action. However, it is used to analyze the “behavior” or “behavior induction” point that is one step ahead of the I point.
  • the IDAS point calculation stage 353 is the position where the subject 600 fired as the A point and the interest at that time for the operation target such as the link button including the I point, which is the input mouse cursor position. Generate interest level I (t).
  • the A point is used to analyze whether or not the “clicked” point, which is the action result of the subject 600, is extracted and the subject can be guided according to the purpose of content production and management.
  • the IDAS point calculation stage 353 calculates the time S when the viewpoint position stays for the I point and D point generated as described above. Also, for the A point generated as described above, the time S when the mouse cursor position (mouse click position) where the mouse was clicked is calculated. Specifically, it is determined whether or not the viewpoint position and the mouse cursor position are within a preset position range, and the dwell time S when the position is within the position range is calculated.
  • the residence time S is data added to the I point, the D point, and the A point, and is used for analysis on the time axis, such as “behavior” or “maze” of reading text, for example. It is done.
  • the data processing means 350 is calculated by the viewpoint / pupil / blink processing stage 351, the viewpoint position, the pupil diameter and the blink occurrence frequency, and the interest / interest degree calculation stage 352.
  • Interest's interest level, and I point (viewpoint position, interest / interest level), D point (viewpoint position, interest / interest level), A point (mouse click position, interest level) calculated by IDAS point calculation stage 353 , Interest level) and S (viewpoint position, mouse click position, dwell time) are output to display processing means 360, and input subject response information a (mouse cursor position and mouse click position) and synchronization information are displayed.
  • Output to means 360 is calculated by the viewpoint / pupil / blink processing stage 351, the viewpoint position, the pupil diameter and the blink occurrence frequency, and the interest / interest degree calculation stage 352.
  • the display processing means 360 inputs content from the content readout display means 330 and receives the mouse cursor position, mouse click position, synchronization information, viewpoint position, pupil diameter, blink frequency, interest 'interest level, I point ( Data processing of viewpoint position, interest, interest), D point (viewpoint position, interest, interest), A point (mouse click position, interest / interest) and S (viewpoint position, mouse click position, dwell time) Input from means 350. Then, the contents are associated with the mouse cursor position based on the synchronization information, information for display on the screen is generated, and output to the monitor screen 400 for display as screen information.
  • the display processing means 360 includes a content evaluation stage 361, a web evaluation stage 362, a questionnaire evaluation stage 363, an education / training processing stage 364, and a posted content evaluation stage 365.
  • FIGS. 5 and 6 are diagrams showing examples of screens generated by the content evaluation stage 361.
  • FIG. 5 is diagrams showing examples of screens generated by the content evaluation stage 361.
  • These screens are used to measure the sensibility of the content, and these screens demonstrate the intended effects of the intention of the content provider and the interest and interest of the viewer who is the examinee 600. It is also possible to analyze and analyze whether or not the point of interest accurately captures the target.
  • the content evaluation stage 361 displays the content image in an area 5001 and displays the I point at that time in the form of a circle.
  • the interest level of the I point is displayed in the power gauge 5003-1, 2, and the temporal change of the interest level is displayed in the graph 5004-1, 2 and the graph 5005-1, 2.
  • a region 5001 a circle having a diameter (diameter or radius) proportional to the magnitude of the interest level is displayed at the viewpoint position.
  • Circle 5002-1 indicates the interest and interest of the first subject
  • circle 5002-2 indicates the interest and interest of the second subject.
  • the power gauge 5003—1 is the first subject ’s interest level
  • Page 5003-2 indicates the interest level of the second subject.
  • Graphs 5004-1 and 2 show the changes in the interest level of the first and second subjects as time-sequential lines.
  • the time bar in the area where the graph is displayed is linked to the content image displayed in the area 5001, indicating the time position and interest level at that time.
  • Graph 500 5-1, 2 expands the time on the horizontal axis for the interest level of interest near the cursor (near the current point) in graphs 5004-1, 2 respectively. Further, by moving the time bar in the area where the graphs 5004-1 and 2 and the graphs 5005-1 and 2 are displayed, the content image and the I point at the time position are displayed in the area 5001.
  • the content evaluation stage 361 displays the thumbnails of the contents in the area 6 001 in time series, and the audio frequency data added to the contents is displayed on the right (R) audio frequency waveform graph 6002. — Waveform graph of audio frequency of 1 and left (L) 6002— Displayed as 2. Further, the content evaluation stage 361 displays the temporal changes in the interest / degree of interest of each subject as graphs 6003 to 6006. In this case, the horizontal axis indicates the time, and the content thumbnails, the audio frequency waveform graphs 6002-1 and 2, and the graphs 6003 to 6006 are displayed correspondingly on the same time axis.
  • FIGS. 7 to 10 are diagrams showing examples of screens generated by the web evaluation stage 362.
  • FIG. These screens are for measuring the sensibility of the WEB (web page) screen, and these screens were used to pay attention to where the subject 600 was watching in the WEB screen. You can clarify the location and movement of the mouse cursor.
  • the WEB evaluation stage 362 displays the WEB screen that is the content, displays the viewpoint locus 7001 on the screen, and displays the I point in the form of a circle. .
  • the I point is displayed at the viewpoint position as a circle with a diameter proportional to the size of the interest level. From Fig. 7, it is possible to grasp the viewpoint trajectory, I point transition and interest / interest level for each page of the website, and analyze the user's interest transition.
  • the web evaluation stage 362 may display the viewpoint locus 7001 in a form corresponding to the speed of the viewpoint movement.
  • the trajectory of the viewpoint repeats stay ⁇ fast movement ⁇ stay.
  • the following tendencies can be derived from the trajectory of this viewpoint. (1) The dwelling time of the viewpoint becomes longer in places of interest.
  • the web evaluation stage 362 performs a process for distinguishing the above-mentioned (1) to (3) and displays it on the screen. Specifically, a sample at a fixed sampling is selected from the viewpoint locus 7001, the distance between adjacent sample points is calculated, and the distance between samples when the distance is larger than a preset threshold value is displayed as a dotted line. The distance between samples when the distance is less than or equal to a preset threshold value is displayed as a solid line. Thereby, (2) and (3) can be distinguished. In this case, you may make it distinguish with the thickness of a line instead of a dotted line and a solid line. For (1), I point is displayed.
  • the display process for distinguishing between (1) to (3) is applicable to the process of displaying the trajectory of the viewpoint (FIGS. 11, 12, etc.) just by the process of the web evaluation stage 362. is there. It can also be applied to the processing (such as Fig. 19), which will be described later, regarding the locus of the mouse cursor position as the viewpoint locus.
  • the WEB evaluation stage 362 displays the WEB screen that is the content, displays the viewpoint locus 8001 on the screen, and displays the I point, the D point, and the A point in the form of a circle. To do. The I point, D point and A point are displayed as circles with a diameter proportional to the degree of interest / interest at the viewpoint position. From Fig. 8, for each page of the website, I (interest) ⁇ D (desired desire) ⁇ A (behavior result)!
  • the WEB evaluation stage 362 displays the WEB screen as the content, and displays the residence time in the areas a to h on the screen.
  • the web evaluation stage 362 calculates the dwell time of the viewpoint position for each of the areas a to h based on the input time-series viewpoint position.
  • the areas a to h are set in advance, and the staying time indicates the accumulated time that the viewpoint position stays in each of the areas a to h.
  • the WEB evaluation stage 362 aggregates and displays data from the response of the user who is the subject 600 to the questionnaire question and the WEB screen of the answer format.
  • the answer level that indicates which answer point the viewpoint position was staying on is accumulated as the staying time, and corrected using a preset weighting factor.
  • the result of the degree of the responses to the responses of a plurality of subjects 600 is displayed.
  • the frequency of the degree to the responses of a plurality of subjects 600 is displayed as a graph. From Fig. 10, it is possible to analyze the effectiveness of the answer, which is an action for the questionnaire question, including the sensitivity when the user makes a selection, more accurately.
  • FIG. 11, FIG. 12, FIG. 23 to FIG. 27 are diagrams showing examples of screens generated by the questionnaire evaluation stage 363. These screens are used to measure the sensibility of survey questions and response screens.
  • the questionnaire evaluation stage 363 displays the content screen and displays the locus 11001 of the viewpoint on the screen.
  • the screen shown in Fig. 11 displays products related to questions and consists of questionnaire questions and answer formats. From Fig. 11, it can be judged whether or not the product is regarded as an answer and whether or not the trajectory power of the viewpoint is also an effective answer. By doing so, it is possible to improve the effectiveness of the response tabulation results.
  • the questionnaire evaluation stage 363 displays the content screen, displays the locus of the viewpoint on the screen, and displays the I point in the form of a circle.
  • the screen shown in Fig. 12 displays products as shown in Fig. 11, and consists of questionnaire questions and answers. From Figure 12, for example, when the answer is “Yes”, “No”, or “None”, the answer is “A confident answer” depending on the trajectory of the viewpoint and the size of the circle of the I point. It is possible to determine whether it is a “question answer”. In the case of the viewpoint trajectory answer indicated by the solid line in FIG. 12, the viewpoint trajectory does not go back and forth between multiple answers, so it can be determined that the answer is a confident answer. On the other hand, in the case of the response of the viewpoint trajectory indicated by the dotted line, it can be determined that the viewpoint trajectory goes back and forth between a plurality of answers, and thus it is a “lost answer”.
  • the content readout display means 330 outputs and displays the content shown in FIG. 23 on the display 100 for presentation, and the subject 600 temporarily selects A or B.
  • An operation (including the operation to cancel and reselect after selecting) is performed by placing the mouse cursor in the frame of the higher interest (displayed in the frame).
  • the information fetching means 340 and the data processing means 350 perform the above-described various processes. Such processing is performed for a plurality of subjects 600, and subject response information a and eye movement information b by the subjects 600 are acquired and stored.
  • the information capturing means 3 40 uses the information on the provisional selection operation before the confirmation operation and the number of times as the subject response information a only with the information on the confirmation operation (A or B) finally selected by the subject 600.
  • the information of (number of times A is selected and number of times B is selected) is also captured.
  • FIG. 24 is a diagram showing an example of a screen generated by the questionnaire evaluation stage 363 (when there are two options).
  • the questionnaire evaluation stage 363 generates and displays screen information that combines the I point and A point expressed in the form of a circle according to the content screen, the trajectory of the viewpoint on the screen, and the degree of interest and interest. .
  • the outlined circle is the I point that indicates the point of interest during the temporary selection operation
  • the hatched circle is the A point that indicates the point of interest during the confirmation operation. According to FIG. 24, it becomes clear which part the subject 600 was paying attention to before the confirmation operation.
  • the questionnaire evaluation stage 363 calculates the certainty factor for each subject 600 based on the subject response information a by distinguishing the selection of A and B, and totals the subjects 600 who selected A and B, respectively. Then, the frequency distribution of the certainty factor and the average value are calculated. The method for calculating the certainty factor will be described later. Then, a frequency distribution graph of confidence is generated using these calculated data, and the screen shown in FIG. 25 is displayed.
  • the horizontal axis indicates the certainty factor
  • the vertical axis indicates the ratio of the selected number of people.
  • this line graph shows A's confidence frequency distribution in the left half (the confidence increases toward the left of the central partial force), and B's confidence frequency distribution in the right half (the central partial force also moves toward the right). The confidence level is high.)
  • the dotted line indicates the average value of confidence in each confidence frequency distribution.
  • the bar graph displayed below the confidence frequency distribution graph shows the selection rate!
  • the average value of certainty of option A is 77
  • the average value of certainty of option B is The number of subjects 600 who selected A was 70% of the total, indicating that the confidence level is relatively high.
  • the average value and frequency distribution of confidence in subjects 600 who select A and B can be known, and the selection tendency of subjects 600 can be analyzed, and new indicators are added to content design evaluations, etc. can do.
  • the attention retention degrees G and G are calculated by the following equations.
  • the range of the target biases D and D is [0, 1].
  • the selection bias k, k is more likely to be selected as a different option from the final selection by the confirmation operation.
  • the confidence wa for the final option power 3 ⁇ 4 of the work is the attention bias D, D and the selection bias
  • wa B 100-k B -D B ⁇ ⁇ ⁇ (1 6) where the range of confidence wa, wa is [0, 100], and the greater the value, the higher the confidence.
  • region j (0 ⁇ j ⁇ n) is the part enclosed by the rectangle surrounding choice j.
  • region P If the interest and interest level at sample time i during measurement is I (i),
  • the attention bias D (with respect to all the options) for the option j is calculated by the following equation.
  • the range of the target bias D is [O, 1].
  • the selection bias k when j is selected is calculated by the following equation.
  • the selection bias k evaluates the number of temporary selection operations up to the final selection by the confirmation operation. This is a coefficient for weighting the certainty factor, and its value range is (0, 1). The selection bias k decreases as the choice different from the final selection by the confirmation operation is selected.
  • the certainty factor wa when the final choice by the confirmation operation is j is calculated by the following formula: attention bias D and selection bias k force.
  • the questionnaire evaluation stage 363 calculates the certainty factor for each subject 600 by distinguishing the selection of j (two or more options) based on the subject response information a, and the subject 600 who selected j Are calculated to calculate the frequency distribution and average value of the certainty factor. Then, a frequency distribution graph of confidence is generated and displayed using these calculated data.
  • FIG. 26 and FIG. 27 are diagrams showing examples of screens generated by the questionnaire evaluation stage 363 (when there are four options).
  • the questionnaire evaluation stage 363 generates screen information by combining the I point and A point expressed in the form of a circle according to the content screen, the trajectory of the viewpoint on the screen, and the degree of interest and interest.
  • the outlined circle is the I point that indicates the point of interest during the temporary selection operation
  • the hatched circle is the A point that indicates the point of interest during the confirmation operation. According to this figure, it becomes clear which part of the subject 600 was paying attention until the confirmation operation. Also, from the viewpoint trajectory and I point display, it can be seen that in FIG.
  • the viewpoint movement is large and the number of provisional selections is large, so that it is a “question answer” (answer with a lot of doubt).
  • the answer is “a confident answer” (an answer with few errors).
  • FIG. 13 and FIG. 28 are diagrams showing examples of screens generated by the processing stage 364 for education / training. This screen captures the index of sensitivity measurement for various education and training such as safety education.
  • the education / training processing stage 364 displays the content in the area 1301 and displays the I point at that time in the form of a circle. Also, the interest / interest level (attention level) Page 1303—1, 2 and display the temporal change of interest level (attention level) in graphs 1304—1, 2 and 5005—1, 2.
  • Fig. 13 [Display area 1301, No. gauge 13 03-1, 2, Graph 1304-1, 2, Graph 1305-1, 2, Fig. 5 [Display area 5001, No gauge 5003-1, 2 , Correspond to Graph 5004-1, 2 and Graph 5005-1, 2, respectively.
  • the screen shown in FIG. 13 has the same configuration and contents as the screen shown in FIG. In Fig.
  • graphs 5004–1, 2 show the changes over time in interest and interest (attention) when the skilled driver is the first subject and the unlicensed driver is the second subject. Yes. From this graph, the interest “interest (attention)” of the skilled driver is relatively average, whereas the interest “interest (attention)” of the unlicensed driver is not average, and the fluctuation is severe. I understand.
  • the danger instruction information attached to the content is further displayed as the danger instruction display 1306.
  • the content input by the education / training processing stage 364 includes danger instruction information, and this danger instruction information is displayed at a timing when it should be determined that it is dangerous.
  • the education / training processing stage 364 displays subject response information a indicating that the content is judged to be dangerous.
  • the button press display 1307 is displayed at the timing when the input is made and the button is pressed.
  • the subject 600 who receives car driving education presses the button by operating the mouse or the like when judging the danger while viewing the content.
  • the education / training processing stage 364 measures the sensitivity of the subject 600 who receives the driving education of the vehicle by the display timing of the danger instruction display 1306 and the button press timing by the button operation of the subject 600. Can do.
  • the subject 600 can determine whether or not his / her driving power is safe by checking these display timings.
  • FIG. 14 is a diagram showing a configuration example of a network system when the posted content evaluation stage 365 is used.
  • This network system consists of a sensory measurement facility with the user response evaluation system for content shown in Fig. 1 and a PC (personal computer) or mopile terminal operated by the user (poster) who receives the post content evaluation service. Tokara
  • the user response evaluation system in the sensibility measurement facility and the PC or mopile terminal are connected via the Internet.
  • the PC sends the age information of the designated subject 600, the image to be evaluated, etc. to the user response evaluation system via the Internet by the operation of the user who receives the posted content evaluation service.
  • the user may become a member of this service, register the ID and password in advance in the control means 300 of the sensibility measurement facility, and associate them with the user's mail address.
  • the user response evaluation system receives this information and generates diagnostic results by collecting information from multiple subjects 600 of a specified age or a person skilled in the art such as a leader in the field of image content to be evaluated.
  • the diagnosis result (evaluated image, viewpoint trajectory, interest / degree of interest, etc.) is sent back to the PC via the Internet. In this case, the diagnosis result may be attached to an email and sent back to the user's email address.
  • FIG. 15 is a diagram showing an example of a screen generated by the posted content evaluation stage 365 in the user response evaluation system in the sensitivity measurement facility shown in FIG.
  • the result of evaluation based on the image of the photograph sent by the contributor is the I point displayed in the form of a circle at the viewpoint position of the face, and multiple subjects 600 displayed on the right side of the screen. Therefore, the information is tabulated.
  • the user response evaluation system accumulates the images transmitted by the posters in the presentation content database 310, the content response display means 330, the information capture means 340, and the data processing means 350 allow the subject response information a and the eye movement information.
  • b is acquired from a plurality of subjects 600, and various data such as viewpoint position, pupil diameter, interest level, I point, etc. are generated for each subject 600.
  • the posted content evaluation stage 365 of the display processing means 360 aggregates the I points to be displayed on the screen based on various data such as the viewpoint positions and pupil diameters of the plurality of subjects 600, and the facial part (right eye, For each left eye, etc.), add up the interest level.
  • the posted content evaluation stage 365 may generate the screen information shown in FIGS. 24 to 27, return the information as a diagnosis result to a PC or the like, and present the diagnosis result to the user. ! ⁇ .
  • FIG. 3 is a schematic diagram showing a basic configuration (another configuration) of a user response evaluation system for content according to an embodiment.
  • this user response evaluation system has, as its basic components, a display 100 for content presentation, a control means 301, a database for presentation content 310, a database 320 for acquired data, A monitor screen 400 as a display means and an input means 500 for the subject 600 to respond to the presented content are provided. Comparing the user response evaluation system shown in FIG. 1 with the user response evaluation system shown in FIG. 16, in FIG.
  • the camera 200 for imaging the eyeball of the subject 600, and the associated infrared lamp 210 and chin rest 220 are shown. It differs in that it does not have. Since the display 100, the presentation content database 310, the acquired data database 320, the monitor screen 400, and the input means 500 are the same as those shown in FIG. 1, their descriptions are omitted here.
  • the user response evaluation system shown in FIG. 16 assumes that the locus of the mouse cursor position is equivalent to the locus of the viewpoint, and uses only the subject response information a without using the eye movement information b. Is to evaluate.
  • FIG. 17 is a diagram showing the configuration of the control means 301.
  • the control means 301 includes content reading / display means 335, information fetching means 370, data processing means 380, and display processing means 390.
  • the content reading and displaying means 335 reads the content from the presentation content database 310, inputs the mouse cursor position from the information fetching means 370, and based on the mouse cursor position for predetermined text data in the content.
  • the blurring power is applied so that the subject 600 is difficult to recognize, and the result is output and displayed on the display 100 for presenting the content to the subject 600.
  • the content read / display unit 335 outputs the read content to the display processing unit 390 and outputs time information such as a frame number in the content to the information capturing unit 370.
  • FIG. 18 is a diagram showing an example of a screen displayed on the display for presentation 100 by the content readout display means 335.
  • the text data “You”, “Eat breakfast”, and “Don't eat breakfast” indicate either a weak or sticky form depending on the mouse cursor position. Is displayed.
  • the content readout display means 335 inputs the mouse cursor position, compares the mouse cursor position with the display position of the text data, and if the distance between them becomes shorter than a preset threshold, Display in a clear form so that it is the original display form of the content. If the distance between them is greater than or equal to the threshold value, the text data is displayed in a compressed form. For example, the text data and the white image are superimposed on each pixel (weighted average) and displayed in a blurred form. In this case, in order to display in a more blurred form, the weight of the white image may be increased.
  • the information fetching means 370 inputs subject response information a including a mouse cursor position (coordinates) and a mouse click position (coordinates) according to the mouse operation and click operation of the subject 600, respectively. Further, the information fetching means 370 inputs the time information of the content from the content reading / display means 335, and based on the inputted content time information so that the subject response information a and the content can be associated with each other. To generate synchronization information. Then, the information fetching means 370 accumulates the subject response information a (mouse cursor position and mouse click position) and synchronization information in the acquired data database 320 and outputs them to the data processing means 380. Further, the information fetching means 370 outputs the mouse cursor position in the subject response information a to the content read / display means 335.
  • subject response information a including a mouse cursor position (coordinates) and a mouse click position (coordinates) according to the mouse operation and click operation of the subject 600, respectively. Further, the information fetching
  • the data processing means 380 inputs the subject response information a (mouse cursor position and mouse click position) and synchronization information from the information fetching means 370, or reads it from the acquired data database 320 and displays it together with the contents on the monitor screen. Data to be displayed on 400 is generated, and the generated data is output to display processing means 390.
  • subject response information a mouse cursor position and mouse click position
  • the data processing means 380 is preset within the movement range set in advance with respect to the mouse cursor position in the subject response information a from the information capturing means 370 or the acquired data database 320. If it stays for more than the specified time, the position is set as the viewpoint retention point, and the accumulated residence time is set as the viewpoint retention time. Then, the data processing means 380 outputs the mouse cursor position, mouse click position, viewpoint dwell point, viewpoint dwell time, and synchronization information to the display processing means 390.
  • the display processing means 390 inputs the content from the content readout display means 335, and The cursor position, mouse click position, viewpoint dwell point, viewpoint dwell time, and synchronization information are input from the data processing means 380. Then, the contents are associated with the mouse cursor position based on the synchronization information, information for display on the screen is generated, and output to the monitor screen 400 for display as screen information.
  • FIGS. 19 to 22 are diagrams showing examples of screens generated by the display processing unit 390.
  • FIG. These screens are used to measure the sensitivity to the content based on the position data, assuming the mouse cursor position as the viewpoint position. By using these screens, it is possible to realize sensibility measurement by a simple method using only the subject response information a from the subject response input means 500 which is a mouse without using the eye movement information b.
  • the display processing means 390 displays the locus of the mouse cursor position regarded as the viewpoint position on the content screen.
  • the display processing means 390 displays a circle having an area proportional to the viewpoint dwell time at the viewpoint dwell point on the content screen.
  • the display processing means 390 aggregates and displays data from the response of the user who is the subject 600 to the content screen in the questionnaire question and answer format. Specifically, when selecting an answer with a mouse click, the degree of answer indicating which answer position the viewpoint position (the mouse cursor position considered) was staying at is accumulated as the residence time, Correct and display using the set weight coefficient.
  • the aggregated results of the degrees for the responses of a plurality of subjects 600 are displayed.
  • the frequency of the degree to the responses of a plurality of subjects 600 is displayed as a graph on the lower side of FIG. From Figure 21, it is possible to analyze the answers, which are actions for questionnaire questions, more accurately, including the sensitivity of the user when selecting.
  • the display processing means 390 displays the content screen, displays the locus of the mouse cursor position regarded as the viewpoint position, and is proportional to the viewpoint dwell time at the viewpoint dwell point. Display a circle with an area. From Figure 22, for example, when the answer is “Eat breakfast” or “Don't eat breakfast”, the answer is “confident” depending on the trajectory of the viewpoint and the size of the circle indicating the viewpoint residence time. It is possible to judge whether the power is “answer” or “question answer”. As shown in Fig. 12, this is the viewpoint trajectory and I point. This is the same as the case of judging from the above.
  • Another modified example of this user response evaluation system is a partial screen that is displayed with the screen scrolling stopped by subject 600's screen scrolling operation such as a mouse under a configuration equivalent to the configuration shown in FIG.
  • the residence time in which the partial screen is displayed and the order of the displayed partial screens are generated as screen information, and the user response is evaluated.
  • this control means 301 includes content reading / display means 335, information fetching means 370, data processing means 380, and display processing means 390.
  • the content readout display means 335 reads the content from the presentation content database 310, inputs the screen scroll information from the information capture means 370, and displays the partial screen indicated by the screen scroll information in the entire content screen. Output to the display 100 for display. In FIG. 17, the content readout display means 335 inputs screen scroll information instead of the mouse cursor position.
  • the content read / display unit 335 outputs the read content to the display processing unit 390 and outputs time information such as a frame number in the content to the information capturing unit 370.
  • the information capture means 370 uses subject response information a including mouse cursor position (coordinates), mouse click position (coordinates) and screen scroll information by subject 600 operation, subject subject 600 mouse operation and click operation, etc. Input according to each.
  • the subject response information a will be described as screen scroll information.
  • the information fetching means 370 inputs the time information of the content from the content read / display means 335, and synchronizes information based on the inputted content time information so that the subject response information a can be associated with the content. Is generated. Then, the information fetching means 370 accumulates the subject response information a (screen scroll information) and the synchronization information in the acquired data database 320 and outputs them to the data processing means 380.
  • the information fetching means 370 outputs screen scroll information to the content reading display means 335.
  • the data processing means 380 inputs the subject response information a (screen scroll information) and the synchronization information from the information fetching means 370 or reads them from the acquired data database 320 and displays them together with the contents on the monitor screen 400. Data is generated, and the generated data is output to the display processing means 390.
  • the data processing means 380 stops based on the screen scroll information from the information fetching means 370 or the acquired data database 320! /, And the screen does not scroll! /. Measure the displayed time. Then, the position where the screen stops without scrolling, the stay time (stop time) in that case, and the order of the stop position are calculated, and subject response information a, synchronization information, stop position, stop time, and stop order Is output to the display processing means 3 90.
  • Display processing means 390 inputs the content from content reading display means 335, and inputs the response of subject response information a, synchronization information, stop position, stop time, and stop position from data processing means 380. Based on the synchronization information, the content is associated with the stop position, etc., and the partial screen showing the stop position is specified in the entire content screen, and information including the staying time and order is generated and monitored as screen information. Output to screen 400 and display.
  • FIG. 29 is a diagram showing an example of a screen generated by the display processing means 390, and shows an example of a screen that displays the transition of the scroll stop position and its residence time.
  • the partial screens represented by the screen scroll stop positions 29001 to 29003 in the entire content screen are displayed in this order.
  • the residence times are 10 seconds, 30 seconds and 20 seconds, respectively.
  • the content to be evaluated is presented to the subject 600 and the subject response information a of the subject 600 who viewed the content is acquired in synchronism.
  • the eye movement which is one of the physiological reactions, is imaged to obtain the eye movement information b, and the interest level of the subject 600 is determined from the obtained data (viewpoint position, pupil diameter and blink frequency).
  • Calculate IDA points, etc. and subject 600 responds to the presented content
  • the effectiveness of was evaluated. This makes it possible to conduct a much more reliable and effective survey with a small number of subjects, compared to conventional paper and web questionnaires, especially for evaluating user responses to web content. It is suitable for.
  • control means 300 and 301 display volatile storage media such as CPU and RAM, non-volatile storage media such as ROM, input devices such as a mouse 500, keyboard, and pointing device, and display images and data.
  • the display 100 for display and the monitor screen 400, and a computer having an interface for communicating with the eyeball imaging camera 200 are configured.
  • the functions of the means 370, the data processing means 380, and the display processing means 390 are realized by causing the CPU to execute a program describing these functions.
  • These programs can also be stored and distributed in a storage medium such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), or a semiconductor memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

課題:提示されるコンテンツに対する被験者の応答の結果を評価する際に、結果の有効性と操作性を向上させる。 解決手段:コンテンツ提示用のディスプレイ100と、被験者600の眼球を撮像するカメラ200と、制御部300、提示コンテンツ用データベース310、取得データ用データベース320、およびデータを表示するためのモニタ画面400と、被験者が提示コンテンツに対して応答するための入力部500とを備え、制御部300は、提示コンテンツ用データベース310からコンテンツを読み出して、ディスプレイ100に対して提示コンテンツを出力し,同時に、被験者応答入力部500からの被験者応答データと、赤外線カメラ200からの眼球画像の取り込みとを同期して行うと共に、これら取得したデータを取得データ用データベース320に同期情報と共に蓄積する。そして、取得したデータに基づいてデータ解析およびモニタ表示などを行う。

Description

明 細 書
コンテンツに対する利用者応答を評価する制御装置
関連出願のクロスリファレンス
[0001] 本出願は、日本国特許出願 2006— 164019号(2006年 5月 18日出願)および日 本国特許出願 2006— 254889号(2006年 9月 20日出願)の優先権を要求し、これ らを参照することにより当該出願を本明細書に合体させるものである。
技術分野
[0002] 本発明は、提示コンテンツに対する被験者応答の評価システムに関し、さらに詳し く言えば、ディスプレイに所定のコンテンツを提示し、それを観察して被験者が応答 する状況を、被験者の生理反応と関連づけて測定し、その測定結果に基づいて評価 する技術に関するものである。
背景技術
[0003] 眼球運動に関する情報を取得し提示コンテンツの評価を行うシステムは、特許文献 1などに見られるように、一方的に提示された映像コンテンツによる被験者の受動的 な反応を測定し映像コンテンツを評価するものであり、被験者の応答を評価するもの ではなかった。
[0004] また、アンケート調査やテスト問題、ゲームなどの対話型システムでは、マウスなど のポインティングデバイスやキーボードなどを用いた被験者の応答を入力デバイスへ のデータ入力として取得するだけであった。
[0005] 被験者が、提示されるコンテンツの内容に関心を持たずに質問に安易に回答した 場合、そのような回答を選別する手段がなぐ全体の結果の信頼性を下げてしまう。
[0006] 従来、これらの安易な回答と信用できる回答とを選別すること、即ち有効な回答を 抽出することは非常に困難であり、たとえ可能であっても心理学などの専門家による 精細な評価が必要であった。
[0007] また、生理反応を測定することで有効な回答を抽出する場合であっても、被験者に センサやマーカなどを装着するようにしているため、その場の雰囲気により被験者に 緊張感などの特定の意識を抱かせることがあり、評価の信頼性が損われたり回答を 拒否されたりするおそれがある。
[0008] つまり、コンテンツを提示し被験者の応答の有効性を評価するシステムに適応する ことは出来な力つた。
[0009] 特許文献 1:特開 2004— 282471号公報
発明の開示
発明が解決しょうとする課題
[0010] したがって、本発明の課題は、提示されるコンテンツに対する被験者の応答の結果 を評価する際に、結果の有効性と操作性を向上させることにある。
課題を解決するための手段
[0011] 本発明は、被験者に対してコンテンツを提示し、それに対して被験者の応答を測定 する際に、応答データと連動して被験者の生理反応 (例えば眼球運動)を測定、解析 するものである。これにより、被験者の応答結果の有効性を判定することができる。特 に、アンケート収集の評価に好適である。
[0012] 例えば、被験者に自然な姿勢での提示コンテンツの視聴を求め、被験者の応答を 測定するのと同時に、集中の度合いを瞬目発生頻度の変化から、情動の変化を自律 神経系反応である瞳孔の変化から、それぞれ判定する。
[0013] その根拠として、まず、人間の興味を反映する指標では、生理心理学の分野にお いて、瞬目の変化が知られている。すなわち、興味ある対象を視聴している際には瞬 目回数は減少し、その前後に増加する。
[0014] 次に、情動の変化は、自律神経系との深い関わりがあり、簡易に測定できる指標と しては、瞳孔反応が知られている。さらに、ユーザーインタフェースの操作性の客観 評価では、人間工学の分野において、視線運動に基づく視点の軌跡および視点の 滞留時間を手がかりに分析される場合が多 、。
[0015] 本発明による制御装置は、上記の知見に基づくもので、ディスプレイに所定のコン テンッを提示し、その提示コンテンツを観察している生理反応を測定して、そのデー タに基づいて提示コンテンツに対する被験者の応答を評価するにあたって、すなわ ち、コンテンツを観察している被験者の応答を評価するにあたって、コンテンツを被 験者へ提示するコンテンツ提示部と、前記提示されたコンテンツに対する被験者の 生理反応情報を取り込む情報取込部と、前記取り込まれた生理反応情報に基づい て、被験者の応答を評価するための評価情報を生成する処理部と、前記例示された コンテンツと前記生成された評価情報とを同期させ、該コンテンツおよび評価情報を 含む画面表示情報を生成する表示処理部とを備えたことを特徴とする。
[0016] 本発明によれば、まず、被験者に測定用センサやマーカを装着する必要がなぐ測 定に伴う被験者の負担が軽減された状態の下で、自然な視聴での応答データを取 得できることが期待される。次に、コンテンツの提示力も測定、解析および表示までの 各機能力 ^台の制御装置に集約されているため、特に高度な専門知識を必要とする ことなく、コンテンツに対する被験者の応答を評価することができる。
[0017] また、被験者の瞬目の発生頻度を測定、解析した場合には、提示コンテンツに対し て興味を持たれたか、あまり興味をもたれな力つた力などを判断し、被験者の応答が 正当なものかどうかを評価することができる。
[0018] 本発明にお 、て、被験者へ提示されるコンテンツは、映像データ、ウェブページデ ータ、コンピュータゲームデータまたはコンピュータプログラムの出力するデータから 成り、かつ、文字列、図、記号、絵、写真および動画のうちの少なくとも一つの、被験 者に応答させるための喚起情報を含むことを特徴とする。これにより、被験者は、容 易に応答することができる。
[0019] また、本発明において、前記情報取込部は、提示されたコンテンツに対し、ボタン、 キーボード、マウス、タツチパネル、リモコンおよびゲーム機器付属コントローラのうち のいずれか一つによる被験者の操作に伴う応答情報を取り込むことを特徴とする。
[0020] また、本発明にお 、て、前記処理部は、生理反応情報を被験者の眼球画像とした 場合に、眼球画像に基づいて、瞬目発生頻度、瞳孔の大きさおよび視点運動データ のうちの少なくとも一つを時間軸に関連付けたデータとして算出し、該データに基づ Vヽて評価情報を生成することを特徴とする。
[0021] また、本発明において、前記処理部は、生理反応情報に基づいて、被験者のコン テンッに対する注目度、集中度、好感度または嫌悪感の度合いを算出し、該度合い を、被験者の応答を評価するための評価情報とすることを特徴とする。
発明の効果 [0022] 本発明によれば、提示されるコンテンツに対する被験者の応答の結果を評価する 際に、結果の有効性および操作性を向上させることができる。
図面の簡単な説明
[0023] [図 1]本発明の実施の形態によるコンテンツの利用者応答評価システムの基本的な 構成を示す模式図である。
[図 2]視点の軌跡および選択結果の画面例を示す図である。
[図 3]問題文を読んで 、な 、場合の画面例を示す図である。
[図 4]図 1に示した制御手段 300の構成を示す図である。
[図 5]コンテンツ評価段 361により生成された画面例を示す図である。
[図 6]コンテンツ評価段 361により生成された画面例を示す図である。
[図 7]WEB評価段 362により生成された画面例を示す図である。
[図 8]WEB評価段 362により生成された画面例を示す図である。
[図 9]WEB評価段 362により生成された画面例を示す図である。
[図 10]WEB評価段 362により生成された画面例を示す図である。
[図 11]アンケート評価段 363により生成された画面例を示す図である。
[図 12]アンケート評価段 363により生成された画面例を示す図である。
[図 13]教育'研修用処理段 364により生成された画面例を示す図である。
[図 14]投稿コンテンツ評価段 365を用いる場合のネットワークシステムの構成例を示 す図である。
[図 15]投稿コンテンツ評価段 365により生成された画面例を示す図である。
[図 16]本発明の実施の形態によるコンテンツの利用者応答評価システムの基本的な 構成 (他の構成)を示す模式図である。
[図 17]図 16に示した制御手段 301の構成を示す図である。
[図 18]カーソル計測の場合の画面例を示す図である。
[図 19]カーソル計測の場合の画面例を示す図である。
[図 20]カーソル計測の場合の画面例を示す図である。
[図 21]カーソル計測の場合の画面例を示す図である。
[図 22]カーソル計測の場合の画面例を示す図である。 [図 23]アンケート評価段 363に用いるコンテンツの画面例 (選択肢が 2つの場合)を 示す図である。
[図 24]アンケート評価段 363により生成された画面例 (選択肢が 2つの場合)を示す 図である。
[図 25]アンケート評価段 363により生成された画面例 (選択肢が 2つの場合)を示す 図である。
[図 26]アンケート評価段 363により生成された画面例 (選択肢が 4つの場合)を示す 図である。
[図 27]アンケート評価段 363により生成された画面例 (選択肢が 4つの場合)を示す 図である。
[図 28]教育'研修用処理段 364により生成された画面例を示す図である。
[図 29]スクロール停止位置の推移とその滞留時間を表示する画面例を示す図である 符号の説明
100 コンテンソ提示用ディスプレイ
200 眼球撮像用カメラ
210 赤外線ランプ
220 顎台
300, 301 制御手段
310 提示コンテンッ用データベース
320 取得データ用データベース
330, 335 コンテンツ読出表示手段
340, 370 情報取込手段
350, 380 データ処理手段
351 視点 ·瞳孔 ·瞬目処理段
352 興味 ·関心度算出段
353 IDASポイント算出段
360, 390 表示処理手段 361 コンテンツ評価段
362 WEB評価段
363 アンケート評価段
364 教育 ·研修用処理段
365 投稿コンテンツ評価段
400 モニタ画面
500 被験者応答入力手段
600 被験者
1010, 1110, 7001, 8001, 11001 視点の軌跡
1020, 1120 マウスクリックした位置
1301, 5001, 6001 領域
1302, 5002 円
1303, 5003 ノ ヮ一ゲージ
1304, 1305, 5004, 5005, 6003〜6006 グラフ
1306 危険指示表示
1307 ボタン押下表示
29001〜29003 画面スクロール停止位置
6002 波形グラフ
発明を実施するための最良の形態
[0025] 次に、図面を参照しながら、本発明を実施するための最良の形態について説明す る力 本発明はこれに限定されるものではない。
[0026] 図 1に示すように、このコンテンツに対する利用者応答を評価するシステムは、その 基本的な構成要素として、コンテンツ提示用のディスプレイ 100と、被験者 600の眼 球を撮像するためのカメラ 200と、制御手段 300と、提示コンテンツ用データベース 3 10と、取得データ用データベース 320と、表示手段としてのモニタ画面 400と、被験 者 600が提示コンテンツに対して応答するための入力手段 500とを備えている。
[0027] コンテンツ提示用のディスプレイ 100は、通常のブラウン管受像器のほかにプロジ ェクタのスクリーン画面それに液晶表示パネルなどを使用できる。カメラ 200は、赤外 線ランプ 210を備えた赤外線カメラであることが好ましぐこの例では、赤外線カメラと して説明する。
[0028] 一例として、赤外線カメラ 200は、被験者 600から 50〜: LOOcmほど離れた位置に、 被験者 600の眼球を撮像するようにスタンドなどを用いてセットされる。なお、被験者 600の頭部の位置を固定するために、顎台 220を用意することもできる。また、顔と眼 球の位置を自動追尾し眼球運動を計測することも可能である。
[0029] これとは別に、ヘッドマウント型装置を用いて赤外線カメラ 200を被験者 600の頭部 に装着させることも可能である。この場合、視聴する対象を、予め撮影した映像とする のではなぐ被験者 600が視認可能な一般の情景とすることも可能である。その際に は、赤外線カメラ 200と逆向きに装着させるカメラにより被験者 600の視野角内にある 情景が同時に撮影され、その撮影された映像力 提示コンテンツと同等のものとして 後述する処理に用いられる。
[0030] 制御手段 300は、提示コンテンツ用データベース 310からコンテンツを読み出して 、ディスプレイ 100に対して提示コンテンツを出力し,同時に、被験者応答入力手段 500からの被験者応答情報と、赤外線カメラ 200からの眼球画像である眼球運動情 報の取り込みとを同期して行うと共に、これら取得したデータを取得データ用データ ベース 320に同期情報と共に蓄積する。そして、取得したデータに基づいてデータ 解析およびモニタ表示などを行う。この制御手段 300は、パーソナルコンピュータ (パ ソコン)クラスのものであってよい。入力手段 500は、ボタン、キーボード、マウス、タツ チパネル、リモコン、ゲーム機器に付属のコントローラなどのどれかであってよい。し かし、これらのうちの!/、ずれかに限定されるものではな!/、。
[0031] なお、提示コンテンツ用データベース 310と取得データ用データベース 320は、ィ ンターネットや LANなどのネットワークで接続された、制御手段 300とは異なる場所 に設置される装置であってよ 、。
[0032] すなわち、例えば異なる場所にホストコンピュータを設置して、そこに上記各フエ一 ズで使用するファイルを持たせ、測定する際に、制御手段 300を通信回線を介してホ ストコンピュータにつなげて必要なファイルなどをダウンロードするようにしてもよぐこ のような態様も本発明に含まれる。 [0033] また、本発明は、大型のディスプレイを備えた例えばデスクトップ型のコンピュータ ば力りでなぐカメラを備えた携帯電話機をはじめとする携帯情報端末にも適用可能 である。一例として、上記の各フェーズ機能を備えた制御手段としてのパソコンとカメ ラ付き携帯情報端末とをインターネット回線を介して接続し、ノ ソコン側力も提示コン テンッを送信して、携帯情報端末側からそれに反応する眼球画像を受信するようにし てもよい。
[0034] 次に、被験者の回答データの有効性を確認する手法につ!、て説明する。一例とし て、説明文である質問とそれに対する回答の選択肢とを画面に表示したアンケートに より、被験者力 マウス応答を得るための提示コンテンツを用いる。
[0035] 図 2および図 3が、図 1に示した利用者応答評価システムにより生成された画面例 である。生理反応としての眼球運動の解析結果から得る視点の軌跡を折れ線 1010 、 1110に、選択結果をマウスクリックした箇所 1020, 1120に示している。この結果 からわかるとおり、図 2においては問題文を読みかつ二つの選択肢を確認したうえで 選択している。一方で図 3は問題文も読まず、単にひとつの選択肢だけを見ただけで 選択している。この場合、図 3の示す例では提示コンテンツに注目せずに反応してい ることが明確であるため、有効なデータでないとしてアンケート調査のサンプル力 排 除することが可能である。
[0036] このときの有効であるかどうかの判定としては、問題文の上を視線が忠実に移動し た力どうかを、視線運動による視点の軌跡と提示コンテンツの文字列との一致度を測 定することで判定する。
[0037] また、同時に瞳孔径の大小変動は、提示コンテンツに対して興味をもっている(また は注目している)かどうかを示す指標として利用可能であることが知られており、この 指標を用いてアンケートに対しての注目度を判断する。
[0038] 眼球運動に基づいて得られる、瞬目発生頻度データ、瞳孔径データ、視線運動デ ータに基づく視点の移動速度、および視線運動データ力 得られる視点の軌跡と予 め設定された見るべき視点の軌跡との距離をそれぞれ時間変動値とし、それぞれ、 a (t), b (t) , c (t) , d (t)とする (d (t)は軌道力 の外れた距離の逆数を示す)。なお、 瞳孔径データの代わりに瞳孔面積データを用いるようにしてもよい。そうすると、提示 コンテンツに対する注目度および集中度などを示す興味'関心度の時間変動 f (t)は f (t) =g (a(t)、b (t) , c (t) , d (t) )
として定義し、この数値の大小により、ある時刻 tでの被験者の提示コンテンツに対す る興味'関心度を測定できる。
[0039] ここで、 p, q, r, sを定数として、 w, x, y, zを変数とする関数 g(w, x, y, z)を線形結 合により、
g、w, X, y, z尸 p 'w+q 'x+r'y + s ' z
と定義して単純ィ匕することもできるし、 w, X, y, zの任意の関数とすることもできる(条 件判定つき多項式などの非線形関数でもよ 、)。
[0040] また、 f (t)をある特定時間の間で積分し、その積分値を単位時間当たりに正規ィ匕し た数値として用いることで、その時間の区間での集中度とすることも可能である。例え ば、アンケートの設問毎に応答時の集中度を算出し、あらかじめ設定した閾値以上 であるかどうかを比較して被験者の応答が有効であるかどうかを判定できる。
[0041] また、設問に対する集中度が低いと判定した場合には、興味 ·関心度を高めるよう にあらかじめプログラムで組み込んでおき、制御手段 300が提示コンテンツを変化さ せるよう制御することも可能である。
[0042] なお、被験者 600の眼球を撮像するための撮像手段は、例えば瞬目発生頻度の みを測定するのであれば、通常のカメラを使用してもよいが、瞳孔径ゃ視線運動を測 定するには、赤外線カメラが好ましく採用される。赤外線カメラによれば、虹彩に写り 込んだ外部映像を排除した高コントラスト画像が得られるため、画像処理およびデー タ解析を安定かつ高速に実行することができる。
[0043] また、制御手段 300は、上記生理反応データをパラメータとする多項式または判定 式を用いて測定時の被験者の興味 ·関心度を算出し、被験者が提示コンテンツに対 して継続して集中して ヽるかどうかを判定して、被験者応答データの有効性を確認す る機能を有している。そして、その有効性に基づいて提示コンテンツのシナリオを変 更させることが可會である。
[0044] また、制御手段 300は、提示コンテンツと、それに対応する被験者応答データおよ び生理反応データとを関連付けて取得するが、眼球運動の前後関係を知るうえで、 提示コンテンツないし眼球運動データを時系列的に表示するようにし、しかも所定の コンテンツの長さにわたってスクロール可能であることが好ましい。
[0045] また、データの解析により回答結果に高い信頼性を持たせるため、制御手段 300 は、眼球運動データ力も被験者の注視点位置を算出し、その注視点を提示コンテン ッにスーパーインポーズして表示させることもできる。
[0046] 〔制御手段〕
次に、図 1に示した制御手段 300の詳細について、より具体的に説明する。図 4は、 制御手段 300の構成を示す図である。この制御手段 300は、コンテンツ読出表示手 段 330、情報取込手段 340、データ処理手段 350、および表示処理手段 360を備え ている。コンテンツ読出表示手段 330は、提示コンテンツ用データベース 310からコ ンテンッを読み出し、被験者 600にコンテンツを提示するための提示用ディスプレイ 100に出力して表示する。また、コンテンツ読出表示手段 330は、読み出したコンテ ンッを表示処理手段 360に出力すると共に、コンテンツにおけるフレームの番号など の時間情報を情報取込手段 340に出力する。この時間情報は、情報取込手段 340 において、被験者応答情報 aおよび眼球運動情報 bとの間の同期情報を生成するた めに用いられる。
[0047] 情報取込手段 340は、マウスカーソル位置 (座標)およびマウスクリック位置 (座標) を含む被験者応答情報 aを、被験者 600のマウス操作およびクリック操作に応じてそ れぞれ入力すると共に、カメラ 200により撮影された眼球画像である眼球運動情報 b を入力する。また、情報取込手段 340は、コンテンツの時間情報をコンテンツ読出表 示手段 330から入力し、被験者応答情報および眼球運動情報とコンテンツとの間の 対応付けができるように、入力したコンテンツの時間情報に基づいて同期情報を生 成する。そして、情報取込手段 340は、被験者応答情報 a (マウスカーソル位置およ びマウスクリック位置)、眼球運動情報 bおよび同期情報を取得データ用データべ一 ス 320に蓄積すると共に、データ処理手段 350に出力する。なお、ここでは、被験者 応答情報 aを、マウスカーソル位置およびマウスクリック位置としている力 これに限定 されるものではない。例えば、図 1に示した入力手段 500がマウスではなぐボタン、 キーボード、タツチパネル、リモコン、ゲーム機器付属コントローラなどの場合には、被 験者 600の操作によりこれらの機器から取り込むことが可能な位置情報 (マウスカー ソル位置に相当する情報およびマウスクリック位置に相当する情報)であってもよい。
[0048] データ処理手段 350は、被験者応答情報 a (マウスカーソル位置およびマウスクリツ ク位置)、眼球運動情報 bおよび同期情報を情報取込手段 340から入力し、または、 取得データ用データベース 320から読み出し、コンテンツと共にモニタ画面 400に表 示するためのデータを生成し、生成したデータを表示処理手段 360に出力する。デ ータ処理手段 350は、視点 ·瞳孔 ·瞬目処理段 351、興味'関心度算出段 352および IDASポイント算出段 353を備えている。
[0049] 視点 '瞳孔'瞬目処理段 351は、情報取込手段 340または取得データ用データべ ース 320からの眼球運動情報 bおよび同期情報に基づ 、て、コンテンツに対応した その時間における視線運動データ、瞳孔径データおよび瞬目発生頻度データを算 出する。具体的には、視点,瞳孔,瞬目処理段 351は、眼球運動情報 bである眼球画 像から瞳孔画像を抽出し、瞳孔の中心位置および予め設定された画面上の位置情 報などに基づいて視点位置を算出する。なお、視点位置の算出手法は公知技術で あるので、ここでは詳細な説明を省略する。詳細については、本出願時以前に公開 された特開 2004— 282471号公報を参照されたい。この場合、時間変化における 視点位置を算出することにより、視点の移動速度や視点の軌跡などの視線運動デー タを求めることもできる。また、抽出した瞳孔画像に基づいて、瞳孔径を算出する。さ らに、抽出した瞳孔画像の時間的変化に基づいて、瞬目発生頻度を算出する。この 場合、瞬目回数を求めることもできる。
[0050] 興味 ·関心度算出段 352は、視点 ·瞳孔 ·瞬目処理段 351により算出された瞳孔径 を用いて、興味'関心度を算出する。具体的には、 P (t)を時刻 tにおける瞳孔径、 I (t )を時刻 tにおける興味 ·関心度とすると、興味'関心度算出段 352は、まず、瞳孔径 P (t)に対して、高周波成分および測定ノイズを除去するために、移動平均などの演算 を施すことにより、低域フィルタ処理を行う。
[0051] そして、興味'関心度算出段 352は、以下の式により、興味'関心度 I (t)を算出する P (t) >thのとき、
[数 1]
τ /ήη P(t)一 th それ以外のとき、
[数 2]
Figure imgf000014_0001
ここで、所定時間内における測定データ系列中の瞳孔径 P (t)の最大値を P
max、最小 値を P 、閾値を thとする。
min
[0052] 閾値 thは、例えば以下の式のように、最大値 P と最小値 P との間の中間値が用
max min
いられる。
[数 3]
, I ί min "t" ^ max /n
til = . . . ( 、
[0053] なお、興味'関心度算出段 352は、視点 ·瞳孔 *瞬目処理段 351により算出された 瞬目発生頻度が、予め設定された閾値よりも大きいか否かを判断し、連続的に閾値 よりも大きくなつて 、る連続的瞬目発生区間につ 、ては興味 ·関心度 I (t)を強制的に 0にするようにしてもよい。
[0054] IDASポイント算出段 353は、 I (Interest:興味関心)ポイント、 D (Desire :願望要 求)ポイント、 A (Action:行動結果)ポイントおよび S (Stay:「滞留時間」)を算出する
[0055] 具体的には、 IDASポイント算出段 353は、 Iポイントの算出に際し、興味'関心度算 出段 352により算出された興味 ·関心度 I (t)の視点を中心とした領域において、以下 の条件を満足する場合の視点位置および興味 ·関心度 I (t)を Iポイントとして生成す る。
[0056] すなわち、視点 ·瞳孔 ·瞬目処理段 351により算出された視点位置に対し、所定の 時間 Δ tにおける視点位置の移動量 Δ d (視点位置の移動速度)力 以下の式のよう に、予め設定された閾値 thvよりも小さいか否かを判断する。
画 く th" … (4)
また、興味'関心度 I (t)が、以下の式のように、予め設定された閾値 th以上であるか 否かを判断する。
[数 5]
I(t) > thi · · · (5)
[0057] つまり、 IDASポイント算出段 353は、 Iポイントの算出に際し、視点位置の移動速度 力 予め設定された閾値 thよりも小さぐかつ、興味 ·関心度 I (t)が、予め設定された 閾値 th以上である場合に、 Iポイントとして視点位置およびそのときの興味 ·関心度 I ( t)を生成する。
[0058] ここで、 Iポイントは、興味 ·関心があつたときに瞳孔が散大する原理を活用して抽出 される、被計測物であるコンテンツに対する瞳孔の散大ポイントであり、視覚的効果 に対する反応を分析するために用いられる。
[0059] また、 IDASポイント算出段 353は、 Dポイントの算出に際し、前述のように生成した
Iポイントに対して、以下の条件を満足する場合の視点位置および興味 ·関心度 I (t) を Dポイントとして生成する。
[0060] すなわち、第 1の条件は、 Iポイントであることである。そして、第 2の条件は、 Iポイン トにおける視点位置
と、マウスカーソル位置
との間の距離が、以下の式のように、予め設定された閾値 th よりも短いこと、
CI
[数 6]
Figure imgf000015_0001
および、その距離が、以下の式のように、時間変化と共に短くなつていることである。 [数 7] 。 … )
[0061] すなわち、 IDASポイント算出段 353は、 Dポイントの算出に際し、 Iポイントにおい て、その視点位置とマウスカーソル位置との間の距離が閾値 th よりも短ぐかつ、そ
CI
の距離が時間的に短くなつている場合に、 Dポイントとして視点位置およびそのときの 興味'関心度 I (t)を生成する。
[0062] ここで、 Dポイントは、 Iポイントを追!ヽかけるようにマウスカーソル位置が一致したポ イントであり、マウスクリックアクションの前段階として捉えて抽出され、被験者 600が マウスをクリックする力しな 、かの「迷 、」や Iポイントから一段階進んだ「行動誘導」の ポイントを分析するために用いられる。
[0063] また、 IDASポイント算出段 353は、入力したマウスカーソル位置である、 Iポイントを 含むリンクボタンなどの操作対象に対して、 Aポイントとして被験者 600が発火した位 置およびそのときの興味'関心度 I (t)を生成する。
[0064] ここで、 Aポイントは、被験者 600の行動結果である「クリック」したポイントが抽出さ れ、コンテンツ制作 '運営の目的どおりに被験者を誘導できているか否力を分析する ために用いる。
[0065] また、 IDASポイント算出段 353は、前述のように生成した Iポイント、 Dポイントにつ いて、視点位置が滞留した時間 Sを算出する。また、前述のように生成した Aポイント について、マウスクリックされたマウスカーソル位置(マウスクリック位置)が滞留した時 間 Sを算出する。具体的には、視点位置およびマウスカーソル位置が、予め設定され た位置範囲内にある力否かを判断し、その位置範囲内にある場合の滞留時間 Sを算 出する。
[0066] ここで、滞留時間 Sは、 Iポイント、 Dポイントおよび Aポイントに付加されるデータで あり、例えば、テキストを読むという「行動」や「迷い」など、時間軸における分析のため に用いられる。
[0067] このように、データ処理手段 350は、視点 ·瞳孔 ·瞬目処理段 351により算出された 視点位置、瞳孔径および瞬目発生頻度、興味 ·関心度算出段 352により算出された 興味'関心度、並びに、 IDASポイント算出段 353により算出された Iポイント (視点位 置,興味 ·関心度)、 Dポイント (視点位置,興味 ·関心度)、 Aポイント (マウスクリック位 置,興味,関心度)および S (視点位置,マウスクリック位置,滞留時間)を表示処理手 段 360に出力すると共に、入力した被験者応答情報 a (マウスカーソル位置およびマ ウスクリック位置)および同期情報を表示処理手段 360に出力する。
[0068] 表示処理手段 360は、コンテンツをコンテンツ読出表示手段 330から入力し、マウ スカーソル位置、マウスクリック位置、同期情報、視点位置、瞳孔径、瞬目発生頻度、 興味'関心度、 Iポイント (視点位置,興味,関心度)、 Dポイント (視点位置,興味,関 心度)、 Aポイント (マウスクリック位置,興味 ·関心度)および S (視点位置,マウスクリツ ク位置,滞留時間)をデータ処理手段 350から入力する。そして、同期情報に基づい てコンテンツとマウスカーソル位置などとを対応付け、画面に表示するための情報を 生成し、画面情報としてモニタ画面 400に出力して表示する。表示処理手段 360は、 コンテンツ評価段 361、 WEB評価段 362、アンケート評価段 363、教育'研修用処 理段 364、および投稿コンテンツ評価段 365を備えている。
[0069] 図 5および図 6は、コンテンツ評価段 361により生成された画面例を示す図である。
これらの画面は、コンテンツに対する感性を計測するためのものであり、これらの画面 により、コンテンツ提供者の意図と受験者 600である視聴者の興味や関心とが狙いど おりの効果を発揮している力否力 また、注目点がターゲットを適確に捉えているか 否かと解析 ·分析することができる。
[0070] 図 5において、コンテンツ評価段 361は、コンテンツ画像を領域 5001に表示し、そ のときの Iポイントを円の形態にて表示する。また、 Iポイントの興味'関心度をパワーゲ ージ 5003— 1, 2に表示し、興味'関心度の時間的変化をグラフ 5004—1, 2および グラフ 5005— 1, 2に表示する。領域 5001において、視点位置に、興味'関心度の 大きさに比例した径 (直径または半径)の円が表示される。円 5002— 1は第 1の被験 者の興味.関心度を示し、円 5002— 2は第 2の被験者の興味.関心度を示す。これら の円は、コンテンツ画像の時間的変化 (動画像として領域 5001に表示される画像が 変わること)に伴う視点の軌跡どおりに、そのときの興味 ·関心度の値が径に反映され ながら移動する。パワーゲージ 5003— 1は第 1の被験者の興味'関心度、パワーゲ ージ 5003— 2は第 2の被験者の興味'関心度を示す。グラフ 5004— 1, 2は、それぞ れ第 1, 2の被験者の興味'関心度の推移が時系列の折線として表示される。グラフ が表示されて ヽる領域内のタイムバーは、領域 5001に表示されて!ヽるコンテンツ画 像に連動しており、そのときの時間位置および興味'関心度を示している。グラフ 500 5- 1, 2は、それぞれグラフ 5004— 1, 2内のカーソル付近 (現在点付近)の興味'関 心度について横軸の時間を拡大したものである。また、グラフ 5004— 1, 2およびグ ラフ 5005— 1, 2が表示されている領域内のタイムバーを移動させることにより、その 時間位置におけるコンテンツ画像および Iポイントが領域 5001に表示される。
[0071] 図 6において、コンテンツ評価段 361は、コンテンツのサムネイルを時系列に領域 6 001に表示し、コンテンツに付加された音声周波数のデータを、右 (R)の音声周波 数の波形グラフ 6002— 1および左 (L)の音声周波数の波形グラフ 6002— 2として表 示する。また、コンテンツ評価段 361は、それぞれの被験者の興味 ·関心度の時間的 変化をグラフ 6003〜6006として表示する。この場合、横軸は時間を示し、コンテン ッのサムネイル、音声周波数の波形グラフ 6002— 1, 2、およびグラフ 6003〜6006 は同じ時間軸上に対応して表示される。
[0072] 図 7〜図 10は、 WEB評価段 362により生成された画面例を示す図である。これら の画面は、 WEB (ウェブページ)画面に対する感性を計測するためのものであり、こ れらの画面により、被験者 600であるユーザが WEB画面内で多く見ていた場所、注 目していた場所、マウスカーソルの動きなどを明らかにすることができる。
[0073] 図 7にお!/、て、 WEB評価段 362は、コンテンツである WEB画面を表示し、その画 面における視点の軌跡 7001を表示すると共に、 Iポイントを円の形態にて表示する。 Iポイントは、その視点位置に、興味 ·関心度の大きさに比例した径の円として表示さ れる。図 7から、 WEBサイトのページ毎の視点の軌跡や Iポイントの推移および興味 · 関心度を把握することができ、ユーザの興味関心の推移を分析することができる。
[0074] なお、 WEB評価段 362は、視点の軌跡 7001を表示するに際し、その視点移動の 速度に応じた形態で表示するようにしてもよい。一般に、人が画面上の対象物を認識 する際に、視点の軌跡は、滞留→速い移動→滞留を繰り返すこととなる。この視点の 軌跡から以下の傾向を導き出すことができる。 (1)興味ある箇所では視点の滞留時間が長くなる。
(2)全体的に認識しょうとする場合、速い視点移動となる。視点の軌跡は直線になる
(3)じっくりと見ようとする場合や読もうとする場合、視点移動は遅くなる、または滞留 する。視点の軌跡は曲線になる。
[0075] WEB評価段 362は、前述の(1)〜(3)を区別するための処理を行い画面に表示 する。具体的には、視点の軌跡 7001から一定のサンプリングにおける標本を選定し 、隣り合う標本点間の距離を算出し、その距離が予め設定された閾値よりも大きい場 合の標本間を点線で表示し、その距離が予め設定された閾値以下の場合の標本間 を実線で表示する。これにより、(2)および(3)を区別することができる。この場合、点 線および実線の代わりに線の太さで区別するようにしてもよい。また、(1)については Iポイントを表示する。なお、このような(1)〜(3)を区別するための表示処理について は、 WEB評価段 362による処理だけでなぐ視点の軌跡を表示する処理(図 11、図 12など)についても適用がある。また、後述する、マウスカーソル位置の軌跡を視点 の軌跡とみなして表示する処理(図 19など)につ ヽても適用がある。
[0076] 図 8において、 WEB評価段 362は、コンテンツである WEB画面を表示し、その画 面における視点の軌跡 8001を表示すると共に、 Iポイント、 Dポイントおよび Aポイント を円の形態にて表示する。 Iポイント、 Dポイントおよび Aポイントは、その視点位置に 、興味 ·関心度の大きさに比例した径の円として表示される。図 8から、 WEBサイトの ページ毎に、 I (興味関心)→D (願望欲求)→A (行動結果)と!、うユーザの感情の推 移を分析することができる。
[0077] 図 9において、 WEB評価段 362は、コンテンツである WEB画面を表示し、その画 面の領域 a〜hにおける滞留時間を表示する。この場合、 WEB評価段 362は、領域 a 〜h毎に、入力した時系列の視点位置に基づいて、その視点位置の滞留時間を算 出する。領域 a〜hは、予め設定されており、滞留時間は、視点位置がそれぞれの領 域 a〜hに滞留した積算時間を示す。
[0078] 図 10において、 WEB評価段 362は、アンケート質問および回答形式の WEB画面 に対する被験者 600であるユーザの応答から、データを集計して表示する。具体的 には、回答をマウスクリックで選択する場合に、視点位置がどちらの回答の側に滞留 していたかを示す回答度合いを滞留時間として積算し、予め設定された重み係数を 用いて補正して表示する。図 10の左側には、複数の被験者 600の回答に対する度 合いの集計結果が表示されている。また、図 10の右側には、複数の被験者 600の回 答に対する度合いの頻度がグラフとして表示されている。図 10から、アンケート質問 に対するアクションである回答の有効性を、ユーザが選択する際の感性を含めて、一 層正確に分析することができる。
[0079] 図 11、図 12、図 23ないし図 27は、アンケート評価段 363により生成された画面例 を示す図である。これらの画面は、アンケート質問および回答形式の画面に対する感 性を計測するためのものである。
[0080] 図 11において、アンケート評価段 363は、コンテンツの画面を表示し、その画面に おける視点の軌跡 11001を表示する。図 11に示した画面は、質問に関する商品が 表示され、アンケート質問および回答形式で構成されている。図 11から、商品を見な 力 回答しているか否か、視点の軌跡力も有効な回答か否かを判断することができ、 商品を見ない回答および有効でない回答を抽出して回答集計力 除外することによ り、回答集計結果の有効性を向上させることができる。
[0081] 図 12において、アンケート評価段 363は、コンテンツの画面を表示し、その画面に おける視点の軌跡を表示すると共に、 Iポイントを円の形態にて表示する。図 12に示 した画面は、図 11と同様に、商品が表示され、アンケート質問および回答形式で構 成されている。図 12から、例えば、回答が「はい」「いいえ」「どちらでもない」の 3択で ある場合に、視点の軌跡および Iポイントの円の大きさにより、その回答が「自信をもつ た回答」であるか「迷い回答」であるかを判断することができる。図 12の実線で示す視 点の軌跡の回答の場合は、視点の軌跡が複数の回答の間で行き来していないから、 「自信をもった回答」であると判断できる。一方、点線で示す視点の軌跡の回答の場 合は、視点の軌跡が複数の回答の間で行き来しているから、「迷い回答」であると判 断できる。
[0082] 図 23および図 24において、コンテンツ読出表示手段 330が図 23に示すコンテンツ を提示用ディスプレイ 100に出力して表示し、被験者 600により Aまたは Bの仮選択 操作(関心の高 、方の枠内にマウスのカーソルを置 、てクリック操作 (選択操作した 後にキャンセルして再選択する操作を含む))が行われ、選択されたことを示す表示( 枠に色を付ける、枠を太くする表示など)がなされ、そして選択の確定操作が行われ ると、情報取込手段 340およびデータ処理手段 350が前述した各種処理を行う。この ような処理を複数の被験者 600を対象にして行 、、複数の被験者 600による被験者 応答情報 aおよび眼球運動情報 bが取得され格納される。この場合、情報取込手段 3 40は、被験者応答情報 aとして、最終的に被験者 600が選択した確定操作 (Aまたは B)の情報だけでなぐ確定操作の前の仮選択操作の情報およびその回数 (Aを選択 した回数および Bを選択した回数)の情報も取り込む。
[0083] 図 24は、アンケート評価段 363により生成された画面例 (選択肢が 2つの場合)を 示す図である。アンケート評価段 363は、コンテンツの画面、その画面における視点 の軌跡、並びに、興味 ·関心度の度合いに応じて円の形態に表した Iポイントおよび A ポイントを合成した画面情報を生成して表示する。図 24において、中抜きの円が仮 選択操作時の注目点を示す Iポイントであり、斜線の円が確定操作時の注目点を示 す Aポイントである。図 24によれば、被験者 600が確定操作までの間に、どの箇所に 注目していたかが明確になる。
[0084] また、アンケート評価段 363は、被験者 600毎に、被験者応答情報 aに基づ 、て A , Bの選択を区別して確信度を算出し、 A, Bを選択した被験者 600をそれぞれ集計 して確信度の頻度分布および平均値などを算出する。確信度の算出手法について は後述する。そして、これらの算出データを用いて確信度の頻度分布グラフを生成し 、図 25に示す画面を表示する。
[0085] 図 25において、横軸は確信度を示しており、縦軸は選択した人数の割合を示して いる。つまり、この折線グラフは、左半分に Aの確信度頻度分布(中心部分力 左に 向かって確信度は高くなる。)を、右半分に Bの確信度頻度分布(中心部分力も右に 向かって確信度は高くなる。)をそれぞれ示している。また、点線は、それぞれの確信 度頻度分布における確信度の平均値を示して 、る。確信度の頻度分布グラフの下に 表示されたバーグラフは選択率を示して!/ヽる。
[0086] 図 25によれば、選択肢 Aの確信度の平均値が 77、選択肢 Bの確信度の平均値が 49であり、 Aを選択した被験者 600は全体の 70%であり、確信度が比較的高いこと がわかる。このように、 A, Bをそれぞれ選択した被験者 600における確信度の平均 値および頻度分布がわかり、被験者 600の選択の傾向を分析することができ、コンテ ンッのデザイン評価などに新たな指標を追加することができる。
[0087] 次に、選択肢が 2つ (A, B)の場合における確信度の算出手法について説明する。
ある被験者 600において、領域 A, Bに対する計測中のサンプル時刻 iにおける興味 '関心度を I (i), I (i)とすると、注目滞留度 G , Gを以下の式により算出する。
A B A B
[数 8]
oo
G4=∑/4(i)-^() · · · (8)
[数 9]
Figure imgf000022_0001
ここで、滞留点判定値 δ (i), δ (i)、すなわち δ は以下のように定義される。
A B p
[数 10] 一 J丄, inside p area · · , ,■< Q) p = (o, else 滞留点判定値 δ は、視点が領域内に存在する場合に 1、領域外に存在する場合に
Ρ
0であることを示している。
[0088] そして、選択肢 Αへの (選択肢 Bに対する)注目偏度 D、および、選択肢 Bへの (選
A
択肢 Aに対する)注目偏度 Dを以下の式により算出する。
B
[数 11]
D A = ~ ^ ~~ · . . (1 1)
[数 12]
G B
DB = (1 2)
ΟΑΛ-G B ここで、注目偏度 D , Dの値域は [0, 1]である。
A B
[0089] そして、選択肢 A, Bを仮選択した回数をそれぞれ C , Cとすると、 Aを選択した場
A B
合の選択偏度 k、および、 Bを選択した場合の選択偏度 kを以下の式により算出す
A B
る。
[数 13] kA = ( 1 3 )
[数 14] k L_ …(1 4 ) ここで、選択偏度 k , kは、確定操作による最終選択までの仮選択操作の回数を評
A B
価し、確信度を重み付けするための係数であり、その値域は(0, 1)である。この選択 偏度 k , kは、確定操作による最終選択と異なる選択肢を選択すればするほど、そ
A B
の値力 、さくなる。
[0090] そして、確定操作による最終選択肢が Aである場合の確信度 wa、および、確定操
A
作による最終選択肢力 ¾である場合の確信度 waを、注目偏度 D , Dおよび選択偏
B A B
度 k , kから以下の式により算出する。
A B
[数 15] waA = 100 - kA - DA …(1 5 )
[数 16] waB = 100 - kB - DB · · · ( 1 6 ) ここで、確信度 wa , waの値域は [0, 100]であり、その値が大きいほど確信度が高
A B
い。
[0091] 次に、選択肢が 3以上の場合における確信度の算出手法について説明する。この 説明は、前述した選択肢が 2の場合にも適用がある。以下、領域 j (0≤j≤n)は、選択 肢 jを囲む四角形で囲まれた部分とする。ある被験者 600において、領域 Pに対する 計測中のサンプル時刻 iにおける興味 ·関心度を I (i)とすると、注目滞留度 Gを以下
P P
の式により算出する。
[数 17]
Gp = lp(i) -6p(i) . . . (17) ここで、滞留点判定値 δ (i)、すなわち δ は以下のように定義される。
Ρ Ρ
[数 18] inside p area ,, 。、
Figure imgf000024_0001
else … 1 8) 滞留点判定値 δ は、視点が領域内に存在する場合に 1、領域外に存在する場合に
Ρ
0であることを示している。
[0092] 画面中の領域 jに対する注目滞留度 Gは以下のとおりである。
[数 19]
Gj = y ^(ί) .δ^ί) - · . (19) i=Q
[0093] そして、選択肢 jへの (全選択肢に対する)注目偏度 Dを以下の式により算出する。
[数 20]
D …(20)
Figure imgf000024_0002
ここで、注目偏度 Dの値域は [O, 1]である。
[0094] そして、選択肢 jを仮選択した回数をそれぞれ Cとすると、 jを選択した場合の選択 偏度 kを以下の式により算出する。
[数 21]
1
k, = . . . (21) ここで、選択偏度 kは、確定操作による最終選択までの仮選択操作の回数を評価し 、確信度を重み付けするための係数であり、その値域は(0, 1)である。この選択偏度 kは、確定操作による最終選択と異なる選択肢を選択すればするほど、その値が小さ くなる。
[0095] そして、確定操作による最終選択肢が jである場合の確信度 waを、注目偏度 Dお よび選択偏度 k力 以下の式により算出する。
[数 22] waj = 100 - kj - Όά · * · ( 2 2 ) ここで、確信度 waの値域は [0, 100]であり、その値が大きいほど確信度が高い。
[0096] このように、アンケート評価段 363は、被験者 600毎に、被験者応答情報 aに基づ いて j (2以上の選択肢)の選択を区別して確信度を算出し、 jを選択した被験者 600 をそれぞれ集計して確信度の頻度分布および平均値などを算出する。そして、これら の算出データを用いて確信度の頻度分布グラフを生成し、表示する。
[0097] 図 26および図 27は、アンケート評価段 363により生成された画面例 (選択肢が 4つ の場合)を示す図である。アンケート評価段 363は、コンテンツの画面、その画面に おける視点の軌跡、並びに、興味 ·関心度の大きさに応じて円の形態に表した Iボイ ントおよび Aポイントを合成した画面情報を生成して表示する。図において、中抜きの 円が仮選択操作時の注目点を示す Iポイントであり、斜線の円が確定操作時の注目 点を示す Aポイントである。本図によれば、被験者 600が確定操作までの間に、どの 箇所に注目していたかが明確になる。また、視点の軌跡および Iポイントの表示から、 図 26では、視点の動きが多く仮選択の数も多いことから、「迷い回答」(迷いの多い回 答)であることがわかる。また、図 27では、視点の動きが少なく仮選択の数も少ないこ とから「自信をもった回答」(迷 、の少ない回答)であることがわかる。
[0098] 図 13および図 28は、教育 ·研修用処理段 364により生成された画面例を示す図で ある。この画面は、安全教育などの様々な教育および研修に対し、感性計測という指 標をカ卩えたものである。
[0099] 図 13において、教育'研修用処理段 364は、コンテンツを領域 1301に表示し、そ のときの Iポイントを円の形態にて表示する。また、興味 ·関心度 (注目度)をパワーゲ ージ 1303— 1, 2に表示し、興味'関心度(注目度)の時間的変化をグラフ 1304— 1 , 2およびグラフ 5005— 1, 2【こ表示する。図 13【こ示す領域 1301、ノ ヮ一ゲージ 13 03 - 1, 2、グラフ 1304— 1, 2、グラフ 1305— 1, 2ίま、図 5【こ示した領域 5001、ノ ヮーゲージ 5003— 1, 2、グラフ 5004— 1, 2、グラフ 5005— 1, 2にそれぞれ相当す る。図 13に示す画面は、図 5に示した画面と同じ構成および内容であるので、ここで は説明を省略する。図 13では、熟練運転者を第 1の被験者とし、無免許運転者を第 2の被験者とした場合の興味 ·関心度(注目度)の時間変化がグラフ 5004— 1, 2に それぞれ示されている。このグラフから、熟練運転者の興味'関心度 (注目度)は比較 的平均しているのに対し、無免許運転者の興味'関心度(注目度)は平均しておらず 変動が激しいことがわかる。
[0100] 図 28において、教育'研修用処理段 364は、図 13に示した画面情報を生成して表 示する際に、さらに、コンテンツに付随した危険指示情報を危険指示表示 1306とし て表示する。この場合、教育'研修用処理段 364が入力するコンテンツには危険指 示情報が含まれており、この危険指示情報は、危険であることを判断すべきタイミング で表示されるようになっている。また、被験者 600が、コンテンツを見て危険であると 判断したときにマウス操作などによりボタンを押下すると、教育'研修用処理段 364は 、危険であると判断したことを示す被験者応答情報 aを入力し、そのボタン押下したタ イミングでボタン押下表示 1307を表示する。このように、車の運転教育を受ける被験 者 600は、コンテンツを見ながら危険を判断した場合に、マウス操作などによりボタン を押下する。このとき、教育'研修用処理段 364は、車の運転教育を受ける被験者 60 0の感性を、危険指示表示 1306の表示タイミングと、被験者 600のボタン操作などに よるボタン押下タイミングとにより計測することができる。また、被験者 600は、これらの 表示タイミングを確認することにより、自らによる車の運転が安全である力否かを判断 することができる。
[0101] 図 14は、投稿コンテンツ評価段 365を用いる場合のネットワークシステムの構成例 を示す図である。このネットワークシステムは、図 1に示したコンテンツの利用者応答 評価システムが設置された感性計測設備と、投稿コンテンツ評価サービスを受ける利 用者 (投稿者)が操作する PC (パーソナルコンピュータ)またはモパイル端末とから構 成され、感性計測設備内の利用者応答評価システムと PCまたはモパイル端末とがィ ンターネットにより接続される。
[0102] PCなどは、投稿コンテンツ評価サービスを受ける利用者の操作により、指定された 被験者 600の年代情報、評価される画像などをインターネットを介して利用者応答評 価システムへ送信する。この場合、利用者は本サービスの会員になって IDおよびパ スワードを感性計測設備の制御手段 300に予め登録しておき、利用者のメールアド レスと関連付けておくようにしてもよい。利用者応答評価システムは、これらの情報を 受信し、指定された年代の複数の被験者 600、または評価される画像コンテンツの分 野における指導者などの当業者から情報を収集して診断結果を生成し、その診断結 果 (評価した画像、視点の軌跡、興味 ·関心度など)を、インターネットを介して PCな どへ返信する。この場合、診断結果をメールに添付し、利用者のメールアドレス宛に 返信するようにしてもよ ヽ。
[0103] 図 15は、図 14に示した感性計測設備内の利用者応答評価システムにおける投稿 コンテンツ評価段 365により生成された画面例を示す図である。投稿者により送信さ れた自らの写真の画像に基づいて評価した結果が、顔の視点位置に円の形態で表 示されている Iポイント、および画面右側に表示されている複数の被験者 600によつ て集計された情報である。利用者応答評価システムは、投稿者により送信された画像 を提示コンテンツ用データベース 310に蓄積すると、コンテンツ読出表示手段 330、 情報取込手段 340およびデータ処理手段 350により、被験者応答情報 aおよび眼球 運動情報 bを、対象となった複数の被験者 600から取り込み、被験者 600毎に視点 位置、瞳孔径、興味'関心度、 Iポイントなどの各種データを生成する。そして、表示 処理手段 360の投稿コンテンツ評価段 365は、複数の被験者 600の視点位置、瞳 孔径などの各種データに基づいて、画面に表示するための Iポイントを集計し、顔の 部位 (右目、左目など)毎に興味'関心度を集計する。なお、投稿コンテンツ評価段 3 65は、図 24ないし図 27に示した画面情報を生成し、これらの情報を診断結果として PCなどへ返信し、診断結果を利用者へ提示するようにしてもよ!ヽ。
[0104] 〔変形例〕
次に、利用者応答評価システムの変形例について説明する。図 16は、本発明の実 施の形態によるコンテンツの利用者応答評価システムの基本的な構成 (他の構成)を 示す模式図である。図 16に示すように、この利用者応答評価システムは、その基本 的な構成要素として、コンテンツ提示用のディスプレイ 100と、制御手段 301と、提示 コンテンツ用データベース 310と、取得データ用データベース 320と、表示手段とし てのモニタ画面 400と、被験者 600が提示コンテンツに対して応答するための入力 手段 500とを備えて ヽる。図 1に示した利用者応答評価システムと図 16に示す利用 者応答評価システムとを比較すると、図 16では被験者 600の眼球を撮像するための カメラ 200、それに伴う赤外線ランプ 210および顎台 220を備えていない点で相違す る。ディスプレイ 100、提示コンテンツ用データベース 310、取得データ用データべ ース 320、モニタ画面 400および入力手段 500は、図 1に示したそれらと同等である から、ここでは説明を省略する。
[0105] 図 16に示す利用者応答評価システムは、マウスカーソル位置の軌跡と視点の軌跡 とが同等であるとみなして、眼球運動情報 bを用いることなく被験者応答情報 aのみか ら利用者応答を評価するものである。
[0106] 〔変形例 Z制御手段〕
次に、図 16に示した制御手段 301の詳細について説明する。図 17は、制御手段 3 01の構成を示す図である。この制御手段 301は、コンテンツ読出表示手段 335、情 報取込手段 370、データ処理手段 380、および表示処理手段 390を備えている。
[0107] コンテンツ読出表示手段 335は、提示コンテンツ用データベース 310からコンテン ッを読み出し、情報取込手段 370からマウスカーソル位置を入力し、コンテンツにお ける所定のテキストデータに対し、マウスカーソル位置に基づいて、被験者 600が認 識し難いようにぼかし力卩ェを施し、被験者 600にコンテンツを提示するための提示用 ディスプレイ 100に出力して表示する。また、コンテンツ読出表示手段 335は、読み 出したコンテンツを表示処理手段 390に出力すると共に、コンテンツにおけるフレー ムの番号などの時間情報を情報取込手段 370に出力する。
[0108] 図 18は、コンテンツ読出表示手段 335が提示用ディスプレイ 100に表示する画面 例を示す図である。図 18において、テキストデータ「あなたは」「朝食を食べる」「朝食 を食べない」は、マウスカーソル位置に応じて、ぼ力した形態またはくつきりした形態 で表示される。コンテンツ読出表示手段 335は、マウスカーソル位置を入力し、マウス カーソル位置とテキストデータの表示位置とを比較し、その間の距離が予め設定され た閾値よりも短くなつた場合に、そのテキストデータに対して、コンテンツの本来の表 示形態になるように、くっきりした形態で表示する。また、その間の距離が閾値以上の 場合に、そのテキストデータに対して、ぼ力した形態で表示する。例えば、そのテキス トデータと白色画像とを画素毎に重ね合わせて (加重平均して)、ぼかした形態で表 示する。この場合、一層ぼかした形態で表示するには、白色画像の重みを大きくす ればよい。
[0109] 情報取込手段 370は、マウスカーソル位置 (座標)およびマウスクリック位置 (座標) を含む被験者応答情報 aを、被験者 600のマウス操作およびクリック操作に応じてそ れぞれ入力する。また、情報取込手段 370は、コンテンツの時間情報をコンテンツ読 出表示手段 335から入力し、被験者応答情報 aとコンテンツとの間の対応付けができ るように、入力したコンテンツの時間情報に基づいて同期情報を生成する。そして、 情報取込手段 370は、被験者応答情報 a (マウスカーソル位置およびマウスクリック位 置)および同期情報を取得データ用データベース 320に蓄積し、データ処理手段 38 0に出力する。また、情報取込手段 370は、被験者応答情報 aのうちのマウスカーソ ル位置をコンテンツ読出表示手段 335に出力する。
[0110] データ処理手段 380は、被験者応答情報 a (マウスカーソル位置およびマウスクリツ ク位置)および同期情報を情報取込手段 370から入力し、または、取得データ用デ ータベース 320から読み出し、コンテンツと共にモニタ画面 400に表示するためのデ ータを生成し、生成したデータを表示処理手段 390に出力する。
[0111] 具体的には、データ処理手段 380は、情報取込手段 370または取得データ用デー タベース 320からの被験者応答情報 aにおけるマウスカーソル位置について、予め設 定された移動範囲内において予め設定された時間以上滞留した場合に、その位置 を視点滞留点に設定し、その積算した滞留時間を視点滞留時間に設定する。そして 、データ処理手段 380は、マウスカーソル位置、マウスクリック位置、視点滞留点、視 点滞留時間および同期情報を表示処理手段 390に出力する。
[0112] 表示処理手段 390は、コンテンツをコンテンツ読出表示手段 335から入力し、マウ スカーソル位置、マウスクリック位置、視点滞留点、視点滞留時間および同期情報を データ処理手段 380から入力する。そして、同期情報に基づいてコンテンツとマウス カーソル位置などとを対応付け、画面に表示するための情報を生成し、画面情報とし てモニタ画面 400に出力して表示する。
[0113] 図 19〜図 22は、表示処理手段 390により生成された画面例を示す図である。これ らの画面は、マウスカーソル位置を視点位置とみなし、その位置データに基づいてコ ンテンッに対する感性を計測するためのものである。これらの画面により、眼球運動 情報 bを用いることなぐマウスである被験者応答入力手段 500からの被験者応答情 報 aのみにより、簡易な手法で感性計測を実現することができる。
[0114] 図 19において、表示処理手段 390は、コンテンツの画面上に、視点位置とみなし たマウスカーソル位置の軌跡を表示する。また、図 20において、表示処理手段 390 は、コンテンツの画面上に、視点滞留点に、その視点滞留時間に比例した面積を有 する円を表示する。また、図 21において、表示処理手段 390は、アンケート質問およ び回答形式のコンテンツ画面に対する被験者 600であるユーザの応答から、データ を集計して表示する。具体的には、回答をマウスクリックで選択する場合に、視点位 置(とみなしたマウスカーソル位置)がどちらの回答の側に滞留していたかを示す回 答度合いを滞留時間として積算し、予め設定された重み係数を用いて補正して表示 する。図 21の上側には、複数の被験者 600の回答に対する度合いの集計結果が表 示されている。また、図 21の下側には、複数の被験者 600の回答に対する度合いの 頻度がグラフとして表示されている。図 21から、アンケート質問に対するアクションで ある回答を、ユーザが選択する際の感性を含めて、一層正確に分析することができる
[0115] また、図 22において、表示処理手段 390は、コンテンツの画面を表示し、視点位置 とみなしたマウスカーソル位置の軌跡を表示すると共に、視点滞留点に、その視点滞 留時間に比例した面積を有する円を表示する。図 22から、例えば、回答が「朝食を 食べる」「朝食を食べない」の 2択である場合に、視点の軌跡および視点滞留時間を 示す円の大きさにより、その回答が「自信をもった回答」である力「迷い回答」であるか を判断することができる。これは、図 12に示したように、視点の軌跡および Iポイントか ら判断する場合と同様である。
[0116] 〔他の変形例〕
次に、利用者応答評価システムの他の変形例について説明する。この利用者応答 評価システムの他の変形例は、図 16に示した構成と同等の構成の下で、被験者 600 によるマウスなどの画面スクロール操作によって、画面スクロールが停止して表示され た部分画面、その部分画面が表示されている滞留時間、および表示された部分画面 の順番を画面情報として生成し、利用者応答を評価するものである。
[0117] 〔他の変形例 Z制御手段〕
次に、制御手段 301について説明する。図 17を参照して、この制御手段 301は、コ ンテンッ読出表示手段 335、情報取込手段 370、データ処理手段 380、および表示 処理手段 390を備えて ヽる。
[0118] コンテンツ読出表示手段 335は、提示コンテンツ用データベース 310からコンテン ッを読み出し、情報取込手段 370から画面スクロール情報を入力し、コンテンツの全 体画面のうち画面スクロール情報の示す部分画面を表示するように、提示用ディスプ レイ 100に出力する。図 17において、コンテンツ読出表示手段 335は、マウスカーソ ル位置の代わりに画面スクロール情報を入力する。また、コンテンツ読出表示手段 3 35は、読み出したコンテンツを表示処理手段 390に出力すると共に、コンテンツにお けるフレームの番号などの時間情報を情報取込手段 370に出力する。
[0119] 情報取込手段 370は、被験者 600の操作によるマウスカーソル位置 (座標)、マウス クリック位置 (座標)および画面スクロール情報を含む被験者応答情報 aを、被験者 6 00のマウス操作およびクリック操作などに応じてそれぞれ入力する。以下、被験者応 答情報 aを画面スクロール情報として説明する。情報取込手段 370は、コンテンツの 時間情報をコンテンツ読出表示手段 335から入力し、被験者応答情報 aとコンテンツ との間の対応付けができるように、入力したコンテンツの時間情報に基づいて同期情 報を生成する。そして、情報取込手段 370は、被験者応答情報 a (画面スクロール情 報)および同期情報を取得データ用データベース 320に蓄積し、データ処理手段 38 0に出力する。また、情報取込手段 370は、画面スクロール情報をコンテンツ読出表 示手段 335に出力する。 [0120] データ処理手段 380は、被験者応答情報 a (画面スクロール情報)および同期情報 を情報取込手段 370から入力し、または、取得データ用データベース 320から読み 出し、コンテンツと共にモニタ画面 400に表示するためのデータを生成し、生成した データを表示処理手段 390に出力する。
[0121] 具体的には、データ処理手段 380は、情報取込手段 370または取得データ用デー タベース 320からの画面スクロール情報に基づ!/、て、画面がスクロールしな!/、で停止 して表示されている時間を計測する。そして、画面がスクロールしないで停止している 位置、その場合の滞留時間 (停止時間)および停止位置の順番を算出し、被験者応 答情報 a、同期情報、停止位置、停留時間および停止位置の順番を表示処理手段 3 90に出力する。
[0122] 表示処理手段 390は、コンテンツをコンテンツ読出表示手段 335から入力し、被験 者応答情報 a、同期情報、停止位置、停留時間および停止位置の順番をデータ処理 手段 380から入力する。そして、同期情報に基づいてコンテンツと停止位置などとを 対応付け、コンテンッの全体画面のうち停止位置の示す部分画面を特定すると共に 、その滞留時間および順番を含む情報を生成し、画面情報としてモニタ画面 400に 出力して表示する。
[0123] 図 29は、表示処理手段 390により生成された画面例を示す図であり、スクロール停 止位置の推移とその滞留時間を表示する画面例であることを示している。図 29によ れば、コンテンツの全体画面のうちの画面スクロール停止位置 29001〜29003によ り表される部分画面が、この順番で表示されたことがわかる。また、それぞれの滞留 時間が 10秒、 30秒、 20秒であることがわかる。これにより、視点の軌跡や興味'関心 度が表示されなくても、被験者 600がその領域をどの程度注目していたかについて 分析することができる。
[0124] 以上説明したように、本発明の実施の形態によれば、被験者 600に評価すべきコン テンッを提示し、それを視聴した被験者 600の被験者応答情報 aを取得するのと同 期して、生理反応の一つである眼球運動を撮像して眼球運動情報 bを取得し、得ら れたデータ (視点位置、瞳孔径および瞬目発生頻度)から被験者 600の興味 '関心 度を判定し、 IDAポイントなどを算出し、提示コンテンツに対する被験者 600の応答 の有効性を評価するようにした。これにより、少ない被験者数で、従来行われていた 紙面やウェブによるアンケート手法よりも、はるかに信頼性のある有効な調査を行うこ とができ、特に WEBコンテンツに対する利用者の応答を評価するのに好適である。
[0125] また、評価対象であるコンテンツが提示されてから、それに対する被験者 600の応 答および生理反応の測定、解析、評価指標の可視化に至るまでの一連の処理を 1台 の装置で実施することができる。このため、特別高度な専門知識を備えていない一般 人でも、アンケートによる調査を短時間かつ低コストにて行うことができる。
[0126] なお、制御手段 300, 301は、 CPU, RAMなどの揮発性の記憶媒体、 ROMなど の不揮発性の記憶媒体、マウス 500やキーボード、ポインティングデバイスなどの入 力装置、画像やデータを表示する提示用ディスプレイ 100およびモニタ画面 400、並 びに目艮球撮像用カメラ 200と通信するためのインタフェースを備えたコンピュータによ つて構成される。制御手段 300に備えたコンテンツ読出表示手段 330、情報取込手 段 340、データ処理手段 350および表示処理手段 360の各機能、並びに、制御手 段 301に備えたコンテンツ読出表示手段 335、情報取込手段 370、データ処理手段 380および表示処理手段 390の各機能は、これらの機能を記述したプログラムを CP Uに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディ スク(フロッピイーディスク、ハードディスクなど)、光ディスク(CD— ROM、 DVDなど) 、半導体メモリなどの記憶媒体に格納して頒布することもできる。

Claims

請求の範囲
[1] コンテンツを観察して 、る被験者の応答を評価するために用いる制御装置であって コンテンツを被験者へ提示するコンテンツ提示部と、
前記提示されたコンテンツに対する被験者の生理反応情報を取り込む情報取込部 と、
前記取り込まれた生理反応情報に基づ!/、て、被験者の応答を評価するための評価 情報を生成する処理部と、
前記提示されたコンテンツと前記生成された評価情報とを同期させ、該コンテンツ および評価情報を含む画面表示情報を生成する表示処理部とを備えたことを特徴と する制御装置。
[2] 請求項 1に記載の制御装置において、
前記被験者へ提示されるコンテンツは、映像データ、ウェブページデータ、コンビュ ータゲームデータまたはコンピュータプログラムが出力するデータから成り、かつ、文 字列、図、記号、絵、写真および動画のうちの少なくとも一つの、被験者に応答させ るための喚起情報を含むことを特徴とする制御装置。
[3] 請求項 1に記載の制御装置において、
前記処理部は、生理反応情報に基づいて、被験者のコンテンツに対する注目度、 集中度、好感度または嫌悪感の度合いを算出し、該度合いを、被験者の応答を評価 するための評価情報とすることを特徴とする制御装置。
[4] 請求項 1に記載の制御装置において、
前記生理反応情報を、被験者の眼球画像とすることを特徴とする制御装置。
[5] 請求項 4に記載の制御装置において、
前記処理部は、眼球画像に基づいて、瞬目発生頻度、瞳孔の大きさおよび視点運 動データのうちの少なくとも一つを時間軸に関連付けたデータとして算出し、該デー タに基づいて評価情報を生成することを特徴とする制御装置。
[6] 請求項 4に記載の制御装置において、
前記処理部は、眼球画像に基づ!、てコンテンツに対する視点位置および興味関心 度を算出し、前記視点位置および該視点位置における第 1の興味関心度を評価情 報として生成することを特徴とする制御装置。
[7] 請求項 6に記載の制御装置において、
前記処理部は、さらに、前記視点位置力 視点位置の移動速度を算出し、該視点 位置の移動速度および前記興味関心度を所定の閾値とそれぞれ比較し、視点位置 および該視点位置における第 2の興味関心度を評価情報として生成することを特徴 とする制御装置。
[8] 請求項 7に記載の制御装置において、
前記情報取込部は、さらに、提示されたコンテンツに対する被験者の操作に伴う応 答情報を取り込み、
前記処理部は、さらに、前記応答情報における被験者の操作位置および前記視点 位置の間と距離と所定の閾値とを比較し、視点位置および該視点位置における第 3 の興味関心度を評価情報として生成することを特徴とする制御装置。
[9] 請求項 8に記載の制御装置において、
前記情報取込部は、提示されたコンテンツに対し、ボタン、キーボード、マウス、タツ チパネル、リモコンおよびゲーム機器付属コントローラのうちのいずれか一つによる被 験者の操作に伴う応答情報を取り込むことを特徴とする制御装置。
[10] 請求項 7に記載の制御装置において、
前記情報取込部は、さらに、提示されたコンテンツに対する被験者の操作に伴う応 答情報を取り込み、
前記処理部は、さらに、前記応答情報から被験者の操作を抽出し、該操作があつ たときの視点位置、および該視点位置における第 4の興味関心度を評価情報として 生成することを特徴とする制御装置。
[11] 請求項 7に記載の制御装置において、
前記処理部は、さらに、前記視点位置について視点の滞留時間を算出し、該視点 の滞留時間を評価情報として生成することを特徴とする制御装置。
[12] 請求項 7に記載の制御装置において、
前記表示処理部は、前記第 2の興味関心度の大きさに応じた形態を前記視点位置 に表示するための画面表示情報を生成することを特徴とする制御装置。
[13] 請求項 12に記載の制御装置において、
前記表示処理部は、さらに、前記視点位置により視点の軌跡を表示するための画 面表示情報を生成することを特徴とする制御装置。
[14] 請求項 13に記載の制御装置において、
前記表示処理部は、さらに、視点の速度に応じた形態で視点の軌跡を表示するた めの画面表示情報を生成することを特徴とする制御装置。
[15] 請求項 8に記載の制御装置において、
前記表示処理部は、前記第 3の興味関心度の大きさに応じた形態を前記視点位置 に表示すると共に、前記視点位置により視点の軌跡を表示するための画面表示情報 を生成することを特徴とする制御装置。
[16] 請求項 10に記載の制御部において、
前記表示処理部は、前記第 4の興味関心度の大きさに応じた形態を前記視点位置 に表示すると共に、前記視点位置により視点の軌跡を表示するための画面表示情報 を生成することを特徴とする制御装置。
[17] 請求項 11に記載の制御装置において、
前記表示処理部は、画面内における所定の領域毎に前記視点の滞留時間を算出 し、前記領域毎の滞留時間または滞留度合!、を表示するための画面表示情報を生 成することを特徴とする制御装置。
[18] 請求項 13に記載の制御装置において、
前記被験者へ提示されるコンテンツは、被験者により選択操作が行われる選択肢 を含み、
前記表示処理部は、前記コンテンツ、前記視点位置に表示される第 2の興味関心 度の大きさに応じた形態、および前記視点の軌跡を含む画面表示情報を生成するこ とを特徴とする制御装置。
[19] 請求項 6に記載の制御装置において、
前記被験者へ提示されるコンテンツは、被験者により選択操作が行われる領域を 有する選択肢を含み、 前記表示処理部は、前記選択操作を行った被験者の数を選択肢毎に算出し、前 記領域内に視点があつたときの第 1の興味関心度を選択肢毎に集計し、前記算出し た被験者の数および前記集計した第 1の興味関心度に基づ 、て、選択肢を選択す る確信度を選択肢毎に算出し、該確信度を含む画面表示情報を生成することを特徴 とする制御装置。
[20] 請求項 12に記載の制御装置において、
前記被験者へ提示されるコンテンッは、被験者の応答により安全性を評価するため に用いられ、
前記情報取込部は、さらに、前記コンテンツに対して被験者の操作により危険であ ることを示す応答情報を取り込み、
前記表示処理部は、前記第 1の興味関心度の大きさに応じた形態を前記視点位置 に表示すると共に、前記コンテンツに付随した危険情報および前記被験者の操作に より危険であることを示す応答情報を表示するための画面表示情報を生成することを 特徴とする制御装置。
[21] 請求項 1に記載の制御装置において、
前記コンテンツ提示部により被験者へ提示されるコンテンツを、該制御装置とネット ワークを介して接続される端末装置から受信し、
前記画面表示部により生成された画面表示情報を、前記端末装置へ送信すること を特徴とする制御装置。
[22] コンテンツを観察して!/、る被験者の応答を評価するために用いる制御装置であって コンテンツを被験者へ提示するコンテンツ提示部と、
前記提示されたコンテンツに対する被験者の操作に伴うカーソル位置の応答情報 を取り込む情報取込部と、
前記取り込まれた応答情報のカーソル位置を被験者の視点位置とみなし、被験者 の応答を評価するための評価情報を生成する処理部と、
前記提示されたコンテンツと前記生成された評価情報とを同期させ、該コンテンツ および評価情報を含む画面表示情報を生成する表示処理部とを備えたことを特徴と する制御装置。
[23] 請求項 22に記載の制御装置において、
前記コンテンツ提示部は、前記カーソル位置に応じて、画面情報の一部をぼかした 形態で表示することを特徴とする制御装置。
[24] 請求項 22に記載の制御装置において、
前記処理部は、さらに、前記カーソル位置について滞留時間を算出し、該滞留時 間を評価情報として生成し、
前記表示処理部は、前記カーソル位置によりカーソルの軌跡を表示すると共に、前 記滞留時間に応じた形態を前記カーソル位置に表示するための画面表示情報を生 成することを特徴とする制御装置。
[25] 請求項 22に記載の制御装置において、
前記情報取込部は、カーソル位置の代わりに画面スクロール位置の応答情報を取 り込み、
前記処理部の代わりに、前記取り込まれた応答情報の画面スクロール位置の滞留 時間を算出し、前記画面スクロール位置に基づいて、画面停止位置の推移および該 画面停止位置の滞留時間を算出し、該画面停止位置の推移および該画面停止位 置の滞留時間を評価情報として生成する処理部を備えたことを特徴とする制御装置
[26] コンテンツを観察している被験者の応答を入力する制御装置により、前記被験者の 応答を評価するための情報を生成するプログラムであって、前記制御装置を構成す るコンピュータに、
コンテンツを被験者へ提示する処理と、
前記提示したコンテンツに対する被験者の生理反応情報を取り込む処理と、 前記取り込んだ生理反応情報に基づ!/、て、被験者の応答を評価するための評価 情報を生成する処理と、
前記提示したコンテンツと前記生成した評価情報とを同期させ、該コンテンツおよ び評価情報を含む画面表示情報を生成する処理とを実行させるプログラム。
PCT/JP2007/054093 2006-05-18 2007-03-02 コンテンツに対する利用者応答を評価する制御装置 WO2007135796A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008516571A JP4874332B2 (ja) 2006-05-18 2007-03-02 コンテンツに対する利用者応答を評価する制御装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006164019 2006-05-18
JP2006-164019 2006-05-18
JP2006-254889 2006-09-20
JP2006254889 2006-09-20

Publications (1)

Publication Number Publication Date
WO2007135796A1 true WO2007135796A1 (ja) 2007-11-29

Family

ID=38723109

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/054093 WO2007135796A1 (ja) 2006-05-18 2007-03-02 コンテンツに対する利用者応答を評価する制御装置

Country Status (2)

Country Link
JP (1) JP4874332B2 (ja)
WO (1) WO2007135796A1 (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094493A (ja) * 2008-09-22 2010-04-30 Koichi Kikuchi 視認情景に対する視認者情感判定装置
JP2011113280A (ja) * 2009-11-26 2011-06-09 Rakuten Inc サーバ装置、ユーザ関心度算出方法、ユーザ関心度算出プログラム、及び情報提供システム
JP4824837B1 (ja) * 2011-05-26 2011-11-30 株式会社クリエイティブ・ブレインズ 市場評価の調査装置および調査方法
JP2013054476A (ja) * 2011-09-02 2013-03-21 Kao Corp 像提示装置、像提示方法および視線解析方法
JP2013180076A (ja) * 2012-03-02 2013-09-12 Dainippon Printing Co Ltd 分析支援装置、プログラム
JP2014006639A (ja) * 2012-06-22 2014-01-16 Olympus Corp コンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラム
JP2014501985A (ja) * 2010-12-20 2014-01-23 アルカテル−ルーセント メディア資産管理システム
JP2014081913A (ja) * 2012-09-27 2014-05-08 Dainippon Printing Co Ltd アンケート分析装置、アンケート分析システム、アンケート分析方法、及びプログラム
JP2014089650A (ja) * 2012-10-31 2014-05-15 Fujifilm Corp 電子問診装置、電子問診システム、電子問診装置の制御方法及び制御プログラム
JP2014197373A (ja) * 2013-03-05 2014-10-16 大日本印刷株式会社 インターネットアンケートシステム、コンピュータプログラム
JP2017090918A (ja) * 2016-11-14 2017-05-25 カシオ計算機株式会社 コンテンツ出力装置及びプログラム
JP2017204146A (ja) * 2016-05-11 2017-11-16 富士通株式会社 画像制御方法、装置、及びプログラム
JP2018109893A (ja) * 2017-01-05 2018-07-12 富士通株式会社 情報処理方法、装置、及びプログラム
WO2018200031A1 (en) * 2017-04-28 2018-11-01 Qualtrics, Llc Conducting digital surveys that collect and convert biometric data into survey respondent characteristics
CN109804407A (zh) * 2016-09-29 2019-05-24 株式会社东芝 关心维持系统以及服务器
JP2019168719A (ja) * 2016-12-15 2019-10-03 株式会社Z会 情報処理装置、情報処理システム及び情報処理方法
WO2019187274A1 (ja) * 2018-03-30 2019-10-03 株式会社 資生堂 情報処理装置及びプログラム
WO2019220751A1 (ja) * 2018-05-16 2019-11-21 オムロン株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JPWO2021084666A1 (ja) * 2019-10-30 2021-05-06
CN113079411A (zh) * 2021-04-20 2021-07-06 西北工业大学 一种多模态数据同步可视化系统
WO2022239792A1 (ja) * 2021-05-12 2022-11-17 株式会社夏目綜合研究所 被験者分析装置
JP7442705B1 (ja) 2023-02-10 2024-03-04 アース製薬株式会社 マーケティング素材の評価方法、評価装置、及びマーケティング素材の製造方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102348692B1 (ko) * 2020-05-28 2022-01-10 주식회사 우리소프트 가상중재 인지재활시스템
KR102359061B1 (ko) * 2020-05-28 2022-02-07 주식회사 우리소프트 사용자의 주의집중여부판단에 기반한 인지재활시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196196A (ja) * 2001-12-27 2003-07-11 Ricoh Co Ltd 電子フォーム制御プログラム及びその方法及び情報記録媒体
JP2004282471A (ja) * 2003-03-17 2004-10-07 Media Glue Corp 映像コンテンツの評価装置
JP2004280673A (ja) * 2003-03-18 2004-10-07 Takenaka Komuten Co Ltd 情報提供装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196196A (ja) * 2001-12-27 2003-07-11 Ricoh Co Ltd 電子フォーム制御プログラム及びその方法及び情報記録媒体
JP2004282471A (ja) * 2003-03-17 2004-10-07 Media Glue Corp 映像コンテンツの評価装置
JP2004280673A (ja) * 2003-03-18 2004-10-07 Takenaka Komuten Co Ltd 情報提供装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HASHIMOTO K. ET AL.: "Shisen Keisoku ni yoru Media Convergence Kokoku System no Hyoka", FIT2005 DAI 4 KAI FORUM ON INFORMATION TECHNOLOGY IPPAN KOEN RONBUNSHU DAI 3BUNSATSU, 22 August 2005 (2005-08-22), pages 493 - 494, XP003019252 *
MITSUHIRO MATSUNAGA ET AL.: "Web Riyoji no Sosa Rireki ni Motozuku User no Mayoi Kenchi system no Yukosei Kensho", CORRESPONDENCES ON HUMAN INTERFACE, vol. 7, no. 5, 7 December 2005 (2005-12-07), pages 1 - 6, XP008090715 *

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094493A (ja) * 2008-09-22 2010-04-30 Koichi Kikuchi 視認情景に対する視認者情感判定装置
JP2011113280A (ja) * 2009-11-26 2011-06-09 Rakuten Inc サーバ装置、ユーザ関心度算出方法、ユーザ関心度算出プログラム、及び情報提供システム
JP2014501985A (ja) * 2010-12-20 2014-01-23 アルカテル−ルーセント メディア資産管理システム
JP4824837B1 (ja) * 2011-05-26 2011-11-30 株式会社クリエイティブ・ブレインズ 市場評価の調査装置および調査方法
WO2012160744A1 (ja) * 2011-05-26 2012-11-29 株式会社クリエイティブ・ブレインズ 市場評価の調査装置および調査方法
JP2013054476A (ja) * 2011-09-02 2013-03-21 Kao Corp 像提示装置、像提示方法および視線解析方法
JP2013180076A (ja) * 2012-03-02 2013-09-12 Dainippon Printing Co Ltd 分析支援装置、プログラム
JP2014006639A (ja) * 2012-06-22 2014-01-16 Olympus Corp コンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラム
JP2014081913A (ja) * 2012-09-27 2014-05-08 Dainippon Printing Co Ltd アンケート分析装置、アンケート分析システム、アンケート分析方法、及びプログラム
JP2014089650A (ja) * 2012-10-31 2014-05-15 Fujifilm Corp 電子問診装置、電子問診システム、電子問診装置の制御方法及び制御プログラム
JP2014197373A (ja) * 2013-03-05 2014-10-16 大日本印刷株式会社 インターネットアンケートシステム、コンピュータプログラム
JP2017204146A (ja) * 2016-05-11 2017-11-16 富士通株式会社 画像制御方法、装置、及びプログラム
CN109804407B (zh) * 2016-09-29 2023-07-18 株式会社东芝 关心维持系统以及服务器
CN109804407A (zh) * 2016-09-29 2019-05-24 株式会社东芝 关心维持系统以及服务器
JP2017090918A (ja) * 2016-11-14 2017-05-25 カシオ計算機株式会社 コンテンツ出力装置及びプログラム
JP2019168719A (ja) * 2016-12-15 2019-10-03 株式会社Z会 情報処理装置、情報処理システム及び情報処理方法
JP2018109893A (ja) * 2017-01-05 2018-07-12 富士通株式会社 情報処理方法、装置、及びプログラム
WO2018200031A1 (en) * 2017-04-28 2018-11-01 Qualtrics, Llc Conducting digital surveys that collect and convert biometric data into survey respondent characteristics
US10977674B2 (en) 2017-04-28 2021-04-13 Qualtrics, Llc Conducting digital surveys that collect and convert biometric data into survey respondent characteristics
US11935079B2 (en) 2017-04-28 2024-03-19 Qualtrics, Llc Conducting digital surveys that collect and convert biometric data into survey respondent characteristics
JP7254770B2 (ja) 2018-03-30 2023-04-10 株式会社 資生堂 情報処理装置及びプログラム
JPWO2019187274A1 (ja) * 2018-03-30 2021-03-25 株式会社 資生堂 情報処理装置及びプログラム
WO2019187274A1 (ja) * 2018-03-30 2019-10-03 株式会社 資生堂 情報処理装置及びプログラム
WO2019220751A1 (ja) * 2018-05-16 2019-11-21 オムロン株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7287485B2 (ja) 2019-10-30 2023-06-06 日本電信電話株式会社 表示制御装置及び表示制御方法
WO2021084666A1 (ja) * 2019-10-30 2021-05-06 日本電信電話株式会社 表示制御装置及び表示制御方法
JPWO2021084666A1 (ja) * 2019-10-30 2021-05-06
CN113079411B (zh) * 2021-04-20 2023-02-28 西北工业大学 一种多模态数据同步可视化系统
CN113079411A (zh) * 2021-04-20 2021-07-06 西北工业大学 一种多模态数据同步可视化系统
WO2022239792A1 (ja) * 2021-05-12 2022-11-17 株式会社夏目綜合研究所 被験者分析装置
JP7442705B1 (ja) 2023-02-10 2024-03-04 アース製薬株式会社 マーケティング素材の評価方法、評価装置、及びマーケティング素材の製造方法

Also Published As

Publication number Publication date
JP4874332B2 (ja) 2012-02-15
JPWO2007135796A1 (ja) 2009-10-01

Similar Documents

Publication Publication Date Title
JP4874332B2 (ja) コンテンツに対する利用者応答を評価する制御装置
US20230055308A1 (en) Digital visual acuity eye examination for remote physician assessment
US8814357B2 (en) System and method for identifying the existence and position of text in visual media content and for determining a subject&#39;s interactions with the text
US8986218B2 (en) System and method for calibrating and normalizing eye data in emotional testing
EP2829221B1 (en) Asperger&#39;s diagnosis assistance device
US9538947B2 (en) Method, system and device for assisting diagnosis of autism
JP2009530071A (ja) 視覚的注意および感情反応の検出表示システム
KR102155309B1 (ko) 인지 장애 예측 방법 및 이를 구현한 서버, 사용자 단말 및 어플리케이션
EP3058873A1 (en) Device for measuring visual efficacy
JP2007006427A (ja) 映像監視装置
KR20190041081A (ko) 인지장애 진단을 위한 vr기반 인지능력 평가시스템
Stuart et al. Do you see what I see? Mobile eye-tracker contextual analysis and inter-rater reliability
US20130262182A1 (en) Predicting purchase intent based on affect
CN111344222A (zh) 执行眼睛检查测试的方法
WO2021014717A1 (ja) 検出装置および検出方法
US11666258B2 (en) Eye-tracking system for detection of cognitive load
US7512289B2 (en) Apparatus and method for examination of images
Huang et al. Image-recognition-based system for precise hand function evaluation
US20230072470A1 (en) Systems and methods for self-administered sample collection
CN115944266A (zh) 基于眼动追踪技术的视功能确定方法及装置
JP2012217797A (ja) 記憶保持力評価方法および記憶保持力評価システム
KR102118505B1 (ko) 사용자 시선 움직임을 이용한 시력 측정 방법 및 시스템
US10342421B2 (en) Method for measuring visual acuity
Modi et al. Role of Eye Tracking in Human Computer Interaction
Mishra et al. An affect-based approach to detect collective sentiments of film audience: Analyzing emotions and attentions

Legal Events

Date Code Title Description
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07715174

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008516571

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07715174

Country of ref document: EP

Kind code of ref document: A1