WO2022054349A1 - 感性計測方法および感性計測システム - Google Patents

感性計測方法および感性計測システム Download PDF

Info

Publication number
WO2022054349A1
WO2022054349A1 PCT/JP2021/020472 JP2021020472W WO2022054349A1 WO 2022054349 A1 WO2022054349 A1 WO 2022054349A1 JP 2021020472 W JP2021020472 W JP 2021020472W WO 2022054349 A1 WO2022054349 A1 WO 2022054349A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
findings
subject
information
biological information
Prior art date
Application number
PCT/JP2021/020472
Other languages
English (en)
French (fr)
Inventor
徹 水本
聖菜 市岡
雅史 古田
耕一 村田
Original Assignee
株式会社島津製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所 filed Critical 株式会社島津製作所
Priority to EP21866310.2A priority Critical patent/EP4215115A4/en
Priority to CN202180062060.4A priority patent/CN116056639A/zh
Priority to JP2022547399A priority patent/JP7485059B2/ja
Priority to US18/025,856 priority patent/US20230346275A1/en
Publication of WO2022054349A1 publication Critical patent/WO2022054349A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]

Definitions

  • the present invention relates to a sensitivity measurement method and a sensitivity measurement system.
  • a sensitivity estimation device that measures the sensitivity of a subject is known.
  • Such a sensitivity estimation device is disclosed in, for example, Japanese Patent Application Laid-Open No. 2018-187287.
  • the sensitivity estimation device described in JP-A-2018-187287 acquires the feature amount of the image visually recognized by the user (subject) in the learning mode. Then, the feature amount of the integrated biological signal is acquired from a plurality of biological signals (electroencephalogram signal, heartbeat signal, electrocardiographic signal, etc.) acquired when the user visually recognizes the image. In addition, sensibility information indicating the type and intensity of sensibility is acquired by input from the user. The sensitivity estimation device described in JP-A-2018-187287 learns the relationship (learning model) between the feature amount of the image, the feature amount of the biological signal, and the sensitivity information in the learning mode.
  • this sensitivity estimation device learns the feature amount of the image acquired by photographing the visual object, the biological information measured by the user, and the learning. Based on the relevance learned in the mode, the user's sensitivities (sensitivity information such as rest and excitement) to the actual visual object are estimated.
  • the present invention has been made to solve the above-mentioned problems, and one object of the present invention is objectively when comparing a plurality of evaluation objects based on evaluation by human sensibility. It is an object of the present invention to provide a sensitivity measurement method and a sensitivity measurement system capable of easily obtaining an evaluation of an evaluation object based on evidence.
  • the sensitivity measurement method in the first aspect of the present invention uses each of a plurality of evaluation objects on a trial basis based on the measurement items selected to correspond to the evaluation objects.
  • the sensitivity measurement system in the second aspect of the present invention is biometric information from a subject in a state of trying each of a plurality of evaluation objects based on measurement items selected to correspond to the evaluation object. Based on the biometric information measured by the biometric information measuring unit and the biometric information measuring unit, the evaluation results for the evaluation target including the information that can identify the order when each of the plurality of evaluation objects is compared are obtained. It is equipped with an evaluation result acquisition unit to be acquired.
  • the evaluation object is being tried based on the measurement items selected to correspond to the evaluation object.
  • Biometric information is measured from the subject. This makes it possible to show the subjective sensibilities felt by actually trying the evaluation object as objective data.
  • the evaluation result for the evaluation target including the information that can identify the order when each of the plurality of evaluation objects is compared is acquired. As a result, it is possible to easily obtain the result of comparing a plurality of evaluation objects based on the biological information showing the sensibility as objective data.
  • the sensitivity measurement system 100 acquires evaluation results 80 (see FIG. 3) for a plurality of evaluation objects 50.
  • the plurality of evaluation objects 50 are, for example, prototypes made when a company or the like develops a product.
  • the sensitivity measurement system 100 objectively measures the sensitivity felt when the subject 60 tries the evaluation object 50, which is a prototype, when the evaluation object 50, which is a prototype, is evaluated by sensitivity. That is, when the sensitivity measurement system 100 selects an evaluation object 50 that is preferable from a plurality of evaluation objects 50, the sensitivity measurement system 100 acquires an objective basis for the evaluation that the person has sensuously judged by the sensitivity. Used to do.
  • the evaluation target 50 is, for example, cosmetics.
  • the evaluation object 50 includes a lotion 51, a lotion 52, and a lotion 53. That is, in the sensitivity measurement system 100, for each of the lotions 51 to 53, how the subject 60 who tried the lotions 51 to 53 felt about the comfort, the odor, the appearance of the package, and the like. measure.
  • the sensitivity measurement system 100 evaluates the sensitivity felt by the subject 60 throughout the experience of "trial of the lotion 51 to 53". That is, the "trial" referred to here is not only to apply the lotion 51 to 53 to the face of the subject 60, but also to apply the container of the lotion 51 to 53 after the subject 60 has washed the face. It means the overall experience from the time of picking up to the time of finishing applying the lotion 51 to 53 to the face.
  • the subject 60 is, for example, a woman who uses lotion on a daily basis.
  • a trial method (experimental method) suitable for the evaluation object 50 for example, in order to make the skin condition of the subject 60 uniform, three lotions 51 to 53 are used at the timing when a predetermined time has elapsed after washing the face. A method of applying one of them to the face is defined. Each time one of the three lotions 51 to 53 is tried, the subject 60 washes his face.
  • a preliminary experiment is conducted in advance to confirm whether or not the trial method is suitable for the evaluation object 50. For example, as a preliminary experiment, a method of trying the evaluation object 50 (toner 51 to 53) at the timing when 15 minutes have passed after washing the face is defined.
  • the biometric information 20 acquired when the predetermined preliminary experiment is carried out is appropriate. For example, it was confirmed that the evaluation of the evaluation target 50 is affected by the increased anxiety and stress of the subject 60 who is concerned about dryness until 15 minutes have passed after washing the face. In that case, as a preliminary experiment, a method of trying the evaluation object 50 (cosmetic waters 51 to 53) at the timing when 5 minutes have passed after washing the face is newly determined. When the measurement of sensitivity to the evaluation object 50 is appropriately confirmed in the newly determined preliminary experiment, it is determined that the content of the newly determined preliminary experiment is a trial method suitable for the evaluation object 50. .. By the trial method determined in this way, the biological information 20 is acquired from the subject 60 in the state of trying the evaluation object 50.
  • the sensitivity measurement system 100 includes a sensitivity measurement terminal 1, a plurality of measurement devices 2, an evaluator terminal 3, and an image pickup unit 4.
  • the measuring device 2 measures the biological information 20 from the subject 60 in a state where the evaluation object 50 is being used as a trial.
  • the evaluator terminal 3 acquires the evaluation findings 30 which are the findings of the evaluation of the evaluation object 50 by the evaluators 70 (two evaluators 71 and the evaluator 72).
  • the sensitivity measurement terminal 1 acquires an evaluation result 80 (see FIG. 3) for an evaluation object 50 including the measured biological information 20 and the acquired evaluation findings 30. The details of the biological information 20, the evaluation findings 30, and the evaluation result 80 will be described later.
  • the measuring device 2 is an example of the "biological information measuring unit” in the claims.
  • the evaluator terminal 3 is an example of the “evaluation finding acquisition unit” in the claims.
  • the sensitivity measurement terminal 1 is an example of the "evaluation result acquisition unit” in the claims.
  • the sensitivity measurement terminal 1 is a computer used to acquire an evaluation result 80 for an evaluation object 50.
  • the sensitivity measurement terminal 1 acquires the biological information 20 from the subject 60 measured by the measuring device 2, and also acquires the evaluation findings 30 by the evaluator 70 acquired by the evaluator terminal 3. Then, the sensitivity measurement terminal 1 acquires the evaluation result 80 based on the acquired biological information 20 and the evaluation findings 30. Further, the sensitivity measurement terminal 1 includes an operation unit 11, a display unit 12, a communication unit 13, a storage unit 14, and a control unit 15.
  • the operation unit 11 includes an input device such as a keyboard. Further, the operation unit 11 includes a pointing device such as a mouse. The operation unit 11 receives an operation signal for operating each unit of the sensitivity measurement terminal 1. Further, the operation unit 11 transmits an operation signal based on the input operation to the control unit 15.
  • the display unit 12 includes a display monitor such as a liquid crystal display.
  • the display unit 12 displays the evaluation result 80 for the evaluation object 50 under the control of the control unit 15. The details of the display of the display unit 12 will be described later.
  • the communication unit 13 is configured to be able to communicate with the measuring device 2 and the evaluator terminal 3.
  • the communication unit 13 transmits / receives information to / from the measuring device 2 and the evaluator terminal 3.
  • the communication unit 13 includes, for example, a communication module and an interface for external connection.
  • the communication unit 13 communicates by wire or wireless communication.
  • the communication unit 13 includes, for example, a wired connection using an interface for connecting devices such as a USB cable and a communication interface such as a wired LAN, short-range wireless communication used for wireless LAN, Bluetooth (registered trademark), and RF tags, and short-range wireless communication.
  • And other wireless connections such as infrared communication, are configured to be able to communicate with the measuring device 2 and the evaluator terminal 3.
  • the communication unit 13 receives the biological information 20 from the measuring device 2. Further, the communication unit 13 receives the evaluation findings 30 from the evaluator terminal 3.
  • the storage unit 14 is composed of, for example, a storage device such as a hard disk drive.
  • the storage unit 14 stores a program for operating the control unit 15. Further, the storage unit 14 stores the acquired biological information 20 and the acquired evaluation findings 30.
  • the control unit 15 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the control unit 15 controls each unit of the sensitivity measurement terminal 1 by the CPU executing a predetermined program. Further, the control unit 15 controls to acquire the evaluation result 80 by executing a predetermined program by the CPU. The details of the control for acquiring the evaluation result 80 by the control unit 15 will be described later.
  • the measuring device 2 measures the biological information 20 from the subject 60 in a state of trying the evaluation object 50 based on the measurement items selected so as to correspond to the evaluation object 50. do.
  • the measurement items include the type of biological information 20 measured from the subject 60 and the measuring method of the biological information 20.
  • the measurement item is selected according to the type of the evaluation object 50.
  • Type measurement item is selected. That is, in the first embodiment, the biological information 20 includes the cerebral blood flow, electroencephalogram, heart rate, and viewpoint movement amount of the subject 60.
  • the measuring device 2 measures the biological information 20 in order to measure the sensibility of the subject 60.
  • the measuring device 2 includes a NIRS (Near-infrared spectroscopy) brain measuring device 21, a brain wave meter 22, a heart rate monitor 23, and an eye movement measuring device 24.
  • NIRS Near-infrared spectroscopy
  • the NIRS brain measuring device 21 measures the cerebral blood flow of the subject 60 as the biological information 20.
  • the NIRS brain measuring device 21 includes a plurality of probes including a light source that emits near-infrared light and a light receiving sensor. The plurality of probes are attached to the head of the subject 60.
  • the NIRS brain measuring device 21 measures the reflected light of the near-infrared light emitted from the light source included in the probe by the light receiving sensor.
  • the NIRS brain measuring device 21 measures the cerebral blood flow of the subject 60 by measuring the hemoglobin in the blood of the subject 60's brain based on the reflected light of the near infrared light measured by the light receiving sensor. do.
  • the electroencephalograph 22 measures the electroencephalogram of the subject 60 as the biological information 20.
  • the electroencephalograph 22 includes a plurality of electrodes provided so as to be in contact with the scalp of the subject 60, and a reference electrode attached to an earlobe or the like.
  • the electroencephalograph 22 measures the electrical activity generated from the brain of the subject 60 by measuring the potential difference between the plurality of electrodes and the reference electrode, or the potential difference between the plurality of electrodes.
  • the heart rate monitor 23 measures the heart rate of the subject 60 as the biological information 20.
  • the heart rate monitor 23 is a wristwatch-type heart rate monitor 23 wrapped around the wrist of the subject 60.
  • the heart rate monitor 23 is configured to measure the pulsation of the radial artery inside the wrist of the subject 60.
  • the eye movement measuring device 24 measures the amount of movement of the viewpoint of the subject 60 as the biological information 20.
  • the eye movement measuring device 24 irradiates the eyeball of the subject 60 with near-infrared rays and detects the near-infrared light reflected by the eyeball of the subject 60 to spatialize the eyeball of the subject 60. Measure the position and shape.
  • the eye movement measuring device 24 includes a viewpoint camera.
  • the viewpoint camera acquires an image (moving image) of the field of view visually recognized by the subject 60.
  • the eye movement measuring device 24 measures the amount of movement of the viewpoint of the subject 60 based on the measured position and shape of the eyeball of the subject 60 and the image of the field of view of the subject 60 taken by the viewpoint camera. Measure.
  • Each of the plurality of measuring devices 2 transmits the measured biological information 20 to the sensitivity measuring terminal 1.
  • the measuring device 2 is wirelessly or wiredly connected to the communication unit 13 of the sensitivity measurement terminal 1, and is configured to be capable of transmitting and receiving information to and from the sensitivity measurement terminal 1. That is, each of the plurality of measuring devices 2 has the biological information 20 (cerebral blood flow, electroencephalogram, heart rate, and viewpoint movement amount) measured from the subject 60 in the state of trying the lotion 51 to 53. Is transmitted to the sensitivity measurement terminal 1.
  • the measuring device 2 may be configured to measure a plurality of biological information 20 by one measuring device 2.
  • the measuring device 2 may be configured so that the electroencephalogram and the cerebral blood flow can be measured together.
  • the evaluator 70 selected to correspond to the evaluation object 50 separately from the subject 60 is each of the plurality of evaluation objects 50 by the subject 60.
  • the evaluation finding 30 which evaluated the evaluation object 50 based on the information about the trial situation of is acquired.
  • the evaluator 70 is selected in consideration of the type of the evaluation object 50 and the place and situation in which the evaluation object 50 is used. That is, comprehensive consideration is given to how the evaluation object 50 is used in human behavior, in what circumstances, and in what time zone or scene. Then, the evaluator 70 is selected so as to correspond to the evaluation object 50.
  • the evaluator 70 includes an expert on user experience.
  • User experience means the impression and experience (experience) obtained when using products, systems, services, and the like.
  • the user experience is not only the experience of actually trying (using) the product, system, and service, but also the background of using the product, system, and service, and the influence caused by using it. Means the overall experience gained through the use of products, systems, and services.
  • the evaluator 70 includes an expert who extracts a problem of usability of the evaluation object 50 by observing the behavior of the subject 60 who is trying the evaluation object 50. That is, the evaluator 70 includes an expert on usability evaluation.
  • the two evaluators 70 in the first embodiment are an ergonomic expert evaluator 71 and a product designer evaluator 72.
  • the evaluator 70 evaluates the evaluation object 50 by observing the subject 60 who is trying the evaluation object 50. In other words, the evaluator 70 evaluates the evaluation object 50 in the state of being tried by the subject 60. In addition, the evaluator 70 (evaluators 71 and 72) conducts an interview or a questionnaire to the subject 60 before and after the trial of the evaluation object 50. The evaluator 70 (evaluators 71 and 72) evaluates what kind of influence (experience) was brought to the subject 60 by trying the evaluation object 50. In this way, the evaluator 70 (evaluator 71 and evaluator 72) evaluates the evaluation object 50 based on the information regarding the trial status of the evaluation object 50 by the subject 60.
  • the evaluator 70 when the evaluator 70 evaluates the lotions 51 to 53, the evaluator 70 observes the behavior of the subject 60 using the lotions 51 to 53 and tries the lotions 51 to 53. A questionnaire or the like is given to the subject 60 before and after. Then, the evaluator 70 evaluates the lotions 51 to 53 based on the information on the trial status of the lotions 51 to 53 by the subject 60 such as the observation of the behavior and the questionnaire. Based on the information on the trial status of the lotions 51 to 53 by the subject 60, the evaluator 70 finds out whether there is any part that the subject 60 finds difficult to use, and the shape and appearance are suitable for the usage situation. Evaluate points such as whether or not it is.
  • the evaluator terminal 3 is a computer used to acquire the evaluation findings 30 which are the evaluation findings of the evaluation object 50 by the evaluator 70.
  • the evaluation finding 30 includes textual information indicating the evaluation finding of the evaluation object 50 by the evaluator 70.
  • the evaluation finding 30 is a problem of the evaluation object 50 recognized by the evaluator 70 by observing the behavior of the subject 60. .. Specifically, it includes textual information such as making it difficult to open the lid and the contents easily spilling from the container.
  • the evaluation finding 30 includes textual information such as, for example, that the package design is too childish or too mature considering the target age group.
  • the evaluation finding 30 includes an evaluation score of the evaluation of the evaluation object 50 by the evaluator 70.
  • the evaluator terminal 3 includes an operation unit 31, a display unit 32, a communication unit 33, a storage unit 34, and a control unit 35.
  • the operation unit 31 includes an input device such as a keyboard. Further, the operation unit 31 includes a pointing device such as a mouse. The operation unit 31 accepts an input operation for inputting the evaluation findings 30 by the evaluator 70. Further, the operation unit 31 transmits an operation signal based on the input operation to the control unit 35.
  • the display unit 32 includes a display monitor such as a liquid crystal display.
  • the display unit 32 displays a moving image of the subject 60 captured by the image pickup unit 4, which will be described later.
  • the voice output unit 36 such as a speaker may output the voice of the subject 60 who is trying the evaluation object 50 (such as the voice of the subject 60).
  • the communication unit 33 is configured to be able to communicate with the sensitivity measurement terminal 1 and the image pickup unit 4.
  • the communication unit 33 transmits / receives information to / from the sensitivity measurement terminal 1 and the image pickup unit 4.
  • the communication unit 33 includes, for example, a communication module and an interface for external connection, and communicates by wired or wireless communication.
  • the communication unit 33 includes, for example, a wired connection using an interface for connecting devices such as a USB cable and a communication interface such as a wired LAN, short-range wireless communication used for wireless LAN, Bluetooth (registered trademark), and RF tags, and short-range wireless communication.
  • And other wireless connections such as infrared communication, are configured to be able to communicate with the sensitivity measurement terminal 1 and the image pickup unit 4.
  • the communication unit 33 transmits the acquired evaluation findings 30 to the sensitivity measurement terminal 1. In addition, the video signal from the image pickup unit 4 is received.
  • the storage unit 34 is composed of a storage device such as a hard disk drive, for example.
  • the storage unit 34 stores a program for operating the control unit 35. Further, the storage unit 34 stores the evaluation findings 30.
  • the control unit 35 includes a CPU, ROM, RAM, and the like.
  • the control unit 35 controls each unit of the evaluator terminal 3 by the CPU executing a predetermined control program.
  • the control unit 35 causes the display unit 32 to display the image captured by the image pickup unit 4.
  • the control unit 35 acquires the evaluation findings 30 including the character information and the evaluation score based on the input operation to the operation unit 31 by the evaluator 70.
  • the control unit 35 stores the evaluation findings 30 in which the acquired character information and the evaluation score are associated with each other in the storage unit 34. Further, the control unit 35 transmits the acquired evaluation findings 30 to the sensitivity measurement terminal 1 via the communication unit 33.
  • the image pickup unit 4 takes an image of the subject 60 who is trying out the evaluation object 50. Specifically, the image pickup unit 4 takes an image of the subject 60 who is trying the evaluation object 50 in order to observe the subject 60 who is trying the evaluation object 50 by the evaluator 70. Further, the image pickup unit 4 transmits the captured image (moving image) to the evaluator terminal 3. Further, the imaging unit 4 is installed on the wall surface of the examination room where the subject 60 tries the evaluation object 50.
  • the image pickup unit 4 includes an image pickup element such as a CMOS image sensor.
  • the control unit 15 of the sensitivity measurement terminal 1 acquires the biological information 20 measured by the measuring device 2 via the communication unit 13. Then, the control unit 15 performs a process of determining the sensitivity of the subject 60 with respect to the acquired biological information 20. For example, the control unit 15 acquires numerical values 1 to 100 representing the evaluation based on the sensitivity of the subject 60 as the measurement result of the biological information 20 based on the biological information 20 acquired from the measuring device 2.
  • the control unit 15 acquires the biological information 20 as numerical information so as to correspond to the measurement item, based on the measurement item selected to correspond to the evaluation object 50. For example, the control unit 15 determines the degree of interest of the subject 60 in the evaluation object 50 (toners 51 to 53) based on the cerebral blood flow (brain activity) acquired by the NIRS brain measuring device 21. The indicated numerical value of 1 or more and 100 or less is acquired as the first biometric information 20a. Further, based on the electroencephalogram acquired by the electroencephalograph 22 and the heart rate acquired by the heart rate monitor 23, a numerical value of 1 or more and 100 or less indicating the degree of comfort of the subject 60 is acquired as the second biological information 20b. do.
  • the control unit 15 sets a numerical value of 1 or more and 100 or less indicating the degree of attention of the subject 60 to the evaluation object 50 based on the viewpoint movement amount acquired by the eye movement measuring device 24 as the third biological information. Obtained as 20c.
  • the biological information 20 as numerical information may be acquired based on an input operation to the operation unit 11 based on the biological information 20 measured by the measuring device 2. Further, the biological information 20 as numerical information may be acquired based on the biological information 20 measured by the measuring device 2 by an algorithm such as a trained model generated by machine learning.
  • control unit 15 acquires the comments corresponding to each of the first to third biometric information 20a to 20c as character information based on the input operation to the operation unit 11. For example, the control unit 15 obtains a comment such as "an increase in the amount of brain activity is observed and the degree of interest is large” so as to correspond to the first biological information 20a. In addition, the control unit 15 said, “Since the state of sympathetic nerve dominance changed to the state of parasympathetic nerve dominance after the trial of the lotion 51, the stress caused by the trial of the lotion 51 was changed, so as to correspond to the second biological information 20b.
  • the control unit 15 stores the acquired first to third biological information 20a to 20c in the storage unit 14 in association with each other and the corresponding comment.
  • the comments corresponding to each of the first to third biometric information 20a to 20c are acquired, for example, based on an input operation to the operation unit 11 by a sensitivity measurement expert.
  • control unit 15 acquires the evaluation findings 30 from the evaluator terminal 3 via the communication unit 13. That is, the control unit 15 acquires the evaluation findings 30 including the character information indicating the evaluation findings of the evaluation object 50 by the evaluator 70 and the evaluation scores of the evaluation of the evaluation object 50 by the evaluator 70. Specifically, the control unit 15 acquires the evaluation findings 30a of the evaluator 71 who is an ergonomic expert and the evaluation findings 30b of the evaluator 72 who is a product designer (see FIG. 3).
  • the control unit 15 weights each of the measured plurality of biometric information 20 and the acquired evaluation findings 30 respectively. Then, the control unit 15 acquires a ranking when a plurality of evaluation objects 50 are compared based on the weighted biological information 20 and the evaluation findings 30. For example, the control unit 15 acquires the average value of the measurement results of the plurality of digitized biological information 20. Then, the control unit 15 multiplies the average value of the biological information 20 by 0.6. Further, the control unit 15 acquires the average value of the evaluation scores included in the evaluation findings 30, and multiplys the acquired evaluation scores by 0.4.
  • the control unit 15 obtains a total score by adding the average value of the biological information 20 multiplied by 0.6 and the average value of the evaluation scores multiplied by 0.4 for each of the evaluation objects 50.
  • the control unit 15 acquires the ranking of the plurality of evaluation objects 50 based on the acquired total score.
  • the control unit 15 acquires the evaluation result 80 (see FIG. 3) for the evaluation object 50 including the information that can identify the order when each of the plurality of evaluation objects 50 is compared. That is, the control unit 15 acquires the evaluation result 80 in which the weighted biological information 20 and the evaluation findings 30 and the ranking of the evaluation objects 50 are associated with each of the plurality of evaluation objects 50. ..
  • the control unit 15 displays the acquired evaluation result 80 on the display unit 12.
  • the control unit 15 displays each of the acquired biological information 20 and the evaluation findings 30 side by side on the display unit 12 for each of the three evaluation objects 50 (toners 51 to 53). .. Further, the control unit 15 displays the evaluation result 80 including the information that can identify the order when each of the three evaluation objects 50 (toners 51 to 53) is compared on the display unit 12.
  • the control unit 15 has three types of biological information 20 (first to third biological information 20a) corresponding to three types of measurement items for each of the three evaluation objects 50 (toners 51 to 53).
  • the numerical value which is the measurement result of ⁇ 20c) and the comment corresponding to each biological information 20 (first biological information 20a to third biological information 20c) are displayed side by side on the display unit 12. Further, the control unit 15 evaluates each of the three evaluation objects 50 (toners 51 to 53) by evaluation findings 30 (evaluation scores and character information) by two evaluators 70 (evaluators 71 and 72). The findings 30a and 30b) are displayed side by side on the display unit 12. Then, the control unit 15 causes the display unit 12 to display the order in the case where each of the three evaluation objects 50 (toners 51 to 53) is compared.
  • control unit 15 displays the evaluation result 80 on the display unit 12 in a state where the measured biological information 20 and the acquired evaluation findings 30 are displayed by the notation based on a common standard. do. Specifically, the control unit 15 represents the measurement result of the measured biological information 20 with a numerical value of 1 or more and 100 or less, and represents the evaluation score included in the evaluation finding 30 with a numerical value of 1 or more and 100 or less.
  • a sensitivity measurement service for evaluating the evaluation object 50 based on the sensitivity.
  • the sensitivity measurement service provides the evaluation result 80 for the evaluation target 50 requested by the customer.
  • a place where the subject 60 is made to try the evaluation object 50 is provided.
  • a laboratory is provided in which environmental conditions such as humidity, temperature, and illuminance are kept constant. Then, in the laboratory where the environmental conditions are kept constant, each of the plurality of subjects 60 tries the evaluation object 50.
  • environmental conditions such as humidity, temperature, and illuminance are kept constant.
  • each of the plurality of subjects 60 tries the evaluation object 50.
  • the conditions for trial use are the same for each of the plurality of evaluation objects 50. Therefore, it is possible to suppress that the biological information 20 measured from the subject 60 in the state of trying the evaluation object 50 includes variations due to the difference in the surrounding environmental conditions.
  • the subject 60 may be a plurality of (for example, 3) women. In this case, the subject 60 tries the evaluation object 50 one by one.
  • the evaluation result 80 obtained by averaging the biological information 20 and the evaluation findings 30 acquired by the trial of the evaluation object 50 by the three women is acquired. You may do so.
  • a more detailed evaluation result 80 can be obtained as compared with the case where one subject 60 evaluates the evaluation object 50.
  • the usability it is evaluated, it is possible to extract sufficient usability problems and improvements by performing the evaluation by three subjects 60, so that four or more subjects 60 can be used. By evaluating, it is possible to suppress an increase in working time.
  • the three women may be restricted in age according to the request from the company (client).
  • step 401 the biometric information 20 from the subject 60 in a state of trying the evaluation target 50 (toners 51 to 53) based on the measurement items selected to correspond to the evaluation target 50.
  • the biometric information 20 from the subject 60 in a state of trying the evaluation target 50 (toners 51 to 53) based on the measurement items selected to correspond to the evaluation target 50.
  • three cosmetics based on the types of the evaluation target 50 and the three types of measurement items (brain activity, brain wave and heart rate, and viewpoint movement amount) including the measurement method of the evaluation target 50.
  • a plurality of biological information 20 are measured so as to correspond to three types of measurement items.
  • the evaluation findings 30 which are the findings of the evaluation of the evaluation object 50 by the evaluator 70 selected to correspond to the evaluation object 50 separately from the subject 60 are acquired.
  • the evaluator 70 (the evaluator 71 who is an ergonomic expert and the evaluator who is the product designer) is based on the information on the trial status of the subject 60 who is trying the evaluation object 50.
  • the evaluation findings 30 including the evaluation score indicating the evaluation according to 72) and the character information are acquired based on the input operation to the evaluator terminal 3 by the evaluator 70.
  • step 403 the evaluation result 80 for the evaluation object 50 including the measured biological information 20 and the acquired evaluation findings 30 is acquired. Specifically, based on the measured biological information 20, the biological information 20 represented by a numerical value is acquired as the measurement result. In addition, the evaluation findings 30 transmitted from the evaluator terminal 3 are acquired. Then, based on the acquired biological information 20 and the evaluation findings 30, the evaluation result 80 including the information that can identify the order when the evaluation objects 50 are compared is acquired.
  • each of the plurality of biological information 20 and the evaluation findings 30 are displayed side by side, and the evaluation result 80 including information that can identify the order when the plurality of evaluation objects 50 are compared is displayed. Will be done. Specifically, for each of the first biological information 20a to the third biological information 20c included in the biological information 20, a numerical value of 1 or more and 100 or less and a comment corresponding to each biological information 20 are displayed on the display unit 12. Displayed side by side. Further, regarding the evaluation findings 30 (evaluation findings 30a and evaluation findings 30b), the evaluation scores and the character information included in the evaluation findings 30 are displayed side by side on the display unit 12.
  • the order when the plurality of evaluation objects 50 acquired based on the biological information 20 and the evaluation findings 30 are compared is displayed on the display unit 12. That is, for each of the plurality (three) evaluation objects 50 (toner 51, toner 52, and toner 53), the plurality of biological information 20, the evaluation findings 30, and the corresponding ranks are displayed. It is displayed side by side in part 12.
  • step of the process of measuring the biological information 20 in step 401 or the process of acquiring the evaluation finding 30 in step 402 may be performed first.
  • Information 20 is measured.
  • the subjective sensibility felt by actually trying the evaluation object 50 can be shown as objective data.
  • the evaluation result 80 for the evaluation object 50 including the information that can identify the order when each of the plurality of evaluation objects 50 is compared is acquired.
  • the biological information 20 is measured based on the measurement items selected to correspond to the evaluation target 50, taking into consideration the situation where the evaluation target 50 is tried and the person who tries the evaluation target 50. can do. Therefore, when the biological information 20 is measured from the subject 60 in the state of trying the evaluation object 50, the biological information 20 of an appropriate measurement item can be easily measured.
  • the evaluator 70 selected to correspond to the evaluation object 50 separately from the subject 60 is the plurality of evaluation objects 50 by the subject 60.
  • the step of acquiring the evaluation findings 30 in which the evaluation object 50 is evaluated based on the information regarding each trial situation is further provided, and the steps of acquiring the evaluation result 80 are the measured biological information 20 and the acquired evaluation findings 30. It is a step to acquire the evaluation result 80 including.
  • the biological information 20 shown as data on the sensibilities felt by the subject 60 when the evaluation object 50 is actually used, and the evaluation findings 30 objectively evaluated from the standpoint of a third party are acquired. Therefore, when the evaluation object 50 is evaluated by sensitivity, it is possible to easily obtain an evaluation based on an objective basis.
  • the step of acquiring the evaluation findings 30 includes an evaluation including an expert on the impression and experience (user experience) obtained when using the product, the system, and the service.
  • the expert's findings on the user experience can be used to obtain an evaluation of the user experience obtained when the subject 60 tries the evaluation object 50. Therefore, the evaluation object 50 is evaluated from an objective viewpoint by the evaluator 70 who has specialized knowledge about the user experience, separately from the subjective viewpoint by the subject 60 who is actually trying the evaluation object 50. Can obtain an evaluation of the user experience that the subject 60 brings to the subject 60.
  • the evaluation object 50 is evaluated by sensitivity, it is possible to obtain a more detailed evaluation based on an objective basis based on the specialized knowledge about the user experience.
  • the step of acquiring the evaluation findings 30 is the usability of the evaluation object 50 by observing the behavior of the subject 60 who is trying the evaluation object 50.
  • This is a step of acquiring evaluation findings 30 including findings by experts who extract problems of usability).
  • the evaluation object 50 has an appearance and shape suitable for the usage environment, or is evaluated by observing how the evaluation object 50 is being used by the subject 60.
  • problems related to usability such as whether there are any points that are difficult for the subject 60 to use when trying out the object 50, a specialization in usability different from that of the subject 60 actually being tried. You can get the findings of the evaluation from the house. As a result, it is possible to obtain expert findings on potential problems and problems with the evaluation object 50 that the subject 60 who is actually trying the evaluation object 50 cannot recognize. , A more detailed evaluation result 80 for the evaluation object 50 can be obtained.
  • the step of acquiring the evaluation result 80 includes an evaluation including a ranking when each of the plurality of evaluation objects 50 is compared based on the biological information 20 and the evaluation findings 30. It is a step to acquire the result 80.
  • the step of measuring the biological information 20 corresponds to each of the plurality of measurement items based on the plurality of measurement items selected to correspond to the evaluation object 50.
  • This is a step of measuring a plurality of biological information 20 to be performed.
  • each of the plurality of biological information 20 and the evaluation findings 30 are displayed side by side, and each of the plurality of evaluation objects 50 is displayed side by side.
  • the plurality of biological information 20 and the evaluation findings 30 are displayed side by side, so that the plurality of biological information 20 acquired for the evaluation object 50 and the evaluation findings 30 can be easily compared.
  • the plurality of biometric information 20 and the evaluation findings 30 can be easily visually observed for each of the plurality of evaluation objects 50. You can compare them. As a result, since the plurality of biological information 20 and the evaluation findings 30 can be easily compared with respect to the plurality of evaluation objects 50, the plurality of evaluation objects 50 can be easily compared based on the sensitivity measurement.
  • the measured biological information 20 and the acquired evaluation finding 30 are expressed based on a common standard (numerical value of 1 or more and 100 or less). It is a step of displaying the evaluation result 80 in the state of being displayed by (notation by).
  • the biometric information 20 and the evaluation findings 30 are displayed by the notation based on the common standard, so that the biometric information 20 and the evaluation findings 30 displayed by the notation based on the common standard can be compared. can. Therefore, it is possible to more easily compare the plurality of evaluation objects 50 based on the sensitivity measurement, as compared with the case where the biological information 20 and the evaluation findings 30 are displayed by different notations.
  • the step of measuring the biological information 20 corresponds to each of the plurality of measurement items based on the plurality of measurement items selected to correspond to the evaluation object 50.
  • the step of measuring the plurality of biometric information 20 to be performed, and the step of acquiring the evaluation result 80, each of the measured plurality of biometric information 20 and the acquired evaluation finding 30 are weighted.
  • This is a step of acquiring the state evaluation result 80.
  • the evaluation result 80 in a state in which the measured biological information 20 and the acquired evaluation findings 30 are weighted can be acquired, so that the biological information 20 and the evaluation findings 30 can be acquired. It is possible to obtain the evaluation result 80 with more emphasis on either one of the above.
  • the step of measuring the biological information 20 includes biological information including at least one of the cerebral blood flow, the electroencephalogram, the heart rate, and the viewpoint movement of the subject 60. It is a step to measure 20.
  • the sensitivity that the subject 60 feels to the evaluation object 50 is measured based on at least one of the cerebral blood flow, the electroencephalogram, the heart rate, and the viewpoint movement of the subject 60. be able to. Therefore, since the sensibility can be quantitatively measured based on the biological signal that the subject 60 cannot perceive, the sensibility of the subject 60 can be measured as objective data.
  • the sensibility of the subject 60 can be measured as objective data.
  • the subject in a state where the evaluation object 50 is being used as a trial based on the measurement items selected so as to correspond to the evaluation object 50 by being configured as described above.
  • the biological information 20 is measured from the examiner 60. Thereby, the subjective sensibility felt by actually trying the evaluation object 50 can be shown as objective data.
  • the evaluation result 80 for the evaluation object 50 including the information that can identify the order when each of the plurality of evaluation objects 50 is compared is acquired. As a result, it is possible to easily obtain the result of comparing a plurality of evaluation objects 50 based on the biological information 20 showing the sensibility as objective data.
  • the biological information 20 is measured based on the measurement items selected to correspond to the evaluation target 50, taking into consideration the situation where the evaluation target 50 is tried and the person who tries the evaluation target 50. can do. Therefore, when the biological information 20 is measured from the subject 60 in the state of trying the evaluation object 50, the biological information 20 of an appropriate measurement item can be easily measured.
  • the evaluator 70 selected to correspond to the evaluation object 50 separately from the subject 60 relates to the trial status of each of the plurality of evaluation objects 50 by the subject 60.
  • An evaluation finding acquisition unit (evaluator terminal 3) for acquiring an evaluation finding 30 that evaluates an evaluation object 50 based on information is further provided, and an evaluation result acquisition unit (sensitivity measurement terminal 1) is a biological information measurement unit (measurement device). It is configured to acquire an evaluation result 80 including the biological information 20 measured by 2) and the evaluation findings 30 acquired by the evaluator terminal 3. With this configuration, it was obtained by behavior observation by the evaluator 70 from an objective viewpoint of observing the trial situation of the subject 60 separately from the subject 60 who actually tried the evaluation object 50.
  • Information can be acquired as the evaluation findings 30 for the evaluation object 50. Therefore, in addition to the sensitivity information shown as data, it is possible to obtain an objective evaluation of the evaluation object 50 from the standpoint of a third party. As a result, the biological information 20 shown as data on the sensibilities felt by the subject 60 when the evaluation object 50 is actually used, and the evaluation findings 30 objectively evaluated from the standpoint of a third party are acquired. Therefore, when the evaluation object 50 is evaluated by sensitivity, it is possible to easily obtain an evaluation based on an objective basis.
  • a display unit 12 for displaying the evaluation result 80 acquired by the evaluation result acquisition unit (sensitivity measurement terminal 1) is further provided.
  • the evaluation result 80 can be easily recognized by visually recognizing the evaluation result 80 displayed on the display unit 12.
  • the sensitivity measurement system 200 according to the second embodiment includes a sensitivity measurement terminal 201.
  • the sensitivity measurement system 200 according to the second embodiment acquires the evaluation result 80 for the evaluation object 50 which is the lotion 51 to 53 as in the first embodiment.
  • the sensitivity measurement terminal 201 is a computer used to acquire the evaluation result 80 for the evaluation target object 50, similarly to the sensitivity measurement terminal 1 according to the first embodiment.
  • the sensitivity measurement terminal 201 includes a storage unit 214 and a control unit 215.
  • the storage unit 214 is configured by a storage device such as a hard disk drive, like the storage unit 14 according to the first embodiment.
  • the storage unit 214 stores the category information 214a indicating the type of the evaluation object 50 in association with the combination 214b of a plurality of measurement items determined to correspond to the type of the evaluation object 50.
  • Category information 214a includes, for example, drinks, foods, and cosmetics.
  • the combination of measurement items 214b is a combination of measurement items predetermined so as to correspond to the type of the evaluation object 50 included in the category information 214a.
  • the measurement items are, for example, information indicating the type of biological information 20 measured from the subject 60 and the measuring device 2 used for measuring the biological information 20.
  • the measurement items may include information that determines the characteristics of the subject 60 such as age and gender, and a report format for outputting the evaluation result 80.
  • the control unit 215 includes a CPU, a ROM, a RAM, and the like, like the control unit 15 according to the first embodiment.
  • the control unit 215 controls each unit of the sensitivity measurement terminal 201 by the CPU executing a predetermined control program. Further, in the second embodiment, the control unit 215 selects a predetermined combination of measurement items 214b from the plurality of measurement items so as to correspond to the evaluation target 50. Specifically, the control unit 215 is selected based on the fact that an input operation for selecting one category information 214a is received from the plurality of category information 214a stored in the storage unit 214. Select the combination of measurement items 214b corresponding to the category information 214a.
  • the control unit 215 causes the display unit 12 to display a plurality of category information 214a of the evaluation target object 50 so that they can be selected. Then, the control unit 215 acquires an operation signal for selecting one category information 214a from the plurality of category information 214a based on the input operation to the operation unit 11. The control unit 215 selects a combination of measurement items 214b corresponding to one selected category information 214a based on the acquired operation signal.
  • control unit 215 causes the display unit 12 to display the selected category information 214a and the combination of measurement items 214b corresponding to the selected category information 214a.
  • the control unit 215 selects a predetermined category information 214a from the plurality of category information 214a of the evaluation object 50 stored in advance, and the measurement item is predetermined.
  • the combination 214b of is selected so as to correspond to the evaluation object 50.
  • the measuring device 2 acquires the biological information 20 from the subject 60 in the state of trying the evaluation object 50 based on the combination 214b of the measurement items selected by the control unit 215.
  • a predetermined combination of measurement items 214b is selected from the plurality of measurement items so as to correspond to the evaluation target 50.
  • the step of measuring the biometric information 20 further comprises a plurality of biometric information 20 corresponding to each measurement item in the selected measurement item combination 214b based on the selected measurement item combination 214b. It is a step to measure.
  • the configuration of the sensitivity measurement system 300 according to the third embodiment of the present invention will be described with reference to FIGS. 8 and 9.
  • the trained model 370 generated by machine learning is used as the evaluator 70.
  • the same configurations as those of the first and second embodiments are shown with the same reference numerals in the drawings, and the description thereof will be omitted.
  • the sensitivity measurement system 300 according to the third embodiment uses the trained model 370 generated by machine learning, and the evaluation findings 330 including the evaluation findings for the evaluation object 50 output based on the measured biological information 20. To get. That is, the sensitivity measurement system 300 according to the third embodiment uses the trained model 370 as an evaluator selected to correspond to the evaluation object 50 separately from the subject 60 generated by machine learning. Acquire evaluation findings 330.
  • the Kansei measurement system 300 acquires the evaluation results 80 for the lotions 51 to 53 as the evaluation target 50, similarly to the Kansei measurement system 100 according to the first embodiment.
  • the evaluation result 80 for the lotions 51 to 53 includes the biological information 20 measured by the measuring device 2 and the evaluation findings 330 acquired by the trained model 370.
  • the sensitivity measurement system 300 includes a sensitivity measurement terminal 301 and a learning device 303.
  • the sensitivity measurement terminal 301 acquires the biological information 20 measured by the measuring device 2. Further, the sensitivity measurement terminal 301 acquires the evaluation findings 330 by using the trained model 370 generated in advance by the learning device 303.
  • the sensitivity measurement terminal 301 is an example of the "evaluation finding acquisition unit" and the “evaluation result acquisition unit” in the claims.
  • the learning device 303 trains the trained model 370.
  • the trained model 370 is generated by machine learning by the teacher input biometric information 303a and the teacher output evaluation findings 303b.
  • a machine learning method deep learning, which is machine learning using a multi-layer neural network, is used.
  • the machine learning method is, for example, deep learning using a full-layer convolutional neural network (FCN).
  • FCN full-layer convolutional neural network
  • the learning device 303 is a computer for machine learning including, for example, a CPU, a ROM, and a RAM. Further, the learning device 303 is configured to be able to communicate with the sensitivity measurement terminal 301, and transmits the generated learned model 370 to the sensitivity measurement terminal 301.
  • the lotion 51 is used to train the trained model 370 by the learning device 303.
  • Biological information 303a for teacher input and evaluation findings 303b for teacher output are acquired using a plurality of types of learning lotions separate from those of ⁇ 53.
  • the biological information 303a for teacher input is trying the learning cosmetic water in the same manner as in the case of measuring the biological information 20 from the subject 60 in the state of trying the cosmetic waters 51 to 53 in the first embodiment. Measured from the subject for learning the condition.
  • the learning subject is a subject separate from the subject 60 who tries the lotions 51 to 53.
  • the evaluation findings 303b for teacher output are obtained by the evaluator 70 by observing the learning subject who is trying the learning lotion, as in the case of acquiring the evaluation findings 30 in the first embodiment. These are the findings of the evaluation of the acquired learning lotion.
  • the evaluation finding 303b for teacher output is, for example, numerical information of 1 or more and 100 or less.
  • the learning device 303 uses a plurality of types of learning lotions to perform the same sensitivity measurement as in the first embodiment for a plurality of learning subjects, whereby a plurality of teacher input biological information 303a. And a plurality of evaluation findings 303b for teacher output corresponding to the biological information 303a for teacher input. Then, the learning device 303 performs learning by machine learning with the teacher input biological information 303a as an input and the teacher output evaluation finding 303b as an output, and generates a trained model 370. That is, the learning device 303 trains the trained model 370 by machine learning using the teacher input biological information 303a and the teacher output evaluation findings 303b as teacher data (training set).
  • the sensitivity measurement terminal 301 includes a storage unit 314 and a control unit 315.
  • the Kansei measurement terminal 301 is a computer used to acquire an evaluation result 380 for the evaluation object 50, similarly to the Kansei measurement terminal 1 according to the first embodiment.
  • the storage unit 314 stores the trained model 370 generated by the learning device 303.
  • the storage unit 314 is configured by a storage device such as a hard disk drive, similarly to the storage unit 14 according to the first embodiment.
  • the control unit 315 includes a CPU, ROM, RAM, and the like.
  • the control unit 315 controls each unit of the sensitivity measurement terminal 301 by the CPU executing a predetermined control program.
  • the control unit 315 acquires the trained model 370 generated by the learning device 303 via the communication unit 13. Then, the control unit 315 stores the acquired learned model 370 in the storage unit 314.
  • the control unit 315 acquires the biological information 20 measured by the measuring device 2. Then, the control unit 315 acquires the evaluation findings 330 based on the measured biological information 20 by using the learned model 370 stored in the storage unit 314.
  • the evaluation finding 330 includes, for example, numerical information of 1 or more and 100 or less.
  • the step of acquiring the evaluation findings 330 is the evaluation object 50 output based on the measured biological information 20 using the trained model 370 generated by machine learning. It is a step to acquire the evaluation findings 330 including the evaluation findings for.
  • the evaluation findings 330 can be obtained based on the measured biological information 20 using the trained model 370, so that a human evaluator evaluates the evaluation object 50.
  • the evaluation findings 330 can be obtained without. Therefore, by using the trained model 370 generated by machine learning, it is possible to suppress an increase in the work load of a human evaluator.
  • the other effects of the third embodiment are the same as the effects of the first and second embodiments.
  • the biological information 20 and the evaluation findings 30 indicated by numerical values of 1 or more and 100 or less are displayed on the display unit 12 as the evaluation result 80, but the present invention shows the present invention. Not limited to this.
  • the biological information and the evaluation result may be represented by a symbol indicating a four-step evaluation. Specifically, the double circle (symbol of two circles) representing the best evaluation, the single circle (symbol of one circle) representing the second best evaluation, and the third best evaluation are represented.
  • Biological information and evaluation results may be indicated by four symbols, a triangle and a cross mark (X mark) indicating the worst evaluation.
  • each of the plurality of biological information 20 (first to third biological information 20a to 20c) side by side are shown, but the present invention is not limited to this.
  • one comprehensive biometric information generated based on a plurality of biometric information may be displayed.
  • the measurement results of a plurality of biometric information measured by the measuring device are represented by numerical values of 1 or more and 100 or less, and the average value of biometric information represented by numerical values of 1 or more and 100 or less is one comprehensive value. It may be displayed on the display unit (evaluation result) as biometric information.
  • the evaluation object 50 is a lotion
  • the evaluation object 450 may be coffee.
  • the concept of "drinking during a meeting stimulates discussion" is evaluated. That is, biological information such as brain waves is measured by a measuring device from a subject who is having a discussion while drinking coffee. Then, by observing the subject who is having a discussion while drinking coffee, the evaluation findings by the evaluator are obtained. Then, based on the biometric information and the evaluation findings, the evaluation result in which the degree of concentration, the degree of relaxation, the activity of the discussion, and the like are evaluated is acquired.
  • the biological information 20 measured by the measuring device 2 may be compared in a state of being divided along the time axis. That is, by dividing the biological information 20 acquired from one type of measuring device 2 along the time axis, a plurality of divided biological information 20 may be acquired. Then, each of the acquired plurality of biometric information 20 may be ranked separately (evaluation based on the sensibility of the subject 60 is acquired). For example, when coffee is used as the evaluation target 50 as in the evaluation target 450 according to the third modification, the biological information 20 acquired when the coffee is put in the mouth and after swallowing (aftertaste). The biometric information 20 acquired at the time point may be different.
  • the biological information 20 is divided on the time axis, it is desirable not to change the weighting for each measuring device 2 (for each biological information 20) according to the time axis. That is, for each of the plurality of biometric information 20 measured by the plurality of measuring devices 2, for example, the biometric information 20 at the time of swallowing and the biometric information 20 at the time of swallowing are evaluated by a common weighting. It is desirable to do.
  • the evaluation findings 30 for the evaluation object 50 by the evaluator 70 are acquired, and in the third embodiment, the evaluation findings 330 are acquired (estimated) based on the trained model 370.
  • the present invention is not limited to this.
  • the evaluation result may be acquired based on the measured biometric information without acquiring the evaluation findings.
  • the evaluator 70 has shown an example including an expert on the impression and experience (user experience) obtained when using the product, the system, and the service.
  • the invention is not limited to this.
  • the evaluator may include experts in the field corresponding to the object to be evaluated. That is, when the evaluation target is food or drink, the evaluator may include a scent expert such as a perfumer.
  • the evaluation findings 30 show an example including the findings obtained by observing the behavior of the subject who is trying the evaluation object 50. Is not limited to this.
  • the evaluation findings may be the findings obtained by the evaluator himself trying the evaluation object.
  • the evaluator 70 observes the subject 60 who is trying the evaluation object 50 while measuring the biological information 20, so that the evaluation findings 30 by the evaluator 70 are obtained.
  • the evaluator is trying out the evaluation target by the subject who is not wearing the device for acquiring the biometric information at a timing different from the case where the biometric information is measured from the subject.
  • the evaluation findings by the evaluator may be obtained by observing.
  • an example of obtaining an evaluation result 80 including a ranking when each of a plurality of evaluation objects 50 is compared is shown, but the present invention is not limited to this.
  • the evaluation result including the total score of the evaluation for a plurality of evaluation results may be acquired.
  • the evaluation target that has obtained the best evaluation may be notified (displayed) in a discriminative manner from among a plurality of evaluation objects.
  • only one evaluation result of one evaluation object may be acquired from a plurality of evaluation objects.
  • the evaluation result may include the result of the questionnaire.
  • the evaluation result 80 is displayed in a state where the measured biological information 20 and the acquired evaluation findings 30 are displayed by a notation based on a common standard.
  • the present invention is not limited to this.
  • the biometric information and the evaluation findings may be displayed in a notation based on different criteria. That is, the biological information may be displayed by a score notation, and the evaluation findings may be displayed by a three-stage evaluation (for example, A, B, C).
  • the evaluation result 80 in a state in which each of the measured plurality of biological information 20 and the acquired evaluation findings 30 is weighted is acquired.
  • the present invention is not limited to this.
  • the evaluation result may be obtained by equally evaluating the score of the plurality of measured biometric information and the score of the evaluation finding without weighting.
  • the biological information 20 includes at least one of the cerebral blood flow, the electroencephalogram, the heart rate, and the viewpoint movement amount of the subject 60.
  • the present invention is not limited to this.
  • the respiratory rate, body temperature, sweating amount, pupil diameter, and the like may be acquired as biological information.
  • the unconscious behavior of the subject such as nodding motion or facial expression may be quantified and acquired as biological information.
  • an example is shown further comprising a step of selecting a predetermined combination of measurement items from a plurality of measurement items so as to correspond to the evaluation target 50.
  • a predetermined combination of measurement items from a plurality of measurement items so as to correspond to the evaluation target 50.
  • one measurement item may be selected from a plurality of measurement items so as to correspond to the evaluation target.
  • an example of acquiring the evaluation findings 330 using the trained model 370 generated by machine learning is shown, but the present invention is not limited to this.
  • an algorithm generated by rule base instead of machine learning may be used to acquire evaluation findings for the evaluation object.
  • the evaluation result 80 is displayed on the display unit 12
  • the present invention is not limited to this.
  • the evaluation result may be output by printing on paper or the like.
  • the acquired evaluation result may be output to the outside via the communication unit.
  • the evaluator 70 evaluates the evaluation object 50 by observing the subject 60 imaged by the image pickup unit 4, and the present invention shows this.
  • the evaluator may evaluate the evaluation object by directly observing the subject.
  • the Kansei measurement terminal may acquire the evaluation findings based on the input operation to the operation unit of the Kansei measurement terminal by the evaluator.
  • the evaluator terminal 3 acquires the moving image from the image pickup unit 4, so that the subject 60 displayed on the display unit 32 of the evaluator terminal 3 is the evaluator 70.
  • the present invention is not limited to this. For example, a subject who is trying out an evaluation object by storing a moving image captured by an imaging unit in a storage unit of a sensitivity measurement terminal and visually recognizing the stored moving image by an evaluator. May be observed.
  • biometric information and evaluation findings may be stored in a database built on the cloud (cloud computing).
  • the sensitivity measurement terminal may acquire the evaluation result based on the biological information and the evaluation findings stored in the cloud.
  • the evaluator 70 has shown an example of being an ergonomic expert and a product designer, but the present invention is not limited to this.
  • the evaluator may be a human-centered design expert.
  • the evaluator may also be an ethnographer (ethnographicist).
  • a sensitivity measurement method comprising a step of acquiring an evaluation result for the evaluation object including information that can identify the order when each of the plurality of evaluation objects is compared based on the measured biological information. ..
  • An evaluator selected to correspond to the evaluation object separately from the subject selects the evaluation object based on information on the trial status of each of the plurality of evaluation objects by the subject. With additional steps to get the evaluated findings
  • the sensitivity measurement method according to item 1, wherein the step of acquiring the evaluation result is a step of acquiring the evaluation result including the measured biological information and the acquired evaluation findings.
  • the step of acquiring the evaluation findings is to acquire the evaluation findings including textual information indicating the evaluation findings by the evaluator including experts on the impression and experience obtained when using the product, system, and service.
  • the step of acquiring the evaluation findings includes the findings by the expert who extracts the problem of usability of the evaluation object by observing the behavior of the subject who is trying the evaluation object.
  • the step of acquiring the evaluation result is a step of acquiring the evaluation result including the ranking when each of the plurality of evaluation objects is compared based on the biological information and the evaluation findings, items 2 to 4.
  • the sensitivity measurement method according to any one of the above items.
  • the step of measuring the biometric information is a step of measuring a plurality of the biometric information corresponding to each of the plurality of measurement items based on the plurality of the measurement items selected to correspond to the evaluation object.
  • the sensitivity measurement method according to any one of items 2 to 5, further comprising a step of displaying the evaluation result.
  • the step of displaying the evaluation result is a step of displaying the evaluation result in a state where the measured biological information and the acquired evaluation findings are displayed by a notation based on a common standard. Sensitivity measurement method.
  • the step of measuring the biometric information is a step of measuring a plurality of the biometric information corresponding to each of the plurality of measurement items based on the plurality of the measurement items selected to correspond to the evaluation object.
  • the step of acquiring the evaluation result is a step of acquiring the evaluation result in a state in which each of the measured biometric information and the acquired evaluation finding is weighted.
  • the sensitivity measurement method according to any one of 2 to 7.
  • the step of measuring the biological information is a step of measuring the biological information including at least one of the cerebral blood flow, the electroencephalogram, the heart rate, and the viewpoint movement of the subject, items 1 to 8.
  • the sensitivity measurement method according to any one item.
  • a step of selecting a predetermined combination of the measurement items from the plurality of measurement items so as to correspond to the evaluation object is further provided.
  • the step of measuring the biometric information is a step of measuring a plurality of the biometric information corresponding to each of the selected measurement item combinations based on the selected combination of the measurement items.
  • the sensitivity measurement method according to any one of items 1 to 9.
  • the step of acquiring the evaluation findings uses the trained model generated by machine learning to acquire the evaluation findings including the evaluation findings for the evaluation object output based on the measured biometric information.
  • the sensitivity measurement method according to any one of items 2 to 8, which is a step.
  • a biometric information measuring unit that measures biometric information from a subject who is trying out each of the plurality of evaluation objects based on the measurement items selected to correspond to the evaluation object. Acquisition of evaluation results for acquiring evaluation results for the evaluation target including information that can identify the order when each of the plurality of evaluation objects is compared based on the biological information measured by the biometric information measuring unit. Sensitivity measurement system equipped with a department.
  • An evaluator selected to correspond to the evaluation object separately from the subject selects the evaluation object based on information on the trial status of each of the plurality of evaluation objects by the subject. Further equipped with an evaluation finding acquisition department to acquire evaluated evaluation findings, The evaluation result acquisition unit is configured to acquire the evaluation result including the biometric information measured by the biometric information measurement unit and the evaluation findings acquired by the evaluation finding acquisition unit.
  • the sensitivity measurement system according to 12.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychology (AREA)
  • Cardiology (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Physiology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

この感性計測方法は、評価対象物(50)に対応するように選択された測定項目に基づいて、複数の評価対象物(50)の各々を試用している状態の被検者(60)から生体情報(20)を測定するステップと、測定された生体情報(20)に基づいて、複数の評価対象物(50)の各々を比較した場合の順位を識別可能な情報を含む評価対象物(50)に対する評価結果(80)を取得するステップと、を備える。

Description

感性計測方法および感性計測システム
 本発明は、感性計測方法および感性計測システムに関する。
 従来、被検者の感性を測定する感性推定装置が知られている。このような感性推定装置は、たとえば、特開2018-187287号公報に開示されている。
 上記特開2018-187287号公報に記載の感性推定装置は、学習モードにおいて、ユーザ(被検者)に視認された画像の特徴量を取得する。そして、ユーザが画像を視認した際に取得された複数の生体信号(脳波信号、心拍信号、および、眼電信号など)から統合された生体信号の特徴量を取得する。また、ユーザからの入力によって感性の種類および強度を示す感性情報を取得する。上記特開2018-187287号公報に記載の感性推定装置は、学習モードにおいて、画像の特徴量と、生体信号の特徴量と、感性情報との関連性(学習モデル)を学習する。そして、この感性推定装置は、推定モードにおいて、ユーザが実物の視認対象を視認した場合に、視認対象を撮影することによって取得された画像の特徴量と、ユーザから計測された生体情報と、学習モードにおいて学習した関連性とに基づいて、実物の視認対象に対するユーザの感性(安静や興奮などの感性情報)を推定する。
特開2018-187287号公報
 ここで、従来、新しく開発された製品などの評価対象物をユーザ(被検者)の感性による評価に基づいて比較する場合には、アンケートおよびインタビューなどによって主観的な評価を取得する方法が考えられる。しかしながら、アンケートおよびインタビューなどの主観的な評価方法では、取得される評価結果が被検者の意図および嗜好などによって偏った結果となる。また、上記特開2018-187287号公報に記載の感性推定装置のように、人の感性を計測する装置を用いる場合には、測定された生体情報に基づいて客観的な情報としての感性を計測することが可能である一方で、測定された生体情報を解析するために専門的な知識が必要となる。そのため、複数の評価対象物を感性に基づく評価によって比較する場合に、客観的な根拠に基づく感性の情報を容易に取得することが困難である。
 この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、複数の評価対象物を人の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価対象物に対する評価を容易に取得することが可能な感性計測方法および感性計測システムを提供することである。
 上記目的を達成するために、この発明の第1の局面における感性計測方法は、評価対象物に対応するように選択された測定項目に基づいて、複数の評価対象物の各々を試用している状態の被検者から生体情報を測定するステップと、測定された生体情報に基づいて、複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む評価対象物に対する評価結果を取得するステップと、を備える。
 この発明の第2の局面における感性計測システムは、評価対象物に対応するように選択された測定項目に基づいて、複数の評価対象物の各々を試用している状態の被検者から生体情報を測定する生体情報測定部と、生体情報測定部によって測定された生体情報に基づいて、複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む評価対象物に対する評価結果を取得する評価結果取得部と、を備える。
 上記第1の局面における感性計測方法、および、上記第2の局面における感性計測システムでは、評価対象物に対応するように選択された測定項目に基づいて、評価対象物を試用している状態の被検者から生体情報を測定する。これにより、実際に評価対象物を試用することによって感じる主観的な感性を客観的なデータとして示すことができる。そして、測定された生体情報に基づいて、複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む評価対象物に対する評価結果を取得する。これにより、感性を客観的なデータとして示した生体情報に基づいて、複数の評価対象物を比較した結果を容易に取得することができる。その結果、複数の評価対象物を人の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価対象物に対する評価を容易に取得することができる。また、評価対象物に対応するように選択された測定項目に基づいて、評価対象物を試用している状態の被検者から生体情報を測定するため、評価対象物の種類、評価対象物を試用する場面、および、評価対象物を試用する人などを考慮に入れて、評価対象物に対応するように選択された測定項目に基づいて、生体情報を測定することができる。そのため、評価対象物を試用している状態の被検者から生体情報を測定する場合に、適切な測定項目の生体情報を容易に測定することができる。
第1実施形態による感性計測システムの構成を説明するための模式図である。 第1実施形態による感性計測システムについて説明するためのブロック図である。 第1実施形態による評価結果の表示について説明するための図である。 第1実施形態による感性計測方法について説明するためのフローチャートである。 第2実施形態による感性計測システムの構成を説明するためのブロック図である。 第2実施形態による測定項目の組み合わせを選択するための表示について説明するための図である。 第2実施形態による選択された測定項目の組み合わせの表示について説明するための図である。 第3実施形態による感性計測システムの構成を説明するためのブロック図である。 第3実施形態による学習済みモデルの生成について説明するための図である。 第1~第3実施形態の第1変形例による評価結果の表示について説明するための図である。 第1~第3実施形態の第2変形例による評価結果の表示について説明するための図である。 第1~第3実施形態の第3変形例による評価対象物について説明するための図である。
 以下、本発明を具体化した実施形態を図面に基づいて説明する。
 [第1実施形態]
 (感性計測システムの全体構成)
 図1~図3を参照して、本発明の第1実施形態による感性計測システム100、および、感性計測方法について説明する。
 図1に示すように、感性計測システム100は、複数の評価対象物50に対する評価結果80(図3参照)を取得する。複数の評価対象物50は、たとえば、企業などが商品を開発する際に作られる試作品である。感性計測システム100は、試作品である評価対象物50を感性によって評価する場合に、被検者60が試作品である評価対象物50を試用する際に感じる感性を客観的に計測する。すなわち、感性計測システム100は、複数の評価対象物50のうちから好ましいと感じる評価対象物50を選出する場合に、人が感性によって感覚的に判断していた評価について客観性のある根拠を取得するために用いられる。
 評価対象物50は、たとえば、化粧品である。具体的には、評価対象物50は化粧水51、化粧水52、および、化粧水53を含む。すなわち、感性計測システム100は、化粧水51~53の各々について、化粧水51~53をそれぞれ試用した被検者60が、付け心地、におい、または、パッケージの見た目などについてどのように感じたかを計測する。言い換えると、感性計測システム100は、「化粧水51~53を試用する」という体験全体を通して、被検者60が感じる感性を評価する。すなわち、ここで言う「試用」とは、被検者60の顔面に化粧水51~53を塗布することのみならず、被検者60が洗顔を行った後に、化粧水51~53の容器を手に取った時点から、化粧水51~53を顔に塗布し終える時点までの全体的な体験を意味する。被検者60は、たとえば、日常的に化粧水を使用している女性である。
 また、評価対象物50に適した試用方法(実験方法)として、たとえば、被検者60の肌の状態を揃えるために、洗顔後に所定の時間が経過したタイミングにおいて3つの化粧水51~53のうちの1つを顔に塗布する方法が定められる。なお、3つの化粧水51~53のうちの1つを試用するたびに、被検者60は洗顔を行う。また、試用方法が評価対象物50に適しているか否かを確認するために、予め予備実験が行われる。たとえば、予備実験として、洗顔後に15分が経過したタイミングにおいて評価対象物50(化粧水51~53)を試用する方法が定められる。そして、定められた予備実験を実施した場合に取得された生体情報20が適切であるか否かが判断される。たとえば、洗顔後に15分が経過するまでの間に、乾燥を気にする被検者60の不安およびストレスが高まることに起因して、評価対象物50の評価に影響が及ぼされることが確認された場合には、予備実験として、洗顔後に5分が経過したタイミングにおいて評価対象物50(化粧水51~53)を試用する方法が新たに定められる。新たに定められた予備実験において適切に評価対象物50に対する感性の計測が確認された場合には、新たに定められた予備実験の内容が評価対象物50に適した試用方法であると定められる。このようにして定められた試用方法によって、評価対象物50を試用している状態の被検者60から生体情報20が取得される。
 図2に示すように、感性計測システム100は、感性計測端末1と、複数の測定装置2と、評価者端末3と、撮像部4とを備える。第1実施形態では、測定装置2は、評価対象物50を試用している状態の被検者60から、生体情報20を測定する。また、評価者端末3は、評価者70(2人の評価者71および評価者72)による評価対象物50に対する評価の所見である評価所見30を取得する。感性計測端末1は、測定された生体情報20と取得された評価所見30とを含む評価対象物50に対する評価結果80(図3参照)を取得する。なお、生体情報20、評価所見30、および、評価結果80についての詳細は後述する。また、測定装置2は、請求の範囲における「生体情報測定部」の一例である。また、評価者端末3は、請求の範囲における「評価所見取得部」の一例である。また、感性計測端末1は、請求の範囲における「評価結果取得部」の一例である。
 〈感性計測端末の構成〉
 感性計測端末1は、評価対象物50に対する評価結果80を取得するために用いられるコンピュータである。感性計測端末1は、測定装置2によって測定された被検者60からの生体情報20を取得するとともに、評価者端末3によって取得された評価者70による評価所見30を取得する。そして、感性計測端末1は、取得された生体情報20および評価所見30に基づいて評価結果80を取得する。また、感性計測端末1は、操作部11と、表示部12と、通信部13と、記憶部14と、制御部15とを含む。
 操作部11は、キーボードなどの入力機器を含む。また、操作部11は、マウスなどのポインティングデバイスを含む。操作部11は、感性計測端末1の各部を操作するための操作信号を受け付ける。また、操作部11は、制御部15に対して、入力された操作に基づく操作信号を送信する。
 表示部12は、液晶ディスプレイなどのディスプレイモニタを含む。表示部12は、制御部15による制御によって評価対象物50に対する評価結果80を表示する。なお、表示部12の表示についての詳細は後述する。
 通信部13は、測定装置2および評価者端末3と通信可能に構成されている。通信部13は、測定装置2および評価者端末3に対して、情報の送受信を行う。通信部13は、たとえば、通信モジュールおよび外部接続用のインターフェースを含む。通信部13は、有線または無線通信によって通信を行う。通信部13は、たとえば、USBケーブルなどの機器間接続用インターフェースおよび有線LANなどの通信用インターフェースなどによる有線接続と、無線LAN、Bluetooth(登録商標)およびRFタグに用いられる近距離無線通信、および、その他の赤外線通信などによる無線接続とによって、測定装置2および評価者端末3と通信可能に構成されている。通信部13は、測定装置2からの生体情報20を受信する。また、通信部13は、評価者端末3からの評価所見30を受信する。
 記憶部14は、たとえば、ハードディスクドライブなどの記憶装置により構成されている。記憶部14は、制御部15を機能させるためのプログラムを記憶している。また、記憶部14は、取得された生体情報20と、取得された評価所見30とを記憶する。
 制御部15は、CPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などを含む。制御部15は、CPUが所定のプログラムを実行することにより、感性計測端末1の各部の制御を行う。また、制御部15は、CPUが所定のプログラムを実行することにより、評価結果80を取得するための制御を行う。制御部15による評価結果80を取得するための制御の詳細については後述する。
 〈生体情報の測定について〉
 第1実施形態では、測定装置2は、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定する。測定項目は、被検者60から測定される生体情報20の種類と、生体情報20の測定方法を含む。そして、測定項目は、評価対象物50の種類に応じて選択される。たとえば、第1実施形態では、化粧水51~53を顔に塗るという体験を通して被検者60の感じる感性を計測するために、脳活動量と、脳波および心拍と、視点移動との複数(3種類)の測定項目が選択される。すなわち、第1実施形態では、生体情報20は、被検者60の脳血流量、脳波、心拍数、および、視点移動量を含む。
 測定装置2は、被検者60の感性を計測するために生体情報20を測定する。測定装置2は、NIRS(Near-infrared spectroscopy:近赤外線分光法)脳計測装置21、脳波計22、心拍計23、および、眼球運動計測装置24を含む。
 NIRS脳計測装置21は、生体情報20として、被検者60の脳血流量を測定する。具体的には、NIRS脳計測装置21は、近赤外線光を発光する光源と受光センサとを含む複数のプローブを備える。複数のプローブは、被検者60の頭部に装着される。NIRS脳計測装置21は、プローブに含まれる光源から発光される近赤外線光の反射光を受光センサによって測定する。NIRS脳計測装置21は、受光センサによって測定された近赤外線光の反射光に基づいて、被検者60の脳の血液中のヘモグロビンを測定することによって、被検者60の脳血流量を測定する。
 脳波計22は、生体情報20として、被検者60の脳波を測定する。脳波計22は、被検者60の頭皮に接触するように設けられた複数の電極と、耳たぶなどに装着される基準電極とを含む。脳波計22は、複数の電極と基準電極との電位差、または、複数の電極同士の電位差を測定することによって、被検者60の脳から生じる電気活動を測定する。
 心拍計23は、生体情報20として、被検者60の心拍数を測定する。心拍計23は、被検者60の手首に巻かれる腕時計型の心拍計23である。心拍計23は、被検者60の手首の内側の橈骨動脈の脈動を測定するように構成されている。
 眼球運動計測装置24は、生体情報20として、被検者60の視点移動量を測定する。眼球運動計測装置24は、被検者60の眼球に近赤外線を照射するとともに、被検者60の眼球によって反射された近赤外線光を検出することによって、被検者60の眼球の空間的な位置と、形状とを測定する。また、眼球運動計測装置24は、視点カメラを含む。視点カメラは、被検者60が視認する視界の画像(動画像)を取得する。眼球運動計測装置24は、測定された被検者60の眼球の位置および形状と、視点カメラによって撮影された被検者60の視界の画像とに基づいて、被検者60の視点移動量を測定する。
 複数の測定装置2の各々は、測定された生体情報20を感性計測端末1に送信する。測定装置2は、感性計測端末1の通信部13と、無線接続または有線接続されており、感性計測端末1と情報の送受信が可能に構成されている。すなわち、複数の測定装置2の各々は、化粧水51~53を試用している状態の被検者60から測定された生体情報20(脳血流量、脳波、心拍数、および、視点移動量)を感性計測端末1に送信する。なお、測定装置2は、複数の生体情報20を1つの測定装置2によって測定するように構成されていてもよい。たとえば、測定装置2は、脳波と脳血流量とを併せて測定可能に構成されていてもよい。
 〈評価所見の取得について〉
 第1実施形態では、評価者端末3は、被検者60とは別個に評価対象物50に対応するように選択された評価者70が、被検者60による複数の評価対象物50の各々の試用状況に関する情報に基づいて評価対象物50を評価した評価所見30を取得する。評価者70は、評価対象物50の種類と、評価対象物50が用いられる場所および状況とを考慮して、選択される。すなわち、評価対象物50が、人の行動の中でどのように用いられるか、どのような状況において用いられるか、または、どのような時間帯または場面で用いられるかなどを、総合的に考慮して、評価対象物50に対応するように評価者70が選択される。
 具体的には、評価者70は、ユーザーエクスペリエンスについての専門家を含む。ユーザーエクスペリエンス(ユーザー経験)とは、製品、システム、および、サービスなどを利用する場合に得られる印象および経験(体験)を意味する。詳細には、ユーザーエクスペリエンスは、製品、システム、および、サービスを実際に試用(利用)する経験のみならず、製品、システム、および、サービスを利用するに至った経緯や、利用することによって生じる影響など、製品、システム、および、サービスなどの利用によって得られる全体的な経験を意味する。また、評価者70は、評価対象物50を試用している被検者60の行動を観察することによって評価対象物50の使用性(ユーザビリティ)の問題点を抽出する専門家を含む。すなわち、評価者70は、ユーザビリティの評価についての専門家を含む。たとえば、第1実施形態における2人の評価者70は、人間工学の専門家である評価者71およびプロダクトデザイナーである評価者72である。
 評価者70(評価者71および72)は、評価対象物50を試用している被検者60を観察することによって評価対象物50に対する評価を行う。言い換えると、評価者70は、被検者60によって試用されている状態の評価対象物50を評価する。また、評価者70(評価者71および72)は、評価対象物50の試用の前後に被検者60に対してインタビューまたはアンケートを行う。評価者70(評価者71および72)は、評価対象物50を試用することによって被検者60にどのような影響(経験)がもたらされたのかについて評価する。このようにして、評価者70(評価者71および評価者72)は、被検者60による評価対象物50の試用状況に関する情報に基づいて、評価対象物50の評価を行う。
 たとえば、評価者70は、化粧水51~53に対して評価を行う場合には、化粧水51~53を使用している被検者60の行動を観察するとともに、化粧水51~53の試用の前後に被検者60にアンケートなどを行う。そして、評価者70は、行動の観察およびアンケートなどの被検者60による化粧水51~53の試用状況に関する情報に基づいて、化粧水51~53の評価を行う。評価者70は、被検者60による化粧水51~53の試用状況に関する情報に基づいて、被検者60が使いにくそうにしている部分はないか、形状および外観などが利用状況に適しているかなどの点について評価を行う。
 評価者端末3は、評価者70による評価対象物50に対する評価の所見である評価所見30を取得するために用いられるコンピュータである。評価所見30は、評価者70による評価対象物50に対する評価の所見を示す文字情報を含む。たとえば、評価対象物50が化粧水51~53である場合には、評価所見30は、被検者60の行動を観察することによって評価者70が認識した評価対象物50の問題点などである。具体的には、フタを空けにくそうにしている、内容物が容器からこぼれやすい、などの文字情報を含む。また、評価所見30は、たとえば、対象とする年齢層を考えるとパッケージデザインが子供っぽすぎる、または、大人っぽすぎる、などの文字情報を含む。また、評価所見30は、評価者70による評価対象物50に対する評価の評価得点を含む。また、評価者端末3は、操作部31と、表示部32と、通信部33と、記憶部34と、制御部35とを含む。
 操作部31は、キーボードなどの入力機器を含む。また、操作部31は、マウスなどのポインティングデバイスを含む。操作部31は、評価者70による評価所見30を入力するための入力操作を受け付ける。また、操作部31は、制御部35に対して、入力された操作に基づく操作信号を送信する。
 表示部32は、液晶ディスプレイなどのディスプレイモニタを含む。表示部32は、後述する撮像部4によって撮像された被検者60の動画像を表示する。また、スピーカなどの音声出力部36によって、評価対象物50を試用している被検者60の音声(被検者60の声など)を出力するようにしてもよい。
 通信部33は、感性計測端末1および撮像部4と通信可能に構成されている。通信部33は、感性計測端末1および撮像部4に対して、情報の送受信を行う。通信部33は、たとえば、通信モジュールおよび外部接続用のインターフェースを含み、有線または無線通信によって通信を行う。通信部33は、たとえば、USBケーブルなどの機器間接続用インターフェースおよび有線LANなどの通信用インターフェースなどによる有線接続と、無線LAN、Bluetooth(登録商標)およびRFタグに用いられる近距離無線通信、および、その他の赤外線通信などによる無線接続とによって、感性計測端末1および撮像部4と通信可能に構成されている。通信部33は、感性計測端末1に対して、取得された評価所見30を送信する。また、撮像部4からの映像信号を受信する。
 記憶部34は、たとえば、ハードディスクドライブなどの記憶装置により構成されている。記憶部34は、制御部35を機能させるためのプログラムを記憶している。また、記憶部34は、評価所見30を記憶する。
 制御部35は、CPU、ROM、および、RAMなどを含む。制御部35は、CPUが所定の制御プログラムを実行することにより、評価者端末3の各部の制御を行う。制御部35は、撮像部4によって撮像された画像を表示部32に表示させる。また、制御部35は、評価者70による操作部31に対する入力操作に基づいて、文字情報と評価得点とを含む評価所見30を取得する。そして、制御部35は、取得された文字情報と評価得点とが関連付けられた評価所見30を、記憶部34に記憶させる。また、制御部35は、通信部33を介して、取得された評価所見30を感性計測端末1に送信する。
 撮像部4は、評価対象物50を試用している被検者60を撮像する。具体的には、撮像部4は、評価者70が評価対象物50を試用している被検者60を観察するために、評価対象物50を試用している被検者60を撮像する。また、撮像部4は、撮像した画像(動画像)を評価者端末3に送信する。また、撮像部4は、被検者60が評価対象物50を試用する検査室の壁面に設置されている。撮像部4は、たとえば、CMOSイメージセンサなどの撮像素子を含む。
 〈感性計測端末の制御部による制御について〉
 感性計測端末1の制御部15は、通信部13を介して測定装置2によって測定された生体情報20を取得する。そして、制御部15は、取得された生体情報20に対して、被検者60の感性を判定する処理を行う。たとえば、制御部15は、測定装置2から取得された生体情報20に基づいて、被検者60の感性に基づく評価を表す1~100の数値を生体情報20の測定結果として取得する。
 具体的には、制御部15は、評価対象物50に対応するように選択された測定項目に基づいて、測定項目に対応するように数値情報としての生体情報20を取得する。たとえば、制御部15は、NIRS脳計測装置21によって取得された脳血流量(脳活動量)に基づいて、評価対象物50(化粧水51~53)に対する被検者60の興味関心の度合いを示す1以上100以下の数値を第1生体情報20aとして取得する。また、脳波計22によって取得された脳波と、心拍計23によって取得された心拍数に基づいて、被検者60の快適性の度合いを示す1以上100以下の数値を第2生体情報20bとして取得する。そして、制御部15は、眼球運動計測装置24によって取得された視点移動量に基づいて、被検者60の評価対象物50に対する注目度の度合いを示す1以上100以下の数値を第3生体情報20cとして取得する。なお、数値情報としての生体情報20は、測定装置2によって測定された生体情報20に基づいて、操作部11に対する入力操作に基づいて取得されるようにしてもよい。また、数値情報としての生体情報20は、機械学習によって生成された学習済みモデルなどのアルゴリズムによって、測定装置2によって測定された生体情報20に基づいて取得されるようにしてもよい。
 また、制御部15は、操作部11に対する入力操作に基づいて、第1~第3生体情報20a~20cの各々に対応するコメントを文字情報として取得する。たとえば、制御部15は、第1生体情報20aに対応するように「脳活動量の上昇がみられ、興味関心の度合いが大きい」などのコメントを取得する。また、制御部15は、第2生体情報20bに対応するように「交感神経優位の状態から、化粧水51の試用後に副交感神経優位の状態に変化したことから、化粧水51の試用によるストレスの緩和がみられる」などのコメントを取得する。そして、制御部15は、取得された第1~第3生体情報20a~20cと、対応するコメントとを、関連付けて記憶部14に記憶させる。第1~第3生体情報20a~20cの各々に対応するコメントは、たとえば、感性計測の専門家による操作部11に対する入力操作に基づいて取得される。
 また、制御部15は、通信部13を介して評価者端末3から評価所見30を取得する。すなわち、制御部15は、評価者70による評価対象物50に対する評価の所見を示す文字情報と、評価者70による評価対象物50に対する評価の評価得点とを含む評価所見30を取得する。具体的には、制御部15は、人間工学の専門家である評価者71の評価所見30aと、プロダクトデザイナーである評価者72の評価所見30bと(図3参照)を取得する。
 また、第1実施形態では、制御部15は、測定された複数の生体情報20の各々と、取得された評価所見30とに対して、各々重み付けを行う。そして、制御部15は、重み付けが行われた生体情報20および評価所見30に基づいて、複数の評価対象物50を比較した場合の順位を取得する。たとえば、制御部15は、数値化された複数の生体情報20の測定結果の平均値を取得する。そして、制御部15は、生体情報20の平均値を0.6倍する。また、制御部15は、評価所見30に含まれる評価得点の平均値を取得するとともに、取得された評価得点を0.4倍する。制御部15は、評価対象物50の各々について、0.6倍された生体情報20の平均値と、0.4倍された評価得点の平均値とを足し合わせることによって総合得点を取得する。制御部15は、取得された総合得点に基づいて、複数の評価対象物50の順位を取得する。
 上記のように、制御部15は、複数の評価対象物50の各々を比較した場合の順位を識別可能な情報を含む評価対象物50に対する評価結果80(図3参照)を取得する。すなわち、制御部15は、複数の評価対象物50の各々について、重み付けが行われた状態の生体情報20および評価所見30と、評価対象物50の順位とが関連付けられた評価結果80を取得する。
 〈表示部の表示について〉
 図3に示すように、制御部15は、取得された評価結果80を表示部12に表示する。第1実施形態では、制御部15は、3つの評価対象物50(化粧水51~53)の各々について、取得された生体情報20の各々と、評価所見30とを並べて表示部12に表示する。また、制御部15は、3つの評価対象物50(化粧水51~53)の各々を比較した場合の順位を識別可能な情報を含む評価結果80を表示部12に表示する。具体的には、制御部15は、3つの評価対象物50(化粧水51~53)の各々について、3種類の測定項目に対応する3種類の生体情報20(第1~第3生体情報20a~20c)の測定結果である数値と、それぞれの生体情報20(第1生体情報20a~第3生体情報20c)に対応するコメントとを並べて表示部12に表示させる。また、制御部15は、3つの評価対象物50(化粧水51~53)の各々について、2人の評価者70(評価者71および72)による評価所見30(評価得点および文字情報を含む評価所見30aおよび30b)を、それぞれ並べて表示部12に表示させる。そして、制御部15は、3つの評価対象物50(化粧水51~53)の各々を比較した場合の順位を表示部12に表示させる。
 また、第1実施形態では、制御部15は、測定された生体情報20と取得された評価所見30とが、共通の基準に基づく表記によって表示された状態で評価結果80を表示部12に表示する。具体的には、制御部15は、測定された生体情報20の測定結果を1以上100以下の数値で表すとともに、評価所見30に含まれる評価得点を1以上100以下の数値で表す。
 (感性計測サービス)
 第1実施形態による感性計測システム100を用いることによって、評価対象物50を感性に基づいて評価する感性計測サービスが提供される。この感性計測サービスでは、顧客(企業など)が、新しく開発された製品などの評価対象物50をユーザ(被検者)の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価を提供する。すなわち、感性計測サービスは、顧客からの依頼による評価対象物50に対して評価結果80を提供する。また、この感性計測サービスでは、感性計測システム100を用いて評価対象物50に対する評価結果80を取得するために、被検者60に評価対象物50を試用させる(実験を行う)場所が提供される。具体的には、湿度、温度、および、照度などの環境条件が一定に保たれた実験室が提供される。そして、環境条件が一定に保たれている実験室において、複数の被検者60の各々が、評価対象物50を試用する。これにより、複数の被検者60によって、複数の評価対象物50を1つずつ評価する(試用する)場合にも、複数の評価対象物50の各々について、試用する条件を同一の条件とすることができるので、評価対象物50を試用している状態の被検者60から測定される生体情報20に周囲の環境条件の差異に起因するばらつきが含まれることを抑制することができる。
 なお、被検者60は、複数(たとえば、3人)の女性であってもよい。この場合には、被検者60は、1人ずつ評価対象物50を試用する。また、被検者60が3人の女性である場合には、たとえば、3人の女性による評価対象物50の試用によって取得された生体情報20および評価所見30を平均した評価結果80を取得するようにしてもよい。これにより、1人の被検者60によって評価対象物50の評価を行う場合に比べて、より詳細な評価結果80を取得することができる。また、ユーザビリティの評価を行う場合には3人の被検者60による評価を行うことによって十分な使用性の問題点および改善点を抽出することができるため、4人以上の被検者60によって評価することによって作業時間が増大することを抑制することができる。また、3人の女性は、企業(クライアント)からの要望などに応じて年齢を制限されてもよい。
 (感性計測方法について)
 次に、図4を参照して、第1実施形態による感性計測システム100を用いた感性計測方法について説明する。
 まず、ステップ401において、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50(化粧水51~53)を試用している状態の被検者60から生体情報20が測定される。具体的には、評価対象物50の種類、および、評価対象物50の測定方法を含む3種類の測定項目(脳活動量、脳波および心拍、および、視点移動量)に基づいて、3つの化粧水51~53の各々について、3種類の測定項目に対応するように、複数の生体情報20(脳血流量、脳波、心拍数、および、視点移動量)が測定される。
 次に、ステップ402において、被検者60とは別個に評価対象物50に対応するように選択された評価者70による評価対象物50に対する評価の所見である評価所見30が取得される。具体的には、評価対象物50を試用している状態の被検者60の試用状況に関する情報に基づいて、評価者70(人間工学の専門家である評価者71およびプロダクトデザイナーである評価者72)による評価を示す評価得点と文字情報とを含む評価所見30が、評価者70による評価者端末3に対する入力操作に基づいて、取得される。
 次に、ステップ403において、測定された生体情報20と取得された評価所見30とを含む評価対象物50に対する評価結果80が取得される。具体的には、測定された生体情報20に基づいて、測定結果として数値によって表された生体情報20が取得される。また、評価者端末3から送信された評価所見30が取得される。そして、取得された生体情報20および評価所見30に基づいて、評価対象物50を比較した場合の順位を識別可能な情報を含む評価結果80が取得される。
 次に、ステップ404において、複数の生体情報20の各々と評価所見30とが並べて表示されるとともに、複数の評価対象物50を比較した場合の順位を識別可能な情報を含む評価結果80が表示される。具体的には、生体情報20に含まれる第1生体情報20a~第3生体情報20cの各々について、1以上100以下の数値と、それぞれの生体情報20に対応するコメントとが、表示部12に並べて表示される。また、評価所見30(評価所見30aおよび評価所見30b)について、評価所見30に含まれる評価得点と文字情報とが、表示部12に並べて表示される。そして、生体情報20および評価所見30に基づいて取得された複数の評価対象物50を比較した場合の順位が、表示部12に表示される。すなわち、複数(3つ)の評価対象物50(化粧水51、化粧水52、および、化粧水53)の各々について、複数の生体情報20と、評価所見30と、対応する順位とが、表示部12に並べて表示される。
 なお、ステップ401における生体情報20を測定する処理と、ステップ402における評価所見30を取得する処理とは、どちらのステップを先に行ってもよい。
 [第1実施形態の感性計測方法の効果]
 第1実施形態の感性計測方法では、以下のような効果を得ることができる。
 第1実施形態の感性計測方法では、上記のように、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定する。これにより、実際に評価対象物50を試用することによって感じる主観的な感性を客観的なデータとして示すことができる。そして、測定された生体情報20に基づいて、複数の評価対象物50の各々を比較した場合の順位を識別可能な情報を含む評価対象物50に対する評価結果80を取得する。これにより、感性を客観的なデータとして示した生体情報20に基づいて、複数の評価対象物50を比較した結果を容易に取得することができる。その結果、複数の評価対象物50を人の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価対象物50に対する評価を容易に取得することができる。また、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定するため、評価対象物50の種類、評価対象物50を試用する場面、および、評価対象物50を試用する人などを考慮に入れて、評価対象物50に対応するように選択された測定項目に基づいて、生体情報20を測定することができる。そのため、評価対象物50を試用している状態の被検者60から生体情報20を測定する場合に、適切な測定項目の生体情報20を容易に測定することができる。
 また、第1実施形態では、以下のように構成したことによって、更なる効果が得られる。
 すなわち、第1実施形態では、上記のように、被検者60とは別個に評価対象物50に対応するように選択された評価者70が、被検者60による複数の評価対象物50の各々の試用状況に関する情報に基づいて評価対象物50を評価した評価所見30を取得するステップをさらに備え、評価結果80を取得するステップは、測定された生体情報20と取得された評価所見30とを含む評価結果80を取得するステップである。このように構成すれば、評価対象物50を実際に試用する被検者60とは別個に被検者60の試用状況を観察した客観的な観点から、評価者70による行動観察により得られた情報を評価対象物50に対する評価所見30として取得することができる。そのため、データとして示された感性の情報に加えて、第三者の立場から評価対象物50について客観的な評価を取得することができる。この結果、評価対象物50を実際に試用する場合に被検者60が感じる感性についてデータとして示された生体情報20と、第三者の立場から客観的に評価した評価所見30とを取得することができるので、感性によって評価対象物50を評価する場合に、客観的な根拠に基づく評価を容易に取得することができる。
 また、第1実施形態では、上記のように、評価所見30を取得するステップは、製品、システム、および、サービスを利用する場合に得られる印象および経験(ユーザーエクスペリエンス)についての専門家を含む評価者70による評価の所見を示す文字情報を含む評価所見30を取得するステップである。このように構成すれば、ユーザーエクスペリエンスについての専門家による所見によって、被検者60が評価対象物50を試用する際に得られるユーザーエクスペリエンスに対する評価を取得することができる。そのため、実際に評価対象物50を試用している被検者60による主観的な視点とは別個に、ユーザーエクスペリエンスについて専門的な知見を有する評価者70による客観的な視点から、評価対象物50が被検者60にもたらすユーザーエクスペリエンスについての評価を取得することができる。その結果、感性によって評価対象物50を評価する場合に、ユーザーエクスペリエンスについての専門的な知見に基づいて、客観的な根拠に基づく評価をより詳細に取得することができる。
 また、第1実施形態では、上記のように、評価所見30を取得するステップは、評価対象物50を試用している被検者60の行動を観察することによって評価対象物50の使用性(ユーザビリティ)の問題点を抽出する専門家による所見を含む評価所見30を取得するステップである。このように構成すれば、評価対象物50が被検者60に試用されている様子を観察することによって、評価対象物50が利用環境に適した外観および形状を有しているか、または、評価対象物50を試用するにあたって被検者60にとって使いにくそうな点はないか、などのユーザビリティについての問題点の評価について、実際に試用している被検者60とは別のユーザビリティの専門家からの評価の所見を取得することができる。その結果、実際に評価対象物50を試用している被検者60が認識できないような、評価対象物50に対する潜在的な問題点および課題についても、専門家の所見を取得することができるので、評価対象物50についてのより詳細な評価結果80を取得することができる。
 また、第1実施形態では、上記のように、評価結果80を取得するステップは、生体情報20および評価所見30に基づいて、複数の評価対象物50の各々を比較した場合の順位を含む評価結果80を取得するステップである。このように構成すれば、複数の評価対象物50のうちから、感性計測に基づいて評価対象物50を選定する場合に、複数の評価対象物50を比較した結果の順位を容易に認識することができる。そのため、複数の評価対象物50のうちから最も優れている評価対象物50を容易に選定することができる。
 また、第1実施形態では、上記のように、生体情報20を測定するステップは、評価対象物50に対応するように選択された複数の測定項目に基づいて、複数の測定項目の各々に対応する複数の生体情報20を測定するステップであり、複数の評価対象物50の各々について、複数の生体情報20の各々と評価所見30とを並べて表示するとともに、複数の評価対象物50の各々を比較した場合の順位を識別可能な情報を含む評価結果80を表示するステップをさらに備える。このように構成すれば、複数の生体情報20と評価所見30とが並べて表示されるため、評価対象物50について取得された複数の生体情報20と評価所見30とを容易に見比べることができる。たとえば、複数の評価対象物50の各々について、複数の生体情報20を測定する場合にも、複数の評価対象物50の各々について、複数の生体情報20と評価所見30とを視覚的に容易に見比べることができる。その結果、複数の評価対象物50について、複数の生体情報20と評価所見30とを容易に見比べることができるので、感性計測に基づいて複数の評価対象物50を容易に比較することができる。
 また、第1実施形態では、上記のように、評価結果80を表示するステップは、測定された生体情報20と取得された評価所見30とが共通の基準に基づく表記(1以上100以下の数値による表記)によって表示された状態で評価結果80を表示するステップである。このように構成すれば、共通の基準に基づく表記によって生体情報20と評価所見30とが表示されるため、共通の基準に基づく表記によって表示された生体情報20と評価所見30とを見比べることができる。そのため、生体情報20と評価所見30とが異なる表記によって表示されている場合と比べて、感性計測に基づいて複数の評価対象物50をより容易に比較することができる。
 また、第1実施形態では、上記のように、生体情報20を測定するステップは、評価対象物50に対応するように選択された複数の測定項目に基づいて、複数の測定項目の各々に対応する複数の生体情報20を測定するステップであり、評価結果80を取得するステップは、測定された複数の生体情報20の各々と取得された評価所見30とに対して、各々重み付けが行われた状態の評価結果80を取得するステップである。このように構成すれば、測定された生体情報20と、取得された評価所見30とに対して重み付けが行われた状態の評価結果80を取得することができるので、生体情報20と評価所見30とのいずれか一方をより重視した評価結果80を取得することができる。そのため、評価対象物50の種類に応じて生体情報20と評価所見30とのいずれを重視するかを変更することができるので、評価対象物50に対応するように適切に重み付けが変更された評価結果80を取得することができる。その結果、評価対象物50に対応するようにより適切な評価結果80を容易に取得することができる。
 また、第1実施形態では、上記のように、生体情報20を測定するステップは、被検者60の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つを含む生体情報20を測定するステップである。このように構成すれば、被検者60の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つに基づいて、被検者60が評価対象物50に感じる感性を測定することができる。そのため、被検者60自身が知覚することができない生体信号に基づいて、感性を定量的に計測することができるので、客観的なデータとして被検者60の感性を計測することができる。その結果、被検者60の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つを測定することによって、客観的な根拠に基づく評価をより効果的に取得することができる。
 [第1実施形態による感性計測システムの効果]
 第1実施形態の感性計測システム100では、以下のような効果を得ることができる。
 第1実施形態の感性計測システム100では、上記のように構成することにより、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定する。これにより、実際に評価対象物50を試用することによって感じる主観的な感性を客観的なデータとして示すことができる。そして、測定された生体情報20に基づいて、複数の評価対象物50の各々を比較した場合の順位を識別可能な情報を含む評価対象物50に対する評価結果80を取得する。これにより、感性を客観的なデータとして示した生体情報20に基づいて、複数の評価対象物50を比較した結果を容易に取得することができる。その結果、複数の評価対象物50を人の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価対象物50に対する評価を容易に取得することができる。また、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定するため、評価対象物50の種類、評価対象物50を試用する場面、および、評価対象物50を試用する人などを考慮に入れて、評価対象物50に対応するように選択された測定項目に基づいて、生体情報20を測定することができる。そのため、評価対象物50を試用している状態の被検者60から生体情報20を測定する場合に、適切な測定項目の生体情報20を容易に測定することができる。
 また、第1実施形態では、被検者60とは別個に評価対象物50に対応するように選択された評価者70が、被検者60による複数の評価対象物50の各々の試用状況に関する情報に基づいて評価対象物50を評価した評価所見30を取得する評価所見取得部(評価者端末3)をさらに備え、評価結果取得部(感性計測端末1)は、生体情報測定部(測定装置2)によって測定された生体情報20と、評価者端末3によって取得された評価所見30とを含む評価結果80を取得するように構成されている。このように構成すれば、評価対象物50を実際に試用する被検者60とは別個に被検者60の試用状況を観察した客観的な観点から、評価者70による行動観察により得られた情報を評価対象物50に対する評価所見30として取得することができる。そのため、データとして示された感性の情報に加えて、第三者の立場から評価対象物50について客観的な評価を取得することができる。この結果、評価対象物50を実際に試用する場合に被検者60が感じる感性についてデータとして示された生体情報20と、第三者の立場から客観的に評価した評価所見30とを取得することができるので、感性によって評価対象物50を評価する場合に、客観的な根拠に基づく評価を容易に取得することができる。
 また、第1実施形態では、評価結果取得部(感性計測端末1)によって取得された評価結果80を表示する表示部12をさらに備える。このように構成すれば、表示部12に表示された評価結果80を視認することによって、評価結果80を容易に認識することができる。
 [第2実施形態]
 次に、図5~図7を参照して、本発明の第2実施形態による感性計測システム200の構成について説明する。この第2実施形態では、第1実施形態と異なり、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択する。なお、上記第1実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 第2実施形態による感性計測システム200は、図5に示すように、感性計測端末201を備える。第2実施形態による感性計測システム200は、第1実施形態と同様に化粧水51~53である評価対象物50に対する評価結果80を取得する。
 感性計測端末201は、第1実施形態による感性計測端末1と同様に評価対象物50に対する評価結果80を取得するために用いられるコンピュータである。感性計測端末201は、記憶部214および制御部215を含む。
 記憶部214は、第1実施形態による記憶部14と同様に、ハードディスクドライブなどの記憶装置により構成されている。記憶部214は、評価対象物50の種類を示すカテゴリー情報214aと、評価対象物50の種類に対応するように定められた複数の測定項目の組み合わせ214bとを関連付けて記憶している。カテゴリー情報214aは、たとえば、飲み物、食べ物、および、化粧品などを含む。そして、測定項目の組み合わせ214bは、カテゴリー情報214aに含まれる評価対象物50の種類に対応するように予め定められた測定項目の組み合わせである。測定項目は、たとえば、被検者60から測定される生体情報20の種類と、生体情報20を測定するために用いられる測定装置2を示す情報である。なお、測定項目は、年齢および性別などの被検者60の特徴を定める情報と、評価結果80を出力するためのレポートの形式などを含んでいてもよい。
 制御部215は、第1実施形態による制御部15と同様に、CPU、ROM、および、RAMなどを含む。制御部215は、CPUが所定の制御プログラムを実行することにより、感性計測端末201の各部の制御を行う。また、第2実施形態では、制御部215は、複数の測定項目のうちから、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択する。具体的には、制御部215は、記憶部214に記憶されている複数のカテゴリー情報214aうちから、一のカテゴリー情報214aを選択する入力操作が受け付けられたことに基づいて、選択された一のカテゴリー情報214aに対応する測定項目の組み合わせ214bを選択する。
 たとえば、図6に示すように、制御部215は、評価対象物50の複数のカテゴリー情報214aを選択可能なように表示部12に表示させる。そして、制御部215は、操作部11に対する入力操作に基づいて、複数のカテゴリー情報214aのうちから一のカテゴリー情報214aを選択するための操作信号を取得する。制御部215は、取得された操作信号に基づいて、選択された一のカテゴリー情報214aに対応する測定項目の組み合わせ214bを選択する。
 そして、図7に示すように、制御部215は、選択されたカテゴリー情報214aと、選択されたカテゴリー情報214aに対応する測定項目の組み合わせ214bとを、表示部12に表示させる。
 すなわち、第2実施形態では、制御部215は、予め記憶されている評価対象物50の複数のカテゴリー情報214aのうちから一のカテゴリー情報214aを選択する操作に基づいて、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択する。そして、測定装置2は、制御部215によって選択された測定項目の組み合わせ214bに基づいて、評価対象物50を試用している状態の被検者60から生体情報20を取得する。
 なお、第2実施形態のその他の構成は、第1実施形態と同様である。
 [第2実施形態の効果]
 第2実施形態では、以下のような効果を得ることができる。
 第2実施形態では、上記のように、生体情報20を測定するステップの前に、複数の測定項目のうちから、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択するステップをさらに備え、生体情報20を測定するステップは、選択された測定項目の組み合わせ214bに基づいて、選択された測定項目の組み合わせ214bのうちの各々の測定項目に対応する複数の生体情報20を測定するステップである。ここで、感性計測に基づいて評価対象物50の評価を行う場合には、複数の生体情報20を測定することが考えられる。たとえば、脳血流量、脳波、心拍数、および、視点移動量に加えて、血圧、表情筋の筋電図、および、表情センシングデバイスによる表情変化の測定などの多数の種類の生体情報20を測定することが考えられる。そのため、評価対象物50を適切に評価するためには、このような複数の種類の生体情報20のうちから、評価対象物50に対応する生体情報20を選択する必要がある。この点を考慮して第2実施形態では、生体情報20を測定するステップの前に、複数の測定項目のうちから、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択するステップをさらに備える。このように構成すれば、評価対象物50に対応するように予め定められた測定項目の組み合わせ214bを選択することによって、評価対象物50に対応した測定項目の組み合わせ214bを容易に取得することができる。そのため、感性計測を行う場合に、評価対象物50の種類ごとに適した測定項目の組み合わせ214bを容易に取得することができるので、評価対象物50に対応する測定項目を選択する際の手間の増大を抑制することができる。なお、第2実施形態によるその他の効果は、第1実施形態と同様である。
 [第3実施形態]
 次に、図8および図9を参照して、本発明の第3実施形態による感性計測システム300の構成について説明する。この第3実施形態では、第1実施形態と異なり、評価者70として機械学習によって生成された学習済みモデル370が用いられる。なお、上記第1および第2実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 第3実施形態による感性計測システム300は、機械学習によって生成された学習済みモデル370を用いて、測定された生体情報20に基づいて出力された評価対象物50に対する評価の所見を含む評価所見330を取得する。すなわち、第3実施形態による感性計測システム300は、機械学習によって生成された被検者60とは別個に評価対象物50に対応するように選択された評価者として、学習済みモデル370を用いて評価所見330を取得する。
 たとえば、第3実施形態による感性計測システム300は、第1実施形態による感性計測システム100と同様に、評価対象物50として化粧水51~53に対する評価結果80を取得する。第3実施形態による感性計測システム300では、化粧水51~53に対する評価結果80は、測定装置2によって測定された生体情報20と、学習済みモデル370によって取得された評価所見330とを含む。
 第3実施形態による感性計測システム300は、図8に示すように、感性計測端末301と、学習装置303とを備える。感性計測端末301は、測定装置2によって測定された生体情報20を取得する。また、感性計測端末301は、学習装置303によって予め生成された学習済みモデル370を用いて、評価所見330を取得する。感性計測端末301は、請求の範囲における「評価所見取得部」および「評価結果取得部」の一例である。
 図9に示すように、学習装置303は、学習済みモデル370を学習させる。学習済みモデル370は、教師入力用生体情報303aと教師出力用評価所見303bとによって、機械学習によって生成される。機械学習法として、多層のニューラルネットワークを用いる機械学習である深層学習が用いられる。機械学習法は、たとえば、全層畳み込みニューラルネットワーク(FullyConvolutionalNetworks:FCN)を用いた深層学習である。また、学習装置303は、たとえば、CPU、ROM、および、RAMなどを含む機械学習用のコンピュータである。また、学習装置303は、感性計測端末301と通信可能に構成されており、生成した学習済みモデル370を感性計測端末301に送信する。
 たとえば、学習装置303によって予め生成された学習済みモデル370を用いて化粧水51~53に対する評価結果80を取得する場合には、学習装置303によって学習済みモデル370を学習させるために、化粧水51~53とは別個の複数種類の学習用化粧水を用いて教師入力用生体情報303aおよび教師出力用評価所見303bが取得される。教師入力用生体情報303aは、第1実施形態において化粧水51~53を試用している状態の被検者60から生体情報20を測定する場合と同様に、学習用化粧水を試用している状態の学習用被検者から測定される。学習用被検者は、化粧水51~53を試用する被検者60とは別個の被検者である。また、教師出力用評価所見303bは、第1実施形態において評価所見30を取得する場合と同様に、学習用化粧水を試用している学習用被検者を観察することによって、評価者70によって取得される学習用化粧水に対する評価の所見である。教師出力用評価所見303bは、たとえば、1以上100以下の数値情報である。
 すなわち、学習装置303は、複数種類の学習用化粧水を用いて、第1実施形態と同様の感性計測を複数の学習用被検者に対して行うことによって、複数の教師入力用生体情報303aと、教師入力用生体情報303aに対応する複数の教師出力用評価所見303bとを取得する。そして、学習装置303は、教師入力用生体情報303aを入力として、教師出力用評価所見303bを出力として、機械学習によって学習を行い、学習済みモデル370を生成する。すなわち、学習装置303は、教師入力用生体情報303aと教師出力用評価所見303bとを教師データ(トレーニングセット)として、機械学習によって、学習済みモデル370を学習させる。
 感性計測端末301は、記憶部314および制御部315を含む。感性計測端末301は、第1実施形態による感性計測端末1と同様に評価対象物50に対する評価結果380を取得するために用いられるコンピュータである。
 記憶部314は、学習装置303によって生成された学習済みモデル370を記憶する。記憶部314は、第1実施形態による記憶部14と同様に、ハードディスクドライブなどの記憶装置により構成されている。
 制御部315は、CPU、ROM、および、RAMなどを含む。制御部315は、CPUが所定の制御プログラムを実行することにより、感性計測端末301の各部の制御を行う。制御部315は、通信部13を介して、学習装置303によって生成された学習済みモデル370を取得する。そして、制御部315は、取得された学習済みモデル370を記憶部314に記憶させる。
 制御部315は、測定装置2によって測定された生体情報20を取得する。そして、制御部315は、記憶部314に記憶された学習済みモデル370を用いて、測定された生体情報20に基づいて、評価所見330を取得する。評価所見330は、たとえば、1以上100以下の数値情報を含む。
 なお、第3実施形態のその他の構成は、第1実施形態と同様である。
 [第3実施形態の効果]
 第3実施形態では、以下のような効果を得ることができる。
 第3実施形態では、上記のように、評価所見330を取得するステップは、機械学習によって生成された学習済みモデル370を用いて、測定された生体情報20に基づいて出力された評価対象物50に対する評価の所見を含む評価所見330を取得するステップである。このように構成すれば、学習済みモデル370を用いて、測定された生体情報20に基づいて評価所見330を取得することができるので、人間である評価者が評価対象物50に対する評価を行うことなく評価所見330を取得することができる。そのため、機械学習によって生成された学習済みモデル370を用いることによって、人間である評価者の作業負担の増大を抑制することができる。また、第3実施形態のその他の効果は、第1および第2実施形態の効果と同様である。
 [変形例]
 なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく請求の範囲によって示され、さらに請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
 (第1変形例)
 たとえば、上記第1~第3実施形態では、1以上100以下の数値によって示された生体情報20および評価所見30が評価結果80として表示部12に表示される例を示したが、本発明はこれに限られない。本発明では、図10に示す第1変形例による評価結果80のように、4段階の評価を示す記号によって、生体情報および評価結果を表すようにしてもよい。具体的には、最も良い評価を表す2重丸(円を2つ重ねた記号)と、2番目に良い評価を表す1重丸(1つの円の記号)と、3番目に良い評価を表す三角形と、最も悪い評価を表すバツ印(X印)と、の4つの記号によって生体情報および評価結果を示すようにしてもよい。
 (第2変形例)
 また、上記第1~第3実施形態では、複数の生体情報20の各々(第1~第3生体情報20a~20c)を並べて表示する例を示したが、本発明はこれに限られない。たとえば、図11に示す第2変形例による評価結果80のように、複数の生体情報に基づいて生成された1つの総合的な生体情報を表示するようにしてもよい。具体的には、測定装置によって測定された複数の生体情報の測定結果を1以上100以下の数値によって表すとともに、1以上100以下の数値によって表された生体情報の平均値を、1つの総合的な生体情報として表示部(評価結果)に表示するようにしてもよい。
 (第3変形例)
 また、第1~第3実施形態では、評価対象物50が化粧水である例を示したが、本発明はこれに限られない。たとえば、図12に示す第3変形例による評価対象物450のように、評価対象物はコーヒーであってもよい。具体的には、評価対象物としてのコーヒーの評価結果を取得する場合には、「会議を行っている最中に飲むことによって、議論が活発になる」というコンセプトを評価する。すなわち、コーヒーを飲みながら議論を行っている状態の被検者から、測定装置によって脳波などの生体情報が測定される。そして、コーヒーを飲みながら議論を行っている被検者を観察することによって、評価者による評価所見が取得される。そして、生体情報および評価所見に基づいて、集中度、リラックス度、および、議論の活発性などが評価された評価結果が取得される。
 また、測定装置2(生体情報測定部)によって測定される生体情報20を時間軸に沿って分割した状態で比較するようにしてもよい。すなわち、1つの種類の測定装置2から取得された生体情報20を時間軸に沿って分割することによって、分割された複数の生体情報20を取得するようにしてもよい。そして、取得された複数の生体情報20の各々に対して、別個に順位付けが行われる(被検者60の感性に基づく評価が取得される)ようにしてもよい。たとえば、第3変形例による評価対象物450のように、コーヒーを評価対象物50とする場合には、コーヒーを口に含んだ時点において取得される生体情報20と、飲み込んだ後(後味)の時点において取得される生体情報20とが、異なる場合がある。そのため、上記のように、測定された生体情報20を時間軸に沿って分割することによって、時間軸に沿って変化する生体情報20の評価を効果的に取得することが可能である。なお、生体情報20を時間軸で分割する場合には、時間軸によって測定装置2ごと(生体情報20ごと)の重み付けを変更させないことが望ましい。すなわち、複数の測定装置2によって測定される複数の生体情報20の各々について、たとえば、口に含んだ時点における生体情報20と、飲み込んだ後の時点における生体情報20とを、共通の重み付けによって評価することが望ましい。
 (その他の変形例)
 また、上記第1および第2実施形態では、評価者70による評価対象物50に対する評価所見30を取得し、上記第3実施形態では、学習済みモデル370に基づいて評価所見330を取得(推定)する例を示したが、本発明はこれに限られない。たとえば、評価所見を取得せずに、測定された生体情報に基づいて評価結果を取得するようにしてもよい。
 また、上記第1および第2実施形態では、評価者70は製品、システム、および、サービスを利用する場合に得られる印象および経験(ユーザーエクスペリエンス)ついての専門家を含む例を示したが、本発明はこれに限られない。たとえば、評価者は、評価対象物に対応する分野の専門家を含んでもよい。すなわち、評価対象物が飲食物である場合には、評価者は、たとえば、調香師などの香りの専門家を含んでもよい。
 また、上記第1および第2実施形態では、評価所見30は、評価対象物50を試用している被検者の行動を観察することによって取得された所見を含む例を示したが、本発明はこれに限られない。たとえば、評価所見は、評価者自身が評価対象物を試用することによって取得された所見であってもよい。
 また、上記第1および第2実施形態では、生体情報20を測定しながら評価対象物50を試用している被検者60を評価者70が観察することによって、評価者70による評価所見30を取得する例を示したが、本発明はこれ位限られない。たとえば、被検者から生体情報を測定する場合とは別個のタイミングにおいて、生体情報を取得するための装置を装着していない状態の被検者が評価対象物を試用している状態を評価者が観察することによって、評価者による評価所見を取得するようにしてもよい。
 また、上記第1~第3実施形態では、複数の評価対象物50の各々を比較した場合の順位を含む評価結果80を取得する例を示したが、本発明はこれに限られない。たとえば、複数の評価結果に対する評価の総合的な点数を含む評価結果を取得するようにしてもよい。また、順位ではなく、複数の評価対象物のうちから、最も良い評価を取得した評価対象物を判別可能に報知(表示)させるようにしてもよい。また、複数の評価対象物のうちから、1つの評価対象物の評価結果のみを取得するようにしてもよい。また、評価結果にアンケートの結果を含ませるようにしてもよい。
 また、上記第1~第3実施形態では、測定された生体情報20と取得された評価所見30とが共通の基準に基づく表記によって表示された状態で評価結果80を表示する例を示したが、本発明はこれに限られない。たとえば、生体情報と評価所見とが異なる基準に基づく表記によって表示されていてもよい。すなわち、生体情報を点数表記によって表示するとともに、評価所見を3段階評価(たとえば、A、B、C)によって表示してもよい。
 また、上記第1~第3実施形態では、測定された複数の生体情報20の各々と取得された評価所見30とに対して、各々重み付けが行われた状態の評価結果80を取得する例を示したが、本発明はこれに限られない。たとえば、重み付けを行わず、測定された複数の生体情報の得点と評価所見の得点とを均等に評価することによって評価結果を取得するようにしてもよい。
 また、上記第1~第3実施形態では、生体情報20は、被検者60の脳血流量と、脳波と、心拍数と、視点移動量との少なくとも一つを含む例を示したが、本発明はこれに限られない。たとえば、呼吸数、体温、発汗量、または、瞳孔径などを生体情報として取得してもよい。また、頷く動作、または、表情など、被検者の無意識下での行動を数値化して生体情報として取得してもよい。
 また、上記第2実施形態では、複数の測定項目のうちから、予め定められた測定項目の組み合わせを評価対象物50に対応するように選択するステップをさらに備える例を示したが、本発明はこれに限られない。たとえば、複数の測定項目のうちから、評価対象物に対応するように一の測定項目を選択するようにしてもよい。
 また、上記第3実施形態では、機械学習によって生成された学習済みモデル370を用いて、評価所見330を取得する例を示したが、本発明はこれに限られない。たとえば、機械学習ではなくルールベースによって生成されたアルゴリズムを用いて、評価対象物に対する評価所見を取得するようにしてもよい。
 また、上記第1~第3実施形態では、評価結果80を表示部12に表示する例を示したが、本発明はこれに限られない。たとえば、紙などに印刷することによって評価結果を出力してもよい。また、取得した評価結果を、通信部を介して外部に出力するようにしてもよい。
 また、上記第1および第2実施形態では、評価者70が撮像部4によって撮像された被検者60を観察することによって、評価対象物50を評価する例を示したが、本発明はこれに限られない。たとえば、評価者が直接被検者を観察することによって、評価対象物を評価するようにしてもよい。また、その場合には、評価者による感性計測端末の操作部に対する入力操作に基づいて、感性計測端末が評価所見を取得するようにしてもよい。
 また、上記第1および第2実施形態では、評価者端末3が撮像部4からの動画像を取得することによって、評価者端末3の表示部32に表示された被検者60を評価者70が観察することによって、評価対象物50を評価する例を示したが、本発明はこれに限られない。たとえば、撮像部によって撮像された動画像を感性計測端末の記憶部に記憶させるようにするとともに、記憶された動画像を評価者が視認することによって、評価対象物を試用している被検者を観察するようにしてもよい。
 また、上記第1~第3実施形態では、感性計測端末1に含まれる記憶部14に生体情報20および評価所見30が記憶される例を示したが、本発明はこれに限られない。たとえば、クラウド(クラウドコンピューティング)上に構築されたデータベースに生体情報および評価所見を記憶するようにしてもよい。その場合、感性計測端末は、クラウド上に記憶された生体情報および評価所見に基づいて評価結果を取得するようにしてもよい。
 また、上記第1および第2実施形態では、評価者70は人間工学の専門家と、プロダクトデザイナーである例を示したが、本発明はこれに限られない。たとえば、評価者は、人間中心設計の専門家であってもよい。また、評価者は、エスノグラファー(民族誌家)であってもよい。
 [態様]
 上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
(項目1)
 評価対象物に対応するように選択された測定項目に基づいて、複数の前記評価対象物の各々を試用している状態の被検者から生体情報を測定するステップと、
 測定された前記生体情報に基づいて、前記複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む前記評価対象物に対する評価結果を取得するステップと、を備える、感性計測方法。
(項目2)
 前記被検者とは別個に前記評価対象物に対応するように選択された評価者が、前記被検者による前記複数の評価対象物の各々の試用状況に関する情報に基づいて前記評価対象物を評価した評価所見を取得するステップをさらに備え、
 前記評価結果を取得するステップは、測定された前記生体情報と取得された前記評価所見とを含む前記評価結果を取得するステップである、項目1に記載の感性計測方法。
(項目3)
 前記評価所見を取得するステップは、製品、システム、および、サービスを利用する場合に得られる印象および経験についての専門家を含む前記評価者による評価の所見を示す文字情報を含む前記評価所見を取得するステップである、項目2に記載の感性計測方法。
(項目4)
 前記評価所見を取得するステップは、前記評価対象物を試用している前記被検者の行動を観察することによって前記評価対象物の使用性の問題点を抽出する前記専門家による所見を含む前記評価所見を取得するステップである、項目3に記載の感性計測方法。
(項目5)
 前記評価結果を取得するステップは、前記生体情報および前記評価所見に基づいて、前記複数の評価対象物の各々を比較した場合の順位を含む前記評価結果を取得するステップである、項目2~4のいずれか1項に記載の感性計測方法。
(項目6)
 前記生体情報を測定するステップは、前記評価対象物に対応するように選択された複数の前記測定項目に基づいて、前記複数の測定項目の各々に対応する複数の前記生体情報を測定するステップであり、
 前記複数の評価対象物の各々について、前記複数の生体情報の各々と前記評価所見とを並べて表示するとともに、前記複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む前記評価結果を表示するステップをさらに備える、項目2~5のいずれか1項に記載の感性計測方法。
(項目7)
 前記評価結果を表示するステップは、測定された前記生体情報と取得された前記評価所見とが共通の基準に基づく表記によって表示された状態で前記評価結果を表示するステップである、項目6に記載の感性計測方法。
(項目8)
 前記生体情報を測定するステップは、前記評価対象物に対応するように選択された複数の前記測定項目に基づいて、前記複数の測定項目の各々に対応する複数の前記生体情報を測定するステップであり、
 前記評価結果を取得するステップは、測定された前記複数の生体情報の各々と取得された前記評価所見とに対して、各々重み付けが行われた状態の前記評価結果を取得するステップである、項目2~7のいずれか1項に記載の感性計測方法。
(項目9)
 前記生体情報を測定するステップは、前記被検者の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つを含む前記生体情報を測定するステップである、項目1~8のいずれか1項に記載の感性計測方法。
(項目10)
 前記生体情報を測定するステップの前に、複数の前記測定項目のうちから、予め定められた前記測定項目の組み合わせを前記評価対象物に対応するように選択するステップをさらに備え、
 前記生体情報を測定するステップは、選択された前記測定項目の組み合わせに基づいて、前記選択された測定項目の組み合わせのうちの各々の前記測定項目に対応する複数の前記生体情報を測定するステップである、項目1~9のいずれか1項に記載の感性計測方法。
(項目11)
 前記評価所見を取得するステップは、機械学習によって生成された学習済みモデルを用いて、測定された前記生体情報に基づいて出力された前記評価対象物に対する評価の所見を含む前記評価所見を取得するステップである、項目2~8のいずれか1項に記載の感性計測方法。
(項目12)
 評価対象物に対応するように選択された測定項目に基づいて、複数の前記評価対象物の各々を試用している状態の被検者から生体情報を測定する生体情報測定部と、
 前記生体情報測定部によって測定された前記生体情報に基づいて、前記複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む前記評価対象物に対する評価結果を取得する評価結果取得部と、を備える、感性計測システム。
(項目13)
 前記被検者とは別個に前記評価対象物に対応するように選択された評価者が、前記被検者による前記複数の評価対象物の各々の試用状況に関する情報に基づいて前記評価対象物を評価した評価所見を取得する評価所見取得部をさらに備え、
 前記評価結果取得部は、前記生体情報測定部によって測定された前記生体情報と、前記評価所見取得部によって取得された前記評価所見とを含む前記評価結果を取得するように構成されている、項目12に記載の感性計測システム。
(項目14)
 前記評価結果取得部によって取得された前記評価結果を表示する表示部をさらに備える、項目12または13に記載の感性計測システム。
 1、201 感性計測端末(評価結果取得部)
 2 測定装置(生体情報測定部)
 3 評価者端末(評価所見取得部)
 12 表示部
 20 生体情報
 30、330 評価所見
 50、450 評価対象物
 60 被検者
 70 評価者
 80、380 評価結果
 100、200、300 感性計測システム 
 214b 測定項目の組み合わせ
 301 感性計測端末(評価所見取得部、評価結果取得部)
 370 学習済みモデル

Claims (14)

  1.  評価対象物に対応するように選択された測定項目に基づいて、複数の前記評価対象物の各々を試用している状態の被検者から生体情報を測定するステップと、
     測定された前記生体情報に基づいて、前記複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む前記評価対象物に対する評価結果を取得するステップと、を備える、感性計測方法。
  2.  前記被検者とは別個に前記評価対象物に対応するように選択された評価者が、前記被検者による前記複数の評価対象物の各々の試用状況に関する情報に基づいて前記評価対象物を評価した評価所見を取得するステップをさらに備え、
     前記評価結果を取得するステップは、測定された前記生体情報と取得された前記評価所見とを含む前記評価結果を取得するステップである、請求項1に記載の感性計測方法。
  3.  前記評価所見を取得するステップは、製品、システム、および、サービスを利用する場合に得られる印象および経験についての専門家を含む前記評価者による評価の所見を示す文字情報を含む前記評価所見を取得するステップである、請求項2に記載の感性計測方法。
  4.  前記評価所見を取得するステップは、前記評価対象物を試用している前記被検者の行動を観察することによって前記評価対象物の使用性の問題点を抽出する前記専門家による所見を含む前記評価所見を取得するステップである、請求項3に記載の感性計測方法。
  5.  前記評価結果を取得するステップは、前記生体情報および前記評価所見に基づいて、前記複数の評価対象物の各々を比較した場合の順位を含む前記評価結果を取得するステップである、請求項2~4のいずれか1項に記載の感性計測方法。
  6.  前記生体情報を測定するステップは、前記評価対象物に対応するように選択された複数の前記測定項目に基づいて、前記複数の測定項目の各々に対応する複数の前記生体情報を測定するステップであり、
     前記複数の評価対象物の各々について、前記複数の生体情報の各々と前記評価所見とを並べて表示するとともに、前記複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む前記評価結果を表示するステップをさらに備える、請求項2~5のいずれか1項に記載の感性計測方法。
  7.  前記評価結果を表示するステップは、測定された前記生体情報と取得された前記評価所見とが共通の基準に基づく表記によって表示された状態で前記評価結果を表示するステップである、請求項6に記載の感性計測方法。
  8.  前記生体情報を測定するステップは、前記評価対象物に対応するように選択された複数の前記測定項目に基づいて、前記複数の測定項目の各々に対応する複数の前記生体情報を測定するステップであり、
     前記評価結果を取得するステップは、測定された前記複数の生体情報の各々と取得された前記評価所見とに対して、各々重み付けが行われた状態の前記評価結果を取得するステップである、請求項2~7のいずれか1項に記載の感性計測方法。
  9.  前記生体情報を測定するステップは、前記被検者の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つを含む前記生体情報を測定するステップである、請求項1~8のいずれか1項に記載の感性計測方法。
  10.  前記生体情報を測定するステップの前に、複数の前記測定項目のうちから、予め定められた前記測定項目の組み合わせを前記評価対象物に対応するように選択するステップをさらに備え、
     前記生体情報を測定するステップは、選択された前記測定項目の組み合わせに基づいて、前記選択された測定項目の組み合わせのうちの各々の前記測定項目に対応する複数の前記生体情報を測定するステップである、請求項1~9のいずれか1項に記載の感性計測方法。
  11.  前記評価所見を取得するステップは、機械学習によって生成された学習済みモデルを用いて、測定された前記生体情報に基づいて出力された前記評価対象物に対する評価の所見を含む前記評価所見を取得するステップである、請求項2~8のいずれか1項に記載の感性計測方法。
  12.  評価対象物に対応するように選択された測定項目に基づいて、複数の前記評価対象物の各々を試用している状態の被検者から生体情報を測定する生体情報測定部と、
     前記生体情報測定部によって測定された前記生体情報に基づいて、前記複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む前記評価対象物に対する評価結果を取得する評価結果取得部と、を備える、感性計測システム。
  13.  前記被検者とは別個に前記評価対象物に対応するように選択された評価者が、前記被検者による前記複数の評価対象物の各々の試用状況に関する情報に基づいて前記評価対象物を評価した評価所見を取得する評価所見取得部をさらに備え、
     前記評価結果取得部は、前記生体情報測定部によって測定された前記生体情報と、前記評価所見取得部によって取得された前記評価所見とを含む前記評価結果を取得するように構成されている、請求項12に記載の感性計測システム。
  14.  前記評価結果取得部によって取得された前記評価結果を表示する表示部をさらに備える、請求項12または13に記載の感性計測システム。
PCT/JP2021/020472 2020-09-10 2021-05-28 感性計測方法および感性計測システム WO2022054349A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21866310.2A EP4215115A4 (en) 2020-09-10 2021-05-28 METHOD AND SYSTEM FOR MEASURING SENSITIVITY
CN202180062060.4A CN116056639A (zh) 2020-09-10 2021-05-28 感性测量方法及感性测量系统
JP2022547399A JP7485059B2 (ja) 2020-09-10 2021-05-28 感性計測方法および感性計測システム
US18/025,856 US20230346275A1 (en) 2020-09-10 2021-05-28 Sensibility measuring method and sensibility measuring system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-152341 2020-09-10
JP2020152341 2020-09-10

Publications (1)

Publication Number Publication Date
WO2022054349A1 true WO2022054349A1 (ja) 2022-03-17

Family

ID=80631478

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/020472 WO2022054349A1 (ja) 2020-09-10 2021-05-28 感性計測方法および感性計測システム

Country Status (5)

Country Link
US (1) US20230346275A1 (ja)
EP (1) EP4215115A4 (ja)
JP (1) JP7485059B2 (ja)
CN (1) CN116056639A (ja)
WO (1) WO2022054349A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290179A (ja) * 2002-04-02 2003-10-14 Japan Tobacco Inc 感覚感性評価システム
WO2010093007A1 (ja) * 2009-02-12 2010-08-19 国立大学法人長岡技術科学大学 感性状態判定装置
JP2011120824A (ja) * 2009-12-14 2011-06-23 Tokyo Univ Of Agriculture & Technology 感性評価装置、感性評価方法、及び感性評価プログラム
JP2018187287A (ja) 2017-05-11 2018-11-29 学校法人 芝浦工業大学 感性推定装置、感性推定システム、感性推定方法およびプログラム
JP2019208885A (ja) * 2018-06-05 2019-12-12 株式会社電通サイエンスジャム 感情評価支援システム及び感情評価支援方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290179A (ja) * 2002-04-02 2003-10-14 Japan Tobacco Inc 感覚感性評価システム
WO2010093007A1 (ja) * 2009-02-12 2010-08-19 国立大学法人長岡技術科学大学 感性状態判定装置
JP2011120824A (ja) * 2009-12-14 2011-06-23 Tokyo Univ Of Agriculture & Technology 感性評価装置、感性評価方法、及び感性評価プログラム
JP2018187287A (ja) 2017-05-11 2018-11-29 学校法人 芝浦工業大学 感性推定装置、感性推定システム、感性推定方法およびプログラム
JP2019208885A (ja) * 2018-06-05 2019-12-12 株式会社電通サイエンスジャム 感情評価支援システム及び感情評価支援方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4215115A4

Also Published As

Publication number Publication date
JP7485059B2 (ja) 2024-05-16
JPWO2022054349A1 (ja) 2022-03-17
EP4215115A1 (en) 2023-07-26
EP4215115A4 (en) 2024-04-17
US20230346275A1 (en) 2023-11-02
CN116056639A (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
Bulagang et al. A review of recent approaches for emotion classification using electrocardiography and electrodermography signals
Bos EEG-based emotion recognition
JP5320543B2 (ja) 脳機能亢進支援装置および脳機能亢進支援方法
US20190313966A1 (en) Pain level determination method, apparatus, and system
KR101739058B1 (ko) 동영상 기반 생리 신호 검출을 이용한 왜곡에 대한 정신생리적 탐지 (거짓말 탐지) 방법 및 장치
JP2009508553A (ja) 眼球性質を解析することで、人間の感情を決定するシステムおよび方法
Novak et al. Predicting targets of human reaching motions using different sensing technologies
JP7211717B2 (ja) 画像表示装置、画像表示プログラム及び画像表示方法
KR101721230B1 (ko) 뇌 기능 평가 및 증진용 웰니스 추천 시스템과 구현 방법
AU2004263870A2 (en) Eletrophysiological intuition indicator
KR101854812B1 (ko) 시청각 콘텐츠와 생체신호 분석을 활용한 정신증상 평가 시스템
CN112515676A (zh) 心理体检方法和主客观相结合的受检者伪装性测试方法
Meschtscherjakov et al. Utilizing emoticons on mobile devices within ESM studies to measure emotions in the field
Qu et al. Bio-physiological-signals-based vr cybersickness detection
Ramirez et al. Neuromarketing Study Using Machine Learning for Predicting Purchase Decision
JP5870465B2 (ja) 脳機能訓練装置および脳機能訓練プログラム
Minkin Vibraimage, Cybernetics and Emotions
CN113614751A (zh) 脑电图信号的识别和提取
Welch et al. An affect-sensitive social interaction paradigm utilizing virtual reality environments for autism intervention
WO2022054349A1 (ja) 感性計測方法および感性計測システム
Niedziela et al. Neuroscience tools: using the right tool for the right question
Tartarisco et al. A personal monitoring architecture to detect muscular fatigue in elderly
WO2020209846A1 (en) Pain level determination method, apparatus, and system
JP5681917B2 (ja) 脳機能亢進支援装置および脳機能亢進支援方法
KR20220028967A (ko) 뉴로피드백 기반의 치료 장치 및 치료 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21866310

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022547399

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021866310

Country of ref document: EP

Effective date: 20230411