WO2023188698A1 - 評価方法、評価用装置、およびプログラム - Google Patents

評価方法、評価用装置、およびプログラム Download PDF

Info

Publication number
WO2023188698A1
WO2023188698A1 PCT/JP2023/000831 JP2023000831W WO2023188698A1 WO 2023188698 A1 WO2023188698 A1 WO 2023188698A1 JP 2023000831 W JP2023000831 W JP 2023000831W WO 2023188698 A1 WO2023188698 A1 WO 2023188698A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
task
information
timing
outputting
Prior art date
Application number
PCT/JP2023/000831
Other languages
English (en)
French (fr)
Inventor
耕一 村田
雅史 古田
泰之 浦岡
Original Assignee
株式会社島津製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所 filed Critical 株式会社島津製作所
Publication of WO2023188698A1 publication Critical patent/WO2023188698A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to evaluation of a subject's reaction using feedback from the subject.
  • Patent Document 1 U.S. Patent Application Publication No. 2002/0044687
  • Patent Document 2 U.S. Patent Application Publication No. 2002/0044687
  • a subject's reaction to a product or service can be objectively evaluated.
  • the system as a whole has room for improvement in terms of obtaining specific feedback from subjects.
  • the present invention was devised in view of the above circumstances, and its purpose is to provide a technique for obtaining more specific feedback from a test subject in evaluating the test subject's reaction.
  • An evaluation method includes a step of acquiring information regarding a task performed by a subject, a step of acquiring biological information of the subject performing the task over time, and a step in which the biological information satisfies predetermined conditions. a step of outputting a portion of information related to the task that corresponds to the specified timing; and a step of receiving feedback input regarding the task from a subject.
  • An evaluation method includes the steps of: obtaining information regarding a task performed by a subject; and obtaining information from at least one of a subject performing the task and an observer observing the subject while the subject performs the task. , a step of specifying the timing at which the marker input is received, a step of outputting a portion of information related to the task that corresponds to the specified timing, and a step of receiving input of feedback regarding the task from the subject.
  • An evaluation device includes an interface for acquiring task-related information and biometric information of a subject who executes a task, a memory that stores conditions and identifying information regarding feature amounts in the biometric information, and a biometric A processor for specifying a timing at which a feature quantity in the information satisfies a condition, the processor outputs a portion of the information regarding the task that corresponds to the specified timing, and receives input of feedback regarding the task.
  • An evaluation device includes an interface for acquiring task-related information and biological information of a subject who executes a task, and from at least one of the subject who executes the task and an observer who observes the subject. , a processor for identifying the timing at which marker input is received while the subject executes the task, and the processor outputs a portion of information related to the task that corresponds to the identified timing, We accept feedback on the following topics:
  • a program causes a computer to acquire information regarding a task to be performed by a subject, acquire biometric information of the subject, and specify a timing at which the biometric information satisfies a predetermined condition. providing a portion of information related to the task that corresponds to the specified timing; and receiving input feedback regarding the task.
  • a program includes a step of acquiring information about a task to be performed by a subject to the computer by being executed by a computer, and at least one of a subject who performs the task and an observer who observes the subject. a step of identifying the timing at which the marker input is received while the subject executes the task; a step of outputting a portion of the task-related information that corresponds to the identified timing; and a step of receiving feedback regarding the task from the subject. A step of accepting the input of is performed.
  • more specific feedback from the subject is obtained in evaluating the subject's reaction.
  • FIG. 1 is a diagram showing an overview of an evaluation system including an evaluation device according to the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a scene in which a test subject 200 inputs feedback regarding a task in the evaluation system.
  • 1 is a diagram schematically showing a block configuration of an evaluation system.
  • FIG. 3 is a diagram for explaining the mounting parts of the first myoelectric potential sensor 11 and the second myoelectric potential sensor 12.
  • FIG. 1 is a diagram illustrating an overview of an example of processing performed in the evaluation system 100.
  • FIG. 3 is a flowchart of a process performed by computer 90 to obtain feedback from subject 200 performing a task. It is a figure showing an example of an input screen.
  • FIG. 7 is a diagram showing another example of the input screen.
  • FIG. 1 is a diagram showing an overview of an evaluation system including an evaluation device according to the present disclosure.
  • the computer 90 is an example of an evaluation device.
  • the subject 200 performs a task in order to input feedback.
  • the subject 200 is assembling a shelf as an example of a task.
  • the computer 90 acquires information regarding the task being executed by the subject 200.
  • an image (overhead image) of the space in which the subject 200 is performing the task is captured by the camera 210 and transmitted to the computer 90.
  • audio in the space may be acquired by the microphone 220 and transmitted to the computer 90.
  • the computer 90 also acquires biological information of the subject 200.
  • biological information of the subject 200 In the example of FIG. 1, a myoelectric potential signal of the subject 200 is acquired as an example of biological information.
  • the computer 90 acquires the myoelectric potential signal of the subject 200 via the user device 10.
  • the subject 200 is wearing the user device 10.
  • the user device 10 includes one or more myoelectric potential sensors (a first myoelectric potential sensor 11 and a second myoelectric potential sensor 12, which will be described later with reference to FIG. 3 and the like).
  • the myoelectric potential signal is acquired by the one or more myoelectric potential sensors.
  • the computer 90 specifies the timing at which the feature amount of the biological information satisfies a predetermined condition, and provides the subject 200 with a portion of the information related to the task that corresponds to the specified timing.
  • the computer 90 may specify the timing at which one or more buttons included in the button unit 240 or the button unit 250 are operated as the above timing.
  • Button unit 240 includes two buttons 241 and 242 operated by subject 200.
  • Button unit 250 includes two buttons 251 and 252 operated by observer 300.
  • FIG. 2 is a diagram showing an example of a scene in which the test subject 200 inputs feedback regarding a task in the evaluation system.
  • the subject 200 uses the smartphone 290 to acquire the above-mentioned portion of the information regarding the task provided from the computer 90.
  • the portion is a video captured by camera 210 at the timing specified above.
  • the test subject 200 inputs feedback regarding the task while checking the relevant part on the smartphone 290, and transmits the feedback to the computer 90.
  • FIG. 3 is a diagram schematically showing the block configuration of the evaluation system.
  • evaluation system 100 includes a user device 10 and a computer 90.
  • user device 10 may include a wearable terminal that is worn by a subject.
  • Computer 90 may be installed in the environment surrounding the subject. The user device 10 and the computer 90 are configured to be able to communicate bidirectionally. Each configuration will be explained below.
  • User device 10 includes a sensor unit 1 , a signal processing circuit 2 , a controller 3 , a communication module 4 , a battery 5 , and a housing 6 .
  • the housing 6 houses the signal processing circuit 2, the controller 3, the communication module 4, and the battery 5 therein.
  • the sensor unit 1 includes a first myoelectric potential sensor 11 and a second myoelectric potential sensor 12.
  • the first myoelectric potential sensor 11 and/or the second myoelectric potential sensor 12 are attached to the subject's face and detect myoelectric potential signals at the attachment site.
  • Myoelectric potential signals refer to weak electrical signals generated when moving muscles.
  • a subject's "face” is not limited to the face (front or side of the face), but may include the subject's neck.
  • the sensor unit 1 by attaching the sensor unit 1 to the throat of the subject, changes in myoelectric potential associated with the swallowing motion of the subject may be detected.
  • the sensor unit 1 may include multiple sensors.
  • the plurality of sensors may be attached to different types of muscles.
  • the type of muscle can be identified by the site on which the sensor is attached. In the first embodiment, when the type of muscle is specified, it is not necessary to limit the composition or structure of the muscle. If the sensor is attached to a different location, myoelectric potential signals of different types of muscles can be acquired.
  • FIG. 4 is a diagram for explaining the mounting parts of the first myoelectric potential sensor 11 and the second myoelectric potential sensor 12. With reference to FIG. 4, one aspect of the configuration and use of the first myoelectric potential sensor 11 and the second myoelectric potential sensor 12 will be described.
  • the first myoelectric potential sensor 11 is attached to the subject's cheek.
  • the first myoelectric potential sensor 11 includes a working electrode 111 and a reference electrode 112.
  • Working electrode 111 is incorporated into pad 151 and reference electrode 112 is incorporated into pad 152.
  • the first myoelectric potential sensor 11 detects myoelectric potential signals of muscles near the cheek by attaching the pad 151 directly above the smile muscle and the pad 152 immediately above the zygomaticus major muscle. More specifically, the first myoelectric potential sensor 11 detects the potential of the working electrode 111 based on the potential of the reference electrode 112 as a myoelectric potential signal of the muscles near the cheek.
  • the attachment sites of pad 151 and pad 152 may be slightly shifted from directly above the smile muscle and zygomaticus major muscle, as long as they are in the vicinity of these muscles.
  • the first myoelectric potential sensor 11 outputs the myoelectric potential signal to the signal processing circuit 2 of the user device 10 as a myoelectric potential signal indicating the activity of facial muscles in the cheek area.
  • the second myoelectric potential sensor 12 is attached to the subject's eyebrow.
  • the second myoelectric potential sensor 12 includes a working electrode 121 and a reference electrode 122.
  • Working electrode 121 is incorporated into pad 171 and reference electrode 122 is incorporated into pad 172.
  • the second myoelectric potential sensor 12 detects myoelectric potential signals of muscles near the eyebrows (for example, the corrugator muscles) by attaching the pads 171 and 172 directly above the corrugator muscles. More specifically, the second myoelectric potential sensor 12 detects the potential of the working electrode 121 based on the potential of the reference electrode 122 as a myoelectric potential signal of the muscle near the eyebrow.
  • the attachment site of the pad 171 and the pad 172 (the working electrode 121 and the reference electrode 122) may be slightly shifted from directly above the corrugator gravidarus muscle, as long as it is in the vicinity of the corrugator corrugator muscle.
  • the second myoelectric potential sensor 12 outputs the myoelectric potential signal to the signal processing circuit 2 as a myoelectric potential signal indicating the activity of the corrugator muscle.
  • the smile muscle, zygomaticus major muscle, and corrugator corrugator muscle are each examples of facial expression muscles. More specifically, the smile muscle and the zygomaticus major muscle are each examples of muscles near the cheek. Corrugator corrugator is an example of a muscle near the eyebrows.
  • the signal processing circuit 2 performs predetermined signal processing (noise removal, rectification, amplification, digitization, etc.) on each myoelectric potential signal acquired from the sensor unit 1, and A signal is output to the controller 3.
  • the signal processing circuit 2 includes a filter, an amplifier, and an A/D converter.
  • the myoelectric potential signal from the first myoelectric potential sensor 11 processed by the signal processing circuit 2 is described as a "myoelectric potential signal MS1", and the myoelectric potential signal from the second myoelectric potential sensor 12 is processed by the signal processing circuit 2.
  • the signal processed by 2 is described as "myoelectric potential signal MS2".
  • the controller 3 is an arithmetic device that includes a processor 31, a memory 32, and an input/output port 33.
  • the processor 31 is realized by, for example, a CPU (Central Processing Unit).
  • the memory 32 is realized by, for example, ROM (Read Only Memory) and RAM (Random Access Memory).
  • the input/output port 33 is an interface for data input/output in the controller 3 .
  • the controller 3 executes arithmetic processing for evaluating the subject's facial expression based on the myoelectric potential signals MS1 and MS2.
  • the communication module 4 allows the user device 10 to communicate with external equipment, and is realized, for example, by a communication device compliant with a short-range wireless communication standard.
  • the controller 3 controls the exchange of information between the user device 10 and the outside (such as the computer 90) by controlling the communication module 4.
  • the battery 5 is a secondary battery such as a lithium ion secondary battery.
  • the battery 5 supplies operating voltage to each device within the user device 10 .
  • the user device 10 further includes a speaker 21 and a display 22.
  • the controller 3 outputs sound via the speaker 21 by outputting a control signal ("signal SS" in FIG. 1) to each of the speaker 21 and the display 22.
  • the user device 10 further includes a content providing device 23.
  • the content providing device 23 is a device that provides content.
  • content providing device 23 may provide a taste to subject 200.
  • a device is configured to electrically sense the five tastes of sweetness, saltiness, sourness, bitterness, and umami, and changes the ratio of these tastes to provide a taste. adjust.
  • a norimaki synthesizer https://research.miyashita.com/papers/I42/paper.pdf
  • uses electrolytes to give each of the five tastes mentioned above.
  • the taste provided can be adjusted by adjusting the amount of electricity applied to the five types of gels.
  • content providing device 23 may provide tactile sensations to subject 200.
  • Such devices adjust the tactile sensation provided by controlling the surface conditions of a given object.
  • content providing device 23 may provide scent to subject 200.
  • Such devices adjust the odor provided by adjusting the content of each of one or more types of substances in the supplied air.
  • the evaluation system 100 information regarding the task executed by the subject 200 is acquired. Then, of the acquired information, a portion corresponding to the timing at which the biological information of the subject 200 satisfies a predetermined condition is provided to the subject 200.
  • the information regarding the task may be an image.
  • the space in which the task is executed is photographed as information regarding the task.
  • images provided to subject 200 during execution of the task are recorded as information regarding the task.
  • an image is provided to the subject 200 as the above portion.
  • the image is provided via display 22 (or a display device other than user device 10).
  • the information regarding the task may be audio.
  • the audio of the space in which the task is performed is recorded as information regarding the task.
  • audio provided to subject 200 during execution of the task is recorded as information regarding the task.
  • audio is provided to the subject 200 as the above portion. Audio is provided via speaker 21 (or a speaker other than user device 10).
  • the information regarding the task may be information that identifies a smell.
  • the odor of the space in which the task is performed is recorded as information regarding the task, such as the composition of the air.
  • the odor provided to the subject 200 during execution of the task is recorded as information regarding the task, such as the composition of the air.
  • images and/or sounds provided to subject 200 during performance of the task and/or substances identified from images and/or sounds recorded in the space are recorded.
  • the subject 200 is provided with a smell reproduced based on the specified information (for example, the composition or substance of the air). For example, when the name of a substance "peach" is identified from the audio recorded in the space, the smell of peach may be reproduced and provided.
  • the scent is provided via the content providing device 23.
  • the information regarding the task may be information that specifies the feel.
  • the feel state of the surface of an object
  • images and/or sounds provided to subject 200 during performance of the task and/or substances identified from images and/or sounds recorded in the space are recorded.
  • the subject 200 is provided with a feeling reproduced based on the specified information. For example, when the name of the substance "peach" is identified from the audio recorded in the space, a predetermined surface condition may be reproduced and provided as the feel of the surface of the peach. The feel is provided via the content providing device 23.
  • the information regarding the task may be information specifying the taste.
  • the taste food name, information specifying the composition of the food, etc.
  • images and/or sounds provided to subject 200 during performance of the task and/or substances identified from images and/or sounds recorded in the space are recorded.
  • the taste reproduced based on the specified information is provided to the subject 200. For example, if the name of the substance "peach" is identified from the audio recorded in the above space, the predetermined taste of peach (of the five tastes of sweet, salty, sour, bitter, and umami) is detected. combinations) may be reproduced and provided. The taste is provided via the content providing device 23.
  • the information regarding the task may be a combination of two or more of the above five types of information (image, sound, smell, touch, and taste).
  • the content providing device 23 may include a unit that can reproduce two or more types of information among smell, touch, and taste.
  • the computer 90 is, for example, a PC (Personal Computer) or a server.
  • the computer 90 communicates with the user device 10 via a communication module (not shown) and receives a signal indicating the calculation result of the controller 3.
  • Computer 90 includes a controller 91 and a communication module 92.
  • the controller 91 includes a processor 95, a memory 96, and an input/output port 97, and executes various arithmetic processes.
  • the communication module 92 is realized by, for example, a communication device compliant with the short-range wireless communication standard. That is, the communication module 92 allows the computer 90 to communicate with other devices.
  • the computer 90 is connected to a camera 210, a microphone 220, a scent sensor 230, and button units 240 and 250.
  • Camera 210 takes an image of the space in which the task is performed and sends it to computer 90.
  • Microphone 220 captures audio from the space in which the task is performed and transmits it to computer 90.
  • Smell sensor 230 obtains the composition of the air in the space in which the task is performed and transmits it to computer 90.
  • Button unit 240 detects an operation on button 241 or button 242 and sends the detection result to computer 90.
  • Button unit 250 detects an operation on button 251 or button 252 and sends the detection result to computer 90.
  • FIG. 5 is a diagram illustrating an overview of an example of processing performed in the evaluation system 100.
  • FIG. 5 shows six types of data during a period in which the subject 200 is performing a certain task.
  • the six types of data include the feature values of two types of biological information (biological information (1) and (2)), the respective states (ON/OFF) of subject markers and observer markers, video analysis indicators, and related information. including.
  • the biological information (1) represents, for example, myoelectric potential signals of muscles near the cheeks. Changes in the feature amount of biological information (1) are represented by line L1.
  • Biological information (2) represents, for example, myoelectric potential signals of muscles near the eyebrows. Changes in the feature amount of biological information (2) are represented by line L2.
  • the subject marker represents the operating state of the buttons 241 and 242, for example.
  • the button 241 When the button 241 is operated, the value of the subject marker becomes ON, and when the button 242 is operated, the value of the subject marker becomes OFF. Changes in subject markers are represented by line L3.
  • the observer marker represents the operating state of the buttons 251 and 252, for example.
  • the value of the observer marker becomes ON
  • the button 252 is operated, the value of the observer marker becomes OFF.
  • Changes in the observer marker are represented by line L4.
  • the video analysis index represents the feature amount acquired from the image taken by the camera 210.
  • An example of the feature amount is the distance that at least part of the body of the subject 200 moves within a predetermined unit time.
  • the video analysis index is influenced by the movement of the subject's 200 body in the captured image. In this sense, the video analysis index can be said to be an example of the feature amount of biological information of the subject 200. Changes in the video analysis index are represented by line L5.
  • Related information represents information obtained as information regarding a task.
  • An example of related information is an image taken by camera 210.
  • the computer 90 provides the subject 200 with a portion of the related information that corresponds to a given timing.
  • a portion of the related information that corresponds to a given timing.
  • seven timings TM11 to TM17 are shown as timings for specifying the portion to be provided.
  • the computer 90 specifies, as TM11, the timing when the value of the subject marker becomes ON.
  • the computer 90 specifies, as TM12, the timing when the value of the biometric information (2) reaches a given threshold (Th22).
  • the computer 90 specifies, as TM13, the timing at which the value of biological information (1) reaches a given threshold (Th11) (decreases to a given threshold).
  • the computer 90 specifies, as TM14, the timing when the value of the observer marker becomes ON.
  • the computer 90 specifies, as TM15, the timing when the value of the biometric information (1) reaches a given threshold (Th11).
  • the computer 90 specifies, as TM16, the timing when the value of the video analysis index reaches a given threshold (Th13).
  • the computer 90 specifies, as TM17, the timing at which the value of biological information (2) reaches a given threshold (Th22) (decreases to a given threshold).
  • the computer 90 specifies a period including a certain amount of time before and after the period as a period for information provided to the subject 200.
  • each of periods PT11-17 is specified for each of timings TM11-17.
  • the computer 90 provides each part of the period PT11 to PT17 of the related information to the subject 200.
  • the above-mentioned "certain time" is, for example, 2 seconds. In this case, a 4-second video is provided to the subject 200 as each part of periods PT11 to PT17.
  • the computer 90 may generate an input screen and provide it to the subject 200 every time the above timing is specified. That is, when the computer 90 specifies the timing TM1, the computer 90 may provide the subject 200 with information related to the period PT11 without waiting for the next timing TM2 to be specified.
  • the period to which the above portions correspond does not need to be a period including a certain period of time before and after the specified timing.
  • the period to which the above portions correspond may be a fixed period before and after the specified timing, a specified timing and a fixed period immediately before it, or a specified timing. It may be only.
  • images for a certain period of time before and after that timing, images for a certain period of time immediately before and after that timing, or images for a certain period of time immediately before and after that timing are identified. An image of the timing is provided to the subject 200.
  • the computer 90 detects the detected value of the biometric information or the video analysis index.
  • the above timing may also be specified based on the fact that the value of is saturated (the amount of change is less than or equal to a given value for a given period of time or longer).
  • each of the detected value of biometric information and the value of the video analysis index is an example of a feature amount of biometric information.
  • the fact that the value is saturated is an example of the value being maintained within a given range.
  • the above-mentioned “reaching the threshold” may mean reaching from below the threshold or reaching from above the threshold (descending toward the threshold).
  • the feature quantities of biological information include myoelectric potential signals of muscles near the cheeks, myoelectric potential signals of muscles near the eyebrows, and video analysis indicators identified from images of the subject 200. It is shown.
  • the feature amount of the biological information may be other types of information such as the blood pressure value, electroencephalogram, cardiac potential, respiratory rate, and/or heart rate of the subject 200.
  • an example of the feature amount may be the match rate between the subject's brain wave pattern and a predetermined waveform pattern. That is, any information can be used as the feature amount of biometric information as long as it reflects the state (emotion, etc.) of the subject 200.
  • the computer 90 is configured to specify not only timing based on biological information but also timing based on button operations by the subject 200 or the observer 300. Thereby, the computer 90 can also provide the subject 200 with information corresponding to the timing that the subject 200 or the observer 300 has determined is likely to be helpful in providing feedback.
  • the information acquired as the related information may be information about the atmosphere of the space in which the task is executed.
  • the information on the atmosphere of the space is, for example, an image (video) captured by the camera 210, a sound captured by the microphone 220, and/or information specifying the composition of the air captured by the odor sensor 230.
  • the camera 210 may take a visual field image of the subject 200 as information about the atmosphere of the space. In this case, the camera 210 is attached to the head of the subject 200 in order to photograph the subject's 200 field of view.
  • the relevant information may be obtained continuously, at regular intervals, or every time a given event occurs.
  • the camera 210 may continue to capture video while executing the task.
  • the camera 210 may take images (photographs) at regular intervals during the execution of the task.
  • the camera 210 may take an image (photo) each time the subject 200 operates the button 241 and/or each time the observer 300 operates the button 251. good.
  • the information provided as the related information part may be a part of the above-mentioned related information itself, or may be provided based on information specified from a part of the related information. It may also be information that is reproduced. That is, the information provided to the subject 200 may be information that is secondarily generated based on related information. For example, in the case where the related information is an image, when it is specified that the image at the specified timing includes "peach", the subject 200 may receive the image containing the "peach" as the information corresponding to the timing.
  • a voice representing "peach” may be provided, a voice representing "peach” may be provided, air (odor) having a predetermined composition corresponding to "peach” may be provided, or a sound representing "peach” may be provided.
  • a taste of a predetermined composition may be provided to correspond to "Peach", or a predetermined texture may be provided to correspond to "Peach”.
  • ⁇ Task> In the evaluation system 100, the subject 200 performs a task and inputs feedback regarding the task. Computer 90 obtains feedback from subject 200.
  • the task performed by the subject 200 is not limited to the task of building shelves as described with reference to FIG. 1, but may be of any type.
  • Another example of a task is a task in which the subject 200 plays a video game.
  • the visual field image of the subject 200 as an example of related information may be an image of the video game instead of being photographed by the camera 210. Images of video games may also be specified by the progress of the game. Therefore, the computer 90 may acquire the progress of the game as related information corresponding to the timing at which the biometric information satisfies a given condition, instead of the image itself at such timing.
  • the computer 90 may reconstruct the screen based on the progress status of the game. Then, the computer 90 may provide the subject 200 with the reconstructed screen by incorporating it into the input screen.
  • FIG. 6 is a flowchart of processing performed by computer 90 to obtain feedback from test subject 200 performing a task.
  • the computer 90 starts the process shown in FIG. 6, for example, in response to input to the computer 90 of a notification that the subject 200 starts a task.
  • the process of FIG. 6 is implemented in computer 90 by processor 95 executing a given program.
  • the program may be stored non-temporarily in memory 96.
  • step S10 the computer 90 starts acquiring related information.
  • computer 90 instructs camera 210 to begin recording.
  • step S12 the computer 90 acquires biometric information.
  • the computer 90 requests the user device 10 to transmit myopotential signals acquired by the sensor unit 1 .
  • the user device 10 transmits the myoelectric potential signal to the computer 90 in response to the request.
  • step S14 the computer 90 determines whether a specific state has occurred.
  • the specific state is a state in which biometric information satisfies a given condition, such as timing TM13 or TM15 specified for biometric information (1) in FIG. If the computer 90 determines that the specific state has occurred (YES in step S14), the control proceeds to step S16, and if not (NO in step S14), the control returns to step S12.
  • step S16 the computer 90 registers the current time in the memory 96 as a reference point. Instead of the current time, the elapsed time from the start of the task may be registered.
  • step S18 the computer 90 determines whether the task has been completed.
  • subject 200 operates button 242 when the task is completed.
  • computer 90 detects that button 242 has been operated, it determines that the task has ended. If the computer 90 determines that the task has been completed (YES in step S18), the control proceeds to step S20, and if not (NO in step S18), the control returns to step S12.
  • step S20 the computer 90 finishes acquiring the related information started in step S10.
  • computer 90 instructs camera 210 to stop taking pictures.
  • step S22 the computer 90 generates an input screen.
  • the input screen is a screen provided to the subject 200 for inputting feedback.
  • FIG. 7 is a diagram showing an example of an input screen.
  • Screen 700 includes a frame 710, a key 711, frames 721 to 725, and a frame 730.
  • the frame 710 includes the message "These are videos taken during this experience. Please refer to these and write your impressions of this experience.” "Video shot during this experience” indicates a video displayed in each of frames 721 to 725, which will be described later. That is, the message in the frame 710 is an example of a message prompting the subject 200 to refer to the video provided in inputting feedback.
  • the computer 90 generates an input screen by fitting the message into the frame 710. Note that the provided video is an example of a portion of the related information acquired during the execution of the task that corresponds to the "timing" described with reference to FIG. 5.
  • the key 711 is operated to transmit information input in a frame 730, which will be described later, to the computer 90.
  • Each of the frames 721 to 725 displays a moving image.
  • the displayed video is a portion of the video (an example of related information) acquired during the execution of the task that corresponds to the "timing" described with reference to FIG. 5.
  • the "timing” is acquired as a "reference point” in the process of FIG.
  • playback of a moving image is started in response to a touch operation.
  • the computer 90 cuts out parts corresponding to each of the above-mentioned "timings" from a video (an example of related information) acquired during the execution of a task, thereby providing the "parts” corresponding to the "timings”. Generate content. Then, the computer 90 generates an input screen by fitting each of the generated contents into each of the frames 721 to 725.
  • the number of frames included in the input screen for displaying related information such as videos is not limited to "5" shown in FIG. 7.
  • the number of windows is the number of "timings" identified during execution of the task.
  • Frame 730 accepts feedback input from subject 200.
  • the computer 90 transmits the input screen to the subject 200 in step S24.
  • the part of the related information that corresponds to the "timing" explained with reference to FIG. 5 is incorporated into the input screen. In this sense, the computer 90 provides the above portion to the subject 200 by transmitting an input screen toward the subject 200.
  • the computer 90 obtains the email address of the subject 200 along with information identifying the subject 200 at the beginning of the task.
  • the computer 90 sends an email containing the input screen generated as described above to the email address.
  • Subject 200 receives the email using smartphone 290 (FIG. 2). Thereby, the subject 200 views the input screen on the smartphone 290.
  • the content described here is just one mode of transmitting the input screen to the subject 200.
  • the input screen may be transmitted to the subject 200 in any manner.
  • step S26 the computer 90 obtains feedback from the subject 200.
  • subject 200 operates key 711 after inputting feedback in text in frame 730 of screen 700 displayed on smartphone 290 .
  • smartphone 290 transmits the text entered in frame 730 to computer 90.
  • Computer 90 obtains feedback by receiving the transmitted text in this manner.
  • step S28 the computer 90 registers the obtained feedback in the memory 96. Thereafter, the computer 90 ends the process of FIG.
  • the computer 90 provides the subject 200 with a portion of the related information acquired during the execution of the task that corresponds to the timing specified using the subject's 200 biological information.
  • the subject 200 inputs feedback regarding the task while referring to the relevant part, and transmits the feedback to the computer 90. Thereby, the computer 90 obtains feedback from the subject 200 regarding the task.
  • the test subject 200 is provided with the part of the task-related information (related information) that corresponds to the timing at which the test subject's 200 biological information satisfies a given condition, and then provides feedback. Can be input.
  • the subject 200 can more specifically remember the state of the subject 200 at the above-mentioned timing. Therefore, the computer 90 can obtain more specific feedback from the test subject 200, and the obtained feedback reflects the test subject's true impressions with high accuracy.
  • a screen 700 including frames 721 to 725 is provided to the subject 200 after the task is completed.
  • Each of the frames 721 to 725 displays a portion of the video (an example of related information) acquired during the execution of the task that corresponds to the "timing" described with reference to FIG. 5. That is, in the process of FIG. 6, two or more portions are provided to the subject 200 at once after the task is completed.
  • each of the two or more portions may be provided to the subject 200 without waiting for the end of the task.
  • the computer 90 specifies the above-mentioned "timing”
  • the computer 90 extracts a portion corresponding to the "timing” from the related information and sends it to the subject 200 without waiting for the end of the task.
  • the subject 200 can continue the task while being aware of the situation when the biological information of the subject 200 satisfies the given conditions even while executing the task, and the content that should be input as feedback can be easily output. It is expected that this will happen.
  • the screen 700 in FIG. 7 provides the subject 200 with a plurality of portions corresponding to each of a plurality of timings as five frames 721 to 725 at once.
  • the input screen may present a plurality of parts corresponding to each of a plurality of timings to the subject 200 one by one, and display one feedback input frame for each part.
  • the input screen may present a plurality of parts corresponding to each of a plurality of timings to the subject 200 one by one, and display one feedback input frame for each part.
  • five screens are provided as input screens.
  • Each of the five input screens includes one frame for displaying the part and one frame for inputting feedback while referring to the part.
  • the computer 90 may identify the state of the test subject 200 by analyzing the content of the "part" provided to the test subject 200, and may include the specified state in the input screen.
  • FIG. 8 is a diagram showing another example of the input screen.
  • Screen 800 includes a frame 730 and keys 711, similar to screen 700 in FIG.
  • Screen 800 includes a frame 810 instead of frame 710 of screen 700.
  • the message displayed in frame 810 includes, in addition to the message displayed in frame 710, the phrase "Please enter the degree of the condition at each point in time.” This phrase prompts the subject 200 to input the degree of the subject 200's state at the timing when the videos displayed in frames 840 and 850, which will be described later, were captured.
  • Screen 800 includes frames 840 and 850.
  • Each of the frames 840 and 850 displays a moving image, similarly to each of the frames 721 to 725 in FIG.
  • the displayed video is a portion of the video (an example of related information) acquired during the execution of the task that corresponds to the "timing" described with reference to FIG. 5.
  • Screen 800 includes fields 841 and 851.
  • Columns 841 and 851 each display the state of subject 200 identified from the video displayed in frames 840 and 850, respectively.
  • computer 90 extracts a particular frame from the video displayed in frame 840 (the first frame displayed, the frame displayed at an intermediate point, etc.) and extracts the facial region from the image of that frame. By identifying and analyzing the image of the identified facial area, the emotion corresponding to the facial image is identified. Then, the computer 90 embeds the identified emotion in the column 841 as the state of the subject 200. Similarly, the computer 90 identifies the emotion of the subject 200 from the frame 850 and embeds it in the field 851 as the state of the subject 200.
  • Screen 800 includes fields 842 and 843.
  • Column 842 is a column for inputting the degree of the state displayed in column 841.
  • Column 843 is a pull-down menu, and displays as many candidates as are entered in column 842.
  • column 841 displays the status "Tough”.
  • the column 843 displays three candidates as the degree of the condition "tough”: "It was quite hard,” “It was a little hard,” and "It was not hard.”
  • Subject 200 selects one from the candidates displayed in column 843. The selected candidate is entered in field 842.
  • Screen 800 includes fields 852 and 853.
  • Column 852 is a column for inputting the degree of the state displayed in column 851.
  • Column 853 is a pull-down menu, and displays as many candidates as are input in column 852.
  • column 851 displays the status "fun.”
  • the column 853 displays three candidates as the level of the "fun” state: "It was very fun,” “It was a little fun,” and "It was not fun.”
  • Subject 200 selects one from the candidates displayed in column 853. The selected candidate is entered in field 852.
  • step S26 the computer 90 obtains, in addition to the text input in the frame 730, the degree of the state input in the columns 842 and 852 as feedback.
  • each step is performed by one computer 90
  • the present invention is not limited thereto, and each step may be performed by a plurality of computers that are communicably connected to each other.
  • An evaluation method includes a step of acquiring information regarding a task to be performed by a subject, a step of acquiring biological information of the subject performing the task over time, and a step in which the biological information is identifying a timing that satisfies a predetermined condition; outputting a portion of information related to the task that corresponds to the identified timing; and receiving feedback input regarding the task from the subject. , may be provided.
  • the biological information includes myoelectric potential signals of facial muscles of the subject, blood pressure values of the subject, electroencephalograms of the subject, cardiac potential of the subject, It may include at least one of a breathing rate, a heart rate of the subject, and an index specified from an image including the subject.
  • the condition of the subject is accurately reflected in the biological information.
  • the predetermined condition is that the feature amount in the biometric information reaches a given threshold, and the feature amount in the biometric information It may also include at least one of the following: a state in which the amount of change is less than or equal to a given value continues for a predetermined period of time or more.
  • the predetermined condition is that the feature amount in the biometric information remains within a given range for a given time or more. It may also include being maintained.
  • information can be provided to the subject also regarding the portion corresponding to the timing desired by the subject or observer.
  • An evaluation method includes the step of acquiring information regarding a task to be performed by a subject, and the step of acquiring information regarding a task to be performed by a subject, from at least one of a subject who performs the task and an observer who observes the subject. During the execution, identifying the timing at which marker input is accepted; outputting a portion of information related to the task that corresponds to the identified timing; and inputting feedback regarding the task from the subject.
  • the method may include a step of receiving the information.
  • the information regarding the task includes information about the atmosphere of the space in which the task is performed, and information about the atmosphere of the space in which the task is performed.
  • the information may include at least one of the provided content information.
  • the condition of the subject is accurately reflected in the information regarding the task.
  • the information regarding the task includes information on the atmosphere of the space, and the information on the atmosphere of the space includes a captured image of the space in which the task is executed, the It may include at least one of a sound recording of the space in which the task is performed and a smell of the space in which the task is performed.
  • the condition of the subject is more accurately reflected in the information regarding the task.
  • the information regarding the task includes information on the atmosphere of the space
  • the information on the atmosphere of the space includes a captured image of the space
  • the image may include at least one of an image including the subject performing the task, and a line-of-sight image of the subject performing the task.
  • the condition of the subject is more accurately reflected in the information regarding the task.
  • the information regarding the task includes information on the content
  • the output portion includes images, sounds, smells, It may include at least one of feel and taste.
  • the acquiring step includes acquiring information regarding the task at regular intervals during execution of the task. May contain.
  • the amount of data handled in acquiring information regarding a task is minimized.
  • the output portion may correspond to the timing and a given period before and after the timing.
  • the step of outputting may include providing the portion after the task is completed.
  • the step of outputting includes identifying the condition of the subject by analyzing the portion that is output. , and outputting the state of the subject.
  • the subject is provided with more specific information regarding the subject.
  • the step of outputting includes outputting information that prompts input of the degree of the condition of the subject, and the step of accepting includes The method may include obtaining input from the user.
  • the degree of the test subject's condition can be managed on the computer that implements the evaluation method.
  • the step of outputting the output is performed when the first timing and the second timing are specified as the timing.
  • the method may include providing a portion corresponding to the second timing together with a portion corresponding to the timing.
  • the step of outputting may be performed when a first timing and a second timing are specified as the timings.
  • the method may include providing a portion corresponding to the second timing after providing the portion corresponding to the first timing.
  • An evaluation device stores an interface for acquiring information related to the task and biometric information of a test subject who executes the task, and conditions and identifying information regarding the feature amount in the biometric information. and a processor for identifying the timing at which the feature amount in the biological information satisfies the condition, and the processor outputs a portion of the information regarding the task that corresponds to the identified timing. However, input of feedback regarding the task may be accepted.
  • An evaluation device includes an interface for acquiring information related to the task and biological information of a subject who executes the task, and an observer who observes the subject who executes the task and the subject. a processor for specifying a timing at which a marker input is received while the subject executes a task from at least one of the above; The corresponding portion may be output and feedback input regarding the task may be received.
  • a program is executed by a computer to cause the computer to acquire information regarding a task to be performed by a subject, acquire biometric information of the subject, and provide the computer with the following steps: identifying a timing at which information satisfies a predetermined condition; outputting a portion of information related to the task that corresponds to the identified timing; and receiving input feedback regarding the task; may be executed.
  • the program includes a step of acquiring information about a task to be performed by a subject to the computer by being executed by a computer, and an observation to observe a subject who performs the task and the subject. identifying a timing at which a marker input is received from at least one of the subjects while the subject executes the task; and outputting a portion of information regarding the task that corresponds to the identified timing. , receiving input of feedback regarding the task from the subject.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

評価方法は、被験者が実行するタスクに関する情報を取得するステップ(ステップS10)と、当該被験者の生体情報を取得するステップ(ステップS12)と、当該生体情報が予め定められた条件を満たしたタイミングを特定するステップ(ステップS14)と、当該タスクに関する情報のうち、特定された当該タイミングに対応する部分を出力するステップ(ステップS24)と、当該タスクに関するフィードバックの入力を受け付けるステップ(ステップS26)と、を含む。

Description

評価方法、評価用装置、およびプログラム
 本発明は、被験者からのフィードバックを利用する、被験者の反応の評価に関する。
 従来、商品またはサービスの提供者は、被験者(たとえば、商品またはサービスの顧客)からのフィードバックを利用して、商品またはサービスへの被験者の反応を評価してきた。フィードバックの取得に関し、たとえば、米国特許出願公開第2002/0044687号明細書(特許文献1)は、顧客に、フィードバック情報と顧客のアドレスとを記入された用紙を電子的に送信させ、フィードバック情報を電子的に処理するとともに、アドレスを利用して顧客にインセンティブを与える技術を開示している。また、脳の活動に関する情報を取得して、フィードバックとして評価する技術についても、種々検討がなされている(非特許文献1、非特許文献2、および非特許文献3参照)。
米国特許出願公開第2002/0044687号明細書
"ニューロマーケティングをもっと身近に-感性アナライザ(KANSEI_Analyzer)",[online],[令和3年10月14日検索],電通サイエンスジャム,<URL:https://www.dentsusciencejam.com/kansei-analyzer/> "Valance-Arousal_Analyzerのご案内",[online],[令和3年10月14日検索],電通サイエンスジャム,<URL:https://www.dentsusciencejam.com/VAA/> "ニューロマーケティング・感性評価の実施の流れ",[online],[令和3年10月14日検索],電通サイエンスジャム,<https://neu-brains.co.jp/service/neuro-marketing/flow/>
 従来技術によれば、商品またはサービスへの被験者の反応が客観的に評価され得る。しかし、被験者からの具体的なフィードバックを得るうえで、システムには全体として改善の余地がある。
 本発明は、係る実情に鑑み考え出されたものであり、その目的は、被験者の反応の評価において、被験者からのより具体的なフィードバックを取得するための技術を提供することである。
 本開示のある局面に従う評価方法は、被験者が実行するタスクに関する情報を取得するステップと、タスクを実行する被験者の生体情報を経時的に取得するステップと、生体情報が予め定められた条件を満たしたタイミングを特定するステップと、タスクに関する情報のうち、特定されたタイミングに対応する部分を出力するステップと、被験者から、タスクに関するフィードバックの入力を受け付けるステップと、を備える。
 本開示の他の局面に従う評価方法は、被験者が実行するタスクに関する情報を取得するステップと、タスクを実行する被験者および当該被験者を観測する観測者の少なくとも一方から、被験者がタスクを実行する間に、マーカの入力を受け付けたタイミングを特定するステップと、タスクに関する情報のうち、特定されたタイミングに対応する部分を出力するステップと、被験者から、タスクに関するフィードバックの入力を受け付けるステップと、を備える。
 本開示のある局面に従う評価用装置は、タスクを実行する被験者の、タスクに関する情報および生体情報を取得するためのインターフェースと、生体情報における特徴量に関する条件と特定する情報を格納するメモリと、生体情報における特徴量が条件を満たしたタイミングを特定するためのプロセッサと、を備え、プロセッサは、タスクに関する情報のうち、特定されたタイミングに対応する部分を出力し、タスクに関するフィードバックの入力を受け付ける。
 本開示の他の局面に従う評価用装置は、タスクを実行する被験者の、タスクに関する情報および生体情報を取得するためのインターフェースと、タスクを実行する被験者および当該被験者を観測する観測者の少なくとも一方から、被験者がタスクを実行する間に、マーカの入力を受け付けたタイミングを特定するためのプロセッサと、を備え、プロセッサは、タスクに関する情報のうち、特定されたタイミングに対応する部分を出力し、タスクに関するフィードバックの入力を受け付ける。
 本開示のある局面に従うプログラムは、コンピュータに、被験者が実行するタスクに関する情報を取得するステップと、被験者の生体情報を取得するステップと、生体情報が予め定められた条件を満たしたタイミングを特定するステップと、タスクに関する情報のうち、特定されたタイミングに対応する部分を提供するステップと、タスクに関するフィードバックの入力を受け付けるステップと、を実行させる。
 本開示の他の局面に従うプログラムは、コンピュータによって実行されることにより、コンピュータに、被験者が実行するタスクに関する情報を取得するステップと、タスクを実行する被験者および当該被験者を観測する観測者の少なくとも一方から、被験者がタスクを実行する間に、マーカの入力を受け付けたタイミングを特定するステップと、タスクに関する情報のうち、特定されたタイミングに対応する部分を出力するステップと、被験者から、タスクに関するフィードバックの入力を受け付けるステップと、を実行させる。
 本開示のある局面に従うと、被験者の反応の評価において、被験者からのより具体的なフィードバックが取得される。
本開示に係る評価用装置を含む評価システムの概要を示す図である。 評価システムにおいて、被験者200が、タスクに関するフィードバックを入力する場面の一例を示す図である。 評価システムのブロック構成を概略的に示す図である。 第1筋電位センサ11および第2筋電位センサ12の装着部位を説明するための図である。 評価システム100において実施される処理の一例の概要を示す図である。 タスクを実行する被験者200からフィードバックを取得するために、コンピュータ90が実施する処理のフローチャートである。 入力用画面の一例を示す図である。 入力用画面の他の例を示す図である。
 以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。
 [評価方法の概要]
 図1は、本開示に係る評価用装置を含む評価システムの概要を示す図である。評価システムにおいて、コンピュータ90は評価用装置の一例である。
 被験者200は、フィードバックを入力するために、タスクを実行する。図1の例では、被験者200は、タスクの一例として、棚を組み立てている。
 コンピュータ90は、被験者200が実行しているタスクについて、当該タスクに関する情報を取得する。図1の例では、タスクに関する情報の一例として、カメラ210によって、被験者200がタスクを実行している空間の画像(俯瞰画像)が撮影され、コンピュータ90へ送信される。タスクに関する情報の一例として、マイク220によって、上記空間の音声が取得され、コンピュータ90へ送信されてもよい。
 コンピュータ90は、また、被験者200の生体情報を取得する。図1の例では、生体情報の一例として、被験者200の筋電位信号が取得される。
 より具体的には、コンピュータ90は、ユーザデバイス10を介して、被験者200の筋電位信号を取得する。被験者200は、ユーザデバイス10を装着している。ユーザデバイス10は、1以上の筋電位センサ(図3等を参照して後述される、第1筋電位センサ11および第2筋電位センサ12)を含む。筋電位信号は、当該1以上の筋電位センサによって取得される。
 コンピュータ90は、上記生体情報の特徴量が予め定められた条件を満たしたタイミングを特定し、上記タスクに関する情報のうち、特定されたタイミングに対応する部分を、被験者200に提供する。コンピュータ90は、上記のようなタイミングとして、ボタンユニット240またはボタンユニット250に含まれる1以上のボタンに対する操作されたタイミングを特定してもよい。ボタンユニット240は、被験者200によって操作される、2つのボタン241,242を含む。ボタンユニット250は、観測者300によって操作される2つのボタン251,252を含む。
 図2は、評価システムにおいて、被験者200が、タスクに関するフィードバックを入力する場面の一例を示す図である。図2の例では、被験者200は、スマートフォン290で、コンピュータ90から提供された、タスクに関する情報のうち上記部分を取得する。一実現例では、当該部分は、上記のように特定されたタイミングにおいてカメラ210が撮影した動画である。被験者200は、当該部分をスマートフォン290で確認しながら、タスクに関するフィードバックを入力し、当該フィードバックをコンピュータ90へ送信する。
 [ブロック構成]
 図3は、評価システムのブロック構成を概略的に示す図である。図3に示されるように、評価システム100は、ユーザデバイス10と、コンピュータ90とを含む。一実現例では、ユーザデバイス10は、被験者に装着されるウェアラブル端末を含んでいてもよい。コンピュータ90は、被験者の周囲の環境に設置されてもよい。ユーザデバイス10とコンピュータ90とは双方向通信が可能に構成されている。以下、それぞれの構成について説明する。
 <ユーザデバイス10>
 ユーザデバイス10は、センサユニット1と、信号処理回路2と、コントローラ3と、通信モジュール4と、バッテリ5と、筐体6とを含む。筐体6は、その内部に、信号処理回路2、コントローラ3、通信モジュール4、およびバッテリ5を収容している。
 センサユニット1は、第1筋電位センサ11と、第2筋電位センサ12とを含む。第1筋電位センサ11および/または第2筋電位センサ12は、被験者の顔に装着され、装着部位の筋電位信号を検出する。
 筋電位信号とは、筋肉を動かす際に発生する微弱な電気信号を意味する。本開示において、被験者の「顔」は、顔面(顔の前面または側面)に限定されず、被験者の首が含まれ得る。たとえば、センサユニット1が被験者の喉に装着されることによって、被験者の嚥下動作に伴う筋電位変化が検出されてもよい。
 センサユニット1は、複数のセンサを含んでいてもよい。複数のセンサは、互いに異なる種類の筋肉に装着されてもよい。筋肉の種類は、センサが装着される部位によって特定され得る。実施の形態1では、筋肉の種類が特定される際、筋肉の組成または構造まで限定される必要はない。センサを装着される部位が異なれば、異なる種類の筋肉の筋電位信号が取得され得る。
 図4は、第1筋電位センサ11および第2筋電位センサ12の装着部位を説明するための図である。図4を参照して、第1筋電位センサ11および第2筋電位センサ12の構成および利用の一態様を説明する。
 第1筋電位センサ11は、被験者の頬に装着される。第1筋電位センサ11は、作用電極111と、参照電極112とを含む。作用電極111はパッド151に組み込まれ、参照電極112はパッド152に組み込まれている。
 第1筋電位センサ11は、パッド151が笑筋の直上に装着され、パッド152が大頬骨筋の直上に装着されることにより、頬近傍の筋肉の筋電位信号を検出する。より具体的には、第1筋電位センサ11は、参照電極112の電位を基準とした作用電極111の電位を頬近傍の筋肉の筋電位信号として検出する。パッド151およびパッド152(作用電極111および参照電極112)のそれぞれ装着部位は、笑筋および大頬骨筋のそれぞれの近傍であればそれらの筋肉の直上から多少ずれてもよい。第1筋電位センサ11は、上記筋電位の信号を、頬の部分の表情筋の活動を示す筋電位信号として、ユーザデバイス10の信号処理回路2に出力する。
 第2筋電位センサ12は、被験者の眉に装着される。第2筋電位センサ12は、作用電極121と、参照電極122とを含む。作用電極121はパッド171に組み込まれ、参照電極122はパッド172に組み込まれている。
 第2筋電位センサ12は、パッド171およびパッド172が皺眉筋の直上に装着されることにより、眉近傍の筋肉(たとえば、皺眉筋)の筋電位信号を検出する。より具体的には、第2筋電位センサ12は、参照電極122の電位を基準とした作用電極121の電位を眉近傍の筋肉の筋電位信号として検出する。パッド171およびパッド172(作用電極121および参照電極122)の装着部位は、皺眉筋の近傍であれば皺眉筋の直上から多少ずれてもよい。第2筋電位センサ12は、上記筋電位の信号を、皺眉筋の活動を示す筋電位信号として信号処理回路2に出力する。
 図4の例において、笑筋、大頬骨筋、および皺眉筋のそれぞれは、表情筋の一例である。より具体的には、笑筋および大頬骨筋のそれぞれは、頬近傍の筋肉の一例である。皺眉筋は、眉近傍の筋肉の一例である。
 図3を再び参照して、信号処理回路2は、センサユニット1から取得した筋電位信号の各々に所定の信号処理(ノイズ除去、整流、増幅、デジタル化など)を施し、当該処理後の各信号をコントローラ3に出力する。図示が省略されているが、信号処理回路2は、フィルタ、アンプ、A/Dコンバータを含む。
 図3では、第1筋電位センサ11からの筋電位信号を信号処理回路2により処理したものが「筋電位信号MS1」として記載され、第2筋電位センサ12からの筋電位信号を信号処理回路2により処理したものが「筋電位信号MS2」として記載される。
 コントローラ3は、プロセッサ31と、メモリ32と、入出力ポート33とを含む、演算装置である。プロセッサ31は、たとえば、CPU(Central Processing Unit)によって実現される。メモリ32は、たとえば、ROM(Read Only Memory)およびRAM(Random Access Memory)によって実現される。入出力ポート33は、コントローラ3におけるデータの入出力のインターフェースである。コントローラ3は、筋電位信号MS1,MS2に基づいて、被験者の表情を評価するための演算処理を実行する。
 通信モジュール4は、ユーザデバイス10を外部の機器と通信させ、たとえば、近距離無線通信規格に準拠した通信機器によって実現される。コントローラ3は、通信モジュール4を制御することで、ユーザデバイス10と外部(コンピュータ90など)との間の情報の授受を制御する。
 バッテリ5は、リチウムイオン二次電池等の二次電池である。バッテリ5は、ユーザデバイス10内の各機器に動作電圧を供給する。
 ユーザデバイス10は、スピーカ21およびディスプレイ22をさらに含む。コントローラ3は、スピーカ21およびディスプレイ22のそれぞれに、制御信号(図1中の「信号SS」)を出力することにより、スピーカ21を介して音声を出力する。
 ユーザデバイス10は、コンテンツ提供装置23をさらに含む。コンテンツ提供装置23は、コンテンツを提供する装置である。一実現例では、コンテンツ提供装置23は、被験者200に味を提供してもよい。このような装置は、たとえば、甘味、塩味、酸味、苦味、およびうま味の5つの味を電気的に感じさせるように構成され、これらの味を感じさせる割合を変化させて、提供される味を調整する。より具体的には、このような装置は、のりまきシンセサイザ(https://research.miyashita.com/papers/I42/paper.pdf)として知られるように、上記5つの味のそれぞれを感じさせる電解質を含んだ5種類のゲルを内蔵し、当該5種類のゲルに印加する電気の量を調整することにより、提供される味を調整する。一実現例では、コンテンツ提供装置23は、被験者200に感触を提供してもよい。このような装置は、所与の物体の表面状態を制御することにより、提供される触覚を調整する。一実現例では、コンテンツ提供装置23は、被験者200に匂いを提供してもよい。このような装置は、供給する空気に含ませる1以上の種類の物質のそれぞれの含有量を調整することにより、提供される匂いを調整する。
 評価システム100では、被験者200によって実行されるタスクについて、当該タスクに関する情報が取得される。そして、取得された情報のうち、被験者200の生体情報が予め定められた条件を満たしたタイミングに対応する部分が被験者200に提供される。
 タスクに関する情報は、画像であってもよい。一例では、タスクに関する情報として、タスクが実行される空間が撮影される。他の例では、タスクに関する情報として、タスクの実行中に被験者200に提供された画像が記録される。この場合、上記部分として、被験者200に画像が提供される。画像は、ディスプレイ22(または、ユーザデバイス10以外の表示装置)を介して提供される。
 タスクに関する情報は、音声であってもよい。一例では、タスクに関する情報として、タスクが実行される空間の音声が記録される。他の例では、タスクに関する情報として、タスクの実行中に被験者200に提供された音声が記録される。この場合、上記部分として、被験者200に音声が提供される。音声は、スピーカ21(または、ユーザデバイス10以外のスピーカ)を介して提供される。
 タスクに関する情報は、匂いを特定する情報であってもよい。一例では、タスクに関する情報として、タスクが実行される空間の匂いが、たとえば空気の組成として記録される。他の例では、タスクに関する情報として、タスクの実行中に被験者200に提供された匂いが、たとえば空気の組成として記録される。さらに他の例では、タスクの実行中に被験者200に提供された画像および/もしくは音声、ならびに/または、上記空間において記録された画像および/もしくは音声から特定された物質が記録される。この場合、上記部分として、被験者200に、特定された情報(たとえば、空気の組成または物質)に基づいて再現された匂いが提供される。たとえば、上記空間において記録された音声から物質の名前である「桃」が特定された場合に、桃の匂いが再現されて提供されてもよい。匂いは、コンテンツ提供装置23を介して提供される。
 タスクに関する情報は、感触を特定する情報であってもよい。一例では、タスクに関する情報として、タスクの実行中に被験者200に提供された感触(物体の表面の状態)が記録される。他の例では、タスクの実行中に被験者200に提供された画像および/もしくは音声、ならびに/または、上記空間において記録された画像および/もしくは音声から特定された物質が記録される。この場合、上記部分として、被験者200に、特定された情報に基づいて再現された感触が提供される。たとえば、上記空間において記録された音声から物質の名前である「桃」が特定された場合に、桃の表面の感触として予め定められた表面状態が再現されて提供されてもよい。感触は、コンテンツ提供装置23を介して提供される。
 タスクに関する情報は、味を特定する情報であってもよい。一例では、タスクに関する情報として、タスクの実行中に被験者200に提供された味(食品名、食品の組成を特定する情報、など)が記録される。他の例では、タスクの実行中に被験者200に提供された画像および/もしくは音声、ならびに/または、上記空間において記録された画像および/もしくは音声から特定された物質が記録される。この場合、上記部分として、被験者200に、特定された情報に基づいて再現された味が提供される。たとえば、上記空間において記録された音声から物質の名前である「桃」が特定された場合に、桃の味として予め定められた味(甘味、塩味、酸味、苦味、およびうま味の5つの味の組み合わせ)が再現されて提供されてもよい。味は、コンテンツ提供装置23を介して提供される。
 タスクに関する情報は、上述の5種類の情報(画像、音声、匂い、感触、および味)の中の2以上の種類の組み合わせであってもよい。コンテンツ提供装置23は、匂い、感触、および味の中の2つ以上の種類のそれぞれの情報を再現できるユニットを含んでいてもよい。
 <コンピュータ90>
 コンピュータ90は、たとえばPC(Personal Computer)またはサーバである。コンピュータ90は、図示しない通信モジュールを介してユーザデバイス10との間で通信を行い、コントローラ3の演算結果を示す信号を受信する。コンピュータ90は、コントローラ91と、通信モジュール92とを含む。
 コントローラ91は、コントローラ3と同様に、プロセッサ95と、メモリ96と、入出力ポート97とを含み、種々の演算処理を実行する。通信モジュール92は、通信モジュール4と同様に、たとえば、近距離無線通信規格に準拠した通信機器によって実現される。すなわち、通信モジュール92は、コンピュータ90を他の機器と通信させる。
 コンピュータ90は、カメラ210、マイク220、においセンサ230、ボタンユニット240,250と接続されている。カメラ210は、タスクが実行される空間の画像を撮影し、コンピュータ90へ送信する。マイク220は、タスクが実行される空間の音声を取得し、コンピュータ90へ送信する。においセンサ230は、タスクが実行される空間の空気の組成を取得し、コンピュータ90へ送信する。ボタンユニット240は、ボタン241またはボタン242に対する操作を検出し、検出結果をコンピュータ90へ送信する。ボタンユニット250は、ボタン251またはボタン252に対する操作を検出し、検出結果をコンピュータ90へ送信する。
 [処理の概要]
 図5は、評価システム100において実施される処理の一例の概要を示す図である。
 図5には、被験者200があるタスクを実行している期間における6種類のデータが示されている。6種類のデータは、2種類の生体情報(生体情報(1),(2))の特徴量、被験者マーカおよび観測者マーカのそれぞれの状態(ON/OFF)、動画解析指標、ならびに、関連情報を含む。
 生体情報(1)は、たとえば頬近傍の筋肉の筋電位信号を表す。生体情報(1)の特徴量の変化は、線L1によって表される。生体情報(2)は、たとえば眉近傍の筋肉の筋電位信号を表す。生体情報(2)の特徴量の変化は、線L2によって表される。
 被験者マーカは、たとえばボタン241,242の操作状態を表す。ボタン241が操作されると被験者マーカの値はONになり、ボタン242が操作されると被験者マーカの値はOFFになる。被験者マーカの変化は、線L3によって表される。
 観測者マーカは、たとえばボタン251,252の操作状態を表す。ボタン251が操作されると観測者マーカの値はONになり、ボタン252が操作されると観測者マーカの値はOFFになる。観測者マーカの変化は、線L4によって表される。
 動画解析指標は、カメラ210によって撮影された画像から取得された特徴量を表す。特徴量の一例は、予め定められた単位時間内に被験者200の身体の少なくとも一部が動いた距離である。動画解析指標は、撮影された画像における被験者200の身体の動きに影響を受ける。この意味において、動画解析指標は、被験者200の生体情報の特徴量の一例であると言える。動画解析指標の変化は、線L5によって表される。
 関連情報は、タスクに関する情報として取得される情報を表す。関連情報の一例は、カメラ210によって撮影された画像である。
 コンピュータ90は、関連情報のうち、所与のタイミングに対応する部分を被験者200に提供する。図5の例では、提供される部分を特定するタイミングとして、7つのタイミング(TM11~17)が示されている。
 より具体的には、コンピュータ90は、TM11として、被験者マーカの値がONになったタイミングを特定する。
 コンピュータ90は、TM12として、生体情報(2)の値が所与の閾値(Th22)に到達したタイミングを特定する。
 コンピュータ90は、TM13として、生体情報(1)の値が所与の閾値(Th11)に到達した(所与の閾値まで下降した)タイミングを特定する。
 コンピュータ90は、TM14として、観測者マーカの値がONになったタイミングを特定する。
 コンピュータ90は、TM15として、生体情報(1)の値が所与の閾値(Th11)に到達したタイミングを特定する。
 コンピュータ90は、TM16として、動画解析指標の値が所与の閾値(Th13)に到達したタイミングを特定する。
 コンピュータ90は、TM17として、生体情報(2)の値が所与の閾値(Th22)に到達した(所与の閾値まで下降した)タイミングを特定する。
 コンピュータ90は、特定した7つのタイミングのそれぞれについて、前後の一定時間を含む期間を、被験者200に提供される情報についての期間として特定する。これにより、タイミングTM11~17のそれぞれについて、期間PT11~17のそれぞれが特定される。そして、コンピュータ90は、タスク終了後に、関連情報のうち、期間PT11~17のそれぞれの部分を、被験者200に提供する。上記「一定時間」は、たとえば2秒間である。この場合、期間PT11~17のそれぞれの部分として、被験者200に、4秒間の動画が提供される。
 <タスクに関連する情報が提供される時期>
 図6を参照して説明された処理では、タスクの終了後に、上記のような部分を含む入力用画面が生成され、そして、当該入力用画面が被験者200へ提供された。入力用画面が提供される時期は、タスクの終了後に限定されない。コンピュータ90は、上記のようなタイミングが特定されるたびに、入力用画面を生成して被験者200に提供してもよい。すなわち、コンピュータ90は、タイミングTM1を特定したときに、次のタイミングTM2の特定を待たずに、被験者200に、期間PT11の関連情報を提供してもよい。
 <提供される情報が対応する期間>
 上記のような部分が対応する期間は、特定されたタイミングの前後の一定時間を含む期間である必要はない。すなわち、上記のような部分が対応する期間は、特定されたタイミングの前後の一定期間であってもよいし、特定されたタイミングおよびその直前の一定期間であってもよいし、特定されたタイミングのみであってもよい。これにより、たとえば、生体情報(1)が所与の閾値に到達したタイミングが特定されると、当該タイミングの前後一定時間の期間の映像、当該タイミングとその直前の一定期間の映像、または、当該タイミングの画像が、被験者200に提供される。
 <「タイミング」の特定方法と生体情報の種類>
 コンピュータ90は、生体情報の検出値または動画解析指標の値が所与の閾値に到達したことの代わりに、または所与の閾値に到達したことに加えて、生体情報の検出値または動画解析指標の値が飽和していること(所与の時間以上、変化量が所与の値以下であること)によっても、上記のようなタイミングを特定してもよい。この意味において、生体情報の検出値および動画解析指標の値のそれぞれは、生体情報の特徴量の一例である。また、値が飽和していることは、値が所与の範囲に維持されていることの一例である。
 なお、上述の「閾値に到達したこと」は、閾値の下方から到達したこと、および、閾値の上方から到達したこと(閾値に向けて下降したこと)のいずれであってもよい。
 図5の例では、生体情報の特徴量の具体例として、頬近傍の筋肉の筋電位信号、眉近傍の筋肉の筋電位信号、および、被験者200を撮影した画像から特定される動画解析指標が示されている。なお、生体情報の特徴量は、被験者200の血圧値、脳波、心電位、呼吸数、および/または心拍数などの、他の種類の情報であってもよい。たとえば、脳波については、被験者の脳波のパターンと予め定められた波形のパターンとの一致率が、特徴量の一例とされてもよい。すなわち、被験者200の状態(感情など)を反映する情報であれば、いかなる情報も生体情報の特徴量として利用され得る。そして、評価システム100において、コンピュータ90は、生体情報に基づくタイミングの特定だけでなく、被験者200または観測者300によるボタン操作に基づくタイミングの特定も実行するように構成されている。これにより、コンピュータ90は、被験者200または観測者300がフィードバックの補助となりそうであると判断したタイミングに対応する情報も、被験者200に提供できる。
 <関連情報(タスクに関連する情報)>
 関連情報として取得される情報は、タスクが実行される空間の雰囲気の情報であってもよい。当該空間の雰囲気の情報は、たとえば、カメラ210によって撮影される画像(映像)、マイク220によって取得される音声、および/または、においセンサ230によって取得される空気の組成を特定する情報である。なお、上記空間の雰囲気の情報として、カメラ210は、被験者200の視野画像を撮影してもよい。この場合、カメラ210は、被験者200の視野を撮影するために、被験者200の頭部に装着される。
 <関連情報の取得の態様>
 関連情報は、連続的に取得されてもよいし、一定時間ごとまたは所与のイベントが発生するたびに取得されてもよい。一例では、関連情報として、カメラ210は、タスクの実行中に継続して動画を撮影してもよい。他の例では、関連情報として、カメラ210は、タスクの実行中の一定時間ごとに画像(写真)を撮影してもよい。さらに他の例では、関連情報として、カメラ210は、被験者200がボタン241を操作するたびに、および/または、観測者300がボタン251を操作するたびに、画像(写真)を撮影してもよい。
 <関連情報の部分として提供される情報>
 関連情報の部分(期間PT11~17に対応する部分)として提供される情報は、上述した関連情報のそのものの一部であってもよいし、関連情報の一部から特定される情報に基づいて再現される情報であってもよい。すなわち、被験者200に提供される情報は、関連情報に基づいて二次的に生成される情報であってもよい。たとえば、関連情報が画像である場合、特定されたタイミングの画像に「桃」が含まれることが特定されたとき、被験者200に、当該タイミングに対応する情報として、当該「桃」を含む画像そのものが提供されてもよいし、「桃」を表す音声が提供されてもよいし、「桃」に対応するように予め定められた組成の空気(匂い)が提供されてもよいし、「桃」に対応するように予め定められた組成の味が提供されてもよいし、「桃」に対応するように予め定められた感触が提供されてもよい。
 <タスク>
 評価システム100では、被験者200は、タスクを実行し、当該タスクについてのフィードバックを入力する。コンピュータ90は、被験者200からのフィードバックを取得する。被験者200が実行するタスクは、図1を参照して説明したような棚を作るタスクに限定されず、いかなる種類のものであってもよい。
 タスクの他の例は、被験者200がテレビゲームをプレイするタスクである。被験者200がタスクとしてテレビゲームをプレイする場合、関連情報の一例としての被験者200の視野画像は、カメラ210で撮影される代わりに、テレビゲームの画像であってもよい。テレビゲームの画像は、ゲームの進行状況によって特定される場合もある。したがって、コンピュータ90は、生体情報が所与の条件を満たしたタイミングに対応する関連情報として、そのようなタイミングの画像そのものの代わりに、ゲームの進行状況を取得してもよい。
 コンピュータ90は、図7等を参照して後述される入力用画面を生成する場合、当該ゲームの進行状況に基づいて画面を再構築してもよい。そして、コンピュータ90は、再構築した画面を、入力用画面に組み込むことによって被験者200に提供してもよい。
 [処理の流れ]
 図6は、タスクを実行する被験者200からフィードバックを取得するために、コンピュータ90が実施する処理のフローチャートである。コンピュータ90は、たとえば、当該コンピュータ90に被験者200がタスクを開始することの通知が入力されたことに応じて、図6の処理を開始する。一実現例では、コンピュータ90において、プロセッサ95が所与のプログラムを実行することによって、図6の処理が実施される。プログラムは、メモリ96に非一時的に格納されていてもよい。
 ステップS10にて、コンピュータ90は、関連情報の取得を開始する。一実現例では、コンピュータ90は、カメラ210に録画の開始を指示する。
 ステップS12にて、コンピュータ90は、生体情報を取得する。一実現例では、コンピュータ90は、ユーザデバイス10に、センサユニット1が取得する筋電位信号の送信を要求する。ユーザデバイス10は、当該要求に応じて、コンピュータ90に筋電位信号を送信する。
 ステップS14にて、コンピュータ90は、特定状態が発生しているか否かを判断する。特定状態とは、図5において、生体情報(1)について特定されたタイミングTM13またはTM15のような、生体情報が所与の条件を満たした状態である。コンピュータ90は、特定状態が発生したと判断すると(ステップS14にてYES)、ステップS16へ制御を進め、そうでなければ(ステップS14にてNO)、ステップS12へ制御を戻す。
 ステップS16にて、コンピュータ90は、現在の時刻を、参照ポイントとしてメモリ96に登録する。現在の時刻の代わりに、タスクの開始からの経過時刻が登録されてもよい。
 ステップS18にて、コンピュータ90は、タスクが終了したか否かを判断する。一実現例では、タスクが終了すると、被験者200がボタン242を操作する。コンピュータ90は、ボタン242が操作されたことを検出すると、タスクが終了したと判断する。コンピュータ90は、タスクが終了したと判断すると(ステップS18にてYES)、ステップS20へ制御を進め、そうでなければ(ステップS18にてNO)、ステップS12へ制御を戻す。
 ステップS20にて、コンピュータ90は、ステップS10において開始した関連情報の取得を終了する。一実現例では、コンピュータ90は、カメラ210に撮影の停止を指示する。
 ステップS22にて、コンピュータ90は、入力用画面を生成する。入力用画面は、フィードバックの入力のために被験者200に提供される画面である。
 図7は、入力用画面の一例を示す図である。画面700は、枠710、キー711、枠721~725、および枠730を含む。
 枠710は、メッセージ「今回の体験中に撮影された映像です。これらを参照して頂きながら、今回の体験の感想をご記入ください。」を含む。「今回の体験中に撮影された映像」は、後述する枠721~725のそれぞれに表示される動画を指し示す。すなわち、枠710内のメッセージは、被験者200に対して、フィードバックの入力において提供される映像の参照を促すメッセージの一例である。コンピュータ90は、上記メッセージを枠710にはめ込むことにより、入力用画面を生成する。なお、提供される映像は、タスクの実行中に取得された関連情報のうち、図5を参照して説明された「タイミング」に対応する部分の一例である。
 キー711は、後述する枠730内に入力された情報をコンピュータ90へ送信するために操作される。
 枠721~725のそれぞれは、動画を表示する。表示される動画は、タスクの実行中に取得された動画(関連情報の一例)のうち、図5を参照して説明された「タイミング」に対応する部分である。当該「タイミング」は、図6の処理では「参照ポイント」として取得される。枠721~725のそれぞれでは、タッチ操作に応じて動画の再生が開始される。
 コンピュータ90は、タスクの実行中に取得された動画(関連情報の一例)から、上記「タイミング」のそれぞれに対応する部分を切り出すことにより、当該「タイミング」に対応する「部分」として提供されるコンテンツを生成する。そして、コンピュータ90は、生成されたコンテンツのそれぞれを、枠721~725のそれぞれにはめ込むことにより、入力用画面を生成する。
 なお、入力用画面に含まれる、動画等の関連情報を表示するための枠の数は、図7に示された「5」に限定されない。一実現例では、枠の数は、タスクの実行中に特定された「タイミング」の数である。
 枠730は、被験者200からのフィードバックの入力を受け付ける。
 図6に戻って、コンピュータ90は、ステップS22において入力用画面を生成すると、ステップS24にて、入力用画面を被験者200に向けて送信する。入力用画面には、上述のように、関連情報のうち図5を参照して説明された「タイミング」に対応する部分が組み込まれる。この意味において、コンピュータ90は、入力用画面を被験者200に向けて送信することにより、上記部分を被験者200に提供する。
 一実現例では、コンピュータ90は、タスクの開始時に、被験者200を特定する情報とともに、被験者200のメールアドレスを取得する。コンピュータ90は、ステップS24にて、当該メールアドレスに、上記のように生成された入力用画面を含むメールを送信する。被験者200は、スマートフォン290(図2)で、当該メールを受信する。これにより、被験者200は、入力用画面をスマートフォン290で閲覧する。なお、ここで説明された内容は、被験者200への入力用画面の送信の単なる一態様である。入力用画面は、いかなる態様でも、被験者200に向けて送信され得る。
 ステップS26にて、コンピュータ90は、被験者200からのフィードバックを取得する。一実現例では、被験者200が、スマートフォン290に表示された画面700の枠730にフィードバックをテキストで入力した後、キー711を操作する。これに応じて、スマートフォン290は、枠730に入力されたテキストをコンピュータ90へ送信する。コンピュータ90は、このように送信されたテキストを受信することにより、フィードバックを取得する。
 ステップS28にて、コンピュータ90は、取得したフィードバックをメモリ96に登録する。その後、コンピュータ90は、図6の処理を終了させる。
 以上説明された処理により、コンピュータ90は、タスクの実行中に取得された関連情報のうち、被験者200の生体情報を利用して特定されたタイミングに対応する部分を被験者200に提供する。被験者200は、当該部分を参照しながら、タスクに関するフィードバックを入力し、当該フィードバックをコンピュータ90へ送信する。これにより、コンピュータ90は、タスクに関する被験者200からのフィードバックを取得する。
 図6の処理によれば、被験者200は、タスクに関する情報(関連情報)のうち、当該被験者200の生体情報が所与の条件を満たしたタイミングに対応する部分を提供された上で、フィードバックを入力できる。これにより、被験者200は、上記タイミングにおける当該被験者200自身の状態をより具体的に思い出すことができる。したがって、コンピュータ90は、被験者200から、より具体的なフィードバックを取得でき、また、取得されるフィードバックは高い精度で被験者の真の感想を反映する。
 [変形例]
 <関連情報の「部分」をタスクの終了を待たずに提供すること>
 図6の処理では、枠721~725を含む画面700がタスクの終了後に被験者200に提供される。枠721~725のそれぞれは、タスクの実行中に取得された動画(関連情報の一例)のうち、図5を参照して説明された「タイミング」に対応する部分を表示する。すなわち、図6の処理では、2以上の部分が、タスクの終了後に一括して被験者200に提供される。
 これに対し、2以上の部分のそれぞれは、タスクの終了を待たずに被験者200に提供されてもよい。たとえば、コンピュータ90は、上記の「タイミング」を特定すると、関連情報から当該「タイミング」に対応する部分を抽出し、タスクの終了を待たずに被験者200に送信する。これにより、被験者200は、タスクの実行中でも当該被験者200の生体情報が所与の条件を満たしたときの状況を意識しながらタスクを続行でき、フィードバックとして入力するべき内容を容易に出力できるようになることが期待される。
 <1つの入力用画面に含まれる、関連情報の「部分」の数>
 図7の画面700は、5個の枠721~725として、複数のタイミングのそれぞれに対応する複数の部分を、一括して、被験者200に提供する。なお、入力用画面は、複数のタイミングのそれぞれに対応する複数の部分を一つずつ被験者200に提示してもよく、そして、一つの部分に対して一つのフィードバック入力用の枠を表示してもよい。つまり、あるタスクについて、5個の部分が被験者200に提供される場合、入力用画面として5個の画面が提供される。5個の入力用画面の各々は、上記部分を表示するための1つの枠と、当該部分を参照しながらフィードバックを入力するための一つの枠とを含む。
 <被験者の状態の出力>
 入力用画面の生成において、コンピュータ90は、被験者200に提供される上記「部分」の内容を解析することによって被験者200の状態を特定し、特定された状態を入力用画面に含めても良い。
 図8は、入力用画面の他の例を示す図である。画面800は、図7の画面700と同様に、枠730およびキー711を含む。
 画面800は、画面700の枠710の代わりに、枠810を含む。枠810に表示されたメッセージは、枠710に表示されたメッセージに加えて、フレーズ「各時点の状態の程度を入力して(ください。)」を含む。このフレーズは、被験者200に対して、後述する枠840,850に表示される動画が撮影されたタイミングでの、被験者200の状態の程度の入力を促す。
 画面800は、枠840,850を含む。枠840,850のそれぞれは、図7の枠721~725のそれぞれと同様に、動画を表示する。表示される動画は、タスクの実行中に取得された動画(関連情報の一例)のうち、図5を参照して説明された「タイミング」に対応する部分である。
 画面800は、欄841,851を含む。欄841,851のそれぞれは、枠840,850のそれぞれに表示される動画から特定された被験者200の状態を表示する。一実現例では、コンピュータ90は、枠840に表示される動画から特定のフレーム(最初に表示されるフレーム、中間時点で表示されるフレーム、など)を抽出し、当該フレームの画像から顔領域を特定し、特定された顔領域の画像を解析することにより、顔画像に対応する感情を特定する。そして、コンピュータ90は、特定された感情を、被験者200の状態として欄841に埋め込む。コンピュータ90は、同様に、枠850から被験者200の感情を特定し、被験者200の状態として欄851に埋め込む。
 画面800は、欄842,843を含む。欄842は、欄841に表示された状態の程度を入力するための欄である。欄843は、プルダウンメニューであり、欄842に入力される程度の候補を表示する。図8の例では、欄841は、状態「つらい」を表示する。欄843は、状態「つらい」の程度として3つの候補「かなりつらかった」「少しつらかった」「つらくなかった」を表示する。被験者200は、欄843に表示された候補から1つを選択する。選択された候補が、欄842に入力される。
 画面800は、欄852,853を含む。欄852は、欄851に表示された状態の程度を入力するための欄である。欄853は、プルダウンメニューであり、欄852に入力される程度の候補を表示する。図8の例では、欄851は、状態「楽しい」を表示する。欄853は、状態「楽しい」の程度として3つの候補「とても楽しかった」「少し楽しかった」「楽しくなかった」を表示する。被験者200は、欄853に表示された候補から1つを選択する。選択された候補が、欄852に入力される。
 画面800においてキー711が送信されることにより、枠730に入力されたテキストに加えて、欄842,852に入力された状態の程度が、コンピュータ90へ送信される。これにより、ステップS26にて、コンピュータ90は、枠730に入力されたテキストに加えて、欄842,852に入力された状態の程度を、フィードバックとして取得する。
 上述の実施形態では、1つのコンピュータ90により各ステップを実施する例を説明した。本発明はこれに限定されることなく、互いに通信可能に接続された複数のコンピュータにより、各ステップを異なるコンピュータが実施するようにしてもよい。
 [態様]
 上述した複数の例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
 (第1項) 一態様に係る評価方法は、被被験者が実行するタスクに関する情報を取得するステップと、前記タスクを実行する被験者の生体情報を経時的に取得するステップと、前記生体情報が予め定められた条件を満たしたタイミングを特定するステップと、前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力するステップと、前記被験者から、前記タスクに関するフィードバックの入力を受け付けるステップと、を備えていてもよい。
 第1項に記載の評価方法によれば、被験者の反応の評価において、被験者からのより具体的なフィードバックが取得される。
 (第2項) 第1項に記載の評価方法において、前記生体情報は、前記被験者の表情筋の筋電位信号、前記被験者の血圧値、前記被験者の脳波、前記被験者の心電位、前記被験者の呼吸数、前記被験者の心拍数、および、前記被験者を含む画像から特定される指標、のうち少なくとも1つを含んでいてもよい。
 第2項に記載の評価方法によれば、生体情報において、被験者の状態が正確に反映される。
 (第3項) 第1項または第2項に記載の評価方法において、前記予め定められた条件は、前記生体情報における特徴量が所与の閾値に到達したこと、および、前記生体情報における特徴量の変化量が所与の値以下である状態が所定時間以上継続すること、のうち少なくとも1つを含んでいてもよい。
 第3項に記載の評価方法によれば、生体情報の特徴量が予め定められた条件を満たしたか否かが容易に特定される。
 (第4項) 第1項~第3項のいずれか1項に記載の評価方法において、前記予め定められた条件は、前記生体情報における特徴量が、所与の時間以上、所与の範囲に維持されることを含んでいてもよい。
 第4項に記載の評価方法によれば、生体情報の特徴量が予め定められた条件を満たしたか否かが容易に特定される。
 (第5項) 第1項~第4項のいずれか1項に記載の評価方法において、前記被験者がタスクを実行する間に、前記被験者および前記被験者を観測する観測者の少なくとも一方から、マーカの入力を受け付けるステップをさらに含み、前記出力するステップは、前記タスクに関する情報のうち、前記マーカが付された時点に対応する部分を提供することを含んでいてもよい。
 第5項に記載の評価方法によれば、被験者または観察者が所望するタイミングに対応する部分についても、被験者に情報が提供され得る。
 (第6項) 一態様に係る評価方法は、被験者が実行するタスクに関する情報を取得するステップと、前記タスクを実行する被験者および当該被験者を観測する観測者の少なくとも一方から、前記被験者がタスクを実行する間に、マーカの入力を受け付けたタイミングを特定するステップと、前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力するステップと、前記被験者から、前記タスクに関するフィードバックの入力を受け付けるステップと、を備えてもよい。
 第6項に記載の評価方法によれば、被験者の反応の評価において、被験者からのより具体的なフィードバックが取得される。
 (第7項) 第1項~第6項のいずれか1項に記載の評価方法において、前記タスクに関する情報は、前記タスクが実行される空間の雰囲気の情報、および、前記タスクにおいて前記被験者に提供されたコンテンツの情報、のうち少なくとも1つを含んでいてもよい。
 第7項に記載の評価方法によれば、タスクに関する情報において、被験者の状態が正確に反映される。
 (第8項) 第7項に記載の評価方法において、前記タスクに関する情報は、前記空間の雰囲気の情報を含み、前記空間の雰囲気の情報は、前記タスクが実行される空間の撮像画像、前記タスクが実行される空間の音声の録音、および、前記タスクが実行される空間の匂いのうち少なくとも1つを含んでいてもよい。
 第8項に記載の評価方法によれば、タスクに関する情報において、被験者の状態がより正確に反映される。
 (第9項) 第7項に記載の評価方法において、前記タスクに関する情報は、前記空間の雰囲気の情報を含み、前記空間の雰囲気の情報は、前記空間の撮像画像を含み、前記空間の撮像画像は、前記タスクを実行する被験者を含む画像、および、前記タスクを実行する被験者の視線画像、のうち少なくとも一つを含んでいてもよい。
 第9項に記載の評価方法によれば、タスクに関する情報において、被験者の状態がさらに正確に反映される。
 (第10項) 第7項~第9項のいずれか1項に記載の評価方法において、前記タスクに関する情報は、前記コンテンツの情報を含み、出力される前記部分は、画像、音声、匂い、感触、および味のうち少なくとも1つを含んでいてもよい。
 第10項に記載の評価方法によれば、被験者に、具体的なフィードバックを入力するために有用な情報が提供される。
 (第11項) 第1項~第10項のいずれか1項に記載の評価方法において、前記取得するステップは、前記タスクに関する情報を、前記タスクの実行中に一定時間ごとに取得することを含んでいてもよい。
 第11項に記載の評価方法によれば、タスクに関する情報の取得において取り扱われるデータの量が最小限に抑えられる。
 (第12項) 第1項~第11項に記載の評価方法において、出力される前記部分は、前記タイミングおよび前記タイミングの前後の所与の期間に対応してもよい。
 第12項に記載の評価方法によれば、被験者に、上記タイミングにおける状況を思い出させるための詳細な情報が提供され得る。
 (第13項) 第1項~第12項のいずれか1項に記載の評価方法において、前記出力するステップは、前記部分を、前記タスクの終了後に提供することを含んでいてもよい。
 第13項に記載の評価方法によれば、タスクの終了後でも、被験者に、タスク実行中の状況を思い出させることができる。
 (第14項) 第1項~第13項のいずれか1項に記載の評価方法において、前記出力するステップは、前記部分を、前記タスクの終了を待つことなく、前記タイミングが特定されたことに応じて提供することを含んでいてもよい。
 第14項に記載の評価方法によれば、より確実に、被験者に上記タイミングにおける当該被験者の状態を思い出させることができる。
 (第15項) 第1項~第14項のいずれか1項に記載の評価方法において、前記出力するステップは、出力される前記部分を解析することにより、前記被験者の状態を特定することと、前記被験者の状態を出力することと、を含んでいてもよい。
 第15項に記載の評価方法によれば、被験者に、当該被験者に関するより具体的な情報が提供される。
 (第16項) 第15項に記載の評価方法において、前記出力するステップは、前記被験者の状態の程度の入力を促す情報を出力することを含み、前記受け付けるステップは、前記被験者の状態の程度の入力を取得することを含んでいてもよい。
 第16項に記載の評価方法によれば、評価方法を実施するコンピュータにおいて、被験者の状態の程度が管理され得る。
 (第17項) 第1項~第16項に記載の評価方法において、前記出力するステップは、前記タイミングとして、第1のタイミングと第2のタイミングとが特定された場合に、前記第1のタイミングに対応する部分とともに、前記第2のタイミングに対応する部分を提供することを含んでいてもよい。
 第17項に記載の評価方法によれば、被験者に、包括的に情報が提供され得る。
 (第18項) 第1項~第17項のいずれか1項に記載の評価方法において、前記出力するステップは、前記タイミングとして、第1のタイミングと第2のタイミングとが特定された場合に、前記第1のタイミングに対応する部分を提供した後に、前記第2のタイミングに対応する部分を提供することを含んでいてもよい。
 第18項に記載の評価方法によれば、被験者に、第1のタイミングと第2のタイミングに関する情報が個別に提供される。
 (第19項) 第1項~第18項のいずれか1項に記載の評価方法において、前記出力するステップは、前記被験者に、フィードバックの入力において出力される前記部分の参照を促すメッセージを出力することを含んでいてもよい。
 第19項に記載の評価方法によれば、被験者に確実に上記部分の情報を参照させることができる。
 (第20項) 一態様に係る評価用装置は、タスクを実行する被験者の、前記タスクに関する情報および生体情報を取得するためのインターフェースと、前記生体情報における特徴量に関する条件と特定する情報を格納するメモリと、前記生体情報における特徴量が前記条件を満たしたタイミングを特定するためのプロセッサと、を備え、前記プロセッサは、前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力し、前記タスクに関するフィードバックの入力を受け付けてもよい。
 第20項に記載の評価用装置によれば、被験者の反応の評価において、被験者からのより具体的なフィードバックが取得される。
 (第21項) 一態様に係る評価用装置は、タスクを実行する被験者の、前記タスクに関する情報および生体情報を取得するためのインターフェースと、前記タスクを実行する被験者および当該被験者を観測する観測者の少なくとも一方から、前記被験者がタスクを実行する間に、マーカの入力を受け付けたタイミングを特定するためのプロセッサと、を備え、前記プロセッサは、前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力し、前記タスクに関するフィードバックの入力を受け付けてもよい。
 第21項に記載の評価用装置によれば、被験者の反応の評価において、被験者からのより具体的なフィードバックが取得される。
 (第22項) 一態様に係るプログラムは、コンピュータによって実行されることにより、前記コンピュータに、被験者が実行するタスクに関する情報を取得するステップと、前記被験者の生体情報を取得するステップと、前記生体情報が予め定められた条件を満たしたタイミングを特定するステップと、前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力するステップと、前記タスクに関するフィードバックの入力を受け付けるステップと、を実行させてもよい。
 第22項に記載のプログラムによれば、被験者の反応の評価において、被験者からのより具体的なフィードバックが取得される。
 (第23項) 一態様に係るプログラムは、コンピュータによって実行されることにより、前記コンピュータに、被験者が実行するタスクに関する情報を取得するステップと、前記タスクを実行する被験者および当該被験者を観測する観測者の少なくとも一方から、前記被験者がタスクを実行する間に、マーカの入力を受け付けたタイミングを特定するステップと、前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力するステップと、前記被験者から、前記タスクに関するフィードバックの入力を受け付けるステップと、を実行させてもよい。
 第23項に記載のプログラムによれば、被験者の反応の評価において、被験者からのより具体的なフィードバックが取得される。
 今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した実施の形態の説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。また、実施の形態中の各技術は、単独でも、また、必要に応じて実施の形態中の他の技術と可能な限り組み合わされても、実施され得ることが意図される。
 1 センサユニット、3,91 コントローラ、4,92 通信モジュール、5 バッテリ、6 筐体、10 ユーザデバイス、11 第1筋電位センサ、12 第2筋電位センサ、21 スピーカ、22 ディスプレイ、23 コンテンツ提供装置、31,95 プロセッサ、32,96 メモリ、33,97 入出力ポート、90 コンピュータ、100 評価システム、111,121 作用電極、112,122 参照電極、151,152,171,172 パッド、200 被験者、210 カメラ、220 マイク、230 においセンサ、240,250 ボタンユニット、241,242,251,252 ボタン、290 スマートフォン、300 観測者、700,800 画面、710,721,725,730,810,840,850 枠、711 キー、841,842,843,851,852,853 欄。

Claims (23)

  1.  被験者が実行するタスクに関する情報を取得するステップと、
     前記タスクを実行する被験者の生体情報を経時的に取得するステップと、
     前記生体情報が予め定められた条件を満たしたタイミングを特定するステップと、
     前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力するステップと、
     前記被験者から、前記タスクに関するフィードバックの入力を受け付けるステップと、を備える、評価方法。
  2.  前記生体情報は、
      前記被験者の表情筋の筋電位信号、
      前記被験者の血圧値、
      前記被験者の脳波、
      前記被験者の心電位、
      前記被験者の呼吸数、
      前記被験者の心拍数、および、
      前記被験者を含む画像から特定される指標、
    のうち少なくとも1つを含む、請求項1に記載の評価方法。
  3.  前記予め定められた条件は、
      前記生体情報における特徴量が所与の閾値に到達したこと、および、
      前記生体情報における特徴量の変化量が所与の値以下である状態が所定時間以上継続すること、のうち少なくとも1つを含む、請求項1に記載の評価方法。
  4.  前記予め定められた条件は、前記生体情報における特徴量が、所与の時間以上、所与の範囲に維持されることを含む、請求項1に記載の評価方法。
  5.  前記被験者がタスクを実行する間に、前記被験者および前記被験者を観測する観測者の少なくとも一方から、マーカの入力を受け付けるステップをさらに含み、
     前記出力するステップは、前記タスクに関する情報のうち、前記マーカが付された時点に対応する部分を提供することを含む、請求項1に記載の評価方法。
  6.  被験者が実行するタスクに関する情報を取得するステップと、
     前記タスクを実行する被験者および当該被験者を観測する観測者の少なくとも一方から、前記被験者がタスクを実行する間に、マーカの入力を受け付けたタイミングを特定するステップと、
     前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力するステップと、
     前記被験者から、前記タスクに関するフィードバックの入力を受け付けるステップと、を備える、評価方法。
  7.  前記タスクに関する情報は、
      前記タスクが実行される空間の雰囲気の情報、および、
      前記タスクにおいて前記被験者に提供されたコンテンツの情報、
    のうち少なくとも1つを含む、請求項1に記載の評価方法。
  8.  前記タスクに関する情報は、前記空間の雰囲気の情報を含み、
     前記空間の雰囲気の情報は、
      前記タスクが実行される空間の撮像画像、
      前記タスクが実行される空間の音声の録音、および、
      前記タスクが実行される空間の匂い、
    のうち少なくとも1つを含む、請求項7に記載の評価方法。
  9.  前記タスクに関する情報は、前記空間の雰囲気の情報を含み、
     前記空間の雰囲気の情報は、前記空間の撮像画像を含み、
     前記空間の撮像画像は、
      前記タスクを実行する被験者を含む画像、および、
      前記タスクを実行する被験者の視線画像、
    のうち少なくとも一つを含む、請求項7に記載の評価方法。
  10.  前記タスクに関する情報は、前記コンテンツの情報を含み、
     出力される前記部分は、画像、音声、匂い、感触、および味のうち少なくとも1つを含む、請求項7に記載の評価方法。
  11.  前記取得するステップは、前記タスクに関する情報を、前記タスクの実行中に一定時間ごとに取得することを含む、請求項1に記載の評価方法。
  12.  出力される前記部分は、前記タイミングおよび前記タイミングの前後の所与の期間に対応する、請求項1に記載の評価方法。
  13.  前記出力するステップは、前記部分を、前記タスクの終了後に出力することを含む、請求項1に記載の評価方法。
  14.  前記出力するステップは、前記部分を、前記タスクの終了を待つことなく、前記タイミングが特定されたことに応じて出力することを含む、請求項1に記載の評価方法。
  15.  前記出力するステップは、
      出力される前記部分を解析することにより、前記被験者の状態を特定することと、
      前記被験者の状態を出力することと、を含む、請求項1に記載の評価方法。
  16.  前記出力するステップは、
      前記被験者の状態の程度の入力を促す情報を出力することを含み、
     前記受け付けるステップは、
      前記被験者の状態の程度の入力を取得することを含む、請求項15に記載の評価方法。
  17.  前記出力するステップは、前記タイミングとして、第1のタイミングと第2のタイミングとが特定された場合に、前記第1のタイミングに対応する部分とともに、前記第2のタイミングに対応する部分を提供することを含む、請求項1に記載の評価方法。
  18.  前記出力するステップは、前記タイミングとして、第1のタイミングと第2のタイミングとが特定された場合に、前記第1のタイミングに対応する部分を出力した後に、前記第2のタイミングに対応する部分を提供することを含む、請求項1に記載の評価方法。
  19.  前記出力するステップは、前記被験者に、フィードバックの入力において出力される前記部分の参照を促すメッセージを出力することを含む、請求項1に記載の評価方法。
  20.  タスクを実行する被験者の、前記タスクに関する情報および生体情報を取得するためのインターフェースと、
     前記生体情報における特徴量に関する条件と特定する情報を格納するメモリと、
     前記生体情報における特徴量が前記条件を満たしたタイミングを特定するためのプロセッサと、を備え、
     前記プロセッサは、
      前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力し、
      前記タスクに関するフィードバックの入力を受け付ける、評価用装置。
  21.  タスクを実行する被験者の、前記タスクに関する情報および生体情報を取得するためのインターフェースと、
     前記タスクを実行する被験者および当該被験者を観測する観測者の少なくとも一方から、前記被験者がタスクを実行する間に、マーカの入力を受け付けたタイミングを特定するためのプロセッサと、を備え、
     前記プロセッサは、
      前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力し、
      前記タスクに関するフィードバックの入力を受け付ける、評価用装置。
  22.  コンピュータによって実行されることにより、前記コンピュータに、
      被験者が実行するタスクに関する情報を取得するステップと、
      前記被験者の生体情報を取得するステップと、
     前記生体情報が予め定められた条件を満たしたタイミングを特定するステップと、
      前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力するステップと、
      前記タスクに関するフィードバックの入力を受け付けるステップと、を実行させる、プログラム。
  23.  コンピュータによって実行されることにより、前記コンピュータに、
      被験者が実行するタスクに関する情報を取得するステップと、
      前記タスクを実行する被験者および当該被験者を観測する観測者の少なくとも一方から、前記被験者がタスクを実行する間に、マーカの入力を受け付けたタイミングを特定するステップと、
      前記タスクに関する情報のうち、特定された前記タイミングに対応する部分を出力するステップと、
      前記被験者から、前記タスクに関するフィードバックの入力を受け付けるステップと、を実行させる、プログラム。
PCT/JP2023/000831 2022-03-31 2023-01-13 評価方法、評価用装置、およびプログラム WO2023188698A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022059709 2022-03-31
JP2022-059709 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023188698A1 true WO2023188698A1 (ja) 2023-10-05

Family

ID=88200223

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/000831 WO2023188698A1 (ja) 2022-03-31 2023-01-13 評価方法、評価用装置、およびプログラム

Country Status (1)

Country Link
WO (1) WO2023188698A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079533A (ja) * 2004-09-13 2006-03-23 Fuji Xerox Co Ltd 情報処理装置及び情報処理方法、並びにコンピュータ・プログラム
JP2007272570A (ja) * 2006-03-31 2007-10-18 Otaru Univ Of Commerce ユーザビリティ評価実験ロギングシステム、方法及びプログラム
JP2014006639A (ja) * 2012-06-22 2014-01-16 Olympus Corp コンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079533A (ja) * 2004-09-13 2006-03-23 Fuji Xerox Co Ltd 情報処理装置及び情報処理方法、並びにコンピュータ・プログラム
JP2007272570A (ja) * 2006-03-31 2007-10-18 Otaru Univ Of Commerce ユーザビリティ評価実験ロギングシステム、方法及びプログラム
JP2014006639A (ja) * 2012-06-22 2014-01-16 Olympus Corp コンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラム

Similar Documents

Publication Publication Date Title
US11202594B2 (en) Stimulus information compiling method and system for tests
US10475351B2 (en) Systems, computer medium and methods for management training systems
CN101932988B (zh) 调整脑波信号识别方法的装置、方法以及程序
JP5958825B2 (ja) 感性評価システム、感性評価方法、およびプログラム
GB2399194A (en) Determining user dissatisfaction by monitoring biometric information
US11417045B2 (en) Dialog-based testing using avatar virtual assistant
WO2018088187A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JPWO2018042799A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2005001677A1 (ja) サービス提供装置
US7363226B2 (en) Psychosomatic diagnosis system
WO2019146405A1 (ja) 表情解析技術を用いた商品に対するモニタの反応を評価するための情報処理装置、情報処理システム、プログラム
JP3764663B2 (ja) 心身診断システム
WO2023188698A1 (ja) 評価方法、評価用装置、およびプログラム
EP3340240B1 (en) Information processing device, information processing method, and program
JP2014197373A (ja) インターネットアンケートシステム、コンピュータプログラム
JP5811674B2 (ja) アンケートシステム
JP7048893B2 (ja) 学習装置、学習方法及びコンピュータプログラム
KR20200065834A (ko) 신체 반응 정보를 포함한 다중정보를 통해 가상현실 사용자의 상태분석 및 피드백 시스템, 맞춤형 콘텐츠 제공의 방법
JP6721818B2 (ja) 瞳孔径拡大による脳活動量判定装置およびプログラム
WO2023075746A1 (en) Detecting emotional state of a user
CN115397331A (zh) 控制装置和控制方法
Suchalova et al. The Research on Controlling Virtual Reality by EEG Sensor
EP4353152A1 (en) Medical image acquisition unit assistance apparatus
EP4318320A1 (en) Model generation method, computer program, information processing device, information processing system, information processing method, and method for generating training data
KR102361994B1 (ko) 배틀 게임 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23778737

Country of ref document: EP

Kind code of ref document: A1