WO2020032400A1 - Method for determining emotion of user and device therefor - Google Patents

Method for determining emotion of user and device therefor Download PDF

Info

Publication number
WO2020032400A1
WO2020032400A1 PCT/KR2019/008400 KR2019008400W WO2020032400A1 WO 2020032400 A1 WO2020032400 A1 WO 2020032400A1 KR 2019008400 W KR2019008400 W KR 2019008400W WO 2020032400 A1 WO2020032400 A1 WO 2020032400A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
data
visual object
emotion
brain wave
Prior art date
Application number
PCT/KR2019/008400
Other languages
French (fr)
Korean (ko)
Inventor
남재현
조안나
최태준
Original Assignee
주식회사 룩시드랩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 룩시드랩스 filed Critical 주식회사 룩시드랩스
Publication of WO2020032400A1 publication Critical patent/WO2020032400A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/378Visual stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Definitions

  • the present invention relates to a method for determining an emotion of a user and an apparatus therefor.
  • a head-mounted display (HMD) device (hereinafter, referred to as an 'HMD device') is formed in a structure that can be worn on a user's head so that the user can experience a spatial and temporal experience similar to the reality.
  • a display device that provides an image about virtual reality (VR), augmented reality (AR), or mixed reality (MR).
  • the HMD device is composed of a body formed in the form of goggles (goggle) to be worn on the user's eyes, and wearing portion formed in the form of a band to be connected to the body to fix the body to the user's head.
  • a display device is provided, a portable terminal device such as a smartphone is installed, or a display device connected to a PC such as a monitor is mounted. do.
  • the HMD device includes a biometric sensor for acquiring the biometric information of the user. While watching the video, signals such as EEG, gaze, electrocardiogram, safety, and EMG of the user may be acquired.
  • the electronic device connected to the HMD device may analyze the signal acquired from the biometric sensor to determine how the user feels while watching the image.
  • the brain waves of the user are acquired for each specific scene of the image watched by the user, and the acquired brain waves are analyzed. Since the emotion of the user is determined, it is difficult to predict in advance what emotion the user has with respect to the specific visual object gazed by the user.
  • the problem to be solved by the present invention is to provide a method and apparatus for determining the emotion of the user to solve the above problems.
  • the present invention is to provide a method and apparatus for determining the emotion of a user with respect to a particular visual object by using the user's gaze data and brain wave data.
  • the present invention provides a method and apparatus for determining the emotion of the user.
  • the method includes providing a first user interface comprising a first visual object via a Head-Mounted Display (HMD) device configured to obtain a user's first gaze data and first brain wave data; Acquiring first brain wave data of the user corresponding to the first visual object associated with the first gaze data through the HMD device; Determining the obtained first brain wave data as reference biometric information for determining the user emotion; Providing a second user interface comprising a second visual object via the HMD device; Acquiring second gaze data of the user with respect to the second visual object through the HMD device, and acquiring second brain wave data of the user corresponding to a second visual object associated with the acquired second gaze data; ; And generating emotion information about the second visual object based on the reference biometric information and the second brain wave data.
  • HMD Head-Mounted Display
  • the device provides a first user interface comprising a first visual object via a Head-Mounted Display (HMD) device configured to obtain a user's first gaze data and first brain wave data, and wherein the HMD Acquire first brain wave data of the user corresponding to the first visual object associated with the first gaze data through the device, and determine the obtained first brain wave data as reference biometric information for determining the user emotion; And providing a second user interface including a second visual object through the HMD device, and obtaining the second gaze data of the user with respect to the second visual object through the HMD device. Obtain second brainwave data of the user corresponding to a second visual object associated with the Generating emotion information about the second visual object based on the reference biometric information and the second brain wave data.
  • HMD Head-Mounted Display
  • the present invention generates emotion information about a specific visual object on which a user gazes by using reference biometric information determined based on the gaze data and brain wave data of the user, thereby making it possible for the user to gaze at various visual objects.
  • the emotion of the user can be predicted.
  • FIG. 1 is a schematic diagram illustrating an apparatus for determining a user emotion according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram illustrating an HMD device in which an image output device is mounted according to an embodiment of the present invention.
  • FIG. 3 is a schematic diagram illustrating an electronic device connected to an HMD device and an image output device according to an embodiment of the present invention.
  • FIG. 4 is a schematic diagram illustrating an HMD device having a display and an electronic device connected to the HMD device according to an embodiment of the present invention.
  • FIG. 5 is a schematic flowchart illustrating a method for generating emotion information of a user with respect to a specific visual object in a user emotion determination apparatus according to an embodiment of the present invention.
  • 6A, 6B, 6C, and 6D are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention.
  • FIGS. 7A and 7B are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determination apparatus according to an embodiment of the present invention.
  • 8A and 8B are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention.
  • FIG. 9 is an exemplary diagram for describing a method of generating emotion information indicating a user's emotion with respect to a specific visual object in a user emotion determination apparatus according to an embodiment of the present invention.
  • 10A and 10B are exemplary diagrams for describing a method for correcting reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention.
  • first, second, etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.
  • the apparatus for determining a user emotion is not limited, and may include any device configured to acquire a gaze of a user and obtain biometric information such as brain waves of the user.
  • the user emotion determination device may include a sensor for contacting / wearing a part of a user's body such as a head mounted display (HMD) device, a headset, a smart ring, a smart watch, an earset, an earphone, and obtaining a user's biometric information.
  • the image output device may output an image related to a device, a virtual reality, an augmented reality, or a mixed reality, and an electronic device managing the same.
  • the user emotion determining device may include the HMD device and the electronic device.
  • the biometric information may represent various signals generated from the user's body according to the user's conscious and / or unconscious (eg, breathing, heart rate, metabolism, etc.) behavior such as pulse, blood pressure, brain wave, and the like.
  • the user emotion determining apparatus may include an HMD device 100 and may include at least one of an image output device 200 and an electronic device 300.
  • the HMD device 100 includes a display
  • the image output device 200 may not be included.
  • the HMD device 100 is mounted on the user's head to provide the user with an image of virtual reality, augmented reality, or mixed reality so that the user can have a spatial and temporal experience that is similar to reality, and at the same time, the user's eyes and brain waves, etc. It may be a complex virtual experience device that can acquire physical information and sense physical, cognitive, and emotional changes of a user who is undergoing a virtual experience.
  • the HMD device 100 is formed in a structure that is wearable on a user's head, and the HMD device 100 is implemented to perform image processing for virtual reality, augmented reality, or mixed reality inside the HMD device 100 or the HMD device 100.
  • the image output device 200 providing an image related to the virtual reality, the augmented reality, or the mixed reality is mounted on a part of the), and the image output device 200 performs image processing for the virtual reality in the mounted image output device 200. Can be.
  • one side of the display may be disposed to face the user's face so that when the user wears the HMD device 100, the user may check an image about virtual reality, augmented reality, or mixed reality. Can be.
  • an accommodating space 101 may be formed in a portion of the HMD device 100 to accommodate the image output device 200.
  • one surface of the image output apparatus 200 (for example, one surface on which the display of the image output apparatus 200 is located) may be disposed to face the user's face.
  • the image output device 200 may include a portable terminal device such as a smartphone, a tablet PC, or the like, or a portable monitor capable of outputting an image provided from the PC by being connected to the PC.
  • One side of the HMD device 100 may be formed with at least one sensor (not shown) for acquiring gaze data and brain wave data of the user.
  • the at least one sensor may include a gaze tracking sensor for tracking the eyes of the user and an EEG sensor for measuring the brain waves of the user.
  • the at least one sensor is formed at a position where the user's eyes or face can be photographed or a position where the user's skin can be contacted, so that the user's eye or face is photographed when the user wears the HMD device 100.
  • the photographed image may be analyzed to acquire eye gaze data of the user or may be in contact with the skin of the user to measure electroencephalography (EEG) of the user to acquire brain wave data.
  • EEG electroencephalography
  • the HMD device 100 obtains the gaze data of the user and the brain wave data of the user according to a request of the image output device 200 or the electronic device 300, and obtains the obtained gaze data and the brain wave data from the image output device 100 or the like. It may transfer to the electronic device 300.
  • the first user interface including the first visual object to obtain the first gaze data and the first brain wave data of the user through the display of the HMD device 100.
  • the first visual object or the first user interface may be provided from the electronic device 300.
  • the first user interface is a user interface for rewarded content that provides a reward service for a specific behavior of a user in response to a first visual object, and the first visual object is used for rewarded content constituting the first user interface. It may include at least one or a combination of graphic objects, such as related text, images, icons, and the like.
  • the rewarded content may include advertisements, surveys, events, problem solving or games.
  • the first user interface may be a user interface for playing an advertisement, a user interface for a survey, a user interface for event participation, a user interface for problem solving, or a game play.
  • the first visual object may include an image representing an advertisement target included in a user interface for playing an advertisement, text representing a survey content included in a user interface for a survey, and event contents included in a user interface for event participation. It may be an image representing a text, an image, a game related character, an item, a background, etc. included in a user interface for game play.
  • the specific behavior of the user includes any one of various behaviors that satisfy the conditions for acquiring the reward data.
  • the specific behavior of the user may be gazing at an image corresponding to an advertisement target included in the user interface for a specific time, or participating in a survey or event. And obtaining certain items or scores in the game.
  • the HMD device 100 may obtain first brain wave data of the user for the first visual object associated with the first gaze data, and transmit the acquired first brain wave data to the electronic device 300. According to various embodiments of the present disclosure, the HMD device 100 collects and stores the first EEG data of the user for the first visual object associated with the first gaze data independently, such as without being connected to the electronic device 300. When connected to the 300, the stored first EEG data may be transmitted to the electronic device 300.
  • the HMD device 100 may display a second user interface including a second visual object to obtain second gaze data and second brain wave data of the user for generating emotion information of the user with respect to a specific visual object. I can display it.
  • the second visual object or the second user interface may be provided from the electronic device 300.
  • the HMD device 100 may obtain second gaze data of the user for the second visual object, and acquire second brain wave data of the user corresponding to the second visual object associated with the obtained second gaze data.
  • the HMD device 100 may transmit the acquired second brain wave data to the electronic device 300.
  • the HMD device 100 collects and stores second brain wave data of a user for a second visual object associated with second eye data independently, such as a state in which the electronic device 300 is not connected to the electronic device 300.
  • the stored second EEG data may be transmitted to the electronic device 300.
  • the HMD device 100 may display a third user interface including a plurality of visual objects on the display to improve the accuracy of the reference biometric information.
  • the plurality of visual objects or the third user interface may be provided from the electronic device 300.
  • the HMD device 100 may obtain third gaze data of the user, and obtain third brain wave data of the user corresponding to the third visual object associated with the third gaze data among the plurality of visual objects.
  • the HMD device 100 may transmit the acquired third brain wave data to the electronic device 300.
  • the HMD device 100 collects and stores the third brainwave data of the user for the third visual object associated with the third gaze data independently, such as when not connected to the electronic device 300. When connected to the 300, the stored third EEG data may be transmitted to the electronic device 300.
  • the image output apparatus 200 when the image output apparatus 200 is mounted on the HMD device 100, the image output apparatus 200 may display a first user interface including a first visual object through a display of the image output apparatus 200. I can display it.
  • the image output apparatus 200 obtains the first gaze data of the user for the first visual object through the HMD device 100, and the first brain wave of the user for the first visual object associated with the obtained first gaze data. Data may be obtained through the HMD device 100.
  • the image output device 200 may transmit the acquired first brain wave data to the electronic device 300.
  • the image output device 200 may display a second user interface including a second visual object on a display.
  • the image output device 200 obtains the user's second gaze data for the second visual object through the HMD device 100, and the user's second brain wave for the second visual object associated with the acquired second gaze data. Data may be obtained through the HMD device 100.
  • the image output device 200 may transmit the acquired second brain wave data to the electronic device 300.
  • the image output apparatus 200 may display a third user interface including a plurality of visual objects on a display in order to improve the accuracy of the reference biometric information.
  • the image output apparatus 200 obtains the third gaze data of the user through the HMD device 100, and the third brain wave data of the user corresponding to the third visual object associated with the third gaze data among the plurality of visual objects. Can be obtained.
  • the image output device 200 may transmit the acquired third brain wave data to the electronic device 300.
  • the electronic device 300 may be electrically connected to the HMD device 100 or / and the image output device 200, and provide a user interface to the HMD device 100 or the image output device 200.
  • the electronic device 300 may receive an EEG data from the HMD device 100 or receive an emotion information of a user from the image output device 200 and display an interface screen indicating the same through a display.
  • the electronic device 300 may communicate with the HMD device 100 or the image output device 200 through wired communication.
  • the electronic device 300 When the HMD device 100 has a display, the electronic device 300 provides the HMD device 100 with a first user interface including the first visual object, and corresponds to the first visual object from the HMD device 100.
  • the first EEG data may be received.
  • the electronic device 300 may determine the received first brain wave data as reference biometric information for determining user emotion.
  • the electronic device 300 may request the first gaze data of the user from the HMD device 100 and receive the first gaze data from the HMD device 100.
  • the electronic device 300 may determine whether the received first gaze data corresponds to the first visual object.
  • the first gaze data may include first location coordinates according to the gaze of the user.
  • the electronic device 300 may determine whether the mapped coordinates correspond to the position coordinates of the first visual object by mapping the first position coordinates with the coordinates of the specific position on the display of the HMD device 100. For example, when the mapped coordinates correspond to any one of the position coordinates of the pixels constituting the first visual object, the electronic device 300 may determine that the mapped coordinates correspond to the position coordinates of the first visual object. .
  • the electronic device 300 may determine that the first gaze data corresponds to the first visual object.
  • the electronic device 300 may determine whether a specific action of the user with respect to the first visual object is detected.
  • the electronic device 300 may determine whether compensation data is provided according to the result of the specific action, and request the first EEG data of the user from the HMD device 100 when the compensation data is provided.
  • the electronic device 300 may determine the received first brain wave data as reference biometric information for determining user emotion.
  • the electronic device 300 may determine first emotion based on the first EEG data received from the HMD device 100. It may be determined as the first reference biometric information. If reward data corresponding to a negative reward (eg, deduction of score, etc.) is provided or no reward data is provided (eg, no item or score is obtained), the electronic device 300 receives the first EEG received from the HMD device 100. The data may be determined as second reference biometric information for determining negative emotions. For example, positive emotions may include joy, happiness, joy, and the like, and negative emotions may include sadness, anger, suffering, and the like.
  • the reward data when the reward data includes a positive reward (eg, earning a score) or a negative reward (eg, subtracting a score, etc.), a positive reward is provided.
  • the electronic device 300 determines the first emotion based on the first EEG data acquired through the HMD device 100 when the compensation data including the positive compensation is provided. The information may be determined, and when the reward data including the negative reward is provided, the first brain wave data acquired through the HMD device 100 may be determined as the second reference biometric information for determining the negative emotion. In various embodiments, a plurality of reference biometric information may be determined to determine various emotions of the user.
  • Reference biometric information for determining an emotion of the patient may be determined.
  • the electronic device 300 may provide a second user interface including a second visual object to the HMD device 100 and receive second brain wave data corresponding to the second visual object from the HMD device 100. .
  • the electronic device 300 may generate emotion information about the second visual object based on the received second brain wave data and reference biometric information.
  • the electronic device 300 requests the second gaze data of the user from the HMD device 100, and when the second gaze data is received from the HMD device 100, the received second gaze data is the second. It may be determined whether it corresponds to a visual object.
  • the second gaze data may include second location coordinates with respect to the user's gaze
  • the second visual object may include text representing various contents such as an advertisement, a game, etc., to determine what emotion the user has; It may include at least one or a combination of graphic objects, such as an image, an icon.
  • the electronic device 300 may determine whether the mapped coordinates correspond to the position coordinates of the second visual object by mapping the second position coordinates with the coordinates of the specific position on the display of the HMD device 100. When the second location coordinates correspond to the location coordinates of the second visual object, the electronic device 300 may determine that the second gaze data corresponds to the second visual object.
  • the electronic device 300 requests the second EEG data of the user from the HMD device 100, and receives the second EEG data from the HMD device 100. Can be.
  • the electronic device 300 checks reference biometric information that matches the received second brain wave data, and transmits emotion information (eg, positive emotion or negative emotion, etc.) related to the confirmed reference biometric information for the second visual object. It may be generated by the user's emotion information. For example, when the reference biometric information that matches the second brain wave data is the first reference biometric information corresponding to the positive emotion, the electronic device 300 may generate the positive emotion as emotion information on the second visual object. have. According to various embodiments of the present disclosure, when the reference biometric information that matches the second EEG data is the second reference biometric information corresponding to the negative emotion, the electronic device 300 may generate the negative emotion as emotion information on the second visual object.
  • emotion information e.g, positive emotion or negative emotion, etc.
  • the electronic device 300 may store the generated emotion information or display an interface screen indicating the emotion information on a display.
  • the second visual object may include at least one graphic object corresponding to a category having a feature or a subject unrelated to the first visual object or not related to each other.
  • the second visual object may be a graphic object related to an advertisement.
  • the first visual object relates to the adventure game
  • the second visual object may be a graphic object related to the role playing game.
  • the second visual object may be a graphic object for a cosmetic advertisement.
  • the present invention can predict the emotion of the user with respect to the second visual object even if the first visual object corresponds to a category having a feature or theme unrelated to the second visual object or not related to the second visual object.
  • the electronic device 300 provides the HMD device 100 with a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information, and the user of the plurality of visual objects from the HMD device 100. And third brain wave data corresponding to a third visual object associated with the third gaze data of the.
  • the electronic device 300 may correct the reference biometric information by using the received third brain wave data.
  • the electronic device 300 may obtain third gaze data of the user through the HMD device 100 and identify a third visual object related to the third gaze data among the plurality of visual objects. For example, the electronic device 300 obtains third gaze data representing third location coordinates of the user's gaze through the HMD device 100, and displays the acquired third location coordinates and the HMD device 100.
  • the third visual object corresponding to the mapped coordinate may be confirmed by mapping specific coordinates of the image. Through this, it is possible to confirm which visual object of the plurality of visual objects the user's gaze looks at. If the gaze of the user is determined to gaze at the third visual object, the electronic device 300 requests the third EEG data of the user from the HMD device 100 and receives the third EEG data from the HMD device 100. Can be. The electronic device 300 may correct the reference biometric information by using the received third brain wave data. According to various embodiments of the present disclosure, when the user's selection input for the third visual object is received as well as the user's eyes, the electronic device 300 acquires the third EEG data of the user through the HMD device 100 when the selection input is received. The reference biometric information may be corrected based on the obtained third brain wave data.
  • the electronic device 300 may include a first visual object including a first visual object to obtain first gaze data and first brain wave data of a user.
  • the user interface may be provided to the image output apparatus 200.
  • the electronic device 300 obtains the first gaze data of the user for the first visual object through the HMD device 100, and the first brain wave data of the user for the first visual object associated with the obtained first gaze data. Can be obtained through the HMD device 100.
  • the electronic device 300 may determine the obtained first brain wave data as reference biometric information for determining an emotion of a user.
  • the electronic device 300 provides the first user interface including the first visual object to the image output device 200, and when the first user interface is displayed through the image output device 200, the HMD device 100. ) May request the first gaze data of the user.
  • the electronic device 300 may transmit an image including the first user interface to the image output device 200.
  • the image may be a virtual reality image, an augmented reality image, or a mixed reality image.
  • the electronic device 300 may determine whether the received first gaze data corresponds to the first visual object.
  • the electronic device 300 checks whether a specific action of the user with respect to the first visual object is detected, and if a specific action is detected, compensation according to the result of the detected specific action You can check if the data is provided. For example, the electronic device 300 may analyze the first user interface displayed on the image output device 200 to determine whether a specific action is detected and whether compensation data is provided according to a result of the specific action. The electronic device 300 requests the first EEG data of the user from the HMD device 100 when the compensation data is provided, and the user receives the received first EEG data when the first EEG data is received from the HMD device 100. The reference biometric information for determining an emotion may be determined.
  • the electronic device 300 outputs a second user interface including a second visual object to obtain second gaze data and second brain wave data of the user for generating emotion information of the user with respect to a specific visual object.
  • the user's second gaze data with respect to the second visual object may be acquired through the HMD device 100.
  • the electronic device 300 obtains, through the HMD device 100, second brain wave data of the user corresponding to the second visual object associated with the second gaze data, based on the reference biometric information and the acquired second brain wave data. Emotion information representing the emotion of the user with respect to the second visual object may be generated.
  • the electronic device 300 provides a second user interface including the second visual object to the image output device 200, and when the second user interface is displayed through the image output device 200, the HMD device 100.
  • the electronic device 300 may transmit an image including the second user interface to the image output device 200.
  • the image may be a virtual reality image, an augmented reality image, or a mixed reality image.
  • the electronic device 300 may determine whether the received second gaze data corresponds to the second visual object.
  • the electronic device 300 requests the second EEG data of the user from the HMD device 100, and receives the second EEG data when the second EEG data is received from the HMD device 100. 2 Reference biometric information matching the EEG data can be confirmed.
  • the electronic device 300 may generate emotion information related to the identified reference biometric information as emotion information of the user with respect to the second visual object.
  • the electronic device 300 may generate the positive emotion as emotion information on the second visual object.
  • the electronic device 300 may generate the negative emotion as emotion information on the second visual object.
  • the electronic device 300 may provide the image output device 200 with a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information.
  • the electronic device 300 obtains third brain wave data of a user corresponding to a third visual object among a plurality of visual objects through the HMD device 100, and obtains reference biometric information using the acquired third brain wave data. You can correct it.
  • the electronic device 300 provides a third user interface including a plurality of visual objects to the image output device 200, and when the third user interface is displayed through the image output device 200, the HMD device 100. ) May request the third eye data of the user.
  • the electronic device 300 may transmit an image including the third user interface to the HMD device 100.
  • the image may be a virtual reality image, an augmented reality image, or a mixed reality image.
  • the electronic device 300 may determine which of the plurality of visual objects the received third gaze data corresponds to. Through this, it is possible to confirm which visual object of the plurality of objects the user's gaze looks at. For example, when the received third gaze data corresponds to the third visual object, the electronic device 300 requests the third EEG data of the user from the HMD device 100, and the third EEG from the HMD device 100.
  • the reference biometric information may be corrected using the received third brain wave data.
  • the electronic device 300 when the user's selection input for the third visual object is received, acquires the third brain wave data of the user through the HMD device 100 when the selection input is received, and the acquired third The reference biometric information may be corrected based on the EEG data.
  • the image output apparatus 200 generates the emotion information of the user to determine the emotion of the user.
  • the image output apparatus 200 may determine the first EEG data obtained from the HMD device 100 as reference biometric information for determining the emotion of the user.
  • the image output apparatus 200 may request the first gaze data of the user from the HMD device 100 and receive the first gaze data from the HMD device 100.
  • the image output apparatus 200 may determine whether the received first gaze data corresponds to the first visual object.
  • the image output apparatus 200 may determine whether a specific action of the user with respect to the first visual object is detected.
  • the image output device 200 may determine whether compensation data is provided according to the result of the specific action, and request the first EEG data of the user from the HMD device 100 when the compensation data is provided.
  • the image output device 200 may determine the received first EEG data as reference biometric information for determining user emotion.
  • the image output apparatus 200 may display, on a display, a second user interface including a second visual object to obtain gaze data and brain wave data of the user for generating emotion information of the user for a specific visual object. have.
  • the image output apparatus 200 obtains the second gaze data of the user for the second visual object through the HMD device 100, and the second gaze of the user corresponding to the second visual object associated with the obtained second gaze data.
  • EEG data can be obtained.
  • the image output apparatus 200 may generate emotion information indicating a user's emotion with respect to the second visual object based on the reference biometric information and the acquired second brain wave data.
  • the image output apparatus 200 requests the second gaze data of the user from the HMD device 100, and when the second gaze data is received from the HMD device 100, the received second gaze data is a second visual object. It can be determined whether or not to correspond to. If it is determined that the second gaze data corresponds to the second visual object, the image output apparatus 200 requests the second EEG data of the user from the HMD device 100 and receives the second EEG data from the HMD device 100. can do.
  • the image output apparatus 200 confirms reference biometric information that matches the received second brain wave data, and transmits emotion information (eg, positive emotion or negative emotion) related to the confirmed reference biometric information to the second visual object.
  • the emotion information of the user may be generated.
  • the image output device 200 may transmit the generated emotion information to the electronic device 300.
  • the image output apparatus 200 may display a third user interface including a plurality of visual objects on a display in order to improve the accuracy of the reference biometric information.
  • the image output apparatus 200 may obtain third eye gaze data of the user through the HMD device 100.
  • the image output apparatus 200 obtains, through the HMD device 100, third brain wave data of a user corresponding to a third visual object associated with third eye data among a plurality of visual objects, and uses the third brain wave data.
  • the reference biometric information can be corrected.
  • the image output apparatus 200 acquires the third brain wave data of the user through the HMD device 100 when the selection input is received.
  • the reference biometric information may be corrected based on the third EEG data obtained.
  • the HMD device 100 provides the EEG data corresponding to the visual object related to the gaze data of the user to the image output device 200 or the electronic device 300.
  • the HMD device 100 May generate reference biometric information, generate emotion information of the user using the reference biometric information, correct the reference biometric information, and the like. These operations may be performed in a state where the electronic device 300 is not connected.
  • the HMD device 100 stores the generated emotion information and then stores the emotion information stored when the electronic device 300 is connected to the electronic device 300. You can also pass
  • FIG. 2 is a schematic diagram illustrating an HMD device in which an image output device is mounted according to an embodiment of the present invention.
  • the image output apparatus 200 generates emotion information of a user will be described with reference to FIG. 2.
  • the HMD device 100 includes a communication interface 110, a memory 130, a sensor 140, and a processor 150
  • the image output device 200 includes a communication interface 210.
  • the communication interface 110 of the HMD device 100 connects the HMD device 100 to communicate with an external device.
  • the communication interface 110 may connect with the image output device 200 and the electronic device 300 using wired / wireless communication.
  • the wireless communication may include wireless fidelity (WiFi), Bluetooth, low power Bluetooth (BLE), Zigbee, near field communication (NFC), magnetic secure transmission, radio frequency (RF), or body area network. (BAN) and the like, and wired communication includes a universal serial bus (USB), a high definition multimedia interface (HDMI), a standard standard232 (RS-232), a power line communication, or a plain old telephone service (POTS). It may include at least one.
  • the communication interface 110 receives a request for the gaze data and the brain wave data of the user from the image output device 200 or the electronic device 300, and receives the gaze data and the brain wave data of the user obtained through the sensor 140.
  • the image output device 200 may be transferred to the electronic device 300.
  • the memory 130 may store sensing information (eg, gaze data and brain wave data) obtained through the sensor 140.
  • sensing information eg, gaze data and brain wave data
  • the sensor 140 may include a gaze tracking sensor 142 for tracking the eyes of the user and an EEG sensor 144 for measuring the brain waves of the user.
  • the gaze tracking sensor 142 may include a camera sensor for capturing a user's eyes or face, and may analyze gaze captured by the camera sensor to output gaze data indicating a position coordinate of the gaze of the user. have.
  • a variety of methods may be used to track the user's eyes, and in addition to image analysis, a contact lens method (reflected light of a mirror-embedded contact lens or a gaze tracking method using a magnetic field of a coil-embedded contact lens) or a sensor may be attached.
  • the eye of the user may be tracked using a method (a line of sight tracking method using an electric field according to eye movement by attaching a sensor around the eye).
  • the EEG sensor 144 may include at least one electroencephalogram (EEG) sensor and / or magnetoencephalography (MEG) and a near-infrared spectrometer (NIRS).
  • EEG electroencephalogram
  • MEG magnetoencephalography
  • NIRS near-infrared spectrometer
  • the EEG sensor may measure the electrical / optical frequency that varies according to the EEG of various frequencies generated from the body part of the user or the activation state of the brain and output the EEG data.
  • the processor 150 is operatively connected with the communication interface 110, the memory 130, and the sensor 140, and is acquired through the sensor 140 at the request of the image output device 200 or the electronic device 300.
  • the visual gaze data and the brain wave data may be transmitted to the image output device 200 or the electronic device 300.
  • the processor 150 receives the gaze data acquired through the gaze tracking sensor 142 when the request for the gaze data of the user is received from the image output device 200 or the electronic device 300.
  • the information may be transferred to the electronic device 300.
  • the processor 150 receives a request for the brain wave data of the user from the image output apparatus 200 or the electronic device 300
  • the processor 150 outputs the brain wave data acquired through the brain wave sensor 144 to the image output apparatus 200 or the electronic apparatus. Can be passed to 300.
  • the communication interface 210 of the image output apparatus 200 connects the image output apparatus 200 to communicate with an external device.
  • the communication interface 210 connects to the HMD device 100 using wired / wireless communication, and receives a signal from the HMD device 100 indicating that the image output device 200 is mounted on the HMD device 100. Can be received.
  • the communication interface 210 may transmit a request for gaze data and brain wave data of the user to the HMD device 100, and receive gaze data and brain wave data of the user from the HMD device 100.
  • the communication interface 210 may transmit emotion information indicating the emotion of the user with respect to a specific visual object to the electronic device 300.
  • the display 220 may display various contents (eg, text, images, videos, icons, banners, or symbols) to the user.
  • the display 220 displays a virtual reality image, an augmented reality image, or a mixed reality image.
  • the display 220 includes a first user interface including a first visual object, a second user interface including a second visual object, or a plurality of visuals.
  • the virtual reality image representing the third user interface including the objects may be displayed.
  • the memory 230 may store various data used to display an image or determine an emotion of a user.
  • the memory 230 may store a virtual reality image and an application, a program, or a widget used to display the virtual reality image.
  • the memory 230 may store various data used to display a virtual reality image representing a user interface including a specific visual object.
  • the memory 230 may store gaze data and brain wave data of the user received from the HMD device 100.
  • the processor 240 is operatively connected to the communication interface 210, the display 220, and the memory 130, and may perform various commands for determining the emotion of the user with respect to a specific visual object.
  • the processor 240 displays a first user interface including the first visual object to acquire first gaze data and first brain wave data of the user for determining the emotion of the user with respect to a specific visual object. ) Can be displayed.
  • the first visual object or the first user interface including the first visual object may be provided from the electronic device 300.
  • the processor 240 acquires first gaze data of the user through the HMD device 100, and transmits the first EEG data of the user corresponding to the first visual object associated with the acquired first gaze data. Can be obtained through The processor 240 may determine the obtained first brain wave data as reference biometric information for determining an emotion of a user.
  • the processor 240 requests the first gaze data including the first position coordinates of the user's gaze from the HMD device 100, and the HMD device ( The first gaze data may be received from 100.
  • the processor 240 may map the first position coordinates of the user's gaze with the specific coordinates on the display 220 and determine whether the mapped coordinates correspond to the position coordinates of the first visual object. For example, if the mapped coordinates correspond to any one of the position coordinates of the pixels constituting the first visual object, the processor 240 may determine that the mapped coordinates correspond to the position coordinates of the first visual object.
  • the processor 240 may determine that the first gaze data corresponds to the first visual object.
  • the processor 240 may determine whether a specific action of the user with respect to the first visual object is detected.
  • the processor 240 may determine whether compensation data is provided according to the result of the detected specific behavior, and when the compensation data is provided, the processor 240 may request the first EEG data of the user from the HMD device 100.
  • the processor 240 may analyze the virtual reality image displayed on the display 220 to determine whether a specific behavior is detected or compensation data based on a result of the specific behavior is provided.
  • the processor 240 may determine the received first brain wave data as reference biometric information for determining the emotion of the user. For example, when reward data corresponding to a positive reward (eg, item or score acquisition) is provided, the processor 240 may determine the positive emotion of the user based on the first EEG data received from the HMD device 100. It can be determined as the first reference biometric information for. If compensation data corresponding to the negative compensation is provided or no compensation data is provided, the processor 240 may determine the first EEG data received from the HMD device 100 as second reference biometric information for determining a negative emotion of the user. have.
  • reward data corresponding to a positive reward eg, item or score acquisition
  • the processor 240 may determine the positive emotion of the user based on the first EEG data received from the HMD device 100. It can be determined as the first reference biometric information for. If compensation data corresponding to the negative compensation is provided or no compensation data is provided, the processor 240 may determine the first EEG data received from the HMD device 100 as second reference biometric information for determining
  • the processor 240 displays a second user interface including a second visual object to obtain second gaze data and second brain wave data of the user for generating emotion information of the user for a specific visual object.
  • the second visual object may be content such as an advertisement or a game for identifying what emotion the user has.
  • the second visual object or the second user interface including the second visual object may be provided from the electronic device 300.
  • the processor 240 acquires second eye data of the user for the second visual object through the HMD device 100 and is associated with the obtained second eye data.
  • the second brain wave data of the user corresponding to the second visual object may be acquired.
  • the processor 240 may generate emotion information indicating a user's emotion with respect to the second visual object based on the reference biometric information and the acquired second brain wave data.
  • the processor 240 requests the second gaze data including the second position coordinates of the user's gaze from the HMD device 100, and the HMD device ( When the second gaze data is received from 100, it may be determined whether the received second gaze data corresponds to the second visual object.
  • the processor 240 may map the second position coordinates and specific coordinates on the display 220, and determine whether the mapped coordinates correspond to the position coordinates of the second visual object. When the mapped coordinates correspond to the position coordinates of the second visual object, the processor 240 requests the second EEG data of the user from the HMD device 100, and receives the second EEG data of the user from the HMD device 100. Can be.
  • the processor 240 may identify reference biometric information that matches the received second brain wave data. For example, the processor 240 compares the second EEG data with the first EEG data corresponding to the reference biometric information, and when the frequency difference value between the two EEG data is less than or equal to a preset threshold, the reference living body coincides with the second EEG data.
  • the processor 240 may generate emotion information related to the identified reference biometric information as emotion information on the second visual object. For example, when the emotion information related to the identified reference biometric information is a positive emotion, the processor 240 may generate the positive emotion as emotion information of the user with respect to the second visual object. If the emotion information related to the identified reference biometric information is a negative emotion, the processor 240 may generate the negative emotion as emotion information of the user with respect to the second visual object.
  • the processor 240 may store the generated emotion information in the memory 230 or transfer the generated emotion information to the electronic device 300.
  • the processor 240 may display, via the display 220, a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information.
  • the plurality of visual objects may include images related to various emotional state information.
  • the plurality of visual objects may include images related to positive emotional state information, or may include images related to positive emotional state or negative emotional state information.
  • the third user interface including the plurality of visual objects or the plurality of visual objects may be provided from the electronic device 300.
  • the processor 240 acquires third eye data of the user for the third visual object from among the plurality of visual objects through the HMD device 100, and obtains Third brain wave data of the user corresponding to the third visual object associated with the third gaze data may be acquired.
  • the processor 240 may correct the reference biometric information by using the acquired third EEG data.
  • the processor 240 requests the third gaze data including the third position coordinates of the user's gaze from the HMD device 100, and the HMD device ( When the third gaze data is received from 100, the received third gaze data may identify which visual object among the plurality of visual objects.
  • the processor 240 may map the third position coordinates and specific coordinates on the display 220, and determine whether the mapped coordinates correspond to which of the plurality of visual objects. When the mapped coordinates correspond to the position coordinates of the third visual object, the processor 240 requests the third EEG data of the user from the HMD device 100, and receives the third EEG data of the user from the HMD device 100. Can be. The processor 240 may correct the reference biometric information by using the received third brain wave data.
  • the processor 240 sets various emotional state information corresponding to each of the plurality of visual objects, and the emotional state information corresponding to the third visual object associated with the third gaze data of the user among the plurality of visual objects.
  • the plurality of objects may include a visual object corresponding to a positive emotion or a visual object corresponding to a negative emotion. If the identified emotional state information is a positive emotion, the processor 240 may correct the first reference biometric information determined to determine the positive emotion using the third brain wave data. When the identified emotional state information is a negative emotion, the processor 240 may correct the second reference biometric information determined to determine the negative emotion using the third brain wave data.
  • FIG. 3 is a schematic diagram illustrating an electronic device connected to an HMD device and an image output device according to an embodiment of the present invention.
  • the electronic device 300 generates user emotion information
  • the electronic device 300 may include a communication interface 310, a display 320, a memory 330, and a processor 340.
  • the communication interface 310 connects the electronic device 300 to communicate with an external device.
  • the communication interface 310 may be connected to the HMD device 100 in which the image output device 200 is mounted and the image output device 200 using wired communication.
  • the communication interface 310 may transmit a request for gaze data and brain wave data of the user to the HMD device 100, or receive gaze data and brain wave data of the user from the HMD device 100.
  • the communication interface 310 may transmit a request to the image output apparatus 200 to display a user interface including a corresponding visual object together with a specific visual object.
  • the communication interface 310 may transmit the virtual reality image including the corresponding user interface to the image output apparatus 200 with the request.
  • the display 320 may display various contents to the user.
  • the display 320 may display information indicating gaze data and brain wave data of the user received from the HMD device 100 through the communication interface 310.
  • the display 320 may display emotion information generated by the processor 340.
  • the display 320 may simultaneously display a user interface displayed through the image output apparatus 200 with the image output apparatus 200.
  • the memory 330 may store various data used to determine the emotion of the user.
  • the memory 330 may store gaze data and brain wave data of the user received from the HMD device 100.
  • the memory 330 may store a virtual reality image representing a user interface including a specific visual object or store emotion information generated by the processor 340.
  • the processor 340 is operatively connected to the communication interface 310, the display 320, and the memory 330, and may perform various commands for generating emotion information of the user with respect to a specific visual object.
  • the processor 340 provides the first user interface including the first visual object to the image output apparatus 200, and when the first user interface is displayed through the image output apparatus 200, the HMD apparatus 100.
  • the first gaze data of the user may be requested.
  • the processor 340 may determine whether the received first gaze data corresponds to the first visual object.
  • the processor 340 may request the user's first brain wave data from the HMD device 100.
  • the processor 340 may determine the received first brain wave data as reference biometric information for determining the emotion of the user.
  • the processor 340 maps the first positional coordinates of the user's gaze and the specific positional coordinates on the display 220 of the image output apparatus 200 to determine whether the mapped coordinates correspond to the positional coordinates of the first visual object. You can judge.
  • the processor 340 may determine whether a specific behavior of the user with respect to the first visual object is detected.
  • the processor 340 may analyze a virtual reality image being displayed on the display 220 of the image output apparatus 200 in real time to determine whether a specific action is detected.
  • the first user interface including the first visual object may be a user interface for game play including a game item.
  • the processor 340 may analyze the user interface being displayed through the image output apparatus 200 to determine whether an action of acquiring a game item is detected. When a specific action is detected, the processor 340 may determine whether compensation data is provided according to the result of the specific action, and request the first EEG data of the user from the HMD device 100 when the compensation data is provided. For example, when an action of acquiring a game item is detected, the processor 340 checks whether reward data, such as assigning the acquired game item to a user's game account, is provided, and when the reward data is provided, the HMD device ( 100) the first brain wave data of the user may be requested.
  • reward data such as assigning the acquired game item to a user's game account
  • the processor 340 may determine the received first brain wave data as reference biometric information corresponding to a user's positive or negative emotion. For example, when reward data corresponding to a positive reward is provided, the first EEG data obtained from the HMD device 100 may be determined as first reference biometric information for determining a positive emotion. When reward data corresponding to a negative reward is provided, the first EEG data obtained from the HMD device 100 may be determined as second reference biometric information for determining a negative emotion.
  • the processor 340 provides a second user interface including a second visual object to the image output apparatus 200, and when the second user interface is displayed through the image output apparatus 200, the user to the HMD apparatus 100. May request a second line of sight data.
  • the processor 340 may determine whether the received second gaze data corresponds to the second visual object.
  • the processor 340 may request the user's second brain wave data from the HMD device 100.
  • the processor 340 may generate emotion information indicating the emotion of the user with respect to the second visual object based on the reference biometric information and the second brain wave data.
  • the processor 340 maps the second position coordinates of the user's gaze with the specific position coordinates on the display 220 of the image output apparatus 200 to determine whether the mapped coordinates correspond to the position coordinates of the second visual object. You can judge.
  • the processor 340 requests the second EEG data of the user from the HMD device 100, and receives the second EEG data from the HMD device 100. Reference biometric information that matches the second EEG data may be confirmed.
  • the processor 340 may generate emotion information (eg, positive emotion or negative emotion) related to the identified reference biometric information as emotion information of the user with respect to the second visual object.
  • the processor 340 may provide the image output apparatus 200 with a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information.
  • the processor 340 requests the third gaze data of the user from the HMD device 100, and the third position of the gaze of the user from the HMD device 100.
  • Third line of sight data including coordinates may be received.
  • the processor 340 requests the HMD device 100 for third brain wave data of the user corresponding to the third visual object associated with the third gaze data from among the plurality of visual objects, and the third brain wave from the HMD device 100. Data can be received.
  • the processor 340 may correct the reference biometric information by using the received third brain wave data.
  • the processor 340 maps the third position coordinates of the user's gaze and the specific position coordinates on the display 220 of the image output apparatus 200 so that the mapped coordinates of any one of the plurality of visual objects. It may be determined whether it corresponds to the position coordinate. When the mapped coordinates correspond to the position coordinates of the third visual object, the processor 340 may determine that the gaze of the user gazes at the third visual object. For example, if it is determined that the gaze of the user gazes at the third visual object of the plurality of visual objects, the processor 340 may determine that the user has a positive emotion with respect to the third visual object.
  • the processor 340 requests the third EEG data of the user from the HMD device 100, and when the third EEG data is received from the HMD device 100, the processor 340 corresponds to a positive emotion using the received third EEG data.
  • the first reference biometric information may be corrected.
  • the processor 340 may correct the frequency value of the EEG data corresponding to the first reference biometric information to match the frequency value of the third EEG data.
  • FIG. 4 is a schematic diagram illustrating an HMD device having a display and an electronic device connected to the HMD device according to an embodiment of the present invention.
  • the electronic device 300 generates emotion information of a user will be described with reference to FIG. 4.
  • the HMD device 100 includes a communication interface 110, a memory 130, a sensor 140, and a processor 150, as described above with reference to FIG. 2, and includes a specific visual object. It may further include a display 120 for displaying a user interface that includes. As described above with reference to FIG. 3, the electronic device 300 may include a communication interface 310, a display 320, a memory 330, and a processor 340.
  • the communication interface 110 of the HMD device 100 is connected to the electronic device 300 using wired / wireless communication to include a specific visual object from the electronic device 300.
  • the user may receive a request for displaying a user interface or receive a request for gaze data and brain wave data of the user, and may transmit the gaze data and brain wave data of the user acquired through the sensor 140 to the electronic device 300.
  • the communication interface 110 may receive a virtual reality image representing a user interface including a visual object from the electronic device 300.
  • the display 120 may display various contents to the user.
  • the display 10 displays a virtual reality image, an augmented reality image, a mixed reality image, and the like, the first user interface including a first visual object, a second user interface including a second visual object, or a plurality of The virtual reality image representing the third user interface including the visual objects may be displayed.
  • the memory 130 may store various data for displaying an image.
  • the memory 130 may store a virtual reality image and an application, a program, or a widget used to display the virtual reality image.
  • the memory 130 may store various data used to display a virtual reality image representing a user interface including a specific visual object.
  • the memory 140 may store the gaze data and the brain wave data of the user output through the sensor 140.
  • the sensor 140 may include a gaze tracking sensor 142 for tracking the eyes of the user and an EEG sensor 144 for measuring the brain waves of the user.
  • the processor 150 is operatively connected to the communication interface 110, the display 120, the memory 130, and the sensor 140, and at the request of the electronic device 300, a specific visual object through the display 120. It may display a user interface including or transmit the gaze data and the brain wave data acquired through the sensor 140 to the electronic device 300.
  • the processor 150 receives a request for displaying a user interface including a specific visual object from the electronic device 300 through the communication interface 110, and in response to the request, displays the user interface through the display 120. I can display it.
  • the user interface that includes a particular visual object may be a first user interface that includes a first visual object, a second user interface that includes a second visual object, or a third user interface that includes a plurality of visual objects. have.
  • the processor 150 receives a request for gaze data of the user from the electronic device 300, obtains gaze data of the user associated with a specific visual object through the gaze tracking sensor 140, and obtains the gaze Data may be transmitted to the electronic device 300.
  • the gaze data may be first gaze data, second gaze data, or third gaze data.
  • the processor 150 receives a request for the brain wave data of the user from the electronic device 300, obtains the brain wave data of the user corresponding to the visual object associated with the gaze data through the brain wave sensor 144 according to the request,
  • the acquired EEG data may be transmitted to the electronic device 300.
  • the EEG data may be first EEG data, second EEG data, or third EEG data.
  • the communication interface 310 of the electronic device 300 may be connected to the HMD device 100 having a display through wired communication as described above with reference to FIG. 3.
  • the communication interface 310 may transmit a request for gaze data and brain wave data of the user to the HMD device 100, or receive gaze data and brain wave data of the user from the HMD device 100.
  • the communication interface 310 may transmit a request to the HMD device 100 to display a user interface including the visual object together with the specific visual object.
  • the communication interface 310 may transmit the virtual reality image including the corresponding user interface to the HMD device 100 with the request.
  • the display 320 may display various contents to the user as described above with reference to FIG. 3.
  • the display 320 may display information indicating gaze data and brain wave data of the user received from the HMD device 100 through the communication interface 310.
  • the display 320 may display emotion information generated by the processor 340.
  • the display 320 may simultaneously display a user interface displayed through the image output apparatus 200 with the image output apparatus 200.
  • the memory 330 may store various data used to determine the emotion of the user as described above with reference to FIG. 3.
  • the memory 330 may store gaze data and brain wave data of the user received from the HMD device 100.
  • the memory 330 may store a virtual reality image representing a user interface including a specific visual object or store emotion information generated by the processor 340.
  • the processor 340 is operatively connected to the communication interface 310, the display 320, and the memory 330 as described above with reference to FIG. 3, and may execute various instructions for generating user's emotion information on a specific visual object. Can be done.
  • the processor 340 transmits a request to the HMD device 100 to provide a first user interface including the first visual object, and through the display 120 of the HMD device 100, the first user interface. If is displayed, the first gaze data of the user may be requested to the HMD device 100.
  • the processor 340 determines whether the received first gaze data corresponds to the first visual object, and when the first gaze data corresponds to the first visual object, the HMD The device 100 may request first brain wave data of the user.
  • the processor 340 may determine the received first brain wave data as reference biometric information for determining the emotion of the user.
  • the processor 340 may provide the HMD device 100 with a second user interface including a second visual object to obtain second gaze data and second brain wave data for determining a user's emotion.
  • the processor 340 requests the second gaze data of the user from the HMD device 100, and the second user interface from the HMD device 100.
  • the line of sight data can be received.
  • the processor 340 may determine whether the received second gaze data corresponds to the second visual object, and if the second gaze data corresponds to the second visual object, request the second brain wave data of the user from the HMD device 100. have.
  • the processor 340 may generate emotion information of the user for the second visual object based on the reference biometric information and the second brain wave data.
  • the processor 340 may provide the HMD device 100 with a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information.
  • the processor 340 requests the third gaze data of the user from the HMD device 100, and the third user interface is transmitted from the HMD device 100.
  • the line of sight data can be received.
  • the processor 340 requests the HMD device 100 for third brain wave data of the user corresponding to the third visual object associated with the third gaze data from among the plurality of visual objects, and the third brain wave from the HMD device 100. Data can be received.
  • the processor 340 may correct the reference biometric information by using the received third brain wave data.
  • FIG. 5 is a schematic flowchart illustrating a method for generating emotion information of a user with respect to a specific visual object in a user emotion determination apparatus according to an embodiment of the present invention.
  • a user interface including a first visual object may be provided through the HMD device 100 configured to acquire first gaze data and first brain wave data of a user (S500).
  • the user emotion determination device may include the HMD device 100 having the display or the HMD device 100 and the electronic device 300 having the image output device 200 mounted thereon when the HMD device 100 does not have a display. ) May be included.
  • First EEG data of the user corresponding to the first visual object associated with the first gaze data is obtained through the HMD device 100 (S510), and the acquired first EEG data is used as reference biometric information for determining the user emotion. It may be determined (S520).
  • a second user interface including a second visual object may be provided through the HMD device 100 (S530).
  • the second gaze data of the user for the second visual object may be obtained through the HMD device 100, and the second brain wave data of the user corresponding to the second visual object associated with the obtained second gaze data may be obtained. (S540). Emotion information representing the emotion of the user with respect to the second visual object may be generated based on the reference biometric information and the acquired second brain wave data (S550).
  • FIGS. 6A, 6B, 6C, and 6D are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention.
  • a user interface including a visual object may be displayed through the display 120 of the HMD device 100 or the display 220 of the image output device 200, and the operations performed below may be performed by the electronic device 300.
  • the processor 340, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100 may be used.
  • the apparatus for determining user emotion may display a user interface 600 for game content that matches whether the number of first visual objects 602 is odd or even.
  • the apparatus for determining emotion of the user may display the user interface 600 for a preset first time and determine whether the first gaze data obtained by acquiring first gaze data of the user corresponds to the first visual object 602. have.
  • the user emotion determining apparatus may obtain first gaze data associated with any one of the plurality of visual objects included in the user interface 600.
  • the apparatus for determining a user emotion may include a user interface for selecting even or odd numbers for a preset second time after the acquired first gaze data corresponds to the first visual object 602. 610 may be displayed.
  • the user interface 610 may include a first icon 612 for selecting that the number of first visual objects 602 is even and a number for selecting an odd number of first visual objects 602. 2 icon 614 and the text 616 indicating the remaining time of the second time.
  • the apparatus for determining emotion of the user determines whether a specific behavior of the user with respect to the first visual object 602 is detected, and if specific behavior with respect to the first visual object 602 is detected, compensation data based on the result of the specific behavior is provided. You can check if it works. For example, when a user input for selecting the second icon 614 is received, the user emotion determining apparatus determines that a specific action is detected in the received user input, and positive reward data according to the user input as shown in FIG. 6C.
  • the user interface 620 for providing the information may be displayed. Referring to FIG.
  • the user emotion determining apparatus when the number of first visual objects 602 corresponding to a user input is an odd number, the user emotion determining apparatus includes an image 622 for indicating that the 'odd number' selected by the user is the correct answer and a positive value thereof.
  • the user interface 620 including text (eg, +1000 won) 624 for displaying reward data corresponding to the reward may be displayed.
  • the user emotion determining apparatus may obtain first brain wave data of the user and determine the obtained first brain wave data as reference biometric information for determining the emotion of the user. For example, when the user interface 620 for providing compensation data corresponding to the positive reward is displayed as shown in FIG. 6C, the user emotion determining apparatus determines that the user has positive emotion, and obtains the obtained first brain wave data. The first reference biometric information for determining positive emotion may be determined.
  • the user emotion determining apparatus may display a user interface 630 for providing negative compensation data according to the user input as shown in FIG. 6D.
  • the user emotion determination apparatus corresponds to an image 632 and a negative compensation for indicating that the 'even' selected by the user is an incorrect answer.
  • the user interface 630 may include a text (eg, 1,000 won) 634 to indicate reward data.
  • the user emotion determining apparatus may obtain first brain wave data of the user, and determine the obtained first brain wave data as reference biometric information for determining the emotion of the user.
  • the user emotion determining apparatus determines that the user has a negative emotion when the reward data corresponding to the negative reward is provided, and a second criterion for determining the negative emotion based on the first EEG data obtained when the reward data is provided. It can be determined by biometric information.
  • FIGS. 7A and 7B are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determination apparatus according to an embodiment of the present invention.
  • a user interface including a visual object may be displayed through the display 120 of the HMD device 100 or the display 220 of the image output device 200, and the operations performed below may be performed by the electronic device 300.
  • the processor 340, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100 may be used.
  • the apparatus for determining user emotion may display a user interface 700 for game content for obtaining a specific item.
  • the user interface 700 may include a first visual object 702 related to game content.
  • the first visual object 702 may be a graphic object that composes a game environment to obtain a specific game item.
  • the apparatus for determining emotion of a user may acquire first gaze data of a user and determine whether the acquired first gaze data corresponds to the first visual object 702.
  • the apparatus for determining user emotion may acquire first gaze data associated with any one of a plurality of visual objects included in the user interface 700. If the acquired first gaze data corresponds to the first visual object 702, the user emotion determining apparatus may determine whether a specific behavior of the user with respect to the first visual object 702 is detected.
  • the specific action may be an action in which a game character performs a game quest related to the first visual object 702 to obtain a specific game item.
  • the user emotion determination apparatus may determine whether compensation data is provided according to the result of the specific behavior, and acquire first brain wave data of the user when the compensation data is provided.
  • the user emotion determination device determines whether the game quest is completed, and when the game quest is completed, as shown in FIG. 7B, the user interface 710 for providing a game item as a reward for completing the game quest. I can display it.
  • the user interface 710 may include an image 712 for indicating a game item acquired according to completion of a game quest, and text 714 for indicating that a game item is obtained.
  • the user emotion determining apparatus may obtain first brain wave data of the user, and determine the obtained first brain wave data as reference biometric information for determining the emotion of the user. For example, when the user interface 710 for providing a game item upon completion of a game quest is displayed as shown in FIG. 7B, the user emotion determining apparatus determines that the user has a positive emotion, and positively obtains the obtained first EEG data. The first reference biometric information for determining the emotion may be determined.
  • FIGS. 8A and 8B are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention.
  • a user interface including a visual object may be displayed through the display 120 of the HMD device 100 or the display 220 of the image output device 200, and the operations performed below may be performed by the electronic device 300.
  • the processor 340, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100 may be used.
  • the apparatus for determining a user emotion may display a user interface 800 for solving a problem related to a specific subject.
  • the user interface 800 may include a first visual object 802 related to problem solving.
  • the first visual object 802 may be text representing a problem or / and answer for solving a problem.
  • the apparatus for determining emotion of a user may acquire first gaze data of the user and determine whether the acquired first gaze data corresponds to the first visual object 802.
  • the user emotion determining apparatus may obtain first gaze data associated with any one of a plurality of visual objects included in the user interface 800. If the acquired first gaze data corresponds to the first visual object 802, the user emotion determining apparatus may determine whether a specific action of the user with respect to the visual object 802 is detected. For example, a particular action may be the act of choosing an answer to a problem.
  • the user emotion determination apparatus may determine whether compensation data is provided according to the result of the specific behavior, and acquire first brain wave data of the user when the compensation data is provided.
  • the user emotion determination apparatus checks whether the problem is completed, and when the problem solution is completed, a user interface 810 for providing score data as a reward for completing the problem solution as shown in FIG. 8B. ) Can be displayed.
  • the user interface 810 may include a text / image 812 representing score data acquired according to the completion of the problem solving, a text / image 814 representing the time spent on the problem solving, and a score acquisition. It may include text indicating congratulations (eg, congratulations!) 816.
  • the user emotion determining apparatus may obtain first brain wave data of the user, and determine the obtained first brain wave data as reference biometric information for determining the emotion of the user.
  • the user emotion determining apparatus determines that the user has a positive emotion, and positively obtains the obtained first EEG data.
  • the first reference biometric information for determining the emotion may be determined.
  • FIG. 9 is an exemplary diagram for describing a method of generating emotion information indicating a user's emotion with respect to a specific visual object in a user emotion determination apparatus according to an embodiment of the present invention. Operations performed below may be performed through the processor 340 of the electronic device 300, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100.
  • the apparatus for determining user emotion may display a user interface 900 including a second visual object 902 indicating an advertisement target.
  • the second visual object 902 may be a vehicle image.
  • the apparatus for determining emotion of a user may acquire second gaze data of the user and determine whether the acquired second gaze data corresponds to the second visual object 902.
  • the apparatus for determining a user's emotion obtains second gaze data including position coordinates of a user's gaze, maps a location coordinate of the user's gaze with a specific location coordinate on the display, and thus the mapped coordinates are used to display the vehicle image. It may be determined whether one of the pixels constituting the pixel corresponds to the position coordinate of the pixel. If the mapped coordinates correspond to the position coordinates of one of the pixels constituting the vehicle image, the user emotion determining apparatus may determine that the second gaze data of the user corresponds to the second visual object 902.
  • the user emotion determining apparatus obtains the second brain wave data of the user, and based on the reference biometric information and the acquired second brain wave data, the second visual object ( Emotion information representing the emotion of the user with respect to 902 may be generated.
  • the apparatus for determining a user's emotion may identify reference biometric information that matches the brain wave data acquired in response to the visual object 902, and transmit emotion information related to the identified reference biometric information to the second visual object 902. It can be generated as emotion information of the user.
  • the reference biometric information is associated with a positive emotion
  • the user emotion determining apparatus may generate the positive emotion as emotion information for the second visual object 902.
  • the present invention can check the emotion of the user for the visual object corresponding to the advertisement target even if the user does not express the emotion about the advertisement target.
  • the present invention is to determine the user's emotion with respect to the second visual object based on the reference biometric information determined using the first visual object that has a feature or theme unrelated to the second visual object or that belongs to a category not related to the second visual object. Can be.
  • FIGS. 10A and 10B are exemplary diagrams for describing a method for correcting reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention.
  • a user interface including a visual object may be displayed through the display 120 of the HMD device 100 or the display 220 of the image output device 200, and the operations performed below may be performed by the electronic device 300.
  • the processor 340, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100 may be used.
  • the apparatus for determining user emotion may display a user interface 1000 including a plurality of visual objects 1002 and 1004.
  • the user interface 1000 may include a visual object 1002 for a first person and a third visual object 1004 for a second person.
  • the plurality of visual objects may include images related to various subjects.
  • the user emotion determining apparatus may obtain third gaze data of the user and determine whether the acquired third gaze data corresponds to any one of the plurality of visual objects 1002 and 1004. . For example, when the third gaze data corresponds to the third visual object 1004 among the plurality of visual objects 1002 and 1004, the user emotion determining apparatus prefers the third visual object 1004 as illustrated in FIG. 10B.
  • a user interface 1010 may be displayed for presentation.
  • the user emotion determining apparatus may display a user interface 1010 as illustrated in FIG. 10B when a user input for selecting the third visual object 1004 is received from among the plurality of visual objects 1002 and 1004.
  • the user interface 1010 may include an image 1012 and text 1014 to indicate that the third visual object 1004 is preferred.
  • the user emotion determining apparatus may obtain third brain wave data of the user and correct the reference biometric information by using the acquired third brain wave data.
  • the apparatus for determining a user emotion determines that the third brain wave data acquired in response to the third visual object 1004 has a user's preferred emotion, and the third brain wave data and the reference living body related to the preferred emotion.
  • the reference biometric information may be corrected to match the EEG data corresponding to the information.
  • the present invention obtains EEG data corresponding to a specific emotion of the user and corrects the reference biometric information by using the acquired EEG data, thereby obtaining a highly accurate determination result of the emotion of the user.
  • the present invention generates emotion information about a specific visual object that the user gazes by using the reference biometric information determined based on the gaze data and the brain wave data of the user, thereby visualizing the various visual objects that the user gazes at. Predict a user's feelings for.
  • Apparatus and method according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium.
  • Computer-readable media may include, alone or in combination with the program instructions, data files, data structures, and the like.
  • the program instructions recorded on the computer readable medium may be those specially designed and constructed for the present invention, or may be known and available to those skilled in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks such as floppy disks.
  • Hardware devices specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory and the like.
  • the above-described medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, a data structure, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

Abstract

The present invention, according to one embodiment of the present invention, provides a method for determining the emotion of a user, and a device therefor. The method comprises the steps of: providing, via a head-mounted display (HMD) device configured to acquire first gaze data and first brain wave data of a user, a first user interface including a first visual object; acquiring, via the HMD device, the first brain wave data, of the user, corresponding to the first visual object associated with the first gaze data; determining the acquired first brain wave data to be reference biometric information for determining the emotion of the user; providing, via the HMD device, a second user interface including a second visual object; acquiring, via the HMD device, second gaze data, of the user, for the second visual object, and acquiring, via the HMD device, second brain wave data, of the user, corresponding to the second visual object associated with the acquired second gaze data; and generating emotion information associated with the second visual object on the basis of the reference biometric information and the second brain wave data.

Description

사용자의 감정을 판단하기 위한 방법 및 이를 위한 장치Method for determining emotion of user and apparatus for same
본 발명은 사용자의 감정을 판단하기 위한 방법 및 이를 위한 장치에 관한 것이다.The present invention relates to a method for determining an emotion of a user and an apparatus therefor.
일반적으로 헤드 마운트 디스플레이(Head-Mounted Display, HMD) 장치(이하, 'HMD 장치'라 함)는, 사용자의 머리에 착용 가능한 구조로 형성되어 사용자가 실제와 유사한 공간적, 시간적 체험이 가능할 수 있도록 사용자에게 가상 현실(Virtual Reality, VR), 증강 현실(Augmented Reality, AR) 또는 혼합 현실(Mixed Reality, MR)에 관한 영상을 제공하는 디스플레이 장치이다.In general, a head-mounted display (HMD) device (hereinafter, referred to as an 'HMD device') is formed in a structure that can be worn on a user's head so that the user can experience a spatial and temporal experience similar to the reality. A display device that provides an image about virtual reality (VR), augmented reality (AR), or mixed reality (MR).
이와 같은 HMD 장치는, 사용자의 눈 부위에 착용 가능하도록 고글(goggle) 형태로 형성되는 본체와, 본체에 연결되어 본체를 사용자의 머리에 고정시킬 수 있도록 밴드 형태로 형성되는 착용부로 구성된다. 여기서, 본체에는 가상 현실, 증강 현실 또는/및 혼합 현실에 관한 영상을 출력하는 수단으로서, 디스플레이가 구비되거나, 스마트폰 등과 같은 휴대용 단말 장치가 설치되거나, 모니터 등과 같이 PC 등에 연결되는 디스플레이 장치가 실장된다.The HMD device is composed of a body formed in the form of goggles (goggle) to be worn on the user's eyes, and wearing portion formed in the form of a band to be connected to the body to fix the body to the user's head. In this case, as a means for outputting an image related to virtual reality, augmented reality and / or mixed reality, a display device is provided, a portable terminal device such as a smartphone is installed, or a display device connected to a PC such as a monitor is mounted. do.
최근에는 사용자의 가상 현실, 증강 현실 또는 혼합 현실에 관한 영상의 시청이 사용자에게 미치는 영향을 분석하기 위해 HMD 장치가 사용자의 생체 정보를 획득하기 위한 생체 센서를 구비하고, 이러한 생체 센서를 이용하여 사용자가 해당 영상을 시청하는 동안 사용자의 뇌파, 시선, 심전도, 안전도, 근전도 등의 신호가 획득될 수 있다. HMD 장치와 연결된 전자 장치는 생체 센서로부터 획득된 신호를 분석하여 사용자가 해당 영상을 시청하면서 어떠한 감정을 느꼈는지를 확인할 수 있다. Recently, in order to analyze the effect of viewing of an image related to a user's virtual reality, augmented reality, or mixed reality on the user, the HMD device includes a biometric sensor for acquiring the biometric information of the user. While watching the video, signals such as EEG, gaze, electrocardiogram, safety, and EMG of the user may be acquired. The electronic device connected to the HMD device may analyze the signal acquired from the biometric sensor to determine how the user feels while watching the image.
그러나, 이와 같이 가상 현실, 증강 현실 또는 혼합 현실에 관한 영상을 시청하는 동안 사용자의 뇌파를 획득하는 경우 사용자가 시청한 영상의 특정 장면들마다 사용자의 뇌파를 획득하고, 획득된 뇌파를 분석하여 사용자의 감정을 판단하기 때문에, 사용자가 응시한 특정 비주얼 오브젝트에 관련하여 사용자가 어떠한 감정을 가지는지 미리 예측하기 어렵다는 문제점이 있다.However, when acquiring the brain waves of the user while watching the image related to the virtual reality, augmented reality, or mixed reality as described above, the brain waves of the user are acquired for each specific scene of the image watched by the user, and the acquired brain waves are analyzed. Since the emotion of the user is determined, it is difficult to predict in advance what emotion the user has with respect to the specific visual object gazed by the user.
본 발명이 해결하고자 하는 과제는 상술한 바와 같은 문제점을 해결하기 위해 사용자의 감정을 판단하기 방법 및 이를 위한 장치를 제공하는 것이다.The problem to be solved by the present invention is to provide a method and apparatus for determining the emotion of the user to solve the above problems.
구체적으로, 본 발명이 해결하고자 하는 과제는 사용자의 시선 데이터 및 뇌파 데이터를 이용하여 특정 비주얼 오브젝트에 대한 사용자의 감정을 판단할 수 있는 방법 및 이를 위한 장치를 제공하는 것이다.Specifically, the present invention is to provide a method and apparatus for determining the emotion of a user with respect to a particular visual object by using the user's gaze data and brain wave data.
본 발명의 과제들은 이에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned herein, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 바와 같은 과제를 해결하기 위해 본 발명의 일 실시예에 따른 발명은 사용자의 감정을 판단하기 위한 방법 및 이를 위한 장치가 제공된다. 상기 방법은, 사용자의 제1 시선 데이터 및 제1 뇌파 데이터를 획득하도록 구성된 헤드 마운트 디스플레이(Head-Mounted Display, HMD) 장치를 통해서 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 제공하는 단계; 상기 HMD 장치를 통해서 상기 제1 시선 데이터와 연관된 상기 제1 비주얼 오브젝트에 대응하는 상기 사용자의 제1 뇌파 데이터를 획득하는 단계; 상기 획득된 제1 뇌파 데이터를 상기 사용자 감정을 판단하기 위한 기준 생체 정보로 결정하는 단계; 상기 HMD 장치를 통해서 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 제공하는 단계; 상기 HMD 장치를 통해서 상기 제2 비주얼 오브젝트에 대한 상기 사용자의 제2 시선 데이터를 획득하고, 상기 획득된 제2 시선 데이터와 연관된 제2 비주얼 오브젝트에 대응하는 상기 사용자의 제2 뇌파 데이터를 획득하는 단계; 및 상기 기준 생체 정보 및 상기 제2 뇌파 데이터를 기초로 상기 제2 비주얼 오브젝트에 대한 감정 정보를 생성하는 단계를 포함한다.In order to solve the above problems, the present invention provides a method and apparatus for determining the emotion of the user. The method includes providing a first user interface comprising a first visual object via a Head-Mounted Display (HMD) device configured to obtain a user's first gaze data and first brain wave data; Acquiring first brain wave data of the user corresponding to the first visual object associated with the first gaze data through the HMD device; Determining the obtained first brain wave data as reference biometric information for determining the user emotion; Providing a second user interface comprising a second visual object via the HMD device; Acquiring second gaze data of the user with respect to the second visual object through the HMD device, and acquiring second brain wave data of the user corresponding to a second visual object associated with the acquired second gaze data; ; And generating emotion information about the second visual object based on the reference biometric information and the second brain wave data.
상기 장치는, 사용자의 제1 시선 데이터 및 제1 뇌파 데이터를 획득하도록 구성된 헤드 마운트 디스플레이(Head-Mounted Display, HMD) 장치를 통해서 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 제공하고, 상기 HMD 장치를 통해서 상기 제1 시선 데이터와 연관된 상기 제1 비주얼 오브젝트에 대응하는 상기 사용자의 제1 뇌파 데이터를 획득하고, 상기 획득된 제1 뇌파 데이터를 상기 사용자 감정을 판단하기 위한 기준 생체 정보로 결정하고, 상기 HMD 장치를 통해서 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 제공하고, 상기 HMD 장치를 통해서 상기 제2 비주얼 오브젝트에 대한 상기 사용자의 제2 시선 데이터가 획득되면 상기 획득된 제2 시선 데이터와 연관된 제2 비주얼 오브젝트에 대응하는 상기 사용자의 제2 뇌파 데이터를 획득하고, 상기 기준 생체 정보 및 상기 제2 뇌파 데이터를 기초로 상기 제2 비주얼 오브젝트에 대한 감정 정보를 생성한다.The device provides a first user interface comprising a first visual object via a Head-Mounted Display (HMD) device configured to obtain a user's first gaze data and first brain wave data, and wherein the HMD Acquire first brain wave data of the user corresponding to the first visual object associated with the first gaze data through the device, and determine the obtained first brain wave data as reference biometric information for determining the user emotion; And providing a second user interface including a second visual object through the HMD device, and obtaining the second gaze data of the user with respect to the second visual object through the HMD device. Obtain second brainwave data of the user corresponding to a second visual object associated with the Generating emotion information about the second visual object based on the reference biometric information and the second brain wave data.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.
본 발명은 사용자의 시선 데이터 및 뇌파 데이터를 기초로 결정된 기준 생체 정보를 이용하여 사용자가 시선을 응시한 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성함으로써, 사용자의 시선이 응시되는 다양한 비주얼 오브젝트에 대한 사용자의 감정을 예측할 수 있다.The present invention generates emotion information about a specific visual object on which a user gazes by using reference biometric information determined based on the gaze data and brain wave data of the user, thereby making it possible for the user to gaze at various visual objects. The emotion of the user can be predicted.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present specification.
도 1은 본 발명의 일 실시예에 따른 사용자 감정 판단 장치를 설명하기 위한 개략도이다.1 is a schematic diagram illustrating an apparatus for determining a user emotion according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 영상 출력 장치가 실장된 HMD 장치를 설명하기 위한 개략도이다.2 is a schematic diagram illustrating an HMD device in which an image output device is mounted according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 HMD 장치 및 영상 출력 장치와 연결된 전자 장치를 설명하기 위한 개략도이다.3 is a schematic diagram illustrating an electronic device connected to an HMD device and an image output device according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 디스플레이를 구비한 HMD 장치 및 HMD 장치와 연결된 전자 장치를 설명하기 위한 개략도이다.4 is a schematic diagram illustrating an HMD device having a display and an electronic device connected to the HMD device according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성하기 위한 방법을 설명하기 위한 개략적인 순서도이다.FIG. 5 is a schematic flowchart illustrating a method for generating emotion information of a user with respect to a specific visual object in a user emotion determination apparatus according to an embodiment of the present invention.
도 6a, 도 6b, 도 6c 및 도 6d는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 기준 생체 정보를 결정하기 위한 방법을 설명하기 위한 예시도들이다.6A, 6B, 6C, and 6D are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 기준 생체 정보를 결정하기 위한 방법을 설명하기 위한 예시도들이다.7A and 7B are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determination apparatus according to an embodiment of the present invention.
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 기준 생체 정보를 결정하기 위한 방법을 설명하기 위한 예시도들이다.8A and 8B are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 특정 비주얼 오브젝트에 대한 사용자의 감정을 나타내는 감정 정보를 생성하는 방법을 설명하기 위한 예시도이다.9 is an exemplary diagram for describing a method of generating emotion information indicating a user's emotion with respect to a specific visual object in a user emotion determination apparatus according to an embodiment of the present invention.
도 10a 및 도 10b는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 기준 생체 정보를 보정하기 위한 방법을 설명하기 위한 예시도들이다.10A and 10B are exemplary diagrams for describing a method for correcting reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only the present embodiments to make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.
비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Like reference numerals refer to like elements throughout.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each of the features of the various embodiments of the present invention may be combined or combined with each other, partly or wholly, and various technically interlocking and driving are possible as one skilled in the art can fully understand, and each of the embodiments may be independently implemented with respect to each other. It may be possible to carry out together in an association.
본 명세서에서, 본 발명의 일 실시예에 따른 사용자 감정 판단 장치는 제한되지 않고, 사용자의 시선을 획득하고, 사용자의 뇌파 등과 같은 생체 정보를 획득하도록 구성된 모든 장치를 포함할 수 있다. 예를 들어, 사용자 감정 판단 장치는 HMD(Head Mounted Display) 장치, 헤드셋, 스마트링, 스마트 와치, 이어셋, 이어폰 등 사용자의 신체 일부에 접촉/착용되고, 사용자의 생체 정보를 획득하는 센서가 포함된 디바이스, 가상 현실, 증강 현실 또는 혼합 현실에 관련된 영상을 출력하는 영상 출력 장치 및 이들을 관리하는 전자 장치를 포함할 수 있다. 예를 들어, HMD 장치가 디스플레이를 구비하는 경우 사용자 감정 판단 장치는 HMD 장치 및 전자 장치를 포함할 수 있다. 여기서 생체 정보는 사용자의 맥박, 혈압, 뇌파 등 사용자의 의식적 및/또는 무의식적(예를 들어, 호흡, 심장 박동, 신진 대사 등) 행동에 따라 사용자의 신체로부터 발생하는 다양한 신호를 나타낼 수 있다. In the present specification, the apparatus for determining a user emotion according to an embodiment of the present invention is not limited, and may include any device configured to acquire a gaze of a user and obtain biometric information such as brain waves of the user. For example, the user emotion determination device may include a sensor for contacting / wearing a part of a user's body such as a head mounted display (HMD) device, a headset, a smart ring, a smart watch, an earset, an earphone, and obtaining a user's biometric information. The image output device may output an image related to a device, a virtual reality, an augmented reality, or a mixed reality, and an electronic device managing the same. For example, when the HMD device has a display, the user emotion determining device may include the HMD device and the electronic device. Here, the biometric information may represent various signals generated from the user's body according to the user's conscious and / or unconscious (eg, breathing, heart rate, metabolism, etc.) behavior such as pulse, blood pressure, brain wave, and the like.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 사용자 감정 판단 장치를 설명하기 위한 개략도이다. 도 1을 참조하면, 사용자 감정 판단 장치는 HMD 장치(100)를 포함하고, 영상 출력 장치(200) 및 전자 장치(300) 중 적어도 하나를 포함할 수 있다. 예를 들어, HMD 장치(100)가 디스플레이를 구비하는 경우 영상 출력 장치(200)는 포함되지 않을 수 있다.1 is a schematic diagram illustrating an apparatus for determining a user emotion according to an embodiment of the present invention. Referring to FIG. 1, the user emotion determining apparatus may include an HMD device 100 and may include at least one of an image output device 200 and an electronic device 300. For example, when the HMD device 100 includes a display, the image output device 200 may not be included.
HMD 장치(100)는 사용자의 머리에 장착되어 사용자가 실제와 유사한 공간적, 시간적 체험이 가능하도록 사용자에게 가상 현실, 증강 현실 또는 혼합 현실에 관한 영상을 제공함과 동시에, 사용자의 시선 및 뇌파 등의 생체 정보를 획득하여 가상 체험을 진행 중인 사용자의 신체적, 인지적, 감정적 변화를 감지할 수 있는 복합 가상 체험 장치일 수 있다.The HMD device 100 is mounted on the user's head to provide the user with an image of virtual reality, augmented reality, or mixed reality so that the user can have a spatial and temporal experience that is similar to reality, and at the same time, the user's eyes and brain waves, etc. It may be a complex virtual experience device that can acquire physical information and sense physical, cognitive, and emotional changes of a user who is undergoing a virtual experience.
구체적으로, HMD 장치(100)는 사용자의 머리에 착용 가능한 구조로 형성되고, 가상 현실, 증강 현실 또는 혼합 현실을 위한 영상 처리를 HMD 장치(100) 내부에서 수행하는 형태로 구현되거나 HMD 장치(100)의 일부에 가상 현실, 증강 현실 또는 혼합 현실에 관한 영상을 제공하는 영상 출력 장치(200)가 장착되고, 장착된 영상 출력 장치(200) 내부에서 가상 현실을 위한 영상 처리를 수행하는 형태로 구현될 수 있다.In detail, the HMD device 100 is formed in a structure that is wearable on a user's head, and the HMD device 100 is implemented to perform image processing for virtual reality, augmented reality, or mixed reality inside the HMD device 100 or the HMD device 100. The image output device 200 providing an image related to the virtual reality, the augmented reality, or the mixed reality is mounted on a part of the), and the image output device 200 performs image processing for the virtual reality in the mounted image output device 200. Can be.
HMD 장치(100)가 디스플레이를 구비하는 경우 사용자가 HMD 장치(100)를 착용할 시 사용자가 가상 현실, 증강 현실 또는 혼합 현실에 관한 영상을 확인할 수 있도록 디스플레이의 일면이 사용자의 얼굴에 대향 배치될 수 있다.When the HMD device 100 has a display, one side of the display may be disposed to face the user's face so that when the user wears the HMD device 100, the user may check an image about virtual reality, augmented reality, or mixed reality. Can be.
다양한 실시예에서 HMD 장치(100)의 일부에는 영상 출력 장치(200)를 수용할 수 있는 수용 공간(101)이 형성될 수 있다. 수용 공간(101) 내에 영상 출력 장치(200)가 수용된 경우 영상 출력 장치(200)의 일면(예: 영상 출력 장치(200)의 디스플레이가 위치된 일면)이 사용자의 얼굴에 대향 배치될 수 있다. 예를 들면, 영상 출력 장치(200)는 스마트폰, 태블릿 PC 등과 같은 휴대용 단말장치 또는 PC에 연결되어 PC로부터 제공되는 영상을 출력할 수 있는 휴대용 모니터 등을 포함할 수 있다.In various embodiments, an accommodating space 101 may be formed in a portion of the HMD device 100 to accommodate the image output device 200. When the image output apparatus 200 is accommodated in the accommodation space 101, one surface of the image output apparatus 200 (for example, one surface on which the display of the image output apparatus 200 is located) may be disposed to face the user's face. For example, the image output device 200 may include a portable terminal device such as a smartphone, a tablet PC, or the like, or a portable monitor capable of outputting an image provided from the PC by being connected to the PC.
HMD 장치(100)의 일측에는 사용자의 시선 데이터 및 뇌파 데이터를 획득하는 적어도 하나의 센서(미도시)가 형성될 수 있다. 적어도 하나의 센서는 사용자의 시선을 추적하는 시선 추적 센서 및 사용자의 뇌파를 측정하는 뇌파 센서를 포함할 수 있다. 다양한 실시예에서 적어도 하나의 센서는 사용자의 눈 또는 얼굴을 촬영 가능한 위치 또는 사용자의 피부에 접촉 가능한 위치에 형성되어, 사용자가 HMD 장치(100)를 착용할 시 사용자의 눈 또는 얼굴을 촬영하고, 촬영된 영상을 분석하여 사용자의 시선 데이터를 획득하거나 사용자의 피부에 접촉되어 사용자의 뇌전도 신호(EEG: electroencephalography)를 측정하여 뇌파 데이터를 획득할 수 있다. One side of the HMD device 100 may be formed with at least one sensor (not shown) for acquiring gaze data and brain wave data of the user. The at least one sensor may include a gaze tracking sensor for tracking the eyes of the user and an EEG sensor for measuring the brain waves of the user. In various embodiments, the at least one sensor is formed at a position where the user's eyes or face can be photographed or a position where the user's skin can be contacted, so that the user's eye or face is photographed when the user wears the HMD device 100. The photographed image may be analyzed to acquire eye gaze data of the user or may be in contact with the skin of the user to measure electroencephalography (EEG) of the user to acquire brain wave data.
HMD 장치(100)는 영상 출력 장치(200) 또는 전자 장치(300)의 요청에 따라 사용자의 시선 데이터 및 사용자의 뇌파 데이터를 획득하고, 획득된 시선 데이터 및 뇌파 데이터를 영상 출력 장치(100) 또는 전자 장치(300)로 전달할 수 있다. The HMD device 100 obtains the gaze data of the user and the brain wave data of the user according to a request of the image output device 200 or the electronic device 300, and obtains the obtained gaze data and the brain wave data from the image output device 100 or the like. It may transfer to the electronic device 300.
구체적으로, HMD 장치(100)는 디스플레이가 포함되는 경우 사용자의 제1 시선 데이터 및 제1 뇌파 데이터를 획득하기 위해 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 HMD 장치(100)의 디스플레이를 통해서 표시할 수 있다. 상기 제1 비주얼 오브젝트 또는 제1 사용자 인터페이스는 전자 장치(300)로부터 제공될 수 있다. 상기 제1 사용자 인터페이스는 제1 비주얼 오브젝트에 대응하여 사용자의 특정 행위에 대한 보상 서비스를 제공하는 보상형 콘텐트에 대한 사용자 인터페이스이고, 제1 비주얼 오브젝트는 상기 제1 사용자 인터페이스를 구성하는 보상형 콘텐트에 관련된 텍스트, 이미지, 아이콘 등의 그래픽 객체들 중 적어도 하나 또는 이들의 조합을 포함할 수 있다. 상기 보상형 콘텐트는 광고, 설문 조사, 이벤트, 문제풀이 또는 게임 등을 포함할 수 있다. 예를 들어, 제1 사용자 인터페이스는 광고를 재생하기 위한 사용자 인터페이스, 설문 조사를 위한 사용자 인터페이스, 이벤트 참여를 위한 사용자 인터페이스, 문제풀이를 위한 사용자 인터페이스 또는 게임 플레이를 사용자 인터페이스일 수 있다. 상기 제1 비주얼 오브젝트는 광고를 재생하기 위한 사용자 인터페이스에 포함된 광고 대상을 나타내는 이미지, 설문 조사를 위한 사용자 인터페이스에 포함된 설문 내용을 나타내는 텍스트, 이벤트 참여를 위한 사용자 인터페이스에 포함된 이벤트 내용을 나타내는 텍스트 및 이미지, 게임 플레이를 위한 사용자 인터페이스에 포함된 게임 관련 캐릭터, 아이템, 배경 등을 나타내는 이미지일 수 있다. 상기 사용자의 특정 행위는 보상 데이터를 획득하기 위한 조건을 만족하는 다양한 행위들 중 어느 하나를 포함하는데, 사용자 인터페이스에 포함된 광고 대상에 해당하는 이미지를 특정 시간 동안 응시하거나, 설문 또는 이벤트에 참여하거나, 게임 내 특정 아이템 또는 스코어를 획득하는 등의 행위를 포함할 수 있다.In detail, when the display includes the HMD device 100, the first user interface including the first visual object to obtain the first gaze data and the first brain wave data of the user through the display of the HMD device 100. I can display it. The first visual object or the first user interface may be provided from the electronic device 300. The first user interface is a user interface for rewarded content that provides a reward service for a specific behavior of a user in response to a first visual object, and the first visual object is used for rewarded content constituting the first user interface. It may include at least one or a combination of graphic objects, such as related text, images, icons, and the like. The rewarded content may include advertisements, surveys, events, problem solving or games. For example, the first user interface may be a user interface for playing an advertisement, a user interface for a survey, a user interface for event participation, a user interface for problem solving, or a game play. The first visual object may include an image representing an advertisement target included in a user interface for playing an advertisement, text representing a survey content included in a user interface for a survey, and event contents included in a user interface for event participation. It may be an image representing a text, an image, a game related character, an item, a background, etc. included in a user interface for game play. The specific behavior of the user includes any one of various behaviors that satisfy the conditions for acquiring the reward data. The specific behavior of the user may be gazing at an image corresponding to an advertisement target included in the user interface for a specific time, or participating in a survey or event. And obtaining certain items or scores in the game.
상기 HMD 장치(100)는 제1 시선 데이터와 연관된 제1 비주얼 오브젝트에 대한 사용자의 제1 뇌파 데이터를 획득하고, 획득된 제1 뇌파 데이터를 전자 장치(300)로 전달할 수 있다. 다양한 실시예에서 HMD 장치(100)는 전자 장치(300)와 연결되지 않은 상태 등과 같이 독립적으로 제1 시선 데이터와 연관된 제1 비주얼 오브젝트에 대한 사용자의 제1 뇌파 데이터를 수집하여 저장한 후 전자 장치(300)와 연결되었을 때, 저장된 제1 뇌파 데이터를 전자 장치(300)로 전달할 수도 있다.The HMD device 100 may obtain first brain wave data of the user for the first visual object associated with the first gaze data, and transmit the acquired first brain wave data to the electronic device 300. According to various embodiments of the present disclosure, the HMD device 100 collects and stores the first EEG data of the user for the first visual object associated with the first gaze data independently, such as without being connected to the electronic device 300. When connected to the 300, the stored first EEG data may be transmitted to the electronic device 300.
상기 HMD 장치(100)는 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성하기 위한 사용자의 제2 시선 데이터 및 제2 뇌파 데이터를 획득하기 위해 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 디스플레이를 통해서 표시할 수 있다. 상기 제2 비주얼 오브젝트 또는 제2 사용자 인터페이스는 전자 장치(300)로부터 제공될 수 있다. 상기 HMD 장치(100)는 제2 비주얼 오브젝트에 대한 사용자의 제2 시선 데이터를 획득하고, 획득된 제2 시선 데이터에 연관된 제2 비주얼 오브젝트에 대응하는 사용자의 제2 뇌파 데이터를 획득할 수 있다. 상기 HMD 장치(100)는 획득된 제2 뇌파 데이터를 전자 장치(300)로 전달할 수 있다. 다양한 실시예에서 HMD 장치(100)는 전자 장치(300)와 연결되지 않은 상태 등과 같이 독립적으로 제2 시선 데이터와 연관된 제2 비주얼 오브젝트에 대한 사용자의 제2 뇌파 데이터를 수집하여 저장한 후 전자 장치(300)와 연결되었을 때, 저장된 제2 뇌파 데이터를 전자 장치(300)로 전달할 수도 있다.The HMD device 100 may display a second user interface including a second visual object to obtain second gaze data and second brain wave data of the user for generating emotion information of the user with respect to a specific visual object. I can display it. The second visual object or the second user interface may be provided from the electronic device 300. The HMD device 100 may obtain second gaze data of the user for the second visual object, and acquire second brain wave data of the user corresponding to the second visual object associated with the obtained second gaze data. The HMD device 100 may transmit the acquired second brain wave data to the electronic device 300. According to various embodiments of the present disclosure, the HMD device 100 collects and stores second brain wave data of a user for a second visual object associated with second eye data independently, such as a state in which the electronic device 300 is not connected to the electronic device 300. When connected to the 300, the stored second EEG data may be transmitted to the electronic device 300.
다양한 실시예에서 HMD 장치(100)는 기준 생체 정보의 정확도를 향상시키 위해 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 디스플레이를 통해서 표시할 수 있다. 상기 복수의 비주얼 오브젝트들 또는 제3 사용자 인터페이스는 전자 장치(300)로부터 제공될 수 있다. 상기 HMD 장치(100)는 사용자의 제3 시선 데이터를 획득하고, 복수의 비주얼 오브젝트들 중 제3 시선 데이터와 연관된 제3 비주얼 오브젝트에 대응하는 사용자의 제3 뇌파 데이터를 획득할 수 있다. 상기 HMD 장치(100)는 획득된 제3 뇌파 데이터를 전자 장치(300)로 전달할 수 있다. 다양한 실시예에서 HMD 장치(100)는 전자 장치(300)와 연결되지 않은 상태 등과 같이 독립적으로 제3 시선 데이터와 연관된 제3 비주얼 오브젝트에 대한 사용자의 제3 뇌파 데이터를 수집하여 저장한 후 전자 장치(300)와 연결되었을 때, 저장된 제3 뇌파 데이터를 전자 장치(300)로 전달할 수도 있다.In various embodiments, the HMD device 100 may display a third user interface including a plurality of visual objects on the display to improve the accuracy of the reference biometric information. The plurality of visual objects or the third user interface may be provided from the electronic device 300. The HMD device 100 may obtain third gaze data of the user, and obtain third brain wave data of the user corresponding to the third visual object associated with the third gaze data among the plurality of visual objects. The HMD device 100 may transmit the acquired third brain wave data to the electronic device 300. According to various embodiments of the present disclosure, the HMD device 100 collects and stores the third brainwave data of the user for the third visual object associated with the third gaze data independently, such as when not connected to the electronic device 300. When connected to the 300, the stored third EEG data may be transmitted to the electronic device 300.
다양한 실시예에서 영상 출력 장치(200)가 HMD 장치(100)에 실장되는 경우 상기 영상 출력 장치(200)는 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 영상 출력 장치(200)의 디스플레이를 통해서 표시할 수 있다. 상기 영상 출력 장치(200)는 HMD 장치(100)를 통해서 제1 비주얼 오브젝트에 대한 사용자의 제1 시선 데이터를 획득하고, 획득된 제1 시선 데이터와 연관된 제1 비주얼 오브젝트에 대한 사용자의 제1 뇌파 데이터를 HMD 장치(100)를 통해서 획득할 수 있다. 상기 영상 출력 장치(200)는 획득된 제1 뇌파 데이터를 전자 장치(300)로 전달할 수 있다.According to various embodiments, when the image output apparatus 200 is mounted on the HMD device 100, the image output apparatus 200 may display a first user interface including a first visual object through a display of the image output apparatus 200. I can display it. The image output apparatus 200 obtains the first gaze data of the user for the first visual object through the HMD device 100, and the first brain wave of the user for the first visual object associated with the obtained first gaze data. Data may be obtained through the HMD device 100. The image output device 200 may transmit the acquired first brain wave data to the electronic device 300.
상기 영상 출력 장치(200)는 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 디스플레이를 통해서 표시할 수 있다. 상기 영상 출력 장치(200)는 HMD 장치(100)를 통해서 제2 비주얼 오브젝트에 대한 사용자의 제2 시선 데이터를 획득하고, 획득된 제2 시선 데이터와 연관된 제2 비주얼 오브젝트에 대한 사용자의 제2 뇌파 데이터를 HMD 장치(100)를 통해서 획득할 수 있다. 상기 영상 출력 장치(200)는 획득된 제2 뇌파 데이터를 전자 장치(300)로 전달할 수 있다.The image output device 200 may display a second user interface including a second visual object on a display. The image output device 200 obtains the user's second gaze data for the second visual object through the HMD device 100, and the user's second brain wave for the second visual object associated with the acquired second gaze data. Data may be obtained through the HMD device 100. The image output device 200 may transmit the acquired second brain wave data to the electronic device 300.
다양한 실시예에서 영상 출력 장치(200)는 기준 생체 정보의 정확도를 향상시키기 위해 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 디스플레이를 통해서 표시할 수 있다. 상기 영상 출력 장치(200)는 HMD 장치(100)를 통해서 사용자의 제3 시선 데이터를 획득하고, 복수의 비주얼 오브젝트들 중 제3 시선 데이터와 연관된 제3 비주얼 오브젝트에 대응하는 사용자의 제3 뇌파 데이터를 획득할 수 있다. 상기 영상 출력 장치(200)는 획득된 제3 뇌파 데이터를 전자 장치(300)로 전달할 수 있다.In various embodiments, the image output apparatus 200 may display a third user interface including a plurality of visual objects on a display in order to improve the accuracy of the reference biometric information. The image output apparatus 200 obtains the third gaze data of the user through the HMD device 100, and the third brain wave data of the user corresponding to the third visual object associated with the third gaze data among the plurality of visual objects. Can be obtained. The image output device 200 may transmit the acquired third brain wave data to the electronic device 300.
전자 장치(300)는 HMD 장치(100) 또는/및 영상 출력 장치(200)와 전기적으로 연결되고, HMD 장치(100) 또는 영상 출력 장치(200)로 사용자 인터페이스를 제공할 수 있다. 상기 전자 장치(300)는 HMD 장치(100)로부터 뇌파 데이터를 수신하거나 영상 출력 장치(200)로부터 사용자의 감정 정보를 수신하여 이를 나타내는 인터페이스 화면을 디스플레이를 통해서 표시할 수 있다. 이러한 전자 장치(300)는 유선 통신을 통해 HMD 장치(100) 또는 영상 출력 장치(200)와 통신할 수 있다.The electronic device 300 may be electrically connected to the HMD device 100 or / and the image output device 200, and provide a user interface to the HMD device 100 or the image output device 200. The electronic device 300 may receive an EEG data from the HMD device 100 or receive an emotion information of a user from the image output device 200 and display an interface screen indicating the same through a display. The electronic device 300 may communicate with the HMD device 100 or the image output device 200 through wired communication.
HMD 장치(100)가 디스플레이를 구비하는 경우 전자 장치(300)는 HMD 장치(100)로 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 제공하고, HMD 장치(100)로부터 제1 비주얼 오브젝트에 대응하는 제1 뇌파 데이터를 수신할 수 있다. 상기 전자 장치(300)는 수신된 제1 뇌파 데이터를 사용자 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. When the HMD device 100 has a display, the electronic device 300 provides the HMD device 100 with a first user interface including the first visual object, and corresponds to the first visual object from the HMD device 100. The first EEG data may be received. The electronic device 300 may determine the received first brain wave data as reference biometric information for determining user emotion.
구체적으로, 전자 장치(300)는 HMD 장치(100)로 사용자의 제1 시선 데이터를 요청하고, HMD 장치(100)로부터 제1 시선 데이터를 수신할 수 있다. 상기 전자 장치(300)는 수신된 제1 시선 데이터가 제1 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 상기 제1 시선 데이터는 사용자의 시선에 따른 제1 위치 좌표를 포함할 수 있다. 상기 전자 장치(300)는 제1 위치 좌표와 HMD 장치(100)의 디스플레이 상의 특정 위치에 대한 좌표를 맵핑하여 맵핑된 좌표가 제1 비주얼 오브젝트의 위치 좌표에 대응하는지를 판단할 수 있다. 예를 들어, 상기 맵핑된 좌표가 제1 비주얼 오브젝트를 구성하는 화소들의 위치 좌표 중 어느 하나에 해당하면 전자 장치(300)는 맵핑된 좌표가 제1 비주얼 오브젝트의 위치 좌표에 대응한다고 판단할 수 있다. 상기 맵핑된 좌표가 제1 비주얼 오브젝트의 위치 좌표에 대응되면 전자 장치(300)는 제1 시선 데이터가 제1 비주얼 오브젝트에 대응한다고 판단할 수 있다. 상기 제1 시선 데이터가 제1 비주얼 오브젝트에 대응되면 전자 장치(300)는 제1 비주얼 오브젝트에 대한 사용자의 특정 행위가 감지되는지를 확인할 수 있다. 특정 행위가 감지되면 전자 장치(300)는 해당 특정 행위의 결과에 따른 보상 데이터가 제공되는지를 확인하고, 보상 데이터가 제공될 때 HMD 장치(100)로 사용자의 제1 뇌파 데이터를 요청할 수 있다. 상기 HMD 장치(100)로부터 제1 뇌파 데이터가 수신되면 전자 장치(300)는 수신된 제1 뇌파 데이터를 사용자 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. 예를 들어, 긍정적인 보상(예: 아이템 또는 점수 획득 등)에 해당하는 보상 데이터가 제공되면 전자 장치(300)는 HMD 장치(100)로부터 수신된 제1 뇌파 데이터를 긍정적인 감정을 판단하기 위한 제1 기준 생체 정보로 결정할 수 있다. 부정적인 보상(예: 점수 차감 등)에 해당하는 보상 데이터가 제공되거나 보상 데이터가 제공되지 않으면(예: 아이템 또는 점수 미획득 등) 전자 장치(300)는 HMD 장치(100)로부터 수신된 제1 뇌파 데이터를 부정적인 감정을 판단하기 위한 제2 기준 생체 정보로 결정할 수 있다. 예를 들어, 긍정적인 감정은 기쁨, 행복, 즐거움 등을 포함하고, 부정적인 감정은 슬픔, 분노, 괴로움 등을 포함할 수 있다. 상기에서는 보상 데이터가 제공되거나 제공되지 않은 경우를 설명하였으나, 다양한 실시예에서 보상 데이터가 긍정적인 보상(예: 점수 획득 등) 또는 부정적인 보상(예: 점수 차감 등)을 포함할 경우 긍정적인 보상을 포함하는 보상 데이터가 제공되면 전자 장치(300)는 긍적적인 보상이 포함된 보상 데이터가 제공되었을 때 HMD 장치(100)를 통해서 획득된 제1 뇌파 데이터를 긍정적인 감정을 판단하기 위한 제1 기준 생체 정보로 결정하고, 부정적인 보상이 포함된 보상 데이터가 제공되었을 때 HMD 장치(100)를 통해서 획득된 제1 뇌파 데이터를 부정적인 감정을 판단하기 위한 제2 기준 생체 정보로 결정할 수 있다. 다양한 실시예에서 기준 생체 정보는 사용자의 다양한 감정을 판단하기 위해 다수 개로 결정될 수 있다. 예를 들어, 사용자의 기쁨, 행복, 관심, 즐거움, 신남, 편안, 무관심, 놀람, 슬픔, 두려움, 화남, 걱정, 긴장, 혼란, 불안, 억울함, 미움, 짜증, 피곤, 싸늘함, 서운함, 우울함 등의 감정을 판단하기 위한 기준 생체 정보가 결정될 수 있다.In detail, the electronic device 300 may request the first gaze data of the user from the HMD device 100 and receive the first gaze data from the HMD device 100. The electronic device 300 may determine whether the received first gaze data corresponds to the first visual object. The first gaze data may include first location coordinates according to the gaze of the user. The electronic device 300 may determine whether the mapped coordinates correspond to the position coordinates of the first visual object by mapping the first position coordinates with the coordinates of the specific position on the display of the HMD device 100. For example, when the mapped coordinates correspond to any one of the position coordinates of the pixels constituting the first visual object, the electronic device 300 may determine that the mapped coordinates correspond to the position coordinates of the first visual object. . When the mapped coordinates correspond to the position coordinates of the first visual object, the electronic device 300 may determine that the first gaze data corresponds to the first visual object. When the first gaze data corresponds to the first visual object, the electronic device 300 may determine whether a specific action of the user with respect to the first visual object is detected. When the specific action is detected, the electronic device 300 may determine whether compensation data is provided according to the result of the specific action, and request the first EEG data of the user from the HMD device 100 when the compensation data is provided. When the first brain wave data is received from the HMD device 100, the electronic device 300 may determine the received first brain wave data as reference biometric information for determining user emotion. For example, when reward data corresponding to a positive reward (eg, item or score acquisition) is provided, the electronic device 300 may determine first emotion based on the first EEG data received from the HMD device 100. It may be determined as the first reference biometric information. If reward data corresponding to a negative reward (eg, deduction of score, etc.) is provided or no reward data is provided (eg, no item or score is obtained), the electronic device 300 receives the first EEG received from the HMD device 100. The data may be determined as second reference biometric information for determining negative emotions. For example, positive emotions may include joy, happiness, joy, and the like, and negative emotions may include sadness, anger, suffering, and the like. In the above, the case where the reward data is provided or not provided is described, but in various embodiments, when the reward data includes a positive reward (eg, earning a score) or a negative reward (eg, subtracting a score, etc.), a positive reward is provided. When the compensation data including the compensation data is provided, the electronic device 300 determines the first emotion based on the first EEG data acquired through the HMD device 100 when the compensation data including the positive compensation is provided. The information may be determined, and when the reward data including the negative reward is provided, the first brain wave data acquired through the HMD device 100 may be determined as the second reference biometric information for determining the negative emotion. In various embodiments, a plurality of reference biometric information may be determined to determine various emotions of the user. For example, user's joy, happiness, interest, enjoyment, excitement, comfort, indifference, surprise, sadness, fear, anger, worried, nervous, confusion, anxiety, hatred, hate, annoyed, tired, cool, chilly, depressed, etc. Reference biometric information for determining an emotion of the patient may be determined.
상기 전자 장치(300)는 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 HMD 장치(100)로 제공하고, HMD 장치(100)로부터 제2 비주얼 오브젝트에 대응하는 제2 뇌파 데이터를 수신할 수 있다. 상기 전자 장치(300)는 수신된 제2 뇌파 데이터 및 기준 생체 정보를 기초로 제2 비주얼 오브젝트에 대한 감정 정보를 생성할 수 있다. 구체적으로, 구체적으로, 전자 장치(300)는 HMD 장치(100)로 사용자의 제2 시선 데이터를 요청하고, HMD 장치(100)로부터 제2 시선 데이터가 수신되면 수신된 제2 시선 데이터가 제2 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 예를 들어, 제2 시선 데이터는 사용자의 시선에 대한 제2 위치 좌표를 포함할 수 있고, 제2 비주얼 오브젝트는 사용자가 어떠한 감정을 가지는지를 확인하기 위한 광고, 게임 등의 다양한 콘텐트를 나타내는 텍스트, 이미지, 아이콘 등의 그래픽 객체들 중 적어도 하나 또는 이들의 조합을 포함할 수 있다. 상기 전자 장치(300)는 제2 위치 좌표와 HMD 장치(100)의 디스플레이 상의 특정 위치에 대한 좌표를 맵핑하여 맵핑된 좌표가 제2 비주얼 오브젝트의 위치 좌표에 대응하는지를 확인할 수 있다. 상기 제2 위치 좌표가 제2 비주얼 오브젝트의 위치 좌표에 대응되면 전자 장치(300)는 제2 시선 데이터가 제2 비주얼 오브젝트에 대응한다고 판단할 수 있다. 상기 제2 시선 데이터가 제2 비주얼 오브젝트에 대응한다고 판단되면 전자 장치(300)는 HMD 장치(100)로 사용자의 제2 뇌파 데이터를 요청하고, HMD 장치(100)로부터 제2 뇌파 데이터를 수신할 수 있다. 상기 전자 장치(300)는 수신된 제2 뇌파 데이터와 일치하는 기준 생체 정보를 확인하고, 확인된 기준 생체 정보에 관련된 감정 정보(예: 긍정적인 감정 또는 부정적인 감정 등)를 제2 비주얼 오브젝트에 대한 사용자의 감정 정보로 생성할 수 있다. 예를 들어, 제2 뇌파 데이터와 일치하는 기준 생체 정보가 긍정적인 감정에 해당하는 제1 기준 생체 정보인 경우 전자 장치(300)는 긍정적인 감정을 제2 비주얼 오브젝트에 대한 감정 정보로 생성할 수 있다. 다양한 실시예에서 제2 뇌파 데이터와 일치하는 기준 생체 정보가 부정적인 감정에 해당하는 제2 기준 생체 정보인 경우 전자 장치(300)는 부정적인 감정을 제2 비주얼 오브젝트에 대한 감정 정보로 생성할 수 있다.The electronic device 300 may provide a second user interface including a second visual object to the HMD device 100 and receive second brain wave data corresponding to the second visual object from the HMD device 100. . The electronic device 300 may generate emotion information about the second visual object based on the received second brain wave data and reference biometric information. In detail, the electronic device 300 requests the second gaze data of the user from the HMD device 100, and when the second gaze data is received from the HMD device 100, the received second gaze data is the second. It may be determined whether it corresponds to a visual object. For example, the second gaze data may include second location coordinates with respect to the user's gaze, and the second visual object may include text representing various contents such as an advertisement, a game, etc., to determine what emotion the user has; It may include at least one or a combination of graphic objects, such as an image, an icon. The electronic device 300 may determine whether the mapped coordinates correspond to the position coordinates of the second visual object by mapping the second position coordinates with the coordinates of the specific position on the display of the HMD device 100. When the second location coordinates correspond to the location coordinates of the second visual object, the electronic device 300 may determine that the second gaze data corresponds to the second visual object. If it is determined that the second gaze data corresponds to the second visual object, the electronic device 300 requests the second EEG data of the user from the HMD device 100, and receives the second EEG data from the HMD device 100. Can be. The electronic device 300 checks reference biometric information that matches the received second brain wave data, and transmits emotion information (eg, positive emotion or negative emotion, etc.) related to the confirmed reference biometric information for the second visual object. It may be generated by the user's emotion information. For example, when the reference biometric information that matches the second brain wave data is the first reference biometric information corresponding to the positive emotion, the electronic device 300 may generate the positive emotion as emotion information on the second visual object. have. According to various embodiments of the present disclosure, when the reference biometric information that matches the second EEG data is the second reference biometric information corresponding to the negative emotion, the electronic device 300 may generate the negative emotion as emotion information on the second visual object.
상기 전자 장치(300)는 생성된 감정 정보를 저장하거나, 감정 정보를 나타내는 인터페이스 화면을 디스플레이를 통해서 표시할 수 있다.The electronic device 300 may store the generated emotion information or display an interface screen indicating the emotion information on a display.
다양한 실시예에서 제2 비주얼 오브젝트는 상기 제1 비주얼 오브젝트와 서로 무관한 특징 또는 주제를 가지거나 서로 무관한 카테고리에 대응하는 적어도 하나의 그래픽 객체를 포함할 수 있다. 예를 들어, 제1 비주얼 오브젝트가 게임에 관련되는 경우 제2 비주얼 오브젝트는 광고에 관련된 그래픽 객체일 수 있다. 또한, 제1 비주얼 오브젝트가 어드벤처 게임에 관련되는 경우 제2 비주얼 오브젝트는 롤플레잉 게임에 관련된 그래픽 객체일 수 있다. 또한, 제1 비주얼 오브젝트가 자동차 광고에 관련되는 경우 제2 비주얼 오브젝트는 화장품 광고에 대한 그래픽 객체일 수 있다. According to various embodiments of the present disclosure, the second visual object may include at least one graphic object corresponding to a category having a feature or a subject unrelated to the first visual object or not related to each other. For example, when the first visual object relates to a game, the second visual object may be a graphic object related to an advertisement. In addition, when the first visual object relates to the adventure game, the second visual object may be a graphic object related to the role playing game. In addition, when the first visual object relates to a car advertisement, the second visual object may be a graphic object for a cosmetic advertisement.
이와 같이 본 발명은 제2 비주얼 오브젝트와 서로 무관한 특징 또는 주제를 가지거나 무관한 카테고리에 해당하는 제1 비주얼 오브젝트를 이용하더라도 제2 비주얼 오브젝트에 대한 사용자의 감정을 예측할 수 있게 된다.As described above, the present invention can predict the emotion of the user with respect to the second visual object even if the first visual object corresponds to a category having a feature or theme unrelated to the second visual object or not related to the second visual object.
상기 전자 장치(300)는 기준 생체 정보의 정확도를 향상시키 위해 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 HMD 장치(100)로 제공하고, HMD 장치(100)로부터 복수의 비주얼 오브젝트들 중 사용자의 제3 시선 데이터와 연관된 제3 비주얼 오브젝트에 대응하는 제3 뇌파 데이터를 수신할 수 있다. 상기 전자 장치(300)는 수신된 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다. 구체적으로, 전자 장치(300)는 HMD 장치(100)를 통해서 사용자의 제3 시선 데이터를 획득하고, 복수의 비주얼 오브젝트들 중 제3 시선 데이터에 연관된 제3 비주얼 오브젝트를 확인할 수 있다. 예를 들어, 전자 장치(300)는 HMD 장치(100)를 통해서 사용자의 시선에 대한 제3 위치 좌표를 나타내는 제3 시선 데이터를 획득하고, 획득된 제3 위치 좌표와 HMD 장치(100)의 디스플레이 상의 특정 좌표를 맵핑하여 맵핑된 좌표에 해당하는 제3 비주얼 오브젝트를 확인할 수 있다. 이를 통해서, 사용자의 시선이 복수의 비주얼 오브젝트들 중 어느 비주얼 오브젝트를 응시하는지를 확인할 수 있다. 상기 사용자의 시선이 제3 비주얼 오브젝트에 응시되는 것으로 확인되면 전자 장치(300)는 HMD 장치(100)로 사용자의 제3 뇌파 데이터를 요청하고, HMD 장치(100)로부터 제3 뇌파 데이터를 수신할 수 있다. 상기 전자 장치(300)는 수신된 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다. 다양한 실시예에서 전자 장치(300)는 사용자의 시선뿐만 아니라 제3 비주얼 오브젝트에 대한 사용자의 선택 입력이 수신되면 선택 입력이 수신될 때 HMD 장치(100)를 통해서 사용자의 제3 뇌파 데이터를 획득하여 획득된 제3 뇌파 데이터를 기초로 기준 생체 정보를 보정할 수도 있다.The electronic device 300 provides the HMD device 100 with a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information, and the user of the plurality of visual objects from the HMD device 100. And third brain wave data corresponding to a third visual object associated with the third gaze data of the. The electronic device 300 may correct the reference biometric information by using the received third brain wave data. In detail, the electronic device 300 may obtain third gaze data of the user through the HMD device 100 and identify a third visual object related to the third gaze data among the plurality of visual objects. For example, the electronic device 300 obtains third gaze data representing third location coordinates of the user's gaze through the HMD device 100, and displays the acquired third location coordinates and the HMD device 100. The third visual object corresponding to the mapped coordinate may be confirmed by mapping specific coordinates of the image. Through this, it is possible to confirm which visual object of the plurality of visual objects the user's gaze looks at. If the gaze of the user is determined to gaze at the third visual object, the electronic device 300 requests the third EEG data of the user from the HMD device 100 and receives the third EEG data from the HMD device 100. Can be. The electronic device 300 may correct the reference biometric information by using the received third brain wave data. According to various embodiments of the present disclosure, when the user's selection input for the third visual object is received as well as the user's eyes, the electronic device 300 acquires the third EEG data of the user through the HMD device 100 when the selection input is received. The reference biometric information may be corrected based on the obtained third brain wave data.
다양한 실시예에서 영상 출력 장치(200)가 HMD 장치(100)에 실장되는 경우 전자 장치(300)는 사용자의 제1 시선 데이터 및 제1 뇌파 데이터를 획득하기 위해 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 영상 출력 장치(200)로 제공할 수 있다. 상기 전자 장치(300)는 HMD 장치(100)를 통해서 제1 비주얼 오브젝트에 대한 사용자의 제1 시선 데이터를 획득하고, 획득된 제1 시선 데이터와 연관된 제1 비주얼 오브젝트에 대한 사용자의 제1 뇌파 데이터를 HMD 장치(100)를 통해서 획득할 수 있다. 상기 전자 장치(300)는 획득된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. 구체적으로, 전자 장치(300)는 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 영상 출력 장치(200)로 제공하고, 영상 출력 장치(200)를 통해서 제1 사용자 인터페이스가 표시되면 HMD 장치(100)로 사용자의 제1 시선 데이터를 요청할 수 있다. 예를 들어, 전자 장치(300)는 제1 사용자 인터페이스를 포함하는 영상을 영상 출력 장치(200)로 전달할 수 있다. 상기 영상은 가상 현실 영상, 증강 현실 영상 또는 혼합 현실 영상일 수 있다. HMD 장치(100)로부터 제1 시선 데이터가 수신되면 전자 장치(300)는 수신된 제1 시선 데이터가 제1 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 상기 제1 시선 데이터가 제1 비주얼 오브젝트에 대응되면 전자 장치(300)는 제1 비주얼 오브젝트에 대한 사용자의 특정 행위가 감지되는지를 확인하고, 특정 행위가 감지되면 감지된 특정 행위의 결과에 따른 보상 데이터가 제공되는지 확인 수 있다. 예를 들어, 전자 장치(300)는 영상 출력 장치(200)를 통해서 표시 중인 제1 사용자 인터페이스를 분석하여 특정 행위가 감지되는지 및 특정 행위의 결과에 따른 보상 데이터가 제공되는지를 확인할 수 있다. 상기 전자 장치(300)는 보상 데이터가 제공될 때 HMD 장치(100)로 사용자의 제1 뇌파 데이터를 요청하고, HMD 장치(100)로부터 제1 뇌파 데이터가 수신되면 수신된 제1 뇌파 데이터를 사용자 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. According to various embodiments, when the image output device 200 is mounted on the HMD device 100, the electronic device 300 may include a first visual object including a first visual object to obtain first gaze data and first brain wave data of a user. The user interface may be provided to the image output apparatus 200. The electronic device 300 obtains the first gaze data of the user for the first visual object through the HMD device 100, and the first brain wave data of the user for the first visual object associated with the obtained first gaze data. Can be obtained through the HMD device 100. The electronic device 300 may determine the obtained first brain wave data as reference biometric information for determining an emotion of a user. In detail, the electronic device 300 provides the first user interface including the first visual object to the image output device 200, and when the first user interface is displayed through the image output device 200, the HMD device 100. ) May request the first gaze data of the user. For example, the electronic device 300 may transmit an image including the first user interface to the image output device 200. The image may be a virtual reality image, an augmented reality image, or a mixed reality image. When the first gaze data is received from the HMD device 100, the electronic device 300 may determine whether the received first gaze data corresponds to the first visual object. When the first gaze data corresponds to the first visual object, the electronic device 300 checks whether a specific action of the user with respect to the first visual object is detected, and if a specific action is detected, compensation according to the result of the detected specific action You can check if the data is provided. For example, the electronic device 300 may analyze the first user interface displayed on the image output device 200 to determine whether a specific action is detected and whether compensation data is provided according to a result of the specific action. The electronic device 300 requests the first EEG data of the user from the HMD device 100 when the compensation data is provided, and the user receives the received first EEG data when the first EEG data is received from the HMD device 100. The reference biometric information for determining an emotion may be determined.
상기 전자 장치(300)는 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성하기 위한 사용자의 제2 시선 데이터 및 제2 뇌파 데이터를 획득하기 위해 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 영상 출력 장치(200)로 제공하고, HMD 장치(100)를 통해서 제2 비주얼 오브젝트에 대한 사용자의 제2 시선 데이터를 획득할 수 있다. 상기 전자 장치(300)는 제2 시선 데이터에 연관된 제2 비주얼 오브젝트에 대응하는 사용자의 제2 뇌파 데이터를 HMD 장치(100)를 통해서 획득하고, 기준 생체 정보 및 획득된 제2 뇌파 데이터를 기초로 제2 비주얼 오브젝트에 대한 사용자의 감정을 나타내는 감정 정보를 생성할 수 있다. 구체적으로, 전자 장치(300)는 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 영상 출력 장치(200)로 제공하고, 영상 출력 장치(200)를 통해서 제2 사용자 인터페이스가 표시되면 HMD 장치(100)로 사용자의 제2 시선 데이터를 요청할 수 있다. 예를 들어, 전자 장치(300)는 제2 사용자 인터페이스를 포함하는 영상을 영상 출력 장치(200)로 전달할 수 있다. 상기 영상은 가상 현실 영상, 증강 현실 영상 또는 혼합 현실 영상일 수 있다. HMD 장치(100)로부터 제2 시선 데이터가 수신되면 전자 장치(300)는 수신된 제2 시선 데이터가 제2 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 제2 시선 데이터가 제2 비주얼 오브젝트에 대응되면 전자 장치(300)는 HMD 장치(100)로 사용자의 제2 뇌파 데이터를 요청하고, HMD 장치(100)로부터 제2 뇌파 데이터가 수신되면 수신된 제2 뇌파 데이터와 일치하는 기준 생체 정보를 확인할 수 있다. 전자 장치(300)는 확인된 기준 생체 정보에 관련된 감정 정보를 제2 비주얼 오브젝트에 대한 사용자의 감정 정보로 생성할 수 있다. 예를 들어, 제2 뇌파 데이터와 일치하는 기준 생체 정보가 긍정적인 감정에 해당하는 제1 기준 생체 정보인 경우 전자 장치(300)는 긍정적인 감정을 제2 비주얼 오브젝트에 대한 감정 정보로 생성할 수 있다. 다양한 실시예에서 제2 뇌파 데이터와 일치하는 기준 생체 정보가 부정적인 감정에 해당하는 제2 기준 생체 정보인 경우 전자 장치(300)는 부정적인 감정을 제2 비주얼 오브젝트에 대한 감정 정보로 생성할 수 있다.The electronic device 300 outputs a second user interface including a second visual object to obtain second gaze data and second brain wave data of the user for generating emotion information of the user with respect to a specific visual object. The user's second gaze data with respect to the second visual object may be acquired through the HMD device 100. The electronic device 300 obtains, through the HMD device 100, second brain wave data of the user corresponding to the second visual object associated with the second gaze data, based on the reference biometric information and the acquired second brain wave data. Emotion information representing the emotion of the user with respect to the second visual object may be generated. In detail, the electronic device 300 provides a second user interface including the second visual object to the image output device 200, and when the second user interface is displayed through the image output device 200, the HMD device 100. ) May request the second gaze data of the user. For example, the electronic device 300 may transmit an image including the second user interface to the image output device 200. The image may be a virtual reality image, an augmented reality image, or a mixed reality image. When the second gaze data is received from the HMD device 100, the electronic device 300 may determine whether the received second gaze data corresponds to the second visual object. When the second gaze data corresponds to the second visual object, the electronic device 300 requests the second EEG data of the user from the HMD device 100, and receives the second EEG data when the second EEG data is received from the HMD device 100. 2 Reference biometric information matching the EEG data can be confirmed. The electronic device 300 may generate emotion information related to the identified reference biometric information as emotion information of the user with respect to the second visual object. For example, when the reference biometric information that matches the second brain wave data is the first reference biometric information corresponding to the positive emotion, the electronic device 300 may generate the positive emotion as emotion information on the second visual object. have. According to various embodiments of the present disclosure, when the reference biometric information that matches the second EEG data is the second reference biometric information corresponding to the negative emotion, the electronic device 300 may generate the negative emotion as emotion information on the second visual object.
다양한 실시예에서 전자 장치(300)는 기준 생체 정보의 정확도를 향상시키 위해 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 영상 출력 장치(200)로 제공할 수 있다. 상기 전자 장치(300)는 HMD 장치(100)를 통해서 복수의 비주얼 오브젝트들 중 제3 비주얼 오브젝트에 대응하는 사용자의 제3 뇌파 데이터를 획득하고, 획득된 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다. 구체적으로, 전자 장치(300)는 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 영상 출력 장치(200)로 제공하고, 영상 출력 장치(200)를 통해서 제3 사용자 인터페이스가 표시되면 HMD 장치(100)로 사용자의 제3 시선 데이터를 요청할 수 있다. 예를 들어, 전자 장치(300)는 제3 사용자 인터페이스를 포함하는 영상을 HMD 장치(100)로 전달할 수 있다. 상기 영상은 가상 현실 영상, 증강 현실 영상 또는 혼합 현실 영상일 수 있다. HMD 장치(100)로부터 제3 시선 데이터가 수신되면 전자 장치(300)는 수신된 제3 시선 데이터가 복수의 비주얼 오브젝트들 중 어느 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 이를 통해서 사용자의 시선이 복수의 오브젝트들 중 어느 비주얼 오브젝트를 응시하는지를 확인할 수 있다. 예를 들어, 수신된 제3 시선 데이터가 제3 비주얼 오브젝트에 대응하는 경우 전자 장치(300)는 HMD 장치(100)로 사용자의 제3 뇌파 데이터를 요청하고, HMD 장치(100)로부터 제3 뇌파 데이터가 수신되면 수신된 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다. 다양한 실시예에서 전자 장치(300)는 제3 비주얼 오브젝트에 대한 사용자의 선택 입력이 수신되면 선택 입력이 수신될 때 HMD 장치(100)를 통해서 사용자의 제3 뇌파 데이터를 획득하고, 획득된 제3 뇌파 데이터를 기초로 기준 생체 정보를 보정할 수도 있다.In various embodiments, the electronic device 300 may provide the image output device 200 with a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information. The electronic device 300 obtains third brain wave data of a user corresponding to a third visual object among a plurality of visual objects through the HMD device 100, and obtains reference biometric information using the acquired third brain wave data. You can correct it. Specifically, the electronic device 300 provides a third user interface including a plurality of visual objects to the image output device 200, and when the third user interface is displayed through the image output device 200, the HMD device 100. ) May request the third eye data of the user. For example, the electronic device 300 may transmit an image including the third user interface to the HMD device 100. The image may be a virtual reality image, an augmented reality image, or a mixed reality image. When the third gaze data is received from the HMD device 100, the electronic device 300 may determine which of the plurality of visual objects the received third gaze data corresponds to. Through this, it is possible to confirm which visual object of the plurality of objects the user's gaze looks at. For example, when the received third gaze data corresponds to the third visual object, the electronic device 300 requests the third EEG data of the user from the HMD device 100, and the third EEG from the HMD device 100. When the data is received, the reference biometric information may be corrected using the received third brain wave data. According to various embodiments of the present disclosure, when the user's selection input for the third visual object is received, the electronic device 300 acquires the third brain wave data of the user through the HMD device 100 when the selection input is received, and the acquired third The reference biometric information may be corrected based on the EEG data.
하기에서는 사용자의 감정을 판단하기 위해 영상 출력 장치(200)가 사용자의 감정 정보를 생성하는 실시예를 설명하도록 한다.Hereinafter, an embodiment in which the image output apparatus 200 generates the emotion information of the user to determine the emotion of the user will be described.
다양한 실시예에서 영상 출력 장치(200)는 HMD 장치(100)로부터 획득된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. 구체적으로, 영상 출력 장치(200)는 HMD 장치(100)로 사용자의 제1 시선 데이터를 요청하고, HMD 장치(100)로부터 제1 시선 데이터를 수신할 수 있다. 상기 영상 출력 장치(200)는 수신된 제1 시선 데이터가 제1 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 상기 제1 시선 데이터가 제1 비주얼 오브젝트에 대응되면 영상 출력 장치(200)는 제1 비주얼 오브젝트에 대한 사용자의 특정 행위가 감지되는지를 확인할 수 있다. 특정 행위가 감지되면 영상 출력 장치(200)는 해당 특정 행위의 결과에 따른 보상 데이터가 제공되는지를 확인하고, 보상 데이터가 제공될 때 HMD 장치(100)로 사용자의 제1 뇌파 데이터를 요청할 수 있다. 상기 HMD 장치(100)로부터 제1 뇌파 데이터가 수신되면 영상 출력 장치(200)는 수신된 제1 뇌파 데이터를 사용자 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다.In various embodiments, the image output apparatus 200 may determine the first EEG data obtained from the HMD device 100 as reference biometric information for determining the emotion of the user. In detail, the image output apparatus 200 may request the first gaze data of the user from the HMD device 100 and receive the first gaze data from the HMD device 100. The image output apparatus 200 may determine whether the received first gaze data corresponds to the first visual object. When the first gaze data corresponds to the first visual object, the image output apparatus 200 may determine whether a specific action of the user with respect to the first visual object is detected. When a specific action is detected, the image output device 200 may determine whether compensation data is provided according to the result of the specific action, and request the first EEG data of the user from the HMD device 100 when the compensation data is provided. . When the first EEG data is received from the HMD device 100, the image output device 200 may determine the received first EEG data as reference biometric information for determining user emotion.
상기 영상 출력 장치(200)는 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성하기 위한 사용자의 시선 데이터 및 뇌파 데이터를 획득하기 위해 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 디스플레이를 통해서 표시할 수 있다. 상기 영상 출력 장치(200)는 HMD 장치(100)를 통해서 제2 비주얼 오브젝트에 대한 사용자의 제2 시선 데이터를 획득하고, 획득된 제2 시선 데이터에 연관된 제2 비주얼 오브젝트에 대응하는 사용자의 제2 뇌파 데이터를 획득할 수 있다. 상기 영상 출력 장치(200)는 기준 생체 정보 및 획득된 제2 뇌파 데이터를 기초로 제2 비주얼 오브젝트에 대한 사용자의 감정을 나타내는 감정 정보를 생성할 수 있다. 구체적으로, 영상 출력 장치(200)는 HMD 장치(100)로 사용자의 제2 시선 데이터를 요청하고, HMD 장치(100)로부터 제2 시선 데이터가 수신되면 수신된 제2 시선 데이터가 제2 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 상기 제2 시선 데이터가 제2 비주얼 오브젝트에 대응한다고 판단되면 영상 출력 장치(200)는 HMD 장치(100)로 사용자의 제2 뇌파 데이터를 요청하고, HMD 장치(100)로부터 제2 뇌파 데이터를 수신할 수 있다. 상기 영상 출력 장치(200)는 수신된 제2 뇌파 데이터와 일치하는 기준 생체 정보를 확인하고, 확인된 기준 생체 정보에 관련된 감정 정보(예: 긍정적인 감정 또는 부정적인 감정 등)를 제2 비주얼 오브젝트에 대한 사용자의 감정 정보로 생성할 수 있다. 상기 영상 출력 장치(200)는 생성된 감정 정보를 전자 장치(300)로 전달할 수 있다.The image output apparatus 200 may display, on a display, a second user interface including a second visual object to obtain gaze data and brain wave data of the user for generating emotion information of the user for a specific visual object. have. The image output apparatus 200 obtains the second gaze data of the user for the second visual object through the HMD device 100, and the second gaze of the user corresponding to the second visual object associated with the obtained second gaze data. EEG data can be obtained. The image output apparatus 200 may generate emotion information indicating a user's emotion with respect to the second visual object based on the reference biometric information and the acquired second brain wave data. In detail, the image output apparatus 200 requests the second gaze data of the user from the HMD device 100, and when the second gaze data is received from the HMD device 100, the received second gaze data is a second visual object. It can be determined whether or not to correspond to. If it is determined that the second gaze data corresponds to the second visual object, the image output apparatus 200 requests the second EEG data of the user from the HMD device 100 and receives the second EEG data from the HMD device 100. can do. The image output apparatus 200 confirms reference biometric information that matches the received second brain wave data, and transmits emotion information (eg, positive emotion or negative emotion) related to the confirmed reference biometric information to the second visual object. The emotion information of the user may be generated. The image output device 200 may transmit the generated emotion information to the electronic device 300.
다양한 실시예에서 영상 출력 장치(200)는 기준 생체 정보의 정확도를 향상시키기 위해 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 디스플레이를 통해서 표시할 수 있다. 제3 사용자 인터페이스가 제공되면 영상 출력 장치(200)는 HMD 장치(100)를 통해서 사용자의 제3 시선 데이터를 획득할 수 있다. 상기 영상 출력 장치(200)는 복수의 비주얼 오브젝트들 중 제3 시선 데이터와 연관된 제3 비주얼 오브젝트에 대응하는 사용자의 제3 뇌파 데이터를 HMD 장치(100)를 통해서 획득하고, 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다. 다양한 실시예에서 영상 출력 장치(200)는 사용자의 시선뿐만 아니라 제3 비주얼 오브젝트에 대한 사용자의 선택 입력이 수신되면 선택 입력이 수신될 때 HMD 장치(100)를 통해서 사용자의 제3 뇌파 데이터를 획득하여 획득된 제3 뇌파 데이터를 기초로 기준 생체 정보를 보정할 수도 있다.In various embodiments, the image output apparatus 200 may display a third user interface including a plurality of visual objects on a display in order to improve the accuracy of the reference biometric information. When the third user interface is provided, the image output apparatus 200 may obtain third eye gaze data of the user through the HMD device 100. The image output apparatus 200 obtains, through the HMD device 100, third brain wave data of a user corresponding to a third visual object associated with third eye data among a plurality of visual objects, and uses the third brain wave data. The reference biometric information can be corrected. According to various embodiments of the present disclosure, when the user's selection input for the third visual object is received as well as the user's eyes, the image output apparatus 200 acquires the third brain wave data of the user through the HMD device 100 when the selection input is received. The reference biometric information may be corrected based on the third EEG data obtained.
상기에서는 HMD 장치(100)가 사용자의 시선 데이터에 연관된 비주얼 오브젝트에 대응하는 뇌파 데이터를 영상 출력 장치(200) 또는 전자 장치(300)로 제공하는 것으로 설명하였으나, 다양한 실시예에서 HMD 장치(100)는 기준 생체 정보를 생성하고, 기준 생체 정보를 이용하여 사용자의 감정 정보를 생성하고, 기준 생체 정보를 보정하는 등의 동작들을 수행할 수도 있다. 이러한 동작들은 전자 장치(300)와 연결되지 않은 상태에서 수행될 수 있으며, HMD 장치(100)는 생성된 감정 정보를 저장하고 있다가 전자 장치(300)와 연결될 시 저장된 감정 정보를 전자 장치(300)로 전달할 수도 있다.In the above description, the HMD device 100 provides the EEG data corresponding to the visual object related to the gaze data of the user to the image output device 200 or the electronic device 300. However, in various embodiments, the HMD device 100 May generate reference biometric information, generate emotion information of the user using the reference biometric information, correct the reference biometric information, and the like. These operations may be performed in a state where the electronic device 300 is not connected. The HMD device 100 stores the generated emotion information and then stores the emotion information stored when the electronic device 300 is connected to the electronic device 300. You can also pass
도 2는 본 발명의 일 실시예에 따른 영상 출력 장치가 실장된 HMD 장치를 설명하기 위한 개략도이다. 하기에서는 도 2를 참조하여 영상 출력 장치(200)가 사용자의 감정 정보를 생성하는 실시 예를 설명하도록 한다.2 is a schematic diagram illustrating an HMD device in which an image output device is mounted according to an embodiment of the present invention. Hereinafter, an embodiment in which the image output apparatus 200 generates emotion information of a user will be described with reference to FIG. 2.
도 1 및 도 2를 참조하면, HMD 장치(100)는 통신 인터페이스(110), 메모리(130), 센서(140) 및 프로세서(150)를 포함하고, 영상 출력 장치(200)는 통신 인터페이스(210), 디스플레이(220), 메모리(230) 및 프로세서(240)를 포함할 수 있다. 1 and 2, the HMD device 100 includes a communication interface 110, a memory 130, a sensor 140, and a processor 150, and the image output device 200 includes a communication interface 210. ), A display 220, a memory 230, and a processor 240.
먼저, HMD 장치(100)에 대해서 살펴보면, HMD 장치(100)의 통신 인터페이스(110)는 HMD 장치(100)가 외부 장치와 통신 가능하도록 연결한다. 예를 들면, 통신 인터페이스(110)는 유/무선 통신을 이용하여 영상 출력 장치(200) 및 전자 장치(300)와 연결할 수 있다. 여기서, 무선 통신은 WiFi(wireless fidelity), 블루투스, 저전력 블루투스(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 등 중 적어도 하나를 포함하고, 유선 통신은 USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 상기 통신 인터페이스(110)는 영상 출력 장치(200) 또는 전자 장치(300)로부터 사용자의 시선 데이터 및 뇌파 데이터에 대한 요청을 수신하고, 센서(140)를 통해서 획득된 사용자의 시선 데이터 및 뇌파 데이터를 영상 출력 장치(200) 또는 전자 장치(300)로 전달할 수 있다. First, referring to the HMD device 100, the communication interface 110 of the HMD device 100 connects the HMD device 100 to communicate with an external device. For example, the communication interface 110 may connect with the image output device 200 and the electronic device 300 using wired / wireless communication. The wireless communication may include wireless fidelity (WiFi), Bluetooth, low power Bluetooth (BLE), Zigbee, near field communication (NFC), magnetic secure transmission, radio frequency (RF), or body area network. (BAN) and the like, and wired communication includes a universal serial bus (USB), a high definition multimedia interface (HDMI), a standard standard232 (RS-232), a power line communication, or a plain old telephone service (POTS). It may include at least one. The communication interface 110 receives a request for the gaze data and the brain wave data of the user from the image output device 200 or the electronic device 300, and receives the gaze data and the brain wave data of the user obtained through the sensor 140. The image output device 200 may be transferred to the electronic device 300.
메모리(130)는 센서(140)를 통해서 획득된 센싱 정보(예: 시선 데이터 및 뇌파 데이터)를 저장할 수 있다.The memory 130 may store sensing information (eg, gaze data and brain wave data) obtained through the sensor 140.
센서(140)는 사용자의 시선을 추적하는 시선 추적 센서(142) 및 사용자의 뇌파를 측정하는 뇌파 센서(144)를 포함할 수 있다. 예를 들어, 시선 추적 센서(142)는 사용자의 눈 또는 얼굴을 촬영하는 카메라 센서를 포함하고, 카메라 센서를 통해서 촬영된 영상을 분석하여 사용자의 시선에 대한 위치 좌표를 나타내는 시선 데이터를 출력할 수 있다. 다양한 실시예에서 사용자의 시선을 추적하기 위해 다양한 방식이 사용될 수 있으며, 영상 분석 이외에 콘택트 렌즈 방식(거울 내장 콘택트 렌즈의 반사된 빛이나, 코일 내장 콘택트 렌즈의 자기장을 이용하는 시선 추적 방식) 또는 센서 부착 방식(눈 주위에 센서를 부착하여 눈의 움직임에 따른 전기장을 이용하는 시선 추적 방식) 등을 이용하여 사용자의 시선을 추적할 수 있다. 또한, 뇌파 센서(144)는 적어도 하나의 EEG(Electroencephalogram) 센서 및/또는 MEG(Magnetoencephalography), NIRS(Near-Infrared Spectrometer)를 포함할 수 있다. 상기 뇌파 센서는 접촉된 사용자의 신체 부위로부터 발생되는 다양한 주파수의 뇌파 혹은 뇌의 활성화 상태에 따라 변하는 전기적/광학적 주파수를 측정하여 뇌파 데이터로 출력할 수 있다.The sensor 140 may include a gaze tracking sensor 142 for tracking the eyes of the user and an EEG sensor 144 for measuring the brain waves of the user. For example, the gaze tracking sensor 142 may include a camera sensor for capturing a user's eyes or face, and may analyze gaze captured by the camera sensor to output gaze data indicating a position coordinate of the gaze of the user. have. In various embodiments, a variety of methods may be used to track the user's eyes, and in addition to image analysis, a contact lens method (reflected light of a mirror-embedded contact lens or a gaze tracking method using a magnetic field of a coil-embedded contact lens) or a sensor may be attached. The eye of the user may be tracked using a method (a line of sight tracking method using an electric field according to eye movement by attaching a sensor around the eye). In addition, the EEG sensor 144 may include at least one electroencephalogram (EEG) sensor and / or magnetoencephalography (MEG) and a near-infrared spectrometer (NIRS). The EEG sensor may measure the electrical / optical frequency that varies according to the EEG of various frequencies generated from the body part of the user or the activation state of the brain and output the EEG data.
프로세서(150)는 통신 인터페이스(110), 메모리(130) 및 센서(140)와 동작 가능하게 연결되며, 영상 출력 장치(200) 또는 전자 장치(300)의 요청에 따라 센서(140)를 통해서 획득된 시선 데이터 및 뇌파 데이터를 영상 출력 장치(200) 또는 전자 장치(300)로 전달할 수 있다. 구체적으로, 프로세서(150)는 영상 출력 장치(200) 또는 전자 장치(300)로부터 사용자의 시선 데이터에 대한 요청이 수신되면 시선 추적 센서(142)를 통해서 획득된 시선 데이터를 영상 출력 장치(200) 또는 전자 장치(300)로 전달할 수 있다. 상기 프로세서(150)는 영상 출력 장치(200) 또는 전자 장치(300)로부터 사용자의 뇌파 데이터에 대한 요청이 수신되면 뇌파 센서(144)를 통해서 획득된 뇌파 데이터를 영상 출력 장치(200) 또는 전자 장치(300)로 전달할 수 있다.The processor 150 is operatively connected with the communication interface 110, the memory 130, and the sensor 140, and is acquired through the sensor 140 at the request of the image output device 200 or the electronic device 300. The visual gaze data and the brain wave data may be transmitted to the image output device 200 or the electronic device 300. In detail, the processor 150 receives the gaze data acquired through the gaze tracking sensor 142 when the request for the gaze data of the user is received from the image output device 200 or the electronic device 300. Alternatively, the information may be transferred to the electronic device 300. When the processor 150 receives a request for the brain wave data of the user from the image output apparatus 200 or the electronic device 300, the processor 150 outputs the brain wave data acquired through the brain wave sensor 144 to the image output apparatus 200 or the electronic apparatus. Can be passed to 300.
영상 출력 장치(200)에 대해서 살펴보면, 영상 출력 장치(200)의 통신 인터페이스(210)는 영상 출력 장치(200)가 외부 장치와 통신 가능하도록 연결한다. 예를 들면, 통신 인터페이스(210)는 유/무선 통신을 이용하여 HMD 장치(100)와 연결하고, HMD 장치(100)로부터 영상 출력 장치(200)가 HMD 장치(100)에 장착됨을 나타내는 신호를 수신할 수 있다. 상기 통신 인터페이스(210)는 사용자의 시선 데이터 및 뇌파 데이터에 대한 요청을 HMD 장치(100)로 전달하고, HMD 장치(100)로부터 사용자의 시선 데이터 및 뇌파 데이터를 수신할 수 있다. 다양한 실시예에서 통신 인터페이스(210)는 특정 비주얼 오브젝트에 대한 사용자의 감정을 나타내는 감정 정보를 전자 장치(300)로 전달할 수 있다.Referring to the image output apparatus 200, the communication interface 210 of the image output apparatus 200 connects the image output apparatus 200 to communicate with an external device. For example, the communication interface 210 connects to the HMD device 100 using wired / wireless communication, and receives a signal from the HMD device 100 indicating that the image output device 200 is mounted on the HMD device 100. Can be received. The communication interface 210 may transmit a request for gaze data and brain wave data of the user to the HMD device 100, and receive gaze data and brain wave data of the user from the HMD device 100. According to various embodiments of the present disclosure, the communication interface 210 may transmit emotion information indicating the emotion of the user with respect to a specific visual object to the electronic device 300.
디스플레이(220)는 사용자에게 각종 콘텐트(예: 텍스트, 이미지, 비디오, 아이콘, 배너 또는 심벌 등)를 표시할 수 있다. 구체적으로, 디스플레이(220)는 가상 현실 영상, 증강 현실 영상 또는 혼합 현실 영상을 표시하는데, 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스, 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스 또는 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 나타내는 가상 현실 영상을 표시할 수 있다.The display 220 may display various contents (eg, text, images, videos, icons, banners, or symbols) to the user. In detail, the display 220 displays a virtual reality image, an augmented reality image, or a mixed reality image. The display 220 includes a first user interface including a first visual object, a second user interface including a second visual object, or a plurality of visuals. The virtual reality image representing the third user interface including the objects may be displayed.
메모리(230)는 영상을 표시하거나 사용자의 감정을 판단하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 구체적으로, 메모리(230)는 가상 현실 영상 및 가상 현실 영상을 표시하기 위해 사용되는 어플리케이션, 프로그램 또는 위젯 등을 저장할 수 있다. 또한, 메모리(230)는 특정 비주얼 오브젝트가 포함된 사용자 인터페이스를 나타내는 가상 현실 영상을 표시하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 상기 메모리(230)는 HMD 장치(100)로부터 수신된 사용자의 시선 데이터 및 뇌파 데이터를 저장할 수 있다.The memory 230 may store various data used to display an image or determine an emotion of a user. In detail, the memory 230 may store a virtual reality image and an application, a program, or a widget used to display the virtual reality image. In addition, the memory 230 may store various data used to display a virtual reality image representing a user interface including a specific visual object. The memory 230 may store gaze data and brain wave data of the user received from the HMD device 100.
프로세서(240)는 통신 인터페이스(210), 디스플레이(220) 및 메모리(130)와 동작 가능하게 연결되며, 특정 비주얼 오브젝트에 대한 사용자의 감정을 판단하기 위한 다양한 명령들을 수행할 수 있다.The processor 240 is operatively connected to the communication interface 210, the display 220, and the memory 130, and may perform various commands for determining the emotion of the user with respect to a specific visual object.
구체적으로, 프로세서(240)는 특정 비주얼 오브젝트에 대한 사용자의 감정을 판단하기 위한 사용자의 제1 시선 데이터 및 제1 뇌파 데이터를 획득하기 위해 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 디스플레이(220)를 통해서 표시할 수 있다. 다양한 실시예에서 제1 비주얼 오브젝트 또는 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스는 전자 장치(300)로부터 제공될 수 있다.In detail, the processor 240 displays a first user interface including the first visual object to acquire first gaze data and first brain wave data of the user for determining the emotion of the user with respect to a specific visual object. ) Can be displayed. In various embodiments, the first visual object or the first user interface including the first visual object may be provided from the electronic device 300.
상기 프로세서(240)는 HMD 장치(100)를 통해서 사용자의 제1 시선 데이터를 획득하고, 획득된 제1 시선 데이터와 연관된 제1 비주얼 오브젝트에 대응하는 사용자의 제1 뇌파 데이터를 HMD 장치(100)를 통해서 획득할 수 있다. 상기 프로세서(240)는 획득된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. The processor 240 acquires first gaze data of the user through the HMD device 100, and transmits the first EEG data of the user corresponding to the first visual object associated with the acquired first gaze data. Can be obtained through The processor 240 may determine the obtained first brain wave data as reference biometric information for determining an emotion of a user.
구체적으로, 프로세서(240)는 디스플레이(220)를 통해서 제1 사용자 인터페이스가 표시되면 HMD 장치(100)로 사용자의 시선에 대한 제1 위치 좌표를 포함하는 제1 시선 데이터를 요청하고, HMD 장치(100)로부터 제1 시선 데이터를 수신할 수 있다. 상기 프로세서(240)는 사용자의 시선에 대한 제1 위치 좌표와 디스플레이(220) 상의 특정 좌표를 맵핑하고, 맵핑된 좌표가 제1 비주얼 오브젝트의 위치 좌표에 대응하는지 판단할 수 있다. 예를 들어, 프로세서(240)는 상기 맵핑된 좌표가 제1 비주얼 오브젝트를 구성하는 화소들의 위치 좌표 중 어느 하나에 해당하면 맵핑된 좌표가 제1 비주얼 오브젝트의 위치 좌표에 대응한다고 판단할 수 있다. 상기 맵핑된 좌표가 제1 비주얼 오브젝트의 위치 좌표에 대응되면 프로세서(240)는 제1 시선 데이터가 제1 비주얼 오브젝트에 대응한다고 판단할 수 있다. 상기 제1 시선 데이터가 제1 비주얼 오브젝트에 대응되면 프로세서(240)는 제1 비주얼 오브젝트에 대한 사용자의 특정 행위가 감지되는지를 확인할 수 있다. 상기 특정 행위가 감지되면 프로세서(240)는 감지된 특정 행위의 결과에 따른 보상 데이터가 제공되는지를 확인하고, 보상 데이터가 제공되면 HMD 장치(100)로 사용자의 제1 뇌파 데이터를 요청할 수 있다. 예를 들어, 프로세서(240)는 디스플레이(220) 상에 표시되는 가상 현실 영상을 분석하여 특정 행위가 감지되는지 또는 특정 행위의 결과에 따른 보상 데이터가 제공되는지를 확인할 수 있다. HMD 장치(100)로부터 사용자의 제1 뇌파 데이터가 수신되면 프로세서(240)는 수신된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. 예를 들어, 긍정적인 보상(예: 아이템 또는 점수 획득 등)에 해당하는 보상 데이터가 제공되면 프로세서(240)는 HMD 장치(100)로부터 수신된 제1 뇌파 데이터를 사용자의 긍정적인 감정을 판단하기 위한 제1 기준 생체 정보로 결정할 수 있다. 부정적인 보상에 해당하는 보상 데이터가 제공되거나 보상 데이터가 제공되지 않으면 프로세서(240)는 HMD 장치(100)로부터 수신된 제1 뇌파 데이터를 사용자의 부정적인 감정을 판단하기 위한 제2 기준 생체 정보로 결정할 수 있다. In detail, when the first user interface is displayed through the display 220, the processor 240 requests the first gaze data including the first position coordinates of the user's gaze from the HMD device 100, and the HMD device ( The first gaze data may be received from 100. The processor 240 may map the first position coordinates of the user's gaze with the specific coordinates on the display 220 and determine whether the mapped coordinates correspond to the position coordinates of the first visual object. For example, if the mapped coordinates correspond to any one of the position coordinates of the pixels constituting the first visual object, the processor 240 may determine that the mapped coordinates correspond to the position coordinates of the first visual object. When the mapped coordinates correspond to the position coordinates of the first visual object, the processor 240 may determine that the first gaze data corresponds to the first visual object. When the first gaze data corresponds to the first visual object, the processor 240 may determine whether a specific action of the user with respect to the first visual object is detected. When the specific behavior is detected, the processor 240 may determine whether compensation data is provided according to the result of the detected specific behavior, and when the compensation data is provided, the processor 240 may request the first EEG data of the user from the HMD device 100. For example, the processor 240 may analyze the virtual reality image displayed on the display 220 to determine whether a specific behavior is detected or compensation data based on a result of the specific behavior is provided. When the first brain wave data of the user is received from the HMD device 100, the processor 240 may determine the received first brain wave data as reference biometric information for determining the emotion of the user. For example, when reward data corresponding to a positive reward (eg, item or score acquisition) is provided, the processor 240 may determine the positive emotion of the user based on the first EEG data received from the HMD device 100. It can be determined as the first reference biometric information for. If compensation data corresponding to the negative compensation is provided or no compensation data is provided, the processor 240 may determine the first EEG data received from the HMD device 100 as second reference biometric information for determining a negative emotion of the user. have.
상기 프로세서(240)는 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성하기 위한 사용자의 제2 시선 데이터 및 제2 뇌파 데이터를 획득하기 위해 제2 비주얼 오브젝트가 포함된 제2 사용자 인터페이스를 디스플레이(220)를 통해서 표시할 수 있다. 예를 들어, 제2 비주얼 오브젝트는 사용자가 어떠한 감정을 가지는지를 확인하기 위한 광고, 게임 등의 콘텐트일 수 있다. 다양한 실시예에서 제2 비주얼 오브젝트 또는 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스는 전자 장치(300)로부터 제공될 수 있다.The processor 240 displays a second user interface including a second visual object to obtain second gaze data and second brain wave data of the user for generating emotion information of the user for a specific visual object. Can be displayed through For example, the second visual object may be content such as an advertisement or a game for identifying what emotion the user has. In various embodiments, the second visual object or the second user interface including the second visual object may be provided from the electronic device 300.
상기 프로세서(240)는 디스플레이(220)를 통해서 제2 사용자 인터페이스가 표시되면 HMD 장치(100)를 통해서 제2 비주얼 오브젝트에 대한 사용자의 제2 시선 데이터를 획득하고, 획득된 제2 시선 데이터에 연관된 제2 비주얼 오브젝트에 대응하는 사용자의 제2 뇌파 데이터를 획득할 수 있다. 상기 프로세서(240)는 기준 생체 정보 및 획득된 제2 뇌파 데이터를 기초로 제2 비주얼 오브젝트에 대한 사용자의 감정을 나타내는 감정 정보를 생성할 수 있다. 구체적으로, 디스플레이(220)를 통해서 제2 사용자 인터페이스가 표시되면 프로세서(240)는 HMD 장치(100)로 사용자의 시선에 대한 제2 위치 좌표를 포함하는 제2 시선 데이터를 요청하고, HMD 장치(100)로부터 제2 시선 데이터가 수신되면 수신된 제2 시선 데이터가 제2 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 예를 들어, 프로세서(240)는 제2 위치 좌표와 디스플레이(220) 상의 특정 좌표를 맵핑하고, 맵핑된 좌표가 제2 비주얼 오브젝트의 위치 좌표에 대응하는지를 판단될 수 있다. 맵핑된 좌표가 제2 비주얼 오브젝트의 위치 좌표에 대응되면 프로세서(240)는 HMD 장치(100)로 사용자의 제2 뇌파 데이터를 요청하고, HMD 장치(100)로부터 사용자의 제2 뇌파 데이터를 수신할 수 있다. 상기 프로세서(240)는 수신된 제2 뇌파 데이터와 일치하는 기준 생체 정보를 확인할 수 있다. 예를 들어, 프로세서(240)는 제2 뇌파 데이터와 기준 생체 정보에 해당하는 제1 뇌파 데이터를 비교하여 두 뇌파 데이터간의 주파수 차이값이 기 설정된 임계값 이하인 경우 제2 뇌파 데이터와 일치하는 기준 생체 정보를 제1 뇌파 데이터로 확인할 수 있다. 상기 프로세서(240)는 확인된 기준 생체 정보에 관련된 감정 정보를 제2 비주얼 오브젝트에 대한 감정 정보로 생성할 수 있다. 예를 들어, 확인된 기준 생체 정보에 관련된 감정 정보가 긍정적인 감정인 경우 프로세서(240)는 긍정적인 감정을 제2 비주얼 오브젝트에 대한 사용자의 감정 정보로 생성할 수 있다. 확인된 기준 생체 정보에 관련된 감정 정보가 부정적인 감정인 경우 프로세서(240)는 부정적인 감정을 제2 비주얼 오브젝트에 대한 사용자의 감정 정보로 생성할 수 있다.When the second user interface is displayed through the display 220, the processor 240 acquires second eye data of the user for the second visual object through the HMD device 100 and is associated with the obtained second eye data. The second brain wave data of the user corresponding to the second visual object may be acquired. The processor 240 may generate emotion information indicating a user's emotion with respect to the second visual object based on the reference biometric information and the acquired second brain wave data. Specifically, when the second user interface is displayed through the display 220, the processor 240 requests the second gaze data including the second position coordinates of the user's gaze from the HMD device 100, and the HMD device ( When the second gaze data is received from 100, it may be determined whether the received second gaze data corresponds to the second visual object. For example, the processor 240 may map the second position coordinates and specific coordinates on the display 220, and determine whether the mapped coordinates correspond to the position coordinates of the second visual object. When the mapped coordinates correspond to the position coordinates of the second visual object, the processor 240 requests the second EEG data of the user from the HMD device 100, and receives the second EEG data of the user from the HMD device 100. Can be. The processor 240 may identify reference biometric information that matches the received second brain wave data. For example, the processor 240 compares the second EEG data with the first EEG data corresponding to the reference biometric information, and when the frequency difference value between the two EEG data is less than or equal to a preset threshold, the reference living body coincides with the second EEG data. The information can be confirmed with the first EEG data. The processor 240 may generate emotion information related to the identified reference biometric information as emotion information on the second visual object. For example, when the emotion information related to the identified reference biometric information is a positive emotion, the processor 240 may generate the positive emotion as emotion information of the user with respect to the second visual object. If the emotion information related to the identified reference biometric information is a negative emotion, the processor 240 may generate the negative emotion as emotion information of the user with respect to the second visual object.
다양한 실시예에서 프로세서(240)는 생성된 감정 정보를 메모리(230)에 저장하거나 생성된 감정 정보를 전자 장치(300)로 전달할 수 있다.In various embodiments, the processor 240 may store the generated emotion information in the memory 230 or transfer the generated emotion information to the electronic device 300.
다양한 실시예에서 프로세서(240)는 기준 생체 정보의 정확도를 향상시키 위해 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 디스플레이(220)를 통해서 표시할 수 있다. 상기 복수의 비주얼 오브젝트들은 다양한 감정 상태 정보에 관련된 이미지들을 포함할 수 있다. 예를 들어, 복수의 비주얼 오브젝트들은 긍정적인 감정 상태 정보에 관련된 이미지들을 포함하거나, 긍정적인 감정 상태 또는 부정적인 감정 상태 정보에 관련된 이미지들을 포함할 수 있다. 다양한 실시예에서 복수의 비주얼 오브젝트들 또는 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스는 전자 장치(300)로부터 제공될 수 있다.In various embodiments, the processor 240 may display, via the display 220, a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information. The plurality of visual objects may include images related to various emotional state information. For example, the plurality of visual objects may include images related to positive emotional state information, or may include images related to positive emotional state or negative emotional state information. According to various embodiments, the third user interface including the plurality of visual objects or the plurality of visual objects may be provided from the electronic device 300.
상기 프로세서(240)는 디스플레이(220)를 통해서 제2 사용자 인터페이스가 표시되면 HMD 장치(100)를 통해서 복수의 비주얼 오브젝트들 중 제3 비주얼 오브젝트에 대한 사용자의 제3 시선 데이터를 획득하고, 획득된 제3 시선 데이터에 연관된 제3 비주얼 오브젝트에 대응하는 사용자의 제3 뇌파 데이터를 획득할 수 있다. 상기 프로세서(240)는 획득된 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다. 구체적으로, 디스플레이(220)를 통해서 제3 사용자 인터페이스가 표시되면 프로세서(240)는 HMD 장치(100)로 사용자의 시선에 대한 제3 위치 좌표를 포함하는 제3 시선 데이터를 요청하고, HMD 장치(100)로부터 제3 시선 데이터가 수신되면 수신된 제3 시선 데이터가 복수의 비주얼 오브젝트들 중 어느 비주얼 오브젝트에 대응하는지를 확인할 수 있다. 예를 들어, 프로세서(240)는 제3 위치 좌표와 디스플레이(220) 상의 특정 좌표를 맵핑하고, 맵핑된 좌표가 복수의 비주얼 오브젝트들 중 어느 비주얼 오브젝트의 위치 좌표에 대응하는지를 판단할 수 있다. 맵핑된 좌표가 제3 비주얼 오브젝트의 위치 좌표에 대응되면 프로세서(240)는 HMD 장치(100)로 사용자의 제3 뇌파 데이터를 요청하고, HMD 장치(100)로부터 사용자의 제3 뇌파 데이터를 수신할 수 있다. 상기 프로세서(240)는 수신된 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다. When the second user interface is displayed through the display 220, the processor 240 acquires third eye data of the user for the third visual object from among the plurality of visual objects through the HMD device 100, and obtains Third brain wave data of the user corresponding to the third visual object associated with the third gaze data may be acquired. The processor 240 may correct the reference biometric information by using the acquired third EEG data. In detail, when the third user interface is displayed through the display 220, the processor 240 requests the third gaze data including the third position coordinates of the user's gaze from the HMD device 100, and the HMD device ( When the third gaze data is received from 100, the received third gaze data may identify which visual object among the plurality of visual objects. For example, the processor 240 may map the third position coordinates and specific coordinates on the display 220, and determine whether the mapped coordinates correspond to which of the plurality of visual objects. When the mapped coordinates correspond to the position coordinates of the third visual object, the processor 240 requests the third EEG data of the user from the HMD device 100, and receives the third EEG data of the user from the HMD device 100. Can be. The processor 240 may correct the reference biometric information by using the received third brain wave data.
다양한 실시예에서 프로세서(240)는 복수의 비주얼 오브젝트들 각각에 대응하여 다양한 감정 상태 정보를 설정하고, 복수의 비주얼 오브젝트들 중 사용자의 제3 시선 데이터에 연관된 제3 비주얼 오브젝트에 대응하는 감정 상태 정보를 확인할 수 있다. 예를 들어, 복수의 오브젝트들은 긍정적인 감정에 대응되는 비주얼 오브젝트 또는 부정적인 감정에 대응되는 비주얼 오브젝트를 포함할 수 있다. 확인된 감정 상태 정보가 긍정적인 감정인 경우 프로세서(240)는 제3 뇌파 데이터를 이용하여 긍정적인 감정을 판단하기 위해 결정된 제1 기준 생체 정보를 보정할 수 있다. 확인된 감정 상태 정보가 부정적인 감정인 경우 프로세서(240)는 제3 뇌파 데이터를 이용하여 부정적인 감정을 판단하기 위해 결정된 제2 기준 생체 정보를 보정할 수 있다.According to various embodiments of the present disclosure, the processor 240 sets various emotional state information corresponding to each of the plurality of visual objects, and the emotional state information corresponding to the third visual object associated with the third gaze data of the user among the plurality of visual objects. You can check. For example, the plurality of objects may include a visual object corresponding to a positive emotion or a visual object corresponding to a negative emotion. If the identified emotional state information is a positive emotion, the processor 240 may correct the first reference biometric information determined to determine the positive emotion using the third brain wave data. When the identified emotional state information is a negative emotion, the processor 240 may correct the second reference biometric information determined to determine the negative emotion using the third brain wave data.
도 3은 본 발명의 일 실시예에 따른 HMD 장치 및 영상 출력 장치와 연결된 전자 장치를 설명하기 위한 개략도이다. 하기에서는 도 3을 참조하여 전자 장치(300)가 사용자의 감정 정보를 생성하는 실시 예를 설명하도록 한다.3 is a schematic diagram illustrating an electronic device connected to an HMD device and an image output device according to an embodiment of the present invention. Hereinafter, an embodiment in which the electronic device 300 generates user emotion information will be described with reference to FIG. 3.
도 1, 도 2 및 도 3을 참조하면, 전자 장치(300)는 통신 인터페이스(310), 디스플레이(320), 메모리(330) 및 프로세서(340)를 포함할 수 있다.1, 2, and 3, the electronic device 300 may include a communication interface 310, a display 320, a memory 330, and a processor 340.
통신 인터페이스(310)는 전자 장치(300)가 외부 장치와 통신 가능하도록 연결한다. 예를 들면, 통신 인터페이스(310)는 유선 통신을 이용하여 영상 출력 장치(200)가 실장된 HMD 장치(100) 및 상기 영상 출력 장치(200)와 연결할 수 있다. 구체적으로, 통신 인터페이스(310)는 HMD 장치(100)로 사용자의 시선 데이터 및 뇌파 데이터에 대한 요청을 전달하거나, HMD 장치(100)로부터 사용자의 시선 데이터 및 뇌파 데이터를 수신할 수 있다. 상기 통신 인터페이스(310)는 특정 비주얼 오브젝트와 함께 해당 비주얼 오브젝트를 포함하는 사용자 인터페이스를 표시하도록 하기 위한 요청을 영상 출력 장치(200)로 전달할 수 있다. 다양한 실시예에서 통신 인터페이스(310)는 상기 요청과 함께 해당 사용자 인터페이스를 포함하는 가상 현실 영상을 영상 출력 장치(200)로 전달할 수 있다.The communication interface 310 connects the electronic device 300 to communicate with an external device. For example, the communication interface 310 may be connected to the HMD device 100 in which the image output device 200 is mounted and the image output device 200 using wired communication. In detail, the communication interface 310 may transmit a request for gaze data and brain wave data of the user to the HMD device 100, or receive gaze data and brain wave data of the user from the HMD device 100. The communication interface 310 may transmit a request to the image output apparatus 200 to display a user interface including a corresponding visual object together with a specific visual object. In various embodiments, the communication interface 310 may transmit the virtual reality image including the corresponding user interface to the image output apparatus 200 with the request.
디스플레이(320)는 사용자에게 각종 콘텐트를 표시할 수 있다. 구체적으로, 디스플레이(320)는 통신 인터페이스(310)를 통해서 HMD 장치(100)로부터 수신된 사용자의 시선 데이터 및 뇌파 데이터를 나타내는 정보를 표시할 수 있다. 상기 디스플레이(320)는 프로세서(340)에 의해서 생성된 감정 정보를 표시할 수 있다. 다양한 실시예에서 디스플레이(320)는 영상 출력 장치(200)를 통해서 표시되는 사용자 인터페이스를 영상 출력 장치(200)와 동시에 표시할 수도 있다.The display 320 may display various contents to the user. In detail, the display 320 may display information indicating gaze data and brain wave data of the user received from the HMD device 100 through the communication interface 310. The display 320 may display emotion information generated by the processor 340. In various embodiments, the display 320 may simultaneously display a user interface displayed through the image output apparatus 200 with the image output apparatus 200.
메모리(330)는 사용자의 감정을 판단하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 구체적으로, 메모리(330)는 HMD 장치(100)로부터 수신된 사용자의 시선 데이터 및 뇌파 데이터를 저장할 수 있다. 상기 메모리(330)는 특정 비주얼 오브젝트를 포함하는 사용자 인터페이스를 나타내는 가상 현실 영상을 저장하거나 프로세서(340)에 의해서 생성된 감정 정보를 저장할 수 있다.The memory 330 may store various data used to determine the emotion of the user. In detail, the memory 330 may store gaze data and brain wave data of the user received from the HMD device 100. The memory 330 may store a virtual reality image representing a user interface including a specific visual object or store emotion information generated by the processor 340.
프로세서(340)는 통신 인터페이스(310), 디스플레이(320) 및 메모리(330)와 동작 가능하게 연결되며, 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성하기 위한 다양한 명령들을 수행할 수 있다.The processor 340 is operatively connected to the communication interface 310, the display 320, and the memory 330, and may perform various commands for generating emotion information of the user with respect to a specific visual object.
구체적으로, 프로세서(340)는 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 영상 출력 장치(200)로 제공하고, 영상 출력 장치(200)를 통해서 제1 사용자 인터페이스가 표시되면 HMD 장치(100)로 사용자의 제1 시선 데이터를 요청할 수 있다. HMD 장치(100)로부터 사용자의 시선에 대한 제1 위치 좌표를 포함하는 제1 시선 데이터가 수신되면 프로세서(340)는 수신된 제1 시선 데이터가 제1 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 제1 시선 데이터가 제1 비주얼 오브젝트에 대응되면 프로세서(340)는 HMD 장치(100)로 사용자의 제1 뇌파 데이터를 요청할 수 있다. HMD 장치(100)로부터 제1 뇌파 데이터가 수신되면 프로세서(340)는 수신된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. 구체적으로, 프로세서(340)는 사용자의 시선에 대한 제1 위치 좌표와 영상 출력 장치(200)의 디스플레이(220) 상의 특정 위치 좌표를 맵핑하여 맵핑된 좌표가 제1 비주얼 오브젝트의 위치 좌표에 대응하는지를 판단할 수 있다. 맵핑된 좌표가 제1 비주얼 오브젝트의 위치 좌표에 대응되면 프로세서(340)는 제1 비주얼 오브젝트에 대한 사용자의 특정 행위가 감지되는지를 확인할 수 있다. 예를 들어, 프로세서(340)는 영상 출력 장치(200)의 디스플레이(220) 상에 표시 중인 가상 현실 영상을 실시간으로 분석하여 특정 행위가 감지되는지를 확인할 수 있다. 상기 가상 현실 영상이 게임 콘텐트인 경우 제1 비주얼 오브젝트가 포함된 제1 사용자 인터페이스는 게임 아이템이 포함된, 게임 플레이를 위한 사용자 인터페이스일 수 있다. 상기 프로세서(340)는 영상 출력 장치(200)를 통해서 표시 중인 사용자 인터페이스를 분석하여 게임 아이템을 획득하는 행위가 감지되는지를 판단할 수 있다. 특정 행위가 감지되면 프로세서(340)는 해당 특정 행위의 결과에 따른 보상 데이터가 제공되는지를 확인하고, 보상 데이터가 제공될 때 HMD 장치(100)로 사용자의 제1 뇌파 데이터를 요청할 수 있다. 예를 들어, 게임 아이템을 획득하는 행위가 감지되면 프로세서(340)는 획득된 게임 아이템을 사용자의 게임 계정에 귀속시키는 등의 보상 데이터가 제공되는지를 확인하고, 보상 데이터가 제공될 때 HMD 장치(100)로 사용자의 제1 뇌파 데이터를 요청할 수 있다. 상기 HMD 장치(100)로부터 제1 뇌파 데이터가 수신되면 프로세서(340)는 수신된 제1 뇌파 데이터를 사용자의 긍정적인 감정 또는 부정적인 감정에 대응하는 기준 생체 정보로 결정할 수 있다. 예를 들어, 긍정적인 보상에 해당하는 보상 데이터가 제공될 때 HMD 장치(100)로부터 획득된 제1 뇌파 데이터는 긍정적인 감정을 판단하기 위한 제1 기준 생체 정보로 결정될 수 있다. 부정적인 보상에 해당하는 보상 데이터가 제공될 때 HMD 장치(100)로부터 획득된 제1 뇌파 데이터는 부정적인 감정을 판단하기 위한 제2 기준 생체 정보로 결정될 수 있다. In detail, the processor 340 provides the first user interface including the first visual object to the image output apparatus 200, and when the first user interface is displayed through the image output apparatus 200, the HMD apparatus 100. The first gaze data of the user may be requested. When the first gaze data including the first location coordinates of the user's gaze is received from the HMD device 100, the processor 340 may determine whether the received first gaze data corresponds to the first visual object. When the first gaze data corresponds to the first visual object, the processor 340 may request the user's first brain wave data from the HMD device 100. When the first brain wave data is received from the HMD device 100, the processor 340 may determine the received first brain wave data as reference biometric information for determining the emotion of the user. In detail, the processor 340 maps the first positional coordinates of the user's gaze and the specific positional coordinates on the display 220 of the image output apparatus 200 to determine whether the mapped coordinates correspond to the positional coordinates of the first visual object. You can judge. When the mapped coordinates correspond to the position coordinates of the first visual object, the processor 340 may determine whether a specific behavior of the user with respect to the first visual object is detected. For example, the processor 340 may analyze a virtual reality image being displayed on the display 220 of the image output apparatus 200 in real time to determine whether a specific action is detected. When the virtual reality image is game content, the first user interface including the first visual object may be a user interface for game play including a game item. The processor 340 may analyze the user interface being displayed through the image output apparatus 200 to determine whether an action of acquiring a game item is detected. When a specific action is detected, the processor 340 may determine whether compensation data is provided according to the result of the specific action, and request the first EEG data of the user from the HMD device 100 when the compensation data is provided. For example, when an action of acquiring a game item is detected, the processor 340 checks whether reward data, such as assigning the acquired game item to a user's game account, is provided, and when the reward data is provided, the HMD device ( 100) the first brain wave data of the user may be requested. When the first brain wave data is received from the HMD device 100, the processor 340 may determine the received first brain wave data as reference biometric information corresponding to a user's positive or negative emotion. For example, when reward data corresponding to a positive reward is provided, the first EEG data obtained from the HMD device 100 may be determined as first reference biometric information for determining a positive emotion. When reward data corresponding to a negative reward is provided, the first EEG data obtained from the HMD device 100 may be determined as second reference biometric information for determining a negative emotion.
상기 프로세서(340)는 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 영상 출력 장치(200)로 제공하고, 영상 출력 장치(200)를 통해서 제2 사용자 인터페이스가 표시되면 HMD 장치(100)로 사용자의 제2 시선 데이터를 요청할 수 있다. HMD 장치(100)로부터 사용자의 시선에 대한 제2 위치 좌표를 포함하는 제2 시선 데이터를 수신되면 프로세서(340)는 수신된 제2 시선 데이터가 제2 비주얼 오브젝트에 대응하는지를 판단할 수 있다. 제2 시선 데이터가 제2 비주얼 오브젝트에 대응되면 프로세서(340)는 HMD 장치(100)로 사용자의 제2 뇌파 데이터를 요청할 수 있다. HMD 장치(100)로부터 제2 뇌파 데이터가 수신되면 프로세서(340)는 기준 생체 정보 및 제2 뇌파 데이터를 기초로 제2 비주얼 오브젝트에 대한 사용자의 감정을 나타내는 감정 정보를 생성할 수 있다. 구체적으로, 프로세서(340)는 사용자의 시선에 대한 제2 위치 좌표와 영상 출력 장치(200)의 디스플레이(220) 상의 특정 위치 좌표를 맵핑하여 맵핑된 좌표가 제2 비주얼 오브젝트의 위치 좌표에 대응하는지를 판단할 수 있다. 맵핑된 좌표가 제2 비주얼 오브젝트의 위치 좌표에 대응되면 프로세서(340)는 HMD 장치(100)로 사용자의 제2 뇌파 데이터를 요청하고, HMD 장치(100)로부터 제2 뇌파 데이터가 수신되면 수신된 제2 뇌파 데이터와 일치하는 기준 생체 정보를 확인할 수 있다. 프로세서(340)는 확인된 기준 생체 정보에 관련된 감정 정보(예: 긍정적인 감정 또는 부정적인 감정)를 제2 비주얼 오브젝트에 대한 사용자의 감정 정보로 생성할 수 있다.The processor 340 provides a second user interface including a second visual object to the image output apparatus 200, and when the second user interface is displayed through the image output apparatus 200, the user to the HMD apparatus 100. May request a second line of sight data. When the second gaze data including the second position coordinates of the user's gaze is received from the HMD device 100, the processor 340 may determine whether the received second gaze data corresponds to the second visual object. When the second gaze data corresponds to the second visual object, the processor 340 may request the user's second brain wave data from the HMD device 100. When the second brain wave data is received from the HMD device 100, the processor 340 may generate emotion information indicating the emotion of the user with respect to the second visual object based on the reference biometric information and the second brain wave data. Specifically, the processor 340 maps the second position coordinates of the user's gaze with the specific position coordinates on the display 220 of the image output apparatus 200 to determine whether the mapped coordinates correspond to the position coordinates of the second visual object. You can judge. When the mapped coordinates correspond to the position coordinates of the second visual object, the processor 340 requests the second EEG data of the user from the HMD device 100, and receives the second EEG data from the HMD device 100. Reference biometric information that matches the second EEG data may be confirmed. The processor 340 may generate emotion information (eg, positive emotion or negative emotion) related to the identified reference biometric information as emotion information of the user with respect to the second visual object.
다양한 실시예에서 프로세서(340)는 기준 생체 정보의 정확도를 향상시키 위해 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 영상 출력 장치(200)로 제공할 수 있다. 영상 출력 장치(200)를 통해서 제3 사용자 인터페이스가 표시되면 프로세서(340)는 HMD 장치(100)로 사용자의 제3 시선 데이터를 요청하고, HMD 장치(100)로부터 사용자의 시선에 대한 제3 위치 좌표를 포함하는 제3 시선 데이터를 수신할 수 있다. 상기 프로세서(340)는 복수의 비주얼 오브젝트들 중 제3 시선 데이터와 연관된 제3 비주얼 오브젝트에 대응하는 사용자의 제3 뇌파 데이터를 HMD 장치(100)로 요청하고, HMD 장치(100)로부터 제3 뇌파 데이터를 수신할 수 있다. 상기 프로세서(340)는 수신된 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다.In various embodiments, the processor 340 may provide the image output apparatus 200 with a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information. When the third user interface is displayed through the image output device 200, the processor 340 requests the third gaze data of the user from the HMD device 100, and the third position of the gaze of the user from the HMD device 100. Third line of sight data including coordinates may be received. The processor 340 requests the HMD device 100 for third brain wave data of the user corresponding to the third visual object associated with the third gaze data from among the plurality of visual objects, and the third brain wave from the HMD device 100. Data can be received. The processor 340 may correct the reference biometric information by using the received third brain wave data.
구체적으로, 프로세서(340)는 사용자의 시선에 대한 제3 위치 좌표와 영상 출력 장치(200)의 디스플레이(220) 상의 특정 위치 좌표를 맵핑하여 맵핑된 좌표가 복수의 비주얼 오브젝트들 중 어느 비주얼 오브젝트의 위치 좌표에 대응하는지를 판단할 수 있다. 맵핑된 좌표가 제3 비주얼 오브젝트의 위치 좌표에 대응하면 프로세서(340)는 사용자의 시선이 제3 비주얼 오브젝트를 응시하는 것으로 판단할 수 있다. 예를 들어, 사용자의 시선이 복수의 비주얼 오브젝트들 중 제3 비주얼 오브젝트를 응시하는 것으로 판단되면 프로세서(340)는 사용자가 제3 비주얼 오브젝트에 대해서 긍정적인 감정을 가지는 것으로 판단할 수 있다. 상기 프로세서(340)는 HMD 장치(100)로 사용자의 제3 뇌파 데이터를 요청하고, HMD 장치(100)로부터 제3 뇌파 데이터가 수신되면 수신된 제3 뇌파 데이터를 이용하여 긍정적인 감정에 해당하는 제1 기준 생체 정보를 보정할 수 있다. 예를 들어, 프로세서(340)는 제1 기준 생체 정보에 해당하는 뇌파 데이터의 주파수 값을 제3 뇌파 데이터에 대한 주파수 값과 일치하도록 보정할 수 있다.In detail, the processor 340 maps the third position coordinates of the user's gaze and the specific position coordinates on the display 220 of the image output apparatus 200 so that the mapped coordinates of any one of the plurality of visual objects. It may be determined whether it corresponds to the position coordinate. When the mapped coordinates correspond to the position coordinates of the third visual object, the processor 340 may determine that the gaze of the user gazes at the third visual object. For example, if it is determined that the gaze of the user gazes at the third visual object of the plurality of visual objects, the processor 340 may determine that the user has a positive emotion with respect to the third visual object. The processor 340 requests the third EEG data of the user from the HMD device 100, and when the third EEG data is received from the HMD device 100, the processor 340 corresponds to a positive emotion using the received third EEG data. The first reference biometric information may be corrected. For example, the processor 340 may correct the frequency value of the EEG data corresponding to the first reference biometric information to match the frequency value of the third EEG data.
도 4는 본 발명의 일 실시예에 따른 디스플레이를 구비한 HMD 장치 및 HMD 장치와 연결된 전자 장치를 설명하기 위한 개략도이다. 하기에서는 도 4를 참조하여 전자 장치(300)가 사용자의 감정 정보를 생성하는 실시 예를 설명하도록 한다.4 is a schematic diagram illustrating an HMD device having a display and an electronic device connected to the HMD device according to an embodiment of the present invention. Hereinafter, an embodiment in which the electronic device 300 generates emotion information of a user will be described with reference to FIG. 4.
도 1 내지 도 4를 참조하면, HMD 장치(100)는 도 2에서 상술한 바와 같이 통신 인터페이스(110), 메모리(130), 센서(140) 및 프로세서(150)를 포함하고, 특정 비주얼 오브젝트를 포함하는 사용자 인터페이스를 표시하기 위한 디스플레이(120)를 더 포함할 수 있다. 전자 장치(300)는 도 3에서 상술한 바와 같이 통신 인터페이스(310), 디스플레이(320), 메모리(330) 및 프로세서(340)를 포함할 수 있다.1 to 4, the HMD device 100 includes a communication interface 110, a memory 130, a sensor 140, and a processor 150, as described above with reference to FIG. 2, and includes a specific visual object. It may further include a display 120 for displaying a user interface that includes. As described above with reference to FIG. 3, the electronic device 300 may include a communication interface 310, a display 320, a memory 330, and a processor 340.
먼저, HMD 장치(100)에 대해서 살펴보면, HMD 장치(100)의 통신 인터페이스(110)는 유/무선 통신을 이용하여 전자 장치(300)와 연결되어 전자 장치(300)로부터 특정 비주얼 오브젝트를 포함하는 사용자 인터페이스를 표시하기 위한 요청을 수신하거나 사용자의 시선 데이터 및 뇌파 데이터에 대한 요청을 수신하고, 센서(140)를 통해서 획득된 사용자의 시선 데이터 및 뇌파 데이터를 전자 장치(300)로 전달할 수 있다. 다양한 실시예에서 통신 인터페이스(110)는 전자 장치(300)로부터 비주얼 오브젝트가 포함된 사용자 인터페이스를 나타내는 가상 현실 영상을 수신할 수도 있다.First, referring to the HMD device 100, the communication interface 110 of the HMD device 100 is connected to the electronic device 300 using wired / wireless communication to include a specific visual object from the electronic device 300. The user may receive a request for displaying a user interface or receive a request for gaze data and brain wave data of the user, and may transmit the gaze data and brain wave data of the user acquired through the sensor 140 to the electronic device 300. According to various embodiments, the communication interface 110 may receive a virtual reality image representing a user interface including a visual object from the electronic device 300.
디스플레이(120)는 사용자에게 각종 콘텐트를 표시할 수 있다. 구체적으로, 디스플레이(10)는 가상 현실 영상, 증강 현실 영상 또는 혼합 현실 영상 등을 표시하는데, 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스, 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스 또는 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 나타내는 가상 현실 영상을 표시할 수 있다.The display 120 may display various contents to the user. In detail, the display 10 displays a virtual reality image, an augmented reality image, a mixed reality image, and the like, the first user interface including a first visual object, a second user interface including a second visual object, or a plurality of The virtual reality image representing the third user interface including the visual objects may be displayed.
메모리(130)는 영상을 표시하기 위한 다양한 데이터를 저장할 수 있다. 구체적으로, 메모리(130)는 가상 현실 영상 및 가상 현실 영상을 표시하기 위해 사용되는 어플리케이션, 프로그램 또는 위젯 등을 저장할 수 있다. 또한, 메모리(130)는 특정 비주얼 오브젝트가 포함된 사용자 인터페이스를 나타내는 가상 현실 영상을 표시하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 상기 메모리(140)는 센서(140)를 통해서 출력된 사용자의 시선 데이터 및 뇌파 데이터를 저장할 수 있다.The memory 130 may store various data for displaying an image. In detail, the memory 130 may store a virtual reality image and an application, a program, or a widget used to display the virtual reality image. In addition, the memory 130 may store various data used to display a virtual reality image representing a user interface including a specific visual object. The memory 140 may store the gaze data and the brain wave data of the user output through the sensor 140.
센서(140)는 도 2에서 상술한 바와 같이 사용자의 시선을 추적하는 시선 추적 센서(142) 및 사용자의 뇌파를 측정하는 뇌파 센서(144)를 포함할 수 있다.As described above with reference to FIG. 2, the sensor 140 may include a gaze tracking sensor 142 for tracking the eyes of the user and an EEG sensor 144 for measuring the brain waves of the user.
프로세서(150)는 통신 인터페이스(110), 디스플레이(120), 메모리(130) 및 센서(140)와 동작 가능하게 연결되며, 전자 장치(300)의 요청에 따라 디스플레이(120)를 통해서 특정 비주얼 오브젝트를 포함하는 사용자 인터페이스를 표시하거나 센서(140)를 통해서 획득된 시선 데이터 및 뇌파 데이터를 전자 장치(300)로 전달할 수 있다. The processor 150 is operatively connected to the communication interface 110, the display 120, the memory 130, and the sensor 140, and at the request of the electronic device 300, a specific visual object through the display 120. It may display a user interface including or transmit the gaze data and the brain wave data acquired through the sensor 140 to the electronic device 300.
구체적으로, 프로세서(150)는 통신 인터페이스(110)를 통해서 전자 장치(300)로부터 특정 비주얼 오브젝트를 포함하는 사용자 인터페이스를 표시하기 위한 요청을 수신하고, 요청에 따라 디스플레이(120)를 통해서 사용자 인터페이스를 표시할 수 있다. 예를 들어, 특정 비주얼 오브젝트를 포함하는 사용자 인터페이스는 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스, 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스 또는 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스일 수 있다. In detail, the processor 150 receives a request for displaying a user interface including a specific visual object from the electronic device 300 through the communication interface 110, and in response to the request, displays the user interface through the display 120. I can display it. For example, the user interface that includes a particular visual object may be a first user interface that includes a first visual object, a second user interface that includes a second visual object, or a third user interface that includes a plurality of visual objects. have.
상기 프로세서(150)는 전자 장치(300)로부터 사용자의 시선 데이터에 대한 요청을 수신하고, 요청에 따라 시선 추적 센서(140)를 통해서 특정 비주얼 오브젝트에 연관된 사용자의 시선 데이터를 획득하고, 획득된 시선 데이터를 전자 장치(300)로 전달할 수 있다. 예를 들어, 시선 데이터는 제1 시선 데이터, 제2 시선 데이터 또는 제3 시선 데이터일 수 있다. The processor 150 receives a request for gaze data of the user from the electronic device 300, obtains gaze data of the user associated with a specific visual object through the gaze tracking sensor 140, and obtains the gaze Data may be transmitted to the electronic device 300. For example, the gaze data may be first gaze data, second gaze data, or third gaze data.
상기 프로세서(150)는 전자 장치(300)로부터 사용자의 뇌파 데이터에 대한 요청을 수신하고, 요청에 따라 뇌파 센서(144)를 통해서 시선 데이터에 연관된 비주얼 오브젝트에 대응하는 사용자의 뇌파 데이터를 획득하고, 획득된 뇌파 데이터를 전자 장치(300)로 전달할 수 있다. 예를 들어, 뇌파 데이터는 제1 뇌파 데이터, 제2 뇌파 데이터 또는 제3 뇌파 데이터일 수 있다.The processor 150 receives a request for the brain wave data of the user from the electronic device 300, obtains the brain wave data of the user corresponding to the visual object associated with the gaze data through the brain wave sensor 144 according to the request, The acquired EEG data may be transmitted to the electronic device 300. For example, the EEG data may be first EEG data, second EEG data, or third EEG data.
전자 장치(300)에 대해서 살펴보면, 전자 장치(300)의 통신 인터페이스(310)는 도 3에서 상술한 바와 같이 유선 통신을 이용하여 통해 디스플레이가 구비된 HMD 장치(100)와 연결할 수 있다. 구체적으로, 통신 인터페이스(310)는 HMD 장치(100)로 사용자의 시선 데이터 및 뇌파 데이터에 대한 요청을 전달하거나, HMD 장치(100)로부터 사용자의 시선 데이터 및 뇌파 데이터를 수신할 수 있다. 상기 통신 인터페이스(310)는 특정 비주얼 오브젝트와 함께 해당 비주얼 오브젝트를 포함하는 사용자 인터페이스를 표시하도록 하기 위한 요청을 HMD 장치(100)로 전달할 수 있다. 다양한 실시예에서 통신 인터페이스(310)는 상기 요청과 함께 해당 사용자 인터페이스를 포함하는 가상 현실 영상을 HMD 장치(100)로 전달할 수 있다.Referring to the electronic device 300, the communication interface 310 of the electronic device 300 may be connected to the HMD device 100 having a display through wired communication as described above with reference to FIG. 3. In detail, the communication interface 310 may transmit a request for gaze data and brain wave data of the user to the HMD device 100, or receive gaze data and brain wave data of the user from the HMD device 100. The communication interface 310 may transmit a request to the HMD device 100 to display a user interface including the visual object together with the specific visual object. In various embodiments, the communication interface 310 may transmit the virtual reality image including the corresponding user interface to the HMD device 100 with the request.
디스플레이(320)는 도 3에서 상술한 바와 같이 사용자에게 각종 콘텐트를 표시할 수 있다. 구체적으로, 디스플레이(320)는 통신 인터페이스(310)를 통해서 HMD 장치(100)로부터 수신된 사용자의 시선 데이터 및 뇌파 데이터를 나타내는 정보를 표시할 수 있다. 상기 디스플레이(320)는 프로세서(340)에 의해서 생성된 감정 정보를 표시할 수 있다. 다양한 실시예에서 디스플레이(320)는 영상 출력 장치(200)를 통해서 표시되는 사용자 인터페이스를 영상 출력 장치(200)와 동시에 표시할 수도 있다.The display 320 may display various contents to the user as described above with reference to FIG. 3. In detail, the display 320 may display information indicating gaze data and brain wave data of the user received from the HMD device 100 through the communication interface 310. The display 320 may display emotion information generated by the processor 340. In various embodiments, the display 320 may simultaneously display a user interface displayed through the image output apparatus 200 with the image output apparatus 200.
메모리(330)는 도 3에서 상술한 바와 같이 사용자의 감정을 판단하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 구체적으로, 메모리(330)는 HMD 장치(100)로부터 수신된 사용자의 시선 데이터 및 뇌파 데이터를 저장할 수 있다. 상기 메모리(330)는 특정 비주얼 오브젝트를 포함하는 사용자 인터페이스를 나타내는 가상 현실 영상을 저장하거나 프로세서(340)에 의해서 생성된 감정 정보를 저장할 수 있다.The memory 330 may store various data used to determine the emotion of the user as described above with reference to FIG. 3. In detail, the memory 330 may store gaze data and brain wave data of the user received from the HMD device 100. The memory 330 may store a virtual reality image representing a user interface including a specific visual object or store emotion information generated by the processor 340.
프로세서(340)는 도 3에서 상술한 바와 같이 통신 인터페이스(310), 디스플레이(320) 및 메모리(330)와 동작 가능하게 연결되며, 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성하기 위한 다양한 명령들을 수행할 수 있다.The processor 340 is operatively connected to the communication interface 310, the display 320, and the memory 330 as described above with reference to FIG. 3, and may execute various instructions for generating user's emotion information on a specific visual object. Can be done.
구체적으로, 프로세서(340)는 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 제공하기 위한 요청을 HMD 장치(100)로 전달하고, HMD 장치(100)의 디스플레이(120)를 통해서 제1 사용자 인터페이스가 표시되면 HMD 장치(100)로 사용자의 제1 시선 데이터를 요청할 수 있다. HMD 장치(100)로부터 사용자의 제1 시선 데이터가 수신되면 프로세서(340)는 수신된 제1 시선 데이터가 제1 비주얼 오브젝트에 대응하는지를 판단하고, 제1 시선 데이터가 제1 비주얼 오브젝트에 대응하면 HMD 장치(100)로 사용자의 제1 뇌파 데이터를 요청할 수 있다. HMD 장치(100)로부터 제1 뇌파 데이터가 수신되면 프로세서(340)는 수신된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다.In detail, the processor 340 transmits a request to the HMD device 100 to provide a first user interface including the first visual object, and through the display 120 of the HMD device 100, the first user interface. If is displayed, the first gaze data of the user may be requested to the HMD device 100. When the first gaze data of the user is received from the HMD device 100, the processor 340 determines whether the received first gaze data corresponds to the first visual object, and when the first gaze data corresponds to the first visual object, the HMD The device 100 may request first brain wave data of the user. When the first brain wave data is received from the HMD device 100, the processor 340 may determine the received first brain wave data as reference biometric information for determining the emotion of the user.
상기 프로세서(340)는 사용자의 감정을 판단하기 위한 제2 시선 데이터 및 제2 뇌파 데이터를 획득하기 위해 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 HMD 장치(100)로 제공할 수 있다. HMD 장치(100)의 디스플레이(120)를 통해서 제2 사용자 인터페이스가 표시되면 프로세서(340)는 HMD 장치(100)로 사용자의 제2 시선 데이터를 요청하고, HMD 장치(100)로부터 사용자의 제2 시선 데이터를 수신할 수 있다. 상기 프로세서(340)는 수신된 제2 시선 데이터가 제2 비주얼 오브젝트에 대응하는지를 판단하고, 제2 시선 데이터가 제2 비주얼 오브젝트에 대응하면 HMD 장치(100)로 사용자의 제2 뇌파 데이터를 요청할 수 있다. HMD 장치(100)로부터 제2 뇌파 데이터가 수신되면 프로세서(340)는 기준 생체 정보 및 제2 뇌파 데이터를 기초로 제2 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성할 수 있다.The processor 340 may provide the HMD device 100 with a second user interface including a second visual object to obtain second gaze data and second brain wave data for determining a user's emotion. When the second user interface is displayed through the display 120 of the HMD device 100, the processor 340 requests the second gaze data of the user from the HMD device 100, and the second user interface from the HMD device 100. The line of sight data can be received. The processor 340 may determine whether the received second gaze data corresponds to the second visual object, and if the second gaze data corresponds to the second visual object, request the second brain wave data of the user from the HMD device 100. have. When the second brain wave data is received from the HMD device 100, the processor 340 may generate emotion information of the user for the second visual object based on the reference biometric information and the second brain wave data.
다양한 실시예에서 프로세서(340)는 기준 생체 정보의 정확도를 향상시키 위해 복수의 비주얼 오브젝트들을 포함하는 제3 사용자 인터페이스를 HMD 장치(100)로 제공할 수 있다. HMD 장치(100)의 디스플레이(120)를 통해서 제3 사용자 인터페이스가 표시되면 프로세서(340)는 HMD 장치(100)로 사용자의 제3 시선 데이터를 요청하고, HMD 장치(100)로부터 사용자의 제3 시선 데이터를 수신할 수 있다. 상기 프로세서(340)는 복수의 비주얼 오브젝트들 중 제3 시선 데이터와 연관된 제3 비주얼 오브젝트에 대응하는 사용자의 제3 뇌파 데이터를 HMD 장치(100)로 요청하고, HMD 장치(100)로부터 제3 뇌파 데이터를 수신할 수 있다. 상기 프로세서(340)는 수신된 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다.In various embodiments, the processor 340 may provide the HMD device 100 with a third user interface including a plurality of visual objects to improve the accuracy of the reference biometric information. When the third user interface is displayed through the display 120 of the HMD device 100, the processor 340 requests the third gaze data of the user from the HMD device 100, and the third user interface is transmitted from the HMD device 100. The line of sight data can be received. The processor 340 requests the HMD device 100 for third brain wave data of the user corresponding to the third visual object associated with the third gaze data from among the plurality of visual objects, and the third brain wave from the HMD device 100. Data can be received. The processor 340 may correct the reference biometric information by using the received third brain wave data.
도 5는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성하기 위한 방법을 설명하기 위한 개략적인 순서도이다. FIG. 5 is a schematic flowchart illustrating a method for generating emotion information of a user with respect to a specific visual object in a user emotion determination apparatus according to an embodiment of the present invention.
도 5를 참조하면, 사용자의 제1 시선 데이터 및 제1 뇌파 데이터를 획득하도록 구성된 HMD 장치(100)를 통해서 제1 비주얼 오브젝트를 포함하는 사용자 인터페이스가 제공될 수 있다(S500). 예를 들어, 사용자 감정 판단 장치는 디스플레이를 구비한 HMD 장치(100) 또는 HMD 장치(100)가 디스플레이를 구비하지 않을 경우 영상 출력 장치(200)가 실장된 HMD 장치(100) 및 전자 장치(300)를 포함할 수 있다. HMD 장치(100)를 통해서 제1 시선 데이터와 연관된 제1 비주얼 오브젝트에 대응하는 사용자의 제1 뇌파 데이터가 획득되고(S510), 획득된 제1 뇌파 데이터가 사용자 감정을 판단하기 위한 기준 생체 정보로 결정될 수 있다(S520). 상기 HMD 장치(100)를 통해서 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스가 제공될 수 있다(S530). 상기 HMD 장치(100)를 통해서 제2 비주얼 오브젝트에 대한 사용자의 제2 시선 데이터가 획득되고, 획득된 제2 시선 데이터와 연관된 제2 비주얼 오브젝트에 대응하는 사용자의 제2 뇌파 데이터가 획득될 수 있다(S540). 기준 생체 정보 및 획득된 제2 뇌파 데이터를 기초로 제2 비주얼 오브젝트에 대한 사용자의 감정을 나타내는 감정 정보가 생성될 수 있다(S550).Referring to FIG. 5, a user interface including a first visual object may be provided through the HMD device 100 configured to acquire first gaze data and first brain wave data of a user (S500). For example, the user emotion determination device may include the HMD device 100 having the display or the HMD device 100 and the electronic device 300 having the image output device 200 mounted thereon when the HMD device 100 does not have a display. ) May be included. First EEG data of the user corresponding to the first visual object associated with the first gaze data is obtained through the HMD device 100 (S510), and the acquired first EEG data is used as reference biometric information for determining the user emotion. It may be determined (S520). A second user interface including a second visual object may be provided through the HMD device 100 (S530). The second gaze data of the user for the second visual object may be obtained through the HMD device 100, and the second brain wave data of the user corresponding to the second visual object associated with the obtained second gaze data may be obtained. (S540). Emotion information representing the emotion of the user with respect to the second visual object may be generated based on the reference biometric information and the acquired second brain wave data (S550).
도 6a, 도 6b, 도 6c 및 도 6d는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 기준 생체 정보를 결정하기 위한 방법을 설명하기 위한 예시도들이다. 하기에서 비주얼 오브젝트를 포함하는 사용자 인터페이스는 HMD 장치(100)의 디스플레이(120) 또는 영상 출력 장치(200)의 디스플레이(220)를 통해서 표시될 수 있고, 하기에서 수행되는 동작들은 전자 장치(300)의 프로세서(340), 영상 출력 장치(200)의 프로세서(240) 또는 HMD 장치(100)의 프로세서(150)를 통해서 수행될 수 있다.6A, 6B, 6C, and 6D are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention. In the following, a user interface including a visual object may be displayed through the display 120 of the HMD device 100 or the display 220 of the image output device 200, and the operations performed below may be performed by the electronic device 300. The processor 340, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100 may be used.
도 6a를 참조하면, 사용자 감정 판단 장치는 제1 비주얼 오브젝트(602)의 개수가 홀수 또는 짝수인지를 맞추는 게임 콘텐트에 대한 사용자 인터페이스(600)를 표시할 수 있다. 상기 사용자 감정 판단 장치는 기 설정된 제1 시간 동안 사용자 인터페이스(600)를 표시하고, 사용자의 제1 시선 데이터를 획득하여 획득된 제1 시선 데이터가 제1 비주얼 오브젝트(602)에 대응하는지를 판단할 수 있다. 다양한 실시예에서 사용자 감정 판단 장치는 사용자 인터페이스(600)에 포함된 복수의 비주얼 오브젝트들 중 어느 하나에 연관된 제1 시선 데이터를 획득할 수 있다.Referring to FIG. 6A, the apparatus for determining user emotion may display a user interface 600 for game content that matches whether the number of first visual objects 602 is odd or even. The apparatus for determining emotion of the user may display the user interface 600 for a preset first time and determine whether the first gaze data obtained by acquiring first gaze data of the user corresponds to the first visual object 602. have. In various embodiments, the user emotion determining apparatus may obtain first gaze data associated with any one of the plurality of visual objects included in the user interface 600.
도 6b를 참조하면, 사용자 감정 판단 장치는 획득된 제1 시선 데이터가 제1 비주얼 오브젝트(602)에 대응하고, 제1 시간이 경과되면 기 설정된 제2 시간 동안 짝수 또는 홀수를 선택하기 위한 사용자 인터페이스(610)를 표시할 수 있다. 예를 들어, 사용자 인터페이스(610)는 제1 비주얼 오브젝트(602)의 개수가 짝수인 것을 선택하기 위한 제1 아이콘(612), 제1 비주얼 오브젝트(602)의 개수가 홀수인 것을 선택하기 위한 제2 아이콘(614) 및 제2 시간 중 남은 시간을 나타내는 텍스트(616)를 포함할 수 있다. Referring to FIG. 6B, the apparatus for determining a user emotion may include a user interface for selecting even or odd numbers for a preset second time after the acquired first gaze data corresponds to the first visual object 602. 610 may be displayed. For example, the user interface 610 may include a first icon 612 for selecting that the number of first visual objects 602 is even and a number for selecting an odd number of first visual objects 602. 2 icon 614 and the text 616 indicating the remaining time of the second time.
상기 사용자 감정 판단 장치는 제1 비주얼 오브젝트(602)에 대한 사용자의 특정 행위가 감지되는지를 확인하고, 제1 비주얼 오브젝트(602)에 대한 특정 행위가 감지되면 특정 행위의 결과에 따른 보상 데이터가 제공되는지를 확인할 수 있다. 예를 들어, 제2 아이콘(614)을 선택하기 위한 사용자 입력이 수신되면 사용자 감정 판단 장치는 수신된 사용자 입력을 특정 행위가 감지되는 것으로 판단하고, 도 6c와 같이 사용자 입력에 따른 긍정적인 보상 데이터를 제공하기 위한 사용자 인터페이스(620)를 표시할 수 있다. 도 6c를 참조하면, 사용자 감정 판단 장치는 사용자 입력에 해당하는 제1 비주얼 오브젝트(602)의 개수가 홀수인 경우 사용자가 선택한 '홀수'가 정답임을 나타내기 위한 이미지(622) 및 이에 대한 긍정적인 보상에 해당하는 보상 데이터를 나타내기 위한 텍스트(예: + 1000원)(624)를 포함하는 사용자 인터페이스(620)를 표시할 수 있다.The apparatus for determining emotion of the user determines whether a specific behavior of the user with respect to the first visual object 602 is detected, and if specific behavior with respect to the first visual object 602 is detected, compensation data based on the result of the specific behavior is provided. You can check if it works. For example, when a user input for selecting the second icon 614 is received, the user emotion determining apparatus determines that a specific action is detected in the received user input, and positive reward data according to the user input as shown in FIG. 6C. The user interface 620 for providing the information may be displayed. Referring to FIG. 6C, when the number of first visual objects 602 corresponding to a user input is an odd number, the user emotion determining apparatus includes an image 622 for indicating that the 'odd number' selected by the user is the correct answer and a positive value thereof. The user interface 620 including text (eg, +1000 won) 624 for displaying reward data corresponding to the reward may be displayed.
상기 사용자 감정 판단 장치는 보상 데이터가 제공되면 사용자의 제1 뇌파 데이터를 획득하고, 획득된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. 예를 들어, 사용자 감정 판단 장치는 도 6c와 같이 긍정적인 보상에 해당하는 보상 데이터가 제공하기 위한 사용자 인터페이스(620)가 표시되면 사용자가 긍정적인 감정을 가진다고 판단하고, 획득된 제1 뇌파 데이터를 긍정적인 감정을 판단하기 위한 제1 기준 생체 정보로 결정할 수 있다.When the compensation data is provided, the user emotion determining apparatus may obtain first brain wave data of the user and determine the obtained first brain wave data as reference biometric information for determining the emotion of the user. For example, when the user interface 620 for providing compensation data corresponding to the positive reward is displayed as shown in FIG. 6C, the user emotion determining apparatus determines that the user has positive emotion, and obtains the obtained first brain wave data. The first reference biometric information for determining positive emotion may be determined.
다양한 실시예에서 제1 아이콘(612)을 선택하기 위한 사용자 입력이 수신되면 사용자 감정 판단 장치는 도 6d와 같이 사용자 입력에 따른 부정적인 보상 데이터를 제공하기 위한 사용자 인터페이스(630)를 표시할 수 있다.In various embodiments, when a user input for selecting the first icon 612 is received, the user emotion determining apparatus may display a user interface 630 for providing negative compensation data according to the user input as shown in FIG. 6D.
도 6d를 참조하면, 사용자 감정 판단 장치는 사용자 입력에 해당하는 비주얼 오브젝트(602)의 개수가 짝수인 경우 사용자가 선택한 '짝수'가 오답임을 나타내기 위한 이미지(632) 및 이에 대한 부정적인 보상에 해당하는 보상 데이터를 나타내기 위한 텍스트(예: - 1000원)(634)를 포함하는 사용자 인터페이스(630)를 표시할 수 있다. 상기 사용자 감정 판단 장치는 사용자 인터페이스(630)가 표시되면 사용자의 제1 뇌파 데이터를 획득하고, 획득된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. 예를 들어, 사용자 감정 판단 장치는 부정적인 보상에 해당하는 보상 데이터가 제공되면 사용자가 부정적인 감정을 가진다고 판단하고, 보상 데이터가 제공될 때 획득된 제1 뇌파 데이터를 부정적인 감정을 판단하기 위한 제2 기준 생체 정보로 결정할 수 있다.Referring to FIG. 6D, when the number of visual objects 602 corresponding to a user input is an even number, the user emotion determination apparatus corresponds to an image 632 and a negative compensation for indicating that the 'even' selected by the user is an incorrect answer. The user interface 630 may include a text (eg, 1,000 won) 634 to indicate reward data. When the user interface 630 is displayed, the user emotion determining apparatus may obtain first brain wave data of the user, and determine the obtained first brain wave data as reference biometric information for determining the emotion of the user. For example, the user emotion determining apparatus determines that the user has a negative emotion when the reward data corresponding to the negative reward is provided, and a second criterion for determining the negative emotion based on the first EEG data obtained when the reward data is provided. It can be determined by biometric information.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 기준 생체 정보를 결정하기 위한 방법을 설명하기 위한 예시도들이다. 하기에서 비주얼 오브젝트를 포함하는 사용자 인터페이스는 HMD 장치(100)의 디스플레이(120) 또는 영상 출력 장치(200)의 디스플레이(220)를 통해서 표시될 수 있고, 하기에서 수행되는 동작들은 전자 장치(300)의 프로세서(340), 영상 출력 장치(200)의 프로세서(240) 또는 HMD 장치(100)의 프로세서(150)를 통해서 수행될 수 있다.7A and 7B are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determination apparatus according to an embodiment of the present invention. In the following, a user interface including a visual object may be displayed through the display 120 of the HMD device 100 or the display 220 of the image output device 200, and the operations performed below may be performed by the electronic device 300. The processor 340, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100 may be used.
도 7a를 참조하면, 사용자 감정 판단 장치는 특정 아이템을 획득하기 위한 게임 콘텐트에 대한 사용자 인터페이스(700)를 표시할 수 있다. 상기 사용자 인터페이스(700)는 게임 콘텐트에 관련된 제1 비주얼 오브젝트(702)를 포함할 수 있다. 예를 들어, 제1 비주얼 오브젝트(702)는 특정 게임 아이템을 획득하기 위해 게임 환경을 구성하는 그래픽 객체일 수 있다.Referring to FIG. 7A, the apparatus for determining user emotion may display a user interface 700 for game content for obtaining a specific item. The user interface 700 may include a first visual object 702 related to game content. For example, the first visual object 702 may be a graphic object that composes a game environment to obtain a specific game item.
상기 사용자 감정 판단 장치는 사용자의 제1 시선 데이터를 획득하고, 획득된 제1 시선 데이터가 제1 비주얼 오브젝트(702)에 대응하는지를 판단할 수 있다. 다양한 실시예에서 사용자 감정 판단 장치는 사용자 인터페이스(700)에 포함된 복수의 비주얼 오브젝트들 중 어느 하나에 연관된 제1 시선 데이터를 획득할 수 있다. 상기 획득된 제1 시선 데이터가 제1 비주얼 오브젝트(702)에 대응하면 사용자 감정 판단 장치는 제1 비주얼 오브젝트(702)에 대한 사용자의 특정 행위가 감지되는지를 확인할 수 있다. 예를 들어, 특정 행위는 게임 캐릭터가 특정 게임 아이템을 획득하기 위해 제1 비주얼 오브젝트(702)에 관련된 게임 퀘스트를 수행하는 행위일 수 있다. 상기 특정 행위가 감지되면 사용자 감정 판단 장치는 해당 특정 행위의 결과에 따른 보상 데이터가 제공되는지를 확인하고, 보상 데이터가 제공될 때 사용자의 제1 뇌파 데이터를 획득할 수 있다. 구체적으로, 게임 퀘스트 수행이 확인되면 사용자 감정 판단 장치는 게임 퀘스트를 완료하는지를 확인하고, 게임 퀘스트가 완료되면 도 7b와 같이 게임 퀘스트 완료에 따른 보상으로 게임 아이템을 제공하기 위한 사용자 인터페이스(710)를 표시할 수 있다. 도 7b를 참조하면, 사용자 인터페이스(710)는 게임 퀘스트 완료에 따라 획득된 게임 아이템을 나타내기 위한 이미지(712) 및 게임 아이템이 획득됨을 나타내기 위한 텍스트(714)를 포함할 수 있다. 상기 사용자 인터페이스(710)가 표시되면 사용자 감정 판단 장치는 사용자의 제1 뇌파 데이터를 획득하고, 획득된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. 예를 들어, 도 7b와 같이 게임 퀘스트 완료에 따른 게임 아이템을 제공하기 위한 사용자 인터페이스(710)가 표시되면 사용자 감정 판단 장치는 사용자가 긍정적인 감정을 가진다고 판단하고, 획득된 제1 뇌파 데이터를 긍정적인 감정을 판단하기 위한 제1 기준 생체 정보로 결정할 수 있다. The apparatus for determining emotion of a user may acquire first gaze data of a user and determine whether the acquired first gaze data corresponds to the first visual object 702. According to various embodiments of the present disclosure, the apparatus for determining user emotion may acquire first gaze data associated with any one of a plurality of visual objects included in the user interface 700. If the acquired first gaze data corresponds to the first visual object 702, the user emotion determining apparatus may determine whether a specific behavior of the user with respect to the first visual object 702 is detected. For example, the specific action may be an action in which a game character performs a game quest related to the first visual object 702 to obtain a specific game item. When the specific behavior is detected, the user emotion determination apparatus may determine whether compensation data is provided according to the result of the specific behavior, and acquire first brain wave data of the user when the compensation data is provided. In detail, when the execution of the game quest is confirmed, the user emotion determination device determines whether the game quest is completed, and when the game quest is completed, as shown in FIG. 7B, the user interface 710 for providing a game item as a reward for completing the game quest. I can display it. Referring to FIG. 7B, the user interface 710 may include an image 712 for indicating a game item acquired according to completion of a game quest, and text 714 for indicating that a game item is obtained. When the user interface 710 is displayed, the user emotion determining apparatus may obtain first brain wave data of the user, and determine the obtained first brain wave data as reference biometric information for determining the emotion of the user. For example, when the user interface 710 for providing a game item upon completion of a game quest is displayed as shown in FIG. 7B, the user emotion determining apparatus determines that the user has a positive emotion, and positively obtains the obtained first EEG data. The first reference biometric information for determining the emotion may be determined.
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 기준 생체 정보를 결정하기 위한 방법을 설명하기 위한 예시도들이다. 하기에서 비주얼 오브젝트를 포함하는 사용자 인터페이스는 HMD 장치(100)의 디스플레이(120) 또는 영상 출력 장치(200)의 디스플레이(220)를 통해서 표시될 수 있고, 하기에서 수행되는 동작들은 전자 장치(300)의 프로세서(340), 영상 출력 장치(200)의 프로세서(240) 또는 HMD 장치(100)의 프로세서(150)를 통해서 수행될 수 있다.8A and 8B are exemplary diagrams for describing a method for determining reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention. In the following, a user interface including a visual object may be displayed through the display 120 of the HMD device 100 or the display 220 of the image output device 200, and the operations performed below may be performed by the electronic device 300. The processor 340, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100 may be used.
도 8a를 참조하면, 사용자 감정 판단 장치는 특정 주제에 관련된 문제풀이를 위한 사용자 인터페이스(800)를 표시할 수 있다. 상기 사용자 인터페이스(800)는 문제풀이에 관련된 제1 비주얼 오브젝트(802)를 포함할 수 있다. 예를 들어, 제1 비주얼 오브젝트(802)는 문제풀이를 위한 문제 또는/및 답안을 나타내는 텍스트일 수 있다.Referring to FIG. 8A, the apparatus for determining a user emotion may display a user interface 800 for solving a problem related to a specific subject. The user interface 800 may include a first visual object 802 related to problem solving. For example, the first visual object 802 may be text representing a problem or / and answer for solving a problem.
상기 사용자 감정 판단 장치는 사용자의 제1 시선 데이터를 획득하고, 획득된 제1 시선 데이터가 제1 비주얼 오브젝트(802)에 대응하는지를 판단할 수 있다. 다양한 실시예에서 사용자 감정 판단 장치는 사용자 인터페이스(800)에 포함된 복수의 비주얼 오브젝트들 중 어느 하나에 연관된 제1 시선 데이터를 획득할 수 있다. 상기 획득된 제1 시선 데이터가 제1 비주얼 오브젝트(802)에 대응하면 사용자 감정 판단 장치는 비주얼 오브젝트(802)에 대한 사용자의 특정 행위가 감지되는지를 확인할 수 있다. 예를 들어, 특정 행위는 문제에 대한 답안을 선택하는 행위일 수 있다. 상기 특정 행위가 감지되면 사용자 감정 판단 장치는 해당 특정 행위의 결과에 따른 보상 데이터가 제공되는지를 확인하고, 보상 데이터가 제공될 때 사용자의 제1 뇌파 데이터를 획득할 수 있다. 구체적으로, 문제에 대한 답변 선택이 확인되면 사용자 감정 판단 장치는 문제풀이를 완료하는지를 확인하고, 문제풀이가 완료되면 도 8b와 같이 문제풀이 완료에 따른 보상으로 점수 데이터를 제공하기 위한 사용자 인터페이스(810)를 표시할 수 있다. 도 8b를 참조하면, 사용자 인터페이스(810)는 문제풀이 완료에 따라 획득된 점수 데이터를 나타내는 텍스트/이미지(812), 문제풀이에 소요된 시간을 나타내기 위한 텍스트/이미지(814) 및 점수 획득을 축하함을 나타내는 텍스트(예: 축하합니다!)(816)를 포함할 수 있다. 상기 사용자 인터페이스(810)가 표시되면 사용자 감정 판단 장치는 사용자의 제1 뇌파 데이터를 획득하고, 획득된 제1 뇌파 데이터를 사용자의 감정을 판단하기 위한 기준 생체 정보로 결정할 수 있다. 예를 들어, 도 8b와 같이 문제풀이 완료에 따른 점수 데이터를 제공하기 위한 사용자 인터페이스(810)가 표시되면 사용자 감정 판단 장치는 사용자가 긍정적인 감정을 가진다고 판단하고, 획득된 제1 뇌파 데이터를 긍정적인 감정을 판단하기 위한 제1 기준 생체 정보로 결정할 수 있다.The apparatus for determining emotion of a user may acquire first gaze data of the user and determine whether the acquired first gaze data corresponds to the first visual object 802. In various embodiments, the user emotion determining apparatus may obtain first gaze data associated with any one of a plurality of visual objects included in the user interface 800. If the acquired first gaze data corresponds to the first visual object 802, the user emotion determining apparatus may determine whether a specific action of the user with respect to the visual object 802 is detected. For example, a particular action may be the act of choosing an answer to a problem. When the specific behavior is detected, the user emotion determination apparatus may determine whether compensation data is provided according to the result of the specific behavior, and acquire first brain wave data of the user when the compensation data is provided. Specifically, when the selection of the answer to the problem is confirmed, the user emotion determination apparatus checks whether the problem is completed, and when the problem solution is completed, a user interface 810 for providing score data as a reward for completing the problem solution as shown in FIG. 8B. ) Can be displayed. Referring to FIG. 8B, the user interface 810 may include a text / image 812 representing score data acquired according to the completion of the problem solving, a text / image 814 representing the time spent on the problem solving, and a score acquisition. It may include text indicating congratulations (eg, congratulations!) 816. When the user interface 810 is displayed, the user emotion determining apparatus may obtain first brain wave data of the user, and determine the obtained first brain wave data as reference biometric information for determining the emotion of the user. For example, when the user interface 810 for providing the score data according to the completion of the problem solving is displayed as shown in FIG. 8B, the user emotion determining apparatus determines that the user has a positive emotion, and positively obtains the obtained first EEG data. The first reference biometric information for determining the emotion may be determined.
도 9는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 특정 비주얼 오브젝트에 대한 사용자의 감정을 나타내는 감정 정보를 생성하는 방법을 설명하기 위한 예시도이다. 하기에서 수행되는 동작들은 전자 장치(300)의 프로세서(340), 영상 출력 장치(200)의 프로세서(240) 또는 HMD 장치(100)의 프로세서(150)를 통해서 수행될 수 있다.9 is an exemplary diagram for describing a method of generating emotion information indicating a user's emotion with respect to a specific visual object in a user emotion determination apparatus according to an embodiment of the present invention. Operations performed below may be performed through the processor 340 of the electronic device 300, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100.
도 9를 참조하면, 사용자 감정 판단 장치는 광고 대상을 나타내는 제2 비주얼 오브젝트(902)를 포함하는 사용자 인터페이스(900)를 표시할 수 있다. 예를 들어, 제2 비주얼 오브젝트(902)는 차량 이미지일 수 있다.Referring to FIG. 9, the apparatus for determining user emotion may display a user interface 900 including a second visual object 902 indicating an advertisement target. For example, the second visual object 902 may be a vehicle image.
상기 사용자 감정 판단 장치는 사용자의 제2 시선 데이터를 획득하고, 획득된 사용자의 제2 시선 데이터가 제2 비주얼 오브젝트(902)에 대응하는지를 판단할 수 있다. 예를 들어, 사용자 감정 판단 장치는 사용자의 시선에 대한 위치 좌표를 포함하는 제2 시선 데이터를 획득하고, 사용자의 시선에 대한 위치 좌표와 디스플레이 상의 특정 위치 좌표를 맵핑하여 맵핑된 좌표가 차량 이미지를 구성하는 화소들 중 어느 하나의 화소의 위치 좌표에 대응하는지를 판단할 수 있다. 맵핑된 좌표가 차량 이미지를 구성하는 화소들 중 어느 하나의 화소의 위치 좌표에 대응하면 사용자 감정 판단 장치는 사용자의 제2 시선 데이터가 제2 비주얼 오브젝트(902)에 대응하는 것으로 판단할 수 있다. 사용자의 제2 시선 데이터가 제2 비주얼 오브젝트(902)에 대응하면 사용자 감정 판단 장치는 사용자의 제2 뇌파 데이터를 획득하고, 기준 생체 정보 및 획득된 제2 뇌파 데이터를 기초로 제2 비주얼 오브젝트(902)에 대한 사용자의 감정을 나타내는 감정 정보를 생성할 수 있다. 예를 들어, 사용자 감정 판단 장치는 비주얼 오브젝트(902)에 대응하여 획득된 뇌파 데이터와 일치하는 기준 생체 정보를 확인하고, 확인된 기준 생체 정보에 관련된 감정 정보를 제2 비주얼 오브젝트(902)에 대한 사용자의 감정 정보로서 생성할 수 있다. 기준 생체 정보가 긍정적인 감정에 연관되는 경우 사용자 감정 판단 장치는 긍정적인 감정을 제2 비주얼 오브젝트(902)에 대한 감정 정보로 생성할 수 있다.The apparatus for determining emotion of a user may acquire second gaze data of the user and determine whether the acquired second gaze data corresponds to the second visual object 902. For example, the apparatus for determining a user's emotion obtains second gaze data including position coordinates of a user's gaze, maps a location coordinate of the user's gaze with a specific location coordinate on the display, and thus the mapped coordinates are used to display the vehicle image. It may be determined whether one of the pixels constituting the pixel corresponds to the position coordinate of the pixel. If the mapped coordinates correspond to the position coordinates of one of the pixels constituting the vehicle image, the user emotion determining apparatus may determine that the second gaze data of the user corresponds to the second visual object 902. When the second gaze data of the user corresponds to the second visual object 902, the user emotion determining apparatus obtains the second brain wave data of the user, and based on the reference biometric information and the acquired second brain wave data, the second visual object ( Emotion information representing the emotion of the user with respect to 902 may be generated. For example, the apparatus for determining a user's emotion may identify reference biometric information that matches the brain wave data acquired in response to the visual object 902, and transmit emotion information related to the identified reference biometric information to the second visual object 902. It can be generated as emotion information of the user. When the reference biometric information is associated with a positive emotion, the user emotion determining apparatus may generate the positive emotion as emotion information for the second visual object 902.
이를 통해서, 본 발명은 사용자가 광고 대상에 대한 감정을 외부로 표현하지 않더라도 광고 대상에 해당하는 비주얼 오브젝트에 대한 사용자의 감정을 확인할 수 있다. 또한, 본 발명은 제2 비주얼 오브젝트와 무관한 특징 또는 주제를 가지거나 무관한 카테고리에 해당하는 제1 비주얼 오브젝트를 이용하여 결정된 기준 생체 정보에 기초하여 제2 비주얼 오브젝트에 대한 사용자의 감정을 판단할 수 있다.Through this, the present invention can check the emotion of the user for the visual object corresponding to the advertisement target even if the user does not express the emotion about the advertisement target. In addition, the present invention is to determine the user's emotion with respect to the second visual object based on the reference biometric information determined using the first visual object that has a feature or theme unrelated to the second visual object or that belongs to a category not related to the second visual object. Can be.
도 10a 및 도 10b는 본 발명의 일 실시예에 따른 사용자 감정 판단 장치에서 기준 생체 정보를 보정하기 위한 방법을 설명하기 위한 예시도들이다. 하기에서 비주얼 오브젝트를 포함하는 사용자 인터페이스는 HMD 장치(100)의 디스플레이(120) 또는 영상 출력 장치(200)의 디스플레이(220)를 통해서 표시될 수 있고, 하기에서 수행되는 동작들은 전자 장치(300)의 프로세서(340), 영상 출력 장치(200)의 프로세서(240) 또는 HMD 장치(100)의 프로세서(150)를 통해서 수행될 수 있다.10A and 10B are exemplary diagrams for describing a method for correcting reference biometric information in a user emotion determining apparatus according to an embodiment of the present invention. In the following, a user interface including a visual object may be displayed through the display 120 of the HMD device 100 or the display 220 of the image output device 200, and the operations performed below may be performed by the electronic device 300. The processor 340, the processor 240 of the image output device 200, or the processor 150 of the HMD device 100 may be used.
도 10a를 참조하면, 사용자 감정 판단 장치는 복수의 비주얼 오브젝트들(1002, 1004)을 포함하는 사용자 인터페이스(1000)를 표시할 수 있다. 상기 사용자 인터페이스(1000)는 제1 인물에 대한 비주얼 오브젝트(1002) 및 제2 인물에 대한 제3 비주얼 오브젝트(1004)를 포함할 수 있다. 다양한 실시예에서 복수의 비주얼 오브젝트들은 다양한 주제에 관련된 이미지들을 포함할 수 있다. 사용자 인터페이스(1000)가 표시되면 사용자 감정 판단 장치는 사용자의 제3 시선 데이터를 획득하고, 획득된 제3 시선 데이터가 복수의 비주얼 오브젝트들(1002, 1004) 중 어느 하나에 대응하는지를 판단할 수 있다. 예를 들어, 제3 시선 데이터가 복수의 비주얼 오브젝트들(1002, 1004) 중 제3 비주얼 오브젝트(1004)에 대응되면 사용자 감정 판단 장치는 도 10b와 같이 제3 비주얼 오브젝트(1004)를 선호함을 나타내기 위한 사용자 인터페이스(1010)를 표시할 수 있다. 다양한 실시예에서 사용자 감정 판단 장치는 복수의 비주얼 오브젝트들(1002, 1004) 중 제3 비주얼 오브젝트(1004)를 선택하기 위한 사용자 입력이 수신되면 도 10b와 같은 사용자 인터페이스(1010)를 표시할 수도 있다. 상기 사용자 인터페이스(1010)는 제3 비주얼 오브젝트(1004)가 선호됨을 나타내기 위한 이미지(1012) 및 텍스트(1014)를 포함할 수 있다.Referring to FIG. 10A, the apparatus for determining user emotion may display a user interface 1000 including a plurality of visual objects 1002 and 1004. The user interface 1000 may include a visual object 1002 for a first person and a third visual object 1004 for a second person. In various embodiments, the plurality of visual objects may include images related to various subjects. When the user interface 1000 is displayed, the user emotion determining apparatus may obtain third gaze data of the user and determine whether the acquired third gaze data corresponds to any one of the plurality of visual objects 1002 and 1004. . For example, when the third gaze data corresponds to the third visual object 1004 among the plurality of visual objects 1002 and 1004, the user emotion determining apparatus prefers the third visual object 1004 as illustrated in FIG. 10B. A user interface 1010 may be displayed for presentation. According to various embodiments, the user emotion determining apparatus may display a user interface 1010 as illustrated in FIG. 10B when a user input for selecting the third visual object 1004 is received from among the plurality of visual objects 1002 and 1004. . The user interface 1010 may include an image 1012 and text 1014 to indicate that the third visual object 1004 is preferred.
도 10b를 참조하면, 사용자 감정 판단 장치는 사용자 인터페이스(1010)가 표시되면 사용자의 제3 뇌파 데이터를 획득하고, 획득된 제3 뇌파 데이터를 이용하여 기준 생체 정보를 보정할 수 있다. 예를 들어, 사용자 감정 판단 장치는 제3 비주얼 오브젝트(1004)에 대응하여 획득된 제3 뇌파 데이터가 사용자가 선호하는 감정을 가지는 것으로 판단하고, 제3 뇌파 데이터와, 선호하는 감정에 관련된 기준 생체 정보에 해당하는 뇌파 데이터가 서로 일치하도록 기준 생체 정보를 보정할 수 있다. Referring to FIG. 10B, when the user interface 1010 is displayed, the user emotion determining apparatus may obtain third brain wave data of the user and correct the reference biometric information by using the acquired third brain wave data. For example, the apparatus for determining a user emotion determines that the third brain wave data acquired in response to the third visual object 1004 has a user's preferred emotion, and the third brain wave data and the reference living body related to the preferred emotion. The reference biometric information may be corrected to match the EEG data corresponding to the information.
이를 통해서, 본 발명은 사용자의 특정 감정에 해당하는 뇌파 데이터를 획득하고, 획득된 뇌파 데이터를 이용하여 기준 생체 정보를 보정함으로써, 사용자의 감정에 대한 정확도 높은 판단 결과를 도출할 수 있다.In this way, the present invention obtains EEG data corresponding to a specific emotion of the user and corrects the reference biometric information by using the acquired EEG data, thereby obtaining a highly accurate determination result of the emotion of the user.
이와 같이 본 발명은 사용자의 시선 데이터 및 뇌파 데이터를 기초로 결정된 기준 생체 정보를 이용하여 사용자가 시선을 응시한 특정 비주얼 오브젝트에 대한 사용자의 감정 정보를 생성함으로써, 사용자의 시선이 응시되는 다양한 비주얼 오브젝트에 대한 사용자의 감정을 예측할 수 있다.As described above, the present invention generates emotion information about a specific visual object that the user gazes by using the reference biometric information determined based on the gaze data and the brain wave data of the user, thereby visualizing the various visual objects that the user gazes at. Predict a user's feelings for.
본 발명의 실시예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Apparatus and method according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. Computer-readable media may include, alone or in combination with the program instructions, data files, data structures, and the like.
컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The program instructions recorded on the computer readable medium may be those specially designed and constructed for the present invention, or may be known and available to those skilled in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks such as floppy disks. Hardware devices specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory and the like. In addition, the above-described medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, a data structure, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention. . Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

Claims (12)

  1. 사용자의 제1 시선 데이터 및 제1 뇌파 데이터를 획득하도록 구성된 헤드 마운트 디스플레이(Head-Mounted Display, HMD) 장치를 통해서 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 제공하는 단계;Providing a first user interface comprising a first visual object via a Head-Mounted Display (HMD) device configured to obtain first gaze data and first brain wave data of a user;
    상기 HMD 장치를 통해서 상기 제1 시선 데이터와 연관된 상기 제1 비주얼 오브젝트에 대응하는 상기 사용자의 제1 뇌파 데이터를 획득하는 단계; Acquiring first brain wave data of the user corresponding to the first visual object associated with the first gaze data through the HMD device;
    상기 획득된 제1 뇌파 데이터를 상기 사용자 감정을 판단하기 위한 기준 생체 정보로 결정하는 단계;Determining the obtained first brain wave data as reference biometric information for determining the user emotion;
    상기 HMD 장치를 통해서 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 제공하는 단계;Providing a second user interface comprising a second visual object via the HMD device;
    상기 HMD 장치를 통해서 상기 제2 비주얼 오브젝트에 대한 상기 사용자의 제2 시선 데이터를 획득하고, 상기 획득된 제2 시선 데이터와 연관된 제2 비주얼 오브젝트에 대응하는 상기 사용자의 제2 뇌파 데이터를 획득하는 단계; 및Acquiring second gaze data of the user with respect to the second visual object through the HMD device, and acquiring second brain wave data of the user corresponding to a second visual object associated with the acquired second gaze data; ; And
    상기 기준 생체 정보 및 상기 제2 뇌파 데이터를 기초로 상기 제2 비주얼 오브젝트에 대한 감정 정보를 생성하는 단계를 포함하는, 사용자 감정 판단 장치의 사용자 감정 판단 방법.And generating emotion information on the second visual object based on the reference biometric information and the second brain wave data.
  2. 제1항에 있어서, 상기 제1 비주얼 오브젝트는,The method of claim 1, wherein the first visual object,
    상기 사용자의 특정 행위에 대한 보상 서비스를 제공하는 보상형 콘텐트에 관련된 적어도 하나의 그래픽 객체인, 사용자 감정 판단 장치의 사용자 감정 판단 방법.And at least one graphic object related to rewarded content that provides a reward service for a specific action of the user.
  3. 제2항에 있어서, 상기 사용자의 제1 뇌파 데이터를 획득하는 단계는,The method of claim 2, wherein the obtaining of the first brain wave data of the user comprises:
    상기 특정 행동에 대한 보상으로 보상 데이터가 제공되면 상기 사용자의 제1 뇌파 데이터를 획득하는 단계를 포함하는, 사용자 감정 판단 장치의 사용자 감정 판단 방법.And acquiring first brain wave data of the user when compensation data is provided as a reward for the specific behavior.
  4. 제3항에 있어서, 상기 기준 생체 정보로 결정하는 단계는,The method of claim 3, wherein the determining of the reference biometric information comprises:
    상기 보상 데이터가 긍정적인 보상이면 상기 제1 뇌파 데이터를 긍정적인 감정을 판단하기 위한 제1 기준 생체 정보로 결정하는 단계; 및If the reward data is a positive reward, determining the first EEG data as first reference biometric information for determining a positive emotion; And
    상기 보상 데이터가 부정적인 보상이면 상기 제1 뇌파 데이터를 부정적인 감정을 판단하기 위한 제2 기준 생체 정보로 결정하는 단계를 포함하는, 사용자 감정 판단 장치의 사용자 감정 판단 방법.And determining the first EEG data as second reference biometric information for determining a negative emotion when the compensation data is a negative reward.
  5. 제1항에 있어서, 상기 제2 비주얼 오브젝트는,The method of claim 1, wherein the second visual object,
    상기 제1 비주얼 오브젝트과 서로 무관한 카테고리에 대응하는 적어도 하나의 그래픽 객체인, 사용자 감정 판단 장치의 사용자 감정 판단 방법.At least one graphic object corresponding to a category unrelated to the first visual object.
  6. 제1항에 있어서, The method of claim 1,
    상기 사용자 감정 판단 장치를 통해서 제3 비주얼 오브젝트를 포함하는 제3 사용자 인터페이스를 제공하는 단계;Providing a third user interface including a third visual object through the user emotion determination device;
    상기 제3 비주얼 오브젝트에 대한 상기 사용자의 제3 시선 데이터가 획득되면 상기 획득된 제3 시선 데이터와 연관된 제3 비주얼 오브젝트에 대응하는 상기 사용자의 제3 뇌파 데이터를 획득하는 단계; 및 Acquiring third brainwave data of the user corresponding to a third visual object associated with the acquired third gaze data when the third gaze data of the user is acquired for the third visual object; And
    상기 획득된 제3 뇌파 데이터를 기초로 상기 기준 생체 정보를 보정하는 단계를 더 포함하는, 사용자 감정 판단 장치의 사용자 감정 판단 방법.And correcting the reference biometric information based on the obtained third brain wave data.
  7. 사용자 감정 판단 장치에 있어서,In the user emotion determination device,
    사용자의 제1 시선 데이터 및 제1 뇌파 데이터를 획득하도록 구성된 헤드 마운트 디스플레이(Head-Mounted Display, HMD) 장치를 통해서 제1 비주얼 오브젝트를 포함하는 제1 사용자 인터페이스를 제공하고,Providing a first user interface including a first visual object through a head-mounted display (HMD) device configured to acquire a first gaze data and first brain wave data of a user,
    상기 HMD 장치를 통해서 상기 제1 시선 데이터와 연관된 상기 제1 비주얼 오브젝트에 대응하는 상기 사용자의 제1 뇌파 데이터를 획득하고, Acquire first brain wave data of the user corresponding to the first visual object associated with the first gaze data through the HMD device;
    상기 획득된 제1 뇌파 데이터를 상기 사용자 감정을 판단하기 위한 기준 생체 정보로 결정하고,Determining the obtained first brain wave data as reference biometric information for determining the user emotion,
    상기 HMD 장치를 통해서 제2 비주얼 오브젝트를 포함하는 제2 사용자 인터페이스를 제공하고, Providing a second user interface including a second visual object through the HMD device;
    상기 HMD 장치를 통해서 상기 제2 비주얼 오브젝트에 대한 상기 사용자의 제2 시선 데이터가 획득되면 상기 획득된 제2 시선 데이터와 연관된 제2 비주얼 오브젝트에 대응하는 상기 사용자의 제2 뇌파 데이터를 획득하고, Obtaining second electroencephalogram data of the user corresponding to the second visual object associated with the acquired second gaze data when the second gaze data of the user is acquired through the HMD device;
    상기 기준 생체 정보 및 상기 제2 뇌파 데이터를 기초로 상기 제2 비주얼 오브젝트에 대한 감정 정보를 생성하는, 사용자 감정 판단 장치.And generating emotion information on the second visual object based on the reference biometric information and the second brain wave data.
  8. 제7항에 있어서, 상기 제1 비주얼 오브젝트는,The method of claim 7, wherein the first visual object,
    상기 사용자의 특정 행위에 대한 보상 서비스를 제공하는 보상형 콘텐트에 관련된 적어도 하나의 그래픽 객체인, 사용자 감정 판단 장치.And at least one graphic object related to rewarded content that provides a reward service for a particular action of the user.
  9. 제8항에 있어서, 상기 사용자 감정 판단 장치는,The method of claim 8, wherein the user emotion determination device,
    상기 특정 행동에 대한 보상으로 보상 데이터가 제공되면 상기 사용자의 제1 뇌파 데이터를 획득하는, 사용자 감정 판단 장치.And obtaining first brain wave data of the user when reward data is provided as a reward for the specific behavior.
  10. 제9항에 있어서, 상기 사용자 감정 판단 장치는,The method of claim 9, wherein the user emotion determination device,
    상기 보상 데이터가 긍정적인 보상이면 상기 제1 뇌파 데이터를 긍정적인 감정을 판단하기 위한 제1 기준 생체 정보로 결정하고,If the reward data is a positive reward, the first EEG data is determined as first reference biometric information for determining a positive emotion,
    상기 보상 데이터가 부정적인 보상이면 상기 제1 뇌파 데이터를 부정적인 감정을 판단하기 위한 제2 기준 생체 정보로 결정하는, 사용자 감정 판단 장치.And determining the first EEG data as second reference biometric information for determining negative emotion when the compensation data is negative compensation.
  11. 제7항에 있어서, 상기 제2 비주얼 오브젝트는,The method of claim 7, wherein the second visual object,
    상기 제1 비주얼 오브젝트과 서로 무관한 카테고리에 대응하는 적어도 하나의 그래픽 객체인, 사용자 감정 판단 장치.And at least one graphic object corresponding to a category unrelated to the first visual object.
  12. 제7항에 있어서, 상기 사용자 감정 판단 장치는,The method of claim 7, wherein the user emotion determination device,
    제3 비주얼 오브젝트를 포함하는 제3 사용자 인터페이스를 제공하고,Providing a third user interface including a third visual object,
    상기 제3 비주얼 오브젝트에 대한 상기 사용자의 제3 시선 데이터가 획득되면 상기 획득된 제3 시선 데이터와 연관된 제3 비주얼 오브젝트에 대응하는 상기 사용자의 제3 뇌파 데이터를 획득하고,Obtaining third brain wave data of the user corresponding to a third visual object associated with the acquired third eye data when the third eye data of the user is acquired for the third visual object,
    상기 획득된 제3 뇌파 데이터를 기초로 상기 기준 생체 정보를 보정하는, 사용자 감정 판단 장치.And correcting the reference biometric information based on the obtained third brain wave data.
PCT/KR2019/008400 2018-08-09 2019-07-09 Method for determining emotion of user and device therefor WO2020032400A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180093159A KR102186580B1 (en) 2018-08-09 2018-08-09 Method for estimating emotion of user and apparatus therefor
KR10-2018-0093159 2018-08-09

Publications (1)

Publication Number Publication Date
WO2020032400A1 true WO2020032400A1 (en) 2020-02-13

Family

ID=69415291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/008400 WO2020032400A1 (en) 2018-08-09 2019-07-09 Method for determining emotion of user and device therefor

Country Status (2)

Country Link
KR (1) KR102186580B1 (en)
WO (1) WO2020032400A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102424403B1 (en) * 2020-06-03 2022-07-22 주식회사 룩시드랩스 Method and apparatus for predicting user state
KR20240032569A (en) 2022-09-02 2024-03-12 한양대학교 산학협력단 Real-time user emotion judgment device based on body movement information
KR102602144B1 (en) * 2022-10-25 2023-11-16 주식회사 프레임 Apparatus and method for analyzing the user's brain waves and providing content based on the analysis result

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100010370A1 (en) * 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
KR101723841B1 (en) * 2015-12-17 2017-04-18 주식회사 룩시드랩스 Apparatus for eye-brain interface and method for controlling the same
KR101734845B1 (en) * 2015-11-13 2017-05-15 가톨릭대학교 산학협력단 Emotion classification apparatus using visual analysis and method thereof
US20170346817A1 (en) * 2016-05-31 2017-11-30 John C. Gordon Authentication based on gaze and physiological response to stimuli
US20180211112A1 (en) * 2013-10-11 2018-07-26 Interdigital Patent Holdings, Inc. Gaze-driven augmented reality

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5243318B2 (en) * 2009-03-19 2013-07-24 株式会社野村総合研究所 Content distribution system, content distribution method, and computer program
KR102184272B1 (en) * 2014-06-25 2020-11-30 엘지전자 주식회사 Glass type terminal and control method thereof
KR101738278B1 (en) * 2015-12-31 2017-05-22 성균관대학교산학협력단 Emotion recognition method based on image
KR101759335B1 (en) * 2016-10-05 2017-07-19 주식회사 지엔아이씨티 Presentation and interview training system
KR20180045278A (en) * 2016-10-25 2018-05-04 포항공과대학교 산학협력단 Virtual Reality Recognition Rehabilitation System based on Bio Sensors
KR20180055660A (en) * 2016-11-16 2018-05-25 삼성전자주식회사 Electronic apparatus and control method thereof
KR20190020418A (en) * 2017-08-21 2019-03-04 주식회사 엠투에스 Virtual Reality Monitoring System Using Virtual Reality and Psychotherapy Using the Same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100010370A1 (en) * 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
US20180211112A1 (en) * 2013-10-11 2018-07-26 Interdigital Patent Holdings, Inc. Gaze-driven augmented reality
KR101734845B1 (en) * 2015-11-13 2017-05-15 가톨릭대학교 산학협력단 Emotion classification apparatus using visual analysis and method thereof
KR101723841B1 (en) * 2015-12-17 2017-04-18 주식회사 룩시드랩스 Apparatus for eye-brain interface and method for controlling the same
US20170346817A1 (en) * 2016-05-31 2017-11-30 John C. Gordon Authentication based on gaze and physiological response to stimuli

Also Published As

Publication number Publication date
KR102186580B1 (en) 2020-12-03
KR20200017797A (en) 2020-02-19

Similar Documents

Publication Publication Date Title
US11250447B2 (en) Systems and methods providing en mass collection and centralized processing of physiological responses from viewers
WO2020032400A1 (en) Method for determining emotion of user and device therefor
WO2017119788A1 (en) Head-mounted electronic device
CN109645955B (en) Multifunctional visual function detection device and method based on VR and eye movement tracking
WO2020159093A1 (en) Method for generating highlight image using biometric data and device therefor
WO2020251135A1 (en) Emotion recognition method and emotion recognition device using same
JP2013258555A (en) Head-mounted display, biological information management apparatus, and biological information display method
US20140204191A1 (en) Image display device and image display method
KR20190004088A (en) Virtual Reality Education System and Method based on Bio Sensors
WO2021040181A1 (en) Method for determining preference, and device for determining preference using same
WO2018034521A1 (en) Method for controlling multi-filed of view image and electronic device for supporting the same
KR20180006573A (en) The apparatus and method of forming a multi experience
WO2016108427A1 (en) User terminal apparatus and method for driving user terminal apparatus
US20200260142A1 (en) Information processing apparatus, control method for information processing apparatus, and computer program
Ki et al. Visually evoked responses are enhanced when engaging in a video game
WO2023106555A1 (en) Method, device, and system for managing and controlling concentration level of user of registered extended reality device
WO2019143186A1 (en) Brain connectivity-based visual perception training device, method and program
JP2021079041A (en) Empathy degree evaluation system, empathy degree evaluation method and program
WO2020235770A1 (en) Emotion labeling method, and device for emotion labeling using same
CN112995738A (en) Video playing method and device, storage medium and electronic equipment
US20240138745A1 (en) Fieldable eeg system, architecture, and method
KR102200451B1 (en) Method for synchronizing time and apparatus using the same
KR20150107511A (en) A method on the characteristics of space search shown at observation seen in the process of perception and recognition of space and system thereof
KR20160008677A (en) Image immersion guiding apparatus and image immersion guiding method using the apparatus
WO2022075704A1 (en) Cognitive function test server and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19847707

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19847707

Country of ref document: EP

Kind code of ref document: A1