WO2024096419A1 - Method for providing graphical user interface representing information or evaluation of user's sleep - Google Patents

Method for providing graphical user interface representing information or evaluation of user's sleep Download PDF

Info

Publication number
WO2024096419A1
WO2024096419A1 PCT/KR2023/016512 KR2023016512W WO2024096419A1 WO 2024096419 A1 WO2024096419 A1 WO 2024096419A1 KR 2023016512 W KR2023016512 W KR 2023016512W WO 2024096419 A1 WO2024096419 A1 WO 2024096419A1
Authority
WO
WIPO (PCT)
Prior art keywords
sleep
information
user
user interface
time
Prior art date
Application number
PCT/KR2023/016512
Other languages
French (fr)
Korean (ko)
Inventor
이동헌
홍준기
박혜아
김형국
강소라
배재현
김종목
김대우
김성연
조욱남
최지혜
김승훈
Original Assignee
주식회사 에이슬립
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이슬립 filed Critical 주식회사 에이슬립
Priority to KR1020237044063A priority Critical patent/KR20240065214A/en
Priority to KR1020237044152A priority patent/KR20240065215A/en
Priority to KR1020237041712A priority patent/KR20240065211A/en
Publication of WO2024096419A1 publication Critical patent/WO2024096419A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a method of providing a graphical user interface that displays information or evaluation of a user's sleep.
  • the number of patients with sleep disorders in Korea increased by about 8% on average per year from 2014 to 2018, and the number of patients treated for sleep disorders in Korea in 2018 reached approximately 570,000.
  • Republic of Korea Patent Publication No. 10-2023-0012133 discloses an electronic device that provides a user interface according to sleep state and a method of operating the same. It is disclosed that an abnormal REM sleep event can be detected and a user interface based on specified action information can be provided in response.
  • the conventional technology detects abnormal REM sleep stages by examining all sleep stages, there is a risk that the accuracy of measuring the sleep stage may be lowered, and there is a risk that sleep-related events may not be detected in real time. Additionally, there is a limitation in that general consumers who are not experts on sleep cannot intuitively evaluate the quality of their sleep.
  • Republic of Korea Patent Publication No. 10-2023-0012133 discloses an electronic device that provides a user interface according to sleep state and a method of operating the same. It is disclosed that an abnormal REM sleep event can be detected and a user interface based on specified action information can be provided in response.
  • the conventional technology detects abnormal REM sleep stages by examining all sleep stages, there is a risk that the accuracy of the measurement of the sleep stage may be lowered, and since the basic unit of measurement is made up of minutes, sleep-related information is measured in real time. There is a risk that the event may not be detected.
  • Figures 31A to 31E are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
  • a method of providing a graphical user interface indicating the date and/or time point at which information about the user's sleep was acquired is disclosed.
  • a method of providing a graphical user interface includes acquiring user's sleep information from one or more sleep information sensor devices - the user's sleep information includes user's sleep sound information - acquiring sleep information May include steps.
  • Obtaining the user's sleep state information based on the acquired user's sleep information - the user's sleep state information includes at least one of waking time information, sleep time information, or waking up time information - a step of acquiring sleep state information It can be included.
  • a method of providing a graphical user interface includes the sleep information based on at least one of the waking time information, sleep time information, or waking up time information included in the acquired sleep state information of the user. It may include an acquisition point display information generation step of generating information indicating the point in time at which the acquisition was acquired.
  • a method of providing a graphical user interface according to an embodiment of the present invention may include displaying a graphical user interface including information indicating an acquisition point.
  • the step of generating acquisition time display information may be characterized by generating information indicating the time point at which the sleep information was acquired based on wake-up time information included in sleep state information.
  • the step of generating the acquisition time display information includes information indicating the time of acquisition of the sleep state information displayed on the graphic user interface to display the date of the waking up included in the wake-up time information. It is created as a shape, and the shape may be any one of a point, polygon, circle, oval, fan shape, or a combination of straight lines and curves.
  • the step of generating acquisition time display information includes, when N wake-up times (N is 0 or a natural number) on the same date, information displaying the date displayed on the graphical user interface. can be created to include N shapes.
  • the step of generating acquisition time display information may be characterized by generating information indicating the time point at which sleep information was acquired based on elevation time information included in sleep state information.
  • the step of generating acquisition time display information displays information indicating the time of acquisition of the sleep state information displayed on the graphic user interface by displaying the date of the elevation time included in the elevation time information.
  • the shape may be any one of a point, polygon, circle, oval, fan shape, or a combination of straight lines and curves.
  • the step of generating acquisition time display information is to display the date displayed on the graphical user interface when N wake-up times (N is 0 or a natural number) are included on the same date.
  • Information can be generated to include N shapes.
  • the step of generating acquisition time display information may be characterized in that it generates information indicating the time of acquisition of sleep information based on the elevation time information and wake-up time information included in the sleep state information. You can.
  • the step of generating the acquisition time display information includes information indicating the time of acquisition of the sleep state information displayed on the graphic user interface, and the date of the elevation time included in the elevation time information. And, if the dates of the weather time included in the weather time information are different, a shape having a continuous shape indicating the date of the elevation time to the date of the weather time is generated, and the shape is a point, polygon, circle, It may be characterized as being one of the following shapes: an oval, a fan, or a combination of straight lines and curves.
  • the step of generating acquisition time display information may be performed on the graphical user interface when the date of the elevation time included in the elevation time point information and the date of the weather time included in the weather time information are the same.
  • the information indicating the displayed date is created as a shape with a continuous shape connecting two different points, and the shape is any of the shapes consisting of a point, polygon, circle, oval, sector, or a combination of straight lines and curves. It can be characterized as being one.
  • the step of generating acquisition time display information includes generating information indicating the time point at which the sleep information was acquired based on wake-up time information included in the sleep state information, and obtaining the sleep information.
  • the information indicating the time point includes time zone information, and the time zone information may be generated to display the time zone to which the waking up time belongs based on the definition of a preset time zone.
  • the definition of the preset time zone which is the basis for determining the time zone to which the wake-up time belongs in the acquisition time display information generation step according to an embodiment of the present invention, is 12:00 a.m. (midnight) or more and less than 5:00 a.m. Early morning hours are between 5 AM and 9 AM, morning hours are between 9 AM and 5 PM, daytime hours are between 5 PM and 9 PM, evening hours are between 5 PM and 9 PM, and between 9 PM and 12 AM. If it is less than midnight (midnight), it may be defined as night time.
  • the step of generating the acquisition time display information includes information indicating the time of acquisition of the sleep state information displayed on the graphic user interface, the date of the wake-up time included in the wake-up time information, and It is created as a shape that displays time zone information, and the shape may be any one of a point, polygon, circle, oval, fan, or a combination of straight lines and curves.
  • the figure created according to an embodiment of the present invention may be characterized in that at least one of its type or color is displayed differently depending on the time zone information included in the wake-up time information.
  • the graphical user interface further includes text displaying the time zone information, and the text displaying the time zone information includes a keyword of dawn if the time zone to which the wake-up time belongs is the dawn time zone, If it is a morning time zone, it may be characterized as including the keyword "morning”, if it is a day time zone, it may include the keyword “day”, if it is an evening time zone, it may include the keyword “evening”, and if it is a night time zone, it may include the keyword "night”.
  • the step of acquiring sleep state information converts the sleep sound information included in the acquired sleep information into information including changes in the frequency components of the sleep sound information along the time axis, and the converted It may include performing analysis on information.
  • the converted information may be a spectrogram.
  • the step of acquiring sleep state information may be characterized by acquiring the sleep state information based on dividing the spectrogram into epochs of 30 seconds.
  • the sleep information receiving method includes receiving the user's sleep information including the user's sleep sound information from one or more sleep information sensor devices. step; A sleep state information acquisition step of acquiring sleep state information of the user based on the received sleep information of the user; creating one or more graphical user interfaces for receiving desired wake-up time information; Receiving desired wake-up time information through one or more graphical user interfaces for receiving the desired wake-up time information; An alarm time information generating step of generating alarm time information based on the obtained sleep state information and the received desired wake-up time information; A graphical user interface creation step of generating one or more graphical user interfaces for performing an alarm function based on the generated alarm time information; and a display step of displaying the generated graphical user interface through a display device.
  • the step of acquiring sleep state information if the sleep state information indicates that the user is in REM sleep within a time range including the desired wake-up time information, after REM sleep appears, After the time of, the alarm time information generating step; generating alarm time information based on the sleep state information provides a method of providing a graphical user interface representing information about the user's sleep.
  • the step of creating a graphical user interface includes, when a trigger area for activating the notification function is activated, a step of creating a graphical user interface for starting sleep measurement along with activating the alarm function; , if the trigger area for activating the notification function is not activated, creating a graphical user interface for initiating sleep measurement along with deactivating the alarm function; providing a graphical user interface that displays information about the user's sleep, including: Provides a way to do this.
  • the step of creating a graphical user interface includes: generating a graphical user interface that provides information corresponding to sleep with an undetermined wake-up time when a trigger area for activating the notification function is not activated; A method of providing a graphical user interface representing information about a user's sleep including a method is provided.
  • the step of generating a graphical user interface includes: generating a graphical user interface including a slide area for selecting the desired wake-up time information through a slide method; and receiving the desired wake-up time information. It provides a method of providing a graphical user interface displaying information about the user's sleep, further comprising: receiving the desired wake-up time information through the slide area.
  • the step of creating a graphical user interface including a slide area for selecting the desired wake-up time information; when the slide area is slid in a first direction, the time of the desired wake-up time information is delayed,
  • a method of providing a graphical user interface representing information about a user's sleep including a step of generating a graphical user interface in which the time of the desired wake-up time information becomes faster when the slide area is slid in a second direction.
  • the step of creating a graphical user interface represents a range of the scheduled wake-up time based on the received desired wake-up time information, and the range of the scheduled wake-up time is a predetermined time before the desired wake-up time.
  • a method of providing a graphical user interface representing information about a user's sleep including a step of creating a graphical user interface indicating the desired wake-up time.
  • the step of generating the graphical user interface is: upon receiving the desired wake-up time information through the slide area, predicted wake-up time information or predicted sleep time or prediction inferred from the received sleep state information of the user.
  • a method of providing a graphical user interface indicating information about a user's sleep including a step of generating a graphical user interface indicating an estimated sleep time based on a combination of sleep time and sleep efficiency, is provided.
  • the step of creating a graphical user interface is: when receiving the desired wake-up time information through the slide area, a graphic user indicates an expected sleep time based on the difference between the received desired wake-up time and the current time.
  • a method of providing a graphical user interface representing information about a user's sleep, including an interface creation step, is provided.
  • the step of creating a graphical user interface includes: a graphical user including a screen indicating that sleep measurement is in progress when the alarm function is activated and the start of sleep measurement is inputted through a graphical user interface for starting sleep measurement;
  • a method of providing a graphical user interface representing information about a user's sleep is provided, including the step of creating an interface.
  • generating a graphical user interface including a screen indicating that sleep measurement is in progress; generating a graphical user interface indicating that the alarm function is being activated; and a range of the scheduled wake-up time.
  • generating a graphical user interface including a screen indicating that sleep measurement is in progress; generating a graphical user interface capable of ending sleep measurement; displaying information about the user's sleep further comprising: Provides a method of providing a graphical user interface.
  • the step of generating the graphical user interface when the trigger area for activating the notification function is not activated, when the start of sleep measurement is input through the graphical user interface for starting the sleep measurement, sleep
  • a method of providing a graphical user interface representing information about a user's sleep including the step of generating a graphical user interface including a screen indicating that measurement is in progress.
  • generating a graphical user interface including a screen indicating that sleep is being measured includes generating a graphical user interface indicating that a trigger area for activating the alarm function is not being activated.
  • a graphic representing information about the user's sleep further comprising: generating a graphic user interface representing a range of the scheduled wake-up time; and generating a graphic user interface representing waves of the user's sleep sound information.
  • generating a graphical user interface including a screen indicating that sleep measurement is in progress; generating a graphical user interface capable of ending sleep measurement; displaying information about the user's sleep further comprising: Provides a method of providing a graphical user interface.
  • the step of generating a graphical user interface generating a graphical user interface that displays a pop-up window so that the user can check the expected sleep time when the expected sleep time exceeds a predetermined time;
  • a method of providing a graphical user interface representing information about sleep is provided.
  • the step of generating a graphical user interface includes: generating a graphical user interface that provides information that sleep measurement results can be confirmed when sleeping for a predetermined time or more when the estimated sleep time is less than a predetermined time; A method of providing a graphical user interface representing information about a user's sleep is provided.
  • the time range including the user's desired wake-up time information includes the time from a predetermined time before the user's desired wake-up time to the user's desired wake-up time, and the sleep within the time range.
  • the status information does not indicate that the user is in REM sleep
  • a method of providing an alarm based on the user's sleep status information is provided, which generates the alarm timing information at the user's desired wake-up time.
  • the time range including the user's desired wake-up time information includes the time from a predetermined time before the user's desired wake-up time to the user's desired wake-up time, and the sleep within the time range.
  • the state information indicates that the user is in REM sleep
  • a method of providing an alarm based on the user's sleep state information that generates the alarm time information at a time point indicating that the user is in REM sleep is provided.
  • the sleep information receiving step is an alarm based on the user's sleep state information, further comprising a sleep information conversion step of converting the user's sleep sound information in the time domain into information in the frequency domain.
  • the sleep information receiving step further includes a sleep information inference step of inferring information about sleep by using the user's sleep sound information as an input to a sleep information inference deep learning model.
  • a sleep information inference step of inferring information about sleep by using the user's sleep sound information as an input to a sleep information inference deep learning model.
  • a method of providing alarm timing information based on a user's sleep state information includes: a sleep state information acquisition step of acquiring the user's sleep state information; A desired wake-up time information receiving step of receiving the user's desired wake-up time information; And an alarm timing information generating step of generating alarm timing information based on the obtained sleep state information and the received desired waking up time information. If the sleep state information indicates that the user is in REM sleep during the time from before to the desired wake-up time, alarm time information based on the user's sleep state information is set as the alarm time information at the time when the user is in REM sleep. Provides a method to provide.
  • the sleep state information indicates that the user is in REM sleep during the time from a predetermined time before the desired wake-up time to the desired wake-up time, the user is in REM sleep.
  • a method of providing alarm time information based on the user's sleep state information is provided, which sets a time point after a predetermined time from the time point as the alarm time information.
  • the user's sleep stage A method of providing alarm timing information based on the user's sleep state information is provided, which sets the alarm timing information as a timing indicating that the sleep stage is other than REM sleep.
  • the step of generating alarm time information after the sleep state information indicates that the user is in REM sleep during the time from a predetermined time before the desired wake-up time to the desired wake-up time, the user is in REM sleep.
  • the alarm time information is generated at a time when the reliability of the sleep state information is lowered.
  • a method of providing a graphical user interface that displays information about a user's sleep is disclosed.
  • a method of providing a graphical user interface includes acquiring user's sleep information from one or more sleep information sensor devices - the user's sleep information includes the user's sleep sound information - sleep information acquisition step. may include.
  • a method of providing a graphical user interface includes acquiring user's sleep state information in real time based on the acquired user's sleep information - the user's sleep state information includes a plurality of sleep stage information. - May include a step of acquiring sleep state information.
  • the method of providing a graphical user interface includes acquiring user's sleep state information based on the acquired user's sleep information - the user's sleep state information includes a plurality of sleep stage information. - May include a step of acquiring sleep state information.
  • a method of providing a graphical user interface may include a sleep state information graph generating step of generating a graph representing the user's sleep state information over time based on the obtained sleep state information. .
  • a method of providing a graphical user interface according to an embodiment of the present invention may include displaying a graphical user interface including a generated graph.
  • a method of providing a graphical user interface generates a graph representing the user's sleep state information over time based on the obtained sleep state information - the graph includes a plurality of rectangles. - It may include the step of generating a sleep state information graph.
  • the method of providing a graphical user interface may include generating a sleep state information graph including a plurality of rectangles each corresponding to a plurality of sleep stages.
  • the graphic user interface provided according to an embodiment of the present invention includes a plurality of areas each allocated to a plurality of sleep stages, and each of the plurality of rectangles included in the sleep state information graph is one of the plurality of areas. It can only be displayed in the area allocated to the corresponding sleep stage.
  • a method of providing a graphical user interface includes a graph representing the user's sleep state information over time based on the obtained sleep state information - a graph representing the user's sleep state information is a sleep state Expressing information discretely - may include a step of generating a sleep state information graph.
  • a method of providing a graphical user interface may include generating a sleep state information graph including a plurality of shapes that each correspond to a plurality of sleep stages and are separated from each other. there is.
  • the graphical user interface provided according to an embodiment of the present invention includes a plurality of areas each allocated to a plurality of sleep stages, the plurality of areas have a height assigned to each, and the distance between the plurality of areas is With an assigned pitch, each of a plurality of shapes included in the sleep state information graph may be discrete based on the pitch.
  • At least one of the boundaries between a plurality of areas included in the graphical user interface provided according to an embodiment of the present invention may be expressed as a distinguishable line.
  • a method of providing a graphical user interface includes a plurality of shapes, each corresponding to a plurality of sleep stages, wherein at least one shape of the plurality of shapes is different from the remaining shapes. It may include the step of generating sleep state information graphs that are separated from each other.
  • the figures that are separated from each other may correspond to the waking stage.
  • a plurality of shapes each corresponding to a plurality of sleep stages, may be expressed as shapes of the same shape, and may specifically be expressed as rectangles.
  • the graphic user interface includes a plurality of areas allocated to each of the sleep stages, and a plurality of shapes each corresponding to a plurality of sleep stages correspond to corresponding sleep stages among the plurality of areas. It is displayed only in the area allocated to the stage, and when the shape corresponding to the sleep stage is displayed separately from the remaining shapes, the shape may not be displayed in the area allocated to the other sleep stage.
  • the user's sleep state information can be acquired in 30-second increments.
  • a graph representing sleep stage information in units of 30 seconds included in the obtained sleep state information may be generated.
  • the acoustic information on the time domain included in the acquired sleep information is converted into information on the frequency domain, and the user's above information is converted based on the converted information on the frequency domain. Sleep state information can be obtained.
  • information on the frequency domain may be a spectrogram or a Mel spectrogram to which a Mel scale is applied.
  • the sleep state information may be obtained based on dividing the spectrogram into epochs of 30 seconds.
  • each graph generated in the sleep state information graph generation step according to an embodiment of the present invention may be expressed in different colors assigned to correspond to each of the plurality of sleep stage information included in the user's sleep state information.
  • the user's waking point information or waking up time information included in the sleep state information acquired in the sleep state information acquisition step is displayed together in the sleep state information graph. can be created.
  • the graph generated in the sleep state information graph generation step numerically expresses the user's waking-up time information or waking-up time information displayed together in the sleep state information graph, and is a sleep state information graph. It may be characterized in that it is connected with a line and generated to be displayed in parallel.
  • the present invention provides a method for starting sleep measurement through a user device, including a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at a time when the trigger is sensed based on the sensed sleep measurement start trigger.
  • the sleep measurement start trigger is the user's desired sleep time and sleep mode on the user device.
  • the sleep mode refers to a mode in which the output of information indicating the occurrence of events related to applications running on the user device is limited. - If at least one of - is set, it provides a method for starting sleep measurement through a user device, characterized in that sensing is performed after the set user desired sleep time or during a period set in the sleep mode.
  • the sleep measurement start trigger is exercise or movement applied to the user device, and when the user device senses the exercise or movement in the sensing step, at the time when the start step senses the exercise or movement.
  • the sleep measurement start trigger is a user's desired sleep voice input to the user device, and when the user device senses the user's desired sleep voice in the sensing step, the start step; senses the user's desired sleep voice.
  • the sleep measurement start trigger is a user's desired sleep voice input to the user device, and when the user device senses the user's desired sleep voice in the sensing step, the start step; senses the user's desired sleep voice.
  • the present invention relates to a user device where, when the user device senses the start of charging within a predetermined time range set in the sensing step, the recognition step recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger. Provides a method for initiating sleep measurement through .
  • the present invention provides a method for initiating sleep measurement through a user device, wherein the charging initiated by the user device is wired charging.
  • the present invention provides a method for initiating sleep measurement through a user device, wherein the charging initiated by the user device is wireless charging.
  • the present invention relates to the sensing step; when the user device senses the lock mode release after a predetermined time when the lock mode of the display screen is released, the recognition step; starts sleep measurement at the time of sensing the lock mode release.
  • the present invention relates to sleep measurement using a user device, wherein when the display unit of the user device senses a swipe input in the sensing step, the recognition step recognizes the point in time at which the swipe is sensed as the sensing point in time for the sleep measurement start trigger. Provides a method for initiating.
  • the present invention provides a method for initiating sleep measurement through a user device, wherein the swipe input is input with the user's finger.
  • the present invention provides a method for initiating sleep measurement through a user device, wherein the swipe input is input with the user's palm.
  • the present invention provides a method for starting sleep measurement through a user device, in which the recognition step recognizes the time when the two or more trigger sensing operations are sensed together as the sensing time of the sleep measurement start trigger.
  • the present invention provides a method for starting sleep measurement through a user device, when another device connected to the user device through a network senses sleep measurement start trigger information and transmits the sleep measurement start trigger information sensed by the other device. , a receiving step of receiving the transmitted sleep measurement start trigger information; and a start step of starting sleep measurement at a time when the trigger information is sensed based on the received sleep measurement start trigger information.
  • the sleep measurement start trigger is provided to at least one of the user device and the other device, the user's desired sleep time and sleep mode, and the sleep mode is an event related to applications running on the user device or the other device.
  • the sleep mode is an event related to applications running on the user device or the other device. Refers to a mode in which the output of information indicating occurrence is limited -
  • sleep measurement is initiated through a user device, characterized in that sensing is performed after the user's desired sleep time set or during a period set as the sleep mode. Provides a method for doing so.
  • the sleep measurement start trigger is a physical contact between the other device and the user device
  • the initiating step is a user initiating sleep measurement at the time of sensing the physical contact between the other device and the user device.
  • the sleep measurement start trigger is physical contact between the other device and the user's body
  • the initiating step is to initiate sleep measurement at the time of sensing the physical contact between the other device and the user's body.
  • the sleep measurement start trigger is a user sleep measurement start trigger voice input to the other device
  • the starting step is to start sleep measurement at the time of sensing the user sleep measurement start trigger voice input to the other device.
  • the sleep measurement start trigger is a signal that the other device has started charging after a predetermined time, and the start step is to start sleep measurement at the time the other device starts charging, through a user device.
  • the sleep measurement start trigger is a signal that the other device has started charging after a predetermined time
  • the start step is to start sleep measurement at the time the other device starts charging, through a user device.
  • the present invention provides a method for initiating sleep measurement through a user device, comprising: a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start time.
  • the present invention relates to the creation of the start decision information step by allowing the user to use the user device for a predetermined period of time during a period in which the output of information indicating the occurrence of an event related to applications operating on the user device in the sensing step is set to a restricted mode.
  • the information that the user is using the user device includes the user's movement or movement detected by the user device, a signal that the display of the user device is turned on, the user's voice input to the user device, or the user's voice input to the user device.
  • the present invention provides an electronic device that initiates sleep measurement of a user, comprising: a sensing unit that senses a sleep measurement start trigger; a memory unit in which applications can be recorded; and a processor unit capable of executing the application, wherein the processor unit initiates sleep measurement of the electronic device at a time when the trigger is sensed by the sensing unit. to provide.
  • the sleep information receiving method includes receiving the user's sleep information including the user's sleep sound information from one or more sleep information sensor devices. step; A sleep state information acquisition step of acquiring sleep state information of the user based on the received sleep information of the user; Receiving average sleep data of another person; generating a graphical user interface including a graph comparing the received sleep average data of others with the obtained sleep state information of the user; and displaying the graphical user interface.
  • a method of providing a graphical user interface that displays information about a user's sleep is provided.
  • the graph provided for comparing the received sleep average data of others with the obtained sleep state information of the user is characterized in that the length is proportional to the data value, A method of providing a graphical user interface representing information is provided.
  • the step of creating a graphical user interface including a graph comparing the received sleep average data of others and the acquired sleep state information of the user includes the received average sleep data of others and the obtained sleep state information of the user.
  • a method of providing a graphical user interface representing information about a user's sleep is provided, characterized in that the evaluation obtained by comparing the acquired sleep state information of the user is expressed as an “emoticon”.
  • a method of providing a graphical user interface representing information about a user's sleep wherein the average sleep data of others is an average value calculated based on medically obtained information. do.
  • a method of providing a graphical user interface displaying information about the user's sleep is provided, wherein the average sleep data of others is an average value calculated based on medically recommended information.
  • a method of providing a graphical user interface representing information about a user's sleep, wherein the average sleep data of others is statistically obtained is provided.
  • the other person's average sleep data is a graphical user interface that displays information about the user's sleep, characterized in that the sleep average data of the other person is obtained by acquiring the other person's sleep state information and analyzing the other person's sleep state information.
  • a method of providing a graphical user interface that displays information about the user's sleep is provided, wherein the average sleep data of others is classified based on the other person's age group.
  • a method of providing a graphical user interface displaying information about a user's sleep is provided, wherein the other person's average sleep data is classified based on the other person's gender.
  • a method of providing a graphical user interface that displays information about the user's sleep is provided, wherein the average sleep data of others is classified based on the other person's occupation.
  • a method of providing a graphical user interface displaying information about a user's sleep is provided, wherein the other person's average sleep data is classified based on the other person's daily activity record.
  • a method of providing a graphical user interface representing information about a user's sleep is provided, wherein the other person's average sleep data is classified based on the other person's financial data information.
  • the average sleep data of others is information about the user's sleep, which is classified based on a combination of two or more of the other person's age group, gender, occupation, day's activity record, and financial data.
  • the received average sleep data of others is the average number of wakes during sleep
  • the obtained sleep state information of the user is information about the user's sleep, which is the number of wakes during the user's sleep.
  • the received sleep average data of others is average light sleep proportion information
  • the obtained user's sleep state information is the user's light sleep proportion information.
  • Graphic user representing information about the user's sleep. Provides a method of providing an interface.
  • the received sleep average data of others includes two or more of the following: average waking delay time information, average deep sleep proportion information, average REM sleep proportion information, average number of awakenings during sleep, and light sleep proportion information. It is a combination, and the acquired sleep state information of the user is a combination of two or more of the average waking delay time information, average deep sleep proportion information, average REM sleep proportion information, average number of awakenings during sleep, and light sleep proportion information, A method of providing a graphical user interface representing information about a user's sleep is provided.
  • a method of providing a graphical user interface representing an evaluation of a user's sleep is a method of providing a graphical user interface representing an evaluation of a user's sleep using text, and includes one or more sleep information sensors.
  • Acquiring sleep information from a device - the sleep information includes sleep sound information of the user - acquiring sleep information; Sleep comprising at least two words indicating an evaluation of the user's sleep based on the acquired sleep information;
  • a method of generating one or more graphical user interfaces representing an evaluation of a user's sleep is provided.
  • the phrase provides a method for creating one or more graphical user interfaces that represent the user's evaluation of his or her sleep expressed in a non-numerical manner.
  • the sleep information provides a method of generating one or more graphical user interfaces representing an evaluation of the user's sleep including sleep environment information and user's life information.
  • a method of generating one or more graphical user interfaces representing an evaluation of a user's sleep including a sleep log information storage step of storing sleep log information related to an account assigned to the user in a memory.
  • the sleep information acquisition step further includes a sleep information conversion step of converting the user's sleep sound information in the time domain into information in the frequency domain. Creating at least one graphical user interface representing an evaluation of the user's sleep. A method can be provided.
  • the sleep information acquisition step further includes a sleep information inference step of inferring information about sleep by using sleep sound information as an input to a sleep information inference deep learning model. Evaluation of the user's sleep. It may provide a method of creating one or more graphical user interfaces to represent a user interface.
  • the sleep phrase generating step includes generating a first sleep phrase generating text of high interest during evaluation of the user's sleep; and generating a second sleep phrase, generating text constituting the evaluation of the user's sleep.
  • the sleep phrase generating step may include a third sleep phrase generating step, wherein the sleep phrase generating step generates advice text based on the user's evaluation of sleep. to provide.
  • the sleep phrase generating step further includes a lookup table sleep phrase generating step of generating the sleep phrase based on a lookup table.
  • a lookup table sleep phrase generating step of generating the sleep phrase based on a lookup table One or more graphical user interfaces representing an evaluation of the user's sleep.
  • a method for creating can be provided.
  • the lookup table sleep phrase generating step includes a lookup table user sleep characteristic classification step of classifying the user's sleep characteristics based on the sleep information; and a look-up table sleep phrase extraction step of extracting a sleep phrase based on the look-up table corresponding to the user's sleep characteristics.
  • the step of generating the sleep phrase further includes the step of generating the sleep phrase based on a large-scale language model, one or more graphics representing the user's evaluation of the user's sleep.
  • a method for creating a user interface can be provided.
  • the large-scale language model sleep phrase generating step includes a large-scale language model user sleep characteristic classification step of classifying the user's sleep characteristics based on the sleep information; and extracting sleep phrases from a large-scale language model using the user's sleep characteristics as input to the large-scale language model. You can.
  • the user graphic user interface display step includes an evaluation of the user's sleep including a user sleep graph generating step of generating a graph about the sleep stage within the user's sleep period based on the sleep information.
  • a method for creating one or more graphical user interfaces representing a can be provided.
  • the third sleep phrase is arranged to be spaced apart from the generated first sleep phrase and the generated second sleep phrase, and is placed at the bottom of the generated user sleep graph.
  • a method may be provided for creating one or more graphical user interfaces that represent an assessment of a user's sleep as a feature.
  • a non-transitory computer-readable storage medium containing a program that provides a graphical user interface representing an evaluation of the user's sleep is provided, and one or more graphic users representing an evaluation of the user's sleep are provided.
  • a non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors to create an interface, wherein the one or more programs include instructions to perform a method according to an embodiment of the present invention.
  • a temporary computer-readable storage medium is provided.
  • an apparatus for providing a graphical user interface representing an evaluation of a user's sleep includes an apparatus for generating one or more graphical user interfaces representing an evaluation of a user's sleep, comprising: a display unit; One or more processors; and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising instructions to perform a method according to an embodiment of the present invention.
  • a graphical user interface representing the evaluation of the user's sleep is provided using a non-numerical method and a numerical method.
  • a method of acquiring sleep information from one or more sleep information sensor devices - the sleep information includes sleep sound information of a user - acquiring sleep information;
  • a method of generating one or more graphical user interfaces representing an evaluation of a user's sleep is provided.
  • the sleep information provides a method of generating one or more graphical user interfaces that represent an evaluation of the user's sleep including sleep environment information and user's life information.
  • a method of generating one or more graphical user interfaces representing an evaluation of a user's sleep including a sleep log information storage step of storing sleep log information related to an account assigned to the user in a memory.
  • the sleep information acquisition step further includes a sleep information conversion step of converting the user's sleep sound information in the time domain into information in the frequency domain. Creating at least one graphical user interface representing an evaluation of the user's sleep. Provides a method.
  • the sleep information acquisition step further includes a sleep information inference step of inferring information about sleep by using sleep sound information as an input to a sleep information inference deep learning model. Evaluation of the user's sleep. Provides a method for creating one or more graphical user interfaces to represent.
  • a first sleep phrase generation step of generating a text of high interest during evaluation of the user's sleep and generating a second sleep phrase, generating text constituting the evaluation of the user's sleep.
  • the step of generating a sleep assessment includes a third step of generating sleep phrases, wherein the step of generating advice text is based on the assessment of the user's sleep. to provide.
  • the sleep evaluation generating step includes providing the user with an evaluation of sleep in a numerical manner based on the evaluation of the user's sleep, and one or more graphics representing an evaluation of the user's sleep, including generating numerical sleep information.
  • the sleep evaluation generating step further includes a lookup table sleep phrase evaluation step of generating the sleep evaluation based on a lookup table.
  • a lookup table sleep phrase evaluation step of generating the sleep evaluation based on a lookup table.
  • One or more graphical user interfaces representing an evaluation of the user's sleep.
  • a method for creating a can be provided.
  • the lookup table sleep evaluation generating step includes a lookup table user sleep characteristic classification step of classifying the user's sleep characteristics based on the sleep information; and a look-up table sleep evaluation extraction step of extracting a sleep evaluation based on the look-up table corresponding to the user's sleep characteristics.
  • the step of generating a sleep rating further includes generating a large-scale language model sleep phrase, generating the sleep rating based on a large-scale language model.
  • the large-scale language model sleep evaluation generating step includes a large-scale language model user sleep characteristic classification step of classifying the user's sleep characteristics based on the sleep information; and a large-scale language model sleep evaluation extraction step of extracting sleep phrases by using the user sleep characteristics as input to the large-scale language model. You can.
  • the user graphic user interface display step relates to the user's sleep, including a user sleep graph generating step of generating a graph about the sleep stage within the user's sleep period based on the sleep information.
  • a method may be provided for creating one or more graphical user interfaces representing the evaluation.
  • a non-transitory computer-readable storage medium containing a program that provides a graphical user interface representing an evaluation of the user's sleep is provided, and one or more graphic users representing an evaluation of the user's sleep are provided.
  • a non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors to create an interface, wherein the one or more programs include instructions to perform a method according to an embodiment of the present invention.
  • a temporary computer-readable storage medium is provided.
  • an apparatus for providing a graphical user interface representing an evaluation of a user's sleep includes an apparatus for generating one or more graphical user interfaces representing an evaluation of a user's sleep, comprising: a display unit; One or more processors; and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising instructions to perform a method according to an embodiment of the present invention.
  • a method for collecting feedback on a user's sleep and a method for providing a graphical user interface include a sleep information acquisition step of acquiring sleep information from one or more sleep information sensor devices; A sleep state information acquisition step of acquiring user's sleep state information based on the acquired sleep information - the user's sleep state information includes at least one of the user's sleep stage information and the user's sleep event information; A sleep service providing step of providing a sleep service based on the acquired sleep state information or the acquired sleep information; and displaying a user feedback graphical user interface to collect user feedback on the provided sleep service.
  • a method of collecting feedback on a user's sleep and a method of providing a graphical user interface can be provided.
  • the sleep information may include one or more of sleep environment information, sleep sound information, and sleep life information.
  • the sleep information acquisition step may include a preprocessing step of converting the sleep sound information into information including changes in frequency components along the time axis.
  • the sleep service providing step may provide a sleep content service based on the acquired sleep state information or the acquired sleep information.
  • the sleep service providing step may provide a sleep analysis information providing service based on the acquired sleep state information or the acquired sleep information.
  • the sleep service providing step may provide a sleep environment control service based on the acquired sleep state information or the acquired sleep information.
  • displaying the user feedback graphical user interface may include collecting a user's response to the provided sleep service through the displayed user feedback graphical user interface; and storing the collected user responses.
  • a method for collecting feedback on a user's sleep and a method for providing a graphical user interface include a sleep information acquisition step of acquiring sleep information from one or more sleep information sensor devices; A sleep state information acquisition step of acquiring sleep state information of the user based on previously acquired sleep information, wherein the sleep state information of the user includes at least one of the user's sleep stage and the user's sleep event; A sleep service providing step of providing a sleep service based on the acquired sleep state information or the acquired sleep information; and detecting user motion feedback to collect user feedback on the provided sleep service.
  • the sleep information may include one or more of sleep environment information, sleep sound information, and sleep life information.
  • the sleep information acquisition step may include a preprocessing step of converting the sleep sound information into information including changes in frequency components along the time axis.
  • the sleep service providing step may provide a sleep content service based on the acquired sleep state information or the acquired sleep information.
  • the sleep service providing step may provide a sleep analysis information providing service based on the acquired sleep state information or the acquired sleep information.
  • the sleep service providing step may provide a sleep environment control service based on the acquired sleep state information or the acquired sleep information.
  • the step of detecting user motion feedback includes detecting a user's motion for the provided sleep service; and converting the detected user's motion into information about feedback.
  • the step of detecting user motion feedback may include one or more of voice motion feedback, physical motion feedback, and sleep environment control feedback.
  • a method of collecting feedback on a user's sleep and a method of providing a graphical user interface include a sleep information acquisition step of acquiring sleep information from one or more sleep information sensor devices; A sleep state information acquisition step of acquiring user's sleep state information based on the acquired sleep information - the user's sleep state information includes at least one of the user's sleep stage and the user's sleep event; A sleep service providing step of providing a sleep service based on the acquired sleep state information or the acquired sleep information; and detecting changes in the obtained sleep state information to collect user feedback on the provided sleep service.
  • the sleep information may include one or more of sleep environment information, sleep sound information, and sleep life information.
  • the sleep information acquisition step may include a preprocessing step of converting the sleep sound information into information including changes in frequency components along the time axis.
  • the sleep service providing step may provide a sleep content service based on the acquired sleep state information or the acquired sleep information.
  • the sleep service providing step may provide a sleep analysis information providing service based on the acquired sleep state information or the acquired sleep information.
  • the sleep service providing step may provide a sleep environment control service based on the acquired sleep state information or the acquired sleep information.
  • the method may further include obtaining sleep state information feedback regarding a sleep service based on the sensed change in sleep state information.
  • detecting a change in the acquired sleep state information includes obtaining corresponding information between the obtained sleep state information and the provided sleep service; and collecting changes in sleep state information as feedback based on the obtained corresponding information.
  • detecting a change in the acquired sleep state information includes determining whether the acquired change in sleep state information falls within a positive sleep reference range; and determining positive sleep feedback if the sleep quality falls within the positive sleep standard range, and determining negative sleep feedback if the sleep quality does not fall within the positive sleep standard range.
  • the sleep state information may include information about apnea.
  • the sleep state information may include information about the elevation delay time.
  • the sleep state information may include information about the delay time of REM sleep.
  • the sleep state information may include deep sleep ratio information.
  • the sleep state information may include information on the total amount of sleep.
  • a non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors to collect feedback on the user's sleep and provide a graphical user interface
  • the above program may provide a non-transitory computer-readable storage medium containing instructions to perform one or more of the methods described above.
  • a device that collects feedback on the user's sleep and provides a graphical user interface, comprising: a display unit; One or more processors; and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising instructions for performing any one of the methods described above, and providing feedback regarding the user's sleep.
  • a device that collects and provides a graphical user interface.
  • the present invention by generating and providing an evaluation of the user's sleep through a graphical user interface, it is possible to contribute to improving the quality of the user's sleep by providing the user with an evaluation of the user's sleep.
  • the present invention by generating and providing information about the user's sleep through a graphical user interface, it is possible to contribute to improving the user's sleep quality by providing information about the user's sleep to the user.
  • the present invention by generating and providing information about the user's sleep through a graphical user interface, it is possible to contribute to improving the user's sleep quality by providing information about the user's sleep to the user. Additionally, it can be helpful in analyzing information about sleep by intuitively displaying information about when information about the user's sleep was obtained.
  • the effect of the present invention is to accurately capture the timing of REM sleep and provide an alarm to the user. Additionally, it provides the expected wake-up time and estimated sleep time on one screen. Additionally, when the scheduled wake-up time is changed, an estimated sleep time that changes in real time is provided. Additionally, minimal time information is provided on the screen after the alarm is set to prevent users from feeling anxious about waking up time. Additionally, a hypnogram is displayed on the screen after the alarm is set, allowing the user to know whether the user woke up exactly at the time of REM sleep. Additionally, it provides users with information about how much more sleep they can sleep, rather than when the alarm sounds.
  • the present invention provides a graphical user interface that analyzes the user's sleep sound information, provides sleep state information, and provides information so that the user's sleep results can be easily recognized at a glance by comparing the results of the user's sleep with the sleep of others.
  • the present invention can conveniently trigger sleep measurement to provide sleep state information on a user device.
  • the present invention by generating and providing an evaluation of the user's sleep through a graphical user interface, it is possible to contribute to improving the quality of the user's sleep by providing the user with an evaluation of the user's sleep.
  • FIG. 1A is a conceptual diagram illustrating a system in which various aspects of an apparatus for generating one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention may be implemented.
  • FIG. 1B is a conceptual diagram illustrating a system in which various aspects of a device providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention may be implemented.
  • FIG. 2A is a conceptual diagram illustrating a system in which the creation and/or provision of one or more graphical user interfaces representing information about a user's sleep are implemented in a user terminal according to an embodiment of the present invention.
  • Figure 2b is a conceptual diagram showing a system in which various aspects of various electronic devices according to the present invention can be implemented.
  • Figure 3 is a block diagram showing the configuration of a device that generates/provides one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
  • FIGS. 4A to 4G are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the waking time according to embodiments of the present invention.
  • FIGS. 5A to 5E are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the elevation viewpoint according to embodiments of the present invention.
  • FIGS. 6A to 6E are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the elevation time and the waking time according to embodiments of the present invention.
  • FIGS. 7A to 7G are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the definition of the time zone to which the waking time belongs according to embodiments of the present invention. am.
  • Figure 8 is a diagram for explaining the process of acquiring sleep sound information in the sleep analysis method according to the present invention.
  • Figure 9 is a diagram for explaining a method of obtaining a spectrogram corresponding to sleep sound information in the sleep analysis method according to the present invention.
  • Figure 10 is a flowchart of a method for creating and providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
  • Figure 11 is a schematic diagram showing one or more network functions for performing the sleep analysis method according to the present invention.
  • Figure 12 is a diagram for explaining sleep stage analysis using a spectrogram in the sleep analysis method according to the present invention.
  • Figure 13 is a diagram for explaining sleep disorder determination using a spectrogram in the sleep analysis method according to the present invention.
  • Figure 14 is a diagram showing an experimental process for verifying the performance of the sleep analysis method according to the present invention.
  • Figure 15 is a diagram for explaining the overall structure of a sleep analysis model according to an embodiment of the present invention.
  • Figure 16 is a diagram for explaining a feature extraction model and a feature classification model according to an embodiment of the present invention.
  • FIG. 17A and 17B are graphs verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results (PSG results) and analysis results (AI results) using the AI algorithm according to the present invention. This is a comparison drawing.
  • Figure 18 is a graph verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results in relation to sleep apnea and hypoventilation and the results according to the present invention.
  • PSG polysomnography
  • This is a diagram comparing the analysis results (AI results) using AI algorithms.
  • Figure 19a is a diagram showing a graphical user interface showing information about the sleep of a user with the alarm function activated according to the present invention.
  • Figure 19b is a diagram illustrating a graphical user interface showing information about the sleep of a user in which the alarm function according to the present invention is not activated.
  • Figure 20a is a diagram showing a graphical user interface indicating that sleep is being measured while the alarm function according to the present invention is activated.
  • Figure 20b is a diagram showing a graphical user interface indicating that sleep is being measured while the alarm function according to the present invention is deactivated.
  • Figure 21 is a diagram illustrating a graphical user interface that provides information to confirm the user's expected sleep time according to the present invention when the user's expected sleep time is more than a predetermined time.
  • Figure 22 is a diagram illustrating a user interface that provides information corresponding to sleep measurement when the user's expected sleep time is less than a predetermined time according to the present invention.
  • Figure 23 is a diagram for explaining a method of providing an alarm based on the user's sleep state information according to the present invention.
  • Figure 24a is a diagram for explaining the case where the AI alarm of the present invention is not set using a hypnogram.
  • Figure 24b is a diagram for explaining the case of setting the AI alarm of the present invention through a hypnogram.
  • Figure 25c is a diagram showing a respiratory stability graph according to an embodiment of the present invention.
  • Figure 25e is a diagram showing a graphical user interface including an explanatory display for respiratory instability according to an embodiment of the present invention.
  • 26A and 26B are diagrams illustrating a graphical user interface including statistical information of sleep state information according to embodiments of the present invention.
  • Figures 27a and 27b are diagrams illustrating a graphical user interface including sleep state information acquired over a week according to embodiments of the present invention.
  • FIGS. 28A and 28B are diagrams illustrating a graphical user interface including sleep state information acquired over a predetermined period of time according to embodiments of the present invention.
  • Figure 29 is a flowchart of a method for creating and providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
  • Figures 31A to 31E are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
  • Figure 32 is a diagram showing that when a finger swipe input is sensed on the display unit of a user device, which is an embodiment of the present invention, the time of sensing the finger swipe is recognized as the sensing time of the sleep measurement start trigger.
  • Figure 33 is a diagram showing that when a palm swipe input is sensed on the display unit of a user device, which is an embodiment of the present invention, the time of sensing the palm swipe is recognized as the sensing time of the sleep measurement start trigger.
  • Figure 34 is a diagram showing that when the user device, which is an embodiment of the present invention, senses the start of wired charging, it recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger.
  • Figure 35 is a diagram showing that when a user device, which is an embodiment of the present invention, senses the start of wireless charging, it recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger.
  • Figure 36 is a diagram showing that when exercise or movement is sensed by a user device, which is an embodiment of the present invention, the time at which the exercise or movement is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • Figure 37 is a diagram showing that when a user's voice is sensed by a user device, which is an embodiment of the present invention, the time when the user's voice is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • Figure 38 is a diagram illustrating that when another device connected to the user device through a network senses sleep measurement start trigger information, which is an embodiment of the present invention, the sensing time is recognized as the sensing time of the sleep measurement start trigger.
  • Figure 39 is a diagram showing that when sleep sound information is sensed by a user device according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • FIG. 40 is a diagram illustrating that when sleep sound information is sensed by a user device in a sleep mode according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • FIG. 41 is a diagram illustrating that when unlocking of the locking device of the user device is sensed, which is an embodiment of the present invention, the time when unlocking of the locking device is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • Figure 42 shows that during the sleep mode, which is an embodiment of the present invention, if finger tapping is not sensed by the user device, the time when a predetermined time has elapsed from the time when finger tapping was not sensed is recognized as the sensing time of the sleep measurement start trigger. It is a drawing.
  • Figure 43 shows that during the sleep mode, which is an embodiment of the present invention, if the user's exercise or movement is not sensed by the user device, the sleep measurement start trigger is sensed at a predetermined time after the user's exercise or movement is not sensed. This is a diagram showing what is perceived from a viewpoint.
  • Figure 44 is a diagram showing that when the display of the user device is turned off during sleep mode, which is an embodiment of the present invention, the point in time when a predetermined time has elapsed from the time the display of the user device is turned off is recognized as the sensing time of the sleep measurement start trigger.
  • Figure 45 shows the sensing time of the sleep measurement start trigger when a predetermined time has elapsed from the time when the user's voice is not recognized by the user device during the sleep mode, which is an embodiment of the present invention, when the user's voice is not recognized by the user device. This is a drawing showing what is recognized as.
  • Figure 46a is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of the general public and the average elevation delay time of a user, according to an embodiment of the present invention.
  • FIG. 46B is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of a user with the average elevation delay time of a specific age group and a specific gender, according to an embodiment of the present invention.
  • Figure 46c is a diagram illustrating a graphical user interface showing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user, according to an embodiment of the present invention.
  • Figure 46d is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of a user with the average elevation delay time of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
  • Figure 47a is a diagram illustrating a graphical user interface showing a comparison between the average deep sleep of a general person and the average deep sleep of a user, according to an embodiment of the present invention.
  • FIG. 47B is a diagram illustrating a graphical user interface showing a comparison of a user's average deep sleep with that of a specific age group and a specific gender, according to an embodiment of the present invention.
  • Figure 47c is a diagram illustrating a graphical user interface showing a comparison between deep sleep of a specific occupation and deep sleep of a user, according to an embodiment of the present invention.
  • FIG. 47D is a diagram illustrating a graphical user interface showing a comparison of deep sleep of a user with deep sleep of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
  • FIG. 48A is a diagram illustrating a graphical user interface showing a comparison between the average REM sleep of an ordinary person and the REM sleep of a user, according to an embodiment of the present invention.
  • FIG. 48B is a diagram illustrating a graphical user interface showing a comparison of the user's REM sleep with the average REM sleep of a specific age group and a specific gender, according to an embodiment of the present invention.
  • Figure 48c is a diagram illustrating a graphical user interface showing a comparison between the REM sleep of a specific occupation and the REM sleep of a user, according to an embodiment of the present invention.
  • FIG. 48D is a diagram illustrating a graphical user interface showing a comparison of the user's REM sleep with that of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
  • Figure 49A is a flowchart of a method for creating one or more graphical user interfaces representing a non-numerical assessment of a user's sleep according to an embodiment of the present invention.
  • Figure 49b is a flowchart of a method for creating one or more graphical user interfaces that represent the evaluation of the user's sleep in a non-numerical and numerical manner according to an embodiment of the present invention.
  • 50A to 50C are diagrams for explaining one or more graphical user interfaces representing non-numerical evaluations of a user's sleep according to an embodiment of the present invention.
  • FIG. 51A is a diagram illustrating one or more graphical user interfaces representing a numerical evaluation of a user's sleep, according to an embodiment of the present invention.
  • FIG. 51B is a diagram illustrating one or more graphical user interfaces representing a numerical evaluation of a user's sleep, according to an embodiment of the present invention.
  • Figure 51c is a diagram for explaining factors affecting sleep quality among 36 psychiatrists surveyed to generate a numerical evaluation calculation formula for the user's sleep according to an embodiment of the present invention. .
  • FIG. 51D is a diagram illustrating sleep keywords and a sleep Likert scale for calculating a numerical evaluation of a user's sleep, according to an embodiment of the present invention.
  • Figure 52 is a diagram illustrating the structure of a sleep analysis model using deep learning to analyze a user's sleep, according to an embodiment of the present invention.
  • FIG. 53 is a diagram illustrating a method of generating a sleep phrase based on a lookup table in a method of providing one or more graphical user interfaces representing an evaluation of a user's sleep, according to an embodiment of the present invention.
  • FIG. 54 is a diagram illustrating a method of generating a sleep phrase based on a large-scale language model in a method of providing one or more graphical user interfaces representing an evaluation of a user's sleep, according to an embodiment of the present invention. .
  • Figure 55 illustrates a user sleep graph that generates a graph of sleep stages within a user's sleep period in a method of providing one or more graphical user interfaces representing an evaluation of a user's sleep, according to an embodiment of the present invention. This is a drawing for this purpose.
  • Figure 56 is a diagram for explaining a hypnogram displaying a sleep stage within a user's sleep period according to an embodiment of the present invention.
  • Figure 57 is a diagram for explaining a hypnodensity graph displaying the sleep stage within the user's sleep period according to an embodiment of the present invention.
  • FIG. 58 is a diagram illustrating providing a sleep content service to a user in order to collect feedback, according to an embodiment of the present invention.
  • FIG. 59 is a diagram illustrating providing sleep analysis information to a user to collect feedback, according to an embodiment of the present invention.
  • FIG. 60 is a diagram illustrating providing a sleep environment adjustment service to a user in order to collect feedback, according to an embodiment of the invention.
  • Figure 61 is a diagram for explaining a user graphic display for collecting user feedback on sleep content according to an embodiment of the present invention.
  • Figure 62 is a diagram for explaining a user graphic display for collecting user feedback on sleep analysis information, according to an embodiment of the present invention.
  • FIG. 63 is a diagram illustrating a user graphic display for collecting user feedback on a sleep service according to an embodiment of the present invention.
  • Figure 64 is a diagram for explaining user action feedback for collecting user feedback on a sleep environment control service according to an embodiment of the present invention.
  • FIG. 65 is a diagram illustrating user physical motion feedback for collecting user feedback on sleep services or information according to an embodiment of the present invention.
  • FIG. 66 is a diagram illustrating user voice motion feedback for collecting user feedback on sleep services or information according to an embodiment of the present invention.
  • FIG. 67 is a diagram illustrating sleep state information feedback for collecting user feedback on sleep services or information according to an embodiment of the present invention.
  • Figure 68 is a flowchart illustrating a method for collecting user feedback on sleep services or information using user interface feedback, according to an embodiment of the present invention.
  • Figure 69 is a flowchart illustrating a method for collecting user feedback on sleep services or information using user motion feedback, according to an embodiment of the present invention.
  • Figure 70 is a flowchart illustrating a method for collecting user feedback on sleep services or information using user sleep state feedback, according to an embodiment of the present invention.
  • Figure 71 is a diagram to explain the structure of the Transformer model, which is the basis of a large language model.
  • Figure 72 is a diagram for explaining the inverter model of the DIFFUSION model in content creation artificial intelligence according to an embodiment of the present invention.
  • Figure 73 is a diagram for explaining the generator and discriminator of a GAN (Generative Adversarial Network) in content generation artificial intelligence according to an embodiment of the present invention.
  • GAN Geneative Adversarial Network
  • each step described in this specification is described as being performed by a computer, but the subject of each step is not limited thereto, and depending on the embodiment, at least part of each step may be performed in a different device.
  • FIG. 1A is a conceptual diagram illustrating a system in which various aspects of an apparatus 100 that generates one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention can be implemented.
  • a system according to embodiments of the present invention may include a device 100 for generating a graphical user interface, a user terminal 10, an external server 20, and a network.
  • the system in which the device 100 for generating one or more graphical user interfaces showing information about the user's sleep shown in FIG. 1A is implemented is according to one embodiment, and its components are the embodiment shown in FIG. 1A. It is not limited to this and may be added, changed, or deleted as needed.
  • FIG. 1B is a conceptual diagram illustrating a system in which various aspects of the device 200 that provides one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention can be implemented.
  • a system according to embodiments of the present invention may include a device 200 that provides a graphical user interface, a user terminal 10, an external server 20, and a network.
  • the system in which the device 200 providing one or more graphical user interfaces showing information about the user's sleep shown in FIG. 1B is implemented is according to one embodiment, and its components are the embodiment shown in FIG. 1B. It is not limited to this and may be added, changed, or deleted as needed.
  • FIG. 2A is a conceptual diagram showing a system in which the creation and/or provision of one or more graphical user interfaces representing information about the user's sleep are implemented in the user terminal 10, according to another embodiment of the present invention. It shows. As shown in FIG. 2A, without a separate generating device 100 and/or a separate providing device 200, creation of one or more graphical user interfaces representing information about the user's sleep on the user terminal 10 and /Or provision may be made.
  • FIG. 2B shows a conceptual diagram illustrating a system in which various aspects of various electronic devices related to another embodiment of the present invention can be implemented.
  • the electronic devices shown in FIG. 2B may perform at least one of the operations performed by various devices according to embodiments of the present invention.
  • operations performed by various electronic devices include acquiring environmental sensing information, performing learning about sleep analysis, performing inference about sleep analysis, and sleep state. It may include an operation to obtain information.
  • receive information related to the user's sleep transmit or receive environmental sensing information, determine environmental sensing information, extract acoustic information from environmental sensing information, process or process data, or process services.
  • provide services build a learning data set based on environmental sensing information or information related to the user's sleep, store acquired data or a plurality of data that are input to a neural network, or transmit or receive various information.
  • mutually transmitting and receiving data for the system according to embodiments of the present invention through a network generating one or more graphical user interfaces that display information about the user's sleep, or one or more graphic user interfaces that display information about the user's sleep. It may also include operations that provide an interface.
  • the electronic devices shown in FIG. 2B may individually perform the operations performed by various electronic devices according to embodiments of the present invention, but may also perform one or more operations simultaneously or in time series.
  • the electronic devices 1a to 1d shown in FIG. 2B may be electronic devices within the range of the area 11a that can obtain object state information or environmental sensing information.
  • area 11a where object state information or environmental sensing information can be obtained will be referred to as “area 11a.”
  • the electronic devices 10a and 10d may be a combination of two or more electronic devices. Additionally, the electronic devices 10a and 10b may be electronic devices connected to a network within the area 11a. Additionally, the electronic devices 10c and 10d may be electronic devices that are not connected to the network within the area 11a.
  • the electronic devices 20a to 20b may be electronic devices outside the range of the area 11a. Additionally, there may be a network that interacts with electronic devices within the confines of area 11a, and there may be a network that interacts with electronic devices outside the confines of area 11a.
  • a network that interacts with electronic devices within the scope of area 11a may serve to transmit and receive information for controlling smart home appliances.
  • the network interacting with electronic devices within the scope of area 11a may be, for example, a local area network or a local network.
  • the network interacting with electronic devices within the scope of area 11a may be, for example, a remote network or a global network.
  • FIG. 2B there may be one or more electronic devices connected through a network outside the range of area 11a, and in this case, the electronic devices may distribute data to each other or perform one or more operations separately.
  • electronic devices connected through a network outside the scope of area 11a may include server devices.
  • the electronic devices may perform various operations independently of each other.
  • the present invention includes an apparatus 100 for generating one or more graphical user interfaces representing information about the user's sleep and a device providing one or more graphical user interfaces representing information about the user's sleep. (200) can transmit and receive data for the system according to embodiments of the present invention with the user terminal 10 through a network.
  • one or more graphic user interface generating devices 100 representing information about the user's sleep and one or more graphic user interface providing devices 200 representing information about the user's sleep are separately provided. Even if not provided, the user terminal 10 provides one or more graphical user interface generating devices 100 representing information about the user's sleep and one or more graphical user interfaces representing information about the user's sleep through a network. By performing the role of the device 200, data for systems according to embodiments of the present invention can be transmitted and received.
  • various electronic devices according to the present invention can transmit and receive data for the system according to embodiments of the present invention through a network.
  • Networks include Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), and Very High Speed DSL (VDSL). ), UADSL (Universal Asymmetric DSL), HDSL (High Bit Rate DSL), and local area network (LAN) can be used.
  • PSTN Public Switched Telephone Network
  • xDSL Digital Subscriber Line
  • RADSL Rate Adaptive DSL
  • MDSL Multi Rate DSL
  • VDSL Very High Speed DSL
  • UADSL Universal Asymmetric DSL
  • HDSL High Bit Rate DSL
  • LAN local area network
  • CDMA Code Division Multi Access
  • TDMA Time Division Multi Access
  • FDMA Frequency Division Multi Access
  • OFDMA Orthogonal Frequency Division Multi Access
  • SC-FDMA Single Carrier-FDMA
  • the network according to embodiments of the present invention can be configured regardless of the communication mode, such as wired or wireless, and is composed of various communication networks such as a personal area network (PAN) and a wide area network (WAN). It can be. Additionally, the network may be the well-known World Wide Web (WWW), and may also use wireless transmission technology used for short-distance communication, such as Infrared Data Association (IrDA) or Bluetooth.
  • IrDA Infrared Data Association
  • Bluetooth wireless transmission technology used for short-distance communication
  • FIG. 3 is a block diagram showing the configuration of an apparatus 100 for generating/providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
  • an apparatus 100 for generating/providing one or more graphical user interfaces representing information about a user's sleep 200 includes a display 120, configured to be executed by one or more processors. It may include a memory 140 that stores one or more programs and one or more processors 160.
  • the memory 140 storing one or more programs includes high-speed random access memory such as DRAM, SRAM, DDR RAM, or other random access solid state memory devices, and one or more magnetic disks. Includes non-volatile memory, such as storage devices, optical disk storage devices, flash memory devices, or other non-volatile solid state storage devices. Additionally, the memory may store instructions for performing a method of providing one or more graphical user interfaces representing information about the user's sleep.
  • the processor 160 may be composed of one or more processors. Additionally, the processor may execute memory that stores one or more programs.
  • Environmental sensing information or sleep information may be obtained from one or more sensor devices. Additionally, the sensor device according to an embodiment of the present invention may be implemented in the form of a user terminal 10.
  • Environmental sensing information may refer to sensing information obtained from the space where the user is located.
  • Environmental sensing information may be sensing information obtained in a space where the user is located through a non-contact method.
  • environmental sensing information may be acoustic information obtained in the bedroom where the user sleeps.
  • the environmental sensing information acquired through the user terminal 10 may be the basis for obtaining the user's sleep state information in the present invention.
  • sleep state information related to whether the user is before, during, or after sleep may be obtained through environmental sensing information obtained in relation to the user's activities.
  • environmental sensing information includes noise information commonly occurring in daily life (sound information related to cleaning, sound information related to food cooking, sound information related to watching TV, cat sounds, dog sounds, bird sounds, car sounds, wind noise, It may be at least one of (e.g., rain sounds, etc.) or other biometric information (e.g., electrocardiogram, brain wave, pulse information, information on muscle movement, etc.).
  • This user terminal 10 may refer to any type of entity(s) in the system that has a mechanism for communication with the device 100 for generating/providing a graphical user interface.
  • these user terminals 10 include personal computers (PCs), notebooks (note books), mobile terminals, smart phones, tablet PCs, and artificial intelligence (AI) speakers. and artificial intelligence TVs and wearable devices, and may include all types of terminals that can access wired/wireless networks.
  • the user terminal 10 may include an arbitrary server implemented by at least one of an agent, an application programming interface (API), and a plug-in. Additionally, the user terminal 10 may include an application source and/or client application.
  • API application programming interface
  • an external server that stores information about a plurality of learning data for learning a neural network may be further provided.
  • the plurality of learning data may include, for example, health checkup information or sleep checkup information.
  • the external server may be at least one of a hospital server and an information server, and may be a server that stores information about a plurality of polysomnography records, electronic health records, and electronic medical records.
  • a polysomnographic record may include information on the sleep examination subject's breathing and movements during sleep, and information on sleep diagnosis results (eg, sleep stages, etc.) corresponding to the information.
  • Information stored in an external server (not shown) can be used as learning data, verification data, and test data to train the neural network in the present invention.
  • an external server may record an artificial intelligence model for analyzing sleep state information.
  • sleep state information can be generated based on the environmental sensing information through an artificial intelligence model mounted on the external server.
  • the acquired sleep sound information is externally transmitted. It is transmitted to the server, and the external server may generate sleep state information based on the received sleep sound information.
  • the device 100 for generating/providing a graphical user interface receives health checkup information or sleep checkup information from an external server, and sets a learning data set based on the corresponding information. can be built.
  • the apparatus 100/providing a graphical user interface performs learning on one or more network functions through a learning data set, thereby determining the sleep state based on environmental sensing information.
  • a sleep analysis model can be created to obtain information.
  • the external server is a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, and may be a digital device equipped with a processor and computing power with memory.
  • the external server may be a web server that processes the service.
  • the types of servers described above are merely examples and the present invention is not limited thereto.
  • the device 100/device 200 for generating/providing a graphical user interface acquires sleep state information of the user, and relates to the user's sleep based on the sleep state information of the user.
  • One or more graphical user interfaces may be created and/or provided to represent information.
  • the apparatus 100/device 200 for generating/providing a graphical user interface determines the sleep state related to whether the user is before, during, or after sleep based on environmental sensing information. Information may be obtained, and one or more graphical user interfaces representing information about the user's sleep may be generated and/or provided based on the acquired user's sleep state information.
  • one or more sleep sensor devices may include a microphone module, a camera, and an illumination sensor provided in the user terminal 10.
  • information related to the user's activities in the work space may be obtained through a microphone module provided in the user terminal 10.
  • the microphone module when sensing information through a microphone module provided in the user terminal 10, the microphone module must be provided in the user terminal 10 of a relatively small size, so it may be configured as a Micro-electro Mechanical System (MEMC).
  • MEMC Micro-electro Mechanical System
  • Microphone modules according to embodiments of the present invention can be manufactured very small, but may have a lower signal-to-noise ratio (SNR) than a condenser microphone or dynamic microphone.
  • SNR signal-to-noise ratio
  • a low signal-to-noise ratio may mean that the ratio of noise, which is a sound that is not to be identified, to the sound that is to be identified is high, making it difficult to identify the sound (i.e., unclear).
  • the environmental sensing information that is the subject of analysis in the present invention may include acoustic information related to the user's breathing and movement acquired during sleep.
  • This acoustic information is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired along with other sounds during the sleep environment, so the microphone module as described above with a low signal-to-noise ratio If acquired through , detection and analysis can be very difficult.
  • the electronic device can convert and/or adjust environmental sensing information obtained indistinctly, including a lot of noise, into data that can be analyzed, and utilize the converted and/or adjusted data to use an artificial neural network.
  • the learned neural network e.g., acoustic analysis model
  • the user based on data (e.g., transformed and/or adjusted) acquired (e.g., transformed and/or adjusted) corresponding to the sleep acoustic information. Sleep state information can be obtained.
  • the sleep state information may include sleep stage information related to changes in the user's sleep stage during sleep, as well as information related to whether the user is sleeping.
  • the sleep state information may include sleep stage information indicating that the user was in REM sleep at a first time point, and that the user was in light sleep at a second time point different from the first time point. In this case, information that the user fell into a relatively deep sleep at the first time and a lighter sleep at the second time may be obtained through the corresponding sleep state information.
  • the device 100/device 200 for generating/providing a graphical user interface is a user terminal that is widely used to collect sound (e.g., artificial intelligence speaker, bedroom IoT device, When sleep sound information with a low signal-to-noise ratio is acquired through a mobile phone, wearable device, etc.), it can be processed into data appropriate for analysis, and the processed data can be processed to provide sleep state information related to changes in sleep stages. there is.
  • the device 100 for generating a graphical user interface in FIG. 1A is represented as a separate entity from the user terminal 10, according to an embodiment of the present invention, the device 100 for generating a graphical user interface as shown in FIG. 2A
  • the device 100 may be included in the user terminal 10 and perform functions of measuring sleep status and recommending products related to sleep in one integrated device.
  • the device 200 providing the graphical user interface is represented as a separate entity from the user terminal 10, but according to an embodiment of the present invention, as shown in FIG. 2A, the graphical user interface
  • the device 200 that provides may be included in the user terminal 10 and perform functions of measuring sleep status and verifying products related to sleep in one integrated device.
  • the device 100 for generating/providing a graphical user interface 200 may be a terminal or a server, and may include any type of device.
  • the device 100/providing a graphical user interface is a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, equipped with a processor and computing power with memory. It can be a digital device.
  • the apparatus 100 for generating/providing a graphical user interface 200 may be a web server that processes services.
  • the types of servers described above are merely examples and the present invention is not limited thereto.
  • the device 100 for generating/providing a graphical user interface 200 may be a server providing a cloud computing service. More specifically, the device 100 for generating/providing a graphical user interface 200 is a type of Internet-based computing, which is a server that provides a cloud computing service that processes information not on the user's computer but on another computer connected to the Internet. It can be.
  • the cloud computing service may be a service that stores data on the Internet and can be used anytime, anywhere through Internet access without the user having to install necessary data or programs on his or her computer.
  • the cloud computing service may be a service that allows simple manipulation of data stored on the Internet. You can easily share and forward with a click.
  • cloud computing services not only allow you to simply store data on a server on the Internet, but also allow you to perform desired tasks using the functions of applications provided on the web without having to install a separate program, and allow multiple people to view documents at the same time. It may be a service that allows you to work while sharing.
  • cloud computing services may be implemented in at least one of the following forms: Infrastructure as a Service (IaaS), Platform as a Service (PaaS), Software as a Service (SaaS), virtual machine-based cloud server, and container-based cloud server.
  • IaaS Infrastructure as a Service
  • PaaS Platform as a Service
  • SaaS Software as a Service
  • virtual machine-based cloud server virtual machine-based cloud server
  • container-based cloud server container-based cloud server.
  • the apparatus 100 for generating/providing the graphic user interface of the present invention 200 may be implemented in at least one form of the cloud computing service described above.
  • the specific description of the cloud computing service described above is merely an example, and may include any platform for constructing the cloud computing environment of the present invention.
  • environmental sensing information may include sleeping environment information and user's life information.
  • the sleep environment information may be acoustic information about the user's sleep.
  • One or more sleep information sensor devices may collect raw data about sounds generated from sleep to analyze sleep. Raw data about sounds occurring on the water may be in the time domain.
  • sleep sound information may be related to breathing and movement patterns related to the user's sleep. For example, in the awake state, all nervous systems are activated, so breathing patterns may be irregular and body movements may be frequent. Additionally, breathing sounds may be very low because the neck muscles are not relaxed. On the other hand, when the user sleeps, the autonomic nervous system stabilizes, breathing changes regularly, body movements may decrease, and breathing sounds may become louder. Additionally, when apnea occurs during sleep, loud breathing sounds may occur immediately after apnea as a compensation mechanism. In other words, by collecting raw data about sleep, analysis of sleep can be performed.
  • the acquired environmental sensing information and acoustic information are information in the time domain and may undergo a preprocessing process of noise reduction.
  • noise e.g. white noise
  • the noise reduction process can be accomplished using algorithms such as spectral gating and spectral subtraction to remove background noise.
  • a noise removal process can be performed using a deep learning-based noise reduction algorithm.
  • the deep learning-based noise reduction algorithm can use a noise reduction algorithm specialized for the user's breathing or breathing sounds, that is, a noise reduction algorithm learned through the user's breathing or breathing sounds.
  • the above preprocessing may be performed during the learning process of sleep state information, or may be performed during the inference process.
  • Spectral gating or spectral noise gating is a preprocessing method for acoustic information. Noise reduction can be performed on all of the acquired acoustic information, but splitting can be performed at regular time intervals (eg, 5 minutes, etc.), and then noise reduction can be performed on each of the split acoustic information. In order to perform noise reduction on acoustic information split at regular time intervals, a method of calculating a spectrum for each frame may first be included.
  • a method may be included in which the frame having the frequency spectrum with the lowest energy among each spectrum frame is assumed to be static noise, and the frequency of the frequency spectrum frame assumed to be static noise is attenuated from the spectrum frame.
  • a deep learning-based noise reduction method performed on raw acoustic information in the time domain rather than the frequency domain may be used.
  • a method may be used in which information such as sleep sound information, which is necessary information to be used as input to a sleep analysis model, is maintained, and other sounds are attenuated.
  • Noise reduction can be performed not only on sound information obtained through PSG test results, but also on sound information acquired through a microphone built into a user terminal such as a smartphone.
  • raw sound information in order to analyze sleep sound information, can be converted into information including changes along the time axis in the frequency components of sleep sound information in the time domain.
  • information on the frequency domain may mean converting raw sleep sound information into information including changes in frequency components along the time axis.
  • changes along the time axis of frequency components included in raw acoustic information from which noise has been removed can be visualized and converted into information represented as an image.
  • raw acoustic information can be converted into a spectrogram among information including changes in frequency components along the time axis.
  • a method of converting raw acoustic information into a spectrogram based only on the amplitude excluding the phase can be used. Through this method, not only privacy is protected, but the processing speed can be improved by lowering the data capacity.
  • One embodiment of the present invention can generate a sleep analysis model using a spectrogram (SP) converted based on sleep sound information (SS).
  • SP spectrogram
  • SS sleep sound information
  • One embodiment of the present invention removes noise from sleep sound information using the above-described method, converts it into a spectrogram, and learns the spectrogram to create a sleep analysis model, thereby reducing the amount of computation and computation time. It is possible to protect individual privacy.
  • the sleep acoustic information (e.g., the user's breathing sound, etc.) required for sleep stage analysis may be relatively smaller than other noise, but when converted to a spectrogram, it is smaller than other noise in the surrounding area. Identification of sleep acoustic information can be relatively excellent.
  • a method may be included to convert acquired acoustic information into a spectrogram in real time.
  • the leakage of personal information can be prevented as compression of the frequency resolution of the spectrogram can be performed on the user's smartphone rather than on a server or cloud.
  • the spectrogram according to an embodiment of the present invention may be a Mel spectrogram to which the Mel scale is applied.
  • Figure 8 is a diagram for explaining the process of acquiring sleep sound information in the sleep analysis method according to the present invention.
  • Figure 9 is a diagram for explaining a method of obtaining a spectrogram corresponding to sleep sound information in the sleep analysis method according to the present invention.
  • the processor 130 may generate a spectrogram (SP) in response to the sleep sound information (SS).
  • Raw data raw acoustic information in the time domain
  • raw data according to the present invention can also be collected through polysomnography (PSG) in a hospital environment.
  • PSG polysomnography
  • user information in a home environment may be collected through a microphone built into a user terminal such as a wearable device or smartphone.
  • raw data is acquired through the user terminal 10 from the start point input by the user to the end point, or corresponds to the device manipulation (eg, alarm setting time) from the time the user manipulates the device (eg, alarm setting). It can be acquired up to the point in time, or the time point can be automatically selected and acquired based on the user's sleep pattern, and the time point of the user's sleep intention can be determined by sound (user's speech, breathing sound, sound of peripheral devices (TV, washing machine), etc.) or change in illumination. It may also be obtained by automatically determining the viewpoint based on, etc. Meanwhile, the sleep intention timing according to an embodiment of the present invention may be calculated from the user's sleep intention information.
  • the processor 130 may generate a sleep spectrogram (SP) by performing fast Fourier transform on the sleep sound information (SS).
  • SP sleep spectrogram
  • a spectrogram (SP) is intended to visualize and understand sound or waves, and may be a combination of waveform and spectrum characteristics.
  • a spectrogram (SP) may represent the difference in amplitude according to changes in the time axis and frequency axis as a difference in printing density or display color.
  • Preprocessed acoustic-related raw data can be cut into 30-second increments and converted into a spectrogram. Accordingly, a 30-second spectrogram has dimensions of 20 frequency bins x 1201 time steps.
  • a rectangular spectrogram can be converted into a shape close to a square by using various methods such as reshaping, resizing, and split-cat to change it into a shape close to a square. Alternatively, by using this method, it is possible to relatively preserve the amount of information.
  • the present invention can use a method of simulating breathing sounds measured in various home environments by adding various noises occurring in the home environment to clean breathing sounds. Because sounds have additive properties, they can be added to one another. However, adding original sound signals such as mp3 or pcm and converting them to a spectrogram results in very large consumption of computing resources. Therefore, the present invention proposes a method of converting breathing sounds and noise into spectrograms and adding them, respectively. Through this, it is possible to secure the robustness of the artificial intelligence model to information from various home environments by simulating breathing sounds measured in various home environments and using them to learn artificial intelligence models.
  • the purpose of converting data according to an embodiment of the present invention into a spectrogram is to use the input of a sleep analysis model to infer through the learned model which sleep state or sleep stage the pattern in the spectrogram corresponds to.
  • some preprocessing processes may be required before using it as input to the sleep analysis model. These preprocessing processes may be performed only during the learning process, or may be performed not only during the learning process but also during the inference process. Or, it may only occur during the reasoning process.
  • the preprocessing process of the spectrogram involves adding Gaussian noise to the data to inflate the amount of data, or pitch shifting to gradually raise or lower the overall pitch of the sound.
  • Preprocessing method a spectrogram or mel spectrogram is converted into a vector during the learning process, the converted vector is randomly cut (tiled) at the input stage of one node (neuron), and then again after the output of the node (neuron).
  • Data augmentation preprocessing techniques such as Untile (Untile) TUT (Tile UnTile) augmentation method may be included.
  • the data augmentation preprocessing method includes noise occurring in various environments other than Gaussian noise (e.g., external sounds, sounds of nature, sounds of a fan running, sounds of doors opening or closing, animals
  • noise addition augmentation method that adds sounds (sounds made by people, people talking, movement sounds, etc.) may also be included.
  • noise addition augmentation converts noise information into a spectrogram and then artificially adds it to the sleep sound information and the spectrogram. It may include how to do it. In this case, there is a significant difference between the spectrogram obtained by adding noise information to the sleep sound information in the original sound information domain and the spectrogram obtained by adding sleep sound information and noise information to the spectrogram converted domain. There may not be.
  • the noise-added augmentation makes it difficult to convert back to the original signal from the spectrogram, so that in order to protect the user's privacy, the amplitude and phase are changed from the spectrogram of each sleep sound information and noise information. By maintaining only the amplitude and adding a random phase, it is possible to make it difficult to convert back to the original signal from the spectrogram.
  • noise addition augmentation may include not only a method of adding sound information on a domain converted into a spectrogram, but also a method of adding noise on a domain converted into a Mel spectrogram to which a Mel scale is applied. there is.
  • time required for hardware to process data can be shortened by the method added by Mel Scale according to an embodiment of the present invention.
  • a preprocessing method may be performed to convert information or a spectrogram in the frequency domain into a nearly square form.
  • sleep state information may include information related to whether the user is sleeping.
  • the sleep state information may include at least one of first sleep state information indicating that the user is before sleep, second sleep state information indicating that the user is sleeping, and third sleep state information indicating that the user is after sleep.
  • the processor 130 may determine that the user is in a pre-sleep state (i.e., before going to bed), and the second sleep state information is inferred. In this case, it may be determined that the user is in a sleeping state, and if third sleep state information is obtained, it may be determined that the user is in a post-sleep state (i.e., waking up).
  • the sleep state information may include information about at least one of sleep apnea, snoring, tossing and turning, coughing, sneezing, or bruxism, in addition to information related to the user's sleep stage.
  • acoustic information acquired over a long time interval may be required.
  • a relatively short time interval (e.g., 1) before and after the corresponding sleep state occurs. minutes) may require acoustic information acquired.
  • This sleep state information may be obtained based on environmental sensing information.
  • Environmental sensing information may include sensing information obtained in a non-contact manner in the space where the user is located.
  • the processor 130 may obtain environmental sensing information. Specifically, environmental sensing information can be obtained through the user terminal 10 carried by the user. For example, environmental sensing information related to the space in which the user operates may be obtained through the user terminal 10 carried by the user, and the processor 130 may receive the corresponding environmental sensing information from the user terminal 10.
  • the processor 130 may obtain sleep state information based on acoustic information, actigraphy, and biometric information obtained from the user terminal 10. Specifically, the processor 130 may identify a singularity in acoustic information.
  • the uniqueness of the acoustic information may be related to breathing and movement patterns related to sleep. For example, in the awake state, all nervous systems are activated, so breathing patterns may be irregular and body movements may be frequent. Additionally, breathing sounds may be very low because the neck muscles are not relaxed.
  • the autonomic nervous system stabilizes, breathing changes regularly, body movements may decrease, and breathing sounds may become louder.
  • the processor 130 may identify the point in time at which a pattern of acoustic information related to regular breathing, small body movement, or small breathing sounds is detected as a singular point in the acoustic information. Additionally, the processor 130 may obtain sleep sound information based on sound information obtained based on the identified singularity. The processor 130 may identify a singularity related to the user's sleep time from the sound information acquired in time series and obtain sleep sound information based on the singularity.
  • FIG. 8 is a diagram for explaining the process of acquiring sleep sound information in the sleep analysis method according to the present invention.
  • the processor 130 determines a singular point (P) related to the point in time when acoustic information of a pattern related to regular breathing, small body movement, or small breathing sounds is detected from the acoustic information (E). can be identified.
  • the processor 130 may acquire sleep sound information (SS) based on the identified singular point (P) and sound information acquired after the singular point (P).
  • SS sleep sound information
  • the waveforms and singularities related to sound in FIG. 4 are merely examples for understanding the present invention, and the present invention is not limited thereto.
  • the processor 130 identifies the singularity (P) related to the user's sleep from the acoustic information, and thus extracts only the sleep acoustic information (SS) from the vast amount of environmental sensing information (i.e., acoustic information) based on the singularity (P). It can be obtained by extracting it.
  • P singularity
  • SS sleep acoustic information
  • the processor 130 may obtain sleep state information related to whether the user is before sleep or in sleep based on the singular point (P) identified from the sound information (E). Specifically, if the singular point (P) is not identified, the processor 130 may determine that the user is before sleeping, and if the singular point (P) is identified, the processor 130 may determine that the user is sleeping after the singular point (P). there is. In addition, after the outlier P is identified, the processor 130 identifies a time point (e.g., waking up time) at which the identified pattern is no longer observed, and when the corresponding time point is identified, it is determined that the user has woken up after sleeping, that is, You can judge.
  • a time point e.g., waking up time
  • the processor 130 determines whether the user is before, during, or after sleep based on whether a singular point (P) is identified in the acoustic information (E) and whether a preset pattern is continuously detected after the singular point is identified. Sleep state information related to awareness can be obtained.
  • the processor 130 may obtain sleep state information based on actigraphy or biometric information rather than acoustic information (E). It may be advantageous to obtain the user's movement information through a sensor unit in contact with the body. In the present invention, since the user's sleep state information is identified in advance using actigraphy or biometric information during the first sleep analysis, the reliability of the sleep state analysis can be further improved.
  • the processor 130 may extract sleep stage information. Sleep stage information may be extracted based on the user's environmental sensing information. Sleep stages can be divided into NREM (non-REM) sleep and REM (rapid eye movement) sleep, and NREM sleep can be further divided into multiple stages (e.g., stages 2 of light and deep, and stages 4 of N1 to N4). there is.
  • the sleep stage setting may be defined as a general sleep stage, but may also be arbitrarily set to various sleep stages depending on the designer. Through sleep stage analysis, it is possible to predict not only sleep-related sleep quality, but also sleep diseases (e.g. sleep apnea) and their underlying causes (e.g. snoring).
  • the processor 130 may generate product recommendation information and verification information related to sleep based on sleep stage information.
  • a word indicating the light sleep stage when a word indicating the light sleep stage is displayed in Korean, it may be displayed as 'light sleep' or 'normal sleep'. Users who do not have expert knowledge about sleep stages may misunderstand that they did not sleep properly during the sleep period due to the word 'light sleep'. In contrast, if the word 'normal sleep' is displayed, this misunderstanding may occur. There is a possibility of reducing.
  • Figure 15 is a diagram for explaining the overall structure of a sleep analysis model according to an embodiment of the present invention.
  • sleep state information can be obtained through a sleep analysis model that analyzes the user's sleep stage based on sound information (sleep sound information).
  • the sleep sound information (SS) may be a very small sound because it is a sound related to breathing and body movement acquired during the user's sleeping time. Accordingly, the present invention uses the sleep sound information (SS) as described above. Analysis of sound can be performed by converting it into a spectrogram (SP). In this case, the spectrogram (SP) contains information that shows how the frequency spectrum of the sound changes over time, so breathing or movement patterns related to relatively small sounds can be easily identified, improving the efficiency of analysis. there is.
  • the sleep sound information is at least one of the awake state, REM sleep state, light sleep state, and deep sleep state based solely on changes in the energy level of the sleep sound information, but by converting the sleep sound information into a spectrogram, each sleep sound information is converted into a spectrogram. Since changes in the frequency spectrum can be easily detected, analysis corresponding to small sounds (eg, breathing and body movements) may be possible.
  • the processor 130 may obtain sleep state information by processing the spectrogram (SP) as an input to a sleep analysis model.
  • the sleep analysis model is a model for obtaining sleep state information related to changes in the user's sleep stage, and can output sleep state information by inputting sleep sound information acquired during the user's sleep.
  • the sleep analysis model may include a neural network model constructed through one or more network functions.
  • Figure 11 is a schematic diagram showing one or more network functions for performing the sleep analysis method according to the present invention.
  • a sleep analysis model is comprised of one or more network functions, and one or more network functions may be comprised of a set of interconnected computational units, which may generally be referred to as 'nodes'. These 'nodes' may also be referred to as 'neurons'.
  • One or more network functions are composed of at least one or more nodes. Nodes (or neurons) that make up one or more network functions may be interconnected by one or more 'links'.
  • one or more nodes connected through a link may form a relative input node and output node relationship.
  • the concepts of input node and output node are relative, and any node in an output node relationship with one node may be in an input node relationship with another node, and vice versa.
  • input node to output node relationships can be created around links.
  • One or more output nodes can be connected to one input node through a link, and vice versa.
  • the value of the output node may be determined based on data input to the input node.
  • the nodes connecting the input node and the output node may have a weight. Weights may be variable and may be varied by the user or algorithm in order for the neural network to perform the desired function. For example, when one or more input nodes are connected to one output node by respective links, the output node is set to the values input to the input nodes connected to the output node and the links corresponding to each input node. The output node value can be determined based on the weight.
  • one or more nodes are interconnected through one or more links to form an input node and output node relationship within the neural network.
  • the characteristics of the neural network may be determined according to the number of nodes and links within the neural network, the correlation between the nodes and links, and the value of the weight assigned to each link. For example, if there are two neural networks with the same number of nodes and links and different weight values between the links, the two neural networks may be recognized as different from each other.
  • Some of the nodes constituting the neural network may form one layer based on the distances from the first input node.
  • a set of nodes with a distance n from the initial input node may constitute n layers.
  • the distance from the initial input node can be defined by the minimum number of links that must be passed to reach the node from the initial input node.
  • this definition of a layer is arbitrary for explanation purposes, and the order of a layer within a neural network may be defined in a different way than described above.
  • a layer of nodes may be defined by distance from the final output node.
  • the initial input node may refer to one or more nodes in the neural network through which data is directly input without going through links in relationships with other nodes. Alternatively, in the relationship between nodes based on a link within a neural network, it may refer to nodes that do not have other input nodes connected by a link. Similarly, the final output node may refer to one or more nodes that do not have an output node in their relationship with other nodes among the nodes in the neural network. Additionally, hidden nodes may refer to nodes constituting a neural network other than the first input node and the last output node.
  • the neural network according to an embodiment of the present invention may have more nodes in the input layer than the nodes in the hidden layer close to the output layer, and may be a neural network in which the number of nodes decreases as it progresses from the input layer to the hidden layer.
  • a neural network may contain one or more hidden layers.
  • the hidden node of the hidden layer can take the output of the previous layer and the output of surrounding hidden nodes as input.
  • the number of hidden nodes for each hidden layer may be the same or different.
  • the number of nodes in the input layer may be determined based on the number of data fields of the input data and may be the same as or different from the number of hidden nodes.
  • Input data input to the input layer can be operated by the hidden node of the hidden layer and output by the fully connected layer (FCL), which is the output layer.
  • FCL fully connected layer
  • a deep neural network may refer to a neural network that includes multiple hidden layers in addition to the input layer and output layer.
  • Deep neural networks allow you to identify latent structures in data. In other words, it is possible to identify the potential structure of a photo, text, video, voice, or music (e.g., what object is in the photo, what the content and emotion of the text are, what the content and emotion of the voice are, etc.) .
  • Deep neural networks include convolutional neural networks (CNN), recurrent neural networks (RNN), auto encoders, generative adversarial networks (GAN), and restricted Boltzmann machines (RBMs).
  • the network function may include an auto encoder.
  • An autoencoder may be a type of artificial neural network to output output data similar to input data.
  • the autoencoder may include at least one hidden layer, and an odd number of hidden layers may be placed between input and output layers.
  • the number of nodes in each layer may be reduced from the number of nodes in the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically and reduced from the bottleneck layer to the output layer (symmetrical to the input layer).
  • the nodes of the dimensionality reduction layer and dimensionality restoration layer may or may not be symmetric.
  • Autoencoders can perform nonlinear dimensionality reduction.
  • the number of input layers and output layers may correspond to the number of sensors remaining after preprocessing of the input data.
  • the number of nodes in the hidden layer included in the encoder may have a structure that decreases as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and decoder) is too small, not enough information may be conveyed, so if it is higher than a certain number (e.g., more than half of the input layers, etc.) ) may be maintained.
  • a neural network may be trained in at least one of supervised learning, unsupervised learning, and semi-supervised learning. Learning of a neural network is intended to minimize errors in output.
  • learning data is repeatedly input into the neural network, the output of the neural network and the error of the target for the learning data are calculated, and the error of the neural network is transferred from the output layer of the neural network to the input layer in the direction of reducing the error. This is the process of updating the weight of each node in the neural network through backpropagation.
  • learning data in which the correct answer is labeled for each learning data is used i.e., labeled learning data
  • the correct answer may not be labeled in each learning data. That is, for example, in the case of supervised learning on data classification, the learning data may be data in which each training data is labeled with a category. Labeled training data is input to the neural network, and the error can be calculated by comparing the output (category) of the neural network with the label of the training data. As another example, in the case of unsupervised learning on data classification, the error can be calculated by comparing the input training data with the neural network output.
  • the calculated error is backpropagated in the reverse direction (i.e., from the output layer to the input layer) in the neural network, and the connection weight of each node in each layer of the neural network can be updated according to backpropagation.
  • the amount of change in the connection weight of each updated node may be determined according to the learning rate.
  • the neural network's calculation of input data and backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of neural network training, a high learning rate can be used to increase efficiency by allowing the neural network to quickly achieve a certain level of performance, and in the later stages of training, a low learning rate can be used to increase accuracy.
  • the training data can generally be a subset of real data (i.e., the data to be processed using the learned neural network), and thus the error for the training data is reduced, but the error for the real data is reduced. There may be an incremental learning cycle.
  • Overfitting is a phenomenon in which errors in actual data increase due to excessive learning on training data. For example, a phenomenon in which a neural network that learned a cat by showing a yellow cat fails to recognize that it is a cat when it sees a non-yellow cat may be a type of overfitting. Overfitting can cause errors in AI algorithms to increase. To prevent such overfitting, various optimization methods can be used. To prevent overfitting, methods such as increasing the learning data, regularization or regularization, and dropout, which omits some of the network nodes during the learning process, can be applied.
  • the data structure may include a neural network.
  • the data structure including the neural network may be stored in a computer-readable medium.
  • Data structures including neural networks may also include data input to the neural network, weights of the neural network, hyperparameters of the neural network, data obtained from the neural network, activation functions associated with each node or layer of the neural network, and loss functions for learning the neural network.
  • a data structure containing a neural network may include any of the components disclosed above. In other words, the data structure including the neural network is all or It may be configured to include any combination of these.
  • a data structure containing a neural network may include any other information that determines the characteristics of the neural network. Additionally, the data structure may include all types of data used or generated in the computational process of a neural network and is not limited to the above.
  • Computer-readable media may include computer-readable recording media and/or computer-readable transmission media.
  • a neural network can generally consist of a set of interconnected computational units, which can be referred to as nodes. These nodes may also be referred to as neurons.
  • a neural network consists of at least one node.
  • Figure 16 is a diagram for explaining a feature extraction model and a feature classification model according to an embodiment of the present invention.
  • the sleep analysis model used in the present invention is a feature extraction model that extracts one or more features for each predetermined epoch and a feature classification model that generates sleep state information by classifying each of the features extracted through the feature extraction model into one or more sleep stages.
  • the feature extraction model can extract features related to breathing sounds, breathing patterns, and movement patterns by analyzing the time-series frequency pattern of the spectrogram (SP).
  • the feature extraction model may be constructed from part of a neural network model pre-trained on a training data set.
  • the sleep analysis model used in the present invention may include a feature extraction model and a feature classification model.
  • the feature extraction model may be a deep learning learning model based on a natural language processing model that can learn the time-series correlation of given data.
  • the feature classification model may be a learning model based on a natural language processing model that can learn the time-series correlation of given data.
  • deep learning learning models based on natural language processing models that can learn time-series correlations may include Tarnsformer, ViT, MobileViT, and MobileViT2, but are not limited thereto.
  • the learning data set according to an embodiment of the present invention may be composed of data in the frequency domain and a plurality of sleep state information corresponding to each data.
  • the learning data set according to an embodiment of the present invention may be composed of a plurality of spectrograms and a plurality of sleep state information corresponding to each spectrogram.
  • the learning data set according to an embodiment of the present invention may be composed of a plurality of Mel spectrograms and a plurality of sleep state information corresponding to each Mel spectrogram.
  • the configuration and performance of the sleep analysis model according to an embodiment of the present invention will be described in detail based on the data set of the spectrogram.
  • the learning data used in the sleep analysis model of the present invention is included in the spectrogram. It is not limited, and information in the frequency domain, a spectrogram, or a mel spectrogram can be used as learning data.
  • the feature extraction model is a one-to-one proxy task in which one spectrogram is input and learned to predict sleep state information corresponding to one spectrogram. It can be pre-trained by .
  • learning may be performed by adopting the structure of FC (Fully Connected Layer) or FCN (Fully Connected Neural Network).
  • FC Full Connected Layer
  • FCN Full Connected Neural Network
  • learning may be performed by adopting the structure of the intermediate layer.
  • the feature classification model inputs a plurality of consecutive spectrograms, predicts the sleep state information of each spectrogram, and analyzes the sequence of the plurality of consecutive spectrograms to provide an overall It can be learned to predict or classify sleep state information.
  • pre-learning is performed through a one-to-one proxy task for the feature extraction model, and then through many-to-many tasks for the pre-trained feature extraction model and feature classification model. Fine tuning can be performed.
  • the sleep stage may be inferred by inputting a sequence of 40 consecutive spectrograms into a plurality of feature extraction models learned through a one-to-one proxy task and outputting 20 pieces of sleep state information.
  • the above-described specific numerical descriptions regarding the number of spectrograms, the number of feature extraction models, and the number of sleep state information are merely examples, and the present invention is not limited thereto.
  • an inference model is created to extract the user's sleep state and sleep stage through deep learning of environmental sensing information.
  • environmental sensing information including sound information is converted into a spectrogram, and an inference model is created based on the spectrogram.
  • the inference model may be built in the apparatus 100 for generating/providing a graphical user interface 200, as described above.
  • environmental sensing information including user sound information acquired through the user terminal 10 is input to the corresponding inference model, and sleep state information and/or sleep stage information is output as a result value.
  • learning and inference may be performed by the same entity, but learning and inference may also be performed by separate entities. That is, both learning and inference may be performed by the device 100 that generates the graphical user interface of FIG. 1A or the device 200 that provides the graphical user interface of FIG. 1B, and learning is performed using the graphical user interface of FIG. 1A. Inference may be performed in the generating device 100 or the device 200 providing the graphical user interface of FIG. 1B, but inference may be performed in the user terminal 10.
  • both learning and inference are performed using the user terminal 10. It can be performed by .
  • learning or inference may be performed by at least one of the electronic devices shown in FIG. 2B.
  • the feature extraction model may be composed of an independent deep learning model learned through a training data set.
  • the feature extraction model can be learned through supervised learning or unsupervised learning methods.
  • a feature extraction model can be trained to output output data similar to input data through a learning data set.
  • only the core feature data (or features) of the input spectrogram can be learned through the hidden layer.
  • the output data of the hidden layer may be an approximation of the input data (i.e., spectrogram) rather than a perfect copy value.
  • Each of the plurality of spectrograms included in the learning data set may be tagged with sleep state information.
  • Each of the plurality of spectrograms may be input to a feature extraction model, and the output corresponding to each spectrogram may be stored by matching the tagged sleep state information.
  • first learning data sets i.e., multiple spectrograms
  • first sleep state information e.g., light sleep
  • features related to the output for the input are first sleep state information. It can be saved by matching.
  • one or more features relevant to the output may be represented in a vector space.
  • the feature data output corresponding to each of the first learning data sets are output through a spectrogram related to the first sleep stage, they may be located at a relatively close distance in the vector space. That is, learning can be performed so that a plurality of spectrograms output similar features corresponding to each sleep stage.
  • the feature extraction model through the above-described learning process receives a spectrogram (eg, a spectrogram converted in response to sleep sound information) as input, features corresponding to the spectrogram can be extracted.
  • a spectrogram eg, a spectrogram converted in response to sleep sound information
  • the processor 130 may extract features by processing the spectrogram (SP) generated in response to the sleep sound information (SS) as an input to a feature extraction model.
  • the processor 130 may divide the spectrogram (SP) into predetermined epochs. For example, the processor 130 may obtain a plurality of spectrograms by dividing the spectrogram (SP) corresponding to the sleep sound information (SS) into 30-second increments. For example, if sleep sound information is acquired during the user's 7-hour (i.e., 420-minute) sleep, the processor 130 may obtain 840 spectrograms by dividing the spectrogram in 30-second increments.
  • the detailed numerical description of the above-described sleep time, division time unit of the spectrogram, and number of divisions is only an example, and the present invention is not limited thereto.
  • the processor 130 may process each of the plurality of segmented spectrograms as input to a feature extraction model to extract a plurality of features corresponding to each of the plurality of spectrograms. For example, if the number of spectrograms is 840, the number of features extracted by the feature extraction model correspondingly may also be 840.
  • the above-described specific numerical description regarding the spectrogram and number of features is only an example, and the present invention is not limited thereto.
  • the feature extraction model according to an embodiment of the present invention may be trained using a one-to-one proxy task. Additionally, in the process of learning to extract sleep state information for one spectrogram, it may be learned to extract sleep state information by combining a feature extraction model and another NN (Neural Network).
  • NN Neuron
  • the learning time of the feature extraction model can be shortened or the learning efficiency can be increased.
  • one spectrogram divided by 30 seconds may be used as an input to a feature extraction model, and the output vector may be learned to output sleep state information by using it as an input to another NN. .
  • the processor 130 may obtain sleep state information by processing a plurality of features output through the feature extraction model as input to a feature classification model.
  • the feature classification model may be a neural network model modeled to predict sleep stages in response to features.
  • the feature classification model includes a fully connected layer and may be a model that classifies features into at least one of the sleep stages. For example, when the feature classification model inputs the first feature corresponding to the first spectrogram, the first feature may be classified as shallow water.
  • the feature classification model can perform multi-epoch classification to predict sleep stages of multiple epochs by using spectrograms related to multiple epochs as input.
  • Multi-epoch classification does not provide one sleep stage analysis information in response to the spectrogram of a single epoch (i.e., one spectrogram corresponding to 30 seconds), but spectrograms corresponding to multiple epochs (i.e. It may be used to estimate several sleep stages (e.g., changes in sleep stages according to time changes) at once by using a combination of spectrograms (each corresponding to 30 seconds) as input.
  • the feature classification model may input 40 spectrograms (e.g., 40 spectrograms corresponding to 30 seconds each) and perform prediction for the 20 spectrograms located in the center. That is, all spectrograms from 1 to 40 are examined, but the sleep stage can be predicted through classification corresponding to the spectrograms corresponding to 10 to 20.
  • the detailed numerical description of the number of spectrograms described above is only an example, and the present invention is not limited thereto.
  • spectrograms corresponding to multiple epochs are used as input so that all information related to the past and future can be considered. By doing so, the accuracy of output can be improved.
  • Figure 12 is a diagram for explaining sleep stage analysis using a spectrogram in the sleep analysis method according to the present invention.
  • the second analysis based on sleep acoustic information uses the sleep analysis model described above, as shown in FIG. 12 .
  • the corresponding sleep stage (Wake, REM, Light, Deep) can be immediately inferred.
  • secondary analysis based on sleep sound information can extract the time when sleep disorders (sleep apnea, hyperventilation) or snoring occurred through the singularity of the Mel spectrum corresponding to the sleep stage.
  • Figure 13 is a diagram for explaining sleep disorder determination using a spectrogram in the sleep analysis method according to the present invention.
  • the breathing pattern is analyzed in one Mel spectrogram, and when characteristics corresponding to a sleep apnea or hyperpnea event are detected, the point in time is determined as the time when the sleep disorder occurred. You can. At this time, a process of classifying snoring as snoring rather than sleep apnea or hyperpnea through frequency analysis may be further included.
  • Figure 14 is a diagram showing an experimental process for verifying the performance of the sleep analysis method according to the present invention.
  • the user's sleep image and sleep sound are acquired in real time, and the acquired sleep sound information can be immediately converted to information in the frequency domain.
  • the user's sleep sound information may be immediately converted into a spectrogram.
  • a preprocessing process of sleep sound information may be performed.
  • the converted frequency domain information or spectrogram can be input into a sleep analysis model and the sleep stage can be analyzed immediately.
  • the operation may be performed as follows.
  • a spectrogram containing time series information can be used as an input to a CNN-based deep learning model, and a vector with reduced dimension can be output.
  • a vector with reduced dimension can be output.
  • the output vector of the transformer-based deep learning model is input to a 1D CNN (1D Convolutional Neural Network) so that the average pooling technique can be applied, and through averaging work on time series information, The process of converting time series information into an N-dimensional vector with implied time can also be performed.
  • the N-dimensional vector containing time series information corresponds to data that still contains time series information, although there is only a difference in resolution from the input data.
  • prediction of various sleep stages can be performed by performing multi-epoch classification on a combination of N-dimensional vectors containing output time series information.
  • continuous prediction of sleep state information can be performed by using the output vectors of transformer-based deep learning models as input to a plurality of fully connected layers (FC).
  • the operation can be performed as follows.
  • a spectrogram containing time series information can be used as an input to a Mobile ViT-based deep learning model to output a vector with reduced dimensionality.
  • features can be extracted from each spectrogram as the output of a Mobile ViT-based deep learning model.
  • a vector containing time series information can be output by using a vector with a reduced dimension as an input to the intermediate layer.
  • the intermediate layer model may include at least one of the following steps: a linearization step to imply vector information, a layer normalization step to input the average and variance, or a dropout step to disable some nodes. there is.
  • overfitting can be prevented by performing a process of outputting a vector containing time series information by using a vector with a reduced dimension as an input to the intermediate layer.
  • sleep state information can be output by using the output vector of the intermediate layer as an input to a ViT-based deep learning model.
  • sleep state information corresponding to information on the frequency domain containing time series information, a spectrogram, or a mel spectrogram can be output.
  • sleep state information corresponding to a series of frequency domain information, spectrogram, or mel spectrogram containing time series information can be output.
  • various deep learning models in addition to the above-mentioned AI model may be employed to perform learning or inference, and specific descriptions related to the types of deep learning models described above are provided. is merely an example, and the present invention is not limited thereto.
  • FIG. 17A and 17B are graphs verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results (PSG results) and analysis results (AI results) using the AI algorithm according to the present invention. This is a comparison drawing.
  • Existing sleep analysis models predict sleep stages by using ECG (Electrocardiogram) or HRV (Heart Rate Variability) as input, but the present invention uses sleep sound information as the change in frequency components of sleep sound information in the time domain along the time axis. Sleep stage analysis and inference can be performed by converting the included information into a spectrogram or mel spectrogram as input. Therefore, unlike existing sleep analysis models, because sleep sound information is converted into frequency domain information, spectrogram, or mel spectrogram as input, the sleep stage can be sensed in real time through analysis of the specificity of the sleep pattern. It can be obtained.
  • a graphical user interface that displays information about the user's sleep can be provided.
  • FIG. 17A and 17B are graphs verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results (PSG results) and analysis results (AI results) using the AI algorithm according to the present invention. This is a comparison drawing.
  • the Hypnodensity graph shown at the bottom of FIG. 17A is a graph showing the probability of belonging to which of the four sleep stage classes.
  • the hypnogram which is the graph shown in the center of FIG. 17A, can be obtained by determining the sleep stage with the highest probability from the hypnodensity graph.
  • the probability of belonging to one of the four classes can be indicated in 30 second increments.
  • the four classes refer to the awake state, light sleep state, deep sleep state, and REM sleep state, respectively.
  • the sleep analysis results obtained according to the present invention showed very consistent performance when compared with the labeling data obtained through polysomnography.
  • Figure 18 is a graph verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results in relation to sleep apnea and hypoventilation and the results according to the present invention.
  • PSG polysomnography
  • This is a diagram comparing the analysis results (AI results) using AI algorithms.
  • the probability graph shown at the bottom of FIG. 18 shows the probability of which of the two diseases (sleep apnea, hypoventilation) it belongs to in 30-second increments when predicting a sleep disease by receiving user sleep sound information.
  • the graph shown in the middle can be obtained by determining the disease with the highest probability from the probability graph shown below.
  • the sleep state information obtained according to the present invention showed performance very consistent with polysomnography. In addition, it demonstrated the ability to include more precise analysis information related to apnea and respiratory depression.
  • a sleep disorder sleep hyperventilation, sleep hypopnea
  • stimulation tacrine, auditory, olfactory, etc.
  • the sleep disorder can be temporarily alleviated.
  • a method for generating information for displaying the date on which information about a user's sleep was acquired can be provided.
  • the method of providing information on the date on which information about sleep was acquired according to embodiments of the present invention sleep can be analyzed more easily by allowing the user to intuitively understand the date on which information about sleep was acquired. There is an advantage in allowing this.
  • a graphical user interface that displays information about the user's sleep can be provided. Additionally, a graphical user interface may be provided that displays information about the date and/or time when information about the user's sleep was acquired.
  • a graphic user interface representing information about the user's sleep may be displayed on the user terminal 10 or an electronic device implemented with various types of displays.
  • FIGS. 4A to 4F are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the time of waking up according to embodiments of the present invention.
  • a method of generating date information on which information about sleep was acquired based on wake-up time information included in the acquired sleep state information may be provided.
  • a method of displaying the wake-up time as the date on which the sleep state information was acquired, based on the wake-up time information included in the acquired sleep state information. can be provided.
  • the date on which the corresponding sleep state information was acquired is set to the time of waking up.
  • the date can be expressed as April 6th.
  • a graphical user interface including a figure displaying the date may be provided.
  • multiple sleeps may occur on the same day.
  • N is a non-negative integer
  • information about sleep is provided based on information about the corresponding waking times.
  • N pieces of information indicating the acquisition date may be generated on the same date.
  • the information indicating the date is displayed on a graphical user interface, it may be displayed to include N shapes.
  • the sleep obtained in a specific session among the three sleep sessions measured on that day A graphical user interface representing status information may be displayed at the bottom.
  • the sleep state information displayed at the bottom is among text information indicating the time of waking up, time of waking up, sleep time, and information about sleep included in the information about the user's sleep obtained on that day. At least one or more may be displayed together.
  • the shape displaying the date according to embodiments of the present invention may be displayed as at least one of a point, a polygon, a circle, an oval, a sector, or a shape consisting of a combination of straight lines and curves.
  • the shape indicating the date according to an embodiment of the present invention may be expressed as a star-shaped shape, but this is only an example, and as described above, various shapes may be used. It can be expressed as one or more of the shapes.
  • the graphic user interface includes elevation time and wake-up information included in the information about the user's sleep acquired on the relevant date, as shown by reference numbers 102 to 104 in FIGS. 4A to 4C.
  • At least one of text information indicating viewpoint, sleep time, and sleep information may be displayed together.
  • whether sleep information obtained on a certain date is indicated can be indicated using a shape, as shown by reference numeral 101a, to distinguish it from other dates.
  • it may be displayed to distinguish it from other dates by changing its color or brightness.
  • the rate of deep sleep was relatively high, it was accompanied by the phrase “long sleep.” I slept deeply last night! You will be able to start your day on a good note” may be displayed (references 102 and 103). Additionally, according to embodiments of the present invention, the actual sleeping time and the time taken to fall asleep may be displayed in parallel (reference number 104).
  • the phrases that appear in the above-described sleep evaluation text information are merely examples for explaining embodiments of the present invention, and the present invention is not limited thereto.
  • the graphical user interface according to the embodiments of the present invention discussed above is not limited to being displayed in Korean and can be displayed in various languages.
  • the date when displayed in English, it may be expressed as shown in FIG. 4F.
  • FIGS. 5A to 5D are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the elevation viewpoint according to embodiments of the present invention.
  • a method of generating date information on when information about sleep was acquired based on elevation time information included in the acquired sleep state information may be provided.
  • a method is provided to display the corresponding elevation time as the date on which the sleep state information was acquired, based on the elevation time information included in the acquired sleep state information. It can be.
  • the date on which the sleeping state information was acquired is the time of waking up.
  • the date can be expressed as April 5th.
  • a graphical user interface including a figure displaying the corresponding date may be provided.
  • multiple sleeps may occur on the same day. For example, if waking up occurs N times on the same day due to multiple sleeping sessions (N is a non-negative integer), the date on which information about sleep was obtained is displayed based on the information about the corresponding waking times. N pieces of information may be generated on the same date. Additionally, in this case, when the information indicating the date is displayed on a graphical user interface, it may be displayed to include N shapes.
  • the sleep-related Three shapes representing information that information has been acquired can be created.
  • three shapes may be displayed, as indicated by reference number 201d.
  • the sleep obtained in a specific session among the three sleep sessions measured on that day A graphical user interface representing status information may be displayed at the bottom.
  • the sleep state information displayed at the bottom is among text information indicating the time of waking up, time of waking up, sleep time, and information about sleep included in the information about the user's sleep obtained on that day, as shown in FIG. 5e. At least one or more may be displayed together.
  • the shape displaying the date according to embodiments of the present invention may be displayed as at least one of a point, a polygon, a circle, an oval, a sector, or a combination of straight lines and curves.
  • the shape that displays the date according to an embodiment of the present invention may be expressed as a star-shaped shape, but this is just an example and, as described above, is one of various shapes. It can be expressed as above.
  • the graphic user interface includes elevation time and wake-up information included in the information about the user's sleep acquired on the relevant date, as shown by reference numbers 202 to 204 in FIGS. 5A to 5C.
  • At least one of text information indicating viewpoint, sleep time, and sleep information may be displayed together.
  • whether sleep information obtained on a certain date is indicated can be indicated using a shape, as shown by reference numeral 201a, to distinguish it from other dates.
  • it may be displayed to distinguish it from other dates by changing its color or brightness.
  • the rate of deep sleep was relatively high, it was accompanied by the phrase “long sleep.” I slept deeply last night! You will be able to start your day on a good note” may be displayed (references 202 and 203). Additionally, according to embodiments of the present invention, the actual sleeping time and the time taken to fall asleep may be displayed in parallel (reference number 204).
  • the phrases that appear in the above-described sleep evaluation text information are merely examples for explaining embodiments of the present invention, and the present invention is not limited thereto.
  • FIGS. 6A to 6C are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the elevation time and the waking time according to embodiments of the present invention.
  • a method of generating information on the date on which sleep-related information was acquired based on the elevation time information and wake-up time information included in the acquired sleep state information may be provided.
  • sleep state information is obtained from the corresponding awakening point to the wake-up point based on the waking point information and the waking point information included in the acquired sleep state information.
  • a method of displaying the acquisition date may be provided.
  • a graphical user interface including a figure displaying the corresponding sleep period may be provided.
  • the figure displaying the date according to the embodiments of the present invention may be displayed as a figure having a continuous shape displaying the date from the elevation point to the date of the wake-up point.
  • a shape according to embodiments of the present invention may be displayed as at least one of a point, a polygon, a circle, an oval, a sector, or a combination of straight lines and curves.
  • multiple sleeps may occur on the same day. For example, if several sleeps occurred on the same day, and accordingly, waking up and waking up occurred N times each on the same day (N is a non-negative integer), based on the information about the corresponding waking moments and waking moments, N pieces of information indicating the date on which information about sleep was acquired may be generated on the same date. Additionally, in this case, when the information indicating the date is displayed on a graphical user interface, it may be displayed to include N shapes.
  • the N shapes can be created as shapes with a continuous shape connecting two different points, and the N shapes according to embodiments of the present invention are each a point, polygon, circle, oval, fan, or straight line. It can be displayed as at least one of the shapes made up of a combination of and curves.
  • waking up and waking up according to three sleep sessions are performed three times on July 1, respectively, on July 1
  • Three shapes may be created indicating that information about sleep has been obtained.
  • three shapes may be displayed, as indicated by reference number 301d.
  • the sleep obtained in a specific session among the three sleep sessions measured on that day A graphical user interface representing status information may be displayed at the bottom.
  • the sleep state information displayed at the bottom is among text information indicating the time of waking up, time of waking up, sleep time, and information about sleep included in the information about the user's sleep obtained on that day. At least one or more may be displayed together.
  • a graphical user interface may be created as shown in reference numerals 305 and 301d of FIG. 6E.
  • Reference number 305 is a code indicating an area where the date is displayed.
  • Reference number 301e is a figure that displays information on the date on which information on sleep was acquired displayed in the area assigned by reference number 305.
  • reference number 305 such as reference number 301e
  • a graphical user interface may be created that displays portions corresponding to the elevation time point and the weather time point.
  • Date information can be displayed with a shape representing the 5th to the 6th in the area marked with the number 305.
  • the starting point of the shape can be displayed in the area allocated to the 5th close to the border between the 5th and the 6th.
  • the end point of the figure may be displayed in the 7th area among the areas allocated to the 6th, divided into 24 equal parts on the horizontal axis.
  • a graphical user interface indicating sleep state information acquired on the relevant date may be displayed at the bottom, where the sleep state information displayed at the bottom is the corresponding sleep state information, as shown in FIG. 6E. At least one or more of the waking time, waking up time, sleep time, and text information indicating information about sleep included in the information about the user's sleep obtained on the date may be displayed together.
  • the information displayed at the bottom is differentiated by changing the color of the figure indicated by reference number 301e or displaying different brightness to determine which of those dates. It can indicate whether the display is based on the sleep measured.
  • the graphic user interface includes elevation time and wake-up information included in the information about the user's sleep acquired on the relevant date, as shown by reference numbers 302 to 304 in FIGS. 6A to 6C.
  • Text information indicating time point, sleep time, and information about sleep may be displayed together.
  • whether sleep information obtained on a certain date is indicated can be indicated using a shape, as shown in reference numeral 301a, to distinguish it from other dates.
  • it may be displayed to distinguish it from other dates by changing its color or brightness.
  • the rate of REM sleep was relatively high, it was called “stress-relieving sleep.”
  • the REM sleep rate was high! You may see the phrase, “Sleep not only relieves stress but also helps you be creative” (References 302 and 303).
  • the actual sleeping time and the time taken to fall asleep may be displayed in parallel (reference number 304).
  • the phrases that appear in the above-described sleep evaluation text information are merely examples for explaining embodiments of the present invention, and the present invention is not limited thereto.
  • FIGS. 7A to 7E are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the definition of the time zone to which the waking time belongs according to embodiments of the present invention. am.
  • a method of generating date information on which information about sleep was acquired based on wake-up time information included in the acquired sleep state information may be provided.
  • a method of displaying the wake-up time as the date on which the sleep state information was acquired, based on the wake-up time information included in the acquired sleep state information. can be provided.
  • information on the date when information about sleep was acquired can be generated based on the definition of the time zone to which the waking up time belongs.
  • the definition of the time zone may be preset, for example, “dawn” for between 12 AM (midnight) and less than 5 AM, “morning” for between 5 AM and less than 9 AM, and between 9 AM and less than 5 PM. can be set as “day”, between 5 PM and less than 9 PM can be set as “evening”, and between 9 PM and less than 12 AM (midnight) can be set as “night”.
  • sleep state information that includes information that you went to bed on April 8 and woke up on the same day, April 8, as shown by reference number 401d in FIG. 7C, the date of waking up is April 8.
  • the day can be expressed as the date on which the corresponding sleep state information was acquired.
  • a graphical user interface including a figure displaying the date may be provided.
  • the color of the figure displaying the date information on which sleep-related information was acquired may be expressed in the same color (e.g., white), but as shown in FIG. 7D, the date information is displayed.
  • the colors of the shapes may be displayed differently depending on the time period in which information about the user's sleep was obtained.
  • the figure indicating the date on which the sleep information was acquired may be displayed in dark blue.
  • the time zone to which the sleep time included in the information about the user's sleep belongs is mainly in the “day” time zone, the figure indicating the date on which the information about the sleep was acquired may be displayed in yellow.
  • the shape displaying the date according to embodiments of the present invention may be displayed as at least one of a point, a polygon, a circle, an oval, a sector, or a shape consisting of a combination of straight lines and curves.
  • the type of shape that displays the date information on sleep may be represented by the same type (e.g., dot), but as shown in FIG. 7C, the type of the shape may be displayed differently depending on the time zone in which information about the user's sleep was obtained.
  • the date on which the information about the sleep was acquired is displayed, as shown by reference number 401c in FIG. 7C.
  • the shape can also be displayed as a star shape.
  • a square shape is drawn indicating the date on which the information about sleep was acquired, as shown by reference number 401d. I can also be displayed as a shape (e.g. a square).
  • multiple sleeps may occur on the same day. For example, if several sleeps occurred on the same day, and accordingly, waking up occurred N times on the same day (N is a non-negative integer), information about sleep is obtained based on information about the corresponding waking times. N pieces of information indicating one date may be generated on the same date. Additionally, in this case, when the information indicating the date is displayed on a graphical user interface, it may be displayed to include N shapes.
  • the sleep obtained in a specific session among the three sleep sessions measured on that day A graphical user interface representing status information may be displayed at the bottom.
  • the sleep state information displayed at the bottom is among text information indicating the time of waking up, time of waking up, sleep time, and information about sleep included in the information about the user's sleep obtained on that day, as shown in FIG. 7f. At least one or more may be displayed together.
  • the type of shape that displays the date information on sleep may be represented by the same type (e.g., dot), but is shown by reference number 401g in FIG. 7g. As described above, the type of shape may be displayed differently depending on the time period in which information about the user's sleep was obtained.
  • the graphic user interface includes elevation time and wake-up information included in the information about the user's sleep acquired on the relevant date, as shown by reference numbers 402 to 404 in FIGS. 7A to 7E.
  • Text information indicating time point, sleep time, and information about sleep may be displayed together.
  • whether sleep information obtained on a certain date is indicated can be indicated using a shape, as shown in reference numeral 401a, to distinguish it from other dates.
  • it may be displayed to distinguish it from other dates by changing its color or brightness.
  • a graphical user interface may be provided that further includes text displaying information on the time zone in which information about sleep was obtained.
  • the text “Morning sleep report” may also be displayed.
  • the time zone included in the information about the user's sleep mainly falls in the “day” time zone, “nap report”, if it falls in the “evening” time zone, “evening sleep report”, “ If you belong to the “night” time zone, the text “Night sleep report” can be displayed, and if you belong to the “dawn” time zone, the text “Early sleep report” can also be displayed.
  • the text displaying the time zone information at which information about the user's sleep was obtained is not limited to the example above. If the time zone to which the user wakes up belongs to the early morning time zone, the keyword “dawn” is used, and if it is the morning time zone, the keyword is “ It may be displayed as including the keyword “morning”, the keyword “day” in the case of daytime, the keyword “evening” in the case of the evening, and the keyword “night” in the case of the night.
  • Figure 10 is a flowchart of a method for creating and providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
  • a method of generating one or more graphical user interfaces representing information about sleep includes acquiring sleep information from the user (S100), the acquired sleep information A step of converting the frequency components included in the information into information including changes along the time axis (S120), a step of acquiring sleep state information (S140), a step of generating a graphical user interface (S160), and a graphical user interface. It may include a providing step (S180).
  • the sleep information acquired in the step of acquiring sleep information may include environmental sensing information or sleep sound information.
  • a method of generating one or more graphical user interfaces representing information about sleep includes a sleep log storage step (not shown) of storing sleep log information related to an account assigned to a user in memory. It may include more.
  • the step of converting the frequency components included in the acquired sleep information into information including changes along the time axis (S120) is performed by converting the acquired sleep information into raw acoustic information on the time domain or information on the frequency domain. It may include a step of performing preprocessing.
  • the step of converting the acquired sleep information into information on the frequency domain (S120) may include converting acoustic information into spectrogram information.
  • the step of applying Mel scale to the spectrogram and converting it into Mel spectrogram may be further included.
  • the step (S140) of acquiring sleep state information involves extracting sleep state information corresponding to each piece of information in the frequency domain, a spectrogram, or a mel spectrogram divided into 30 second units. It may include steps.
  • the step of generating a graphical user interface includes the date information on the user's sleep was acquired based on the user's waking time and/or waking time included in the sleep information. It may include the step of generating.
  • the step of generating information on the date on which information on sleep was acquired may further include generating time zone information on which information on sleep was acquired based on information on the time zone to which the time of waking up belongs.
  • time zone information may be determined according to a preset definition.
  • Figure 19a is a diagram showing a graphical user interface showing information about the sleep of a user with the alarm function activated according to the present invention.
  • Figure 19b is a diagram illustrating a graphical user interface showing information about the sleep of a user in which the alarm function according to the present invention is not activated.
  • a user may trigger an alarm function, and an alarm function trigger activation state user interface 19100 and an alarm function trigger deactivation state user interface 19200 may be provided to the user.
  • the user may trigger an alarm function, and if the user triggers the alarm function in a first direction, an alarm function trigger activation state user interface 19100 may be provided to the user, and the user may trigger the alarm function in a second direction.
  • an alarm function trigger deactivation state user interface 19200 may be provided to the user.
  • an alarm function trigger activation state user interface 19100 is provided to the user.
  • an alarm function trigger deactivation state user interface 19200 may be provided to the user, but is not limited to this.
  • the graphical user interface creation step includes a graphical user interface creation step for activating the alarm function and starting sleep measurement when the trigger area for activating the notification function is activated, and activating the notification function. If the trigger area is not activated, the step may include creating a graphical user interface to initiate sleep measurement along with deactivating the alarm function.
  • the alarm window user interface 19101 in the alarm function trigger activated state may be provided, and the alarm window user interface 19101 in the alarm function trigger activated state may be provided with the alarm function.
  • a user interface (19110) for inputting the desired wake-up time in the trigger activation state may be provided.
  • the notification phrase user interface 19110 which inputs the desired wake-up time when the alarm function trigger is activated, may be in the form of providing the phrase “When will I wake up?”
  • the desired wake-up time input notification user interface 19110 in the alarm function trigger activation state may be in the form of providing the phrase “What time do you want to wake up?” and “What time do you want to wake up?” It may be in the form of providing a phrase, or it may be in the form of "When should I wake you up?”, but this is only one of many examples and is not limited to this.
  • an alarm window user interface 19101 in the alarm function trigger activation state may be provided, and the alarm window user interface 19101 in the alarm function trigger activation state may be provided.
  • (19101) is a wake-up range user interface (19120) including desired wake-up time information when the alarm function trigger is activated, or a slide area user interface (19130) provided to allow input of desired wake-up time information when the alarm function trigger is activated. ) can be provided.
  • the slide area user interface 19130 provided to allow input of desired wake-up time information in an alarm function trigger activation state allows input of desired wake-up time information in an alarm function trigger activation state. It may include a slide area bar user interface (19131) provided to allow the user to enter information on the desired wake-up time when the alarm function trigger is activated by sliding the slide area user interface (19130) provided to indicate the user's desired wake-up time. You can choose the time.
  • the step of creating a graphical user interface including a slide area for selecting desired wake-up time information when the slide area is slid in a first direction, the time of the desired wake-up time information is delayed, and the slide area It may include a step of creating a graphical user interface in which the time of the desired wake-up time information becomes faster when the information is slid in the second direction.
  • the desired wake-up time may be set to an earlier time.
  • the desired wake-up time may be set to a later or earlier time, but this is limited to this. It doesn't work.
  • a slide area bar is provided to allow the user to input desired wake-up time information with the alarm function trigger activated.
  • the interface 19131 may be provided to indicate 8:36 a.m.
  • the scheduled wake-up range user interface 19120 may indicate a predetermined range from 8:36 a.m., including information on the desired wake-up time when the alarm function trigger is activated. , for example, if set to 30 minutes, it can represent the range from 8:06 AM to 8:36 AM.
  • the wake-up range user interface 19120 including information on the desired wake-up time in an alarm function trigger activation state may indicate a section where the user's predicted wake-up time belongs.
  • an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and the alarm window user interface in an alarm function trigger activation state may be provided.
  • the interface 19101 may include a user interface 19140 that provides information on the estimated sleep time in an alarm function trigger activation state.
  • the step of creating a graphical user interface may include a step of creating a graphical user interface that, upon receiving desired wake-up time information through the slide area, indicates an expected sleep time based on the difference between the received desired wake-up time and the current time. For example, as shown in Figure 19a, if the desired wake-up time is 8:36 AM and the current time is 12:39 AM, the desired wake-up time is 8:36 AM to the current time is 12:39 AM. With the difference of 8 hours and 57 minutes, a user interface 19140 that provides information on the estimated sleep time with the alarm function trigger activated can be provided.
  • the step of creating a graphical user interface includes the desired wake-up time information through a slide area user interface 19130 provided to allow the user to input desired wake-up time information in an alarm function trigger activation state.
  • the step of generating a graphical user interface representing the expected sleep time based on either predicted wake-up time information or predicted sleep time or a combination of predicted sleep time and sleep efficiency inferred from the received sleep state information of the user. can do.
  • sleep efficiency may be (user's actual sleep time/time from start of sleep measurement until user wakes up) * 100, and even more specifically, ⁇ time of NREM stage during user's sleep and the time calculated by excluding the time of the WAKE phase from the sum of the times of the REM phase)/time from the start of sleep measurement until the user wakes up ⁇ *100.
  • the estimated sleep time provided in the slide area user interface 19130 which is provided so that the user can input information on the desired wake-up time in the alarm function trigger activation state, is calculated from the current time when the alarm function trigger is activated. Based on the user's sleep state information within the scheduled wake-up range including information on the desired wake-up time in the state, it may include the time until the time when REM sleep is predicted to occur or a time after a predetermined time has elapsed from that time. .
  • the estimated sleep time provided in the slide area user interface 19130 which is provided to allow the user to input information on the desired wake-up time when the alarm function trigger is activated, is calculated from the current time of the alarm function. Sleep efficiency at the time when REM sleep is predicted to occur or a predetermined time after the time has elapsed based on the user's sleep state information within the scheduled wake-up range including the desired wake-up time information in the trigger activation state. It may be a time calculated by multiplying .
  • an alarm window user interface 19101 in the alarm function trigger activation state may be provided, and at the same time, sleep measurement in the alarm function trigger activation state may be initiated.
  • a user interface 19150 may be provided.
  • the user interface 19150 that initiates sleep measurement in an alarm function trigger activation state may be in the form of providing the phrase “Go to sleep.” Additionally, it may be in the form of providing a phrase such as "Start measuring sleep” or it may be in a form of providing a phrase such as "Shall we go to sleep?", but this is only an example and is not limited thereto.
  • the user can trigger an alarm function, and an alarm function trigger activation state user interface 19100 or an alarm function trigger deactivation state user interface 19200 may be provided to the user.
  • the user may trigger an alarm function, and if the user triggers the alarm function in a first direction, an alarm function trigger activation state user interface 19100 may be provided to the user, and the user may trigger the alarm function in a second direction.
  • an alarm function trigger deactivation state user interface 19200 may be provided to the user.
  • the alarm function trigger deactivation state user interface 19200 When the alarm function trigger deactivation state user interface 19200 is provided, the alarm function is not triggered, and a user interface 19201 providing information corresponding to sleep measurement in a state where the scheduled wake-up time is not set may be provided.
  • the information providing user interface 19201 suitable for sleep measurement in a state where the scheduled wake-up time is not set may be a phrase providing information that sleep measurement results can be provided only after sleeping for a certain amount of time, , For example, it could be a phrase like “If you sleep for more than 30 minutes, you can get a report.”
  • Another example could be a phrase like “Why not try using an AI alarm for your next sleep?” This is just an example and is not limited to this.
  • a user interface 19250 that initiates sleep measurement in the alarm function trigger deactivation state may be provided.
  • the user interface 19250 for initiating sleep measurement with the alarm function trigger disabled may be provided in the form of phrases such as “go to bed without an alarm,” or in the form of phrases such as “turn off the alarm and sleep.” It may also be provided as .
  • the user interface 19250 for starting sleep measurement with the alarm function trigger disabled may be provided in the form of phrases such as “turn off the alarm and start sleep measurement,” but this is only an example and is not limited thereto.
  • Figure 20a is a diagram showing a graphical user interface indicating that sleep is being measured while the alarm function according to the present invention is activated.
  • Figure 20b is a diagram showing a graphical user interface indicating that sleep is being measured while the alarm function according to the present invention is deactivated.
  • an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and at the same time, sleep in an alarm function trigger activation state may be provided.
  • a user interface 19150 may be provided to initiate a measurement.
  • the user interface 20310 indicating that the alarm function trigger is activated during sleep measurement in the alarm function trigger activation state of FIG. 20A ) can be provided.
  • the user interface 20310 indicating that the alarm function trigger is activated is in the form of a phrase indicating that the alarm function is activated: “AI will definitely wake you up!” can be provided.
  • the user interface 20310 indicating that the alarm function trigger is activated may be provided in the form of the phrase “AI alarm function is activated!” It may be provided in the form of a phrase such as “AI will help you wake up refreshed!”, and may also be provided in the form of a phrase such as “I will wake you up, so sleep well!”, but this is only an example and is not limited thereto. .
  • an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and at the same time, sleep in an alarm function trigger activation state may be provided.
  • a user interface 19150 for initiating measurement may be provided, and at the same time, a user interface 20320 may be provided indicating a scheduled wake-up range including desired wake-up time information during sleep measurement in an alarm function trigger activation state.
  • the user interface 20320 which represents the scheduled wake-up range including desired wake-up time information during sleep measurement in the alarm function trigger activated state, is the user interface 20320 that represents the scheduled wake-up range including desired wake-up time information in the alarm function trigger activated state.
  • Information about scheduled alarms can be provided in the same range as (19120).
  • the wake-up range user interface 19120 which includes the desired wake-up time information in the alarm function trigger activation state, provides a range of “between 8:06 a.m. and 8:36 a.m.”, the alarm function trigger is activated.
  • the user interface 20320 indicating the expected wake-up range including desired wake-up time information may provide the phrase “alarm between 8:06 a.m. and 8:36 a.m.”
  • the wake-up range user interface 19120 which includes the desired wake-up time information in the alarm function trigger activation state, provides a range of “between 8:06 a.m. and 8:36 a.m.”, the alarm function is triggered.
  • the user interface 20320 indicating the expected wake-up range including desired wake-up time information may provide the phrase, “The alarm will sound between 8:06 a.m. and 8:36 a.m.!”
  • an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and at the same time, sleep in an alarm function trigger activation state may be provided.
  • a user interface 19150 for initiating measurement may be provided, and at the same time, a user interface 20320 may be provided indicating a scheduled wake-up range including desired wake-up time information during sleep measurement with the alarm function trigger activated, and at the same time, an alarm function may be provided.
  • a user interface 20340a may be provided indicating the first wave of the user's sleep sound information during sleep measurement in the function trigger activation state.
  • the step of creating a graphical user interface including a screen indicating that sleep is being measured includes the step of creating a graphical user interface indicating that a trigger area for activating an alarm function is not being activated; , It may further include a step of creating a graphical user interface representing the range of the scheduled wake-up time, and may further include a step of creating a graphical user interface representing waves of the user's sleep sound information.
  • the user interface 20340a which represents the first wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated, may change in amplitude depending on the size of the user's sleep sound in real time.
  • the user interface 20340a representing the second wave of the user's sleep sound information moves in real time in a random direction, and the amplitude varies depending on the size of the user's sleep sound. This can change.
  • an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and at the same time, sleep in an alarm function trigger activation state may be provided.
  • a user interface 19150 for initiating measurement may be provided, and at the same time, a user interface 20320 may be provided indicating a scheduled wake-up range including desired wake-up time information during sleep measurement with the alarm function trigger activated, and at the same time, an alarm function may be provided.
  • a user interface (20340a) may be provided representing the first wave of the user's sleep sound information during sleep measurement in a function trigger activation state, and a user interface (20340a) for stopping sleep measurement during sleep measurement in an alarm function trigger activation state ( 20330) may be provided.
  • FIG. 20A (a) of FIG. 20A is a diagram showing that a user interface 20340a is provided indicating the first wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated. (b) in 20a is a diagram showing the user interface 20340b showing the second wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated.
  • (20340b) may be provided differently depending on the user's user terminal model, and the user interface (20340b) representing the second wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated is the size of the user's sleep sound.
  • the characteristic is that the amplitudes of the plurality of waves all change and become smaller in size equally, and may be provided differently depending on the type of user terminal, specifically the type of smartphone.
  • the step of generating a graphical user interface including a screen indicating that sleep measurement is in progress may further include the step of creating a graphical user interface capable of ending sleep measurement.
  • the user interface 20330 for stopping sleep measurement during sleep measurement with the alarm function trigger activated may be provided in the form of indicating the phrase “wake up,” and sleep measurement with the alarm function trigger activated.
  • the user interface 20330 for stopping mid-sleep measurement may be provided in the form of the phrase “wake up.”
  • it may be provided in a form that represents the phrase "Go to wake up” and may also be provided in a form that represents the phrase "End sleep measurement,” but this is only an example and is not limited thereto.
  • a user interface 20250 may be provided that initiates sleep measurement in the alarm function trigger deactivated state.
  • a phrase or emoticon or a phrase and an emoticon indicating that sleep measurement is in progress is displayed while the alarm function trigger is not activated.
  • a user interface 20610 representing may be provided.
  • the user interface 20610 representing a phrase or an emoticon or a phrase and an emoticon indicating that sleep is being measured is in the form of a sleep-inducing phrase such as "Close your eyes, take a good rest ⁇ _ ⁇ " It can be provided as .
  • the user interface 20610 representing a phrase or emoticon indicating that sleep is being measured, or a phrase and an emoticon may be provided in the form of the phrase “I will sleep comfortably,” and a phrase or emoticon indicating that sleep is being measured, or a phrase and an emoticon.
  • the user interface 20610 representing an emoticon may be provided in the form of a phrase such as “Tonight is a comfortable night,” but this is only an example and is not limited thereto.
  • a user interface 19250 may be provided to initiate sleep measurement in the alarm function trigger deactivated state.
  • a phrase or emoticon or a phrase and emoticon indicating that sleep measurement is in progress is displayed while the alarm function trigger is not activated.
  • a user interface 20610 may be provided, and at the same time, a user interface 20640a may be provided showing the first wave of the user's sleep sound information during sleep measurement while the alarm function trigger is not activated.
  • the user interface 20640a which represents the first wave of the user's sleep sound information during sleep measurement when the alarm function trigger is not activated, has an amplitude depending on the size of the user's sleep sound in real time. It can change. As a specific example, during sleep measurement in a state in which the alarm function trigger is not activated, the user interface 20640a representing the first wave of the user's sleep sound information moves in real time in a random direction and adjusts to the size of the user's sleep sound. The amplitude may change depending on the
  • a user interface 19250 may be provided to initiate sleep measurement in the alarm function trigger deactivated state.
  • a phrase or emoticon or a phrase and emoticon indicating that sleep measurement is in progress is displayed while the alarm function trigger is not activated.
  • a user interface 20610 representing may be provided, and at the same time, a user interface 20640a may be provided representing the first wave of the user's sleep acoustic information during sleep measurement while the alarm function trigger is not activated, An information providing user interface 20620 suitable for measuring sleep in a state where the scheduled wake-up time is not set may be provided.
  • the step of creating a graphical user interface may include a step of creating a graphical user interface that provides information corresponding to sleep with an undetermined wake-up time when the trigger area for activating the notification function is not activated.
  • the user interface 20620 provides information suitable for sleep measurement in a state where the scheduled wake-up time is not set, and provides information for receiving sleep measurement results such as “You can receive a report if you sleep for more than 30 minutes.” It may be provided in the form of phrases.
  • the user interface 20620 which provides information suitable for sleep measurement in a state where the scheduled wake-up time is not set, provides information necessary when the scheduled wake-up time is not set, such as “The best sleep time is 7 hours!” It may be in the form. Or, it may be provided in the form of phrases such as “Tomorrow is the weekend! I can sleep more than on weekdays!”, but this is only an example and is not limited to this.
  • FIG. 20B (a) of FIG. 20B is a diagram showing that a user interface 20640a is provided indicating the first wave of the user's sleep sound information during sleep measurement in a state in which the alarm function trigger is not activated.
  • FIG. 20A (b) is a diagram illustrating the user interface 20640b showing the second wave of the user's sleep sound information during sleep measurement in a state in which the alarm function trigger is not activated.
  • the user interface (20640b) representing the second wave may be provided differently depending on the user's user terminal model, and may be a user interface (20640b) representing the second wave of the user's sleep sound information during sleep measurement when the alarm function trigger is not activated ( 20640b) is characterized in that the amplitudes of a plurality of waves all change in size and become smaller depending on the size of the user's sleeping sound, and may be provided differently depending on the model of the user terminal, specifically the model of the smartphone.
  • a user interface 19250 may be provided to initiate sleep measurement in the alarm function trigger deactivated state.
  • a phrase or emoticon or a phrase and emoticon indicating that sleep measurement is in progress is displayed while the alarm function trigger is not activated.
  • a user interface 20610 representing may be provided, and at the same time, a user interface 20640a may be provided representing the first wave of the user's sleep acoustic information during sleep measurement while the alarm function trigger is not activated,
  • An information providing user interface (20620) suitable for sleep measurement in a state where the scheduled wake-up time is not set may be provided, and a user interface (20630) for stopping sleep measurement during sleep measurement in a state in which an alarm function trigger is not activated. ) can be provided.
  • the user interface 20630 for stopping sleep measurement during sleep measurement in a state in which the alarm function trigger is not activated may be provided in the form of indicating the phrase “wake up” and the alarm function trigger is not activated.
  • the user interface 20630 for stopping sleep measurement during sleep measurement in a sleep state may be provided in a form that represents the phrase “wake up.”
  • it may be provided in a form that represents the phrase "Go to wake up” and may also be provided in a form that represents the phrase "End sleep measurement,” but this is only an example and is not limited thereto.
  • Figure 21 is a diagram illustrating a graphical user interface that provides information to confirm the user's expected sleep time according to the present invention when the user's expected sleep time is more than a predetermined time.
  • the step of creating a graphical user interface may include a step of creating a graphical user interface that displays a pop-up window to confirm the expected sleep time when the expected sleep time exceeds a predetermined time.
  • a pop-up window user interface 21700 may be provided for the user interface. However, the case is not limited to exceeding 12 hours, and even if the estimated sleep time exceeds the predetermined time, a pop-up user interface 21700 may be provided to confirm the estimated sleep time.
  • the pop-up window user interface 21700 for checking the expected sleep time may include a user interface 21710 that describes a pop-up window for checking the expected sleep time when the expected sleep time is more than a predetermined time.
  • the user interface 21710 explaining a pop-up window for checking the expected sleep time may be in the form of providing the phrase “Confirm sleep time.”
  • the user interface 21710 which describes a pop-up window for checking the expected sleep time, provides phrases such as “The estimated sleep time is a little long!” so that the user can once again set the wake-up wish. It may be in the form of providing information that leads to checking the time.
  • the pop-up window user interface 21700 for checking the expected sleep time may include a user interface 21710 that describes a pop-up window for checking the expected sleep time when the expected sleep time is more than a predetermined time.
  • a user interface 21720 may be included that displays a question about the desired wake-up time in a pop-up window for confirming the expected sleep time.
  • the user interface 21720 which displays a phrase asking about the desired wake-up time in a pop-up window for checking the expected sleep time, contains the phrase "The estimated sleep time is 00:00. Is the time set correct?" It can be provided in the form In addition, the user interface 21720, which displays a question about the desired wake-up time in a pop-up window for checking the expected sleep time, contains the phrase "The estimated sleep time is a little long! Is the desired alarm time 00:00 AM??" It can be provided in the form In addition, it may be provided in the form of a phrase such as "The estimated sleep time is over 00 hours. I think today is a day when I want to sleep a lot!, but this is only an example and is not limited to this.
  • the pop-up window user interface 21700 for checking the expected sleep time may include a user interface 21710 that describes a pop-up window for checking the expected sleep time when the expected sleep time is more than a predetermined time. If the expected sleep time is more than a predetermined time, a user interface (21730) for resetting the desired wake-up time in a pop-up window to check the expected sleep time, or if the expected sleep time is more than a predetermined time, a user interface (21730) for checking the expected sleep time A user interface 21740 for maintaining the desired wake-up time preset in the pop-up window may be further included.
  • the user interface 21730 for resetting the desired wake-up time in a pop-up window for checking the expected sleep time may be provided in the form of the phrase “reset” and the phrase “go to reset”. It can also be provided as . Additionally, it may be provided in the form of a phrase such as “Reset alarm settings,” but this is only an example.
  • the user interface 21740 for maintaining the desired wake-up time set in the pop-up window for confirming the expected sleep time may be provided in the form of the phrase “Yes, that's right” and "The time is right! It may be provided in the form of a phrase such as “Yes, I want to go to bed,” but it is not limited to this.
  • an alarm window user interface 19101 in the alarm function trigger activation state may be provided, and the alarm window user interface 19101 in the alarm function trigger activation state may be provided.
  • (19101) may include a user interface (22140) that provides information on the expected sleep time in an alarm function trigger activation state, and when the expected sleep time is less than a predetermined time, when the expected sleep time is less than a predetermined time, sleep An informational user interface 22202 may be provided consistent with the measurement.
  • the information providing user interface 22202 consistent with the sleep measurement may be in the form of the phrase "Sleep 27 more minutes and you can get a report.” It can be provided as .
  • Figure 23 is a diagram for explaining a method of providing an alarm based on the user's sleep state information according to the present invention.
  • the method of providing an alarm based on the user's sleep state information includes a sleep information receiving step of receiving the user's sleep information including the user's sleep sound information from one or more sleep information sensor devices ( S2310), a sleep state information acquisition step of acquiring the user's sleep state information including the user's average sleep time information based on the received user's sleep information (S2320), desired wake-up time information for receiving desired wake-up time information A receiving step (S2330), an alarm time information generating step (S2340) of generating alarm time information based on the acquired sleep state information and the received desired wake-up time information, and an alarm sound based on the generated alarm time information. It may include an alarm sound providing step (S2350).
  • the alarm time information generation step (S2340) can generate alarm timing information based on sleep state information.
  • the time range including the desired wake-up time information includes the time from a predetermined time before the desired wake-up time to the desired wake-up time; , If sleep state information indicating that the user is in REM sleep is not obtained within the above range of time, the alarm time information may be generated at the desired wake-up time.
  • the above range is the time from 8:36 a.m., the desired wake-up time, to a predetermined time, 30 minutes before, that is, from 8:06 a.m. to 8:36 a.m. It refers to the range from minute to minute, and if the user's REM sleep is not measured during the period from 8:06 a.m. to 8:36 a.m., alarm time information can be generated at 8:36 a.m.
  • the time range including the desired wake-up time information includes the time from a predetermined time before the desired wake-up time to the desired wake-up time. And, if the user acquires sleep state information indicating that the user is in REM sleep within the above range of time, the alarm time information may be generated at the time of acquisition of sleep state information indicating that the user is in REM sleep.
  • the desired wake-up time is 8:36 a.m.
  • the above range is the time from 8:36 a.m., the desired wake-up time, to a predetermined time, 30 minutes before, that is, from 8:06 a.m. to 8:36 a.m.
  • Alarm time information can be generated after a predetermined time has elapsed.
  • Figure 24a is a diagram for explaining the case where the AI alarm of the present invention is not set using a hypnogram.
  • Figure 24b is a diagram for explaining the case of setting the AI alarm of the present invention through a hypnogram.
  • the user's REM sleep continues 30 minutes before the time of the user's desired wake-up time information, and a time point appears indicating that the user's sleep stage is a sleep stage other than REM sleep, at that point You can also set it as alarm timing information. For example, if the time in the user's desired wake-up time information is 8:30 a.m., and REM sleep was detected at 8:10 a.m., between 8:00 a.m. and 8:30 a.m., 30 minutes before then, 8:00 a.m. If the user's sleep status information at 20 minutes indicates a normal sleep, the time point of 8:20 a.m. can be set as the alarm time information.
  • the alarm time information can be set to the point in time when the reliability of the sleep state information is lowered.
  • Figure 25 a Graphical user interface including hypnogram
  • Figure 25a is a diagram showing a graphical user interface including a hypnogram according to an embodiment of the present invention.
  • the phrase “sleep stage” may be displayed together, as indicated by reference number 25101.
  • the hypnogram is expressed as time (reference number 25114) on the x-axis and sleep stage information on the y-axis, and may include shapes corresponding to each sleep stage information.
  • sleep stage information has a total of four stages and may include a plurality of areas allocated to each sleep stage information. For example, an area allocated to the waking stage (reference number 25102), an area allocated to the REM sleep stage (reference number 25103), an area allocated to the light sleep (or 'normal sleep') stage (reference number 25104), and an area allocated to the deep sleep stage. It can be expressed divided into allocated areas (reference number 25105).
  • the colors of shapes corresponding to each sleep stage information may be expressed differently.
  • the color of the shape corresponding to the deep sleep stage may be a relatively darker color than other shapes (reference number 25113).
  • the color of the shape corresponding to the REM sleep stage may be relatively brighter than other shapes (reference number 25111).
  • the colors of the figures and background corresponding to each sleep stage information may be colors expressed at different positions in the color space.
  • the background is expressed in a black color
  • the shapes corresponding to the deep sleep stage are relatively dark blue
  • the shapes corresponding to the light sleep or normal sleep stages are relatively dark blue.
  • the shape corresponding to the REM sleep stage can be expressed in a light blue color (reference number 25112)
  • the shape corresponding to the REM sleep stage can be expressed in a purple color
  • the figure corresponding to the waking stage can be expressed in a yellow color.
  • shapes corresponding to sleep stage information may be shapes expressed discretely.
  • shapes are expressed discretely according to an embodiment of the present invention, unlike the prior art, there may be cases where shapes corresponding to different sleep stages share only one intersection with each other.
  • the fact that shapes are expressed discretely means that they each include a plurality of shapes corresponding to a plurality of sleep stages, and at least one of the plurality of shapes is separated from the remaining shapes. It may include the meaning of being (isolated).
  • a graphical user interface that displays information about the user's sleep can be provided.
  • Figures 30A to 30C are diagrams illustrating a graphical user interface displayed on various display units according to embodiments of the present invention.
  • a graphic user interface representing information about the user's sleep may be displayed on an electronic device or user terminal implemented with various types of displays.
  • each figure is displayed to be connected to each other by lines such as dotted or solid lines between the figures. There was a case.
  • the transition from the first sleep stage to the second sleep stage is performed. This has the effect of reducing the misunderstanding that one must go through different sleep stages in the process.
  • the light sleep (normal sleep) stage is switched to the waking stage and then switched back to the light sleep (normal sleep) stage.
  • transition or change of sleep stages is expressed as a 'continuous' hypnogram graph, it may lead to the misunderstanding that the REM sleep stage must be passed when the sleep stage is switched, but according to the present invention, a 'discrete' hypnogram graph is used. If expressed as , such misunderstandings can be reduced.
  • each sleep stage information when the shape corresponding to each sleep stage information is expressed discretely in the hypnogram, the frequency of each sleep stage is clearly expressed, so the frequency of the sleep stage belonging to a specific section can be directly confirmed, and the relative frequency of each sleep stage can be checked. It can be easy to understand the proportion. This can help identify features or abnormalities in your sleep pattern.
  • the shape corresponding to the sleep stage information may be expressed as at least one shape selected from the group consisting of a trapezoid, an equilateral trapezoid, a kite, a parallelogram, a rhombus, a rectangle, a square, and other general quadrangles. Preferably, it can be expressed as a rectangle.
  • a plurality of sleep stage information may be expressed as a plurality of rectangles. At this time, at least one of the plurality of rectangles may be isolated from the remaining rectangles, such as the rectangle indicated by reference number 25110 in FIG. 25A. In the embodiment shown in FIG. 25A, a rectangle 25110 corresponding to the waking stage of sleep stage information is separated from the remaining rectangles.
  • the rectangle representing the awakening stage can be displayed separately from the rectangles representing other sleep stages.
  • the sleep stage can be displayed separately from the rectangles representing the other sleep stages. It has the advantage of being able to analyze sleep by clearly distinguishing the occurrence of the waking phase. According to the interface of the prior art, when information on the waking stage during sleep is frequently acquired, each sleep stage and the waking stage during sleep are connected with a line (solid line or dotted line), so there is a risk that the hypnogram may be expressed relatively unclearly. , there were concerns that the occurrence of the awakening stage could not be clearly distinguished.
  • areas allocated to the waking stage, REM sleep stage, light sleep stage, and deep sleep stage may be displayed in order from top to bottom (reference numbers 25102 to 25105).
  • the interface according to embodiments of the present invention when at least one of the shapes corresponding to a plurality of sleep stages is isolated from the remaining shapes, the area allocated to the different sleep stages contains the shape. By preventing this from existing, there is an effect of being able to clearly understand what sleep stage occurred at that point in time.
  • shapes corresponding to a plurality of sleep stages are expressed as shapes of the same shape (e.g., rectangles), and at least one of them is separated from the remaining shapes. It can be (isolated).
  • this embodiment there is an effect of making it possible to clearly understand which sleep stage occurred at that point in time by ensuring that there are no shapes in areas allocated to different sleep stages expressed by shapes of the same shape.
  • the shape corresponding to at least one sleep stage may have the same shape as the shape corresponding to the other sleep stage.
  • a figure corresponding to at least one sleep stage may be displayed separately from other figures corresponding to the same sleep stage. Additionally, shapes corresponding to at least one sleep stage may be displayed separately from shapes corresponding to other sleep stages.
  • the figure corresponding to the sleep stage is displayed only in the area reference number 25102 and is assigned to the remaining sleep stages. Since the area (reference numbers 25103 to 25105) is not displayed, the user can clearly understand which sleep stage (specifically, the awakening stage) occurred at that time just by looking at the hypnogram graph according to the present invention.
  • a word indicating a light sleep stage when a word indicating a light sleep stage is displayed in Korean, it may be displayed as 'light sleep' or 'normal sleep'. Users who do not have expert knowledge about sleep stages may misunderstand that they did not sleep properly during the sleep period due to the word 'light sleep'. In contrast, if the word 'normal sleep' is displayed, this misunderstanding may occur. There is a possibility of reducing (reference number 25104).
  • shapes corresponding to each sleep stage can be displayed only in a plurality of areas allocated to each sleep stage information (reference numbers 25102 to 25105).
  • the sleep stage information during the sleep period can be clearly distinguished and expressed, allowing the user to distinguish the sleep stage information during the sleep period and accurately understand the graph of the sleep stage information.
  • the line representing the boundary may be straight or curved.
  • lines representing the boundaries of a plurality of areas allocated to each piece of sleep stage information may be displayed in different colors or brightness. Specifically, the color of the border dividing the waking stage area from the remaining sleep stage area may be displayed relatively brightly.
  • a plurality of areas allocated to each piece of sleep stage information may have a height allocated to each.
  • the heights assigned to a plurality of areas assigned to each piece of sleep stage information may be the same or different. Specifically, the height allocated to the area allocated to the awakening stage information may be different from the height allocated to other areas (see reference number 25102).
  • a pitch may be assigned between a plurality of areas assigned to each piece of sleep stage information.
  • the figure corresponding to each piece of sleep stage information may be expressed discretely based on the pitch allocated between a plurality of areas allocated to each piece of sleep stage information. Through this discrete expression, the user can distinguish the sleep stage information during the sleep period and accurately understand the graph of the sleep stage information.
  • At least one of the elevation time and the waking up time may be displayed together in the hypnogram.
  • at least one of the elevation time and the wake-up time may be displayed as time information on the x-axis (reference numbers 25106 and 25107).
  • the time interval from the elevation time to the wake-up time can be easily determined just by looking at the hypnogram.
  • at least one of the time of rising and the time of waking up when at least one of the time of rising and the time of waking up is displayed as time information on the x-axis, it may be displayed connected to the shape and line corresponding to each sleep stage information.
  • a line connecting at least one piece of information among the time of elevation and the time of waking up with a figure corresponding to the sleep stage information may be displayed as a solid line, a dotted line, a straight line, or a curved line.
  • comment information based on sleep stage information or sleep state information may be displayed together with a hypnogram graph indicating the sleep stage ( Reference number 25109).
  • Figure 25d is a diagram showing a graphical user interface including a hypnogram according to another embodiment of the present invention.
  • the hypnogram graph can be generated in real time during the sleep period.
  • sleep information including the user's sleep sound is acquired in real time, and the acquired sleep sound information can be immediately converted into a spectrogram.
  • Sleep stages can be analyzed immediately by using the converted spectrogram as input to the sleep analysis model. Accordingly, a hypnogram graph representing sleep stage information can be generated in real time simultaneously with the analysis of sleep stages.
  • Figure 25b is a graph showing the time ratio of each sleep stage measured according to an embodiment of the present invention.
  • a graphical user interface that includes a graph displaying the time ratio of each sleep stage according to an embodiment of the present invention
  • the phrase “My sleep at a glance” may be displayed together, as indicated by reference number 25201.
  • the time ratio of each sleep stage according to the present invention can be calculated as the ratio of the time corresponding to each sleep stage to the total sleep period.
  • the total sleep time can be calculated as the time from the time of falling asleep to the time of waking up.
  • the time corresponding to each sleep stage can be calculated based on the sleep stage inferred by the artificial intelligence model according to an embodiment of the present invention.
  • the total sleep time from the time of waking up to the time of waking up is 7 hours and 22 minutes, and the period inferred as the general sleep (light sleep) stage is 4 hours and 34 minutes, the REM sleep stage.
  • the inferred period is 1 hour and 37 minutes
  • the inferred period in the deep sleep stage is 58 minutes
  • the inferred period in the waking stage is 13 minutes
  • the time corresponding to each period is divided by the total sleep time, and the percentile value is calculated.
  • the percentage of sleep stages may be displayed.
  • the specific time values described above are merely examples, and the present invention is not limited thereto.
  • time information corresponding to each sleep stage and the ratio of each sleep stage may be displayed side by side in parallel on the left and right (reference number 202). Additionally, as shown in reference numbers 25204 to 25207 of FIG. 25B, the time ratio corresponding to each sleep stage can be visually displayed using a predetermined shape.
  • the color of the figure corresponding to each sleep stage may be displayed the same as the color of the figure corresponding to the sleep stage information shown in the hypnogram of FIG. 25A.
  • the figures corresponding to each sleep stage are displayed in the order of the highest time ratio corresponding to each sleep stage.
  • the order of displayed sleep stages may be changed.
  • the deep sleep stage may be displayed first, and the waking stage may be displayed last.
  • the waking stage may be configured to be displayed first, and the deep sleep stage may be displayed last.
  • the REM sleep stage may be configured to be displayed first, or the normal sleep stage may be configured to be displayed first. This order may be selected directly by the user, or may be automatically configured by an algorithm. The above-described sequence is merely an example, and the present invention is not limited thereto.
  • Figure 25c is a diagram showing a respiratory stability graph according to an embodiment of the present invention.
  • a graphical user interface including a respiratory stability graph according to an embodiment of the present invention, the phrase “respiratory stability” may be displayed together, as indicated by reference number 25301.
  • sleep disorders eg, sleep apnea
  • their underlying causes eg, snoring
  • the stability of breathing can be determined based on criteria such as breathing cycle, breathing frequency change, and breathing pattern.
  • your breathing pattern is irregular or changes suddenly during the sleep period, your breathing may be judged to be unstable.
  • the breathing frequency fluctuates significantly or shows irregular changes during the sleep period, breathing may be judged to be unstable.
  • the breathing stability during the relevant period can be expressed as 'respiratory instability' (reference number 25303). Additionally, the respiratory stability in the section that does not correspond to 'respiratory instability' can be expressed as 'respiratory stability' (reference number 25302).
  • respiratory stability can be graphed over time.
  • the phrase “unstable” may also be displayed (reference number 25306).
  • AHI apnea-hypopnea index
  • the AHI level can be determined through sleep analysis using an artificial intelligence model, and the rate of respiratory stability can be calculated and displayed on the interface based on the determined AHI level (reference numbers 25304 and 25305). .
  • the color of the figure corresponding to the point in time when it is determined that breathing is unstable may be displayed brighter. This display has the advantage of being able to better identify the occurrence of problematic events from the viewpoint of respiratory stability.
  • a hypnogram graph representing sleep stage information and a graph representing breathing stability may be displayed together in parallel up and down on the same time axis. When displayed in this way, the user can see at a glance what the breathing stability was at which sleep stage, which can be effective in analyzing sleep.
  • a breathing instability event occurs during the REM sleep stage, it can be interpreted as more serious. If the hypnogram graph representing sleep stage information and the graph representing breathing stability are displayed together in parallel up and down on the same time axis as shown above, Since the occurrence of such an event can be easily identified at a glance, it can be easy to interpret and/or judge sleep information.
  • Figure 25e is a diagram showing a graphical user interface including an explanatory display for respiratory instability according to an embodiment of the present invention.
  • the phrase “What is respiratory instability?” may be displayed together, as indicated by reference number 25401.
  • a graphical user interface may display a description of respiratory instability (reference number 25402). Additionally, when the user clicks on the part assigned to the predetermined area indicated by reference number 25403, the user may be connected to an external website explaining respiratory instability or a screen displaying information accompanying a more detailed explanation.
  • the graphical user interface located in the background may be displayed relatively darkly (see No. 25404).
  • 26A and 26B are diagrams illustrating a graphical user interface including statistical information of sleep state information according to embodiments of the present invention.
  • the phrase “sleep statistics” may be displayed together, as indicated by reference number 26501.
  • daily sleep time can be expressed as a bar graph. Specifically, the date on which sleep state information was acquired may be displayed on the x-axis (reference number 26503), and the sleep time value may be displayed on the y-axis (reference number 26504).
  • the sleep time calculated based on sleep state information acquired on the day corresponding to the date on the x-axis can be displayed in the form of a bar graph (reference number 26502).
  • day of the week information on the day the corresponding sleep state information was acquired may be displayed in the upper part of the bar graph (reference number 26505).
  • information indicating the average of actual remaining time may be displayed at the bottom of the bar graph (reference numbers 26506 to 26508). Specifically, at least one of the average of sleep times obtained over a predetermined period of time, the average of sleep times measured during weekdays, or the average of sleep times measured during weekends may be displayed together.
  • the average of sleep times obtained over a predetermined period of time, the average of sleep times measured during weekdays, or the average of sleep times measured during weekends may all be displayed together.
  • the sleep time indicated by reference number 26509 is used.
  • a graphical user interface may be provided that displays average values separated by lines.
  • the line for distinction may be a dotted line or a solid line, and may be expressed as a curved line or a straight line.
  • the graphical user interface is as shown at reference number 26508 in FIG. 26A. can be displayed together. Additionally, in this case, bar graphs corresponding to the 11th (Saturday) and 12th (Sunday) of FIG. 26A may not be formed.
  • the specific description of the above-mentioned day and date is merely an example and is not limited thereto. For example, if sleep analysis is not performed on the 9th (Thursday), a bar graph corresponding to the 9th (Thursday) will not be formed. It may not be possible.
  • average information on sleep time acquired over a predetermined period may be displayed along with a bar graph.
  • the average sleep time acquired during a predetermined period is 6 hours and 26 minutes
  • the average sleep time is displayed in a shape such as a line (e.g., dotted line) at the position corresponding to 6 hours and 26 minutes on the y-axis of the bar graph. It can be (reference number 26510).
  • the average of sleep time acquired during a predetermined period is 6 hours and 4 minutes
  • the average sleep time is represented by a line, etc., at a position corresponding to 6 hours and 4 minutes on the y-axis of the bar graph. can be displayed.
  • a graphical user interface containing statistical information of sleep state information includes the phrase 'sleep statistics' as indicated by reference number 26511 and information on the period during which the corresponding sleep state information was acquired (e.g., “ Period information “2022.6.6 ⁇ 6.12” may be displayed together.
  • a graphical user interface containing statistical information of sleep state information includes a brief description of the corresponding graph (e.g., “I slept this much this week”) as indicated by reference number 26511. An explanation (or, “The more consistent the height of the water bar, the better”) may be displayed together.
  • the specific figures for the above-described average sleep time and brief explanatory text on the graph are merely examples, and the present invention is not limited thereto.
  • Figures 27a and 27b are diagrams illustrating a graphical user interface including sleep state information acquired over a week according to embodiments of the present invention.
  • sleep state information obtained for a week can be expressed as a bar graph where the x-axis is the day of the week (reference number 27601) and the y-axis is time information. .
  • time information on the y-axis may be expressed in 2-hour units (reference number 27602).
  • lines (solid or dotted lines) corresponding to each time on the y-axis can also be displayed (reference number 27603).
  • the entire bar graph may be expressed in a single color (reference number 27604).
  • the bar graph may be displayed with sections corresponding to the sleep stages of REM sleep, deep sleep, light sleep, and awakening stages (reference number 27605). to 27608). Specifically, if the colors of the shapes corresponding to each sleep stage information in the hypnogram graph are expressed differently, the color of the shapes corresponding to each sleep stage information in the bar graph for that date is displayed as the ratio of the corresponding sleep stage. It can be.
  • the part corresponding to the awakening stage is placed at the top of the bar graph (reference number 27608), and the part corresponding to deep sleep is placed at the top of the bar graph (reference number 27608).
  • the section may be placed at the bottom of the bar graph (reference number 27605).
  • the portion corresponding to a sleep stage with a high time ratio may be placed lower in the bar graph, and the portion corresponding to a sleep stage with a lower time ratio may be placed higher in the bar graph.
  • this arrangement order is merely an example and the present invention is not limited thereto.
  • the part corresponding to the deep sleep stage, the part corresponding to the light sleep stage, the part corresponding to the REM sleep stage, and the part corresponding to the awakening stage may be arranged in that order.
  • FIGS. 28A and 28B are diagrams illustrating a graphical user interface including sleep state information acquired over a predetermined period of time according to embodiments of the present invention.
  • the sleep state information obtained for a week is expressed as a bar graph where the x-axis is the date (reference numbers 28701a and 28701b) and the y-axis is time information. You can.
  • the elevation time included in the obtained sleep state information A bar graph can be displayed based on information and weather timing information. For example, if it is determined that the person went to bed after the evening of the 12th and woke up after the early morning of the 13th, it may be expressed in the shape of the leftmost bar graph shown in FIG. 28A. At this time, as shown in FIGS. 28A and 28B, both ends of the bar graph of sleep state information acquired during a predetermined period may correspond to the elevation time and the wake-up time, respectively.
  • time information on the y-axis may be expressed in time units, but may also be expressed in the words noon, dawn, midnight, evening, and noon, as shown in FIGS. 28A and 28B (reference number 28702). Additionally, lines (solid or dotted lines) corresponding to each time on the y-axis can also be displayed (reference number 28703).
  • the line corresponding to midnight time is relatively thicker than the lines corresponding to other times. They can be distinguished by being marked with a bright line.
  • the entire bar graph may be expressed in a single color (reference number 28704).
  • the bar graph may display separate parts corresponding to the sleep stages of REM sleep, deep sleep, light sleep, and waking stages. Specifically, if the colors of the shapes corresponding to each sleep stage information in the hypnogram graph are expressed differently, the color of the shapes corresponding to each sleep stage information in the bar graph for that date is displayed as the ratio of the corresponding sleep stage. It can be.
  • each sleep stage The corresponding part may be arranged in the order of time when the corresponding sleep stage was detected.
  • Figure 29 is a flowchart of a method for creating and providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
  • a method of generating one or more graphical user interfaces representing information about sleep includes acquiring sleep information (S29120), sleep information acquired in the time domain It may include converting to information on the frequency domain (S29140), generating a graphical user interface (S29160), and providing a graphical user interface (S29180).
  • the sleep information acquired in the step of acquiring sleep information may include environmental sensing information or sleep sound information.
  • the method of generating one or more graphical user interfaces representing information about sleep may further include a sleep log storage step of storing sleep log information related to the account assigned to the user in a memory. there is.
  • the step of converting environmental sensing information obtained in the time domain into information in the frequency domain includes performing preprocessing on raw acoustic information in the time domain or information in the frequency domain. may include.
  • the step of converting environmental sensing information obtained in the time domain into information in the frequency domain may include converting acoustic information into spectrogram information in the frequency domain.
  • the step of applying Mel scale to the spectrogram and converting it into Mel spectrogram may be further included.
  • the step of generating a graphical user interface may include a hypnogram graph generating step of generating a graph of the sleep stage within the user's sleep period based on sleep information.
  • sleep information that is the basis for generating a hypnogram graph may be obtained by converting sleep information obtained in the time domain into information in the frequency domain.
  • the information in the frequency domain may be a spectrogram or a Mel spectrogram to which a Mel scale is applied.
  • the step of generating a graphical user interface (S29160) may include generating a graph about sleep stability within the user's sleep period based on sleep information.
  • the user in a method for starting sleep measurement through the user device 10, the user can set the user's desired sleep time in advance. For example, if the user's desired sleep time is set to 10 PM, the sleep measurement start trigger, which will be described below, may be set to be activated.
  • the user device 10 operates in a mode in which the output of information indicating the occurrence of events related to applications operating on the user device 10 is restricted (e.g., sleep mode, sleep mode, falling asleep mode, etc.). If set, a sensing step of sensing a sleep measurement start trigger to start sleep measurement only after setting the sleep mode; and a start step of starting sleep measurement at the time the trigger is sensed.
  • a sensing step of sensing a sleep measurement start trigger to start sleep measurement only after setting the sleep mode; and a start step of starting sleep measurement at the time the trigger is sensed.
  • the user device 10 when the user's desired sleep time is set, the user device 10 may be set to operate in a sleep mode, etc. after the set user's desired sleep time, and in this case, the user's desired sleep time Setting may mean setting the time at which the user device 10 starts operating in sleep mode, etc.
  • sleep measurement is not only started when each sleep measurement start trigger is sensed independently, but also when trigger sensing operations according to two or more embodiments are sensed together. Only then can it be recognized as the trigger sensing point for sleep measurement.
  • Figure 32 is a diagram showing that when a finger swipe input is sensed on the display unit of a user device, which is an embodiment of the present invention, the time of sensing the finger swipe is recognized as the sensing time of the sleep measurement start trigger.
  • a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
  • the user device 10 may sense a swipe in the first swipe input direction 32110 as a sleep measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time when the sleep measurement start trigger is sensed. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 34(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
  • the user device 10 may sense the swipe in the second swipe input direction 32120 as a sleep measurement start trigger.
  • the user can set a specific direction for sensing a swipe as a sleep measurement start trigger among the first swipe input direction (32110) and the second swipe input direction (32120), and a preset sleep measurement start trigger. If the specific direction for sensing is the second swipe input direction 32120, sleep measurement may be started accordingly.
  • Figure 33 is a diagram showing that when a palm swipe input is sensed on the display unit of a user device, which is an embodiment of the present invention, the time of sensing the palm swipe is recognized as the sensing time of the sleep measurement start trigger.
  • a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
  • the user device display unit 32100' of the user device 10 is displayed in the first swipe input direction 33110.
  • the user device 10 may sense the swipe in the first swipe input direction 33110 as a sleep measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in Figure 34(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
  • the display unit of the user device 10 is held with the palm in the second swipe input direction 33120.
  • the user device 10 may sense the swipe in the second swipe input direction 33120 as a sleep measurement start trigger.
  • the user can set a specific direction for sensing a swipe as a sleep measurement start trigger among the first swipe input direction (33110) and the second swipe input direction (33120), and a preset sleep measurement start trigger. If the specific direction for sensing is the second swipe input direction 33120, sleep measurement may be started accordingly.
  • the user touches the display unit of the user device 10 with the palm in the first swipe input direction 33110.
  • the user device 10 may sense a swipe in the second swipe input direction 33120 as a sleep measurement interruption trigger to stop sleep measurement, Sleep measurement can be stopped when the sleep measurement interruption trigger is sensed.
  • the display unit of the user device 10 is held with the palm in the second swipe input direction 33120.
  • the user device 10 may sense a swipe in the first swipe input direction 33110 as a sleep measurement interruption trigger to stop sleep measurement, Sleep measurement can be stopped when the sleep measurement interruption trigger is sensed.
  • Figure 34 is a diagram showing that when the user device, which is an embodiment of the present invention, senses the start of wired charging, it recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger.
  • a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
  • sleep measurement is not started on the user device display unit 32100', indicating that sleep measurement is in progress.
  • the displayed user interface 32100" may not appear on the user device display unit 32100' of the user device 10.
  • the user device 10 when the user device 10 is connected to the user device charger 34300, the user device 10 is connected to the user device charger 34300.
  • the time point can be sensed as a sleep measurement start trigger, and the time when the user device 10 is connected to the user device charger 34300 can be recognized as the sleep measurement start time point to start sleep measurement. Accordingly, sleep measurement may be initiated on the user device display unit 32100', and a user interface 32100" indicating that sleep measurement is in progress may appear on the user device display unit 32100' of the user device 10.
  • the user device 10 when the user device 10 is connected to the user device charger 34300 after the user's desired sleep time, the user device 10 is connected to the user device charger (34300).
  • 34300) can be sensed as a sleep measurement start trigger, and the user device 10 can recognize the time connected to the user device charger 34300 as the sleep measurement start time to start sleep measurement.
  • the time range set by the user may be a range in which the user usually sets the time to sleep. For example, if the time when the user mainly falls asleep is after 10 p.m., after 10 p.m.
  • the user device 10 may sense the time when the user device 10 is connected to the user device charger 34300 as a sleep measurement start trigger, The time when the user device 10 is connected to the user device charger 34300 may be recognized as the start time of sleep measurement and the sleep measurement may be started.
  • the user device 10 when the user device 10 is connected to the user device charger 34300 after the user's desired sleep time, the user device 10 is connected to the user device charger (34300).
  • 34300 can be sensed as a sleep measurement start trigger, and after the user device 10 recognizes the time connected to the user device charger 34300 as the sleep measurement start time and starts sleep measurement, the user If the connection between the device 10 and the user device charger 34300 is disconnected, sleep measurement may be interrupted, and in this case, the user interface 32100" indicating that sleep measurement is being displayed is displayed on the user device 10. It may not appear in section 32100'.
  • Figure 35 is a diagram showing that when a user device, which is an embodiment of the present invention, senses the start of wireless charging, it recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger.
  • a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
  • sleep measurement is not initiated on the user device display unit 32100', so sleep measurement is in progress.
  • the user interface 32100" indicating may not appear on the user device display unit 32100' of the user device 10.
  • the user device 10 when the user device 10 is in contact with the user device wireless charging pad 35400, the user device 10 is connected to the user device wireless charging pad 35400.
  • the point of contact with (35400) can be sensed as a sleep measurement start trigger, and the user device 10 can recognize the point of contact with the user device wireless charging pad 35400 as the sleep measurement start point to start sleep measurement.
  • sleep measurement may be initiated on the user device display unit 32100', and a user interface 32100" indicating that sleep measurement is in progress may appear on the user device display unit 32100' of the user device 10.
  • the user device 10 when the user device 10 comes into contact with the user device wireless charging pad 35400 after the user's desired sleep time, the user device 10
  • the time of contact with the device wireless charging pad 35400 can be sensed as a sleep measurement start trigger, and the time when the user device 10 touches the user device wireless charging pad 35400 is recognized as the sleep measurement start time to measure sleep. can be initiated.
  • the time range set by the user may be a range in which the user usually sets the time to sleep. For example, if the time when the user mainly falls asleep is after 10 p.m., after 10 p.m.
  • the user device 10 When the user device 10 is in contact with the user device wireless charging pad 35400, the user device 10 triggers the start of sleep measurement at the time when the user device 10 is in contact with the user device wireless charging pad 35400.
  • the sleep measurement can be started by recognizing the time when the user device 10 touches the user device wireless charging pad 35400 as the sleep measurement start time.
  • the user device 10 when the user device 10 is in contact with the user device wireless charging pad 35400 within the time range set by the user, the user device 10 The time when the user device touches the wireless charging pad 35400 can be sensed as a sleep measurement start trigger, and the time when the user device 10 touches the user device wireless charging pad 35400 is recognized as the sleep measurement start time. After starting sleep measurement, if the user releases contact between the user device 10 and the user device wireless charging pad 35400, sleep measurement may be stopped, and in this case, a user interface indicating that sleep measurement is in progress ( 32100") may not appear on the user device display unit 32100' of the user device 10.
  • Figure 36 is a diagram showing that when exercise or movement is sensed by a user device, which is an embodiment of the present invention, the time at which the exercise or movement is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
  • the user device 10 can sense the user's exercise or movement.
  • the accelerometer sensor of the user device 10 may detect the user's exercise or movement.
  • a gyro sensor may detect the user's exercise or movement.
  • the gyro sensor may detect the user's exercise or movement.
  • the sensor can measure angular velocity, unlike an accelerometer that measures acceleration.
  • the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects the user's exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 36(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
  • the user device 10 recognizes the time when the accelerometer sensor of the user device 10 detects the user's exercise or movement as the time when the sleep measurement start trigger is sensed, and sleep measurement may be initiated, and at this time, when the user's hand 32200 shakes the user device 10 that is measuring sleep once more, the user device 10 shakes the user device 10 that is measuring sleep once more to detect sleep. It can be sensed as a sleep measurement interruption trigger to stop measurement, and sleep measurement can be stopped at the point when the sleep measurement interruption trigger is sensed.
  • the user device 10 when the user device 10 is shaken while the user's hand 32200 is holding the user device 10 within a time range set by the user, the user device ( 10) can sense the user's exercise or movement. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement. For example, if the time range is set to after 10 PM, when the user usually goes to sleep, after 10 PM, while the user's hand 32200 is holding the user device 10, the user When the device 10 is shaken, the user device 10 may sense the user's exercise or movement. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement.
  • the user device 10 when the user device 10 is shaken while the user's hand 32200 is holding the user device 10 within a time range set by the user, the user device ( 10) can sense the user's exercise or movement. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects the user's exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement. In this case, when the user's hand 32200 shakes the user device 10 that is measuring sleep once more, the user device 10 shakes the user device 10 that is measuring sleep once more to stop sleep measurement. It can be sensed with a measurement stop trigger, and sleep measurement can be stopped at the point when the sleep measurement stop trigger is sensed.
  • the user device 10 may sense the user's exercise or movement. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects the user's exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement. In this case, when the user's hand 32200 shakes the user device 10 that is measuring sleep once more, the user device 10 shakes the user device 10 that is measuring sleep once more to stop sleep measurement. It can be sensed with a measurement stop trigger, and sleep measurement can be stopped at the point when the sleep measurement stop trigger is sensed.
  • the above-described movement or specific pattern of movement eg, shaking
  • the present invention is not limited thereto.
  • Figure 37 is a diagram showing that when a user's voice is sensed by a user device, which is an embodiment of the present invention, the time when the user's voice is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
  • sleep measurement may be started at the time when the voice is sensed.
  • the user sleep measurement start trigger voice 37210 may be when the user device 10 senses a level higher than a predetermined decibel, and the user sleep measurement start trigger voice 37210 may be within the time range set by the user. This may be the case where the user device 10 senses a level higher than a predetermined decibel, and the user device 10 may recognize the meaning of the user sleep measurement start trigger voice 37210.
  • the external server 20 starts the user sleep measurement received from the user device 10.
  • the speech data analysis module may include at least one of an automatic speech recognition (ASR) module or a natural language understanding (NLU) module.
  • ASR automatic speech recognition
  • NLU natural language understanding
  • the user device 10 recognizes the meaning of the user sleep measurement start trigger voice 37210 and , Sleep measurement can be started at the point when the user's sleep measurement start trigger voice (37210) is sensed.
  • the user sleep measurement initiation trigger voice 37210 may be a voice indicating the user's intention to sleep, such as “I'm sleepy,” “I'm going to sleep,” “I'm going to sleep now,” “I'm going to sleep,” etc. there is.
  • Figure 38 is a diagram illustrating that when another device connected to the user device through a network senses sleep measurement start trigger information, which is an embodiment of the present invention, the sensing time is recognized as the sensing time of the sleep measurement start trigger.
  • the method for starting sleep measurement through the user device 10 is that another device (38220) connected to the user device through a network (38230) senses sleep measurement start trigger information, and the other device senses sleep measurement start trigger information.
  • the trigger for starting sleep measurement through the user device 10 may be physical contact between another device 38220 and the user's body.
  • the user device 10 may be connected to the other device 38220.
  • the user's body can be sensed through the network (38230), and sleep measurement can be started at the sensed time.
  • the other device 38220 may be a “smart watch” type device configured to be worn by the user on the body, and when the user wears it on the body and physical contact occurs, the user device 10 can sense the point in time when there is physical contact between another device 38220 and the user's body and start measuring sleep at the sensed point in time.
  • Other devices (38220) of the present invention include smart watches, smart rings, Oura rings, Bluetooth earphones, smart bands, smart glasses, wearable computers, smart home appliances, electronic devices for adjusting the user's sleep environment, etc. , but is not limited to this.
  • sleep measurement when a sleep measurement start trigger occurs within a time range set by the user, sleep measurement may be started. For example, if the time set by the user is 10 p.m., and there is physical contact between the other device 38220 and the user's body after 10 p.m., the user device 10 contacts the other device 38220. The point at which there is physical contact between the user's bodies can be sensed through the network 38230, and sleep measurement can be started at the sensed point in time.
  • the other device 38220 may be a “smart watch” type device configured to be worn by the user on the body, and may be worn on the user’s body after 10 p.m., a time set by the user, to physically watch the device.
  • the user device 10 may sense the point in time when there is physical contact between the other device 38220 and the user's body and start measuring sleep at the sensed point in time.
  • a method for starting sleep measurement through the user device 10 includes another device 38220 connected to the user device through a network 38230 sensing sleep measurement start trigger information, When the other device transmits the sleep measurement start trigger information sensed, a receiving step of receiving the transmitted sleep measurement start trigger information; and a starting step of starting sleep measurement at a time when the trigger information is sensed based on the received sleep measurement start trigger information.
  • the sleep measurement start trigger is a physical contact between the other device 38220 and the user device 10
  • the start step is when physical contact between the other device and the user device is sensed. It may include initiating sleep measurement.
  • a sleep measurement start trigger when a user wears a “smart watch” included in another device 38220 and then touches the other device 38220 currently being worn on the user device 10, the user device 10 The point at which the user device 10 and another device 38220 come into physical contact can be sensed as a sleep measurement start trigger.
  • the user wears the “smart watch” included in the other device 38220 and then displays the currently worn watch on the user device 10.
  • the user device 10 may sense the point at which the user device 10 and the other device 38220 physically contact as a sleep measurement start trigger.
  • the sleep measurement start trigger may be a user sleep measurement start trigger voice 37210 input to another device 38220, and the start step may be a user sleep measurement start trigger voice 37210 input to another device 38220.
  • the user device 10 determines the meaning of the user sleep measurement start trigger voice 37210 by another device 38220.
  • sleep measurement can be started at the point when the user's sleep measurement start trigger voice (37210) is sensed.
  • the other device 38220 recognizes the meaning of the user sleep measurement start trigger voice 37210 and , when the time at which the user sleep measurement start trigger voice 37210 is sensed is transmitted to the user device 10 through the network 38230, the user device 10 responds to the user sleep measurement start trigger voice 37210 by another device 38220.
  • sleep measurement can be started at the time when the user's sleep measurement start trigger voice (37210) is sensed.
  • the user sleep measurement initiation trigger voice 37210 may be a voice indicating the user's intention to sleep, such as “I'm sleepy,” “I'm going to sleep,” “I'm going to sleep now,” “I'm going to sleep,” etc. there is.
  • the sleep measurement start trigger may be a signal that another device (38220) has started charging after the user's desired sleep time
  • the initiating step may include initiating sleep measurement at the time when the other device 38220 starts charging.
  • the user device 10 receives the time when the other device 38220 is connected to the charger through the network 38230 and sleeps. It can be sensed using a measurement start trigger, and the user device 10 can recognize the time when another device 38220 is connected to the charger as the sleep measurement start time and start sleep measurement.
  • the user's desired sleep time may be a range in which the user usually sets the time to sleep.
  • the user device 10 can sense the time when the other device 38220 is connected to the charger as a sleep measurement start trigger, and the time when the other device 38220 is connected to the charger can be detected as the sleep measurement start trigger. Sleep measurement can be started by recognizing the measurement start time.
  • the accelerometer sensor of the other device 38220 may detect the movement or movement of the other device 38220, and for a specific example, the gyro sensor may detect the movement or movement of the other device 38220. can detect, and in this case, the gyro sensor can measure angular velocity, unlike an accelerometer that measures acceleration. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the other device 38220 detects the exercise or movement of the other device as the time when the sleep measurement start trigger is sensed, and start sleep measurement.
  • the user device 10 detects the other device 38220
  • the exercise or motion detection point can be received through the network 38230 and sensed as a sleep measurement start trigger, and the user device 10 recognizes the exercise or motion detection point of the other device 38220 as the sleep measurement start point.
  • sleep measurement can be started.
  • the user's desired sleep time may be a range in which the user usually sets the time to sleep. For example, if the user's main sleep time is after 10 p.m., the user may sleep after 10 p.m.
  • the user device 10 can sense the time when the exercise or movement of another device 38220 is sensed as a sleep measurement start trigger, and the movement of the other device 38220 can be detected as a sleep measurement start trigger.
  • sleep measurement can be started by recognizing the time when movement is sensed as the sleep measurement start time.
  • the user device 10 when another device 38220 detects exercise or movement of a specific pattern, the user device 10 recognizes the time of detection of exercise or movement of the pattern as the start time of sleep measurement. You can.
  • the user device 10 when shaking is detected in another device 38220, the user device 10 recognizes the time when shaking is detected in the other device 38220 as the time when the sleep measurement start trigger is sensed and starts sleep measurement. can do. In this case, when shaking is detected once more in the other device (38220), the user device 10 senses the shaking in the other device (38220) as a sleep measurement interruption trigger to stop sleep measurement. This can be done, and sleep measurement can be stopped at the point when the sleep measurement interruption trigger is sensed.
  • the above-described movement or specific pattern of movement eg, shaking
  • the present invention is not limited thereto.
  • Figure 39 is a diagram showing that when sleep sound information is sensed by a user device according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
  • the user device 10 may sense the user's sleep sound information.
  • the user device 10 may receive the user's sleep sound information (SS), and the user's sleep sound information (SS) may include environmental sensing information.
  • environmental sensing information may include information acquired in a non-invasive manner during the user's activities or sleep in the work space.
  • environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep.
  • the environmental sensing information may include movement and distance information related to the user's movement during sleep, and breathing information generated based on this.
  • the environmental sensing information may include sleep sound information (SS), and the sleep sound information (SS) may mean sound information related to movement patterns and breathing patterns that occur during the user's sleep.
  • the environmental sensing information may include sleep movement information, and the sleep movement information may mean information related to movement patterns and breathing patterns that occur during the user's sleep.
  • This sleep sound information is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired along with other sounds during the sleep environment, so it has a low signal-to-noise ratio. When acquired through a microphone module such as a bar, detection and analysis can be very difficult.
  • the user device 10 when the user has not yet fallen asleep, the user device 10 does not sense sleep sound information from the user 39240 who is not asleep. Therefore, the user device 10 cannot sense the user's sleep sound information as a sleep measurement start trigger.
  • the user device 10 when the user is not yet asleep, the user device 10 cannot sense sleep sensing data from the user 39240 who is not asleep, so the user device 10
  • the user's sleep sensing data cannot be sensed as a sleep measurement start trigger.
  • the sleep sensing data may include the user's breathing information acquired during a predetermined time period related to the user's sleep environment.
  • the sleep sensitivity data may further include the user's movement information and heart rate information acquired during a predetermined time period in relation to the user's sleep environment. That is, the user device 10 may be configured to include a sensor module for obtaining at least one of breathing information, movement information, and heart rate information from the user in relation to the user's sleeping environment.
  • the user device 10 includes one or more transmitting modules that transmit radio waves of a specific frequency and a receiving module that receives reflected waves generated in response to radio waves of a specific frequency (e.g., microwaves). It may be provided including.
  • the user device 10 can obtain sleep sensing data from the user in a non-contact manner by detecting a phase difference or frequency change according to the moving distance of the reflected wave corresponding to the radio wave transmitted from the transmission module. For example, when radio waves transmitted through a transmission module hit an object and are reflected, the phase difference or frequency may vary. For example, when an object gets closer to the transmission module, the frequency of the reflected wave may become shorter, and as it moves further away, the frequency of the reflected wave may become longer.
  • the user device 10 may acquire sleep sensing information related to the user's breathing by detecting movement of the user's body (eg, abdomen or chest, etc.) based on the phase difference or frequency change state of the reflected wave. For example, when the user sleeps, the user device 10 may be located in an area of the space where the user sleeps.
  • the user device 10 can transmit radio waves with a specific frequency through a transmission module, and receive reflected waves reflected from the user's body in response to the radio waves through a reception module. Additionally, the user device 10 may obtain at least one of the user's breathing information, movement information, and heart rate information based on the phase difference or frequency change of the reflected wave received through the reception module.
  • the user device 10 may be equipped with a transmission module and a reception module to obtain sleep sensing data through RF (Radio Frequency) sensing, but the present disclosure is not limited thereto.
  • the user device 10 of the present disclosure is configured to further include a sensor module for transmitting and detecting WiFi radio waves and a sensor module for detecting airflow related to the user's breathing to perform sleep sensing. Data can be obtained.
  • the user device 10 when the user device 10 senses the sleep sound information of the user 39240' who is asleep, the user device 10 starts measuring the sleep sound information of the user. It can be sensed with a trigger. Accordingly, the user device 00 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in FIG. 39(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
  • the user device 10 when the user device 10 senses the sleep sensing data of the user 39240' who is asleep, the user device 10 detects the sleep sensing data of the user Sensing is possible with a measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in Figure 39(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
  • the user device 10 when the user's desired sleep time is set to 10 p.m., after 10 p.m., the user device 10 senses sleep sound information of the sleeping user 39240'. In this case, the user device 10 may sense sleep sound information of the sleeping user 39240' as a sleep measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time when the sleep measurement start trigger is sensed. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in FIG. 39(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
  • FIG. 40 is a diagram illustrating that when sleep sound information is sensed by a user device in a sleep mode according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • a method for initiating sleep measurement through a user device includes a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start time. It may include a method for starting sleep measurement through a user device.
  • the user device 10 may sense the user's sleep sound information.
  • the user device 10 may receive the user's sleep sound information (SS), and the user's sleep sound information (SS) may include environmental sensing information.
  • environmental sensing information may include information acquired in a non-invasive manner during the user's activities or sleep in the work space.
  • environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep.
  • the environmental sensing information may include movement and distance information related to the user's movement during sleep, and breathing information generated based on this.
  • the environmental sensing information may include sleep sound information (SS), and the sleep sound information (SS) may mean sound information related to movement patterns and breathing patterns that occur during the user's sleep.
  • the environmental sensing information may include sleep movement information, and the sleep movement information may mean information related to movement patterns and breathing patterns that occur during the user's sleep.
  • This sleep sound information is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired along with other sounds during the sleep environment, so it has a low signal-to-noise ratio. When acquired through a microphone module such as a bar, detection and analysis can be very difficult.
  • the user device 10 when the user has not yet fallen asleep, the user device 10 does not sense sleep sound information from the user 39240 who is not asleep. Therefore, the user device 10 cannot sense the user's sleep sound information as a sleep measurement start trigger.
  • the user device 10 when the user is not yet asleep, the user device 10 cannot sense sleep sensing data from the user 39240 who is not asleep, so the user device 10
  • the user's sleep sensing data cannot be sensed as a sleep measurement start trigger.
  • the sleep sensing data may include the user's breathing information acquired during a predetermined time period related to the user's sleep environment.
  • the sleep sensitivity data may further include the user's movement information and heart rate information acquired during a predetermined time period in relation to the user's sleep environment. That is, the user device 10 may be configured to include a sensor module for obtaining at least one of breathing information, movement information, and heart rate information from the user in relation to the user's sleeping environment.
  • the user device 10 includes one or more transmitting modules that transmit radio waves of a specific frequency and a receiving module that receives reflected waves generated in response to radio waves of a specific frequency (e.g., microwaves). It may be provided including.
  • the user device 10 can obtain sleep sensing data from the user in a non-contact manner by detecting a phase difference or frequency change according to the moving distance of the reflected wave corresponding to the radio wave transmitted from the transmission module. For example, when radio waves transmitted through a transmission module hit an object and are reflected, the phase difference or frequency may vary. For example, when an object gets closer to the transmission module, the frequency of the reflected wave may become shorter, and as it moves further away, the frequency of the reflected wave may become longer.
  • the user device 10 may acquire sleep sensing information related to the user's breathing by detecting movement of the user's body (eg, abdomen or chest, etc.) based on the phase difference or frequency change state of the reflected wave. For example, when the user sleeps, the user device 10 may be located in an area of the space where the user sleeps.
  • the user device 10 may acquire sleep sensing information related to the user's breathing by detecting movement of the user's body (eg, abdomen or chest, etc.) based on the phase difference or frequency change state of the reflected wave. For example, when the user sleeps, the user device 10 may be located in an area of the space where the user sleeps.
  • the user device 10 can transmit radio waves with a specific frequency through a transmission module, and receive reflected waves reflected from the user's body in response to the radio waves through a reception module. Additionally, the user device 10 may obtain at least one of the user's breathing information, movement information, and heart rate information based on the phase difference or frequency change of the reflected wave received through the reception module.
  • the user device 10 may be equipped with a transmission module and a reception module to obtain sleep sensing data through RF (Radio Frequency) sensing, but the present disclosure is not limited thereto.
  • the user device 10 of the present disclosure is configured to further include a sensor module for transmitting and detecting WiFi radio waves and a sensor module for detecting airflow related to the user's breathing to perform sleep sensing. Data can be obtained.
  • the user device 10 when the user device 10 senses the sleep sound information of the user 39240' who is asleep, the user device 10 starts measuring the sleep sound information of the user. It can be sensed with a trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in FIG. 39(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
  • the user device 10 when the user device 10 senses the sleep sensing data of the user 39240' who is asleep, the user device 10 detects the sleep sensing data of the user Sensing is possible with a measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 40(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
  • the user device 10 when the user's desired sleep time is set to 10 p.m., after 10 p.m., the user device 10 senses sleep sound information of the sleeping user 39240'. In this case, the user device 10 may sense sleep sound information of the sleeping user 39240' as a sleep measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 40(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
  • FIG. 41 is a diagram illustrating that when sleep sound information is sensed by a user device in a sleep mode according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
  • a method for initiating sleep measurement through a user device includes a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start time. It may include a method for starting sleep measurement through a user device.
  • the user device 10 may sense the user's sleep sound information.
  • the user device 10 may receive the user's sleep sound information (SS), and the user's sleep sound information (SS) may include environmental sensing information.
  • environmental sensing information may include information acquired in a non-invasive manner during the user's activities or sleep in the work space.
  • environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep.
  • the environmental sensing information may include movement and distance information related to the user's movement during sleep, and breathing information generated based on this.
  • the environmental sensing information may include sleep sound information (SS), and the sleep sound information (SS) may mean sound information related to movement patterns and breathing patterns that occur during the user's sleep.
  • the environmental sensing information may include sleep movement information, and the sleep movement information may mean information related to movement patterns and breathing patterns that occur during the user's sleep.
  • This sleep sound information is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired along with other sounds during the sleep environment, so it has a low signal-to-noise ratio. When acquired through a microphone module such as a bar, detection and analysis can be very difficult.
  • the user device 10 when the user has not yet fallen asleep, the user device 10 does not sense sleep sound information from the user 39240 who is not asleep. Therefore, the user device 10 cannot sense the user's sleep sound information as a sleep measurement start trigger.
  • the user device 10 when the user is not yet asleep, the user device 10 cannot sense sleep sensing data from the user 39240 who is not asleep, so the user device 10
  • the user's sleep sensing data cannot be sensed as a sleep measurement start trigger.
  • the sleep sensing data may include the user's breathing information acquired during a predetermined time period related to the user's sleep environment.
  • the sleep sensitivity data may further include the user's movement information and heart rate information acquired during a predetermined time period in relation to the user's sleep environment. That is, the user device 10 may be configured to include a sensor module for obtaining at least one of information among breathing information, movement information, and heart rate information from the user in relation to the user's sleep environment.
  • the user device 10 includes one or more transmitting modules that transmit radio waves of a specific frequency and a receiving module that receives reflected waves generated in response to radio waves of a specific frequency (e.g., microwaves). It may be provided including.
  • the user device 10 can obtain sleep sensing data from the user in a non-contact manner by detecting a phase difference or frequency change according to the moving distance of the reflected wave corresponding to the radio wave transmitted from the transmission module. For example, when radio waves transmitted through a transmission module hit an object and are reflected, the phase difference or frequency may vary. For example, when an object gets closer to the transmission module, the frequency of the reflected wave may become shorter, and as it moves further away, the frequency of the reflected wave may become longer.
  • the user device 10 may acquire sleep sensing information related to the user's breathing by detecting movement of the user's body (eg, abdomen or chest, etc.) based on the phase difference or frequency change state of the reflected wave. For example, when the user sleeps, the user device 10 may be located in an area of the space where the user sleeps.
  • the user device 10 may acquire sleep sensing information related to the user's breathing by detecting movement of the user's body (eg, abdomen or chest, etc.) based on the phase difference or frequency change state of the reflected wave. For example, when the user sleeps, the user device 10 may be located in an area of the space where the user sleeps.
  • the user device 10 can transmit radio waves with a specific frequency through a transmission module, and receive reflected waves reflected from the user's body in response to the radio waves through a reception module. Additionally, the user device 10 may obtain at least one of the user's breathing information, movement information, and heart rate information based on the phase difference or frequency change of the reflected wave received through the reception module.
  • the user device 10 may be equipped with a transmission module and a reception module to obtain sleep sensing data through RF (Radio Frequency) sensing, but the present disclosure is not limited thereto.
  • the user device 10 of the present disclosure is configured to further include a sensor module for transmitting and detecting WiFi radio waves and a sensor module for detecting airflow related to the user's breathing to perform sleep sensing. Data can be obtained.
  • the user device 10 when the user device 10 senses the sleep sound information of the user 39240' who is asleep, the user device 10 starts measuring the sleep sound information of the user. It can be sensed with a trigger. Accordingly, the user device 10 may start sleep measurement at the time when the sleep measurement start trigger is sensed. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 40(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
  • the user device 10 when the user device 10 senses the sleep sensing data of the user 39240' who is asleep, the user device 10 detects the sleep sensing data of the user Sensing is possible with a measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time when the sleep measurement start trigger is sensed. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 41(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
  • FIG. 41 is a diagram illustrating that when unlocking of the locking device of the user device is sensed, which is an embodiment of the present invention, the time when unlocking of the locking device is sensed is recognized as the sensing time of the sleep measurement start trigger. It may be an embodiment that is applicable in the same way as the above-described embodiments.
  • Figure 42 shows that during the sleep mode, which is an embodiment of the present invention, if finger tapping is not sensed by the user device, the time when a predetermined time has elapsed from the time when finger tapping was not sensed is recognized as the sensing time of the sleep measurement start trigger. It is a drawing.
  • a method for initiating sleep measurement through a user device includes a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start point.
  • the start decision information generation step is performed when the user uses the user device for a predetermined period of time during a period in which the output of information indicating the occurrence of an event related to applications operating on the user device is set to a limited mode in the sensing step. If the information indicating use is not sensed, the time at which the predetermined time ends may be determined as the start time of the sleep measurement.
  • the information that the user is using the user device includes the user's movement or movement detected by the user device, a signal that the display of the user device is turned on, the user's voice input to the user device, Alternatively, it may be at least one of the user's tapping detected on the display of the user device.
  • the sleep mode operation user interface S outputs information indicating the occurrence of events related to applications running on the user device 10.
  • the restricted mode may be a user interface that appears on the user device display unit 32100'. For example, if the user wants to go to bed soon, a sleep mode, sleep mode, falling asleep mode, etc. can be set on the user device 10, and such sleep modes, etc. can be set by applications running on the user device 10.
  • the output of information indicating the occurrence of events related to can be restricted.
  • the illuminance of the user device display unit 32100' can be controlled below a predetermined output, and the sound of the user device 10 can be controlled below a predetermined output, and an application that functions as a messenger can be used. Alarms can be blocked, but are not limited to this. In this case, if the user is not asleep during the time when the sleep mode operation user interface (S) appears, the finger tapping (42241) of the user who is not asleep may be detected on the user device display unit (32100'), The user interface 32100" indicating that sleep is being measured may not appear on the user device display unit 32100' of the user device 10.
  • a sleep mode, sleep mode, falling asleep mode, etc. may limit the output of information indicating the occurrence of events related to applications operating on the user device 10.
  • the illuminance of the user device display unit 32100' can be controlled below a predetermined output, and the sound of the user device 10 can be controlled below a predetermined output, and an application that functions as a messenger can be used. Alarms can be blocked, but are not limited to this.
  • the finger (42241') of the sleeping user is not detected on the user device display unit (32100'), so sleep is being measured.
  • a user interface 32100" indicating may appear on the user device display unit 32100' of the user device 10. More specifically, at a predetermined time, for example, the last detected user's finger tapping ( 42241) If the finger tapping 42241 of the user who is not asleep is not detected again within 5 minutes from the time of detection, the user device 10 selects the finger of the user who is not asleep at the last detected time, which is when the predetermined time ends. The time point 5 minutes after the tapping (42241) is detected can be determined as the start time of the sleep measurement.
  • the user who has not fallen asleep within a predetermined time from the time of detecting the last detected finger tapping (42241) of the user who has not fallen asleep Even if the finger tapping 42241 is not detected again, when the user is using the user device 10, such as when a video is being played on the user device display unit 32100', it indicates that sleep is being measured.
  • the user interface 32100" may not appear on the user device display unit 32100' of the user device 10.
  • the finger (42241') of the sleeping user is displayed on the user device display unit (32100'). Since it is not detected, a user interface 32100" indicating that sleep is being measured may appear on the user device display unit 32100' of the user device 10, and at this time, sleep is displayed on the user device display unit 32100'. If the finger tapping (42241) of the user who is not asleep is sensed again, the user device 10 measures sleep at the time when the finger tapping (42241) of the user who is not asleep is sensed again by the user device 10 that is measuring sleep. It is possible to sense a sleep measurement interruption trigger to stop the sleep measurement, and the sleep measurement can be stopped at the point when the sleep measurement interruption trigger is sensed.
  • FIG. 42 an embodiment of a sleep measurement start trigger that is sensed after being set to 'sleep mode, etc.' has been described.
  • this embodiment is not limited to the sleep measurement start trigger being sensed during sleep mode.
  • the sleep measurement start trigger according to the above embodiment is sensed after the time set as the user's desired sleep time, and in the case where the user's desired sleep time and sleep mode are not set, the above-described It may also be assumed that a sleep measurement start trigger is sensed.
  • Figure 43 shows that during the sleep mode, which is an embodiment of the present invention, if the user's exercise or movement is not sensed by the user device, the sleep measurement start trigger is sensed at a predetermined time after the user's exercise or movement is not sensed. This is a diagram showing what is perceived from a viewpoint.
  • a method for initiating sleep measurement through a user device includes a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start point.
  • the start decision information generation step is performed when the user uses the user device for a predetermined period of time during a period in which the output of information indicating the occurrence of an event related to applications operating on the user device is set to a limited mode in the sensing step. If the information indicating use is not sensed, the time at which the predetermined time ends may be determined as the start time of the sleep measurement.
  • the information that the user is using the user device includes the user's movement or movement detected by the user device, a signal that the display of the user device is turned on, the user's voice input to the user device, Alternatively, it may be at least one of the user's tapping detected on the display of the user device.
  • a finger tapping 43241 by a user who is not asleep, or a user who is not asleep uses the user device 10.
  • the accelerometer sensor of the user device 10 may detect the user's exercise or movement, and as a specific example, a gyro sensor may detect the user's exercise or movement, in this case, Unlike an accelerometer, which measures acceleration, a gyro sensor can measure angular velocity.
  • the user device 10 detects the last user's motion.
  • the time at which a predetermined time has elapsed from the time at which exercise or movement is detected is recognized as the time at which the sleep measurement start trigger is sensed, and sleep measurement can be started.
  • the user device 10 may display a user interface 32100' indicating that sleep measurement is being performed on the user device display unit 32100' of the user device 10.
  • a finger tapping 43241 by a user who is not asleep, or a user who is not asleep uses the user device 10.
  • the user device 10 if the user's exercise or movement is not detected while the accelerometer sensor of the user device 10 detects the user's exercise or movement for a predetermined period of time, the last user The point in time at which a predetermined period of time has elapsed from the point in time at which exercise or movement of the body is detected is recognized as the point in time at which the sleep measurement start trigger is sensed, and sleep measurement can be started. At this time, the user device 10 detects the user's sleep during sleep measurement.
  • the user device 10 may sense a sleep measurement interruption trigger to stop sleep measurement at the point when the user's exercise or movement is sensed again by the user device 10 that is measuring sleep. , sleep measurement can be stopped at the point when the sleep measurement interruption trigger is sensed.
  • FIG. 43 an example of a sleep measurement start trigger that is sensed after being set to 'sleep mode, etc.' has been described.
  • this embodiment is not limited to the sleep measurement start trigger being sensed during sleep mode.
  • the sleep measurement start trigger according to the above embodiment is sensed after the time set as the user's desired sleep time, and in the case where the user's desired sleep time and sleep mode are not set, the above-described It may also be assumed that a sleep measurement start trigger is sensed.
  • Figure 44 is a diagram showing that when the display of the user device is turned off during sleep mode, which is an embodiment of the present invention, the point in time when a predetermined time has elapsed from the time the display of the user device is turned off is recognized as the sensing time of the sleep measurement start trigger.
  • the user device display unit 32100' is turned on, and the user device display on screen is displayed.
  • the user interface 32100" indicating that sleep measurement is in progress may not appear on the user device display unit 32100' of the user device 10.
  • the user device display unit 32100' since the user device display unit 32100' is turned off, the user device display off screen 32100'b may appear. In this case, since information indicating that the user is using the user device 10 cannot be sensed for a predetermined period of time, the end of the predetermined period of time may be determined as the start point of the sleep measurement.
  • the user device 10 is not used by the user 39240', who is asleep, so the user device display off screen 32100'b appears for the last time. , If the user device display on screen 32100'a does not appear until 5 minutes have passed, the user device display off screen 32100'b appears last, and the time after 5 minutes is determined as the start time of the sleep measurement. You can.
  • FIG. 44 an embodiment of a sleep measurement start trigger that is sensed after being set to 'sleep mode, etc.' has been described.
  • this embodiment is not limited to the sleep measurement start trigger being sensed during sleep mode.
  • the sleep measurement start trigger according to the above embodiment is sensed after the time set as the user's desired sleep time, and in the case where the user's desired sleep time and sleep mode are not set, the above-described It may also be assumed that a sleep measurement start trigger is sensed.
  • Figure 45 shows the sensing time of the sleep measurement start trigger when a predetermined time has elapsed from the time when the user's voice is not recognized by the user device during the sleep mode, which is an embodiment of the present invention, when the user's voice is not recognized by the user device. This is a drawing showing what is recognized as.
  • Figure 46a is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of the general public and the average elevation delay time of a user, according to an embodiment of the present invention.
  • the graphical user interface representing the comparison of the average elevation delay time of the general public and the average elevation delay time of the user provides a sleep comparison title user interface 46100 and a first information delivery user interface 46200A regarding the elevation delay time. can do.
  • the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand form.
  • the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
  • the first information delivery user interface 46200A about the elevation delay time provides the user with information about the elevation delay time, that is, information about how much the elevation delay time is similar to the average elevation delay time of others. can do.
  • a specific example may be provided in the form of a phrase such as, “Close your eyes and fall asleep within 30 minutes.”
  • it may be provided as a way to give positive feedback about sleep, such as "I fell asleep earlier than the average person! It's great!”, but it is not limited to this.
  • the graphical user interface representing the comparison of the average sleep latency time of the general public and the average sleep latency time of the user includes a sleep latency sleep comparison check button user interface 46310, a deep sleep proportion comparison check button user interface 46320, and REM sleep proportion comparison confirmation button user interface 46330 may be provided in a manner that provides information that one has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310, the deep sleep proportion comparison confirmation button user interface (46320), and the REM sleep ratio comparison confirmation button user interface (46330), but are not limited to other types of comparison confirmation button user interfaces, such as the number of awakenings in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface. may be provided.
  • the sleep delay time sleep comparison confirmation button user interface 46310 may be in a form that provides phrases such as “to fall asleep,” may be in a form that provides phrases such as “time to fall asleep,” and may be in a form that provides phrases such as “time to fall asleep.” It may be in the form of providing a phrase such as “What is the time?”, but is not limited to this.
  • a graphical user interface representing a comparison of the average elevation delay time of the general public and the average elevation delay time of a user may include a user elevation delay time information user interface 46400A and an average elevation delay time information user interface 46410A of the general public.
  • the user's sleep delay time information user interface (46400A) is a bar graph that compares the user's sleep delay time with the average sleep delay time information user interface (46410A) of the general public, based on the sleep data of the date of the report selected by the user. It can be provided with .
  • the bar graph has a length proportional to the data value
  • the length of the bar graph of the user elevation delay time information user interface 46400A and the length of the bar graph of the average person elevation delay time information user interface 46410A By providing a comparison, it is possible to easily provide information about which of the user's elevation delay time and the average person's average elevation delay time is longer.
  • the average elevation delay time information for the general public user interface 46410A may be in a form that provides medically obtained average elevation delay time information for the general public.
  • the general public average elevation delay time information user interface 46410A may be in a form that provides medically recommended average elevation delay time information for the general public.
  • the general public average elevation delay time information user interface 46410A may be in a form that provides statistically obtained general public average elevation delay time information. Additionally, it may be in the form of providing average sleep delay time information for the general public obtained by analyzing other people's sleep state information.
  • the average sleep delay time information for the general public obtained by analyzing other people's sleep status information may be the overall average sleep delay time information statistically obtained through the service, and the information for a specific group among the data statistically obtained through the service may be It may be overall average elevation delay time information, medically recommended elevation delay time information, or average elevation delay time information obtained through the user's own past data, but is not limited to this.
  • the average waking delay time information for the general public obtained by analyzing other people's sleep state information may be information obtained based on the other person's activity record for that day. Specific examples include whether you drank coffee that day, if you drank coffee, how much you consumed, whether you drank alcohol that day, if you drank, how much alcohol you consumed, whether you smoked that day, and if you smoked, how much you smoked. It may be information obtained based on whether or not the information has been used, but is not limited to this.
  • the average waking delay time information for the general public obtained by analyzing other people's sleep state information may be information obtained based on other people's financial data information.
  • information acquired based on another person's financial data information may be information obtained based on another person's assets or information obtained based on another person's salary, but is not limited thereto.
  • the overall average sleep delay time information for a specific group includes the average sleep delay time information for men, the average sleep delay time information for people in their 30s, and the average sleep delay time information for those in their 30s who sleep on weekends. , it may be the average elevation delay time information of people who drank coffee, etc., and it may be a combination of two or more of the above average elevation delay time information, but this is only an example and is not limited thereto.
  • a graphical user interface representing a comparison of the average elevation delay time of the general public and the average elevation delay time of a user may include a user elevation delay time emoticon information user interface 46400A'.
  • the user sleep delay time emoticon information user interface 46400A' may include expressing the evaluation obtained by comparing the received sleep average data of others with the acquired sleep state information of the user as an “emoticon.”
  • the user's elevation delay time information user interface (46400A) when the bar length of the user's elevation delay time information user interface (46400A) is expressed as longer than the bar length of the average person's average elevation delay time information user interface (46410A), the user's elevation The delay time emoticon information user interface 46400A' displays a crying emoticon, so that the user can easily provide information that the sleep quality is worse than the average of the general public in relation to the waking delay time.
  • a graphical user interface representing a comparison between the average elevation delay time of the general public and the average elevation delay time of a user may include a second information delivery user interface 46500A regarding the elevation delay time.
  • the user interface 46500A which conveys second information about sleep latency, may be as follows: “Alcohol consumption may help you fall asleep quickly, but it may prevent you from falling asleep deeply and actually reduce the quality of your sleep.” , may be provided in the form of conveying medical information regarding the delay time of elevation. Also, “Tryptophan in milk helps you sleep well. It may be provided in the form of delivering medical information about sleep, such as “If it takes a long time to fall asleep, should I drink warm milk?”, but is not limited to this.
  • FIG. 46B is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of a user with the average elevation delay time of a specific age group and a specific gender, according to an embodiment of the present invention.
  • a graphical user interface representing a comparison of the user's average sleep latency time with the average sleep latency time of a specific age group and a specific gender is a sleep comparison title user interface 46100 and a user interface conveying first information regarding the sleep latency latency. (46200A) can be provided.
  • the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand form.
  • the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
  • the first information delivery user interface 46200A about the elevation delay time provides the user with information about the elevation delay time, that is, information about how much the elevation delay time is similar to the average elevation delay time of others. can do.
  • a specific example may be provided in the form of a phrase such as, “Close your eyes and fall asleep within 30 minutes.”
  • it may be provided as a way to give positive feedback about sleep, such as "I fell asleep earlier than the average for women in their 50s! It's great!”, but it is not limited to this.
  • a graphical user interface representing a comparison of the user's average sleep latency with the average sleep latency of a specific age group and a specific gender includes a sleep latency sleep comparison check button user interface 46310, and a deep sleep proportion comparison check button for the user.
  • the interface 46320, and the REM sleep proportion comparison check button user interface 46330 may be provided in a manner that provides information that one has been selected, but the hypnagogic delay time sleep comparison check button user interface 46310, the deep sleep proportion confirmation button user interface 46310 It is not limited to the comparison confirmation button user interface 46320, and the REM sleep percentage comparison confirmation button user interface 46330, and is not limited to other types of comparison, such as the number of waking up in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface.
  • An OK button user interface may be provided.
  • the sleep delay time sleep comparison confirmation button user interface 46310 may be in a form that provides phrases such as “to fall asleep,” may be in a form that provides phrases such as “time to fall asleep,” and may be in a form that provides phrases such as “time to fall asleep.” It may be in the form of providing a phrase such as “What is the time?”, but is not limited to this.
  • a graphical user interface representing a comparison of the average elevation delay time of a specific age group and a specific gender with the average elevation delay time of a user includes a user elevation delay time information user interface 46400A and an average elevation delay time of a specific age group and a specific gender. May include a time information user interface 46411A. Specifically, the user's waking delay time information user interface 46400A displays the user's sleeping delay time based on the sleep data of the date of the report selected by the user, and the average sleeping delay time information user interface 46411A for a specific age group and a specific gender. It can be provided with bar graphs for comparison.
  • the bar graph has a length proportional to the data value, the length of the bar graph of the user elevation delay time information user interface 46400A and the average elevation delay time information user interface 46411A for a specific age group and a specific gender
  • the length of the bar graph of the user elevation delay time information user interface 46400A and the average elevation delay time information user interface 46411A for a specific age group and a specific gender
  • the average elevation delay time information user interface 46411A for a specific age group and a specific gender may be in a form that provides medically obtained average elevation delay time information for a specific age group and a specific gender.
  • the average elevation delay time information user interface 46411A for a specific age group and a specific gender may be in a form that provides medically recommended average elevation delay time information for a specific age group and a specific gender.
  • the average elevation delay time information user interface 46411A for a specific age group and a specific gender may be in a form that provides statistically obtained average elevation delay time information for a specific age group and a specific gender. Additionally, it may be in the form of providing average sleep delay time information for a specific age group and specific gender obtained by analyzing other people's sleep status information.
  • the average sleep delay time information for a specific age group and a specific gender obtained by analyzing other people's sleep status information may be the overall average sleep delay time information statistically obtained through the service, and data statistically obtained through the service. It may be the overall average elevation delay time information for a specific group, may be medically recommended elevation delay time information, or may be average elevation delay time information obtained through the user's own past data, but is not limited to this.
  • the average sleep delay time information for a specific age group and a specific gender obtained by analyzing other people's sleep state information may be information obtained based on the other person's activity record for that day. Specific examples include whether you drank coffee that day, if you drank coffee, how much you consumed, whether you drank alcohol that day, if you drank, how much alcohol you consumed, whether you smoked that day, and if you smoked, how much you smoked. It may be information obtained based on whether or not the information has been used, but is not limited to this.
  • the average waking delay time information for the general public obtained by analyzing other people's sleep state information may be information obtained based on other people's financial data information.
  • information acquired based on another person's financial data information may be information obtained based on another person's assets or information obtained based on another person's salary, but is not limited thereto.
  • the overall average sleep delay time information for a specific group includes the average sleep delay time information for men, the average sleep delay time information for people in their 30s, and the average sleep delay time information for those in their 30s who sleep on weekends. , it may be the average elevation delay time information of people who drank coffee, etc., and it may be a combination of two or more of the above average elevation delay time information, but this is only an example and is not limited thereto.
  • a graphical user interface representing a comparison of the user's average elevation delay time with the average elevation delay time of a specific age group and a specific gender may include a user elevation delay time emoticon information user interface 46400A'.
  • the user sleep delay time emoticon information user interface 46400A' may include expressing the evaluation obtained by comparing the received sleep average data of others with the acquired sleep state information of the user as an “emoticon.”
  • the bar length of the user elevation delay time information user interface 46400A is expressed shorter than the bar length of the average elevation delay time information user interface 46411A for a specific age group and a specific gender.
  • the user's waking delay time emoticon information user interface (46400A') displays a smiling emoticon so that the user can easily recognize information that sleep quality is better than the average for a specific age group and a specific gender in relation to waking delay time. can be provided.
  • a graphical user interface representing a comparison of the user's average elevation delay time with the average elevation delay time of a specific age group and a specific gender may include a second information delivery user interface 46500A regarding the elevation delay time.
  • the user interface 46500A which conveys second information about sleep latency, may be as follows: “Alcohol consumption may help you fall asleep quickly, but it may prevent you from falling asleep deeply and actually reduce the quality of your sleep.” , may be provided in the form of conveying medical information regarding the delay time of elevation. Also, “Tryptophan in milk helps you sleep well. It may be provided in the form of delivering medical information about sleep, such as “If it takes a long time to fall asleep, should I drink warm milk?”, but is not limited to this.
  • Figure 46c is a diagram illustrating a graphical user interface showing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user, according to an embodiment of the present invention.
  • a graphical user interface representing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user includes a sleep comparison title user interface 46100 and a first information delivery user interface regarding the elevation delay time 46200A. can be provided.
  • the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand format.
  • the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
  • the first information delivery user interface 46200A about the elevation delay time provides the user with information about the elevation delay time, that is, information about how much the elevation delay time is similar to the average elevation delay time of others. can do.
  • a specific example may be provided in the form of a phrase such as, “Close your eyes and fall asleep within 30 minutes.”
  • it may be provided as a way to provide positive feedback about sleep, such as, "I fell asleep earlier than the nurse average! It's great!”, but is not limited to this.
  • a graphical user interface representing a comparison of the average sleep latency of a specific occupation and the user's average sleep latency includes a sleep latency sleep comparison check button user interface 46310 and a deep sleep proportion comparison check button user interface 46320.
  • the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a way to provide information that one has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310, the deep sleep proportion comparison confirmation button user It is not limited to the interface 46320, and the REM sleep ratio comparison confirmation button user interface 46330, and other types of comparison confirmation button user interfaces, such as the number of waking up in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface. may be provided.
  • the sleep delay time sleep comparison confirmation button user interface 46310 may be in a form that provides phrases such as “to fall asleep,” may be in a form that provides phrases such as “time to fall asleep,” and may be in a form that provides phrases such as “time to fall asleep.” It may be in the form of providing a phrase such as “What is the time?”, but is not limited to this.
  • a graphical user interface representing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user includes a user elevation delay time information user interface 46400A and an average elevation delay time information user interface 46412A of a specific occupation. may include.
  • the user's elevation delay time information user interface (46400A) can compare the user's elevation delay time with the average elevation delay time information user interface (46412A) of a specific occupation based on the sleep data of the date of the report selected by the user. It can be provided with a bar graph.
  • the bar graph has a length proportional to the data value
  • the length of the bar graph of the user elevation delay time information user interface 46400A and the bar graph of the average elevation delay time information user interface 46412A of a specific occupation By providing a comparison of the length of , it is possible to easily provide information on which is longer between the user's elevation delay time and the average elevation delay time of a specific occupation.
  • the average elevation delay time information user interface 46412A for a specific occupation may be in a form that provides medically obtained average elevation delay time information for a specific occupation.
  • the average elevation delay time information user interface 46412A for a specific occupation may be in a form that provides medically recommended information on the average elevation delay time for a specific occupation.
  • the average elevation delay time information user interface 46412A for a specific occupation may be in a form that provides statistically obtained average elevation delay time information for a specific occupation. Additionally, it may be in the form of providing average waking delay time information for a specific occupation obtained by analyzing other people's sleep state information.
  • the average waking delay time information for a specific occupation obtained by analyzing other people's sleep status information may be the average waking delay time information for a specific occupation statistically obtained through the service, and may be among the data statistically obtained through the service. It may be overall average elevation delay time information for a specific occupation, may be medically recommended elevation delay time information, or may be average elevation delay time information obtained through the user's own past data, but is not limited to this.
  • the average waking delay time information for a specific occupation obtained by analyzing other people's sleep state information may be information obtained based on the other person's activity record for that day. Specific examples include whether you drank coffee that day, if you drank coffee, how much you consumed, whether you drank alcohol that day, if you drank, how much alcohol you consumed, whether you smoked that day, and if you smoked, how much you smoked. It may be information obtained based on whether or not the information has been used, but is not limited to this.
  • the average waking delay time information for the general public obtained by analyzing other people's sleep state information may be information obtained based on other people's financial data information.
  • information acquired based on another person's financial data information may be information obtained based on another person's assets or information obtained based on another person's salary, but is not limited thereto.
  • the overall average sleep delay time information for a specific group includes the average sleep delay time information for men, the average sleep delay time information for people in their 30s, and the average sleep delay time information for those in their 30s who sleep on weekends. , it may be the average elevation delay time information of people who drank coffee, etc., and it may be a combination of two or more of the above average elevation delay time information, but this is only an example and is not limited thereto.
  • a graphical user interface representing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user may include a user elevation delay time emoticon information user interface 46400A'.
  • the user sleep delay time emoticon information user interface 46400A' may include expressing the evaluation obtained by comparing the received sleep average data of others with the acquired sleep state information of the user as an “emoticon.”
  • a graphical user interface representing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user may include a second information delivery user interface 46500A regarding the elevation delay time.
  • the second information delivery user interface (46500A) regarding sleep latency may be as follows: “Alcohol consumption may help you fall asleep quickly, but it actually reduces the quality of your sleep by preventing you from falling asleep deeply.” , may be provided in the form of conveying medical information regarding the delay time of elevation. Also, “Tryptophan in milk helps you sleep well. It may be provided in the form of delivering medical information about sleep, such as “If it takes a long time to fall asleep, should I drink warm milk?”, but is not limited to this.
  • Figure 46d is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of a user with the average elevation delay time of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
  • a graphical user interface representing a comparison of the user's average sleep latency time with the average sleep latency time of a specific age group, specific gender, and specific occupation is provided with a sleep comparison title user interface 46100 and first information about the sleep latency time.
  • a delivery user interface 46200A may be provided.
  • the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand format.
  • the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
  • the first information delivery user interface 46200A about the elevation delay time provides the user with information about the elevation delay time, that is, information about how much the elevation delay time is similar to the average elevation delay time of others. can do.
  • a specific example could be given in the form of a phrase such as, “Close your eyes and fall asleep within 30 minutes.”
  • it may be provided as a way to give positive feedback about sleep, such as "I fell asleep earlier than the average for a female nurse in her 50s! It's great!”, but it is not limited to this.
  • a graphical user interface representing a comparison of the user's average sleep latency with the average sleep latency of a specific age group, specific gender, and specific occupation includes a sleep latency sleep comparison check button user interface 46310, deep sleep proportion comparison.
  • the confirmation button user interface 46320, and the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a way that provides information that one of them has been selected, but the elevation delay time sleep comparison confirmation button user interface 46310, It is not limited to the deep sleep proportion comparison confirmation button user interface 46320, and the REM sleep proportion comparison confirmation button user interface 46330, and may include other devices such as the number of awakenings in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface.
  • a user interface of type Compare Confirm button may be provided.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Anesthesiology (AREA)
  • Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Artificial Intelligence (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Pain & Pain Management (AREA)
  • Hematology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)

Abstract

The present invention relates to a method for generating a graphical user interface representing an evaluation of a user's sleep, which is a method for generating one or more graphical user interfaces representing an evaluation of a user's sleep, wherein the method comprises the steps of: a sleep information acquisition step of acquiring sleep information from one or more sleep information sensor devices, wherein the sleep information includes sleep sound information of a user; a sleep phrase generation step of generating a sleep phrase including at least two words representing an evaluation of the user's sleep on the basis of the acquired sleep information; and a step of displaying a graphical user interface including the generated phrase.

Description

사용자의 수면에 관한 정보 또는 평가를 나타내는 그래픽 사용자 인터페이스 제공 방법 Method for providing a graphical user interface representing information or evaluation of a user's sleep
본 발명은 사용자의 수면에 관한 정보 또는 평가를 나타내는 그래픽 사용자 인터페이스 제공 방법에 관한 것이다.The present invention relates to a method of providing a graphical user interface that displays information or evaluation of a user's sleep.
건강을 유지하고 개선시키는 방법에는 운동, 식이요법 등 다양한 방법이 있지만, 하루 중 약 30% 이상의 시간을 차지하는 수면을 잘 관리하는 것이 무엇보다 중요하다. There are a variety of ways to maintain and improve health, such as exercise and diet, but it is most important to manage sleep well, which takes up more than 30% of the day.
하지만, 현대인들은 기계의 단순한 노동 대체 및 삶의 여유에도 불구하고 불규칙한 식습관과 생활습관 및 스트레스로 인해 숙면을 취하지 못하고, 불면증, 과다수면, 수면 무호흡 증후군, 악몽, 야경증, 몽유병 등과 같은 수면 질환으로 고통받고 있다. However, despite the simple replacement of labor by machines and the leisure of life, modern people are unable to sleep well due to irregular eating habits, lifestyle habits, and stress, and suffer from sleep disorders such as insomnia, hypersomnia, sleep apnea syndrome, nightmares, night terrors, and sleepwalking. I'm receiving it.
국민건강보험 공단에 따르면, 국내 수면장애 환자가 2014년부터 2018년까지 연 평균 약 8%씩 증가하는 것으로 나타났으며, 2018년 국내에서 수면장애로 진료받은 환자는 약 57만명에 달한다.According to the National Health Insurance Corporation, the number of patients with sleep disorders in Korea increased by about 8% on average per year from 2014 to 2018, and the number of patients treated for sleep disorders in Korea in 2018 reached approximately 570,000.
숙면이 신체적 또는, 정신적 건강에 영향을 미치는 중요한 요소로 인식되면서 숙면에 대한 관심이 증가하고 있지만, 수면 질환의 개선을 위해서는 전문 의료 기관을 직접 방문해야 하며, 별도의 검사 비용이 요구되고, 그리고 지속적인 관리가 어려움에 따라 치료에 대한 사용자들의 노력이 미비한 실정이다.Interest in good sleep is increasing as it is recognized as an important factor affecting physical and mental health. However, in order to improve sleep disorders, a direct visit to a specialized medical institution is required, a separate test fee is required, and continuous treatment is required. Due to the difficulty in management, users' efforts toward treatment are insufficient.
대한민국 특허공개공보 제10-2023-0012133는 수면 상태에 따른 사용자 인터페이스를 제공하는 전자 장치 및 그의 동작 방법이 개시되어 있다. 비정상 렘 수면 이벤트를 탐지하고, 이에 대한 응답으로 지정된 액션 정보에 기반한 사용자 인터페이스를 제공할 수 있다고 개시되어 있다.Republic of Korea Patent Publication No. 10-2023-0012133 discloses an electronic device that provides a user interface according to sleep state and a method of operating the same. It is disclosed that an abnormal REM sleep event can be detected and a user interface based on specified action information can be provided in response.
다만, 종래의 기술은 비정상 렘 수면 단계를 전체 수면단계를 살피어 검출하기 때문에 그 수면 단계의 측정의 정확성성이 낮아질 우려가 있으며, 실시간으로 수면과 관련된 이벤트를 감지하지 못할 우려가 있다. 또한, 수면에 대해서 비전문가인 일반 소비자들이 직관적으로 자신의 수면의 질이 어떠하였는지에 대한 평가를 줄 수 없다는 한계가 있다.However, since the conventional technology detects abnormal REM sleep stages by examining all sleep stages, there is a risk that the accuracy of measuring the sleep stage may be lowered, and there is a risk that sleep-related events may not be detected in real time. Additionally, there is a limitation in that general consumers who are not experts on sleep cannot intuitively evaluate the quality of their sleep.
이에 따라, 최근에는 일반 사용자들이 수면 단계 분석을 통해서 자신의 수면의 질이 어떠하였는지 평가하기 위한 방법들에 대한 연구가 진행되고 있고, 수면 중 발생한 수면 장애를 탐지하기 위한 연구가 진행되고 있다.Accordingly, research has recently been conducted on methods for general users to evaluate their sleep quality through sleep stage analysis, and research has been conducted to detect sleep disorders that occur during sleep.
대한민국 특허공개공보 제10-2023-0012133는 수면 상태에 따른 사용자 인터페이스를 제공하는 전자 장치 및 그의 동작 방법이 개시되어 있다. 비정상 렘 수면 이벤트를 탐지하고, 이에 대한 응답으로 지정된 액션 정보에 기반한 사용자 인터페이스를 제공할 수 있다고 개시되어 있다.Republic of Korea Patent Publication No. 10-2023-0012133 discloses an electronic device that provides a user interface according to sleep state and a method of operating the same. It is disclosed that an abnormal REM sleep event can be detected and a user interface based on specified action information can be provided in response.
다만, 종래의 기술은 비정상 렘 수면 단계를 전체 수면단계를 살피어 검출하기 때문에 그 수면 단계의 측정의 정확이 낮아질 우려가 있으며, 그 측정의 기본 단위가 수 분으로 구성되는 것이므로, 실시간으로 수면과 관련된 이벤트를 감지하지 못할 우려가 있다. However, since the conventional technology detects abnormal REM sleep stages by examining all sleep stages, there is a risk that the accuracy of the measurement of the sleep stage may be lowered, and since the basic unit of measurement is made up of minutes, sleep-related information is measured in real time. There is a risk that the event may not be detected.
한편, 도 31a 내지 도31e는 종래의 수면 측정 인터페이스에서 표현되는 수면 단계 정보의 힙노그램 그래프를 나타낸 도면이다.Meanwhile, Figures 31A to 31E are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
다만, 종래의 기술은 수면 단계를 나타내는 그래프를 표현함에 있어서, 제1 수면 단계와 제2 수면 단계에 할당된 도형을 이산적으로 표현하지 않고 연속적으로 표현하기 때문에, 제1 수면 단계에서 제2 수면 단계로 진입하는 과정에서 또 다른 수면 단계를 거쳐야만 한다는 오해를 불러일으킬 우려가 있다.However, in the prior art, when expressing a graph representing a sleep stage, the figures assigned to the first sleep stage and the second sleep stage are expressed continuously rather than discretely, so that the shapes allocated to the first sleep stage and the second sleep stage are expressed continuously. There is a risk of causing misunderstanding that one must go through another sleep stage in the process of entering this stage.
또한, 도 31c 또는 도 31d에 도시된 바와 같이, 종래에는 깸 단계를 나타내는 도형이 다른 수면 단계를 나타내는 도형들과 서로 분리되어 있는 것처럼 표시되었다고 하더라도, 다른 수면 단계에 할당된 영역에 수면 단계에 대응하는 도형이 연속적으로 표시됨으로써, 해당 시점에 어느 수면 단계가 발생한 것인지 명확하게 이해하기 어려웠다는 문제점이 있었다.In addition, as shown in Figure 31c or Figure 31d, even if the figure representing the awakening stage is conventionally displayed as if it were separate from the figures representing other sleep stages, the area allocated to the other sleep stage corresponds to the sleep stage. There was a problem in that it was difficult to clearly understand which sleep stage occurred at that time because the shapes were displayed continuously.
이에 따라, 최근에는 수면 단계를 포함하는 수면 상태 정보에 대한 그래프를 직관적으로 나타내기 위한 연구가 진행되고 있다.Accordingly, research has recently been conducted to intuitively display graphs of sleep state information including sleep stages.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에서, 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점을 나타내는 그래픽 사용자 인터페이스를 제공하는 방법이 개시된다.In one embodiment of the present invention to solve the above-described problem, a method of providing a graphical user interface indicating the date and/or time point at which information about the user's sleep was acquired is disclosed.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 정보를 습득하는 - 상기 사용자의 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계를 포함할 수 있다.A method of providing a graphical user interface according to an embodiment of the present invention includes acquiring user's sleep information from one or more sleep information sensor devices - the user's sleep information includes user's sleep sound information - acquiring sleep information May include steps.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, A method of providing a graphical user interface according to an embodiment of the present invention,
습득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 획득하는 - 상기 사용자의 수면 상태 정보는 입면 시점 정보, 수면 시간 정보 또는 기상 시점 정보 중 적어도 하나 이상을 포함한다 - 수면 상태 정보 획득 단계를 포함할 수 있다.Obtaining the user's sleep state information based on the acquired user's sleep information - the user's sleep state information includes at least one of waking time information, sleep time information, or waking up time information - a step of acquiring sleep state information It can be included.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 획득된 사용자의 수면 상태 정보에 포함된 상기 입면 시점 정보, 수면 시간 정보, 또는 기상 시점 정보 중 적어도 하나 이상에 기초하여 상기 수면 정보를 획득한 시점을 표시하는 정보를 생성하는 획득 시점 표시정보 생성 단계를 포함할 수 있다.A method of providing a graphical user interface according to an embodiment of the present invention includes the sleep information based on at least one of the waking time information, sleep time information, or waking up time information included in the acquired sleep state information of the user. It may include an acquisition point display information generation step of generating information indicating the point in time at which the acquisition was acquired.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 획득 시점을 표시하는 정보를 포함하는 그래픽 사용자 인터페이스를 디스플레이하는 단계를 포함할 수 있다.A method of providing a graphical user interface according to an embodiment of the present invention may include displaying a graphical user interface including information indicating an acquisition point.
본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는, 수면 상태 정보에 포함된 기상 시점 정보에 기초하여 상기 수면 정보를 획득한 시점을 표시하는 정보를 생성하는 것을 특징으로 할 수 있다.The step of generating acquisition time display information according to an embodiment of the present invention may be characterized by generating information indicating the time point at which the sleep information was acquired based on wake-up time information included in sleep state information.
또한, 본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는 그래픽 사용자 인터페이스에 표시되는 상기 수면 상태 정보를 획득한 시점을 표시하는 정보를 상기 기상 시점 정보에 포함된 기상 시점의 날짜를 표시하는 도형으로 생성하고, 상기 도형은 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 어느 하나인 것을 특징으로 할 수 있다.In addition, the step of generating the acquisition time display information according to an embodiment of the present invention includes information indicating the time of acquisition of the sleep state information displayed on the graphic user interface to display the date of the waking up included in the wake-up time information. It is created as a shape, and the shape may be any one of a point, polygon, circle, oval, fan shape, or a combination of straight lines and curves.
또한, 본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는 동일한 날짜에 기상 시점이 N 개(N은 0 또는 자연수) 포함되어 있는 경우, 상기 그래픽 사용자 인터페이스에 표시되는 상기 날짜를 표시하는 정보를 N 개의 도형을 포함하도록 생성할 수 있다.In addition, the step of generating acquisition time display information according to an embodiment of the present invention includes, when N wake-up times (N is 0 or a natural number) on the same date, information displaying the date displayed on the graphical user interface. can be created to include N shapes.
본 발명의 일 실시예에 따른 획득 시점 표시정보 생성 단계는 수면 상태 정보에 포함된 입면 시점 정보에 기초하여 수면 정보를 획득한 시점을 표시하는 정보를 생성하는 것을 특징으로 할 수 있다.The step of generating acquisition time display information according to an embodiment of the present invention may be characterized by generating information indicating the time point at which sleep information was acquired based on elevation time information included in sleep state information.
또한, 본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는 상기 그래픽 사용자 인터페이스에 표시되는 상기 수면 상태 정보를 획득한 시점을 표시하는 정보를 상기 입면 시점 정보에 포함된 입면 시점의 날짜를 표시하는 도형으로 생성하고, 상기 도형은 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 어느 하나인 것을 특징으로 할 수 있다.In addition, the step of generating acquisition time display information according to an embodiment of the present invention displays information indicating the time of acquisition of the sleep state information displayed on the graphic user interface by displaying the date of the elevation time included in the elevation time information. The shape may be any one of a point, polygon, circle, oval, fan shape, or a combination of straight lines and curves.
또한, 본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는, 동일한 날짜에 기상 시점이 N 개(N은 0 또는 자연수) 포함되어 있는 경우, 상기 그래픽 사용자 인터페이스에 표시되는 상기 날짜를 표시하는 정보를, N 개의 도형을 포함하도록 생성할 수 있다.In addition, the step of generating acquisition time display information according to an embodiment of the present invention is to display the date displayed on the graphical user interface when N wake-up times (N is 0 or a natural number) are included on the same date. Information can be generated to include N shapes.
본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는, 상기 수면 상태 정보에 포함된 입면 시점 정보 및 기상 시점 정보에 기초하여 수면 정보를 획득한 시점을 표시하는 정보를 생성하는 것을 특징으로 할 수 있다.The step of generating acquisition time display information according to an embodiment of the present invention may be characterized in that it generates information indicating the time of acquisition of sleep information based on the elevation time information and wake-up time information included in the sleep state information. You can.
또한, 본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는, 상기 그래픽 사용자 인터페이스에 표시되는 상기 수면 상태 정보를 획득한 시점을 표시하는 정보를, 상기 입면 시점 정보에 포함된 입면 시점의 날짜와, 상기 기상 시점 정보에 포함된 기상 시점의 날짜가 서로 다른 경우 상기 입면 시점의 날짜부터 기상 시점의 날짜까지를 표시하는 연속적인 형태를 갖는 도형으로 생성하고, 상기 도형은 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 어느 하나인 것을 특징으로 할 수 있다.In addition, the step of generating the acquisition time display information according to an embodiment of the present invention includes information indicating the time of acquisition of the sleep state information displayed on the graphic user interface, and the date of the elevation time included in the elevation time information. And, if the dates of the weather time included in the weather time information are different, a shape having a continuous shape indicating the date of the elevation time to the date of the weather time is generated, and the shape is a point, polygon, circle, It may be characterized as being one of the following shapes: an oval, a fan, or a combination of straight lines and curves.
또는, 본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는, 상기 입면 시점 정보에 포함된 입면 시점의 날짜와 상기 기상 시점 정보에 포함된 기상 시점의 날짜가 서로 같은 경우 상기 그래픽 사용자 인터페이스에 표시되는 상기 날짜를 표시하는 정보를 서로 다른 두 점을 연결하는 연속적인 형태를 갖는 도형으로 생성하고, 상기 도형은 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 어느 하나인 것을 특징으로 할 수 있다.Alternatively, the step of generating acquisition time display information according to an embodiment of the present invention may be performed on the graphical user interface when the date of the elevation time included in the elevation time point information and the date of the weather time included in the weather time information are the same. The information indicating the displayed date is created as a shape with a continuous shape connecting two different points, and the shape is any of the shapes consisting of a point, polygon, circle, oval, sector, or a combination of straight lines and curves. It can be characterized as being one.
본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는, 상기 수면 상태 정보에 포함된 기상 시점 정보에 기초하여 상기 수면 정보를 획득한 시점을 표시하는 정보를 생성하고, 상기 수면 정보를 획득한 시점을 표시하는 정보에는 시간대 정보가 표함되고, 상기 시간대 정보는 기 설정된 시간대의 정의에 기초하여 상기 기상 시점이 속한 시간대가 표시되도록 생성된 것일 수 있다.The step of generating acquisition time display information according to an embodiment of the present invention includes generating information indicating the time point at which the sleep information was acquired based on wake-up time information included in the sleep state information, and obtaining the sleep information. The information indicating the time point includes time zone information, and the time zone information may be generated to display the time zone to which the waking up time belongs based on the definition of a preset time zone.
또한, 본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계에서 상기 기상 시점이 속한 시간대를 결정하는 것의 기초가 되는 상기 기 설정된 시간대의 정의는, 오전 12시(자정) 이상 오전 5시 미만인 경우에는 새벽 시간대, 오전 5시 이상 오전 9시 미만인 경우에는 아침 시간대, 오전 9시 이상 오후 5시 미만인 경우에는 낮 시간대, 오후 5시 이상 오후 9시 미만인 경우에는 저녁 시간대, 그리고 오후 9시 이상 오전 12시(자정) 미만인 경우에는 밤 시간대라고 정의된 것일 수 있다.In addition, the definition of the preset time zone, which is the basis for determining the time zone to which the wake-up time belongs in the acquisition time display information generation step according to an embodiment of the present invention, is 12:00 a.m. (midnight) or more and less than 5:00 a.m. Early morning hours are between 5 AM and 9 AM, morning hours are between 9 AM and 5 PM, daytime hours are between 5 PM and 9 PM, evening hours are between 5 PM and 9 PM, and between 9 PM and 12 AM. If it is less than midnight (midnight), it may be defined as night time.
또한, 본 발명의 일 실시예에 따른 획득 시점 표시 정보 생성 단계는, 상기 그래픽 사용자 인터페이스에 표시되는 상기 수면 상태 정보를 획득한 시점을 표시하는 정보를 상기 기상 시점 정보에 포함된 기상 시점의 날짜 및 시간대 정보를 표시하는 도형으로 생성하고, 상기 도형은 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 어느 하나인 것을 특징으로 할 수 있다.In addition, the step of generating the acquisition time display information according to an embodiment of the present invention includes information indicating the time of acquisition of the sleep state information displayed on the graphic user interface, the date of the wake-up time included in the wake-up time information, and It is created as a shape that displays time zone information, and the shape may be any one of a point, polygon, circle, oval, fan, or a combination of straight lines and curves.
또한, 본 발명의 일 실시예에 따라 생성되는 상기 도형은, 그 종류 또는 색상 중 적어도 하나 이상이 상기 기상 시점 정보에 포함된 시간대 정보에 따라서 다르게 표시되는 것을 특징으로 할 수 있다.Additionally, the figure created according to an embodiment of the present invention may be characterized in that at least one of its type or color is displayed differently depending on the time zone information included in the wake-up time information.
또한, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스는 상기 시간대 정보를 표시하는 텍스트를 더 포함하고, 상기 시간대 정보를 표시하는 텍스트는 상기 기상 시점이 속한 시간대가 새벽 시간대인 경우에는 새벽이라는 키워드, 아침 시간대인 경우에는 아침이라는 키워드, 낮 시간대인 경우에는 낮이라는 키워드, 저녁 시간대인 경우에는 저녁이라는 키워드, 밤 시간대인 경우에는 밤이라는 키워드를 포함하는 것을 특징으로 할 수 있다.In addition, the graphical user interface according to an embodiment of the present invention further includes text displaying the time zone information, and the text displaying the time zone information includes a keyword of dawn if the time zone to which the wake-up time belongs is the dawn time zone, If it is a morning time zone, it may be characterized as including the keyword "morning", if it is a day time zone, it may include the keyword "day", if it is an evening time zone, it may include the keyword "evening", and if it is a night time zone, it may include the keyword "night".
본 발명의 일 실시예에 따른 수면 상태 정보 획득 단계는 상기 습득된 수면 정보에 포함된 수면 음향 정보를, 상기 수면 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환하여 상기 변환된 정보에 대한 분석을 수행하는 단계를 포함할 수 있다.The step of acquiring sleep state information according to an embodiment of the present invention converts the sleep sound information included in the acquired sleep information into information including changes in the frequency components of the sleep sound information along the time axis, and the converted It may include performing analysis on information.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보 획득 단계에서 상기 변환된 정보는 스펙트로그램일 수 있다.Additionally, in the step of acquiring sleep state information according to an embodiment of the present invention, the converted information may be a spectrogram.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보 획득 단계는 상기 스펙트로그램을 30초 단위의 에폭으로 분할한 것에 기초하여 상기 수면 상태 정보를 획득하는 것을 특징으로 할 수 있다.Additionally, the step of acquiring sleep state information according to an embodiment of the present invention may be characterized by acquiring the sleep state information based on dividing the spectrogram into epochs of 30 seconds.
본 과제를 해결하기 위하여, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법에 있어서, 하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 음향 정보를 포함하는 사용자의 수면 정보를 수신하는 수면 정보 수신 단계; 상기 수신된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 획득하는 수면 상태 정보 획득 단계; 기상 희망 시각 정보를 수신하기 위한 하나 이상의 그래픽 사용자 인터페이스를 생성하는 단계; 상기 기상 희망 시각 정보를 수신하기 위한 하나 이상의 그래픽 사용자 인터페이스를 통해 기상 희망 시각 정보를 수신하는 단계; 상기 획득된 수면 상태 정보 및 상기 수신된 기상 희망 시각 정보에 기초하여 알람 시점 정보를 생성하는 알람 시점 정보 생성 단계; 상기 생성된 알람 시점 정보에 기초하여 알람 기능을 수행하기 위한 하나 이상의 그래픽 사용자 인터페이스를 생성하는 그래픽 사용자 인터페이스 생성 단계; 및 상기 생성된 그래픽 사용자 인터페이스를 디스플레이 장치를 통해 디스플레이하는 디스플레이 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, in a method of providing a graphical user interface representing information about a user's sleep, the sleep information receiving method includes receiving the user's sleep information including the user's sleep sound information from one or more sleep information sensor devices. step; A sleep state information acquisition step of acquiring sleep state information of the user based on the received sleep information of the user; creating one or more graphical user interfaces for receiving desired wake-up time information; Receiving desired wake-up time information through one or more graphical user interfaces for receiving the desired wake-up time information; An alarm time information generating step of generating alarm time information based on the obtained sleep state information and the received desired wake-up time information; A graphical user interface creation step of generating one or more graphical user interfaces for performing an alarm function based on the generated alarm time information; and a display step of displaying the generated graphical user interface through a display device.
본 과제를 해결하기 위하여, 상기 수면 상태 정보 획득 단계;에서 상기 기상 희망 시각 정보를 포함하는 범위의 시간 내에서 상기 수면 상태 정보가 사용자가 렘(rem) 수면임을 나타내는 경우, 렘 수면이 나타난 후 소정의 시간 이후에, 상기 알람 시점 정보 생성 단계;에서 상기 수면 상태 정보를 기초로 알람 시점 정보를 생성하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, in the step of acquiring sleep state information, if the sleep state information indicates that the user is in REM sleep within a time range including the desired wake-up time information, after REM sleep appears, After the time of, the alarm time information generating step; generating alarm time information based on the sleep state information provides a method of providing a graphical user interface representing information about the user's sleep.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 알람 기능 활성화 트리거 방식을 통해 상기 알람 기능을 활성화 시키기 위한 트리거 영역을 포함하는 그래픽 사용자 인터페이스 생성 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of creating a graphical user interface; generating a graphical user interface including a trigger area for activating the alarm function through an alarm function activation trigger method; information about the user's sleep, including: Provides a method of providing a graphical user interface that represents
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 상기 알림 기능을 활성화 시키기 위한 트리거 영역이 활성화된 경우, 상기 알람 기능 활성화와 함께 수면 측정을 개시하기 위한 그래픽 사용자 인터페이스 생성 단계;를 포함하고, 상기 알림 기능을 활성화 시키기 위한 트리거 영역이 활성화되지 않은 경우, 상기 알람 기능 비활성화와 함께 수면 측정을 개시하기 위한 그래픽 사용자 인터페이스 생성 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of creating a graphical user interface includes, when a trigger area for activating the notification function is activated, a step of creating a graphical user interface for starting sleep measurement along with activating the alarm function; , if the trigger area for activating the notification function is not activated, creating a graphical user interface for initiating sleep measurement along with deactivating the alarm function; providing a graphical user interface that displays information about the user's sleep, including: Provides a way to do this.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 상기 알림 기능을 활성화 시키기 위한 트리거 영역이 활성화되지 않은 경우, 기상 예정시간이 정해지지 않은 수면에 부합되는 정보를 제공하는 그래픽 사용자 인터페이스 생성 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of creating a graphical user interface includes: generating a graphical user interface that provides information corresponding to sleep with an undetermined wake-up time when a trigger area for activating the notification function is not activated; A method of providing a graphical user interface representing information about a user's sleep including a method is provided.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 슬라이드 방식을 통해 상기 기상 희망 시각 정보를 선택하기 위한 슬라이드 영역을 포함하는 그래픽 사용자 인터페이스 생성 단계;를 포함하고, 상기 기상 희망 시각 정보를 수신하는 단계;는 상기 슬라이드 영역을 통해 상기 기상 희망 시각 정보를 수신하는 단계;를 더 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of generating a graphical user interface includes: generating a graphical user interface including a slide area for selecting the desired wake-up time information through a slide method; and receiving the desired wake-up time information. It provides a method of providing a graphical user interface displaying information about the user's sleep, further comprising: receiving the desired wake-up time information through the slide area.
본 과제를 해결하기 위하여, 상기 기상 희망 시각 정보를 선택하기 위한 슬라이드 영역을 포함하는 그래픽 사용자 인터페이스 생성 단계;는 상기 슬라이드 영역이 제1 방향으로 슬라이드 된 경우 상기 기상 희망 시각 정보의 시각이 늦어지고, 상기 슬라이드 영역이 제2 방향으로 슬라이드 된 경우 상기 기상 희망 시각 정보의 시각이 빨라지는 그래픽 사용자 인터페이스 생성 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of creating a graphical user interface including a slide area for selecting the desired wake-up time information; when the slide area is slid in a first direction, the time of the desired wake-up time information is delayed, A method of providing a graphical user interface representing information about a user's sleep including a step of generating a graphical user interface in which the time of the desired wake-up time information becomes faster when the slide area is slid in a second direction.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 상기 수신된 기상 희망 시각 정보를 기초로 기상 예정 시간의 범위를 나타내며, 상기 기상 예정 시간의 범위는 상기 기상 희망 시각으로부터 소정의 시간 전부터 상기 기상 희망 시각까지를 나타내는 그래픽 사용자 인터페이스 생성 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of creating a graphical user interface represents a range of the scheduled wake-up time based on the received desired wake-up time information, and the range of the scheduled wake-up time is a predetermined time before the desired wake-up time. A method of providing a graphical user interface representing information about a user's sleep, including a step of creating a graphical user interface indicating the desired wake-up time.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 상기 슬라이드 영역을 통해 상기 기상 희망 시각 정보를 수신하면, 상기 수신된 사용자의 수면 상태 정보로부터 추론되는 예측 기상 시간 정보 또는 예측 수면 시간 또는 예측 수면 시간과 수면 효율의 조합 중 어느 하나에 기초하여, 수면 예상 시간을 나타내는 그래픽 사용자 인터페이스 생성 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of generating the graphical user interface is: upon receiving the desired wake-up time information through the slide area, predicted wake-up time information or predicted sleep time or prediction inferred from the received sleep state information of the user. A method of providing a graphical user interface indicating information about a user's sleep, including a step of generating a graphical user interface indicating an estimated sleep time based on a combination of sleep time and sleep efficiency, is provided.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 상기 슬라이드 영역을 통해 상기 기상 희망 시각 정보를 수신하면, 상기 수신된 상기 기상 희망 시각과 현재 시각의 차이에 기초한 수면 예상 시간을 나타내는 그래픽 사용자 인터페이스 생성 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of creating a graphical user interface is: when receiving the desired wake-up time information through the slide area, a graphic user indicates an expected sleep time based on the difference between the received desired wake-up time and the current time. A method of providing a graphical user interface representing information about a user's sleep, including an interface creation step, is provided.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 상기 알람 기능 활성화와 함께 수면 측정을 개시하기 위한 그래픽 사용자 인터페이스을 통해 수면 측정의 개시를 입력받으면, 수면 측정 중임을 나타내는 화면을 포함하는 그래픽 사용자 인터페이스를 생성하는 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of creating a graphical user interface includes: a graphical user including a screen indicating that sleep measurement is in progress when the alarm function is activated and the start of sleep measurement is inputted through a graphical user interface for starting sleep measurement; A method of providing a graphical user interface representing information about a user's sleep is provided, including the step of creating an interface.
본 과제를 해결하기 위하여, 수면 측정 중임을 나타내는 화면을 포함하는 그래픽 사용자 인터페이스를 생성하는 단계;는 상기 알람 기능이 활성화 중이라는 것을 나타내는 그래픽 사용자 인터페이스 생성 단계;를 포함하고, 상기 기상 예정 시간의 범위를 나타내는 그래픽 사용자 인터페이스 생성 단계;를 더 포함하며, 상기 사용자의 수면 음향 정보의 파동을 나타내는 그래픽 사용자 인터페이스 생성 단계;를 더 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, generating a graphical user interface including a screen indicating that sleep measurement is in progress; generating a graphical user interface indicating that the alarm function is being activated; and a range of the scheduled wake-up time. Providing a method of providing a graphical user interface representing information about the user's sleep, further comprising: generating a graphical user interface representing the waveforms of the user's sleep acoustic information; do.
본 과제를 해결하기 위하여, 수면 측정 중임을 나타내는 화면을 포함하는 그래픽 사용자 인터페이스를 생성하는 단계;는 수면 측정을 종료할 수 있는 그래픽 사용자 인터페이스 생성 단계;를 더 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, generating a graphical user interface including a screen indicating that sleep measurement is in progress; generating a graphical user interface capable of ending sleep measurement; displaying information about the user's sleep further comprising: Provides a method of providing a graphical user interface.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 상기 알림 기능을 활성화 시키기 위한 트리거 영역이 활성화되지 않은 경우, 상기 수면 측정을 개시하기 위한 그래픽 사용자 인터페이스을 통해 수면 측정의 개시를 입력받으면, 수면 측정 중임을 나타내는 화면을 포함하는 그래픽 사용자 인터페이스를 생성하는 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of generating the graphical user interface; when the trigger area for activating the notification function is not activated, when the start of sleep measurement is input through the graphical user interface for starting the sleep measurement, sleep A method of providing a graphical user interface representing information about a user's sleep is provided, including the step of generating a graphical user interface including a screen indicating that measurement is in progress.
본 과제를 해결하기 위하여, 수면 측정 중임을 나타내는 화면을 포함하는 그래픽 사용자 인터페이스를 생성하는 단계;는 상기 알람 기능을 활성화 시키기 위한 트리거 영역이 활성화되지 않는 중이라는 것을 나타내는 그래픽 사용자 인터페이스 생성 단계;를 포함하고, 상기 기상 예정 시간의 범위를 나타내는 그래픽 사용자 인터페이스 생성 단계;를 더 포함하며, 상기 사용자의 수면 음향 정보의 파동을 나타내는 그래픽 사용자 인터페이스 생성 단계;를 더 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, generating a graphical user interface including a screen indicating that sleep is being measured includes generating a graphical user interface indicating that a trigger area for activating the alarm function is not being activated. A graphic representing information about the user's sleep, further comprising: generating a graphic user interface representing a range of the scheduled wake-up time; and generating a graphic user interface representing waves of the user's sleep sound information. Provides a method for providing a user interface.
본 과제를 해결하기 위하여, 수면 측정 중임을 나타내는 화면을 포함하는 그래픽 사용자 인터페이스를 생성하는 단계;는 수면 측정을 종료할 수 있는 그래픽 사용자 인터페이스 생성 단계;를 더 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, generating a graphical user interface including a screen indicating that sleep measurement is in progress; generating a graphical user interface capable of ending sleep measurement; displaying information about the user's sleep further comprising: Provides a method of providing a graphical user interface.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 상기 수면 예상 시간이 소정의 시간을 초과하는 경우, 상기 수면 예상 시간을 확인할 수 있도록 팝업창을 나타내는 그래픽 사용자 인터페이스 생성 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of generating a graphical user interface; generating a graphical user interface that displays a pop-up window so that the user can check the expected sleep time when the expected sleep time exceeds a predetermined time; A method of providing a graphical user interface representing information about sleep is provided.
본 과제를 해결하기 위하여, 상기 그래픽 사용자 인터페이스 생성 단계;는 상기 수면 예상 시간이 소정의 시간 미만인 경우, 소정의 시간 이상 수면 시 수면 측정 결과를 확인할 수 있다는 정보를 제공하는 그래픽 사용자 인터페이스 생성 단계;를 포함하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of generating a graphical user interface includes: generating a graphical user interface that provides information that sleep measurement results can be confirmed when sleeping for a predetermined time or more when the estimated sleep time is less than a predetermined time; A method of providing a graphical user interface representing information about a user's sleep is provided.
본 과제를 해결하기 위하여, 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법에 있어서, 하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 음향 정보를 포함하는 사용자의 수면 정보를 수신하는 수면 정보 수신 단계; 상기 수신된 사용자의 수면 정보에 기초하여 사용자의 평균 수면 시간 정보를 포함하는 사용자의 수면 상태 정보를 획득하는 수면 상태 정보 획득 단계; 상기 획득된 수면 상태 정보 및 사용자 기상 희망 시각 정보에 기초하여 알람 시점 정보를 생성하는 알람 시점 정보 생성 단계; 및 상기 생성된 알람 시점 정보에 기초하여 알람음을 제공하는 알람음 제공 단계;를 포함하는 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법을 제공한다. In order to solve this problem, in the method of providing an alarm based on the user's sleep state information, a sleep information receiving step of receiving the user's sleep information including the user's sleep sound information from one or more sleep information sensor devices. ; A sleep state information acquisition step of acquiring user sleep state information including average sleep time information of the user based on the received sleep information of the user; An alarm time information generating step of generating alarm time information based on the obtained sleep state information and the user's desired wake-up time information; and an alarm sound providing step of providing an alarm sound based on the generated alarm timing information.
본 과제를 해결하기 위하여, 상기 사용자 기상 희망 시각 정보를 포함하는 범위의 시간은 상기 사용자 기상 희망 시각으로부터 소정의 시간 전부터 상기 사용자 기상 희망 시각까지의 시간을 포함하고, 상기 범위의 시간 내에서 상기 수면 상태 정보가 사용자가 렘 수면임을 나타내지 않은 경우, 상기 사용자 기상 희망 시각으로 상기 알람 시점 정보를 생성하는 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법을 제공한다. In order to solve this problem, the time range including the user's desired wake-up time information includes the time from a predetermined time before the user's desired wake-up time to the user's desired wake-up time, and the sleep within the time range. When the status information does not indicate that the user is in REM sleep, a method of providing an alarm based on the user's sleep status information is provided, which generates the alarm timing information at the user's desired wake-up time.
본 과제를 해결하기 위하여, 상기 사용자 기상 희망 시각 정보를 포함하는 범위의 시간은 상기 사용자 기상 희망 시각으로부터 소정의 시간 전부터 상기 사용자 기상 희망 시각까지의 시간을 포함하고, 상기 범위의 시간 내에서 상기 수면 상태 정보가 사용자가 렘 수면임을 나타내는 경우, 상기 렘 수면임을 나타내는 시점으로 상기 알람 시점 정보를 생성하는 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법을 제공한다. In order to solve this problem, the time range including the user's desired wake-up time information includes the time from a predetermined time before the user's desired wake-up time to the user's desired wake-up time, and the sleep within the time range. When the state information indicates that the user is in REM sleep, a method of providing an alarm based on the user's sleep state information that generates the alarm time information at a time point indicating that the user is in REM sleep is provided.
본 과제를 해결하기 위하여, 상기 수면 정보 수신 단계;는 시간 도메인 상의 상기 사용자의 수면 음향 정보를 주파수 도메인 상의 정보로 변환하는 수면 정보 변환 단계;를 더 포함하는 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법을 제공한다. In order to solve this problem, the sleep information receiving step is an alarm based on the user's sleep state information, further comprising a sleep information conversion step of converting the user's sleep sound information in the time domain into information in the frequency domain. Provides a method to provide .
본 과제를 해결하기 위하여, 상기 수면 정보 수신 단계;는 상기 사용자의 수면 음향 정보를 수면 정보 추론 딥러닝 모델의 입력으로 하여 수면에 대한 정보를 추론하는 수면 정보 추론 단계;를 더 포함하는 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법을 제공한다. In order to solve this problem, the sleep information receiving step further includes a sleep information inference step of inferring information about sleep by using the user's sleep sound information as an input to a sleep information inference deep learning model. Provides a method of providing alarms based on status information.
본 과제를 해결하기 위하여, 사용자의 수면 상태 정보를 기초로 하는 알람 시점 정보를 제공하는 방법에 있어서, 사용자의 수면 상태 정보를 획득하는 수면 상태 정보 획득 단계; 사용자의 기상 희망 시각 정보를 수신하는 기상 희망 시각 정보 수신 단계; 및 상기 획득된 수면 상태 정보 및 상기 수신된 기상 희망 시각 정보에 기초하여 알람 시점 정보를 생성하는 알람 시점 정보 생성 단계;를 포함하고, 상기 알람 시점 정보 생성 단계;에서, 상기 기상 희망 시각으로부터 소정의 시간 전부터 상기 기상 희망 시각까지의 시간 동안에 상기 수면 상태 정보가 사용자가 렘 수면임을 나타내는 경우, 사용자가 렘 수면인 시점을 상기 알람 시점 정보로 설정하는 사용자의 수면 상태 정보를 기초로 하는 알람 시점 정보를 제공하는 방법을 제공한다. In order to solve this problem, a method of providing alarm timing information based on a user's sleep state information includes: a sleep state information acquisition step of acquiring the user's sleep state information; A desired wake-up time information receiving step of receiving the user's desired wake-up time information; And an alarm timing information generating step of generating alarm timing information based on the obtained sleep state information and the received desired waking up time information. If the sleep state information indicates that the user is in REM sleep during the time from before to the desired wake-up time, alarm time information based on the user's sleep state information is set as the alarm time information at the time when the user is in REM sleep. Provides a method to provide.
본 과제를 해결하기 위하여, 상기 알람 시점 정보 생성 단계;에서, 상기 기상 희망 시각으로부터 소정의 시간 전부터 상기 기상 희망 시각까지의 시간 동안에 상기 수면 상태 정보가 사용자가 렘 수면임을 나타내는 경우, 사용자가 렘 수면인 시점으로부터 소정의 시간 이후의 시점을 상기 알람 시점 정보로 설정하는 사용자의 수면 상태 정보를 기초로 하는 알람 시점 정보를 제공하는 방법을 제공한다. In order to solve this problem, in the step of generating alarm time information, if the sleep state information indicates that the user is in REM sleep during the time from a predetermined time before the desired wake-up time to the desired wake-up time, the user is in REM sleep. A method of providing alarm time information based on the user's sleep state information is provided, which sets a time point after a predetermined time from the time point as the alarm time information.
본 과제를 해결하기 위하여, 상기 알람 시점 정보 생성 단계;에서, 상기 기상 희망 시각으로부터 소정의 시간 전부터 상기 기상 희망 시각까지의 시간 동안에 상기 수면 상태 정보가 사용자가 렘 수면임을 나타낸 이후, 사용자의 수면 단계가 렘 수면이 아닌 다른 수면 단계임을 나타내는 시점을 상기 알람 시점 정보로 설정하는 사용자의 수면 상태 정보를 기초로 하는 알람 시점 정보를 제공하는 방법을 제공한다. In order to solve this problem, in the step of generating alarm time information, after the sleep state information indicates that the user is in REM sleep during the time from a predetermined time before the desired wake-up time to the desired wake-up time, the user's sleep stage A method of providing alarm timing information based on the user's sleep state information is provided, which sets the alarm timing information as a timing indicating that the sleep stage is other than REM sleep.
본 과제를 해결하기 위하여, 상기 알람 시점 정보 생성 단계;에서, 상기 기상 희망 시각으로부터 소정의 시간 전부터 상기 기상 희망 시각까지의 시간 동안에 상기 수면 상태 정보가 사용자가 렘 수면임을 나타낸 이후, 사용자가 렘 수면임을 나타내는 상기 수면 상태 정보의 신뢰도(confidence)가 낮아진 경우, 상기 수면 상태 정보의 신뢰도가 낮아진 시점으로 상기 알람 시점 정보를 생성하는, 사용자의 수면 상태 정보를 기초로 하는 알람 시점 정보를 제공하는 방법을 제공한다. In order to solve this problem, in the step of generating alarm time information, after the sleep state information indicates that the user is in REM sleep during the time from a predetermined time before the desired wake-up time to the desired wake-up time, the user is in REM sleep. When the confidence of the sleep state information indicating that the reliability of the sleep state information is lowered, the alarm time information is generated at a time when the reliability of the sleep state information is lowered. A method of providing alarm time information based on the user's sleep state information. to provide.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에서, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법이 개시된다.In one embodiment of the present invention to solve the above-described problem, a method of providing a graphical user interface that displays information about a user's sleep is disclosed.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 정보를 습득하는 - 사용자의 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계를 포함할 수 있다.A method of providing a graphical user interface according to an embodiment of the present invention includes acquiring user's sleep information from one or more sleep information sensor devices - the user's sleep information includes the user's sleep sound information - sleep information acquisition step. may include.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 습득된 사용자의 수면 정보에 기초하여 실시간으로 사용자의 수면 상태 정보를 획득하는 - 사용자의 수면 상태 정보는 복수의 수면 단계 정보를 포함한다 - 수면 상태 정보 획득 단계를 포함할 수 있다.A method of providing a graphical user interface according to an embodiment of the present invention includes acquiring user's sleep state information in real time based on the acquired user's sleep information - the user's sleep state information includes a plurality of sleep stage information. - May include a step of acquiring sleep state information.
또는, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 습득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 획득하는 - 사용자의 수면 상태 정보는 복수의 수면 단계 정보를 포함한다 - 수면 상태 정보 획득 단계를 포함할 수 있다.Alternatively, the method of providing a graphical user interface according to an embodiment of the present invention includes acquiring user's sleep state information based on the acquired user's sleep information - the user's sleep state information includes a plurality of sleep stage information. - May include a step of acquiring sleep state information.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 획득된 수면 상태 정보에 기초하여 시간에 따른 사용자의 수면 상태 정보를 나타내는 그래프를 생성하는 수면 상태 정보 그래프 생성 단계를 포함할 수 있다.A method of providing a graphical user interface according to an embodiment of the present invention may include a sleep state information graph generating step of generating a graph representing the user's sleep state information over time based on the obtained sleep state information. .
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 생성된 그래프를 포함하는 그래픽 사용자 인터페이스를 디스플레이하는 단계를 포함할 수 있다.A method of providing a graphical user interface according to an embodiment of the present invention may include displaying a graphical user interface including a generated graph.
또한, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 획득된 수면 상태 정보에 기초하여 시간에 따른 사용자의 수면 상태 정보를 나타내는 그래프를 생성하는 - 상기 그래프는 복수의 직사각형을 포함한다 - 수면 상태 정보 그래프 생성 단계를 포함할 수 있다.In addition, a method of providing a graphical user interface according to an embodiment of the present invention generates a graph representing the user's sleep state information over time based on the obtained sleep state information - the graph includes a plurality of rectangles. - It may include the step of generating a sleep state information graph.
여기서, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 각각이 복수의 수면 단계 각각에 대응되는 복수의 직사각형을 포함하는 수면 상태 정보 그래프를 생성하는 단계를 포함할 수 있다.Here, the method of providing a graphical user interface according to an embodiment of the present invention may include generating a sleep state information graph including a plurality of rectangles each corresponding to a plurality of sleep stages.
또한, 본 발명의 일 실시예에 따라 제공되는 그래픽 사용자 인터페이스는, 각각이 복수의 수면 단계 각각에 할당된 복수의 영역을 포함하고, 수면 상태 정보 그래프에 포함되는 복수의 직사각형 각각은 상기 복수의 영역중 대응되는 수면 단계에 할당된 영역에만 표시될 수 있다.In addition, the graphic user interface provided according to an embodiment of the present invention includes a plurality of areas each allocated to a plurality of sleep stages, and each of the plurality of rectangles included in the sleep state information graph is one of the plurality of areas. It can only be displayed in the area allocated to the corresponding sleep stage.
또한, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 획득된 수면 상태 정보에 기초하여 시간에 따른 사용자의 수면 상태 정보를 나타내는 그래프 - 사용자의 수면 상태 정보를 나타내는 그래프는 수면 상태 정보를 이산적으로 표현한다 - 를 생성하는 수면 상태 정보 그래프 생성 단계를 포함할 수 있다.In addition, a method of providing a graphical user interface according to an embodiment of the present invention includes a graph representing the user's sleep state information over time based on the obtained sleep state information - a graph representing the user's sleep state information is a sleep state Expressing information discretely - may include a step of generating a sleep state information graph.
또한, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 각각이 복수의 수면 단계 각각에 대응되며 서로 이산된 복수의 도형을 포함하는 수면 상태 정보 그래프를 생성하는 단계를 포함할 수 있다.In addition, a method of providing a graphical user interface according to an embodiment of the present invention may include generating a sleep state information graph including a plurality of shapes that each correspond to a plurality of sleep stages and are separated from each other. there is.
또한, 본 발명의 일 실시예에 따라 제공되는 그래픽 사용자 인터페이스는, 각각이 복수의 수면 단계 각각에 할당된 복수의 영역을 포함하고, 복수의 영역은 각각에 할당된 높이를 가지고, 복수의 영역들간 할당된 피치를 가지고, 수면 상태 정보 그래프에 포함되는 복수의 도형 각각이 상기 피치에 기초하여 이산될 수 있다.In addition, the graphical user interface provided according to an embodiment of the present invention includes a plurality of areas each allocated to a plurality of sleep stages, the plurality of areas have a height assigned to each, and the distance between the plurality of areas is With an assigned pitch, each of a plurality of shapes included in the sleep state information graph may be discrete based on the pitch.
또한, 본 발명의 일 실시예에 따라 제공되는 그래픽 사용자 인터페이스에 포함된 복수의 영역 간의 경계 중 적어도 하나 이상이 선으로 구별되도록 표현될 수 있다.Additionally, at least one of the boundaries between a plurality of areas included in the graphical user interface provided according to an embodiment of the present invention may be expressed as a distinguishable line.
또한, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 제공하는 방법은, 각각이 복수의 수면 단계 각각에 대응되는 복수의 도형들을 포함하되, 복수의 도형들 중 적어도 하나의 도형이 나머지 도형들과 서로 분리되어 있는 수면 상태 정보 그래프를 생성하는 단계를 포함할 수 있다.In addition, a method of providing a graphical user interface according to an embodiment of the present invention includes a plurality of shapes, each corresponding to a plurality of sleep stages, wherein at least one shape of the plurality of shapes is different from the remaining shapes. It may include the step of generating sleep state information graphs that are separated from each other.
또한, 본 발명의 일 실시예에 따르면, 나머지 도형들과 서로 분리되어 있는 도형을 포함하는 수면 상태 정보 그래프를 생성하는 단계에 있어서, 서로 분리되어 있는 도형은 깸 단계에 대응되는 것일 수 있다.Additionally, according to an embodiment of the present invention, in the step of generating a sleep state information graph including a figure that is separated from the rest of the figures, the figures that are separated from each other may correspond to the waking stage.
또한, 본 발명의 일 실시예에 따르면, 각각이 복수의 수면 단계 각각에 대응되는 복수의 도형들은 서로 같은 형태의 도형으로 표현될 수 있고, 구체적으로는 직사각형으로 표현될 수 있다.Additionally, according to an embodiment of the present invention, a plurality of shapes, each corresponding to a plurality of sleep stages, may be expressed as shapes of the same shape, and may specifically be expressed as rectangles.
또한, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스는, 수면 단계 각각에 할당된 복수의 영역을 포함하고, 각각이 복수의 수면 단계 각각에 대응되는 복수의 도형들은, 복수의 영역 중에서도 대응되는 수면 단계에 할당된 영역에만 표시되며, 수면 단계에 대응되는 도형이 나머지 도형들과 서로 분리되어 표시되는 경우에, 다른 수면 단계에 할당된 영역에는 도형이 표시되지 않는 것을 특징으로 할 수 있다.In addition, the graphic user interface according to an embodiment of the present invention includes a plurality of areas allocated to each of the sleep stages, and a plurality of shapes each corresponding to a plurality of sleep stages correspond to corresponding sleep stages among the plurality of areas. It is displayed only in the area allocated to the stage, and when the shape corresponding to the sleep stage is displayed separately from the remaining shapes, the shape may not be displayed in the area allocated to the other sleep stage.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보 획득 단계에서, 30초 단위로 사용자의 수면 상태 정보를 획득할 수 있다.Additionally, in the sleep state information acquisition step according to an embodiment of the present invention, the user's sleep state information can be acquired in 30-second increments.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보 그래프 생성 단계에서, 획득된 수면 상태 정보에 포함된 30초 단위의 수면 단계 정보를 나타내는 그래프를 생성할 수 있다.Additionally, in the step of generating a sleep state information graph according to an embodiment of the present invention, a graph representing sleep stage information in units of 30 seconds included in the obtained sleep state information may be generated.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보 획득 단계에서, 습득된 수면 정보에 포함된 시간 도메인상의 음향 정보를 주파수 도메인상의 정보로 변환하고, 변환된 주파수 도메인상의 정보에 기초 하여 사용자의 상기 수면 상태 정보를 획득할 수 있다.In addition, in the step of acquiring sleep state information according to an embodiment of the present invention, the acoustic information on the time domain included in the acquired sleep information is converted into information on the frequency domain, and the user's above information is converted based on the converted information on the frequency domain. Sleep state information can be obtained.
여기서, 본 발명의 일 실시예에 따른 주파수 도메인상의 정보는 스펙트로그램 또는 멜 스케일이 적용된 멜 스펙트로그램일 수 있다.Here, information on the frequency domain according to an embodiment of the present invention may be a spectrogram or a Mel spectrogram to which a Mel scale is applied.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보 획득 단계에서, 스펙트로그램을 30초 단위의 에폭으로 분할한 것에 기초하여 상기 수면 상태 정보를 획득할 수 있다.Additionally, in the sleep state information acquisition step according to an embodiment of the present invention, the sleep state information may be obtained based on dividing the spectrogram into epochs of 30 seconds.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보 그래프 생성 단계에서 생성되는 그래프 각각은 사용자의 수면 상태 정보에 포함된 복수의 수면 단계 정보 각각에 대응하여 할당된 다른 색상으로 표현되는 것일 수 있다.Additionally, each graph generated in the sleep state information graph generation step according to an embodiment of the present invention may be expressed in different colors assigned to correspond to each of the plurality of sleep stage information included in the user's sleep state information.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보 그래프 생성 단계에서 수면 상태 정보 획득 단계에서 획득된 수면 상태 정보에 포함된 사용자의 입면 시점 정보 또는 기상 시점 정보를 수면 상태 정보 그래프에 함께 표시하는 그래프가 생성될 수 있다.In addition, in the sleep state information graph generation step according to an embodiment of the present invention, the user's waking point information or waking up time information included in the sleep state information acquired in the sleep state information acquisition step is displayed together in the sleep state information graph. can be created.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보 그래프 생성 단계에서 생성되는 그래프는, 수면 상태 정보 그래프에 함께 표시되는 사용자의 입면 시점 정보 또는 기상 시점 정보가 수치적으로 표현되고, 수면 상태 정보 그래프와 선으로 연결되어 병렬적으로 표시되도록 생성되는 것을 특징으로 할 수 있다.In addition, the graph generated in the sleep state information graph generation step according to an embodiment of the present invention numerically expresses the user's waking-up time information or waking-up time information displayed together in the sleep state information graph, and is a sleep state information graph. It may be characterized in that it is connected with a line and generated to be displayed in parallel.
본 발명은 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법에 있어서, 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 센싱한 수면 측정 개시 트리거에 기초하여 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention provides a method for starting sleep measurement through a user device, including a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at a time when the trigger is sensed based on the sensed sleep measurement start trigger.
본 발명은 상기 수면 측정 개시 트리거는, 상기 사용자 디바이스에 사용자 수면 희망 시각 및 수면 모드 -상기 수면 모드는 상기 사용자 디바이스에서 동작하는 애플리케이션들과 관련된 이벤트의 발생을 나타내는 정보의 출력이 제한된 모드를 의미한다- 중 적어도 하나가 설정된 경우, 상기 설정된 사용자 수면 희망 시각 이후 또는 상기 수면 모드로 설정된 기간 동안에 센싱되는 것을 특징으로 하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. In the present invention, the sleep measurement start trigger is the user's desired sleep time and sleep mode on the user device. The sleep mode refers to a mode in which the output of information indicating the occurrence of events related to applications running on the user device is limited. - If at least one of - is set, it provides a method for starting sleep measurement through a user device, characterized in that sensing is performed after the set user desired sleep time or during a period set in the sleep mode.
본 발명은 상기 수면 측정 개시 트리거는 상기 사용자 디바이스에 가해지는 운동 또는 움직임이고, 상기 센싱 단계;에서 사용자 디바이스가 상기 운동 또는 움직임을 센싱하면, 상기 개시 단계;가 상기 운동 또는 움직임을 센싱하는 시점에 수면 측정을 개시하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. In the present invention, the sleep measurement start trigger is exercise or movement applied to the user device, and when the user device senses the exercise or movement in the sensing step, at the time when the start step senses the exercise or movement Provides a method for initiating sleep measurement through a user device, which initiates sleep measurement.
본 발명은 상기 수면 측정 개시 트리거는 상기 사용자 디바이스에 입력되는 사용자 수면 희망 음성이고, 상기 센싱 단계;에서 사용자 디바이스가 상기 사용자 수면 희망 음성을 센싱하면, 상기 개시 단계;가 상기 사용자 수면 희망 음성을 센싱하는 시점에 수면 측정을 개시하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. In the present invention, the sleep measurement start trigger is a user's desired sleep voice input to the user device, and when the user device senses the user's desired sleep voice in the sensing step, the start step; senses the user's desired sleep voice. Provides a method for starting sleep measurement through a user device, which starts sleep measurement at the time of sleep measurement.
본 발명은 상기 센싱 단계;에서 설정된 소정의 시간 범위 내에서, 사용자 디바이스가 충전이 개시를 센싱하면, 상기 인식 단계;가 상기 충전 개시 센싱 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention relates to a user device where, when the user device senses the start of charging within a predetermined time range set in the sensing step, the recognition step recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger. Provides a method for initiating sleep measurement through .
본 발명은 상기 사용자 디바이스가 개시하는 충전은 유선 충전인, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention provides a method for initiating sleep measurement through a user device, wherein the charging initiated by the user device is wired charging.
본 발명은 상기 사용자 디바이스가 개시하는 충전은 무선 충전인, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention provides a method for initiating sleep measurement through a user device, wherein the charging initiated by the user device is wireless charging.
본 발명은 상기 센싱 단계;에서 사용자 디바이스가 소정의 시각 이후에, 디스플레이 화면의 잠금 모드가 해제되는 경우, 상기 잠금 모드 해제를 센싱하면, 상기 인식 단계;가 상기 잠금 모드 해제 센싱 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention relates to the sensing step; when the user device senses the lock mode release after a predetermined time when the lock mode of the display screen is released, the recognition step; starts sleep measurement at the time of sensing the lock mode release. Provides a method for initiating sleep measurement through a user device, which is recognized as the sensing point of a trigger.
본 발명은 상기 센싱 단계;에서 사용자 디바이스의 디스플레이부가 스와이프 입력이 센싱되면, 상기 인식 단계;가 상기 스와이프를 센싱하는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention relates to sleep measurement using a user device, wherein when the display unit of the user device senses a swipe input in the sensing step, the recognition step recognizes the point in time at which the swipe is sensed as the sensing point in time for the sleep measurement start trigger. Provides a method for initiating.
본 발명은 상기 스와이프 입력은 사용자의 손가락으로 입력되는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다.The present invention provides a method for initiating sleep measurement through a user device, wherein the swipe input is input with the user's finger.
본 발명은 상기 스와이프 입력은 사용자의 손바닥으로 입력되는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention provides a method for initiating sleep measurement through a user device, wherein the swipe input is input with the user's palm.
본 발명은 상기 인식 단계;가 상기 두 가지 이상의 트리거 센싱 동작이 함께 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention provides a method for starting sleep measurement through a user device, in which the recognition step recognizes the time when the two or more trigger sensing operations are sensed together as the sensing time of the sleep measurement start trigger.
본 발명은 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법에 있어서, 사용자 디바이스에 네트워크로 연결된 타 디바이스가 수면 측정 개시 트리거 정보를 센싱하고, 상기 타 디바이스가 센싱한 상기 수면 측정 개시 트리거 정보를 송신하면, 상기 송신된 수면 측정 개시 트리거 정보를 수신하는 수신 단계; 및 상기 수신한 수면 측정 개시 트리거 정보에 기초하여 상기 트리거 정보가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention provides a method for starting sleep measurement through a user device, when another device connected to the user device through a network senses sleep measurement start trigger information and transmits the sleep measurement start trigger information sensed by the other device. , a receiving step of receiving the transmitted sleep measurement start trigger information; and a start step of starting sleep measurement at a time when the trigger information is sensed based on the received sleep measurement start trigger information.
본 발명은 상기 수면 측정 개시 트리거는, 상기 사용자 디바이스 및 상기 타 디바이스 중 적어도 하나에, 사용자 수면 희망 시각 및 수면 모드 -상기 수면 모드는 상기 사용자 디바이스 또는 상기 타 디바이스에서 동작하는 애플리케이션들과 관련된 이벤트의 발생을 나타내는 정보의 출력이 제한된 모드를 의미한다- 중 적어도 하나가 설정된 경우, 상기 설정된 사용자 수면 희망 시각 이후 또는 상기 수면 모드로 설정된 기간 동안에 센싱되는 것을 특징으로 하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. In the present invention, the sleep measurement start trigger is provided to at least one of the user device and the other device, the user's desired sleep time and sleep mode, and the sleep mode is an event related to applications running on the user device or the other device. Refers to a mode in which the output of information indicating occurrence is limited - When at least one of the following is set, sleep measurement is initiated through a user device, characterized in that sensing is performed after the user's desired sleep time set or during a period set as the sleep mode. Provides a method for doing so.
본 발명은 상기 수면 측정 개시 트리거는 상기 타 디바이스와 상기 사용자 디바이스간의 물리적인 접촉이고, 상기 개시 단계는, 상기 타 디바이스와 상기 사용자 디바이스간의 물리적인 접촉을 센싱한 시점에 수면 측정을 개시하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. In the present invention, the sleep measurement start trigger is a physical contact between the other device and the user device, and the initiating step is a user initiating sleep measurement at the time of sensing the physical contact between the other device and the user device. Provides a method for initiating sleep measurement through a device.
본 발명은 상기 수면 측정 개시 트리거는 상기 타 디바이스와 사용자의 신체 간의 물리적인 접촉이고, 상기 개시 단계는, 상기 타 디바이스와 사용자의 신체 간의 물리적인 접촉을 센싱한 시점에 수면 측정을 개시하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. In the present invention, the sleep measurement start trigger is physical contact between the other device and the user's body, and the initiating step is to initiate sleep measurement at the time of sensing the physical contact between the other device and the user's body. Provides a method for initiating sleep measurement through a device.
본 발명은 상기 수면 측정 개시 트리거는 상기 타 디바이스에 입력되는 사용자 수면 측정 개시 트리거 음성이고, 상기 개시 단계는, 상기 타 디바이스에 입력되는 사용자 수면 측정 개시 트리거 음성을 센싱한 시점에 수면 측정을 개시하는,사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. In the present invention, the sleep measurement start trigger is a user sleep measurement start trigger voice input to the other device, and the starting step is to start sleep measurement at the time of sensing the user sleep measurement start trigger voice input to the other device. ,Provides a method for initiating sleep measurement through a user device.
본 발명은 상기 수면 측정 개시 트리거는 소정의 시각 이후에 상기 타 디바이스가 충전을 시작하였다는 신호이고, 상기 개시 단계는, 상기 타 디바이스가 충전을 시작한 시점에 수면 측정을 개시하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. In the present invention, the sleep measurement start trigger is a signal that the other device has started charging after a predetermined time, and the start step is to start sleep measurement at the time the other device starts charging, through a user device. Provides a method for initiating sleep measurement.
본 발명은 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법에 있어서, 사용자와 관련한 정보를 센싱하는 센싱 단계; 상기 센싱된 사용자와 관련한 정보에 기초하여 수면 측정 개시 시점을 결정하는 개시 결정 정보 생성 단계; 및 상기 결정된 개시 시점에 수면 측정을 개시하는 개시 단계;를 포함하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. The present invention provides a method for initiating sleep measurement through a user device, comprising: a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start time.
본 발명은 상기 개시 결정 정보 생성 단계는, 상기 센싱 단계에서 사용자 디바이스에서 동작하는 애플리케이션들과 관련된 이벤트의 발생을 나타내는 정보의 출력이 제한된 모드로 설정된 기간 동안에, 소정의 시간동안 사용자가 상기 사용자 디바이스를 사용하고 있다는 정보를 센싱하지 못한 경우, 상기 소정의 시간이 끝나는 시점을 상기 수면 측정 개시 시점으로 결정하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다.The present invention relates to the creation of the start decision information step by allowing the user to use the user device for a predetermined period of time during a period in which the output of information indicating the occurrence of an event related to applications operating on the user device in the sensing step is set to a restricted mode. Provides a method for starting sleep measurement through a user device, wherein when information indicating use is not sensed, the end of the predetermined time is determined as the sleep measurement start time.
본 발명은 상기 사용자가 상기 사용자 디바이스를 사용하고 있다는 정보는, 상기 사용자 디바이스에 감지되는 사용자의 운동 또는 움직임, 상기 사용자 디바이스의 디스플레이가 켜져 있다는 신호, 상기 사용자 디바이스에 입력되는 사용자의 음성, 또는 상기 사용자 디바이스의 디스플레이에 감지되는 사용자의 탭핑 중 적어도 하나 이상인, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 제공한다. In the present invention, the information that the user is using the user device includes the user's movement or movement detected by the user device, a signal that the display of the user device is turned on, the user's voice input to the user device, or the user's voice input to the user device. Provides a method for initiating sleep measurement through a user device, which is at least one of the user's tapping detected on the display of the user device.
본 발명은 사용자의 수면 측정을 개시하는 전자 장치에 있어서, 수면 측정 개시 트리거를 센싱하는 센싱부; 애플리케이션이 기록될 수 있는 메모리부; 및 상기 애플리케이션이 실행될 수 있는 프로세서부;를 포함하고, 상기 프로세서부;가 상기 센싱부에서 상기 트리거가 센싱된 시점에 상기 전자 장치의 수면 측정을 개시하는, 사용자의 수면 측정을 개시하는 전자 장치를 제공한다. The present invention provides an electronic device that initiates sleep measurement of a user, comprising: a sensing unit that senses a sleep measurement start trigger; a memory unit in which applications can be recorded; and a processor unit capable of executing the application, wherein the processor unit initiates sleep measurement of the electronic device at a time when the trigger is sensed by the sensing unit. to provide.
본 과제를 해결하기 위하여, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법에 있어서, 하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 음향 정보를 포함하는 사용자의 수면 정보를 수신하는 수면 정보 수신 단계; 상기 수신된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 획득하는 수면 상태 정보 획득 단계; 타인의 수면 평균 데이터를 수신하는 단계; 상기 수신된 타인의 수면 평균 데이터와 상기 획득한 사용자의 수면 상태 정보를 비교하는 그래프를 포함하는 그래픽 사용자 인터페이스를 생성하는 단계; 및 상기 그래픽 사용자 인터페이스를 디스플레이하는 단계;를 포함하는, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, in a method of providing a graphical user interface representing information about a user's sleep, the sleep information receiving method includes receiving the user's sleep information including the user's sleep sound information from one or more sleep information sensor devices. step; A sleep state information acquisition step of acquiring sleep state information of the user based on the received sleep information of the user; Receiving average sleep data of another person; generating a graphical user interface including a graph comparing the received sleep average data of others with the obtained sleep state information of the user; and displaying the graphical user interface. A method of providing a graphical user interface that displays information about a user's sleep is provided.
본 과제를 해결하기 위하여, 상기 수신된 타인의 수면 평균 데이터와 상기 획득한 사용자의 수면 상태 정보를 비교하는 제공하는 그래프는, 데이터 값에 비례한 길이를 갖는 것을 특징으로 하는, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the graph provided for comparing the received sleep average data of others with the obtained sleep state information of the user is characterized in that the length is proportional to the data value, A method of providing a graphical user interface representing information is provided.
본 과제를 해결하기 위하여, 상기 수신된 타인의 수면 평균 데이터와 상기 획득한 사용자의 수면 상태 정보를 비교하는 그래프를 포함하는 그래픽 사용자 인터페이스를 생성하는 단계는, 상기 수신된 타인의 수면 평균 데이터와 상기 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 특징으로 하는, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the step of creating a graphical user interface including a graph comparing the received sleep average data of others and the acquired sleep state information of the user includes the received average sleep data of others and the obtained sleep state information of the user. A method of providing a graphical user interface representing information about a user's sleep is provided, characterized in that the evaluation obtained by comparing the acquired sleep state information of the user is expressed as an “emoticon”.
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는, 의학적으로 획득된 정보들에 기초하여 산정한 평균값인 것을 특징으로 하는, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, a method of providing a graphical user interface representing information about a user's sleep is provided, wherein the average sleep data of others is an average value calculated based on medically obtained information. do.
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는, 의학적으로 권고되는 정보들에 기초하여 산정한 평균값인 것을 특징으로 하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, a method of providing a graphical user interface displaying information about the user's sleep is provided, wherein the average sleep data of others is an average value calculated based on medically recommended information. .
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는, 통계적으로 획득된 것을 특징으로 하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, a method of providing a graphical user interface representing information about a user's sleep, wherein the average sleep data of others is statistically obtained, is provided.
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는, 타인의 수면 상태 정보를 획득하여, 상기 타인의 수면 상태 정보를 분석하여 획득한 것을 특징으로 하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the other person's average sleep data is a graphical user interface that displays information about the user's sleep, characterized in that the sleep average data of the other person is obtained by acquiring the other person's sleep state information and analyzing the other person's sleep state information. Provides a method to provide .
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는, 타인의 연령대를 기준으로 분류된 것을 특징으로 하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, a method of providing a graphical user interface that displays information about the user's sleep is provided, wherein the average sleep data of others is classified based on the other person's age group.
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는, 타인의 성별을 기준으로 분류된 것을 특징으로 하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, a method of providing a graphical user interface displaying information about a user's sleep is provided, wherein the other person's average sleep data is classified based on the other person's gender.
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는, 타인의 직종을 기준으로 분류된 것을 특징으로 하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, a method of providing a graphical user interface that displays information about the user's sleep is provided, wherein the average sleep data of others is classified based on the other person's occupation.
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는, 타인의 그날의 활동 기록을 기준으로 분류된 것을 특징으로 하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다.In order to solve this problem, a method of providing a graphical user interface displaying information about a user's sleep is provided, wherein the other person's average sleep data is classified based on the other person's daily activity record.
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는, 타인의 금융 데이터 정보를 기준으로 분류된 것을 특징으로 하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다.In order to solve this problem, a method of providing a graphical user interface representing information about a user's sleep is provided, wherein the other person's average sleep data is classified based on the other person's financial data information.
본 과제를 해결하기 위하여, 상기 타인의 수면 평균 데이터는 타인의 연령대, 성별, 직종, 그날의 활동 기록, 및 금융 데이터 중 둘 이상의 결합을 기준으로 분류된 것을 특징으로 하는 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다.In order to solve this problem, the average sleep data of others is information about the user's sleep, which is classified based on a combination of two or more of the other person's age group, gender, occupation, day's activity record, and financial data. Provides a method of providing a graphical user interface that represents
본 과제를 해결하기 위하여, 상기 수신된 타인의 수면 평균 데이터는, 평균 수면 중 깸(WAKE) 횟수이고 상기 획득한 사용자의 수면 상태 정보는, 사용자의 수면 중 깸 횟수인 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the received average sleep data of others is the average number of wakes during sleep, and the obtained sleep state information of the user is information about the user's sleep, which is the number of wakes during the user's sleep. Provides a method of providing a graphical user interface that represents
본 과제를 해결하기 위하여, 상기 수신된 타인의 수면 평균 데이터는, 평균 얕은 잠 비중 정보이고 상기 획득한 사용자의 수면 상태 정보는, 사용자의 얕은 잠 비중 정보인 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the received sleep average data of others is average light sleep proportion information, and the obtained user's sleep state information is the user's light sleep proportion information. Graphic user representing information about the user's sleep. Provides a method of providing an interface.
본 과제를 해결하기 위하여, 상기 수신된 타인의 수면 평균 데이터는, 평균 입면 지연 시간 정보, 평균 깊은 잠 비중 정보, 평균 렘 수면 비중 정보, 평균 수면 중 깸 횟수, 및 얕은 잠 비중 정보들 중 둘 이상의 조합이고, 상기 획득한 사용자의 수면 상태 정보는, 상기 평균 입면 지연 시간 정보, 평균 깊은 잠 비중 정보, 평균 렘 수면 비중 정보, 평균 수면 중 깸 횟수, 및 얕은 잠 비중 정보들 중 둘 이상의 조합인, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법을 제공한다. In order to solve this problem, the received sleep average data of others includes two or more of the following: average waking delay time information, average deep sleep proportion information, average REM sleep proportion information, average number of awakenings during sleep, and light sleep proportion information. It is a combination, and the acquired sleep state information of the user is a combination of two or more of the average waking delay time information, average deep sleep proportion information, average REM sleep proportion information, average number of awakenings during sleep, and light sleep proportion information, A method of providing a graphical user interface representing information about a user's sleep is provided.
본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 평가를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법은, 텍스트를 활용하여 사용자의 수면에 관한 평가를 나타내는 그래픽 사용자 인터페이스 제공방법으로, 하나 이상의 수면 정보 센서 장치로부터 수면 정보를 습득하는 - 상기 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계;상기 습득된 수면 정보에 기초하여 사용자의 수면에 관한 평가를 나타내는 적어도 두 개의 단어를 포함하는 수면 문구를 생성하는 수면 문구 생성 단계; 및 상기 생성된 문구를 포함하는 그래픽 유저 인터페이스를 디스플레이하는 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.In order to achieve the purpose of the present invention, a method of providing a graphical user interface representing an evaluation of a user's sleep is a method of providing a graphical user interface representing an evaluation of a user's sleep using text, and includes one or more sleep information sensors. Acquiring sleep information from a device - the sleep information includes sleep sound information of the user - acquiring sleep information; Sleep comprising at least two words indicating an evaluation of the user's sleep based on the acquired sleep information; A sleep phrase generation step of generating a phrase; and displaying a graphical user interface including the generated phrase. A method of generating one or more graphical user interfaces representing an evaluation of a user's sleep is provided.
그리고, 상기 문구는 비수치적인 방식으로 표현하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.Additionally, the phrase provides a method for creating one or more graphical user interfaces that represent the user's evaluation of his or her sleep expressed in a non-numerical manner.
또한, 상기 수면 정보는 수면 환경 정보 및 사용자의 생활 정보를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.In addition, the sleep information provides a method of generating one or more graphical user interfaces representing an evaluation of the user's sleep including sleep environment information and user's life information.
그리고, 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 정보 저장 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.Additionally, a method of generating one or more graphical user interfaces representing an evaluation of a user's sleep is provided, including a sleep log information storage step of storing sleep log information related to an account assigned to the user in a memory.
그리고, 상기 수면 정보 습득 단계는 시간 도메인 상의 상기 사용자의 수면 음향 정보를 주파수 도메인 상의 정보로 변환하는, 수면 정보 변환단계를 더 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공 할 수 있다.In addition, the sleep information acquisition step further includes a sleep information conversion step of converting the user's sleep sound information in the time domain into information in the frequency domain. Creating at least one graphical user interface representing an evaluation of the user's sleep. A method can be provided.
또한, 상기 수면 정보 습득 단계는 수면 음향 정보를 수면 정보 추론 딥러닝 모델의 입력으로 하여, 수면에 대한 정보를 추론하는, 수면 정보 추론 단계를 더 포함하는 것을 특징으로 하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공 할 수 있다.In addition, the sleep information acquisition step further includes a sleep information inference step of inferring information about sleep by using sleep sound information as an input to a sleep information inference deep learning model. Evaluation of the user's sleep. It may provide a method of creating one or more graphical user interfaces to represent a user interface.
그리고, 상기 수면 문구 생성 단계는 상기 사용자의 수면에 관한 평가 중 주목성이 높은 텍스트를 생성하는, 제1 수면 문구 생성 단계; 및 상기 사용자의 수면에 관한 평가를 구성하는 텍스트를 생성하는, 제2 수면 문구 생성 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.In addition, the sleep phrase generating step includes generating a first sleep phrase generating text of high interest during evaluation of the user's sleep; and generating a second sleep phrase, generating text constituting the evaluation of the user's sleep.
또한, 상기 수면 문구 생성 단계는 상기 사용자 수면에 관한 평가에 기초하여 조언 텍스트를 생성하는, 제3 수면 문구 생성 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.Additionally, the sleep phrase generating step may include a third sleep phrase generating step, wherein the sleep phrase generating step generates advice text based on the user's evaluation of sleep. to provide.
본 발명의 일 실시예에 따르면, 상기 수면 문구 생성 단계는 룩업테이블에 기초하여 상기 수면 문구를 생성하는, 룩업테이블 수면 문구 생성 단계를 더 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.According to one embodiment of the present invention, the sleep phrase generating step further includes a lookup table sleep phrase generating step of generating the sleep phrase based on a lookup table. One or more graphical user interfaces representing an evaluation of the user's sleep. A method for creating can be provided.
또한, 본 발명의 일 실시예에 따르면, 상기 룩업테이블 수면 문구 생성 단계는 상기 수면 정보에 기초하여, 사용자의 수면의 특성을 분류하는, 룩업테이블 사용자 수면 특성 분류 단계; 및 상기 사용자 수면 특성에 대응되는 상기 룩업테이블에 기초한 수면 문구를 추출하는, 룩업테이블 수면 문구 추출 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.In addition, according to one embodiment of the present invention, the lookup table sleep phrase generating step includes a lookup table user sleep characteristic classification step of classifying the user's sleep characteristics based on the sleep information; and a look-up table sleep phrase extraction step of extracting a sleep phrase based on the look-up table corresponding to the user's sleep characteristics. .
본 발명의 일 실시예에 따르면, 상기 수면 문구 생성 단계는 대규모 언어 모델에 기초하여 상기 수면 문구를 생성하는, 대규모 언어 모델 수면 문구 생성 단계를 더 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.According to one embodiment of the present invention, the step of generating the sleep phrase further includes the step of generating the sleep phrase based on a large-scale language model, one or more graphics representing the user's evaluation of the user's sleep. A method for creating a user interface can be provided.
또한, 본 발명의 일 실시예에 따르면 대규모 언어 모델 수면 문구 생성 단계는 상기 수면 정보에 기초하여, 사용자의 수면의 특성을 분류하는, 대규모 언어 모델 사용자 수면 특성 분류 단계; 및 상기 사용자 수면 특성을 상기 대규모 언어 모델의 입력으로 하여 수면 문구를 추출하는, 대규모 언어 모델 수면 문구 추출 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.In addition, according to one embodiment of the present invention, the large-scale language model sleep phrase generating step includes a large-scale language model user sleep characteristic classification step of classifying the user's sleep characteristics based on the sleep information; and extracting sleep phrases from a large-scale language model using the user's sleep characteristics as input to the large-scale language model. You can.
본 발명의 일 실시예에 따르면 상기 사용자 그래픽 유저 인터페이스 디스플레이 단계는 상기 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는, 사용자 수면 그래프 생성 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.According to one embodiment of the present invention, the user graphic user interface display step includes an evaluation of the user's sleep including a user sleep graph generating step of generating a graph about the sleep stage within the user's sleep period based on the sleep information. A method for creating one or more graphical user interfaces representing a can be provided.
또한, 본 발명의 일 실시예에 따르면 상기 제3 수면 문구는 상기 생성된 제1 수면 문구 및 상기 생성된 제2 수면 문구와 각각 이격되게 배치되고, 상기 생성된 사용자 수면 그래프의 하단에 배치되는 것을 특징으로 하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.In addition, according to one embodiment of the present invention, the third sleep phrase is arranged to be spaced apart from the generated first sleep phrase and the generated second sleep phrase, and is placed at the bottom of the generated user sleep graph. A method may be provided for creating one or more graphical user interfaces that represent an assessment of a user's sleep as a feature.
또한, 본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 평가를 나타내는 그래픽 사용자 인터페이스를 제공하는 프로그램이 내장된 비일시적 컴퓨터 판독 가능 저장매체는, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하기 위해 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장한 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램은 본 발명의 실시예에 따른 방법을 수행하라는 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체를 제공한다.In addition, in order to achieve the purpose of the present invention, a non-transitory computer-readable storage medium containing a program that provides a graphical user interface representing an evaluation of the user's sleep is provided, and one or more graphic users representing an evaluation of the user's sleep are provided. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors to create an interface, wherein the one or more programs include instructions to perform a method according to an embodiment of the present invention. A temporary computer-readable storage medium is provided.
또한, 본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 평가를 나타내는 그래픽 사용자 인터페이스를 제공하는 장치는, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치로서, 디스플레이부; 하나 이상의 프로세서; 및 상기 하나이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하는 메모리 - 상기 하나 이상의 프로그램은 본 발명의 실시예에 따른 방법을 수행하라는 명령어들을 포함함 - 를 포함하는, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치를 제공한다.In addition, in order to achieve the object of the present invention, an apparatus for providing a graphical user interface representing an evaluation of a user's sleep includes an apparatus for generating one or more graphical user interfaces representing an evaluation of a user's sleep, comprising: a display unit; One or more processors; and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising instructions to perform a method according to an embodiment of the present invention. Provides a device for creating one or more graphical user interfaces to represent.
본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 평가를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법으로서, 비수치적인 방식과 수치적인 방식을 활용하여 사용자의 수면에 관한 평가를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법으로, 하나 이상의 수면 정보 센서 장치로부터 수면 정보를 습득하는 - 상기 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계; 상기 습득된 수면 정보에 기초하여 사용자의 수면에 관한 평가를 나타내는 수면 평가를 생성하는 수면 평가 생성 단계 - 상기 수면 평가는 수치적인 방식 및 비수치적인 방식을 포함한다 -; 및 상기 생성된 문구를 포함하는 그래픽 유저 인터페이스를 디스플레이하는 단계를 포함하는, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.In order to achieve the purpose of the present invention, as a method of providing a graphical user interface representing the evaluation of the user's sleep, a graphical user interface representing the evaluation of the user's sleep is provided using a non-numerical method and a numerical method. A method of acquiring sleep information from one or more sleep information sensor devices - the sleep information includes sleep sound information of a user - acquiring sleep information; A sleep evaluation generating step of generating a sleep evaluation representing an evaluation of the user's sleep based on the acquired sleep information, the sleep evaluation including a numerical method and a non-numerical method; and displaying a graphical user interface including the generated phrase. A method of generating one or more graphical user interfaces representing an evaluation of a user's sleep is provided.
그리고, 상기 수면 정보는 수면 환경 정보 및 사용자의 생활 정보를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.In addition, the sleep information provides a method of generating one or more graphical user interfaces that represent an evaluation of the user's sleep including sleep environment information and user's life information.
또한, 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 정보 저장 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.Additionally, a method of generating one or more graphical user interfaces representing an evaluation of a user's sleep is provided, including a sleep log information storage step of storing sleep log information related to an account assigned to the user in a memory.
그리고, 상기 수면 정보 습득 단계는 시간 도메인 상의 상기 사용자의 수면 음향 정보를 주파수 도메인 상의 정보로 변환하는, 수면 정보 변환단계를 더 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.In addition, the sleep information acquisition step further includes a sleep information conversion step of converting the user's sleep sound information in the time domain into information in the frequency domain. Creating at least one graphical user interface representing an evaluation of the user's sleep. Provides a method.
또한, 상기 수면 정보 습득 단계는 수면 음향 정보를 수면 정보 추론 딥러닝 모델의 입력으로 하여, 수면에 대한 정보를 추론하는, 수면 정보 추론 단계를 더 포함하는 것을 특징으로 하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.In addition, the sleep information acquisition step further includes a sleep information inference step of inferring information about sleep by using sleep sound information as an input to a sleep information inference deep learning model. Evaluation of the user's sleep. Provides a method for creating one or more graphical user interfaces to represent.
그리고, 상기 사용자의 수면에 관한 평가 중 주목성이 높은 텍스트를 생성하는, 제1 수면 문구 생성 단계; 및 상기 사용자의 수면에 관한 평가를 구성하는 텍스트를 생성하는, 제2 수면 문구 생성 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.And, a first sleep phrase generation step of generating a text of high interest during evaluation of the user's sleep; and generating a second sleep phrase, generating text constituting the evaluation of the user's sleep.
또한, 상기 수면 평가 생성 단계는 상기 사용자 수면에 관한 평가에 기초하여 조언 텍스트를 생성하는, 제3 수면 문구 생성 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.Additionally, the step of generating a sleep assessment includes a third step of generating sleep phrases, wherein the step of generating advice text is based on the assessment of the user's sleep. to provide.
또한, 상기 수면 평가 생성 단계는 상기 사용자 수면에 관한 평가에 기초하여 수치적인 방식으로 수면에 관한 평가를 사용자에게 제공하는, 수면 수치 정보 생성 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공한다.In addition, the sleep evaluation generating step includes providing the user with an evaluation of sleep in a numerical manner based on the evaluation of the user's sleep, and one or more graphics representing an evaluation of the user's sleep, including generating numerical sleep information. Provides a method for creating a user interface.
본 발명의 일 실시예에 따르면, 상기 수면 평가 생성 단계는 룩업테이블에 기초하여 상기 수면 평가를 생성하는, 룩업테이블 수면 문구 평가 단계를 더 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.According to one embodiment of the present invention, the sleep evaluation generating step further includes a lookup table sleep phrase evaluation step of generating the sleep evaluation based on a lookup table. One or more graphical user interfaces representing an evaluation of the user's sleep. A method for creating a can be provided.
또한, 본 발명의 일 실시예에 따르면, 상기 룩업테이블 수면 평가 생성 단계는 상기 수면 정보에 기초하여, 사용자의 수면의 특성을 분류하는, 룩업테이블 사용자 수면 특성 분류 단계; 및 상기 사용자 수면 특성에 대응되는 상기 룩업테이블에 기초한 수면 평가를 추출하는, 룩업테이블 수면 평가 추출 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.In addition, according to one embodiment of the present invention, the lookup table sleep evaluation generating step includes a lookup table user sleep characteristic classification step of classifying the user's sleep characteristics based on the sleep information; and a look-up table sleep evaluation extraction step of extracting a sleep evaluation based on the look-up table corresponding to the user's sleep characteristics. .
본 발명의 일 실시예에 따르면, 상기 수면 평가 생성 단계는 대규모 언어 모델에 기초하여 상기 수면 평가를 생성하는, 대규모 언어 모델 수면 문구 생성 단계를 더 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.According to one embodiment of the present invention, the step of generating a sleep rating further includes generating a large-scale language model sleep phrase, generating the sleep rating based on a large-scale language model. One or more graphics representing an evaluation of the user's sleep. A method for creating a user interface can be provided.
또한, 본 발명의 일 실시예에 따르면, 대규모 언어 모델 수면 평가 생성 단계는 상기 수면 정보에 기초하여, 사용자의 수면의 특성을 분류하는, 대규모 언어 모델 사용자 수면 특성 분류 단계; 및 상기 사용자 수면 특성을 상기 대규모 언어 모델의 입력으로 하여 수면 문구를 추출하는, 대규모 언어 모델 수면 평가 추출 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.In addition, according to one embodiment of the present invention, the large-scale language model sleep evaluation generating step includes a large-scale language model user sleep characteristic classification step of classifying the user's sleep characteristics based on the sleep information; and a large-scale language model sleep evaluation extraction step of extracting sleep phrases by using the user sleep characteristics as input to the large-scale language model. You can.
본 발명의 일 실시예에 따르면, 상기 사용자 그래픽 유저 인터페이스 디스플레이 단계는 상기 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는, 사용자 수면 그래프 생성 단계를 포함하는 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법을 제공할 수 있다.According to one embodiment of the present invention, the user graphic user interface display step relates to the user's sleep, including a user sleep graph generating step of generating a graph about the sleep stage within the user's sleep period based on the sleep information. A method may be provided for creating one or more graphical user interfaces representing the evaluation.
또한, 본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 평가를 나타내는 그래픽 사용자 인터페이스를 제공하는 프로그램이 내장된 비일시적 컴퓨터 판독 가능 저장매체는, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하기 위해 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장한 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램은 본 발명의 실시예에 따른 방법을 수행하라는 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체를 제공한다.In addition, in order to achieve the purpose of the present invention, a non-transitory computer-readable storage medium containing a program that provides a graphical user interface representing an evaluation of the user's sleep is provided, and one or more graphic users representing an evaluation of the user's sleep are provided. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors to create an interface, wherein the one or more programs include instructions to perform a method according to an embodiment of the present invention. A temporary computer-readable storage medium is provided.
또한, 본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 평가를 나타내는 그래픽 사용자 인터페이스를 제공하는 장치는, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치로서, 디스플레이부; 하나 이상의 프로세서; 및 상기 하나이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하는 메모리 - 상기 하나 이상의 프로그램은 본 발명의 실시예에 따른 방법을 수행하라는 명령어들을 포함함 - 를 포함하는, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치를 제공한다.In addition, in order to achieve the object of the present invention, an apparatus for providing a graphical user interface representing an evaluation of a user's sleep includes an apparatus for generating one or more graphical user interfaces representing an evaluation of a user's sleep, comprising: a display unit; One or more processors; and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising instructions to perform a method according to an embodiment of the present invention. Provides a device for creating one or more graphical user interfaces to represent.
본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 피드백을 수집하는 방법 및 그래픽 사용자 인터페이스를 제공하는 방법은, 하나 이상의 수면 정보 센서 장치로부터 수면 정보를 습득하는 수면 정보 습득 단계; 상기 습득된 수면 정보에 기초하여 사용자의 수면 상태 정보- 상기 사용자의 수면 상태 정보는 사용자의 수면 단계 정보, 사용자의 수면 이벤트 정보 중 적어도 하나 이상을 포함한다 -를 획득하는 수면 상태 정보 획득 단계; 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 서비스를 제공하는 수면 서비스 제공 단계; 및 상기 제공된 수면 서비스에 대한 사용자 피드백을 수집하기 위해 사용자 피드백 그래픽 유저 인터페이스를 디스플레이하는 단계를 포함하는 사용자의 수면에 관한 피드백을 수집하는 방법 및 그래픽 사용자 인터페이스를 제공하는 방법을 제공할 수 있다.In order to achieve the object of the present invention, a method for collecting feedback on a user's sleep and a method for providing a graphical user interface include a sleep information acquisition step of acquiring sleep information from one or more sleep information sensor devices; A sleep state information acquisition step of acquiring user's sleep state information based on the acquired sleep information - the user's sleep state information includes at least one of the user's sleep stage information and the user's sleep event information; A sleep service providing step of providing a sleep service based on the acquired sleep state information or the acquired sleep information; and displaying a user feedback graphical user interface to collect user feedback on the provided sleep service. A method of collecting feedback on a user's sleep and a method of providing a graphical user interface can be provided.
또한, 본 발명의 일 실시예에 따르면, 상기 수면 정보는 수면 환경 정보, 수면 음향 정보, 수면 생활 정보 중 하나 이상을 포함할 수 있다.Additionally, according to an embodiment of the present invention, the sleep information may include one or more of sleep environment information, sleep sound information, and sleep life information.
또한, 본 발명의 일 실시예에 따른, 상기 수면 정보 습득 단계;는, 상기 수면 음향 정보를 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환하는 전처리 단계를 포함할 수 있다.In addition, the sleep information acquisition step according to an embodiment of the present invention may include a preprocessing step of converting the sleep sound information into information including changes in frequency components along the time axis.
그리고, 본 발명의 일 실시예에 따른, 상기 수면 서비스 제공 단계;는, 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 콘텐츠 서비스를 제공할 수 있다.And, according to an embodiment of the present invention, the sleep service providing step may provide a sleep content service based on the acquired sleep state information or the acquired sleep information.
또한, 본 발명의 일 실시예에 따른, 상기 수면 서비스 제공 단계;는, 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 분석 정보 제공 서비스를 제공할 수 있다.In addition, the sleep service providing step according to an embodiment of the present invention may provide a sleep analysis information providing service based on the acquired sleep state information or the acquired sleep information.
그리고, 상기 수면 서비스 제공 단계;는, 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 환경 조절 서비스를 제공할 수 있다.In addition, the sleep service providing step may provide a sleep environment control service based on the acquired sleep state information or the acquired sleep information.
또한, 상기 사용자 피드백 그래픽 유저 인터페이스를 디스플레이하는 단계;는 상기 디스플레이 된 사용자 피드백 그래픽 유저 인터페이스를 통해 상기 제공된 수면 서비스에 대한 유저의 반응을 수집하는 단계; 및 상기 수집된 유저의 반응을 저장하는 단계;를 포함할 수 있다.Additionally, displaying the user feedback graphical user interface may include collecting a user's response to the provided sleep service through the displayed user feedback graphical user interface; and storing the collected user responses.
본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 피드백을 수집하는 방법 및 그래픽 사용자 인터페이스를 제공하는 방법은 하나 이상의 수면 정보 센서 장치로부터 수면 정보를 습득하는 수면 정보 습득 단계; 기 습득된 수면 정보에 기초하여 사용자의 수면 상태 정보- 상기 사용자의 수면 상태 정보는 사용자의 수면 단계, 사용자의 수면 이벤트 중 적어도 하나 이상을 포함한다 -를 획득하는 수면 상태 정보 획득 단계; 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 서비스를 제공하는 수면 서비스 제공 단계; 및 상기 제공된 수면 서비스에 대한 사용자 피드백을 수집하기 위해 사용자 동작 피드백 감지 단계를 포함할 수 있다.In order to achieve the object of the present invention, a method for collecting feedback on a user's sleep and a method for providing a graphical user interface include a sleep information acquisition step of acquiring sleep information from one or more sleep information sensor devices; A sleep state information acquisition step of acquiring sleep state information of the user based on previously acquired sleep information, wherein the sleep state information of the user includes at least one of the user's sleep stage and the user's sleep event; A sleep service providing step of providing a sleep service based on the acquired sleep state information or the acquired sleep information; and detecting user motion feedback to collect user feedback on the provided sleep service.
또한, 본 발명의 일 실시예에 따르면, 상기 수면 정보는 수면 환경 정보, 수면 음향 정보, 수면 생활 정보 중 하나 이상을 포함할 수 있다.Additionally, according to an embodiment of the present invention, the sleep information may include one or more of sleep environment information, sleep sound information, and sleep life information.
그리고, 본 발명의 일 실시예에 따르면, 상기 수면 정보 습득 단계;는, 상기 수면 음향 정보를 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환하는 전처리 단계를 포함할 수 있다.And, according to an embodiment of the present invention, the sleep information acquisition step may include a preprocessing step of converting the sleep sound information into information including changes in frequency components along the time axis.
또한, 본 발명의 일 실시예에 따르면, 상기 수면 서비스 제공 단계;는, 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 콘텐츠 서비스를 제공할 수 있다.Additionally, according to an embodiment of the present invention, the sleep service providing step may provide a sleep content service based on the acquired sleep state information or the acquired sleep information.
그리고, 본 발명의 일 실시예에 따르면, 상기 수면 서비스 제공 단계;는, 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 분석 정보 제공 서비스를 제공할 수 있다.And, according to an embodiment of the present invention, the sleep service providing step may provide a sleep analysis information providing service based on the acquired sleep state information or the acquired sleep information.
또한, 본 발명의 일 실시예에 따르면, 상기 수면 서비스 제공 단계;는, 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 환경 조절 서비스를 제공할 수 있다.Additionally, according to an embodiment of the present invention, the sleep service providing step may provide a sleep environment control service based on the acquired sleep state information or the acquired sleep information.
그리고, 본 발명의 일 실시예에 따르면, 상기 사용자 동작 피드백 감지 단계;는 상기 제공된 수면 서비스에 대한 유저의 동작을 감지하는 단계; 및 상기 감지된 유저의 동작을 피드백에 대한 정보로 변환하는 단계;를 포함할 수 있다.And, according to one embodiment of the present invention, the step of detecting user motion feedback includes detecting a user's motion for the provided sleep service; and converting the detected user's motion into information about feedback.
또한, 본 발명의 일 실시예에 따르면, 상기 사용자 동작 피드백 감지 단계;는 상기 사용자 동작 피드백은 음성 동작 피드백, 물리 동작 피드백 및 수면 환경 조절 피드백 중 하나 이상을 포함할 수 있다.Additionally, according to an embodiment of the present invention, the step of detecting user motion feedback may include one or more of voice motion feedback, physical motion feedback, and sleep environment control feedback.
본 발명의 목적을 달성하기 위한, 사용자의 수면에 관한 피드백을 수집하는 방법 및 그래픽 사용자 인터페이스를 제공하는 방법은, 하나 이상의 수면 정보 센서 장치로부터 수면 정보를 습득하는 수면 정보 습득 단계; 상기 습득된 수면 정보에 기초하여 사용자의 수면 상태 정보- 상기 사용자의 수면 상태 정보는 사용자의 수면 단계, 사용자의 수면 이벤트 중 적어도 하나 이상을 포함한다 -를 획득하는 수면 상태 정보 획득 단계; 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 서비스를 제공하는 수면 서비스 제공 단계; 및 상기 제공된 수면 서비스에 대한 사용자 피드백을 수집하기 위해 상기 획득된 수면 상태 정보의 변화를 감지하는 단계를 포함할 수 있다.In order to achieve the object of the present invention, a method of collecting feedback on a user's sleep and a method of providing a graphical user interface include a sleep information acquisition step of acquiring sleep information from one or more sleep information sensor devices; A sleep state information acquisition step of acquiring user's sleep state information based on the acquired sleep information - the user's sleep state information includes at least one of the user's sleep stage and the user's sleep event; A sleep service providing step of providing a sleep service based on the acquired sleep state information or the acquired sleep information; and detecting changes in the obtained sleep state information to collect user feedback on the provided sleep service.
또한, 상기 수면 정보는 수면 환경 정보, 수면 음향 정보, 수면 생활 정보 중 하나 이상을 포함할 수 있다.Additionally, the sleep information may include one or more of sleep environment information, sleep sound information, and sleep life information.
그리고. 본 발명의 일 실시예에 따르면, 상기 수면 정보 습득 단계;는, 상기 수면 음향 정보를 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환하는 전처리 단계를 포함할 수 있다.and. According to an embodiment of the present invention, the sleep information acquisition step may include a preprocessing step of converting the sleep sound information into information including changes in frequency components along the time axis.
또한, 본 발명의 일 실시예에 따르면, 상기 수면 서비스 제공 단계;는, 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 콘텐츠 서비스를 제공할 수 있다.Additionally, according to an embodiment of the present invention, the sleep service providing step may provide a sleep content service based on the acquired sleep state information or the acquired sleep information.
그리고, 본 발명의 일 실시예에 따르면, 상기 수면 서비스 제공 단계;는, 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 분석 정보 제공 서비스를 제공할 수 있다.And, according to an embodiment of the present invention, the sleep service providing step may provide a sleep analysis information providing service based on the acquired sleep state information or the acquired sleep information.
또한, 본 발명의 일 실시예에 따르면, 상기 수면 서비스 제공 단계;는, 상기 획득된 수면 상태 정보 또는 상기 습득된 수면 정보에 기초하여 수면 환경 조절 서비스를 제공할 수 있다.Additionally, according to an embodiment of the present invention, the sleep service providing step may provide a sleep environment control service based on the acquired sleep state information or the acquired sleep information.
그리고, 본 발명의 일 실시예에 따르면, 상기 감지된 수면 상태 정보 변화에 기초하여 수면 서비스에 관한 수면 상태 정보 피드백을 획득하는 단계;를 더 포함할 수 있다.And, according to an embodiment of the present invention, the method may further include obtaining sleep state information feedback regarding a sleep service based on the sensed change in sleep state information.
또한, 본 발명의 일 실시예에 따르면, 상기 획득된 수면 상태 정보 변화를 감지하는 단계;는 상기 획득된 수면 상태 정보와 상기 제공된 수면 서비스의 대응 정보를 획득하는 단계; 및 상기 획득된 대응 정보에 기초하여 수면 상태 정보의 변화를 피드백으로 수집하는 단계;를 포함할 수 있다.In addition, according to one embodiment of the present invention, detecting a change in the acquired sleep state information includes obtaining corresponding information between the obtained sleep state information and the provided sleep service; and collecting changes in sleep state information as feedback based on the obtained corresponding information.
그리고, 본 발명의 일 실시예에 따르면, 상기 획득된 수면 상태 정보 변화를 감지하는 단계;는 상기 획득된 수면 상태 정보 변화가 긍정적 수면 기준 범위에 해당 하는지 판단하는 단계; 및 상기 긍정적 수면 기준 범위에 해당하는 하는 경우 긍정적인 수면 피드백으로, 상기 긍정적 수면 기준 범위에 해당하지 않는 경우 부정적인 수면 피드백으로 판단하는 단계;를 포함할 수 있다.And, according to one embodiment of the present invention, detecting a change in the acquired sleep state information includes determining whether the acquired change in sleep state information falls within a positive sleep reference range; and determining positive sleep feedback if the sleep quality falls within the positive sleep standard range, and determining negative sleep feedback if the sleep quality does not fall within the positive sleep standard range.
또한, 본 발명의 일 실시예에 따르면, 상기 수면 상태 정보는 무호흡증에 관한 정보를 포함할 수 있다.Additionally, according to an embodiment of the present invention, the sleep state information may include information about apnea.
그리고, 본 발명의 일 실시예에 따르면, 상기 수면 상태 정보는 입면 지연시간에 관한 정보를 포함할 수 있다.And, according to an embodiment of the present invention, the sleep state information may include information about the elevation delay time.
또한, 본 발명의 일 실시예에 따르면, 상기 수면 상태 정보는 REM수면의 지연 시간에 관한 정보를 포함할 수 있다.Additionally, according to an embodiment of the present invention, the sleep state information may include information about the delay time of REM sleep.
그리고, 본 발명의 일 실시예에 따르면, 상기 수면 상태 정보는 깊은 수면의 비율 정보를 포함할 수 있다.And, according to an embodiment of the present invention, the sleep state information may include deep sleep ratio information.
또한, 본 발명의 일 실시예에 따르면, 상기 수면 상태 정보는 수면의 총량 정보를 포함할 수 있다.Additionally, according to an embodiment of the present invention, the sleep state information may include information on the total amount of sleep.
본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 피드백을 수집 및 그래픽 사용자 인터페이스를 제공하기 위해 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장한 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 하나 이상의 프로그램은 상술한 방법 중 하나 이상을 수행하라는 명령어들을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체를 제공할 수 있다.In order to achieve the purpose of the present invention, a non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors to collect feedback on the user's sleep and provide a graphical user interface, said one The above program may provide a non-transitory computer-readable storage medium containing instructions to perform one or more of the methods described above.
본 발명의 목적을 달성하기 위하여, 사용자의 수면에 관한 피드백을 수집 및 그래픽 사용자 인터페이스를 제공하는 장치로서, 디스플레이부; 하나 이상의 프로세서; 및 상기 하나이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하는 메모리 - 상기 하나 이상의 프로그램은 상술한 방법 중 어느 한 방법을 수행하기 위한 명령어들을 포함함 - 를 포함하는, 사용자의 수면에 관한 피드백을 수집 및 그래픽 사용자 인터페이스를 제공하는 장치를 제공한다. In order to achieve the purpose of the present invention, there is provided a device that collects feedback on the user's sleep and provides a graphical user interface, comprising: a display unit; One or more processors; and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising instructions for performing any one of the methods described above, and providing feedback regarding the user's sleep. Provided is a device that collects and provides a graphical user interface.
본 발명에 따르면, 사용자의 수면에 관한 평가를 그래픽 사용자 인터페이스로 생성하여 제공함으로써, 사용자의 수면에 관한 평가를 사용자에게 제공하여 사용자의 수면의 질을 향상시키는데 기여할 수 있다.According to the present invention, by generating and providing an evaluation of the user's sleep through a graphical user interface, it is possible to contribute to improving the quality of the user's sleep by providing the user with an evaluation of the user's sleep.
또한, 사용자의 수면 정보를 수집함으로써, 개인의 수면 패턴, 질, 건강 상태 등을 정확하게 파악할 수 있다. 다양한 사용자의 수면 정보를 습득하고 시각적으로 표현함으로써, 보다 정확한 수면 평가를 가능하게 할 수 있다.Additionally, by collecting the user's sleep information, it is possible to accurately determine the individual's sleep pattern, quality, and health status. By acquiring and visually expressing sleep information from various users, more accurate sleep evaluation can be made possible.
또한, 사용자의 수면 정보 또는 수면 서비스에 대한 피드백을 수집함으로써, 인공지능 학습 등을 위한 데이터로 활용하여, 보다 정확한 수면 분석 모델을 학습할 수 있다.Additionally, by collecting feedback on the user's sleep information or sleep service, it can be used as data for artificial intelligence learning, etc. to learn a more accurate sleep analysis model.
본 발명에 따르면, 사용자의 수면에 관한 정보를 그래픽 사용자 인터페이스로 생성하여 제공함으로써, 사용자의 수면에 관한 정보를 사용자에게 제공하여 사용자의 수면의 짊을 향상시키는데 기여할 수 있다.According to the present invention, by generating and providing information about the user's sleep through a graphical user interface, it is possible to contribute to improving the user's sleep quality by providing information about the user's sleep to the user.
본 발명에 따르면, 사용자의 수면에 관한 정보를 그래픽 사용자 인터페이스로 생성하여 제공함으로써, 사용자의 수면에 관한 정보를 사용자에게 제공하여 사용자의 수면의 짊을 향상시키는데 기여할 수 있다. 또한, 사용자의 수면에 관한 정보를 언제 획득하였는지에 대한 정보를 직관적으로 나타냄으로써, 수면에 관한 정보를 분석하는 데 도움이 될 수 있다.According to the present invention, by generating and providing information about the user's sleep through a graphical user interface, it is possible to contribute to improving the user's sleep quality by providing information about the user's sleep to the user. Additionally, it can be helpful in analyzing information about sleep by intuitively displaying information about when information about the user's sleep was obtained.
본 발명의 효과는, 렘 수면 시점을 정확히 포착하여 사용자에게 알람을 제공하는 것이다. 또한, 기상 예정 시간과 수면 예상 시간을 한 화면에서 제공하는 것이다. 또한, 기상 예정 시간을 변경하는 경우, 실시간으로 변경되는 수면 예상 시간을 제공하는 것이다. 또한, 알람이 설정된 이후의 화면에서 시간에 대한 정보를 최소한으로 제공하여 사용자로 하여금 기상 시간에 대한 불안감을 조성 하지 않게 하는 것이다. 또한, 알람이 설정된 이후의 화면에서 힙노그램을 표시하여 정확하게 렘 수면 시점에서 사용자가 기상을 한 것인지 알 수 있게 하는 것이다. 또한, 사용자에게 알람이 울리는 시점이 아닌 얼마나 더 잘 수 있는지에 대한 정보를 제공하는 것이다. The effect of the present invention is to accurately capture the timing of REM sleep and provide an alarm to the user. Additionally, it provides the expected wake-up time and estimated sleep time on one screen. Additionally, when the scheduled wake-up time is changed, an estimated sleep time that changes in real time is provided. Additionally, minimal time information is provided on the screen after the alarm is set to prevent users from feeling anxious about waking up time. Additionally, a hypnogram is displayed on the screen after the alarm is set, allowing the user to know whether the user woke up exactly at the time of REM sleep. Additionally, it provides users with information about how much more sleep they can sleep, rather than when the alarm sounds.
본 발명은 사용자의 수면 음향 정보를 분석하여, 수면 상태 정보를 제공함과 동시에, 사용자의 수면의 결과를 타인의 수면과 비교하여 한 눈에 알아보기 쉽도록 정보를 제공하는 그래픽 사용자 인터페이스를 제공한다. The present invention provides a graphical user interface that analyzes the user's sleep sound information, provides sleep state information, and provides information so that the user's sleep results can be easily recognized at a glance by comparing the results of the user's sleep with the sleep of others.
본 발명은 수면 상태 정보를 제공하기 위한 수면 측정을 사용자 디바이스 상에서 편하게 트리거링할 수 있다. The present invention can conveniently trigger sleep measurement to provide sleep state information on a user device.
본 발명에 따르면, 사용자의 수면에 관한 평가를 그래픽 사용자 인터페이스로 생성하여 제공함으로써, 사용자의 수면에 관한 평가를 사용자에게 제공하여 사용자의 수면의 질을 향상시키는데 기여할 수 있다.According to the present invention, by generating and providing an evaluation of the user's sleep through a graphical user interface, it is possible to contribute to improving the quality of the user's sleep by providing the user with an evaluation of the user's sleep.
또한, 사용자의 수면 정보를 수집함으로써, 개인의 수면 패턴, 질, 건강 상태 등을 정확하게 파악할 수 있다. 다양한 사용자의 수면 정보를 습득하고 시각적으로 표현함으로써, 보다 정확한 수면 평가를 가능하게 할 수 있다.Additionally, by collecting the user's sleep information, it is possible to accurately determine the individual's sleep pattern, quality, and health status. By acquiring and visually expressing sleep information from various users, more accurate sleep evaluation can be made possible.
또한, 사용자의 수면 정보 또는 수면 서비스에 대한 피드백을 수집함으로써, 인공지능 학습 등을 위한 데이터로 활용하여, 보다 정확한 수면 분석 모델을 학습할 수 있다.Additionally, by collecting feedback on the user's sleep information or sleep service, it can be used as data for artificial intelligence learning, etc. to learn a more accurate sleep analysis model.
도 1a는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다. 1A is a conceptual diagram illustrating a system in which various aspects of an apparatus for generating one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention may be implemented.
도 1b는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 장치의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다. FIG. 1B is a conceptual diagram illustrating a system in which various aspects of a device providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention may be implemented.
도 2a는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스의 생성 및/또는 제공이 사용자 단말에서 구현되는 경우의 시스템을 나타낸 개념도이다.FIG. 2A is a conceptual diagram illustrating a system in which the creation and/or provision of one or more graphical user interfaces representing information about a user's sleep are implemented in a user terminal according to an embodiment of the present invention.
도 2b는 본 발명에 따른 다양한 전자 장치들의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다.Figure 2b is a conceptual diagram showing a system in which various aspects of various electronic devices according to the present invention can be implemented.
도 3은 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치/제공하는 장치의 구성을 나타내는 블록도이다.Figure 3 is a block diagram showing the configuration of a device that generates/provides one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
도 4a 내지 도 4g는 본 발명의 실시예들에 따라 기상 시점에 기초하여 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 도시한 도면이다.FIGS. 4A to 4G are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the waking time according to embodiments of the present invention.
도 5a 내지는 도 5e는 본 발명의 실시예들에 따라 입면 시점에 기초하여 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 도시한 도면이다.FIGS. 5A to 5E are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the elevation viewpoint according to embodiments of the present invention.
도 6a 내지 도 6e는 본 발명의 실시예들에 따라 입면 시점 및 기상 시점에 기초하여 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 도시한 도면이다.FIGS. 6A to 6E are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the elevation time and the waking time according to embodiments of the present invention.
도 7a 내지 도 7g는 본 발명의 실시예들에 따라 기상 시점이 속한 시간대의 정의에 기초하여 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 도시한 도면이다.FIGS. 7A to 7G are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the definition of the time zone to which the waking time belongs according to embodiments of the present invention. am.
도 8은 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보를 획득하는 과정을 설명하기 위한 도면이다.Figure 8 is a diagram for explaining the process of acquiring sleep sound information in the sleep analysis method according to the present invention.
도 9는 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보에 대응하는 스펙트로그램을 획득하는 방법을 설명하기 위한 도면이다.Figure 9 is a diagram for explaining a method of obtaining a spectrogram corresponding to sleep sound information in the sleep analysis method according to the present invention.
도 10은 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성 및 제공하는 방법의 흐름도이다.Figure 10 is a flowchart of a method for creating and providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
도 11은 본 발명에 따른 수면 분석 방법을 수행하기 위한 하나 이상의 네트워크 함수를 나타낸 개략도이다.Figure 11 is a schematic diagram showing one or more network functions for performing the sleep analysis method according to the present invention.
도 12는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면단계분석을 설명하기 위한 도면이다.Figure 12 is a diagram for explaining sleep stage analysis using a spectrogram in the sleep analysis method according to the present invention.
도 13은 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면장애 판단을 설명하기 위한 도면이다.Figure 13 is a diagram for explaining sleep disorder determination using a spectrogram in the sleep analysis method according to the present invention.
도 14는 본 발명에 따른 수면 분석 방법의 성능을 검증하기 위한 실험과정을 나타내는 도면이다. Figure 14 is a diagram showing an experimental process for verifying the performance of the sleep analysis method according to the present invention.
도 15는 본 발명의 일 실시예에 따른 수면 분석 모델의 전체적인 구조를 설명하기 위한 도면이다.Figure 15 is a diagram for explaining the overall structure of a sleep analysis model according to an embodiment of the present invention.
도 16은 본 발명의 일 실시예에 따른 피처 추출 모델과 피처 분류 모델을 설명하기 위한 도면이다.Figure 16 is a diagram for explaining a feature extraction model and a feature classification model according to an embodiment of the present invention.
도 17a 및 도 17b는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.17A and 17B are graphs verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results (PSG results) and analysis results (AI results) using the AI algorithm according to the present invention. This is a comparison drawing.
도 18은 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면 무호흡증(apnea), 호흡저하(hypopnea)와 관련하여 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.Figure 18 is a graph verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results in relation to sleep apnea and hypoventilation and the results according to the present invention. This is a diagram comparing the analysis results (AI results) using AI algorithms.
도 19a는 본 발명에 따른 알람 기능이 활성화된 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 19a is a diagram showing a graphical user interface showing information about the sleep of a user with the alarm function activated according to the present invention.
도 19b는 본 발명에 따른 알람 기능이 활성화되지 않은 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 19b is a diagram illustrating a graphical user interface showing information about the sleep of a user in which the alarm function according to the present invention is not activated.
도 20a는 본 발명에 따른 알람 기능이 활성화된 상태에서 수면 측정 중임을 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 20a is a diagram showing a graphical user interface indicating that sleep is being measured while the alarm function according to the present invention is activated.
도 20b는 본 발명에 따른 알람 기능이 비활성화된 상태에서 수면 측정 중임을 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 20b is a diagram showing a graphical user interface indicating that sleep is being measured while the alarm function according to the present invention is deactivated.
도 21은 본 발명에 따른 사용자의 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간을 확인할 수 있도록 정보를 제공하는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 21 is a diagram illustrating a graphical user interface that provides information to confirm the user's expected sleep time according to the present invention when the user's expected sleep time is more than a predetermined time.
도 22는 본 발명에 따른 사용자의 수면 예상 시간이 소정의 시간 미만인 경우, 수면 측정에 부합되는 정보 제공 사용자 인터페이스를 나타낸 도면이다.Figure 22 is a diagram illustrating a user interface that provides information corresponding to sleep measurement when the user's expected sleep time is less than a predetermined time according to the present invention.
도 23은 본 발명에 따른 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법을 설명하기 위한 도면이다.Figure 23 is a diagram for explaining a method of providing an alarm based on the user's sleep state information according to the present invention.
도 24a는 본 발명의 AI 알람을 설정하지 않은 경우를 힙노그램을 통해 설명하기 위한 도면이다. Figure 24a is a diagram for explaining the case where the AI alarm of the present invention is not set using a hypnogram.
도 24b는 본 발명의 AI 알람을 설정한 경우를 힙노그램을 통해 설명하기 위한 도면이다. Figure 24b is a diagram for explaining the case of setting the AI alarm of the present invention through a hypnogram.
도 25c는 본 발명의 실시예에 따른 호흡 안정도 그래프를 나타낸 도면이다.Figure 25c is a diagram showing a respiratory stability graph according to an embodiment of the present invention.
도 25e는 본 발명의 일 실시예에 따른 호흡 불안정에 대한 설명 표시를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.Figure 25e is a diagram showing a graphical user interface including an explanatory display for respiratory instability according to an embodiment of the present invention.
도 26a 및 도 26b는 본 발명의 실시예들에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스를 나타내는 도면이다. 26A and 26B are diagrams illustrating a graphical user interface including statistical information of sleep state information according to embodiments of the present invention.
도 27a 및 도 27b는 본 발명의 실시예들에 따라 일주일 간 획득한 수면 상태 정보를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.Figures 27a and 27b are diagrams illustrating a graphical user interface including sleep state information acquired over a week according to embodiments of the present invention.
도 28a 및 도 28b는 본 발명의 실시예들에 따라 소정의 기간동안 획득한 수면 상태 정보를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIGS. 28A and 28B are diagrams illustrating a graphical user interface including sleep state information acquired over a predetermined period of time according to embodiments of the present invention.
도 29는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성 및 제공하는 방법의 흐름도이다.Figure 29 is a flowchart of a method for creating and providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
도 31a 내지 도31e는 종래의 수면 측정 인터페이스에서 표현되는 수면 단계 정보의 힙노그램 그래프를 나타낸 도면이다.Figures 31A to 31E are diagrams showing hypnogram graphs of sleep stage information expressed in a conventional sleep measurement interface.
도 32는 본 발명의 일 실시예인 사용자 디바이스의 디스플레이부에 손가락 스와이프 입력이 센싱되면, 손가락 스와이프를 센싱하는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 32 is a diagram showing that when a finger swipe input is sensed on the display unit of a user device, which is an embodiment of the present invention, the time of sensing the finger swipe is recognized as the sensing time of the sleep measurement start trigger.
도 33은 본 발명의 일 실시예인 사용자 디바이스의 디스플레이부에 손바닥 스와이프 입력이 센싱되면, 손바닥 스와이프를 센싱하는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 33 is a diagram showing that when a palm swipe input is sensed on the display unit of a user device, which is an embodiment of the present invention, the time of sensing the palm swipe is recognized as the sensing time of the sleep measurement start trigger.
도 34는 본 발명의 일 실시예인 사용자 디바이스가 유선 충전 개시를 센싱하면, 충전 개시 센싱 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 34 is a diagram showing that when the user device, which is an embodiment of the present invention, senses the start of wired charging, it recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger.
도 35는 본 발명의 일 실시예인 사용자 디바이스가 무선 충전 개시를 센싱하면, 충전 개시 센싱 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 35 is a diagram showing that when a user device, which is an embodiment of the present invention, senses the start of wireless charging, it recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger.
도 36은 본 발명의 일 실시예인 사용자 디바이스에 운동 또는 움직임이 센싱되면, 운동 또는 움직임이 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 36 is a diagram showing that when exercise or movement is sensed by a user device, which is an embodiment of the present invention, the time at which the exercise or movement is sensed is recognized as the sensing time of the sleep measurement start trigger.
도 37은 본 발명의 일 실시예인 사용자 디바이스에 사용자 음성이 센싱되면, 사용자 음성이 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 37 is a diagram showing that when a user's voice is sensed by a user device, which is an embodiment of the present invention, the time when the user's voice is sensed is recognized as the sensing time of the sleep measurement start trigger.
도 38은 본 발명의 일 실시예인 사용자 디바이스에 네트워크로 연결된 타 디바이스가 수면 측정 개시 트리거 정보를 센싱하면, 상기 센싱 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 38 is a diagram illustrating that when another device connected to the user device through a network senses sleep measurement start trigger information, which is an embodiment of the present invention, the sensing time is recognized as the sensing time of the sleep measurement start trigger.
도 39는 본 발명의 일 실시예인 사용자 디바이스에 수면 음향 정보가 센싱되면, 수면 음향 정보가 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 39 is a diagram showing that when sleep sound information is sensed by a user device according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
도 40은 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스에 수면 음향 정보가 센싱되면, 수면 음향 정보가 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. FIG. 40 is a diagram illustrating that when sleep sound information is sensed by a user device in a sleep mode according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
도 41은 본 발명의 일 실시예인 사용자 디바이스의 잠금 장치 해제가 센싱되면, 잠금 장치 해제가 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다.FIG. 41 is a diagram illustrating that when unlocking of the locking device of the user device is sensed, which is an embodiment of the present invention, the time when unlocking of the locking device is sensed is recognized as the sensing time of the sleep measurement start trigger.
도 42는 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스에 손가락 탭핑이 센싱되지 않으면, 손가락 탭핑이 센싱되지 않은 시점에서 소정의 시간이 지난 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 42 shows that during the sleep mode, which is an embodiment of the present invention, if finger tapping is not sensed by the user device, the time when a predetermined time has elapsed from the time when finger tapping was not sensed is recognized as the sensing time of the sleep measurement start trigger. It is a drawing.
도 43은 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스에 사용자의 운동 또는 움직임이 센싱되지 않으면, 사용자의 운동 또는 움직임이 센싱되지 않은 시점에서 소정의 시간이 지난 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 43 shows that during the sleep mode, which is an embodiment of the present invention, if the user's exercise or movement is not sensed by the user device, the sleep measurement start trigger is sensed at a predetermined time after the user's exercise or movement is not sensed. This is a diagram showing what is perceived from a viewpoint.
도 44는 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스의 디스플레이가 꺼지면, 사용자 디바이스의 디스플레이가 꺼진 시점에서 소정의 시간이 지난 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다.Figure 44 is a diagram showing that when the display of the user device is turned off during sleep mode, which is an embodiment of the present invention, the point in time when a predetermined time has elapsed from the time the display of the user device is turned off is recognized as the sensing time of the sleep measurement start trigger.
도 45는 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스에 사용자의 음성이 인식되지 않으면, 사용자 디바이스의 사용자의 음성이 인식되지 않는 시점에서 소정의 시간이 지난 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다.Figure 45 shows the sensing time of the sleep measurement start trigger when a predetermined time has elapsed from the time when the user's voice is not recognized by the user device during the sleep mode, which is an embodiment of the present invention, when the user's voice is not recognized by the user device. This is a drawing showing what is recognized as.
도 46a는 본 발명의 일 실시 형태에 따라, 일반인의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 46a is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of the general public and the average elevation delay time of a user, according to an embodiment of the present invention.
도 46b는 본 발명의 일 실시 형태에 따라, 특정 연령대, 및 특정 성별의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. FIG. 46B is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of a user with the average elevation delay time of a specific age group and a specific gender, according to an embodiment of the present invention.
도 46c는 본 발명의 일 실시 형태에 따라, 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 46c is a diagram illustrating a graphical user interface showing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user, according to an embodiment of the present invention.
도 46d는 본 발명의 일 실시 형태에 따라, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다.Figure 46d is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of a user with the average elevation delay time of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
도 47a는 본 발명의 일 실시 형태에 따라, 일반인의 평균 깊은 잠과 사용자의 평균 깊은 잠의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 47a is a diagram illustrating a graphical user interface showing a comparison between the average deep sleep of a general person and the average deep sleep of a user, according to an embodiment of the present invention.
도 47b는 본 발명의 일 실시 형태에 따라, 특정 연령대, 및 특정 성별의 평균 깊은 잠과 사용자의 평균 깊은 잠의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. FIG. 47B is a diagram illustrating a graphical user interface showing a comparison of a user's average deep sleep with that of a specific age group and a specific gender, according to an embodiment of the present invention.
도 47c는 본 발명의 일 실시 형태에 따라, 특정 직종의 깊은 잠과 사용자의 깊은 잠의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 47c is a diagram illustrating a graphical user interface showing a comparison between deep sleep of a specific occupation and deep sleep of a user, according to an embodiment of the present invention.
도 47d는 본 발명의 일 실시 형태에 따라, 특정 연령대, 특정 성별, 및 특정 직종의 깊은 잠과 사용자의 깊은 잠 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 47D is a diagram illustrating a graphical user interface showing a comparison of deep sleep of a user with deep sleep of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
도 48a는 본 발명의 일 실시 형태에 따라, 일반인의 평균 렘 수면과 사용자의 렘 수면의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. FIG. 48A is a diagram illustrating a graphical user interface showing a comparison between the average REM sleep of an ordinary person and the REM sleep of a user, according to an embodiment of the present invention.
도 48b는 본 발명의 일 실시 형태에 따라, 특정 연령대, 및 특정 성별의 평균 렘 수면과 사용자의 렘 수면의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. FIG. 48B is a diagram illustrating a graphical user interface showing a comparison of the user's REM sleep with the average REM sleep of a specific age group and a specific gender, according to an embodiment of the present invention.
도 48c는 본 발명의 일 실시 형태에 따라, 특정 직종의 렘 수면과 사용자의 렘 수면의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 48c is a diagram illustrating a graphical user interface showing a comparison between the REM sleep of a specific occupation and the REM sleep of a user, according to an embodiment of the present invention.
도 48d는 본 발명의 일 실시 형태에 따라, 특정 연령대, 특정 성별, 및 특정 직종의 렘 수면과 사용자의 렘 수면의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 48D is a diagram illustrating a graphical user interface showing a comparison of the user's REM sleep with that of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
도 49a는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법의 흐름도이다.Figure 49A is a flowchart of a method for creating one or more graphical user interfaces representing a non-numerical assessment of a user's sleep according to an embodiment of the present invention.
도 49b는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 평가를 비수치적인 방식 및 수치적인 방식으로 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법의 흐름도이다.Figure 49b is a flowchart of a method for creating one or more graphical user interfaces that represent the evaluation of the user's sleep in a non-numerical and numerical manner according to an embodiment of the present invention.
도 50a 내지 도50c는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.50A to 50C are diagrams for explaining one or more graphical user interfaces representing non-numerical evaluations of a user's sleep according to an embodiment of the present invention.
도 51a는 본 발명의 일 실시예에 따른, 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.FIG. 51A is a diagram illustrating one or more graphical user interfaces representing a numerical evaluation of a user's sleep, according to an embodiment of the present invention.
도 51b는 본 발명의 일 실시예에 따른, 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.FIG. 51B is a diagram illustrating one or more graphical user interfaces representing a numerical evaluation of a user's sleep, according to an embodiment of the present invention.
도 51c는 본 발명의 일 실시예에 따른, 사용자의 수면에 관한 수치적인 평가 계산 식 생성을 위해 조사한 정신과 전문의 36명을 대상으로 한, 수면의 질에 영향을 주는 요소를 설명하기 위한 도면이다.Figure 51c is a diagram for explaining factors affecting sleep quality among 36 psychiatrists surveyed to generate a numerical evaluation calculation formula for the user's sleep according to an embodiment of the present invention. .
도 51d는 본 발명의 일 실시예에 따른, 사용자의 수면에 관한 수치적인 평가를 계산하기 위한 수면 키워드와 수면 리커트 척도(Likert Scale)를 설명하기 위한 도면이다.FIG. 51D is a diagram illustrating sleep keywords and a sleep Likert scale for calculating a numerical evaluation of a user's sleep, according to an embodiment of the present invention.
도 52는 본 발명의 일 실시예에 따라서, 사용자의 수면을 분석하기 위해서 딥러닝을 활용한 수면 분석 모델의 구조를 설명하기 위한 도면이다.Figure 52 is a diagram illustrating the structure of a sleep analysis model using deep learning to analyze a user's sleep, according to an embodiment of the present invention.
도 53은 본 발명의 일 실시예에 따라서, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 방법에 있어서, 룩업테이블에 기초하여 수면 문구를 생성하는 방법을 설명하기 위한 도면이다.FIG. 53 is a diagram illustrating a method of generating a sleep phrase based on a lookup table in a method of providing one or more graphical user interfaces representing an evaluation of a user's sleep, according to an embodiment of the present invention.
도 54는 본 발명의 일 실시예에 따라서, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 방법에 있어서, 대규모 언어 모델에 기초하여 수면 문구를 생성하는 방법을 설명하기 위한 도면이다.FIG. 54 is a diagram illustrating a method of generating a sleep phrase based on a large-scale language model in a method of providing one or more graphical user interfaces representing an evaluation of a user's sleep, according to an embodiment of the present invention. .
도 55는 본 발명의 일 실시예에 따라서, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 방법에 있어서, 사용자의 수면 기간 내 수면 단게에 대한 그래프를 생성하는 사용자 수면 그래프를 설명하기 위한 도면이다.Figure 55 illustrates a user sleep graph that generates a graph of sleep stages within a user's sleep period in a method of providing one or more graphical user interfaces representing an evaluation of a user's sleep, according to an embodiment of the present invention. This is a drawing for this purpose.
도 56은 본 발명의 일 실시예에 따른 사용자의 수면 기간 내 수면 단계를 표시하는 힙노그램을 설명하기 위한 도면이다.Figure 56 is a diagram for explaining a hypnogram displaying a sleep stage within a user's sleep period according to an embodiment of the present invention.
도 57은 본 발명의 일 실시예에 따른 사용자의 수면 기간 내 수면 단계를 표시하는 힙노덴시티 그래프를 설명하기 위한 도면이다.Figure 57 is a diagram for explaining a hypnodensity graph displaying the sleep stage within the user's sleep period according to an embodiment of the present invention.
도 58은 본 발명의 일 실시예에 따른, 피드백을 수집하기 위해서 사용자에게 수면 콘텐츠 서비스를 제공하는 것을 설명하기 위한 도면이다.FIG. 58 is a diagram illustrating providing a sleep content service to a user in order to collect feedback, according to an embodiment of the present invention.
도 59는 본 발명의 일 실시예에 따른, 피드백을 수집하기 위해서 사용자에게 수면 분석 정보를 제공하는 것을 설명하기 위한 도면이다.FIG. 59 is a diagram illustrating providing sleep analysis information to a user to collect feedback, according to an embodiment of the present invention.
도 60은 발명의 일 실시예에 따른, 피드백을 수집하기 위해서 사용자에게 수면 환경 조절 서비스를 제공하는 것을 설명하기 위한 도면이다.FIG. 60 is a diagram illustrating providing a sleep environment adjustment service to a user in order to collect feedback, according to an embodiment of the invention.
도 61은 본 발명의 일 실시예에 따른, 수면 콘텐츠에 대한 유저의 피드백을 수집하기 위한 유저 그래픽 디스플레이를 설명하기 위한 도면이다.Figure 61 is a diagram for explaining a user graphic display for collecting user feedback on sleep content according to an embodiment of the present invention.
도 62는 본 발명의 일 실시예에 따른, 수면 분석 정보에 대한 유저의 피드백을 수집하기 위한 유저 그래픽 디스플레이를 설명하기 위한 도면이다. Figure 62 is a diagram for explaining a user graphic display for collecting user feedback on sleep analysis information, according to an embodiment of the present invention.
도 63은 본 발명의 일 실시예에 따른, 수면 서비스에 대한 유저의 피드백을 수집하기 위한 유저 그래픽 디스플레이를 설명하기 위한 도면이다.FIG. 63 is a diagram illustrating a user graphic display for collecting user feedback on a sleep service according to an embodiment of the present invention.
도 64는 본 발명의 일 실시예에 따른, 수면 환경 조절 서비스에 대한 유저의 피드백을 수집하기 위한 유저 동작 피드백 설명하기 위한 도면이다.Figure 64 is a diagram for explaining user action feedback for collecting user feedback on a sleep environment control service according to an embodiment of the present invention.
도 65는 본 발명의 일 실시예에 따른, 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 유저 물리 동작 피드백을 설명하기 위한 도면이다.FIG. 65 is a diagram illustrating user physical motion feedback for collecting user feedback on sleep services or information according to an embodiment of the present invention.
도 66은 본 발명의 일 실시예에 따른, 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 유저 음성 동작 피드백을 설명하기 위한 도면이다.FIG. 66 is a diagram illustrating user voice motion feedback for collecting user feedback on sleep services or information according to an embodiment of the present invention.
도 67은 본 발명의 일 실시예에 따른, 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 수면 상태 정보 피드백을 설명하기 위한 도면이다.FIG. 67 is a diagram illustrating sleep state information feedback for collecting user feedback on sleep services or information according to an embodiment of the present invention.
도 68은 본 발명의 일 실시예에 따른, 사용자 인터페이스 피드백을 활용한 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 방법을 설명하기 위한 흐름도이다. Figure 68 is a flowchart illustrating a method for collecting user feedback on sleep services or information using user interface feedback, according to an embodiment of the present invention.
도 69는 본 발명의 일 실시예에 따른, 사용자 동작 피드백을 활용한 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위하는 방법을 설명하기 위한 흐름도이다. Figure 69 is a flowchart illustrating a method for collecting user feedback on sleep services or information using user motion feedback, according to an embodiment of the present invention.
도 70은 본 발명의 일 실시예에 따른, 사용자 수면 상태 피드백을 활용한 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위하는 방법을 설명하기 위한 흐름도이다. Figure 70 is a flowchart illustrating a method for collecting user feedback on sleep services or information using user sleep state feedback, according to an embodiment of the present invention.
도 71은 대규모 언어 모델(Large Language Model)의 기반이 되는 Transformer모델의 구조를 설명하기 위한 도면이다.Figure 71 is a diagram to explain the structure of the Transformer model, which is the basis of a large language model.
도 72는 본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능에 있어서, DIFFUSION 모델의 역확산모델(Inverter Model)을 설명하기 위한 도면이다.Figure 72 is a diagram for explaining the inverter model of the DIFFUSION model in content creation artificial intelligence according to an embodiment of the present invention.
도 73은 본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능에 있어서, GAN(Generative Adversarial Network)의 생성자(Generator)와 판별자(Discriminator)를 설명하기 위한 도면이다.Figure 73 is a diagram for explaining the generator and discriminator of a GAN (Generative Adversarial Network) in content generation artificial intelligence according to an embodiment of the present invention.
전체적인 구성overall composition
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described in this specification is described as being performed by a computer, but the subject of each step is not limited thereto, and depending on the embodiment, at least part of each step may be performed in a different device.
도 1a는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치(100)의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다. 도 1a에 도시된 바와 같이, 본 발명의 실시예들에 따른 시스템은 그래픽 사용자 인터페이스를 생성하는 장치(100), 사용자 단말(10), 외부 서버(20) 및 네트워크를 포함할 수 있다.FIG. 1A is a conceptual diagram illustrating a system in which various aspects of an apparatus 100 that generates one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention can be implemented. As shown in FIG. 1A, a system according to embodiments of the present invention may include a device 100 for generating a graphical user interface, a user terminal 10, an external server 20, and a network.
여기서, 도 1a에 도시된 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치(100)가 구현되는 시스템은 일 실시예에 따른 것이고, 그 구성요소가 도 1a에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경, 또는 삭제될 수 있다.Here, the system in which the device 100 for generating one or more graphical user interfaces showing information about the user's sleep shown in FIG. 1A is implemented is according to one embodiment, and its components are the embodiment shown in FIG. 1A. It is not limited to this and may be added, changed, or deleted as needed.
도 1b는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 장치(200)의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도이다. 도 1b에 도시된 바와 같이, 본 발명의 실시예들에 따른 시스템은 그래픽 사용자 인터페이스를 제공하는 장치(200), 사용자 단말(10), 외부 서버(20) 및 네트워크를 포함할 수 있다.FIG. 1B is a conceptual diagram illustrating a system in which various aspects of the device 200 that provides one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention can be implemented. As shown in FIG. 1B, a system according to embodiments of the present invention may include a device 200 that provides a graphical user interface, a user terminal 10, an external server 20, and a network.
여기서, 도 1b에 도시된 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 장치(200)가 구현되는 시스템은 일 실시예에 따른 것이고, 그 구성요소가 도 1b에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경, 또는 삭제될 수 있다.Here, the system in which the device 200 providing one or more graphical user interfaces showing information about the user's sleep shown in FIG. 1B is implemented is according to one embodiment, and its components are the embodiment shown in FIG. 1B. It is not limited to this and may be added, changed, or deleted as needed.
한편, 도 2a는 본 발명의 또 다른 실시예에 따라, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스의 생성 및/또는 제공이 사용자 단말(10)에서 구현되는 경우의 시스템을 나타낸 개념도를 도시한다. 도 2a에 도시된 바와 같이, 별도의 생성장치(100) 및/또는 별도의 제공장치(200)가 없이, 사용자 단말(10)에서 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스의 생성 및/또는 제공이 이루어질 수도 있다.Meanwhile, FIG. 2A is a conceptual diagram showing a system in which the creation and/or provision of one or more graphical user interfaces representing information about the user's sleep are implemented in the user terminal 10, according to another embodiment of the present invention. It shows. As shown in FIG. 2A, without a separate generating device 100 and/or a separate providing device 200, creation of one or more graphical user interfaces representing information about the user's sleep on the user terminal 10 and /Or provision may be made.
또한, 도 2b는 본 발명의 또 다른 실시예와 관련된 다양한 전자 장치들의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도를 도시한다.Additionally, FIG. 2B shows a conceptual diagram illustrating a system in which various aspects of various electronic devices related to another embodiment of the present invention can be implemented.
도 2b에 도시된 전자 장치들은, 본 발명의 실시예에 따른 다양한 장치들이 수행하는 동작들 중 적어도 하나 이상을 수행할 수 있다.The electronic devices shown in FIG. 2B may perform at least one of the operations performed by various devices according to embodiments of the present invention.
예를 들어, 본 발명의 실시예들에 따른 다양한 전자 장치들이 수행하는 동작들은 환경 센싱 정보를 획득하는 동작, 수면 분석에 대한 학습을 수행하는 동작, 수면 분석에 대한 추론을 수행하는 동작, 수면 상태 정보를 획득하는 동작을 포함할 수 있다.For example, operations performed by various electronic devices according to embodiments of the present invention include acquiring environmental sensing information, performing learning about sleep analysis, performing inference about sleep analysis, and sleep state. It may include an operation to obtain information.
또는, 예컨대, 사용자의 수면과 관련한 정보를 제공받거나, 환경 센싱 정보를 송신 또는 수신하거나, 환경 센싱 정보를 판별하거나, 환경 센싱 정보로부터 음향 정보를 추출하거나, 데이터를 처리 또는 가공하거나, 서비스를 처리하거나, 서비스를 제공하거나, 환경 센싱 정보 또는 사용자의 수면과 관련한 정보에 기초하여 학습 데이터 세트를 구축하거나, 획득한 데이터 또는 신경망의 입력이 되는 복수의 데이터를 저장하거나, 다양한 정보들을 송신 또는 수신하거나, 네트워크를 통해 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신하거나, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하거나, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 동작 등을 포함할 수도 있다.Or, for example, receive information related to the user's sleep, transmit or receive environmental sensing information, determine environmental sensing information, extract acoustic information from environmental sensing information, process or process data, or process services. , provide services, build a learning data set based on environmental sensing information or information related to the user's sleep, store acquired data or a plurality of data that are input to a neural network, or transmit or receive various information. , mutually transmitting and receiving data for the system according to embodiments of the present invention through a network, generating one or more graphical user interfaces that display information about the user's sleep, or one or more graphic user interfaces that display information about the user's sleep. It may also include operations that provide an interface.
도 2b에 도시된 전자 장치들은, 본 발명의 실시예들에 따른 다양한 전자 장치들이 수행하는 동작들을 개별적으로 나누어 수행할 수도 있으나, 하나 이상의 동작들을 동시에 또는 시계열적으로 수행할 수도 있다.The electronic devices shown in FIG. 2B may individually perform the operations performed by various electronic devices according to embodiments of the present invention, but may also perform one or more operations simultaneously or in time series.
도 2b를 참조하면, 도 2b에 도시된 전자 장치(1a 내지 1d)는 객체 상태 정보 또는 환경 센싱 정보를 획득할 수 있는 영역(11a)의 범위 내에 있는 전자 장치일 수 있다. 이하, 편의상 객체 상태 정보 또는 환경 센싱 정보를 획득할 수 있는 영역(11a)을 “영역(11a)”라 지칭하기로 한다.Referring to FIG. 2B, the electronic devices 1a to 1d shown in FIG. 2B may be electronic devices within the range of the area 11a that can obtain object state information or environmental sensing information. Hereinafter, for convenience, the area 11a where object state information or environmental sensing information can be obtained will be referred to as “area 11a.”
한편, 도 2b를 참조하면, 전자 장치(10a 및 10d)는 2개 이상의 복수 개의 전자 장치의 조합으로 이루어진 장치일 수 있다. 또한, 전자 장치(10a 및 10b)는 영역(11a) 내에서 네트워크와 연결된 전자 장치일 수 있다. 또한, 전자 장치(10c 및 10d)는 영역(11a) 내에서 네트워크와 연결되지 않은 전자 장치일 수 있다.Meanwhile, referring to FIG. 2B, the electronic devices 10a and 10d may be a combination of two or more electronic devices. Additionally, the electronic devices 10a and 10b may be electronic devices connected to a network within the area 11a. Additionally, the electronic devices 10c and 10d may be electronic devices that are not connected to the network within the area 11a.
한편, 도 2b를 참조하면, 전자 장치(20a 내지 20b)는 영역(11a)의 범위 밖에 있는 전자 장치일 수 있다. 또한, 영역(11a)의 범위 내에서 전자 장치들과 상호작용하는 네트워크가 있을 수 있고, 영역(11a)의 범위 밖에서 전자 장치들과 상호작용하는 네트워크가 있을 수 있다.Meanwhile, referring to FIG. 2B, the electronic devices 20a to 20b may be electronic devices outside the range of the area 11a. Additionally, there may be a network that interacts with electronic devices within the confines of area 11a, and there may be a network that interacts with electronic devices outside the confines of area 11a.
여기서, 영역(11a)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 스마트 가전기기를 제어하기 위한 정보를 송수신하기 위한 역할을 수행할 수 있다. Here, a network that interacts with electronic devices within the scope of area 11a may serve to transmit and receive information for controlling smart home appliances.
또한, 영역(11a)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 예를 들면, 근거리 네트워크 또는 로컬 네트워크일 수 있다. 여기서, 영역(11a)의 범위 내에서 전자 장치들과 상호작용하는 네트워크는 예를 들면, 원거리 네트워크 또는 글로벌 네트워크일 수 있다.Additionally, the network interacting with electronic devices within the scope of area 11a may be, for example, a local area network or a local network. Here, the network interacting with electronic devices within the scope of area 11a may be, for example, a remote network or a global network.
한편, 도 2b를 참조하면, 영역(11a)의 범위 밖에서 네트워크를 통해 연결된 전자 장치들은 하나 이상일 수 있으며, 이 경우의 전자 장치들은 서로 데이터를 분산 처리하거나 또는 하나 이상의 동작을 나누어 수행할 수도 있다. 여기서 영역 (11a)의 범위 밖에서 네트워크를 통해 연결된 전자 장치는 서버 장치를 포함할 수 있다.Meanwhile, referring to FIG. 2B, there may be one or more electronic devices connected through a network outside the range of area 11a, and in this case, the electronic devices may distribute data to each other or perform one or more operations separately. Here, electronic devices connected through a network outside the scope of area 11a may include server devices.
또는, 영역(11a)의 범위 밖에서 네트워크를 통해 연결된 전자 장치가 하나 이상인 경우 전자 장치들은 서로 독립하여 다양한 동작을 수행할 수도 있다.Alternatively, when there is more than one electronic device connected through a network outside the range of area 11a, the electronic devices may perform various operations independently of each other.
도 1a 및 1b에 도시된 바와 같이, 본 발명의 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성하는 장치(100)와 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 장치(200)는, 사용자 단말(10)과 네트워크를 통해, 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다.As shown in FIGS. 1A and 1B, the present invention includes an apparatus 100 for generating one or more graphical user interfaces representing information about the user's sleep and a device providing one or more graphical user interfaces representing information about the user's sleep. (200) can transmit and receive data for the system according to embodiments of the present invention with the user terminal 10 through a network.
도 2a에 도시된 바와 같이, 본 발명의 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)와 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 제공 장치(200)가 별도로 구비되어 있지 않더라도, 사용자 단말(10)이 네트워크를 통해, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스 생성 장치(100)와 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 장치(200)의 역할을 수행하여, 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다.As shown in FIG. 2A, one or more graphic user interface generating devices 100 representing information about the user's sleep and one or more graphic user interface providing devices 200 representing information about the user's sleep are separately provided. Even if not provided, the user terminal 10 provides one or more graphical user interface generating devices 100 representing information about the user's sleep and one or more graphical user interfaces representing information about the user's sleep through a network. By performing the role of the device 200, data for systems according to embodiments of the present invention can be transmitted and received.
도 2b에 도시된 바와 같이, 본 발명에 따른 다양한 전자 장치들은 서로 네트워크를 통해, 본 발명의 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다.As shown in FIG. 2B, various electronic devices according to the present invention can transmit and receive data for the system according to embodiments of the present invention through a network.
본 발명의 실시예들에 따른 네트워크는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다. 또한, 여기서 제시되는 네트워크는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.Networks according to embodiments of the present invention include Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), and Very High Speed DSL (VDSL). ), UADSL (Universal Asymmetric DSL), HDSL (High Bit Rate DSL), and local area network (LAN) can be used. In addition, the networks presented here include Code Division Multi Access (CDMA), Time Division Multi Access (TDMA), Frequency Division Multi Access (FDMA), Orthogonal Frequency Division Multi Access (OFDMA), Single Carrier-FDMA (SC-FDMA), and A variety of wireless communication systems, such as other systems, may be used.
본 발명의 실시예들에 따른 네트워크는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다. 본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.The network according to embodiments of the present invention can be configured regardless of the communication mode, such as wired or wireless, and is composed of various communication networks such as a personal area network (PAN) and a wide area network (WAN). It can be. Additionally, the network may be the well-known World Wide Web (WWW), and may also use wireless transmission technology used for short-distance communication, such as Infrared Data Association (IrDA) or Bluetooth. The techniques described herein can be used in the networks mentioned above, as well as other networks.
도 3은 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)의 구성을 나타내는 블록도이다.FIG. 3 is a block diagram showing the configuration of an apparatus 100 for generating/providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
본 발명의 일 실시예에 따르면, 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 디스플레이(120), 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 저장하는 메모리(140), 하나 이상의 프로세서(160)를 포함할 수 있다.According to one embodiment of the present invention, an apparatus 100 for generating/providing one or more graphical user interfaces representing information about a user's sleep 200 includes a display 120, configured to be executed by one or more processors. It may include a memory 140 that stores one or more programs and one or more processors 160.
본 발명의 일 실시예에 따르면, 하나 이상의 프로그램을 저장하는 메모리(140)은 DRAM, SRAM, DDR RAM 또는 다른 랜덤 엑세서 솔리드 스테이트 메모리 디바이스들과 같은 고속 랜덤 엑세스 메모리를 포함하며, 하나 이상의 자기 디스크 저장 디바이스, 광 디스크 저장 디바이스, 플래시 메모리 디바이스 또는 다른 비휘발성 솔리드 스테이트 저장 디바이스와 같은 비휘발성 메모리를 포함한다. 또한, 메모리는 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 방법을 수행하기 위한 명령어들을 저장할 수 있다.According to one embodiment of the present invention, the memory 140 storing one or more programs includes high-speed random access memory such as DRAM, SRAM, DDR RAM, or other random access solid state memory devices, and one or more magnetic disks. Includes non-volatile memory, such as storage devices, optical disk storage devices, flash memory devices, or other non-volatile solid state storage devices. Additionally, the memory may store instructions for performing a method of providing one or more graphical user interfaces representing information about the user's sleep.
본 발명의 일 실시예에 따르면, 프로세서(160)는 하나 이상으로 구성될 수 있다. 또한, 프로세서는 하나 이상의 프로그램을 저장하는 메모리를 실행시킬 수 있다.According to one embodiment of the present invention, the processor 160 may be composed of one or more processors. Additionally, the processor may execute memory that stores one or more programs.
환경 센싱 정보의 획득Acquisition of environmental sensing information
본 발명의 실시예들에 따른 환경 센싱 정보 또는 수면 정보는 하나 이상의 센서 장치로부터 획득될 수 있다. 또한, 본 발명의 일 실시예에 따른 센서 장치는 사용자 단말(10)의 형태로 구현될 수 있다.Environmental sensing information or sleep information according to embodiments of the present invention may be obtained from one or more sensor devices. Additionally, the sensor device according to an embodiment of the present invention may be implemented in the form of a user terminal 10.
환경 센싱 정보는, 사용자가 위치한 공간에서 획득되는 센싱 정보를 의미할 수 있다. 환경 센싱 정보는, 비접촉식 방법으로 사용자가 위치한 공간에서 획득되는 센싱 정보일 수 있다.Environmental sensing information may refer to sensing information obtained from the space where the user is located. Environmental sensing information may be sensing information obtained in a space where the user is located through a non-contact method.
예를 들어, 환경 센싱 정보는, 사용자가 수면을 취하는 침실에서 획득되는 음향 정보일 수 있다. 실시예에 따르면, 사용자 단말(10)을 통해 획득된 환경 센싱 정보는, 본 발명에서 사용자의 수면 상태 정보를 획득하기 위한 기반이 되는 정보일 수 있다. 구체적인 예를 들어, 사용자의 활동에 관련하여 획득되는 환경 센싱 정보를 통해 사용자가 수면 전인지, 수면 중인지 또는 수면 후인지 여부에 관련한 수면 상태 정보가 획득될 수 있다.For example, environmental sensing information may be acoustic information obtained in the bedroom where the user sleeps. According to an embodiment, the environmental sensing information acquired through the user terminal 10 may be the basis for obtaining the user's sleep state information in the present invention. For a specific example, sleep state information related to whether the user is before, during, or after sleep may be obtained through environmental sensing information obtained in relation to the user's activities.
또한, 환경 센싱 정보는 일상생활에서 흔히 발생하는 노이즈 정보(청소에 관련한 음향 정보, 음식 조리에 관련한 음향 정보, TV 시청에 관련한 음향 정보, 고양이 소리, 강아지 소리, 새 소리, 차 소리, 바람 소리, 비 소리 등) 또는, 기타 생체 정보(심전도, 뇌파, 맥박 정보, 근육 움직임에 관한 정보 등) 중 적어도 하나 이상일 수 있다.In addition, environmental sensing information includes noise information commonly occurring in daily life (sound information related to cleaning, sound information related to food cooking, sound information related to watching TV, cat sounds, dog sounds, bird sounds, car sounds, wind noise, It may be at least one of (e.g., rain sounds, etc.) or other biometric information (e.g., electrocardiogram, brain wave, pulse information, information on muscle movement, etc.).
이러한 사용자 단말(10)은 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)와 통신을 위한 메커니즘을 갖는 시스템에서의 임의의 형태의 엔티티(들)를 의미할 수 있다. 예를 들어, 이러한 사용자 단말(10)은 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc), 인공지능(AI) 스피커 및 인공지능 TV 및 웨어러블 디바이스(wearable device) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다. 또한, 사용자 단말(10)은 에이전트, API(Application Programming Interface) 및 플러그-인(Plug-in) 중 적어도 하나에 의해 구현되는 임의의 서버를 포함할 수 도 있다. 또한, 사용자 단말(10)은 애플리케이션 소스 및/또는 클라이언트 애플리케이션을 포함할 수 있다.This user terminal 10 may refer to any type of entity(s) in the system that has a mechanism for communication with the device 100 for generating/providing a graphical user interface. For example, these user terminals 10 include personal computers (PCs), notebooks (note books), mobile terminals, smart phones, tablet PCs, and artificial intelligence (AI) speakers. and artificial intelligence TVs and wearable devices, and may include all types of terminals that can access wired/wireless networks. Additionally, the user terminal 10 may include an arbitrary server implemented by at least one of an agent, an application programming interface (API), and a plug-in. Additionally, the user terminal 10 may include an application source and/or client application.
본 발명의 일 실시예에 따르면, 신경망의 학습을 위한 복수의 학습 데이터에 대한 정보들을 저장하는 외부 서버를 더 구비할 수 있다. 복수의 학습데이터는 예컨대, 건강검진 정보 또는 수면검진 정보 등을 포함할 수 있다. 예를 들어, 외부 서버는 병원 서버 및 정보 서버 중 적어도 하나일 수 있으며, 복수의 수면다원검사 기록, 전자건강기록 및 전자의료기록 등에 관한 정보를 저장하는 서버일 수 있다. 예를 들어, 수면다원검사 기록은 수면검진 대상자의 수면 동안의 호흡 및 움직임 등에 대한 정보 및 해당 정보들에 대응하는 수면 진단 결과(예컨대, 수면 단계 등)에 대한 정보를 포함할 수 있다. 외부 서버(미도시)에 저장된 정보들은 본 발명에서의 신경망을 학습시키기 위한 학습 데이터, 검증 데이터 및 테스트 데이터로 활용될 수 있다.According to an embodiment of the present invention, an external server that stores information about a plurality of learning data for learning a neural network may be further provided. The plurality of learning data may include, for example, health checkup information or sleep checkup information. For example, the external server may be at least one of a hospital server and an information server, and may be a server that stores information about a plurality of polysomnography records, electronic health records, and electronic medical records. For example, a polysomnographic record may include information on the sleep examination subject's breathing and movements during sleep, and information on sleep diagnosis results (eg, sleep stages, etc.) corresponding to the information. Information stored in an external server (not shown) can be used as learning data, verification data, and test data to train the neural network in the present invention.
또한, 본 발명의 일 실시예에 따른 외부 서버는 수면 상태 정보를 분석하기 위한 인공지능 모델이 기록될 수 있다. 이 경우 사용자 단말(10) 등으로부터 환경 센싱 정보를 획득하고, 외부 서버에 송신하면, 외부 서버에 실장된 인공지능 모델을 통해 환경 센싱 정보에 기초하여 수면 상태 정보를 생성할 수 있다. Additionally, an external server according to an embodiment of the present invention may record an artificial intelligence model for analyzing sleep state information. In this case, if environmental sensing information is obtained from the user terminal 10, etc. and transmitted to an external server, sleep state information can be generated based on the environmental sensing information through an artificial intelligence model mounted on the external server.
또는, 본 발명의 일 실시예에 따라 사용자 단말(10)에서 환경 센싱 정보를 획득하고, 사용자 단말(10)에서 환경 센싱 정보의 전처리를 통해 수면 음향 정보를 획득하면, 획득한 수면 음향 정보를 외부 서버에 송신하고, 외부 서버는 수신된 수면 음향 정보에 기초하여 수면 상태 정보를 생성할 수도 있다.Alternatively, according to an embodiment of the present invention, when environmental sensing information is acquired from the user terminal 10 and sleep sound information is acquired through preprocessing of the environmental sensing information in the user terminal 10, the acquired sleep sound information is externally transmitted. It is transmitted to the server, and the external server may generate sleep state information based on the received sleep sound information.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 외부 서버로부터 건강검진 정보 또는 수면검진 정보 등을 수신하고, 해당 정보들에 기초하여 학습 데이터 세트를 구축할 수 있다. The device 100 for generating/providing a graphical user interface according to an embodiment of the present invention 200 receives health checkup information or sleep checkup information from an external server, and sets a learning data set based on the corresponding information. can be built.
본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 학습 데이터 세트를 통해 하나 이상의 네트워크 함수에 대한 학습을 수행함으로써, 환경 센싱 정보에 기초하여 수면 상태 정보를 획득하기 위한 수면 분석 모델을 생성할 수 있다. 본 발명의 신경망 학습을 위한 학습 데이터 세트를 구축하는 구성 및 학습 데이터 세트를 활용한 학습 방법에 대한 구체적인 설명은 후술하도록 한다.The apparatus 100/providing a graphical user interface according to an embodiment of the present invention performs learning on one or more network functions through a learning data set, thereby determining the sleep state based on environmental sensing information. A sleep analysis model can be created to obtain information. A detailed description of the construction of the learning data set for learning the neural network of the present invention and the learning method using the learning data set will be described later.
외부 서버는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 외부 서버는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.The external server is a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, and may be a digital device equipped with a processor and computing power with memory. The external server may be a web server that processes the service. The types of servers described above are merely examples and the present invention is not limited thereto.
본 발명의 일 실시예에 따르면, 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 사용자의 수면 상태 정보를 획득하고, 그리고 사용자의 수면 상태 정보에 기초하여 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하거나 및/또는 제공할 수 있다.According to one embodiment of the present invention, the device 100/device 200 for generating/providing a graphical user interface acquires sleep state information of the user, and relates to the user's sleep based on the sleep state information of the user. One or more graphical user interfaces may be created and/or provided to represent information.
구체적으로, 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 환경 센싱 정보에 기초하여 사용자가 수면 전인지, 중인지 또는 후인지 여부에 관련한 수면 상태 정보를 획득할 수 있으며, 획득한 사용자의 수면 상태 정보에 기초하여 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하거나 및/또는 제공할 수 있다.Specifically, the apparatus 100/device 200 for generating/providing a graphical user interface according to an embodiment of the present invention determines the sleep state related to whether the user is before, during, or after sleep based on environmental sensing information. Information may be obtained, and one or more graphical user interfaces representing information about the user's sleep may be generated and/or provided based on the acquired user's sleep state information.
한편, 전술한 수면 상태 정보에 관련한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.Meanwhile, the specific description related to the above-described sleeping state information is only an example, and the present invention is not limited thereto.
본 발명의 일 실시예에 따르면, 하나 이상의 수면 센서 장치는 사용자 단말(10)에 구비된 마이크 모듈, 카메라 및 조도 센서를 포함할 수 있다.According to an embodiment of the present invention, one or more sleep sensor devices may include a microphone module, a camera, and an illumination sensor provided in the user terminal 10.
예컨대, 사용자 단말(10)에 구비된 마이크 모듈을 통해 일공간 상에서 사용자의 활동에 관련한 정보가 획득될 수 있다.For example, information related to the user's activities in the work space may be obtained through a microphone module provided in the user terminal 10.
또한 사용자 단말(10)에 구비된 마이크 모듈을 통해 정보를 센싱하는 경우, 마이크 모듈은 비교적 작은 크기의 사용자 단말(10)에 구비되어야 하므로 MEMC(Micro-electro Mechanical System)로 구성될 수 있다.In addition, when sensing information through a microphone module provided in the user terminal 10, the microphone module must be provided in the user terminal 10 of a relatively small size, so it may be configured as a Micro-electro Mechanical System (MEMC).
본 발명의 실시예들에 따른 마이크 모듈은 매우 소형으로 제작이 가능하나, 콘덴서 마이크(Condenser Microphone)나 다이나믹 마이크(dynamic microphone)에 비해 낮은 신호 대 잡음비(SNR)를 가질 수 있다. 신호 대 잡음비가 낮다는 것은, 식별하고자 하는 음향 대비 식별하지 않고자 하는 음향인 잡음의 비율이 높은 것으로 음향의 식별이 용이하지 않음(즉, 불분명함)을 의미할 수 있다.Microphone modules according to embodiments of the present invention can be manufactured very small, but may have a lower signal-to-noise ratio (SNR) than a condenser microphone or dynamic microphone. A low signal-to-noise ratio may mean that the ratio of noise, which is a sound that is not to be identified, to the sound that is to be identified is high, making it difficult to identify the sound (i.e., unclear).
또한 본 발명에서 분석의 대상이 되는 환경 센싱 정보는, 수면 동안 획득되는 사용자의 호흡 및 움직임에 관련한 음향 정보를 포함할 수 있다. 이러한 음향 정보는, 사용자의 호흡 및 움직임 등 매우 작은 음향(즉, 구분이 어려운 음향)에 관한 정보이며, 수면 환경 동안 다른 음향들과 함께 획득되는 것이므로, 낮은 신호 대 잡음비의 상기한 바와 같은 마이크 모듈을 통해 획득되는 경우, 탐지 및 분석이 매우 어려울 수 있다.Additionally, the environmental sensing information that is the subject of analysis in the present invention may include acoustic information related to the user's breathing and movement acquired during sleep. This acoustic information is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired along with other sounds during the sleep environment, so the microphone module as described above with a low signal-to-noise ratio If acquired through , detection and analysis can be very difficult.
이러한 경우 본 발명의 일 실시예에 따른 전자장치는 많은 노이즈를 포함하여 불명료하게 획득된 환경 센싱 정보를 분석이 가능한 데이터 변환 및/또는 조정할 수 있으며, 변환 및/또는 조정된 데이터를 활용하여 인공 신경망에 대한 학습을 수행할 수 있다. 인공 신경망에 대한 사전 학습이 완료된 경우, 학습된 신경망(예컨대, 음향 분석 모델)은 수면 음향 정보에 대응하여 획득된(예컨대, 변환 및/또는 조정된) 데이터(예컨대, 스펙트로그램)에 기초하여 사용자의 수면 상태 정보를 획득할 수 있다. In this case, the electronic device according to an embodiment of the present invention can convert and/or adjust environmental sensing information obtained indistinctly, including a lot of noise, into data that can be analyzed, and utilize the converted and/or adjusted data to use an artificial neural network. You can learn about. When pre-training for the artificial neural network is completed, the learned neural network (e.g., acoustic analysis model) is used by the user based on data (e.g., transformed and/or adjusted) acquired (e.g., transformed and/or adjusted) corresponding to the sleep acoustic information. Sleep state information can be obtained.
실시예에서, 수면 상태 정보는, 사용자가 수면을 취하고 있는지 여부에 관련한 정보뿐만 아니라, 수면 동안 사용자의 수면 단계 변화에 관련한 수면 단계 정보를 포함할 수 있다. 구체적인 예를 들어, 수면 상태 정보는 제1 시점에는 사용자가 REM수면이었으며, 제1 시점과 상이한 제2 시점에는 사용자가 얕은 수면이었다는 수면 단계 정보를 포함할 수 있다. 이 경우, 해당 수면 상태 정보를 통해, 사용자는 제1시점에 비교적 깊은 수면에 빠졌으며, 제2 시점에는 보다 얕은 수면을 취했다는 정보가 획득될 수 있다.In an embodiment, the sleep state information may include sleep stage information related to changes in the user's sleep stage during sleep, as well as information related to whether the user is sleeping. For a specific example, the sleep state information may include sleep stage information indicating that the user was in REM sleep at a first time point, and that the user was in light sleep at a second time point different from the first time point. In this case, information that the user fell into a relatively deep sleep at the first time and a lighter sleep at the second time may be obtained through the corresponding sleep state information.
즉, 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 음향을 수집하도록 일반적으로 많이 보급된 사용자 단말(예컨대, 인공지능 스피커, 침실 IoT기기, 휴대폰, 웨어러블 디바이스 등)을 통해 낮은 신호 대 잡음비를 갖는 수면 음향 정보를 획득하는 경우, 이를 분석에 적절한 데이터로 가공하고, 가공된 데이터를 처리하여 수면 단계의 변화에 관련한 수면 상태 정보를 제공할 수 있다. 이는 명료한 음향 획득을 위해 사용자의 신체에 접촉식으로 마이크를 구비하지 않아도 되며, 또한, 높은 신호 대 잡음비를 가진 별도의 추가 디바이스를 구매하지 않고 소프트웨어 업데이트 만으로 일반적인 가정 환경에서 수면 상태를 모니터링할 수 있게 하여 편의성을 증대시키는 효과를 제공할 수 있다.That is, the device 100/device 200 for generating/providing a graphical user interface according to embodiments of the present invention is a user terminal that is widely used to collect sound (e.g., artificial intelligence speaker, bedroom IoT device, When sleep sound information with a low signal-to-noise ratio is acquired through a mobile phone, wearable device, etc.), it can be processed into data appropriate for analysis, and the processed data can be processed to provide sleep state information related to changes in sleep stages. there is. This eliminates the need to have a contact microphone on the user's body to obtain clear sound, and also allows sleep status to be monitored in a typical home environment with just a software update without purchasing an additional device with a high signal-to-noise ratio. This can provide the effect of increasing convenience.
도 1a에서 그래픽 사용자 인터페이스를 생성하는 장치(100)가 사용자 단말(10)과 별도의 엔티티로서 분리되어 표현되었지만, 본 발명의 실시예에 따라서, 도 2a에 도시된 바와 같이 그래픽 사용자 인터페이스를 생성하는 장치(100)는 사용자단말(10) 내에 포함되어, 수면 상태 측정 및 수면에 관한 용품 추천 기능을 하나의 통합 장치에서 수행할 수도 있다. Although the device 100 for generating a graphical user interface in FIG. 1A is represented as a separate entity from the user terminal 10, according to an embodiment of the present invention, the device 100 for generating a graphical user interface as shown in FIG. 2A The device 100 may be included in the user terminal 10 and perform functions of measuring sleep status and recommending products related to sleep in one integrated device.
마찬가지로, 도 1b에서 그래픽 사용자 인터페이스를 제공하는 장치(200)가 사용자 단말(10)과 별도의 엔티티로서 분리되어 표현되었지만, 본 발명의 실시예에 따라서, 도 2a에 도시된 바와 같이, 그래픽 사용자 인터페이스를 제공하는 장치(200)는 사용자단말(10) 내에 포함되어, 수면 상태 측정 및 수면에 관한 용품 검증 기능을 하나의 통합 장치에서 수행할 수도 있다.Likewise, in FIG. 1B, the device 200 providing the graphical user interface is represented as a separate entity from the user terminal 10, but according to an embodiment of the present invention, as shown in FIG. 2A, the graphical user interface The device 200 that provides may be included in the user terminal 10 and perform functions of measuring sleep status and verifying products related to sleep in one integrated device.
실시예에서, 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 단말 또는 서버일 수 있으며, 임의의 형태의 장치는 모두 포함할 수 있다. 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200) 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.In an embodiment, the device 100 for generating/providing a graphical user interface 200 may be a terminal or a server, and may include any type of device. The device 100/providing a graphical user interface is a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone, equipped with a processor and computing power with memory. It can be a digital device. The apparatus 100 for generating/providing a graphical user interface 200 may be a web server that processes services. The types of servers described above are merely examples and the present invention is not limited thereto.
본 발명의 일 실시예에 따르면, 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 보다 구체적으로, 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 인터넷 기반 컴퓨팅의 일종으로 정보를 사용자의 컴퓨터가 아닌 인터넷에 연결된 다른 컴퓨터로 처리하는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. According to an embodiment of the present invention, the device 100 for generating/providing a graphical user interface 200 may be a server providing a cloud computing service. More specifically, the device 100 for generating/providing a graphical user interface 200 is a type of Internet-based computing, which is a server that provides a cloud computing service that processes information not on the user's computer but on another computer connected to the Internet. It can be.
상기 클라우드 컴퓨팅 서비스는 인터넷 상에 자료를 저장해 두고, 사용자가 필요한 자료나 프로그램을 자신의 컴퓨터에 설치하지 않고도 인터넷 접속을 통해 언제 어디서나 이용할 수 있는 서비스일 수 있으며, 인터넷 상에 저장된 자료들을 간단한 조작 및 클릭으로 쉽게 공유하고 전달할 수 있다. 또한, 클라우드 컴퓨팅 서비스는 인터넷 상의 서버에 단순히 자료를 저장하는 것뿐만 아니라, 별도로 프로그램을 설치하지 않아도 웹에서 제공하는 응용프로그램의 기능을 이용하여 원하는 작업을 수행할 수 있으며, 여러 사람이 동시에 문서를 공유하면서 작업을 진행할 수 있는 서비스일 수 있다. The cloud computing service may be a service that stores data on the Internet and can be used anytime, anywhere through Internet access without the user having to install necessary data or programs on his or her computer. The cloud computing service may be a service that allows simple manipulation of data stored on the Internet. You can easily share and forward with a click. In addition, cloud computing services not only allow you to simply store data on a server on the Internet, but also allow you to perform desired tasks using the functions of applications provided on the web without having to install a separate program, and allow multiple people to view documents at the same time. It may be a service that allows you to work while sharing.
또한, 클라우드 컴퓨팅 서비스는 IaaS(Infrastructure as a Service), PaaS(Platform as a Service), SaaS(Software as a Service), 가상 머신 기반 클라우드 서버 및 컨테이너 기반 클라우드 서버 중 적어도 하나의 형태로 구현될 수 있다. 즉, 본 발명의 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)는 상술한 클라우드 컴퓨팅 서비스 중 적어도 하나의 형태로 구현될 수 있다. 전술한 클라우드 컴퓨팅 서비스의 구체적인 기재는 예시일 뿐, 본 발명의 클라우드 컴퓨팅 환경을 구축하는 임의의 플랫폼을 포함할 수도 있다.Additionally, cloud computing services may be implemented in at least one of the following forms: Infrastructure as a Service (IaaS), Platform as a Service (PaaS), Software as a Service (SaaS), virtual machine-based cloud server, and container-based cloud server. . That is, the apparatus 100 for generating/providing the graphic user interface of the present invention 200 may be implemented in at least one form of the cloud computing service described above. The specific description of the cloud computing service described above is merely an example, and may include any platform for constructing the cloud computing environment of the present invention.
시간 도메인상의 정보Information in the time domain
한편, 본 발명에 있어서, 환경 센싱 정보는 수면 환경 정보 및 사용자의 생활 정보를 포함할 수 있다. 상기 수면 환경 정보는 사용자의 수면에 관한 음향 정보일 수 있다. 하나 이상의 수면 정보 센서 장치는 수면에 대한 분석을 위하여 수면에서 발생하는 음향에 관한 로우 정보(raw data)를 수집할 수 있다. 수면에서 발생하는 음향에 관한 로우 데이터는 시간 도메인일 수 있다. Meanwhile, in the present invention, environmental sensing information may include sleeping environment information and user's life information. The sleep environment information may be acoustic information about the user's sleep. One or more sleep information sensor devices may collect raw data about sounds generated from sleep to analyze sleep. Raw data about sounds occurring on the water may be in the time domain.
구체적으로, 수면 음향 정보는 사용자의 수면에 관련한 호흡 및 움직임 패턴에 관련한 것일 수 있다. 예컨대, 깨어있는 상태(wake)에서는 모든 신경계가 활성화 되어 있기 때문에 호흡 패턴이 불규칙적이고 몸의 움직임이 많을 수 있다. 또한, 목 근육의 이완이 이루어지지 않기 때문에 호흡소리가 매우 적을 수 있다. 반면, 사용자가 수면을 취하는 경우에는, 자율신경계가 안정화되어 호흡이 규칙적으로 변화하고 몸의 움직임 또한 적어질 수 있으며, 호흡음도 커질 수 있다. 또한, 수면 도중 무호흡이 발생하는 경우에는, 보상 기전으로 무호흡 직후 큰 호흡음이 발생할 수 있다. 즉, 수면에 관한 로우 데이터를 수집함으로써, 수면에 대한 분석을 진행할 수 있다. Specifically, sleep sound information may be related to breathing and movement patterns related to the user's sleep. For example, in the awake state, all nervous systems are activated, so breathing patterns may be irregular and body movements may be frequent. Additionally, breathing sounds may be very low because the neck muscles are not relaxed. On the other hand, when the user sleeps, the autonomic nervous system stabilizes, breathing changes regularly, body movements may decrease, and breathing sounds may become louder. Additionally, when apnea occurs during sleep, loud breathing sounds may occur immediately after apnea as a compensation mechanism. In other words, by collecting raw data about sleep, analysis of sleep can be performed.
시간 도메인상의 정보에 대한 전처리Preprocessing of information in time domain
본 발명의 실시예들에 따라, 획득된 환경 센싱 정보, 음향 정보는 시간 도메인상의 정보로서, 노이즈 리덕션의 전처리 과정을 거칠 수 있다.According to embodiments of the present invention, the acquired environmental sensing information and acoustic information are information in the time domain and may undergo a preprocessing process of noise reduction.
노이즈 리덕션 과정에서는 로우 데이터에 포함된 노이즈(예: 화이트노이즈)가 제거된다. 노이즈 리덕션 과정은 백그라운드 노이즈(background noise)를 제거하기 위한 스펙트럴 게이팅(spectral gating), 스펙트럴 서브스트랙션(spectral substraction) 등의 알고리즘을 이용하여 이루어질 수 있다. 나아가, 본 발명에서는 딥러닝 기반의 노이즈 리덕션 알고리즘을 이용하여 노이즈 제거 과정을 수행할 수 있다. 딥러닝 기반의 노이즈 리덕션 알고리즘은 사용자의 숨소리, 호흡소리에 특화된, 다시 말해, 사용자의 숨소리나 호흡소리를 통해 학습된(learned) 노이즈 리덕션 알고리즘을 이용할 수 있다. In the noise reduction process, noise (e.g. white noise) included in raw data is removed. The noise reduction process can be accomplished using algorithms such as spectral gating and spectral subtraction to remove background noise. Furthermore, in the present invention, a noise removal process can be performed using a deep learning-based noise reduction algorithm. The deep learning-based noise reduction algorithm can use a noise reduction algorithm specialized for the user's breathing or breathing sounds, that is, a noise reduction algorithm learned through the user's breathing or breathing sounds.
위와 같은 전처리는 수면 상태 정보의 학습과정에서 수행될 수도 있고, 추론과정에서 수행될 수도 있다.The above preprocessing may be performed during the learning process of sleep state information, or may be performed during the inference process.
스펙트럴 노이즈 게이팅Spectral noise gating
스펙트럴 게이팅(spectral gating) 또는 스펙트럴 노이즈 게이팅(spectral noise gating)은 음향 정보에 대한 전처리 방법이다. 획득한 음향 정보 전체에 대하여 노이즈 리덕션을 수행할 수 있으나, 일정한 시간 간격으로(예컨대, 5분 등) 스플릿(split)을 수행한 뒤, 스플릿된 음향 정보에 대하여 각각 노이즈 리덕션을 수행할 수도 있다. 일정한 시간 간격으로 스플릿이 수행된 음향 정보에 대하여 노이즈 리덕션을 수행하기 위해서, 우선 각각의 프레임에 대하여 스펙트럼을 산출하는 방법을 포함할 수 있다.Spectral gating or spectral noise gating is a preprocessing method for acoustic information. Noise reduction can be performed on all of the acquired acoustic information, but splitting can be performed at regular time intervals (eg, 5 minutes, etc.), and then noise reduction can be performed on each of the split acoustic information. In order to perform noise reduction on acoustic information split at regular time intervals, a method of calculating a spectrum for each frame may first be included.
이에 산출된 각각의 스펙트럼 프레임 중에서 에너지가 가장 작은 진동수 스펙트럼(frequency spectrum)을 갖는 프레임을 특정할 수 있다.Among each spectrum frame calculated as a result, the frame with the frequency spectrum with the lowest energy can be specified.
각각의 스펙트럼 프레임 중에서 에너지가 가장 작은 진동수 스펙트럼을 갖는 프레임을 스태틱 노이즈(static noise)로 가정하고, 스태틱 노이즈로 가정한 진동수 스펙트럼 프레임이 갖는 주파수를 스펙트럼 프레임에서 감쇄하는 방법을 포함할 수 있다.A method may be included in which the frame having the frequency spectrum with the lowest energy among each spectrum frame is assumed to be static noise, and the frequency of the frequency spectrum frame assumed to be static noise is attenuated from the spectrum frame.
딥러닝 기반 노이즈 리덕션Deep learning-based noise reduction
노이즈 리덕션 전처리를 수행하기 위하여, 주파수 도메인이 아닌 시간 도메인상의 로우(raw) 음향 정보에 대하여 수행되는 딥러닝 기반 노이즈 리덕션 방법을 이용할 수도 있다. 딥러닝 기반 노이즈 리덕션을 위하여, 수면 분석 모델의 입력으로 하기 위하여 필요한 정보인 수면 음향 정보 등의 정보는 유지하고, 그 이외의 음향은 감쇄하는 방식이 이용될 수 있다. To perform noise reduction preprocessing, a deep learning-based noise reduction method performed on raw acoustic information in the time domain rather than the frequency domain may be used. For deep learning-based noise reduction, a method may be used in which information such as sleep sound information, which is necessary information to be used as input to a sleep analysis model, is maintained, and other sounds are attenuated.
PSG 검사 결과를 통해 획득한 음향 정보뿐만 아니라, 스마트폰 등 사용자 단말에 내장된 마이크로폰을 통해 획득한 음향 정보에 대하여도 노이즈 리덕션을 수행할 수도 있다.Noise reduction can be performed not only on sound information obtained through PSG test results, but also on sound information acquired through a microphone built into a user terminal such as a smartphone.
변환된 정보 또는 스펙트로그램의 생성/변환 및 전처리Generation/conversion and preprocessing of converted information or spectrogram
본 발명의 일 실시예에 있어서 수면 음향 정보를 분석하기 위하여, 로우(raw) 음향 정보를 시간 도메인의 수면 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환할 수 있다. 한편, 본 발명의 일 실시예에 따른 주파수 도메인상의 정보는 로우(raw) 수면 음향 정보를 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환한 것을 의미할 수 있다.In an embodiment of the present invention, in order to analyze sleep sound information, raw sound information can be converted into information including changes along the time axis in the frequency components of sleep sound information in the time domain. Meanwhile, information on the frequency domain according to an embodiment of the present invention may mean converting raw sleep sound information into information including changes in frequency components along the time axis.
또한, 본 발명의 실시예에 따라 노이즈가 제거된 로우 음향 정보에 포함된 주파수 성분들의 시간 축에 따른 변화를 시각화하여, 이미지로 나타낸 정보로 변환할 수 있다.Additionally, according to an embodiment of the present invention, changes along the time axis of frequency components included in raw acoustic information from which noise has been removed can be visualized and converted into information represented as an image.
본 발명의 일 실시예에 따르면, 로우 음향 정보는 시간 축에 따른 주파수 성분들의 변화를 포함하는 정보들 중, 스펙트로그램으로 변환될 수 있다. 이때, 로우 음향 정보에서 페이즈를 제외한 앰플리튜드만에 기초하여 스펙트로그램으로 변환하는 방식을 이용할 수 있고, 이러한 방식을 통하여 프라이버시를 보호할 뿐만 아니라, 데이터 용량을 낮추어 처리 속도를 향상시킬 수 있다. 다만, 다른 실시예에서는 페이즈와 앰플리튜드 모두를 이용하여 스펙트로그램을 생성하는 것도 가능하다.According to an embodiment of the present invention, raw acoustic information can be converted into a spectrogram among information including changes in frequency components along the time axis. At this time, a method of converting raw acoustic information into a spectrogram based only on the amplitude excluding the phase can be used. Through this method, not only privacy is protected, but the processing speed can be improved by lowering the data capacity. However, in another embodiment, it is also possible to generate a spectrogram using both phase and amplitude.
본 발명의 일 실시예는 수면 음향 정보(SS)에 기초하여 변환된 스펙트로그램(SP)을 이용하여 수면 분석 모델을 생성할 수 있다.One embodiment of the present invention can generate a sleep analysis model using a spectrogram (SP) converted based on sleep sound information (SS).
본 발명의 일 실시예는 상술한 방법으로 수면 음향 정보의 노이즈를 제거한 뒤, 이를 스펙트로그램(Spectrogram)으로 변환하고, 스펙트로그램을 학습시켜 수면 분석 모델을 생성하기 때문에, 연산량, 연산 시간을 줄일 수 있고, 개인의 프라이버시 보호까지 도모할 수 있게 된다.One embodiment of the present invention removes noise from sleep sound information using the above-described method, converts it into a spectrogram, and learns the spectrogram to create a sleep analysis model, thereby reducing the amount of computation and computation time. It is possible to protect individual privacy.
예를 들어, 마이크로폰 등을 통해 획득한 음향 정보에는 수면단계분석에 필요한 수면 음향 정보(예컨대, 사용자의 숨소리 등)이 다른 노이즈보다 상대적으로 작을 수 있으나, 스펙트로그램으로 변환하면 주변의 다른 노이즈에 비하여 상대적으로 수면 음향 정보의 식별이 우수해질 수 있다.For example, in acoustic information acquired through a microphone, etc., the sleep acoustic information (e.g., the user's breathing sound, etc.) required for sleep stage analysis may be relatively smaller than other noise, but when converted to a spectrogram, it is smaller than other noise in the surrounding area. Identification of sleep acoustic information can be relatively excellent.
한편, 본 발명의 실시예에 따른 스펙트로그램으로 변환을 하는 경우, 주파수 도메인의 해상도를 낮게 변환함으로써 개인정보를 식별하지 못하게 되는데, 일정 개수(예컨대, 20개) 이하의 주파수 해상도(frequency bins)로 구성한 경우 복원 신호로부터 개인정보를 식별할 수 없게 된다.On the other hand, when converting to a spectrogram according to an embodiment of the present invention, personal information cannot be identified by converting the resolution of the frequency domain to low, with frequency resolution (frequency bins) below a certain number (e.g., 20). If configured, personal information cannot be identified from the recovery signal.
또한, 본 발명의 실시예에 따르면 획득한 음향 정보를 실시간으로 스펙트로그램으로 변환하는 방법을 포함할 수 있다.Additionally, according to an embodiment of the present invention, a method may be included to convert acquired acoustic information into a spectrogram in real time.
또한, 스펙트로그램의 주파수 해상도의 압축을 서버나 클라우드가 아닌 유저의 스마트폰에서 수행할 수 있게 됨에 따라 개인정보의 유출을 방지할 수도 있다. In addition, the leakage of personal information can be prevented as compression of the frequency resolution of the spectrogram can be performed on the user's smartphone rather than on a server or cloud.
한편, 본 발명의 실시예에 따른 스펙트로그램은 멜 스케일이 적용된 멜 스펙트로그램 일 수 있다.Meanwhile, the spectrogram according to an embodiment of the present invention may be a Mel spectrogram to which the Mel scale is applied.
로우(raw) 수면 음향 정보의 변환 방법Method for converting raw sleep acoustic information
도 8은 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보를 획득하는 과정을 설명하기 위한 도면이다.Figure 8 is a diagram for explaining the process of acquiring sleep sound information in the sleep analysis method according to the present invention.
도 9는 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보에 대응하는 스펙트로그램을 획득하는 방법을 설명하기 위한 도면이다.Figure 9 is a diagram for explaining a method of obtaining a spectrogram corresponding to sleep sound information in the sleep analysis method according to the present invention.
프로세서(130)는, 도 9에 도시된 바와 같이, 수면 음향 정보(SS)에 대응하여 스펙트로그램(SP)을 생성할 수 있다. 스펙트로그램(SP) 생성의 기초가 되는 로우 데이터(시간 도메인상의 로우 음향 정보)를 입력받을 수 있는데, 본 발명에 따른 로우 데이터는 병원 환경에서의 수면다원검사(PSG,polysomnography)를 통해 수집될 수도 있고, 가정환경 등에서의 사용자가 웨어러블 디바이스 또는 스마트폰 등 사용자 단말에 내장된 마이크로폰을 통해 수집될 수도 있다.As shown in FIG. 9, the processor 130 may generate a spectrogram (SP) in response to the sleep sound information (SS). Raw data (raw acoustic information in the time domain) that is the basis for generating a spectrogram (SP) can be input, and raw data according to the present invention can also be collected through polysomnography (PSG) in a hospital environment. Additionally, user information in a home environment may be collected through a microphone built into a user terminal such as a wearable device or smartphone.
또한, 로우 데이터는 사용자가 입력한 시작시점부터 종료시점까지 사용자 단말(10)을 통해 획득되거나, 사용자의 디바이스 조작(예: 알람 설정)이 이루어진 시점부터 디바이스 조작(예: 알람 설정 시간)에 대응되는 시점까지 획득되거나, 사용자의 수면 패턴에 기초하여 자동적으로 시점이 선택되어 획득될 수도 있고, 사용자의 수면 의도 시점을 사운드(사용자 말소리, 호흡소리, 주변기기(TV, 세탁기) 소리 등)나 조도 변화 등에 기초하여 자동적으로 시점을 결정하여 획득될 수도 있다. 한편, 본 발명의 일 실시예에 따른 수면 의도 시점은 사용자의 수면 의도 정보로부터 산출한 것일 수 있다.In addition, raw data is acquired through the user terminal 10 from the start point input by the user to the end point, or corresponds to the device manipulation (eg, alarm setting time) from the time the user manipulates the device (eg, alarm setting). It can be acquired up to the point in time, or the time point can be automatically selected and acquired based on the user's sleep pattern, and the time point of the user's sleep intention can be determined by sound (user's speech, breathing sound, sound of peripheral devices (TV, washing machine), etc.) or change in illumination. It may also be obtained by automatically determining the viewpoint based on, etc. Meanwhile, the sleep intention timing according to an embodiment of the present invention may be calculated from the user's sleep intention information.
프로세서(130)는 수면 음향 정보(SS)에 대한 고속 푸리에 변환을 수행하여 수면 스펙트로그램(SP)을 생성할 수 있다. 스펙트로그램(SP)은 소리나 파동을 시각화하여 파악하기 위한 것으로, 파형(waveform)과 스펙트럼(spectrum)의 특징이 조합된 것일 수 있다. 스펙트로그램(SP)은 시간 축과 주파수 축의 변화에 따라 진폭을 차이를 인쇄 농도 또는, 표시 색상의 차이로 나타낸 것일 수 있다.The processor 130 may generate a sleep spectrogram (SP) by performing fast Fourier transform on the sleep sound information (SS). A spectrogram (SP) is intended to visualize and understand sound or waves, and may be a combination of waveform and spectrum characteristics. A spectrogram (SP) may represent the difference in amplitude according to changes in the time axis and frequency axis as a difference in printing density or display color.
전처리된 음향 관련 로우 데이터는 30초 단위로 잘려 스펙트로그램으로 변환될 수 있다. 이에 따라, 30초의 스펙트로그램은 20 frequency bin x 1201 time step의 차원을 갖게 된다. 본 발명에서는 직사각형의 스펙트로그램을 정방형에 가까운 형태로 바꾸기 위하여 리세이핑(Reshaping), 리사이즈(Resize), 스플릿-캣(split-cat) 등 다양한 방식을 이용함으로써 정방형에 가까운 형태로 변환할 수 있다. 또는 이러한 방식을 이용함으로써 상대적으로 정보량을 보존할 수 있게 된다.Preprocessed acoustic-related raw data can be cut into 30-second increments and converted into a spectrogram. Accordingly, a 30-second spectrogram has dimensions of 20 frequency bins x 1201 time steps. In the present invention, a rectangular spectrogram can be converted into a shape close to a square by using various methods such as reshaping, resizing, and split-cat to change it into a shape close to a square. Alternatively, by using this method, it is possible to relatively preserve the amount of information.
한편, 본 발명은 클린한 숨소리에 가정환경에서 발생하는 다양한 노이즈를 더해 다양한 가정환경에서 측정된 숨소리를 시뮬레이션하는 방법을 이용할 수 있다. 소리는 애디티브(additive)한 성질을 가지고 있기 때문에 서로 더해지는 것이 가능하다. 하지만, mp3나 pcm 등의 원본 음향 신호를 더하고 스펙트로그램으로 변환하면 컴퓨팅 자원의 소모가 매우 커지게 된다. 따라서, 본 발명은 숨소리, 노이즈를 각각 스펙트로그램으로 변환하여 더하는 방법을 제시한다. 이를 통해, 다양한 가정환경에서 측정된 숨소리를 시뮬레이션하여 인공지능 모델 학습에 활용함으로써 다양한 가정환경의 정보에 대한 인공지능 모델의 강건성(robustness)을 확보할 수 있게 된다.Meanwhile, the present invention can use a method of simulating breathing sounds measured in various home environments by adding various noises occurring in the home environment to clean breathing sounds. Because sounds have additive properties, they can be added to one another. However, adding original sound signals such as mp3 or pcm and converting them to a spectrogram results in very large consumption of computing resources. Therefore, the present invention proposes a method of converting breathing sounds and noise into spectrograms and adding them, respectively. Through this, it is possible to secure the robustness of the artificial intelligence model to information from various home environments by simulating breathing sounds measured in various home environments and using them to learn artificial intelligence models.
변환된 정보 또는 스펙트로그램의 전처리Preprocessing of converted information or spectrogram
본 발명의 일 실시예에 따른 데이터를 스펙트로그램으로 변환하기 위한 목적은, 수면 분석 모델의 입력으로 하여 해당 스펙트로그램에서의 패턴이 어떤 수면 상태 또는 어떤 수면 단계와 대응되는지 학습된 모델을 통해 추론하기 위한 것인데, 이렇게 수면 분석 모델의 입력으로 하기 전에 몇몇 전처리 과정들이 필요할 수 있다. 이러한 전처리 과정들은 학습 과정에서만 이루어질 수도 있고, 학습 과정뿐만 아니라 추론 과정에서도 이루어질 수도 있다. 혹은 추론 과정에서만 이루어질 수도 있다.The purpose of converting data according to an embodiment of the present invention into a spectrogram is to use the input of a sleep analysis model to infer through the learned model which sleep state or sleep stage the pattern in the spectrogram corresponds to. However, some preprocessing processes may be required before using it as input to the sleep analysis model. These preprocessing processes may be performed only during the learning process, or may be performed not only during the learning process but also during the inference process. Or, it may only occur during the reasoning process.
본 발명의 실시예들에 따른 스펙트로그램의 전처리 과정은 데이터에 가우시안 노이즈(Gaussian noise)를 부가하여 데이터의 양을 부풀리거나, 전체적인 음향의 피치(Pitch)를 조금씩 올리거나 내리는 피치 시프팅(Pitch shifting) 전처리 방법, 스펙트로그램 또는 멜 스펙트로그램이 학습과정에서 벡터로 변환되고, 변환된 벡터를 하나의 노드(뉴런)의 입력 단계에서 무작위(random)하게 자르고(Tile) 노드(뉴런)의 출력 후 다시 결합하는(Untile) TUT(Tile UnTile) 어그멘테이션 방법 등의 데이터 어그멘테이션 전처리 기법이 포함될 수 있다.The preprocessing process of the spectrogram according to embodiments of the present invention involves adding Gaussian noise to the data to inflate the amount of data, or pitch shifting to gradually raise or lower the overall pitch of the sound. ) Preprocessing method, a spectrogram or mel spectrogram is converted into a vector during the learning process, the converted vector is randomly cut (tiled) at the input stage of one node (neuron), and then again after the output of the node (neuron). Data augmentation preprocessing techniques such as Untile (Untile) TUT (Tile UnTile) augmentation method may be included.
또한, 본 발명의 실시예에 따른 데이터 어그멘테이션 전처리 방법에는 가우시안 노이즈가 아닌 다양한 환경에서 발생하는 노이즈(예컨대, 외부의 소리, 자연의 소리, fan이 돌아가는 소리, 문이 열리거나 닫히는 소리, 동물이 내는 소리, 사람이 대화하는 소리, 움직임 소리 등)를 부가하는 노이즈 부가 어그멘테이션(noise addition augmentation) 방법이 포함될 수도 있다.In addition, the data augmentation preprocessing method according to an embodiment of the present invention includes noise occurring in various environments other than Gaussian noise (e.g., external sounds, sounds of nature, sounds of a fan running, sounds of doors opening or closing, animals A noise addition augmentation method that adds sounds (sounds made by people, people talking, movement sounds, etc.) may also be included.
본 발명의 실시예에 따른 노이즈 부가 어그멘테이션은 스펙트로그램을 학습 모델의 입력으로 할 때 학습 시간을 단축하기 위하여, 노이즈 정보를 스펙트로그램으로 변환한 뒤, 수면 음향 정보와 스펙트로그램 상에서 인위적으로 부가하는 방법을 포함할 수 있다. 이 경우 원래의 음향 정보 도메인 상에서 수면 음향 정보에 노이즈 정보를 부가한 전체를 변환한 스펙트로그램과, 수면 음향 정보와 노이즈 정보 각각을 스펙트로그램으로 변환한 도메인 상에서 부가한 경우의 스펙트로그램에 큰 차이가 없을 수 있다.In order to shorten the learning time when using a spectrogram as an input to a learning model, noise addition augmentation according to an embodiment of the present invention converts noise information into a spectrogram and then artificially adds it to the sleep sound information and the spectrogram. It may include how to do it. In this case, there is a significant difference between the spectrogram obtained by adding noise information to the sleep sound information in the original sound information domain and the spectrogram obtained by adding sleep sound information and noise information to the spectrogram converted domain. There may not be.
또한, 본 발명의 실시예에 따른 노이즈 부가 어그멘테이션은 스펙트로그램으로부터 원 신호로 다시 변환이 어렵게끔 하여 사용자의 프라이버시를 보호하기 위하여, 수면 음향 정보와 노이즈 정보 각각의 스펙트로그램에서 진폭과 위상 중 진폭만을 유지하고, 위상은 임의의 위상으로 만들어서 부가함으로써, 스펙트로그램으로부터 원 신호로 다시 변환이 어렵게끔 할 수 있다.In addition, the noise-added augmentation according to an embodiment of the present invention makes it difficult to convert back to the original signal from the spectrogram, so that in order to protect the user's privacy, the amplitude and phase are changed from the spectrogram of each sleep sound information and noise information. By maintaining only the amplitude and adding a random phase, it is possible to make it difficult to convert back to the original signal from the spectrogram.
또는, 본 발명의 실시예에 따른 노이즈 부가 어그멘테이션은 음향 정보를 스펙트로그램으로 변환한 도메인 상에서 부가하는 방법뿐만 아니라, 멜 스케일이 적용된 멜 스펙트로그램으로 변환한 도메인 상에서 부가하는 방법을 포함할 수도 있다. Alternatively, noise addition augmentation according to an embodiment of the present invention may include not only a method of adding sound information on a domain converted into a spectrogram, but also a method of adding noise on a domain converted into a Mel spectrogram to which a Mel scale is applied. there is.
또한, 본 발명의 실시예에 따라 멜 스케일에서 부가하는 방법에 의하면 하드웨어가 데이터를 처리하는 데에 소요되는 시간이 단축될 수 있다.Additionally, the time required for hardware to process data can be shortened by the method added by Mel Scale according to an embodiment of the present invention.
한편, 전술한 노이즈의 종류에 관한 구체적인 기재는 본 발명의 노이즈 부가 어그멘테이션을 설명하기 위한 단순한 예시일 뿐이며, 본 발명은 이에 제한되는 것은 아니다.Meanwhile, the detailed description of the types of noise described above is merely an example for explaining the noise addition augmentation of the present invention, and the present invention is not limited thereto.
또한, 본 발명의 실시예에 따라 주파수 도메인상의 정보 또는 스펙트로그램을 정방형에 가까운 형태로 변환하는 전처리 방법이 수행될 수도 있다.Additionally, according to an embodiment of the present invention, a preprocessing method may be performed to convert information or a spectrogram in the frequency domain into a nearly square form.
수면 상태 정보Sleep status information
일 실시예에서, 수면 상태 정보는, 사용자가 수면을 취하고 있는지 여부에 관련한 정보를 포함할 수 있다. 구체적으로, 수면 상태 정보는, 사용자가 수면 전이라는 제1수면 상태 정보, 사용자가 수면 중이라는 제2수면 상태 정보 및 사용자가 수면 후라는 제3수면 상태 정보 중 적어도 하나를 포함할 수 있다. 다시 말해, 사용자에 관련하여 제1수면 상태 정보가 추론되는 경우, 프로세서(130)는 해당 사용자가 수면 전(즉, 취침 전)인 상태인 것으로 판단할 수 있으며, 제2수면 상태 정보가 추론되는 경우, 해당 사용자가 수면 중인 상태인 것으로 판단할 수 있고, 그리고 제3 수면 상태 정보가 획득되는 경우, 해당 사용자가 수면 후(즉, 기상)인 상태인 것으로 판단할 수 있다.In one embodiment, sleep state information may include information related to whether the user is sleeping. Specifically, the sleep state information may include at least one of first sleep state information indicating that the user is before sleep, second sleep state information indicating that the user is sleeping, and third sleep state information indicating that the user is after sleep. In other words, when first sleep state information is inferred with respect to the user, the processor 130 may determine that the user is in a pre-sleep state (i.e., before going to bed), and the second sleep state information is inferred. In this case, it may be determined that the user is in a sleeping state, and if third sleep state information is obtained, it may be determined that the user is in a post-sleep state (i.e., waking up).
또한, 수면 상태 정보는 사용자의 수면 단계와 관련한 정보 외에도, 수면 무호흡증, 코골이, 뒤척임, 기침, 재채기, 또는 이갈이 여부 중 적어도 하나 이상에 대한 정보를 포함할 수 있다.Additionally, the sleep state information may include information about at least one of sleep apnea, snoring, tossing and turning, coughing, sneezing, or bruxism, in addition to information related to the user's sleep stage.
본 발명의 실시예들에 따른 수면 단계 정보를 학습 또는 추론하기 위해서는 긴 시간 간격동안 획득한 음향 정보를 필요로 할 수 있다. In order to learn or infer sleep stage information according to embodiments of the present invention, acoustic information acquired over a long time interval may be required.
반면, 본 발명의 실시예들에 따른 수면 단계 정보 외의 수면 상태 정보(예컨대, 코골이 또는 무호흡증 정보 등)를 학습 또는 예측하기 위해서는 해당 수면상태가 발생하는 시점 전후로 상대적으로 짧은 시간 간격(예컨대, 1분)동안 획득한 음향 정보를 필요로 할 수 있다.On the other hand, in order to learn or predict sleep state information (e.g., snoring or apnea information, etc.) other than sleep stage information according to embodiments of the present invention, a relatively short time interval (e.g., 1) before and after the corresponding sleep state occurs. minutes) may require acoustic information acquired.
이러한 수면 상태 정보는, 환경 센싱 정보에 기초하여 획득되는 것을 특징으로 할 수 있다. 환경 센싱 정보는, 비접촉 방식으로 사용자가 위치한 공간에서 획득되는 센싱 정보를 포함할 수 있다.This sleep state information may be obtained based on environmental sensing information. Environmental sensing information may include sensing information obtained in a non-contact manner in the space where the user is located.
일 실시예에 따르면, 프로세서(130)는 환경 센싱 정보를 획득할 수 있다. 구체적으로, 환경 센싱 정보는 사용자가 소지한 사용자 단말(10)을 통해 획득될 수 있다. 예컨대, 사용자가 소지한 사용자 단말(10)을 통해 사용자가 활동하는 공간에 관련한 환경 센싱 정보가 획득될 수 있으며, 프로세서(130)는 해당 환경 센싱 정보를 사용자 단말(10)로부터 수신할 수 있다.According to one embodiment, the processor 130 may obtain environmental sensing information. Specifically, environmental sensing information can be obtained through the user terminal 10 carried by the user. For example, environmental sensing information related to the space in which the user operates may be obtained through the user terminal 10 carried by the user, and the processor 130 may receive the corresponding environmental sensing information from the user terminal 10.
프로세서(130)는 사용자 단말(10)로부터 획득되는 음향 정보, Actigraphy, 생체정보에 기초하여 수면상태 정보를 획득할 수 있다. 구체적으로, 프로세서(130)는 음향 정보에서 특이점을 식별할 수 있다. 여기서 음향 정보의 특이점은, 수면에 관련한 호흡 및 움직임 패턴에 관련한 것일 수 있다. 예컨대, 깨어있는 상태(wake)에서는 모든 신경계가 활성화되어 있기 때문에 호흡 패턴이 불규칙적이고 몸의 움직임이 많을 수 있다. 또한, 목 근육의 이완이 이루어지지 않기 때문에 호흡 소리가 매우 적을 수 있다. 반면, 사용자가 수면을 취하는 경우에는, 자율신경계가 안정화되어 호흡이 규칙적으로 변화하고 몸의 움직임 또한 적어질 수 있으며, 호흡음도 커질 수 있다. 즉, 프로세서(130)는 음향 정보에서, 규칙적인 호흡, 적은 몸의 움직임 또는 적은 호흡음 등에 관련한 패턴의 음향 정보가 감지되는 시점을 특이점으로 식별할 수 있다. 또한, 프로세서(130)는 식별된 특이점을 기준으로 획득되는 음향 정보에 기초하여 수면 음향 정보를 획득할 수 있다. 프로세서(130)는 시계열적으로 획득되는 음향 정보에서 사용자의 수면 시점에 관련한 특이점을 식별하고, 해당 특이점을 기준으로 수면 음향 정보를 획득할 수 있다.The processor 130 may obtain sleep state information based on acoustic information, actigraphy, and biometric information obtained from the user terminal 10. Specifically, the processor 130 may identify a singularity in acoustic information. Here, the uniqueness of the acoustic information may be related to breathing and movement patterns related to sleep. For example, in the awake state, all nervous systems are activated, so breathing patterns may be irregular and body movements may be frequent. Additionally, breathing sounds may be very low because the neck muscles are not relaxed. On the other hand, when the user sleeps, the autonomic nervous system stabilizes, breathing changes regularly, body movements may decrease, and breathing sounds may become louder. That is, the processor 130 may identify the point in time at which a pattern of acoustic information related to regular breathing, small body movement, or small breathing sounds is detected as a singular point in the acoustic information. Additionally, the processor 130 may obtain sleep sound information based on sound information obtained based on the identified singularity. The processor 130 may identify a singularity related to the user's sleep time from the sound information acquired in time series and obtain sleep sound information based on the singularity.
도 8은 본 발명에 따른 수면 분석 방법에 있어서 수면 음향 정보를 획득하는 과정을 설명하기 위한 도면이다. 도 8을 참조하면, 프로세서(130)는 음향 정보(E)로부터 음향 정보에서, 규칙적인 호흡, 적은 몸의 움직임 또는 적은 호흡음 등에 관련한 패턴의 음향 정보가 감지되는 시점에 관련한 특이점(P)을 식별할 수 있다. 프로세서(130)는 식별된 특이점(P)을 기준으로 해당 특이점(P) 이후에 획득되는 음향 정보들에 기초하여 수면 음향 정보(SS)를 획득할 수 있다. 도 4에서의 음향에 관련한 파형 및 특이점은 본 발명의 이해를 위한 예시에 불과할 뿐, 본 발명은 이에 제한되지 않는다.Figure 8 is a diagram for explaining the process of acquiring sleep sound information in the sleep analysis method according to the present invention. Referring to FIG. 8, the processor 130 determines a singular point (P) related to the point in time when acoustic information of a pattern related to regular breathing, small body movement, or small breathing sounds is detected from the acoustic information (E). can be identified. The processor 130 may acquire sleep sound information (SS) based on the identified singular point (P) and sound information acquired after the singular point (P). The waveforms and singularities related to sound in FIG. 4 are merely examples for understanding the present invention, and the present invention is not limited thereto.
즉, 프로세서(130)는 음향 정보로부터 사용자의 수면에 관련한 특이점(P)을 식별함으로써, 특이점(P)에 기초하여 방대한 양의 환경 센싱 정보(즉, 음향 정보)로부터 수면 음향 정보(SS)만을 추출하여 획득할 수 있다. 이는, 사용자가 자신의 수면 시간을 기록하는 과정을 자동화하도록 하여 편의성을 제공함과 동시에, 획득되는 수면 음향 정보의 정확성 향상에 기여할 수 있다.In other words, the processor 130 identifies the singularity (P) related to the user's sleep from the acoustic information, and thus extracts only the sleep acoustic information (SS) from the vast amount of environmental sensing information (i.e., acoustic information) based on the singularity (P). It can be obtained by extracting it. This provides convenience by allowing users to automate the process of recording their sleep time, and can also contribute to improving the accuracy of acquired sleep sound information.
또한, 실시예에서, 프로세서(130)는 음향 정보(E)로부터 식별된 특이점(P)을 기준으로 사용자가 수면 전인지 또는 수면 중인지 여부에 관련한 수면 상태 정보를 획득할 수 있다. 구체적으로, 프로세서(130)는 특이점(P)이 식별되지 않는 경우, 사용자가 수면 전인 것으로 판단할 수 있으며, 특이점(P)이 식별되는 경우, 해당 특이점(P) 이후 사용자가 수면 중이라고 판단할 수 있다. 또한, 프로세서(130)는 특이점(P)이 식별된 이후, 식별된 패턴이 더이상 관측되지 않는 시점(예컨대, 기상 시점)을 식별하고, 해당 시점이 식별된 경우, 사용자가 수면 후, 즉 기상하였다고 판단할 수 있다.Additionally, in an embodiment, the processor 130 may obtain sleep state information related to whether the user is before sleep or in sleep based on the singular point (P) identified from the sound information (E). Specifically, if the singular point (P) is not identified, the processor 130 may determine that the user is before sleeping, and if the singular point (P) is identified, the processor 130 may determine that the user is sleeping after the singular point (P). there is. In addition, after the outlier P is identified, the processor 130 identifies a time point (e.g., waking up time) at which the identified pattern is no longer observed, and when the corresponding time point is identified, it is determined that the user has woken up after sleeping, that is, You can judge.
즉, 프로세서(130)는 음향 정보(E)에서 특이점(P)이 식별되는지 여부 및 특이점이 식별된 이후, 기 설정된 패턴이 지속적으로 감지되는지 여부에 기초하여 사용자가 수면 전인지, 중인지, 또는 후인지 여부에 관련한 수면 상태 정보를 획득할 수 있다.That is, the processor 130 determines whether the user is before, during, or after sleep based on whether a singular point (P) is identified in the acoustic information (E) and whether a preset pattern is continuously detected after the singular point is identified. Sleep state information related to awareness can be obtained.
한편, 프로세서(130)는 음향 정보(E)가 아닌, Actigraphy나 생체정보에 기초하여 수면 상태 정보를 획득할 수 있다. 사용자의 움직임정보는 신체에 접촉된 센서부를 통해 획득하는 것이 유리할 수 있다. 본 발명에서는 1차 수면 분석시 Actigraphy나 생체정보를 이용하여 사용자의 수면 상태 정보를 사전에 파악하기 때문에, 수면 상태에 대한 분석 신뢰성을 더욱 향상시킬 수 있다.Meanwhile, the processor 130 may obtain sleep state information based on actigraphy or biometric information rather than acoustic information (E). It may be advantageous to obtain the user's movement information through a sensor unit in contact with the body. In the present invention, since the user's sleep state information is identified in advance using actigraphy or biometric information during the first sleep analysis, the reliability of the sleep state analysis can be further improved.
수면 단계 정보Sleep stage information
일 실시예에 따르면, 프로세서(130)는 수면 단계 정보를 추출할 수 있다. 수면 단계 정보는 사용자의 환경 센싱 정보에 기초하여 추출될 수 있다. 수면 단계는 NREM(non-REM) 수면, REM(Rapid eye movement) 수면으로 구분될 수 있고, NREM 수면은 다시 복수(예: Light, Deep의 2단계, N1 내지 N4의 4단계)로 구분될 수 있다. 수면 단계의 설정은 일반적인 수면 단계로 정의될 수도 있지만, 설계자에 따라 다양한 수면 단계로 임의 설정될 수도 있다. 수면 단계 분석을 통하여 수면과 관련한 수면의 질 뿐만 아니라 수면 질환(예: 수면 무호흡증)과 그의 근본적인 원인(예: 코골이)까지 예측할 수 있다. 프로세서(130)는 수면 단계 정보에 의하여 수면에 관한 용품 추천 정보와 검증 정보를 생성할 수 있다. According to one embodiment, the processor 130 may extract sleep stage information. Sleep stage information may be extracted based on the user's environmental sensing information. Sleep stages can be divided into NREM (non-REM) sleep and REM (rapid eye movement) sleep, and NREM sleep can be further divided into multiple stages (e.g., stages 2 of light and deep, and stages 4 of N1 to N4). there is. The sleep stage setting may be defined as a general sleep stage, but may also be arbitrarily set to various sleep stages depending on the designer. Through sleep stage analysis, it is possible to predict not only sleep-related sleep quality, but also sleep diseases (e.g. sleep apnea) and their underlying causes (e.g. snoring). The processor 130 may generate product recommendation information and verification information related to sleep based on sleep stage information.
본 발명의 일 실시예에 따르면 얕은(Light) 잠 단계를 나타내는 단어가 한국어로 표시될 때에는 '얕은 잠' 또는 '일반 잠'으로 표시될 수 있다. 수면 단계에 대하여 전문적으로 알지 못하는 사용자가 '얕은 잠'이라는 단어로 인해서 수면 기간 중 제대로 자지 못했다는 오해를 불러일으킬 수 있는데, 그와 대비하여, '일반 잠'이라는 단어로 표시되는 경우에는 이러한 오해를 줄일 가능성이 있다.According to one embodiment of the present invention, when a word indicating the light sleep stage is displayed in Korean, it may be displayed as 'light sleep' or 'normal sleep'. Users who do not have expert knowledge about sleep stages may misunderstand that they did not sleep properly during the sleep period due to the word 'light sleep'. In contrast, if the word 'normal sleep' is displayed, this misunderstanding may occur. There is a possibility of reducing.
수면 분석 모델sleep analysis model
도 15는 본 발명의 일 실시예에 따른 수면 분석 모델의 전체적인 구조를 설명하기 위한 도면이다.Figure 15 is a diagram for explaining the overall structure of a sleep analysis model according to an embodiment of the present invention.
본 발명에 있어서, 수면 상태 정보는 음향 정보(수면 음향 정보)에 기초하여 사용자의 수면단계를 분석하는 수면 분석 모델을 통해 획득될 수 있다.In the present invention, sleep state information can be obtained through a sleep analysis model that analyzes the user's sleep stage based on sound information (sleep sound information).
본 발명에서 수면 음향 정보(SS)는, 사용자의 수면 시간 동안 획득되는 호흡 및 몸 움직임에 관련한 음향이기 때문에 매우 작은 소리일 수 있고, 이에 따라 본 발명은 상술한 바와 같이 수면 음향 정보(SS)를 스펙트로그램(SP)으로 변환하여 음향에 대한 분석을 수행할 수 있다. 이 경우, 스펙트로그램(SP)은 소리의 주파수 스펙트럼이 시간에 따라 어떻게 변화하는지 보여주는 정보를 포함하고 있으므로, 비교적 작은 음향에 관련한 호흡 또는 움직임 패턴을 용이하게 식별할 수 있어 분석의 효율이 향상될 수 있다. 구체적으로, 수면 음향 정보의 에너지 레벨의 변화만으로는, 깨어있는 상태, REM 수면 상태, 얕은 수면 상태 및 깊은 수면 상태 중 적어도 하나인지를 예측하기 어려울 수 있으나, 수면 음향 정보를 스펙트로그램으로 변환함으로써, 각 주파수의 스펙트럼의 변화를 용이하게 감지할 수 있으므로, 작은 소리(예컨대, 호흡 및 몸 움직임)에 대응한 분석이 가능해질 수 있다.In the present invention, the sleep sound information (SS) may be a very small sound because it is a sound related to breathing and body movement acquired during the user's sleeping time. Accordingly, the present invention uses the sleep sound information (SS) as described above. Analysis of sound can be performed by converting it into a spectrogram (SP). In this case, the spectrogram (SP) contains information that shows how the frequency spectrum of the sound changes over time, so breathing or movement patterns related to relatively small sounds can be easily identified, improving the efficiency of analysis. there is. Specifically, it may be difficult to predict whether the sleep sound information is at least one of the awake state, REM sleep state, light sleep state, and deep sleep state based solely on changes in the energy level of the sleep sound information, but by converting the sleep sound information into a spectrogram, each sleep sound information is converted into a spectrogram. Since changes in the frequency spectrum can be easily detected, analysis corresponding to small sounds (eg, breathing and body movements) may be possible.
프로세서(130)는 스펙트로그램(SP)을 수면 분석 모델의 입력으로 처리하여 수면 상태 정보를 획득할 수 있다. 여기서 수면 분석 모델은, 사용자의 수면단계 변화에 관련한 수면 상태 정보를 획득하기 위한 모델로, 사용자의 수면 동안 획득된 수면 음향 정보를 입력으로 하여 수면 상태 정보를 출력할 수 있다. 실시예에서, 수면 분석 모델은, 하나 이상의 네트워크 함수를 통해 구성되는 신경망 모델을 포함할 수 있다.The processor 130 may obtain sleep state information by processing the spectrogram (SP) as an input to a sleep analysis model. Here, the sleep analysis model is a model for obtaining sleep state information related to changes in the user's sleep stage, and can output sleep state information by inputting sleep sound information acquired during the user's sleep. In embodiments, the sleep analysis model may include a neural network model constructed through one or more network functions.
네트워크 함수 및 뉴럴 네트워크Network functions and neural networks
도 11은 본 발명에 따른 수면 분석 방법을 수행하기 위한 하나 이상의 네트워크 함수를 나타낸 개략도이다.Figure 11 is a schematic diagram showing one or more network functions for performing the sleep analysis method according to the present invention.
수면 분석 모델은 하나 이상의 네트워크 함수로 구성되며, 하나 이상의 네트워크 함수는 일반적으로 '노드'라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 '노드'들은 '뉴런(neuron)'들로 지칭될 수도 있다. 하나 이상의 네트워크 함수는 적어도 하나 이상의 노드들을 포함하여 구성된다. 하나 이상의 네트워크 함수를 구성하는 노드(또는 뉴런)들은 하나 이상의 '링크'에 의해 상호 연결될 수 있다.A sleep analysis model is comprised of one or more network functions, and one or more network functions may be comprised of a set of interconnected computational units, which may generally be referred to as 'nodes'. These 'nodes' may also be referred to as 'neurons'. One or more network functions are composed of at least one or more nodes. Nodes (or neurons) that make up one or more network functions may be interconnected by one or more 'links'.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 전술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.Within a neural network, one or more nodes connected through a link may form a relative input node and output node relationship. The concepts of input node and output node are relative, and any node in an output node relationship with one node may be in an input node relationship with another node, and vice versa. As described above, input node to output node relationships can be created around links. One or more output nodes can be connected to one input node through a link, and vice versa.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호연결하는 노드는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In a relationship between an input node and an output node connected through one link, the value of the output node may be determined based on data input to the input node. Here, the nodes connecting the input node and the output node may have a weight. Weights may be variable and may be varied by the user or algorithm in order for the neural network to perform the desired function. For example, when one or more input nodes are connected to one output node by respective links, the output node is set to the values input to the input nodes connected to the output node and the links corresponding to each input node. The output node value can be determined based on the weight.
전술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호연결 되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.As described above, in a neural network, one or more nodes are interconnected through one or more links to form an input node and output node relationship within the neural network. The characteristics of the neural network may be determined according to the number of nodes and links within the neural network, the correlation between the nodes and links, and the value of the weight assigned to each link. For example, if there are two neural networks with the same number of nodes and links and different weight values between the links, the two neural networks may be recognized as different from each other.
신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 전술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.Some of the nodes constituting the neural network may form one layer based on the distances from the first input node. For example, a set of nodes with a distance n from the initial input node may constitute n layers. The distance from the initial input node can be defined by the minimum number of links that must be passed to reach the node from the initial input node. However, this definition of a layer is arbitrary for explanation purposes, and the order of a layer within a neural network may be defined in a different way than described above. For example, a layer of nodes may be defined by distance from the final output node.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드를들 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다. 본 발명의 일 실시예에 따른 신경망은 입력 레이어의 노드가 출력 레이어에 가까운 히든 레이어의 노드보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다.The initial input node may refer to one or more nodes in the neural network through which data is directly input without going through links in relationships with other nodes. Alternatively, in the relationship between nodes based on a link within a neural network, it may refer to nodes that do not have other input nodes connected by a link. Similarly, the final output node may refer to one or more nodes that do not have an output node in their relationship with other nodes among the nodes in the neural network. Additionally, hidden nodes may refer to nodes constituting a neural network other than the first input node and the last output node. The neural network according to an embodiment of the present invention may have more nodes in the input layer than the nodes in the hidden layer close to the output layer, and may be a neural network in which the number of nodes decreases as it progresses from the input layer to the hidden layer.
신경망은 하나 이상의 히든 레이어를 포함할 수 있다. 히든 레이어의 히든 노드는 이전의 레이어의 출력과 주변 히든 노드의 출력을 입력으로 할 수 있다. 각 히든 레이어 별 히든 노드의 수는 동일할 수도 있고 상이할 수도 있다. 입력 레이어의 노드의 수는 입력 데이터의 데이터 필드의 수에 기초하여 결정될 수 있으며 히든 노드의 수와 동일할 수도 있고 상이할 수도 있다. 입력 레이어에 입력된 입력 데이터는 히든 레이어의 히든 노드에 의하여 연산될 수 있고 출력 레이어인 완전 연결 레이어(FCL: fully connected layer)에 의해 출력될 수 있다.A neural network may contain one or more hidden layers. The hidden node of the hidden layer can take the output of the previous layer and the output of surrounding hidden nodes as input. The number of hidden nodes for each hidden layer may be the same or different. The number of nodes in the input layer may be determined based on the number of data fields of the input data and may be the same as or different from the number of hidden nodes. Input data input to the input layer can be operated by the hidden node of the hidden layer and output by the fully connected layer (FCL), which is the output layer.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨벌루셔널 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 트랜스포머(Transformer), ViT(Vision Transformer), Mobile ViT(Mobile Vision Transformer) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.A deep neural network (DNN) may refer to a neural network that includes multiple hidden layers in addition to the input layer and output layer. Deep neural networks allow you to identify latent structures in data. In other words, it is possible to identify the potential structure of a photo, text, video, voice, or music (e.g., what object is in the photo, what the content and emotion of the text are, what the content and emotion of the voice are, etc.) . Deep neural networks include convolutional neural networks (CNN), recurrent neural networks (RNN), auto encoders, generative adversarial networks (GAN), and restricted Boltzmann machines (RBMs). boltzmann machine), deep belief network (DBN), Q network, U network, Siamese network, Transformer, Vision Transformer (ViT), Mobile Vision Transformer (ViT), etc. The description of the deep neural network described above is only an example and the present invention is not limited thereto.
본 발명에서 네트워크 함수는 오토 인코더를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 차원 감소 레이어와 차원 복원 레이어의 노드는 대칭일 수도 있고 아닐 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. In the present invention, the network function may include an auto encoder. An autoencoder may be a type of artificial neural network to output output data similar to input data. The autoencoder may include at least one hidden layer, and an odd number of hidden layers may be placed between input and output layers. The number of nodes in each layer may be reduced from the number of nodes in the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically and reduced from the bottleneck layer to the output layer (symmetrical to the input layer). The nodes of the dimensionality reduction layer and dimensionality restoration layer may or may not be symmetric. Autoencoders can perform nonlinear dimensionality reduction.
입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 남은 센서들의 수와 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.The number of input layers and output layers may correspond to the number of sensors remaining after preprocessing of the input data. In an auto-encoder structure, the number of nodes in the hidden layer included in the encoder may have a structure that decreases as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and decoder) is too small, not enough information may be conveyed, so if it is higher than a certain number (e.g., more than half of the input layers, etc.) ) may be maintained.
뉴럴 네트워크는 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 및 반지도학습(semi supervised learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 출력의 오류를 최소화하기 위한 것이다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. A neural network may be trained in at least one of supervised learning, unsupervised learning, and semi-supervised learning. Learning of a neural network is intended to minimize errors in output. In neural network learning, learning data is repeatedly input into the neural network, the output of the neural network and the error of the target for the learning data are calculated, and the error of the neural network is transferred from the output layer of the neural network to the input layer in the direction of reducing the error. This is the process of updating the weight of each node in the neural network through backpropagation.
지도 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어 있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비지도 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비지도 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. In the case of supervised learning, learning data in which the correct answer is labeled for each learning data is used (i.e., labeled learning data), and in the case of unsupervised learning, the correct answer may not be labeled in each learning data. That is, for example, in the case of supervised learning on data classification, the learning data may be data in which each training data is labeled with a category. Labeled training data is input to the neural network, and the error can be calculated by comparing the output (category) of the neural network with the label of the training data. As another example, in the case of unsupervised learning on data classification, the error can be calculated by comparing the input training data with the neural network output.
계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.The calculated error is backpropagated in the reverse direction (i.e., from the output layer to the input layer) in the neural network, and the connection weight of each node in each layer of the neural network can be updated according to backpropagation. The amount of change in the connection weight of each updated node may be determined according to the learning rate. The neural network's calculation of input data and backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of neural network training, a high learning rate can be used to increase efficiency by allowing the neural network to quickly achieve a certain level of performance, and in the later stages of training, a low learning rate can be used to increase accuracy.
뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 AI 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 정칙화 또는 정규화(regularization), 학습의 과정에서 네트워크의 노드 일부를 생략하는 드롭아웃(dropout) 등의 방법이 적용될 수 있다.In the learning of neural networks, the training data can generally be a subset of real data (i.e., the data to be processed using the learned neural network), and thus the error for the training data is reduced, but the error for the real data is reduced. There may be an incremental learning cycle. Overfitting is a phenomenon in which errors in actual data increase due to excessive learning on training data. For example, a phenomenon in which a neural network that learned a cat by showing a yellow cat fails to recognize that it is a cat when it sees a non-yellow cat may be a type of overfitting. Overfitting can cause errors in AI algorithms to increase. To prevent such overfitting, various optimization methods can be used. To prevent overfitting, methods such as increasing the learning data, regularization or regularization, and dropout, which omits some of the network nodes during the learning process, can be applied.
본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. (이하에서는 신경망으로 통일하여 기술한다.) 데이터 구조는 신경망을 포함할 수 있다. 그리고 신경망을 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망을 포함한 데이터 구조는 또한 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 학습을 위한 손실 함수를 포함할 수 있다. 신경망을 포함한 데이터 구조는 상기 개시된 구성들 중 임의의 구성 요소들을 포함할 수 있다. 즉, 신경망을 포함한 데이터 구조는 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 트레이닝을 위한 손실 함수 등 전부 또는 이들의 임의의 조합을 포함하여 구성될 수 있다. 전술한 구성들 이외에도, 신경망을 포함한 데이터 구조는 신경망의 특성을 결정하는 임의의 다른 정보를 포함할 수 있다. 또한, 데이터 구조는 신경망의 연산 과정에 사용되거나 발생되는 모든 형태의 데이터를 포함할 수 있으며 전술한 사항에 제한되는 것은 아니다. 컴퓨터 판독 가능 매체는 컴퓨터 판독가능 기록 매체 및/또는 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다.Throughout this specification, computational model, neural network, network function, and neural network may be used interchangeably. (Hereinafter, it is described collectively as a neural network.) The data structure may include a neural network. And the data structure including the neural network may be stored in a computer-readable medium. Data structures including neural networks may also include data input to the neural network, weights of the neural network, hyperparameters of the neural network, data obtained from the neural network, activation functions associated with each node or layer of the neural network, and loss functions for learning the neural network. there is. A data structure containing a neural network may include any of the components disclosed above. In other words, the data structure including the neural network is all or It may be configured to include any combination of these. In addition to the configurations described above, a data structure containing a neural network may include any other information that determines the characteristics of the neural network. Additionally, the data structure may include all types of data used or generated in the computational process of a neural network and is not limited to the above. Computer-readable media may include computer-readable recording media and/or computer-readable transmission media. A neural network can generally consist of a set of interconnected computational units, which can be referred to as nodes. These nodes may also be referred to as neurons. A neural network consists of at least one node.
피처 추출 모델 및 피처 분류 모델Feature extraction model and feature classification model
도 16은 본 발명의 일 실시예에 따른 피처 추출 모델과 피처 분류 모델을 설명하기 위한 도면이다.Figure 16 is a diagram for explaining a feature extraction model and a feature classification model according to an embodiment of the present invention.
본 발명에 이용되는 수면 분석 모델은 미리 정해진 에폭 별 하나 이상의 피처를 추출하는 피처 추출 모델 및 피처 추출 모델을 통해 추출된 피처들 각각을 하나 이상의 수면단계로 분류하여 수면 상태 정보를 생성하는 피처 분류 모델을 포함할 수 있다. 피처 추출 모델은, 스펙트로그램(SP)의 시계열적 주파수 패턴을 분석하여 호흡음, 호흡패턴, 움직임 패턴에 관련한 피처들을 추출할 수 있다. 일 실시예에서, 피처 추출 모델은 학습 데이터 세트를 통해 사전 학습된 신경망 모델의 일부를 통해 구성될 수 있다. The sleep analysis model used in the present invention is a feature extraction model that extracts one or more features for each predetermined epoch and a feature classification model that generates sleep state information by classifying each of the features extracted through the feature extraction model into one or more sleep stages. may include. The feature extraction model can extract features related to breathing sounds, breathing patterns, and movement patterns by analyzing the time-series frequency pattern of the spectrogram (SP). In one embodiment, the feature extraction model may be constructed from part of a neural network model pre-trained on a training data set.
본 발명에 이용되는 수면 분석 모델은 피처 추출 모델 및 피처 분류 모델을 포함할 수 있다. 피처 추출 모델은 주어진 데이터의 시계열적 연관성을 학습할 수 있는 자연어처리 모델 기반의 딥러닝 학습 모델일 수 있다. 피처 분류 모델은 주어진 데이터의 시계열적 연관성을 학습할 수 있는 자연어처리 모델 기반의 학습 모델일 수 있다. 여기서, 시계열적 연관성을 학습할 수 있는 자연어처리 모델 기반의 딥러닝 학습 모델은 Tarnsformer, ViT, MobileViT, MobileViT2을 포함할 수 있으나, 이에 한정되지 않는다.The sleep analysis model used in the present invention may include a feature extraction model and a feature classification model. The feature extraction model may be a deep learning learning model based on a natural language processing model that can learn the time-series correlation of given data. The feature classification model may be a learning model based on a natural language processing model that can learn the time-series correlation of given data. Here, deep learning learning models based on natural language processing models that can learn time-series correlations may include Tarnsformer, ViT, MobileViT, and MobileViT2, but are not limited thereto.
본 발명의 일 실시예에 따른 학습 데이터 세트는, 주파수 도메인상의 데이터 및 각 데이터에 대응하는 복수의 수면 상태 정보로 구성될 수 있다. The learning data set according to an embodiment of the present invention may be composed of data in the frequency domain and a plurality of sleep state information corresponding to each data.
또는, 본 발명의 일 실시예에 따른 학습 데이터 세트는 복수의 스펙트로그램 및 각 스펙트로그램에 대응하는 복수의 수면 상태 정보로 구성될 수 있다. Alternatively, the learning data set according to an embodiment of the present invention may be composed of a plurality of spectrograms and a plurality of sleep state information corresponding to each spectrogram.
또는, 본 발명의 일 실시예에 따른 학습 데이터 세트는 복수의 멜 스펙트로그램 및 각 멜 스펙트로그램에 대응하는 복수의 수면 상태 정보로 구성될 수 있다.Alternatively, the learning data set according to an embodiment of the present invention may be composed of a plurality of Mel spectrograms and a plurality of sleep state information corresponding to each Mel spectrogram.
이하 설명의 편의를 위하여 본 발명의 일 실시예에 따른 수면 분석 모델의 구성 및 수행에 대하여 스펙트로그램의 데이터 세트를 기반으로 자세히 설명하나, 본 발명의 수면 분석 모델에 활용되는 학습 데이터는 스펙트로그램에 제한되는 것은 아니고, 주파수 도메인상의 정보, 스펙트로그램 또는 멜 스펙트로그램이 학습 데이터로서 활용될 수 있다.Below, for convenience of explanation, the configuration and performance of the sleep analysis model according to an embodiment of the present invention will be described in detail based on the data set of the spectrogram. However, the learning data used in the sleep analysis model of the present invention is included in the spectrogram. It is not limited, and information in the frequency domain, a spectrogram, or a mel spectrogram can be used as learning data.
본 발명의 실시예에 따른 수면 분석 모델 중 피처 추출 모델은, 하나의 스펙트로그램이 입력되어, 하나의 스펙트로그램에 해당하는 수면 상태 정보를 예측하도록 학습되는 One-to-one 프록시 태스크(Proxy task)에 의해서 사전 학습(Pre training)될 수 있다. 본 발명의 실시예에 따른 피처 추출 모델에 CNN 딥러닝 모델을 채용하는 경우에, FC(Fully Connected Layer) 또는 FCN(Fully Connected Neural Network)의 구조를 채택하여 학습을 수행할 수도 있다. 본 발명의 실시예에 따른 피처 추출 모델에 MobileViTV2 딥러닝 모델을 채용하는 경우에는, 중간층(Intermediate Layer)의 구조를 채택하여 학습을 수행할 수도 있다.Among the sleep analysis models according to an embodiment of the present invention, the feature extraction model is a one-to-one proxy task in which one spectrogram is input and learned to predict sleep state information corresponding to one spectrogram. It can be pre-trained by . When adopting a CNN deep learning model as a feature extraction model according to an embodiment of the present invention, learning may be performed by adopting the structure of FC (Fully Connected Layer) or FCN (Fully Connected Neural Network). When using the MobileViTV2 deep learning model as a feature extraction model according to an embodiment of the present invention, learning may be performed by adopting the structure of the intermediate layer.
본 발명의 실시예에 따른 수면 분석 모델 중 피처 분류 모델은, 복수의 연속된 스펙트로그램이 입력되어, 각각의 스펙트로그램의 수면 상태 정보를 예측하고, 복수의 연속된 스펙트로그램의 시퀀스를 분석하여 전체적인 수면 상태 정보를 예측 또는 분류하도록 학습될 수 있다. Among the sleep analysis models according to an embodiment of the present invention, the feature classification model inputs a plurality of consecutive spectrograms, predicts the sleep state information of each spectrogram, and analyzes the sequence of the plurality of consecutive spectrograms to provide an overall It can be learned to predict or classify sleep state information.
또한, 본 발명의 실시예에 따라 피처 추출 모델에 대한 One-to-one 프록시 태스크를 통해 사전 학습을 수행한 뒤, 사전 학습된 피처 추출 모델과 피처 분류 모델에 대한 Many-to-many 태스크를 통하여 파인 튜닝(Fine tuning)을 수행할 수 있다. 예컨대, 40개의 연속된 스펙트로그램의 시퀀스를, One-to-one 프록시 태스크로 학습한 복수 개의 피처 추출 모델에 입력하여 20개의 수면 상태 정보를 출력함으로써 수면 단계를 추론할 수도 있다. 전술한 스펙트로그램의 개수와 피처 추출 모델의 개수 및 수면 상태 정보의 개수와 관련한 구체적 수치적 기재는 단순한 예시일 뿐, 본 발명은 이에 제한되지는 않는다.In addition, according to an embodiment of the present invention, pre-learning is performed through a one-to-one proxy task for the feature extraction model, and then through many-to-many tasks for the pre-trained feature extraction model and feature classification model. Fine tuning can be performed. For example, the sleep stage may be inferred by inputting a sequence of 40 consecutive spectrograms into a plurality of feature extraction models learned through a one-to-one proxy task and outputting 20 pieces of sleep state information. The above-described specific numerical descriptions regarding the number of spectrograms, the number of feature extraction models, and the number of sleep state information are merely examples, and the present invention is not limited thereto.
상술한 바와 같이, 환경 센싱 정보의 심층 학습을 통해 사용자의 수면 상태 및 수면 단계를 추출하기 위한 추론 모델이 생성된다. 다시 간략히 설명하면, 음향 정보 등을 포함하는 환경 센싱 정보는 스펙트로그램으로 변환되며, 스펙트로그램에 기초하여 추론 모델이 생성된다. As described above, an inference model is created to extract the user's sleep state and sleep stage through deep learning of environmental sensing information. To briefly explain again, environmental sensing information including sound information is converted into a spectrogram, and an inference model is created based on the spectrogram.
추론 모델은, 위에서 설명한 바와 같이, 그래픽 사용자 인터페이스를 생성하는 장치(100)/제공하는 장치(200)에 구축될 수 있다. The inference model may be built in the apparatus 100 for generating/providing a graphical user interface 200, as described above.
이후, 사용자 단말(10)을 통해 획득되는, 사용자 음향 정보를 포함하는 환경 센싱 정보가 해당 추론 모델로 입력되어, 수면 상태 정보 및/또는 수면 단계 정보를 결과값으로 출력한다. 이때, 학습과 추론은 동일한 주체에서 수행될 수도 있으나, 학습과 추론이 별개 주체에서 수행될 수도 있다. 즉, 학습과 추론 모두가 도 1a의 그래픽 사용자 인터페이스를 생성하는 장치(100) 또는 도 1b의 그래픽 사용자 인터페이스를 제공하는 장치(200)에 의하여 수행될 수 있고, 학습은 도 1a의 그래픽 사용자 인터페이스를 생성하는 장치(100) 또는 도 1b의 그래픽 사용자 인터페이스를 제공하는 장치(200)에서 하되 추론은 사용자 단말(10)에서 수행될 수 있다. Thereafter, environmental sensing information including user sound information acquired through the user terminal 10 is input to the corresponding inference model, and sleep state information and/or sleep stage information is output as a result value. At this time, learning and inference may be performed by the same entity, but learning and inference may also be performed by separate entities. That is, both learning and inference may be performed by the device 100 that generates the graphical user interface of FIG. 1A or the device 200 that provides the graphical user interface of FIG. 1B, and learning is performed using the graphical user interface of FIG. 1A. Inference may be performed in the generating device 100 or the device 200 providing the graphical user interface of FIG. 1B, but inference may be performed in the user terminal 10.
또는, 도 2a과 같이, 그래픽 사용자 인터페이스를 생성하는 장치(100)와 그래픽 사용자 인터페이스를 제공하는 장치(200)가 사용자 단말(10)로 통합된 경우에는, 학습과 추론 모두가 사용자 단말(10)에 의하여 수행될 수 있다.Alternatively, as shown in FIG. 2A, when the device 100 for generating a graphical user interface and the device 200 for providing a graphical user interface are integrated into the user terminal 10, both learning and inference are performed using the user terminal 10. It can be performed by .
또는, 도2b와 같이, 본 발명이 다양한 전자 장치로 구성된 시스템을 통해 구현되는 경우, 학습 또는 추론이 도 2b에 도시된 각 전자장치 중 적어도 하나 이상에 의하여 수행될 수 있다.Alternatively, as shown in FIG. 2B, when the present invention is implemented through a system comprised of various electronic devices, learning or inference may be performed by at least one of the electronic devices shown in FIG. 2B.
이하, 본 발명의 실시예에 따른 피처 추출 모델 및 피처 분류 모델에 대하여 자세히 설명하기로 한다.Hereinafter, the feature extraction model and feature classification model according to an embodiment of the present invention will be described in detail.
피처 추출 모델Feature extraction model
피처 추출 모델은, 학습 데이터 세트를 통해 학습된 독자적인 딥러닝 모델로 구성될 수 있다. 피처 추출 모델은 지도 학습 또는 비지도 학습 방식을 통해 학습될 수 있다. 피처 추출 모델은 학습 데이터 세트를 통해 입력 데이터와 유사한 출력 데이터를 출력하도록 학습될 수 있다. 자세히 설명하면, 입력된 스펙트로그램의 핵심 특징 데이터(또는 피처)만을 히든 레이어를 통해 학습할 수 있다. 이 경우, 디코더를 통한 디코딩 과정에서 히든 레이어의 출력 데이터는 완벽한 복사 값이 아닌 입력 데이터(즉, 스펙트로그램)의 근사치일 수 있다. The feature extraction model may be composed of an independent deep learning model learned through a training data set. The feature extraction model can be learned through supervised learning or unsupervised learning methods. A feature extraction model can be trained to output output data similar to input data through a learning data set. To explain in detail, only the core feature data (or features) of the input spectrogram can be learned through the hidden layer. In this case, during the decoding process through the decoder, the output data of the hidden layer may be an approximation of the input data (i.e., spectrogram) rather than a perfect copy value.
학습 데이터 세트에 포함된 복수의 스펙트로그램 각각에는, 수면 상태 정보가 태깅될 수 있다. 복수의 스펙트로그램 각각을 피처 추출 모델에 입력될 수 있으며, 각 스펙트로그램에 대응하는 출력은 태깅된 수면 상태 정보와 매칭하여 저장될 수 있다. 구체적으로 제1수면 상태 정보(예컨대, 얕은 수면)가 태깅된 제1학습 데이터 세트들(즉, 복수의 스펙트로그램)을 입력으로 하는 경우, 해당 입력에 대한 출력에 관련한 피처들은 제1수면 상태 정보와 매칭하여 저장될 수 있다. 실시예에서, 출력에 관련한 하나 이상의 피처는 벡터 공간 상에 표시될 수 있다. 이 경우, 제1학습 데이터 세트들을 각각에 대응하여 출력된 특징 데이터들은 제1수면단계에 관련한 스펙트로그램을 통한 출력이므로, 벡터 공간 상에서 비교적 가까운 거리에 위치할 수 있다. 즉, 각 수면단계에 대응하여 복수의 스펙트로그램들이 유사한 피처를 출력하도록 학습이 수행될 수 있다. Each of the plurality of spectrograms included in the learning data set may be tagged with sleep state information. Each of the plurality of spectrograms may be input to a feature extraction model, and the output corresponding to each spectrogram may be stored by matching the tagged sleep state information. Specifically, when first learning data sets (i.e., multiple spectrograms) tagged with first sleep state information (e.g., light sleep) are used as input, features related to the output for the input are first sleep state information. It can be saved by matching. In embodiments, one or more features relevant to the output may be represented in a vector space. In this case, since the feature data output corresponding to each of the first learning data sets are output through a spectrogram related to the first sleep stage, they may be located at a relatively close distance in the vector space. That is, learning can be performed so that a plurality of spectrograms output similar features corresponding to each sleep stage.
전술한 학습 과정을 통한 피처 추출 모델은 스펙트로그램(예컨대, 수면 음향 정보에 대응하여 변환된 스펙트로그램)을 입력으로 하는 경우, 해당 스펙트로그램에 대응하는 피처를 추출할 수 있다.When the feature extraction model through the above-described learning process receives a spectrogram (eg, a spectrogram converted in response to sleep sound information) as input, features corresponding to the spectrogram can be extracted.
실시예에서, 프로세서(130)는 수면 음향 정보(SS)에 대응하여 생성된 스펙트로그램(SP)을 피처 추출 모델의 입력으로 처리하여 피처를 추출할 수 있다. 여기서, 수면 음향 정보(SS)는 사용자의 수면 동안 시계열적으로 획득되는 시계열 데이터이므로, 프로세서(130)는 스펙트로그램(SP)을 미리 정해진 에폭으로 분할할 수 있다. 예컨대, 프로세서(130)는 수면 음향 정보(SS)에 대응하는 스펙트로그램(SP)을 30초 단위로 분할하여 복수 개의 스펙트로그램들을 획득할 수 있다. 예를 들어, 사용자의 7시간(즉, 420분) 수면 동안 수면 음향 정보가 획득된 경우, 프로세서(130)는 30초 단위로 스펙트로그램을 분할하여 840개의 스펙트로그램을 획득할 수 있다. 전술한 수면 시간, 스펙트로그램의 분할 시간 단위 및 분할 개수에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.In an embodiment, the processor 130 may extract features by processing the spectrogram (SP) generated in response to the sleep sound information (SS) as an input to a feature extraction model. Here, since the sleep sound information (SS) is time series data obtained sequentially during the user's sleep, the processor 130 may divide the spectrogram (SP) into predetermined epochs. For example, the processor 130 may obtain a plurality of spectrograms by dividing the spectrogram (SP) corresponding to the sleep sound information (SS) into 30-second increments. For example, if sleep sound information is acquired during the user's 7-hour (i.e., 420-minute) sleep, the processor 130 may obtain 840 spectrograms by dividing the spectrogram in 30-second increments. The detailed numerical description of the above-described sleep time, division time unit of the spectrogram, and number of divisions is only an example, and the present invention is not limited thereto.
프로세서(130)는 분할된 복수 개의 스펙트로그램들 각각을 피처 추출 모델의 입력으로 처리하여 복수 개의 스펙트로그램들 각각에 대응하는 복수의 피처를 추출할 수 있다. 예컨대, 복수 개의 스펙트로그램들의 개수가 840개인 경우, 이에 대응하여 피처 추출 모델이 추출하는 복수의 피처의 개수 또한 840개일 수 있다. 전술한 스펙트로그램 및 복수의 피처의 개수에 관련한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.The processor 130 may process each of the plurality of segmented spectrograms as input to a feature extraction model to extract a plurality of features corresponding to each of the plurality of spectrograms. For example, if the number of spectrograms is 840, the number of features extracted by the feature extraction model correspondingly may also be 840. The above-described specific numerical description regarding the spectrogram and number of features is only an example, and the present invention is not limited thereto.
한편, 본 발명의 실시예에 따른 피처 추출 모델은 One-to-one 프록시 태스크에 의해 학습을 수행할 수도 있다. 또한, 하나의 스펙트로그램에 대한 수면 상태 정보를 추출하도록 학습하는 과정에 있어서, 피처 추출 모델과 또 다른 NN(Neural Network)을 결합하여 수면 상태 정보를 추출하도록 학습될 수도 있다. Meanwhile, the feature extraction model according to an embodiment of the present invention may be trained using a one-to-one proxy task. Additionally, in the process of learning to extract sleep state information for one spectrogram, it may be learned to extract sleep state information by combining a feature extraction model and another NN (Neural Network).
본 발명의 실시예에 따라, 사전 학습된 간단한 Neural Network를 거쳐서 거쳐서 학습을 수행한다면, 피처 추출 모델의 학습 시간을 단축하거나 또는 학습의 효율을 높일 수 있다.According to an embodiment of the present invention, if learning is performed through a simple pre-trained Neural Network, the learning time of the feature extraction model can be shortened or the learning efficiency can be increased.
예를 들어, 본 발명의 일 실시예에 따라 30초 단위로 분할된 하나의 스펙트로그램이 피처 추출 모델의 입력으로 하여 출력된 벡터가 다른 NN의 입력으로 하여 수면 상태 정보를 출력하도록 학습될 수도 있다.For example, according to an embodiment of the present invention, one spectrogram divided by 30 seconds may be used as an input to a feature extraction model, and the output vector may be learned to output sleep state information by using it as an input to another NN. .
피처 분류 모델Feature classification model
또한, 프로세서(130)는 피처 추출 모델을 통해 출력된 복수의 피처를 피처 분류 모델의 입력으로 처리하여 수면 상태 정보를 획득할 수 있다. 실시예에서, 피처 분류 모델은 피처에 대응하여 수면단계를 예측하도록 모델링된 신경망 모델일 수 있다. 예컨대, 피처 분류 모델은 fully connected layer를 포함하여 구성되며, 피처를 수면단계들 중 적어도 하나로 분류하는 모델일 수 있다. 예를 들어, 피처 분류 모델은 제1스펙트로그램에 대응하는 제1피처를 입력으로 하는 경우, 해당 제1피처를 얕은 수면으로 분류할 수 있다.Additionally, the processor 130 may obtain sleep state information by processing a plurality of features output through the feature extraction model as input to a feature classification model. In an embodiment, the feature classification model may be a neural network model modeled to predict sleep stages in response to features. For example, the feature classification model includes a fully connected layer and may be a model that classifies features into at least one of the sleep stages. For example, when the feature classification model inputs the first feature corresponding to the first spectrogram, the first feature may be classified as shallow water.
피처 분류 모델은 여러 에폭에 관련한 스펙트로그램을 입력으로 하여 여러 에폭의 수면단계를 예측하는 멀티 에폭 분류를 수행할 수 있다. 멀티 에폭 분류란, 단일 에폭의 스펙트로그램(즉, 30초에 해당하는 하나의 스펙트로그램)에 대응하여 하나의 수면단계분석 정보를 제공하는 것이 아닌, 복수의 에폭에 해당하는 스펙트로그램들(즉, 각각 30초에 해당하는 스펙트로그램들의 조합)을 입력으로 하여 여러 수면단계들(예컨대, 시간 변화에 따른 수면단계들의 변화)를 한 번에 추정하기 위한 것일 수 있다. 예컨대, 호흡 패턴 또는 움직임 패턴은 뇌파 신호 또는 다른 생체 신호에 비해 천천히 변화하기 때문에, 과거와 미래의 시점에서 패턴이 어떻게 변화하는지를 관찰해야 정확한 수면단계 추정이 가능할 수 있다. 구체적인 예를 들어, 피처 분류 모델은, 40개의 스펙트로그램(예컨대, 각각 30초에 해당하는 스펙트로그램이 40개)을 입력으로 하여, 가운데에 위치한 20개의 스펙트로그램에 대한 예측을 수행할 수 있다. 즉, 1 내지 40의 스펙트로그램을 모두를 살펴보나, 10 내지 20에 대응하는 스펙트로그램에 대응하는 분류를 통해 수면단계를 예측할 수 있다. 전술한 스펙트로그램의 개수에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.The feature classification model can perform multi-epoch classification to predict sleep stages of multiple epochs by using spectrograms related to multiple epochs as input. Multi-epoch classification does not provide one sleep stage analysis information in response to the spectrogram of a single epoch (i.e., one spectrogram corresponding to 30 seconds), but spectrograms corresponding to multiple epochs (i.e. It may be used to estimate several sleep stages (e.g., changes in sleep stages according to time changes) at once by using a combination of spectrograms (each corresponding to 30 seconds) as input. For example, because breathing or movement patterns change more slowly than brain wave signals or other biological signals, accurate sleep stage estimation may be possible only by observing how the patterns change at past and future points in time. For a specific example, the feature classification model may input 40 spectrograms (e.g., 40 spectrograms corresponding to 30 seconds each) and perform prediction for the 20 spectrograms located in the center. That is, all spectrograms from 1 to 40 are examined, but the sleep stage can be predicted through classification corresponding to the spectrograms corresponding to 10 to 20. The detailed numerical description of the number of spectrograms described above is only an example, and the present invention is not limited thereto.
즉, 수면단계를 추정하는 과정에서, 단일 스펙트로그램 각각에 대응하여 수면단계 예측을 수행하는 것이 아닌, 과거와 미래에 관련한 정보를 모두 고려할 수 있도록 복수의 에폭에 해당하는 스펙트로그램들을 입력으로 활용하도록 함으로써, 출력의 정확도 향상을 도모할 수 있다.In other words, in the process of estimating sleep stages, rather than performing sleep stage prediction in response to each single spectrogram, spectrograms corresponding to multiple epochs are used as input so that all information related to the past and future can be considered. By doing so, the accuracy of output can be improved.
도 12는 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면단계분석을 설명하기 위한 도면이다.Figure 12 is a diagram for explaining sleep stage analysis using a spectrogram in the sleep analysis method according to the present invention.
본 발명의 일 실시예에 따르면, Actigraphy 및/또는 HRV에 기초한 1차 수면 분석 이후, 수면 음향 정보에 기초한 2차 분석은 상술한 바와 같은 수면 분석 모델을 이용하게 되며, 도 12에 도시된 바와 같이, 사용자의 수면 음향 정보가 입력되면 그에 대응되는 수면단계(Wake, REM, Light, Deep)가 즉각적으로 추론될 수 있다. 이에 더하여, 수면 음향 정보에 기초한 2차 분석은 수면단계에 대응하는 멜 스펙트럼의 특이점을 통해 수면장애(수면무호흡, 과호흡)나 코골이 등이 발생한 시점을 추출할 수 있다. According to one embodiment of the present invention, after the first sleep analysis based on actigraphy and/or HRV, the second analysis based on sleep acoustic information uses the sleep analysis model described above, as shown in FIG. 12 , When the user's sleep sound information is input, the corresponding sleep stage (Wake, REM, Light, Deep) can be immediately inferred. In addition, secondary analysis based on sleep sound information can extract the time when sleep disorders (sleep apnea, hyperventilation) or snoring occurred through the singularity of the Mel spectrum corresponding to the sleep stage.
도 13은 본 발명에 따른 수면 분석 방법에 있어서 스펙트로그램을 이용한 수면장애 판단을 설명하기 위한 도면이다.Figure 13 is a diagram for explaining sleep disorder determination using a spectrogram in the sleep analysis method according to the present invention.
도 13에 도시된 바와 같이, 하나의 멜 스펙트로그램에 있어서 호흡 패턴을 분석하고, 수면무호흡(apnea)이나 과호흡(hyperpnea) 이벤트에 대응하는 특성이 감지되면 해당 시점을 수면장애가 발생한 시점으로 판단할 수 있다. 이때, 주파수 분석을 통해서 수면무호흡(apnea)이나 과호흡(hyperpnea)이 아닌 코골이로 분류하는 과정을 더 포함할 수도 있다.As shown in Figure 13, the breathing pattern is analyzed in one Mel spectrogram, and when characteristics corresponding to a sleep apnea or hyperpnea event are detected, the point in time is determined as the time when the sleep disorder occurred. You can. At this time, a process of classifying snoring as snoring rather than sleep apnea or hyperpnea through frequency analysis may be further included.
도 14는 본 발명에 따른 수면 분석 방법의 성능을 검증하기 위한 실험과정을 나타내는 도면이다. Figure 14 is a diagram showing an experimental process for verifying the performance of the sleep analysis method according to the present invention.
도 14에 도시된 바와 같이, 사용자의 수면 영상과 수면음향이 실시간으로 획득되며, 획득된 수면 음향 정보는 주파수 도메인상의 정보로 즉각 변환될 수 있다. 본 발명의 일 실시예에 따라, 사용자의 수면 음향 정보가 스펙트로그램으로 즉각 변환될 수도 있다. 이때, 수면 음향 정보의 전처리과정이 이루어질 수 있다. 변환된 주파수 도메인상의 정보 또는 스펙트로그램은 수면 분석 모델에 입력되어 즉각적으로 수면단계가 분석될 수 있다.As shown in Figure 14, the user's sleep image and sleep sound are acquired in real time, and the acquired sleep sound information can be immediately converted to information in the frequency domain. According to an embodiment of the present invention, the user's sleep sound information may be immediately converted into a spectrogram. At this time, a preprocessing process of sleep sound information may be performed. The converted frequency domain information or spectrogram can be input into a sleep analysis model and the sleep stage can be analyzed immediately.
또한, 본 발명의 일 실시예에 따른 피처 분류 모델에 CNN 또는 트랜스포머(Transformer) 기반의 딥러닝 모델을 채용하는 경우의 동작은 다음과 같이 수행될 수도 있다.Additionally, when a CNN or Transformer-based deep learning model is employed as a feature classification model according to an embodiment of the present invention, the operation may be performed as follows.
본 발명의 일 실시예에 따라 시계열 정보가 포함되어 있는 스펙트로그램이 CNN 기반의 딥러닝 모델의 입력으로 하여, 차원이 낮아진 벡터를 출력할 수 있다. 이렇게 차원이 낮아진 벡터를 Transformer 기반의 딥러닝 모델의 입력으로 하여, 시계열 정보가 함축된 벡터가 출력될 수 있다.According to an embodiment of the present invention, a spectrogram containing time series information can be used as an input to a CNN-based deep learning model, and a vector with reduced dimension can be output. By using this reduced-dimensional vector as an input to a Transformer-based deep learning model, a vector containing implied time series information can be output.
본 발명의 실시예에 따라 Transformer 기반의 딥러닝 모델의 출력 벡터에 대하여 평균 풀링(Average pooling) 기법이 적용될 수 있도록 1D CNN(1D Convolutional Neural Network)에 입력하여, 시계열 정보에 대한 평균화 작업을 통해, 시계열 정보가 함축된 N차원의 벡터로 변환하는 과정을 수행할 수도 있다. 이 경우 시계열 정보가 함축된 N차원의 벡터는 입력 데이터와의 해상도 차이가 있을 뿐, 여전히 시계열 정보를 포함하고 있는 데이터에 해당한다. According to an embodiment of the present invention, the output vector of the transformer-based deep learning model is input to a 1D CNN (1D Convolutional Neural Network) so that the average pooling technique can be applied, and through averaging work on time series information, The process of converting time series information into an N-dimensional vector with implied time can also be performed. In this case, the N-dimensional vector containing time series information corresponds to data that still contains time series information, although there is only a difference in resolution from the input data.
본 발명의 실시예에 따라 출력된 시계열 정보가 함축된 N차원의 벡터들의 조합에 대한 멀티 에폭 분류를 수행하여, 여러 수면단계들에 대한 예측을 수행할 수 있다. 이 경우 트랜스포머(Transformer) 기반의 딥러닝 모델들의 출력 벡터들을 복수 개의 FC(Fully Connected layer)의 입력으로 하여 연속적인 수면 상태 정보의 예측을 수행할 수도 있다.According to an embodiment of the present invention, prediction of various sleep stages can be performed by performing multi-epoch classification on a combination of N-dimensional vectors containing output time series information. In this case, continuous prediction of sleep state information can be performed by using the output vectors of transformer-based deep learning models as input to a plurality of fully connected layers (FC).
또한, 본 발명의 일 실시예에 따른 피처 분류 모델에 ViT 또는 Mobile ViT 기반의 딥러닝 모델을 채용하는 경우 동작은 다음과 같이 수행될 수 있다.Additionally, when a deep learning model based on ViT or Mobile ViT is employed in the feature classification model according to an embodiment of the present invention, the operation can be performed as follows.
본 발명의 일 실시예에 따라 시계열 정보가 포함되어 있는 스펙트로그램이 Mobile ViT기반의 딥러닝 모델의 입력으로 하여, 차원이 낮아진 벡터를 출력할 수 있다. According to an embodiment of the present invention, a spectrogram containing time series information can be used as an input to a Mobile ViT-based deep learning model to output a vector with reduced dimensionality.
또한, 본 발명의 실시예에 따라 Mobile ViT기반의 딥러닝 모델의 출력으로 각각의 스펙트로그램에서 피처를 추출할 수 있다.Additionally, according to an embodiment of the present invention, features can be extracted from each spectrogram as the output of a Mobile ViT-based deep learning model.
본 발명의 실시예에 따라서 차원이 낮아진 벡터를 Intermediate Layer의 입력으로 하여, 시계열 정보가 함축된 벡터가 출력될 수 있다. Intermediate Layer 모델에서는 벡터의 정보를 함축하는 선형화 단계(Lnearization), 평균과 분산을 입력하기 위한 레이어 정규화(Layer Normalization)단계 또는 일부 노드를 비활성화하는 드롭아웃(dropout)단계 중 적어도 하나 이상의 단계가 포함될 수 있다.According to an embodiment of the present invention, a vector containing time series information can be output by using a vector with a reduced dimension as an input to the intermediate layer. The intermediate layer model may include at least one of the following steps: a linearization step to imply vector information, a layer normalization step to input the average and variance, or a dropout step to disable some nodes. there is.
본 발명의 실시예에 따라서 차원이 낮아진 벡터를 Intermediate Layer의 입력으로 하여 시계열 정보가 함축된 벡터를 출력하는 과정을 수행함으로써, 과적합(overfitting)을 방지할 수 있다.According to an embodiment of the present invention, overfitting can be prevented by performing a process of outputting a vector containing time series information by using a vector with a reduced dimension as an input to the intermediate layer.
본 발명의 실시예에 따라서 Intermediate Layer의 출력 벡터를 ViT기반의 딥러닝 모델의 입력으로 하여 수면 상태 정보를 출력할 수 있다. 이 경우 시계열 정보가 포함되어 있는 주파수 도메인상의 정보, 스펙트로그램, 또는 멜 스펙트로그램에 대응하는 수면 상태 정보를 출력할 수 있다.According to an embodiment of the present invention, sleep state information can be output by using the output vector of the intermediate layer as an input to a ViT-based deep learning model. In this case, sleep state information corresponding to information on the frequency domain containing time series information, a spectrogram, or a mel spectrogram can be output.
또한, 본 발명의 일 실시예에 따라서 시계열 정보가 포함되어 있는 주파수 도메인상의 정보, 스펙트로그램, 또는 멜 스펙트로그램의 일련의 구성에 대응하는 수면 상태 정보를 출력할 수 있다.In addition, according to an embodiment of the present invention, sleep state information corresponding to a series of frequency domain information, spectrogram, or mel spectrogram containing time series information can be output.
한편, 본 발명의 실시예에 따른 피처 추출 모델 또는 피처 분류 모델에는 상기 언급된 AI 모델 외에도 다양한 딥러닝 모델이 채용되어 학습 또는 추론을 수행할 수도 있으며, 전술한 딥러닝 모델의 종류와 관련한 구체적 기재는 단순한 예시일 뿐, 본 발명은 이에 제한되는 것은 아니다.Meanwhile, in the feature extraction model or feature classification model according to an embodiment of the present invention, various deep learning models in addition to the above-mentioned AI model may be employed to perform learning or inference, and specific descriptions related to the types of deep learning models described above are provided. is merely an example, and the present invention is not limited thereto.
본 발명에 따른 수면 분석 방법의 성능 및 그래프Performance and graphs of the sleep analysis method according to the present invention
도 17a 및 도 17b는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.17A and 17B are graphs verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results (PSG results) and analysis results (AI results) using the AI algorithm according to the present invention. This is a comparison drawing.
도 17a 및 도 17b에 도시된 바와 같이, 수면다원검사(polysomnography, PSG) 결과와 비교하면, 수면 음향 정보를 입력으로 하는 수면 분석 모델 결과값이 매우 정확하다는 것을 확인할 수 있었다.As shown in FIGS. 17A and 17B, when compared with the polysomnography (PSG) results, it was confirmed that the sleep analysis model results using sleep sound information as input were very accurate.
기존 수면 분석 모델은 ECG(Electrocardiogram)이나, HRV(Heart Rate Variability)를 입력으로 하여 수면단계를 예측하였으나, 본 발명은 수면 음향 정보를 시간 도메인의 수면 음향 정보의 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보, 스펙트로그램, 또는 멜 스펙트로그램으로 변환하여 입력으로 하여 수면단계 분석 및 추론을 진행할 수 있다. 따라서, 수면 음향 정보를 주파수 도메인으로 변환한 정보, 스펙트로그램, 또는 멜 스펙트로그램으로 변환하여 입력으로 하기 때문에 기존 수면 분석 모델과 달리 수면 패턴의 특이성 분석을 통해서 실시간으로 수면 단계를 센싱(sensing) 또는 획득할 수 있다. Existing sleep analysis models predict sleep stages by using ECG (Electrocardiogram) or HRV (Heart Rate Variability) as input, but the present invention uses sleep sound information as the change in frequency components of sleep sound information in the time domain along the time axis. Sleep stage analysis and inference can be performed by converting the included information into a spectrogram or mel spectrogram as input. Therefore, unlike existing sleep analysis models, because sleep sound information is converted into frequency domain information, spectrogram, or mel spectrogram as input, the sleep stage can be sensed in real time through analysis of the specificity of the sleep pattern. It can be obtained.
본 발명에 따르면, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스가 제공될 수 있다.According to the present invention, a graphical user interface that displays information about the user's sleep can be provided.
이하, 본 발명에 따른 수면 분석의 성능과, 사용자의 수면에 관한 정보를 나타내는 그래프를 얻는 방법을 설명한다.Hereinafter, the performance of sleep analysis according to the present invention and a method of obtaining a graph representing information about the user's sleep will be described.
수면 단계 정보를 나타내는 힙노그램Hypnogram showing sleep stage information
도 17a 및 도 17b는 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다.17A and 17B are graphs verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results (PSG results) and analysis results (AI results) using the AI algorithm according to the present invention. This is a comparison drawing.
도 17a의 가장 아래에 도시된 힙노덴시티 그래프(Hypnodensity graph)는 4개의 수면 단계의 클래스 중 어느 수면 단계에 속하는지에 대한 확률을 나타내는 그래프이다. The Hypnodensity graph shown at the bottom of FIG. 17A is a graph showing the probability of belonging to which of the four sleep stage classes.
도 17a의 가운데에 도시된 그래프인 힙노그램(hypnogram)은 힙노덴시티 그래프로부터 가장 높은 확률의 수면 단계를 정하는 방식으로 얻을 수 있다.The hypnogram, which is the graph shown in the center of FIG. 17A, can be obtained by determining the sleep stage with the highest probability from the hypnodensity graph.
이 때, 본 발명의 일 실시예에 따라 사용자 수면 음향 정보를 입력받아 수면단계를 예측할 때, 30초 단위로 4개의 클래스(Wake, Light, Deep, REM) 중 어디에 속하는지에 대한 확률을 나타낼 수 있다. 여기서 4개의 클래스는 각각 깨어 있는 상태, 가볍게 잠이 든 상태, 깊게 잠이 든 상태, REM 수면 상태를 의미한다.At this time, when predicting the sleep stage by receiving user sleep sound information according to an embodiment of the present invention, the probability of belonging to one of the four classes (Wake, Light, Deep, REM) can be indicated in 30 second increments. . Here, the four classes refer to the awake state, light sleep state, deep sleep state, and REM sleep state, respectively.
도 17b에 도시된 바와 같이, 본 발명에 따라 획득된 수면 분석 결과는 수면 다원 검사를 통해 얻은 라벨링 데이터와 비교하였을 때 매우 일치하는 성능을 보여주었다.As shown in Figure 17b, the sleep analysis results obtained according to the present invention showed very consistent performance when compared with the labeling data obtained through polysomnography.
또한, 수면단계(Wake, Light, Deep, REM)와 관련한 더욱 정밀하고도 유의미한 정보를 포함한다는 성능을 보여주었다.In addition, it demonstrated the ability to contain more precise and meaningful information related to sleep stages (Wake, Light, Deep, REM).
수면 호흡 정보를 나타내는 그래프Graph showing sleep breathing information
도 18은 본 발명에 따른 수면 분석 방법의 성능을 검증한 그래프로, 수면 무호흡증(apnea), 호흡저하(hypopnea)와 관련하여 수면다원검사(polysomnography, PSG) 결과(PSG result)와 본 발명에 따른 AI 알고리즘을 이용한 분석 결과(AI result)를 비교한 도면이다. Figure 18 is a graph verifying the performance of the sleep analysis method according to the present invention, showing polysomnography (PSG) results in relation to sleep apnea and hypoventilation and the results according to the present invention. This is a diagram comparing the analysis results (AI results) using AI algorithms.
도 18의 가장 아래에 도시된 확률 그래프는 사용자 수면 음향 정보를 입력받아서 수면 질환을 예측할 때, 30초 단위로 2개의 질환(수면 무호흡증, 호흡저하) 중 어디에 속하는지에 대한 확률을 나타낸다.The probability graph shown at the bottom of FIG. 18 shows the probability of which of the two diseases (sleep apnea, hypoventilation) it belongs to in 30-second increments when predicting a sleep disease by receiving user sleep sound information.
도 18에 도시된 세 개의 그래프 중 가운데에 도시된 그래프는, 그 아래에 도시된 확률 그래프로부터 가장 높은 확률의 질환을 정하는 방식으로 얻을 수 있다.Among the three graphs shown in FIG. 18, the graph shown in the middle can be obtained by determining the disease with the highest probability from the probability graph shown below.
본 발명에 따른 수면 분석을 이용하면, 도 18에 도시된 바와 같이, 본 발명에 따라 획득된 수면 상태 정보는 수면다원검사와 매우 일치하는 성능을 보여주었다. 또한, 무호흡증과 호흡저하와 관련한 더욱 정밀한 분석 정보를 포함한다는 성능을 보여주었다.Using the sleep analysis according to the present invention, as shown in FIG. 18, the sleep state information obtained according to the present invention showed performance very consistent with polysomnography. In addition, it demonstrated the ability to include more precise analysis information related to apnea and respiratory depression.
본 발명에 따르면, 사용자의 수면 분석을 실시간으로 분석하면서 수면장애(수면무호흡, 수면과호흡, 수면저호흡)가 발생한 지점을 파악할 수 있다. 수면장애가 발생한 순간 사용자에게 자극(촉각적, 자극 청각적 자극, 후각적 자극 등)을 제공하면, 수면장애가 일시적으로 완화될 수 있다. 즉, 본 발명에 따르면 수면장애와 관련한 정확한 이벤트탐지를 바탕으로 사용자의 수면장애를 중단시키고, 수면장애의 빈도를 감소시킬 수 있다.According to the present invention, it is possible to identify the point at which a sleep disorder (sleep apnea, sleep hyperventilation, sleep hypopnea) occurs while analyzing the user's sleep in real time. If stimulation (tactile, auditory, olfactory, etc.) is provided to the user at the moment the sleep disorder occurs, the sleep disorder can be temporarily alleviated. In other words, according to the present invention, it is possible to stop the user's sleep disorder and reduce the frequency of sleep disorder based on accurate event detection related to the sleep disorder.
사용자의 수면에 관한 정보를 획득한 날짜 정보 및 그래픽 사용자 인터페이스Date information and graphical user interface to obtain information about the user's sleep
수면 분석과 관련한 기술분야에서, 사용자의 수면에 관한 정보를 획득하여 제공하는 서비스가 존재하였으나, 사용자의 수면에 관한 정보를 언제 획득하였는지를 직관적으로 나타내는 데에 어려움이 있었고, 이에 대한 연구가 진행되어 왔다.In the field of technology related to sleep analysis, there has been a service that obtains and provides information about the user's sleep, but it has been difficult to intuitively indicate when the information about the user's sleep was obtained, and research on this has been conducted. .
본 발명에 따르면, 사용자의 수면에 관한 정보를 획득한 날짜를 표시하기 위한 정보를 생성하는 방법이 제공될 수 있다. 본 발명의 실시예들에 따른 수면에 관한 정보를 획득한 날짜 정보를 제공하는 방법에 의하면, 사용자로 하여금 해당 수면에 관한 정보를 획득한 날짜를 직관적으로 이해할 수 있도록 함으로써, 수면을 더 쉽게 분석할 수 있도록 하는 장점이 있다.According to the present invention, a method for generating information for displaying the date on which information about a user's sleep was acquired can be provided. According to the method of providing information on the date on which information about sleep was acquired according to embodiments of the present invention, sleep can be analyzed more easily by allowing the user to intuitively understand the date on which information about sleep was acquired. There is an advantage in allowing this.
또한, 본 발명에 따르면, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스가 제공될 수 있다. 또한, 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점에 관한 정보를 나타내는 그래픽 사용자 인터페이스가 제공될 수 있다.Additionally, according to the present invention, a graphical user interface that displays information about the user's sleep can be provided. Additionally, a graphical user interface may be provided that displays information about the date and/or time when information about the user's sleep was acquired.
본 발명의 실시예들에 따르면, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스는 다양한 형태의 디스플레이로 구현되는 전자장치 또는 사용자 단말(10)에서 표시될 수도 있다.According to embodiments of the present invention, a graphic user interface representing information about the user's sleep may be displayed on the user terminal 10 or an electronic device implemented with various types of displays.
이하, 본 발명에 따라 사용자의 수면에 관한 정보를 획득한 날짜를 표시하기 위한 정보를 생성하는 방법을 실시예들을 통해 자세히 설명한다. 또한, 본 발명의 실시예들에 따른 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 도면을 활용하여 설명하기로 한다.Hereinafter, a method for generating information for displaying the date on which information about a user's sleep was acquired according to the present invention will be described in detail through embodiments. Additionally, a graphical user interface representing information about sleep according to embodiments of the present invention will be described using drawings.
기상 시점에 기초하여, 수면에 관한 정보를 획득한 날짜 정보 생성 및 표시Generate and display information on the date information on sleep was acquired based on the time of waking up
도 4a 내지 도 4f는 본 발명의 실시예들에 따라 기상 시점에 기초하여 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 도시한 도면이다.FIGS. 4A to 4F are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the time of waking up according to embodiments of the present invention.
본 발명의 일 실시예에 따르면, 획득한 수면 상태 정보에 포함된 기상 시점 정보에 기초하여 수면에 관한 정보를 획득한 날짜 정보를 생성하는 방법이 제공될 수 있다.According to an embodiment of the present invention, a method of generating date information on which information about sleep was acquired based on wake-up time information included in the acquired sleep state information may be provided.
또는, 본 발명의 일 실시예에 따르면, 수면 상태 정보를 획득한 이후, 획득한 수면 상태 정보에 포함된 기상 시점 정보에 기초하여, 해당 기상 시점을 수면 상태 정보를 획득한 날짜로 표시하는 방법이 제공될 수 있다.Alternatively, according to an embodiment of the present invention, after acquiring the sleep state information, a method of displaying the wake-up time as the date on which the sleep state information was acquired, based on the wake-up time information included in the acquired sleep state information. can be provided.
예컨대, 도 4a에 도시된 바와 같이, 4월 5일에 입면하였고 4월 6일에 기상하였다는 정보가 포함되어 있는 수면 상태 정보를 획득한 경우, 해당 수면 상태 정보를 획득한 날짜를 기상 시점의 날짜인 4월 6일이라고 나타낼 수 있다. For example, as shown in Figure 4a, when sleep state information is obtained including information that one went to bed on April 5th and woke up on April 6th, the date on which the corresponding sleep state information was acquired is set to the time of waking up. The date can be expressed as April 6th.
또는, 도 4d에 도시된 바와 같이, 6월 7일에 입면하였고, 같은 날인 6월 7일에 기상하였다는 정보가 포함되어 있는 수면 상태 정보를 획득한 경우, 기상 시점의 날짜인 6월 7일을 해당 수면 상태 정보를 획득한 날짜로 나타낼 수 있다. Or, as shown in FIG. 4D, if sleep state information is obtained that includes information that you went to bed on June 7th and woke up on the same day, June 7th, the date of waking up is June 7th. can be expressed as the date on which the corresponding sleep state information was acquired.
이렇게 기상 시점에 기초하여 수면에 관한 정보를 획득한 날짜를 표현하는 경우에는, 사용자에게 과거의 수면을 분석한 레포트를 제공하는 것과 같은 인상을 줌으로써, 수면 경험을 분석하였다는 점을 강조할 수 있다는 효과가 있다. 또한, 예컨대 전날 밤 입면하고, 그다음 날 아침에 기상하였다는 정보가 포함되어 있는 수면 상태 정보를 획득하여 제공할 때, 밤시간 동안의 수면 경험을 분석하였다는 점을 더욱 강조할 수 있다는 효과가 있다.When expressing the date on which information about sleep was obtained based on the time of waking up in this way, it is possible to emphasize that the sleep experience was analyzed by giving the user the same impression as providing a report analyzing past sleep. It works. In addition, when obtaining and providing sleep state information, for example, including information about going to bed the night before and waking up the next morning, there is an effect of further emphasizing that the sleep experience during the night was analyzed. .
상술한 날짜와 관련한 수치적인 기재 및, 입면 시점 및 기상 시점에 관한 구체적인 기재는 본 발명을 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.The numerical description of the above-mentioned date and the specific description of elevation time and waking up time are merely examples for explaining the present invention, and the present invention is not limited thereto.
본 발명의 일 실시예에 따라서 기상 시점에 기초하여 수면에 관한 정보를 획득한 날짜 정보를 생성하는 경우에는, 해당 날짜를 표시하는 도형을 포함한 그래픽 사용자 인터페이스가 제공될 수 있다. According to an embodiment of the present invention, when information on the date information on sleep was acquired based on the time of waking up is generated, a graphical user interface including a figure displaying the date may be provided.
또한, 본 발명의 일 실시예에 따르면, 동일한 날짜에 여러 번의 수면이 이루어질 수 있다. 도 4e에 도시된 바와 같이, 여러 번의 수면이 이루어짐에 따라 동일한 날짜에 기상이 N회(N은 음이 아닌 정수) 이루어진 경우라면, 해당 기상 시점들에 대한 정보에 기초하여, 수면에 관한 정보를 획득한 날짜를 표시하는 정보가 상기 동일한 날짜에 N개 생성될 수 있다. 또한, 이러한 경우에 상기 날짜를 표시하는 정보가 그래픽 사용자 인터페이스에 표시될 때에는 N개의 도형을 포함하도록 표시될 수 있다.Additionally, according to one embodiment of the present invention, multiple sleeps may occur on the same day. As shown in Figure 4e, if waking up occurs N times on the same day (N is a non-negative integer) due to multiple sleep events, information about sleep is provided based on information about the corresponding waking times. N pieces of information indicating the acquisition date may be generated on the same date. Additionally, in this case, when the information indicating the date is displayed on a graphical user interface, it may be displayed to include N shapes.
예를 들어, 도 4b의 참조번호 101b에 도시된 바와 같이, 2회의 수면 세션에 따른 기상이 4월 8일에 2회 이루어진 경우라면 4월 8일에 수면에 관한 정보를 획득하였다는 정보를 나타내는 도형이 2개 생성될 수 있다.For example, as shown in reference number 101b of FIG. 4B, if waking up according to two sleep sessions occurred twice on April 8, the information indicating that information about sleep was obtained on April 8 Two shapes can be created.
또는, 본 발명의 일 실시예에 따르면, 도 4g의 참조번호 101d에 도시된 바와 같이, 3회의 수면 세션에 따른 기상이 7월 1일에 3회 이루어진 경우라면, 7월 1일에 수면에 관한 정보를 획득하였다는 정보를 나타내는 도형이 3개 생성될 수 있다. 이 경우, 그래픽 사용자 디스플레이 중 7월 1일을 나타내는 날짜에 상응하는 부분의 영역을 체크하였을 때, 참조번호 101d와 같이 3개의 도형으로 표시될 수 있다. Or, according to one embodiment of the present invention, as shown in reference number 101d of FIG. 4G, if waking up according to three sleep sessions occurred three times on July 1, sleep-related information on July 1 Three shapes representing the information that information has been acquired can be created. In this case, when the area of the graphic user display corresponding to the date indicating July 1 is checked, three shapes may be displayed, as indicated by reference number 101d.
한편, 본 발명의 일 실시예에 따라, 그래픽 사용자 인터페이스를 좌/우 스와이프 입력하거나, 또는 101d에 도시된 각 도형을 터치 입력함으로써 해당 날짜에 측정된 3번의 수면 세션 중 특정 세션에 획득한 수면 상태 정보를 나타내는 그래픽 사용자 인터페이스가 그 하단부에 표시될 수 있다. 여기서 하단부에 표시되는 수면 상태 정보는 도 4g에 도시된 바와 같이, 해당 날짜에 획득한 사용자의 수면에 관한 정보에 포함된 입면 시점, 기상 시점, 수면 시간, 및 수면에 대한 정보를 나타내는 텍스트 정보 중 적어도 하나 이상이 함께 표시될 수 있다.Meanwhile, according to an embodiment of the present invention, by swiping left/right on the graphical user interface or by touching each shape shown in 101d, the sleep obtained in a specific session among the three sleep sessions measured on that day A graphical user interface representing status information may be displayed at the bottom. Here, the sleep state information displayed at the bottom, as shown in FIG. 4g, is among text information indicating the time of waking up, time of waking up, sleep time, and information about sleep included in the information about the user's sleep obtained on that day. At least one or more may be displayed together.
상술한 날짜와 관련한 수치적인 기재 및, 기상의 횟수 등에 관한 구체적인 기재는 본 발명을 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.The above-mentioned numerical descriptions related to dates and specific descriptions of the number of wake-ups, etc. are merely examples for explaining the present invention, and the present invention is not limited thereto.
또한, 본 발명의 실시예들에 따른 날짜를 표시하는 도형은, 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 적어도 하나로 표시될 수 있다. 예컨대, 도4c의 참조번호 101c로 도시된 바와 같이, 본 발명의 일 실시예에 따라 날짜를 표시하는 도형은 별모양의 도형으로 표현될 수도 있으나, 이는 단순한 예시일 뿐, 상술한 바와 같이, 다양한 도형들 중 하나 이상으로 표현될 수 있다.Additionally, the shape displaying the date according to embodiments of the present invention may be displayed as at least one of a point, a polygon, a circle, an oval, a sector, or a shape consisting of a combination of straight lines and curves. For example, as shown by reference number 101c in Figure 4c, the shape indicating the date according to an embodiment of the present invention may be expressed as a star-shaped shape, but this is only an example, and as described above, various shapes may be used. It can be expressed as one or more of the shapes.
또한, 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스에는, 도 4a 내지 도 4c의 참조번호 102 내지 104로 도시된 바와 같이, 해당 날짜에 획득한 사용자의 수면에 관한 정보에 포함된 입면 시점, 기상 시점, 수면 시간, 및 수면에 대한 정보를 나타내는 텍스트 정보 중 적어도 하나 이상이 함께 표시될 수 있다. 이 경우 어느 날짜에 획득한 수면 정보를 나타내는 것인지 여부는, 다른 날짜들과 구별되도록 참조번호 101a로 도시된 것처럼, 도형을 활용하여 표시될 수 있다. 또는, 다른 날짜들과 색상을 달리하거나, 밝기를 달리 함으로써 구별되도록 표시될 수도 있다.In addition, the graphic user interface according to embodiments of the present invention includes elevation time and wake-up information included in the information about the user's sleep acquired on the relevant date, as shown by reference numbers 102 to 104 in FIGS. 4A to 4C. At least one of text information indicating viewpoint, sleep time, and sleep information may be displayed together. In this case, whether sleep information obtained on a certain date is indicated can be indicated using a shape, as shown by reference numeral 101a, to distinguish it from other dates. Alternatively, it may be displayed to distinguish it from other dates by changing its color or brightness.
예를 들어, 4월 6일에 획득한 사용자의 수면에 관한 정보에 포함된 수면 단계를 분석한 결과, 깊은 수면의 비율이 상대적으로 높았던 경우에는, “길게 곯아 떨어진 잠”이라는 문구와 함께, “지난 밤 깊게 잠들었네요! 좋은 컨디션으로 하루를 시작할 수 있을 거에요.”라는 문구가 표시될 수 있다(참조번호 102 및 103). 또한, 본 발명의 실시예들에 따르면, 실제 잔 시간과, 잠드는 데 걸린 시간을 병렬적으로 표시할 수도 있다(참조번호 104). 상술한 수면에 대한 평가 텍스트 정보로 나타나는 문구는 본 발명의 실시예를 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.For example, as a result of analyzing the sleep stages included in the user's sleep information obtained on April 6, if the rate of deep sleep was relatively high, it was accompanied by the phrase “long sleep.” I slept deeply last night! You will be able to start your day on a good note” may be displayed (references 102 and 103). Additionally, according to embodiments of the present invention, the actual sleeping time and the time taken to fall asleep may be displayed in parallel (reference number 104). The phrases that appear in the above-described sleep evaluation text information are merely examples for explaining embodiments of the present invention, and the present invention is not limited thereto.
한편, 앞서 살펴본 본 발명의 실시예들에 따른 그래픽 유저 인터페이스는 한국어로 표시되는 것에 국한되는 것은 아니며, 다양한 언어로 표시될 수 있다. 예컨대, 날짜가 영어로 표시되는 경우에는 도 4f에 도시된 것처럼 표현될 수 있다.Meanwhile, the graphical user interface according to the embodiments of the present invention discussed above is not limited to being displayed in Korean and can be displayed in various languages. For example, when the date is displayed in English, it may be expressed as shown in FIG. 4F.
입면 시점에 기초하여, 수면에 관한 정보를 획득한 날짜 정보 생성 및 표시Generate and display information on the date information on sleep was acquired based on the time of elevation
도 5a 내지는 도 5d는 본 발명의 실시예들에 따라 입면 시점에 기초하여 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 도시한 도면이다.FIGS. 5A to 5D are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the elevation viewpoint according to embodiments of the present invention.
본 발명의 일 실시예에 따르면, 획득한 수면 상태 정보에 포함된 입면 시점 정보에 기초하여 수면에 관한 정보를 획득한 날짜 정보를 생성하는 방법이 제공될 수 있다.According to an embodiment of the present invention, a method of generating date information on when information about sleep was acquired based on elevation time information included in the acquired sleep state information may be provided.
또는 본 발명의 일 실시예에 따르면, 수면 상태 정보를 획득한 이후, 획득한 수면 상태 정보에 포함된 입면 시점 정보에 기초하여, 해당 입면 시점을 수면 상태 정보를 획득한 날짜로 표시하는 방법이 제공될 수 있다.Alternatively, according to an embodiment of the present invention, after acquiring the sleep state information, a method is provided to display the corresponding elevation time as the date on which the sleep state information was acquired, based on the elevation time information included in the acquired sleep state information. It can be.
예컨대, 도 5a에 도시된 바와 같이, 4월 5일에 입면하였고 4월 6일에 기상하였다는 정보가 포함되어 있는 수면 상태 정보를 획득한 경우, 해당 수면 상태 정보를 획득한 날짜를 입면 시점의 날짜인 4월 5일이라고 나타낼 수 있다. For example, as shown in Figure 5a, when sleeping state information is obtained including information that one woke up on April 5 and woke up on April 6, the date on which the sleeping state information was acquired is the time of waking up. The date can be expressed as April 5th.
또는, 도 5d에 도시된 바와 같이, 4월 8일에 입면하였고, 같은 날인 4월 8일에 기상하였다는 정보가 포함되어 있는 수면 상태 정보를 획득한 경우, 입면 시점의 날짜인 4월 8일을 해당 수면 상태 정보를 획득한 날짜로 나타낼 수 있다.Alternatively, as shown in Figure 5d, if sleep state information is obtained including information that one went to bed on April 8 and woke up on the same day, April 8, the date at the time of going to bed is April 8. can be expressed as the date on which the corresponding sleep state information was acquired.
이렇게 입면 시점에 기초하여 수면에 관한 정보를 획득한 날짜를 표현하는 경우에는, 사용자에게 입면한 시점을 정확하게 제공할 수 있다는 효과가 있다.In this way, when expressing the date on which information about sleep was acquired based on the time of elevation, there is an effect of accurately providing the user with the time of elevation.
상술한 날짜와 관련한 수치적인 기재 및, 입면 시점 및 기상 시점에 관한 구체적인 기재는 본 발명을 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.The numerical description of the above-mentioned date and the specific description of elevation time and waking up time are merely examples for explaining the present invention, and the present invention is not limited thereto.
본 발명의 일 실시예에 따라서 입면 시점에 기초하여 수면에 관한 정보를 획득한 날짜 정보를 생성하는 경우에는, 해당 날짜를 표시하는 도형을 포함한 그래픽 사용자 인터페이스가 제공될 수 있다. According to an embodiment of the present invention, when information on the date information on sleep was acquired based on the elevation point is generated, a graphical user interface including a figure displaying the corresponding date may be provided.
또한, 본 발명의 일 실시예에 따르면, 동일한 날짜에 여러 번의 수면이 이루어질 수 있다. 예컨대, 여러 번의 수면이 이루어짐에 따라 동일한 날짜에 입면이 N회(N은 음이 아닌 정수) 이루어진 경우라면, 해당 입면 시점들에 대한 정보에 기초하여, 수면에 관한 정보를 획득한 날짜를 표시하는 정보가 상기 동일한 날짜에 N개 생성될 수 있다. 또한, 이러한 경우에 상기 날짜를 표시하는 정보가 그래픽 사용자 인터페이스에 표시될 때에는 N개의 도형을 포함하도록 표시될 수 있다.Additionally, according to one embodiment of the present invention, multiple sleeps may occur on the same day. For example, if waking up occurs N times on the same day due to multiple sleeping sessions (N is a non-negative integer), the date on which information about sleep was obtained is displayed based on the information about the corresponding waking times. N pieces of information may be generated on the same date. Additionally, in this case, when the information indicating the date is displayed on a graphical user interface, it may be displayed to include N shapes.
예를 들어, 도 5b의 참조번호 201b로 도시된 바와 같이, 2회의 수면 세션에 따른 입면이 4월 7일에 2회 이루어진 경우라면 4월 7일에 수면에 관한 정보를 획득하였다는 정보를 나타내는 도형이 2개 생성될 수 있다.For example, as shown by reference number 201b in FIG. 5B, if elevation according to two sleep sessions occurred twice on April 7, information indicating that information about sleep was obtained on April 7 Two shapes can be created.
또는, 본 발명의 일 실시예에 따르면, 도 5e의 참조번호 201d에 도시된 바와 같이, 3회의 수면 세션에 따른 입면이 7월 1일에 3회 이루어진 경우라면, 7월 1일에 수면에 관한 정보를 획득하였다는 정보를 나타내는 도형이 3개 생성될 수 있다. 이 경우, 그래픽 사용자 디스플레이 중 7월 1일을 나타내는 날짜에 상응하는 부분의 영역을 체크하였을 때, 참조번호 201d와 같이 3개의 도형으로 표시될 수 있다. Alternatively, according to an embodiment of the present invention, as shown in reference number 201d of FIG. 5E, if elevation according to three sleep sessions is achieved three times on July 1, the sleep-related Three shapes representing information that information has been acquired can be created. In this case, when the area of the graphic user display corresponding to the date indicating July 1 is checked, three shapes may be displayed, as indicated by reference number 201d.
한편, 본 발명의 일 실시예에 따라, 그래픽 사용자 인터페이스를 좌/우 스와이프 입력하거나, 또는 201d에 도시된 각 도형을 터치 입력함으로써 해당 날짜에 측정된 3번의 수면 세션 중 특정 세션에 획득한 수면 상태 정보를 나타내는 그래픽 사용자 인터페이스가 그 하단부에 표시될 수 있다. 여기서 하단부에 표시되는 수면 상태 정보는 도 5e에 도시된 바와 같이, 해당 날짜에 획득한 사용자의 수면에 관한 정보에 포함된 입면 시점, 기상 시점, 수면 시간, 및 수면에 대한 정보를 나타내는 텍스트 정보 중 적어도 하나 이상이 함께 표시될 수 있다.Meanwhile, according to an embodiment of the present invention, by swiping left/right on the graphical user interface or by touching each shape shown in 201d, the sleep obtained in a specific session among the three sleep sessions measured on that day A graphical user interface representing status information may be displayed at the bottom. Here, the sleep state information displayed at the bottom is among text information indicating the time of waking up, time of waking up, sleep time, and information about sleep included in the information about the user's sleep obtained on that day, as shown in FIG. 5e. At least one or more may be displayed together.
상술한 날짜와 관련한 수치적인 기재 및, 입면의 횟수 등에 관한 구체적인 기재는 본 발명을 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.The numerical description regarding the above-mentioned date and the specific description of the number of elevations, etc. are merely examples for explaining the present invention, and the present invention is not limited thereto.
또한, 본 발명의 실시예들에 따른 날짜를 표시하는 도형은, 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 적어도 하나로 표시될 수 있다. 예컨대, 도 5c에 도시된 바와 같이, 본 발명의 일 실시예에 따라 날짜를 표시하는 도형은 별모향의 도형으로 표현될 수도 있으나, 이는 단순한 예시일 뿐, 상술한 바와 같이, 다양한 도형들 중 하나 이상으로 표현될 수 있다.Additionally, the shape displaying the date according to embodiments of the present invention may be displayed as at least one of a point, a polygon, a circle, an oval, a sector, or a combination of straight lines and curves. For example, as shown in FIG. 5C, the shape that displays the date according to an embodiment of the present invention may be expressed as a star-shaped shape, but this is just an example and, as described above, is one of various shapes. It can be expressed as above.
또한, 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스에는, 도 5a 내지 도 5c의 참조번호 202 내지 204에 도시된 바와 같이, 해당 날짜에 획득한 사용자의 수면에 관한 정보에 포함된 입면 시점, 기상 시점, 수면 시간, 및 수면에 대한 정보를 나타내는 텍스트 정보 중 적어도 하나 이상이 함께 표시될 수 있다. 이 경우 어느 날짜에 획득한 수면 정보를 나타내는 것인지 여부는, 다른 날짜들과 구별되도록 참조번호 201a로 도시된 것처럼, 도형을 활용하여 표시될 수 있다. 또는, 다른 날짜들과 색상을 달리하거나, 밝기를 달리 함으로써 구별되도록 표시될 수도 있다.In addition, the graphic user interface according to embodiments of the present invention includes elevation time and wake-up information included in the information about the user's sleep acquired on the relevant date, as shown by reference numbers 202 to 204 in FIGS. 5A to 5C. At least one of text information indicating viewpoint, sleep time, and sleep information may be displayed together. In this case, whether sleep information obtained on a certain date is indicated can be indicated using a shape, as shown by reference numeral 201a, to distinguish it from other dates. Alternatively, it may be displayed to distinguish it from other dates by changing its color or brightness.
예를 들어, 4월 5일에 획득한 사용자의 수면에 관한 정보에 포함된 수면 단계를 분석한 결과, 깊은 수면의 비율이 상대적으로 높았던 경우에는, “길게 곯아 떨어진 잠”이라는 문구와 함께, “지난 밤 깊게 잠들었네요! 좋은 컨디션으로 하루를 시작할 수 있을 거에요.”라는 문구가 표시될 수 있다(참조번호 202 및 203). 또한, 본 발명의 실시예들에 따르면, 실제 잔 시간과, 잠드는 데 걸린 시간을 병렬적으로 표시할 수도 있다(참조번호 204). 상술한 수면에 대한 평가 텍스트 정보로 나타나는 문구는 본 발명의 실시예를 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.For example, as a result of analyzing the sleep stages included in the user's sleep information obtained on April 5, if the rate of deep sleep was relatively high, it was accompanied by the phrase “long sleep.” I slept deeply last night! You will be able to start your day on a good note” may be displayed (references 202 and 203). Additionally, according to embodiments of the present invention, the actual sleeping time and the time taken to fall asleep may be displayed in parallel (reference number 204). The phrases that appear in the above-described sleep evaluation text information are merely examples for explaining embodiments of the present invention, and the present invention is not limited thereto.
입면 시점 및 기상 시점에 기초하여, 수면에 관한 정보를 획득한 날짜 정보 생성 및 표시Generate and display information on the date information on sleep was acquired based on the time of waking up and waking up.
도 6a 내지 도 6c는 본 발명의 실시예들에 따라 입면 시점 및 기상 시점에 기초하여 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 도시한 도면이다.FIGS. 6A to 6C are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the elevation time and the waking time according to embodiments of the present invention.
본 발명의 일 실시예에 따르면, 획득한 수면 상태 정보에 포함된 입면 시점 정보 및 기상 시점 정보에 기초하여 수면에 관한 정보를 획득한 날짜 정보를 생성하는 방법이 제공될 수 있다.According to an embodiment of the present invention, a method of generating information on the date on which sleep-related information was acquired based on the elevation time information and wake-up time information included in the acquired sleep state information may be provided.
또는, 본 발명의 일 실시예에 따르면, 수면 상태 정보를 획득한 이후, 획득한 수면 상태 정보에 포함된 입면 시점 정보 및 기상 시점 정보에 기초하여, 해당 입면 시점으로부터 기상 시점까지를 수면 상태 정보를 획득한 날짜로 표시하는 방법이 제공될 수 있다.Alternatively, according to an embodiment of the present invention, after acquiring the sleep state information, sleep state information is obtained from the corresponding awakening point to the wake-up point based on the waking point information and the waking point information included in the acquired sleep state information. A method of displaying the acquisition date may be provided.
예컨대, 도 6a에 도시된 바와 같이, 4월 5일에 입면하였고 4월 6일에 기상하였다는 정보가 포함되어 있는 수면 상태 정보를 획득한 경우, 해당 수면 상태 정보를 획득한 날짜를 4월 5일부터 4월 6일까지로 나타낼 수 있다. For example, as shown in Figure 6a, when sleeping state information is obtained including information that one went to bed on April 5 and woke up on April 6, the date on which the sleeping state information was acquired is set to April 5. It can be expressed from 1 to 6 April.
또는, 도 6b의 참조번호 301b로 도시된 바와 같이, 4월 8일에 입면하였고, 같은 날인 4월 8일에 기상하였다는 정보가 포함되어 있는 수면 상태 정보를 획득한 경우, 해당 수면 상태 정보를 획득한 날짜를 입면 시점과 기상 시점의 날짜인 4월 8일이라고 나타낼 수 있다. Alternatively, as shown by reference number 301b in FIG. 6B, when sleep state information is obtained including information that one went to bed on April 8 and woke up on the same day, April 8, the corresponding sleep state information is obtained. The obtained date can be expressed as April 8, which is the date of elevation and wake-up time.
이렇게 입면 시점 및 기상 시점에 기초하여 수면에 관한 정보를 획득한 날짜를 표현하는 경우에는, 사용자에게 수면이 지속된 날짜를 보여줌으로써, 수면이 어느 기간동안 이루어졌는지를 직관적으로 알려줄 수 있다는 효과가 있다. In this way, when expressing the date on which information about sleep was obtained based on the time of waking up and the time of waking up, it has the effect of showing the user the date on which sleep lasted, thereby intuitively informing the user of how long the sleep occurred. .
상술한 날짜와 관련한 수치적인 기재 및, 입면 시점 및 기상 시점에 관한 구체적인 기재는 본 발명을 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.The numerical description of the above-mentioned date and the specific description of elevation time and waking up time are merely examples for explaining the present invention, and the present invention is not limited thereto.
본 발명의 일 실시예에 따라서 입면 시점 및 기상 시점에 기초하여 수면에 관한 정보를 획득한 날짜 정보를 생성하는 경우에는, 해당 수면 기간을 표시하는 도형을 포함한 그래픽 사용자 인터페이스가 제공될 수 있다. According to an embodiment of the present invention, when information on the date information on sleep was acquired based on the time of going to bed and waking up is generated, a graphical user interface including a figure displaying the corresponding sleep period may be provided.
또한, 참조번호 301b 등을 참고하면, 본 발명의 실시예들에 따른 날짜를 표시하는 도형은 입면 시점의 날짜부터 기상 시점의 날짜까지를 표시하는 연속적인 형태를 갖는 도형으로 표시될 수 있다. 본 발명의 실시예들에 따른 도형은 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 적어도 하나로 표시될 수 있다.Additionally, referring to reference numeral 301b, the figure displaying the date according to the embodiments of the present invention may be displayed as a figure having a continuous shape displaying the date from the elevation point to the date of the wake-up point. A shape according to embodiments of the present invention may be displayed as at least one of a point, a polygon, a circle, an oval, a sector, or a combination of straight lines and curves.
또한, 본 발명의 일 실시예에 따르면, 동일한 날짜에 여러 번의 수면이 이루어질 수 있다. 예컨대, 동일한 날짜에 여러 번의 수면이 이루어졌고, 이에 따라 동일한 날짜에 입면 및 기상이 각각 N회(N은 음이 아닌 정수) 이루어진 경우라면, 해당 입면 시점 및 기상 시점들에 대한 정보에 기초하여, 수면에 관한 정보를 획득한 날짜를 표시하는 정보가 상기 동일한 날짜에 N개 생성될 수 있다. 또한, 이러한 경우에 상기 날짜를 표시하는 정보가 그래픽 사용자 인터페이스에 표시될 때에는 N개의 도형을 포함하도록 표시될 수 있다. 여기서, N개의 도형은 서로 다른 두 점을 연결하는 연속적인 형태를 갖는 도형으로 생성될 수 있고, 본 발명의 실시예들에 따른 N개의 도형은 각각 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 적어도 하나로 표시될 수 있다.Additionally, according to one embodiment of the present invention, multiple sleeps may occur on the same day. For example, if several sleeps occurred on the same day, and accordingly, waking up and waking up occurred N times each on the same day (N is a non-negative integer), based on the information about the corresponding waking moments and waking moments, N pieces of information indicating the date on which information about sleep was acquired may be generated on the same date. Additionally, in this case, when the information indicating the date is displayed on a graphical user interface, it may be displayed to include N shapes. Here, the N shapes can be created as shapes with a continuous shape connecting two different points, and the N shapes according to embodiments of the present invention are each a point, polygon, circle, oval, fan, or straight line. It can be displayed as at least one of the shapes made up of a combination of and curves.
예를 들어, 도 6c의 참조번호 301c로 도시된 바와 같이, 2회의 수면 세션에 따른 입면 및 기상이 각각 4월 8일에 2회 이루어진 경우라면, 4월 8일에 수면에 관한 정보를 획득하였다는 정보를 나타내는 도형이 2개 생성될 수 있다.For example, as shown by reference number 301c in FIG. 6C, if waking up and waking up for two sleep sessions occurred twice on April 8, information about sleep was obtained on April 8. Two shapes representing information can be created.
또는, 본 발명의 일 실시예에 따르면, 도 6d의 참조번호 301d에 도시된 바와 같이, 3회의 수면 세션에 따른 입면 및 기상이 각각 7월 1일에 3회 이루어진 경우라면, 7월 1일에 수면에 관한 정보를 획득하였다는 정보를 나타내는 도형이 3개 생성될 수 있다. 이 경우, 그래픽 사용자 디스플레이 중 7월 1일을 나타내는 날짜에 상응하는 부분의 영역을 체크하였을 때, 참조번호 301d와 같이 3개의 도형으로 표시될 수 있다.Or, according to one embodiment of the present invention, as shown in reference number 301d of FIG. 6D, if waking up and waking up according to three sleep sessions are performed three times on July 1, respectively, on July 1 Three shapes may be created indicating that information about sleep has been obtained. In this case, when the area of the graphic user display corresponding to the date indicating July 1 is checked, three shapes may be displayed, as indicated by reference number 301d.
한편, 본 발명의 일 실시예에 따라, 그래픽 사용자 인터페이스를 좌/우 스와이프 입력하거나, 또는 301d에 도시된 각 도형을 터치 입력함으로써 해당 날짜에 측정된 3번의 수면 세션 중 특정 세션에 획득한 수면 상태 정보를 나타내는 그래픽 사용자 인터페이스가 그 하단부에 표시될 수 있다. 여기서 하단부에 표시되는 수면 상태 정보는 도 6d에 도시된 바와 같이, 해당 날짜에 획득한 사용자의 수면에 관한 정보에 포함된 입면 시점, 기상 시점, 수면 시간, 및 수면에 대한 정보를 나타내는 텍스트 정보 중 적어도 하나 이상이 함께 표시될 수 있다.Meanwhile, according to an embodiment of the present invention, by swiping left/right on the graphical user interface or by touching each shape shown in 301d, the sleep obtained in a specific session among the three sleep sessions measured on that day A graphical user interface representing status information may be displayed at the bottom. Here, the sleep state information displayed at the bottom, as shown in FIG. 6D, is among text information indicating the time of waking up, time of waking up, sleep time, and information about sleep included in the information about the user's sleep obtained on that day. At least one or more may be displayed together.
또는, 본 발명의 일 실시예에 따르면, 도 6e의 참조번호 305 및 301d에 도시된 것처럼 그래픽 사용자 인터페이스가 생성될 수도 있다. 참조번호 305는 날짜를 표시하는 영역을 나타내는 부호이다. 참조번호 301e는 참조번호 305로 할당된 영역에 표시되는 수면에 관한 정보를 획득한 날짜 정보를 표시하는 도형이다. Alternatively, according to an embodiment of the present invention, a graphical user interface may be created as shown in reference numerals 305 and 301d of FIG. 6E. Reference number 305 is a code indicating an area where the date is displayed. Reference number 301e is a figure that displays information on the date on which information on sleep was acquired displayed in the area assigned by reference number 305.
본 발명의 일 실시예에 따라 획득한 수면 상태 정보에 포함된 입면 시점 정보 및 기상 시점 정보에 기초하여 수면에 관한 정보를 획득한 날짜 정보를 표시하는 경우에, 참조번호 301e와 같이, 참조번호 305에 도시된 시계열적인 정보를 나타내는 가로축 상에서, 해당 입면 시점과 기상 시점에 대응하는 부분을 표시하는 그래픽 사용자 인터페이스가 생성될 수 있다. In the case of displaying information on the date on which sleep-related information was acquired based on the elevation time information and wake-up time information included in the sleep state information obtained according to an embodiment of the present invention, reference number 305, such as reference number 301e On the horizontal axis representing the time-series information shown in , a graphical user interface may be created that displays portions corresponding to the elevation time point and the weather time point.
예를 들어, 도 6e에 도시된 바와 같이, 5일 오후 11시42분에 입면(또는 수면 측정을 개시)하였고, 6일 오전 7시1분에 기상(또는 수면 측정을 종료)한 경우, 참조번호 305로 표시된 영역 중 5일부터 6일까지를 나타내는 도형으로 날짜 정보를 표시할 수 있는데, 도형의 시작 지점은 5일에 할당된 영역 중에서도 5일과 6일 사이의 경계선에 가까운 부분에 표시될 수 있고, 도형의 끝 지점은 6일에 할당된 영역 중에서도, 6일에 할당된 영역을 가로축 상에서 24등분한 것 중 7번째 영역에 할당되는 부분에 표시될 수 있다. For example, as shown in Figure 6e, if you wake up (or start measuring sleep) at 11:42 PM on the 5th and wake up (or end measuring sleep) at 7:01 AM on the 6th, see Date information can be displayed with a shape representing the 5th to the 6th in the area marked with the number 305. The starting point of the shape can be displayed in the area allocated to the 5th close to the border between the 5th and the 6th. The end point of the figure may be displayed in the 7th area among the areas allocated to the 6th, divided into 24 equal parts on the horizontal axis.
한편, 본 발명의 일 실시예에 따르면 해당 날짜에 획득한 수면 상태 정보를 나타내는 그래픽 사용자 인터페이스가 그 하단부에 표시될 수 있는데, 여기서 하단부에 표시되는 수면 상태 정보는 도 6e에 도시된 바와 같이, 해당 날짜에 획득한 사용자의 수면에 관한 정보에 포함된 입면 시점, 기상 시점, 수면 시간, 및 수면에 대한 정보를 나타내는 텍스트 정보 중 적어도 하나 이상이 함께 표시될 수 있다. 본 발명의 일 실시예에 따라 여러 날짜에 수면을 측정한 경우, 참조번호 301e로 표시되는 도형의 색상을 달리하거나, 밝기를 다르게 표시하는 등 구별되도록 나타냄으로써 하단에 함께 표시된 정보들이 그 중 어느 날짜에 측정된 수면에 기초하여 표시된 것인지 여부를 나타낼 수 있다.Meanwhile, according to one embodiment of the present invention, a graphical user interface indicating sleep state information acquired on the relevant date may be displayed at the bottom, where the sleep state information displayed at the bottom is the corresponding sleep state information, as shown in FIG. 6E. At least one or more of the waking time, waking up time, sleep time, and text information indicating information about sleep included in the information about the user's sleep obtained on the date may be displayed together. When sleep is measured on multiple dates according to an embodiment of the present invention, the information displayed at the bottom is differentiated by changing the color of the figure indicated by reference number 301e or displaying different brightness to determine which of those dates. It can indicate whether the display is based on the sleep measured.
상술한 날짜와 관련한 수치적인 기재 및, 입면의 횟수 등에 관한 구체적인 기재는 본 발명을 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.The numerical description regarding the above-mentioned date and the specific description of the number of elevations, etc. are merely examples for explaining the present invention, and the present invention is not limited thereto.
또한, 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스에는, 도 6a 내지 도 6c의 참조번호 302 내지 304에 도시된 바와 같이, 해당 날짜에 획득한 사용자의 수면에 관한 정보에 포함된 입면 시점, 기상 시점, 수면 시간, 및 수면에 대한 정보를 나타내는 텍스트 정보 등이 함께 표시될 수 있다. 이 경우 어느 날짜에 획득한 수면 정보를 나타내는 것인지 여부는, 다른 날짜들과 구별되도록 참조번호 301a에 도시된 것처럼, 도형을 활용하여 표시될 수 있다. 또는, 다른 날짜들과 색상을 달리하거나, 밝기를 달리 함으로써 구별되도록 표시될 수도 있다.In addition, the graphic user interface according to embodiments of the present invention includes elevation time and wake-up information included in the information about the user's sleep acquired on the relevant date, as shown by reference numbers 302 to 304 in FIGS. 6A to 6C. Text information indicating time point, sleep time, and information about sleep may be displayed together. In this case, whether sleep information obtained on a certain date is indicated can be indicated using a shape, as shown in reference numeral 301a, to distinguish it from other dates. Alternatively, it may be displayed to distinguish it from other dates by changing its color or brightness.
예를 들어, 4월 5일부터 4월 6일까지 획득한 사용자의 수면에 관한 정보에 포함된 수면 단계를 분석한 결과, 렘 수면의 비율이 상대적으로 높았던 경우에는, “스트레스 해소의 잠”이라는 문구와 함께, “렘수면 비율이 높았어요! 스트레스 해소는 물론 창의력을 발휘하도록 돕는 잠이랍니다.”라는 문구가 표시될 수 있다(참조번호 302 및 303). 또한, 본 발명의 실시예들에 따르면, 실제 잔 시간과, 잠드는 데 걸린 시간을 병렬적으로 표시할 수도 있다(참조번호 304). 상술한 수면에 대한 평가 텍스트 정보로 나타나는 문구는 본 발명의 실시예를 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.For example, as a result of analyzing the sleep stages included in the user's sleep information obtained from April 5 to April 6, if the rate of REM sleep was relatively high, it was called “stress-relieving sleep.” With the text, “The REM sleep rate was high! You may see the phrase, “Sleep not only relieves stress but also helps you be creative” (References 302 and 303). Additionally, according to embodiments of the present invention, the actual sleeping time and the time taken to fall asleep may be displayed in parallel (reference number 304). The phrases that appear in the above-described sleep evaluation text information are merely examples for explaining embodiments of the present invention, and the present invention is not limited thereto.
기상 시점이 속한 시간대의 정의에 기초하여 획득시점 정보 생성 및 표시Generate and display acquisition time information based on the definition of the time zone to which the weather time belongs
도 7a 내지 도 7e는 본 발명의 실시예들에 따라 기상 시점이 속한 시간대의 정의에 기초하여 사용자의 수면에 관한 정보를 획득한 날짜 및/또는 시점에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 도시한 도면이다.FIGS. 7A to 7E are diagrams illustrating a graphical user interface showing information on the date and/or time when information on the user's sleep was acquired based on the definition of the time zone to which the waking time belongs according to embodiments of the present invention. am.
본 발명의 일 실시예에 따르면, 획득한 수면 상태 정보에 포함된 기상 시점 정보에 기초하여 수면에 관한 정보를 획득한 날짜 정보를 생성하는 방법이 제공될 수 있다.According to an embodiment of the present invention, a method of generating date information on which information about sleep was acquired based on wake-up time information included in the acquired sleep state information may be provided.
또는, 본 발명의 일 실시예에 따르면, 수면 상태 정보를 획득한 이후, 획득한 수면 상태 정보에 포함된 기상 시점 정보에 기초하여, 해당 기상 시점을 수면 상태 정보를 획득한 날짜로 표시하는 방법이 제공될 수 있다. 여기서, 기상 시점이 속해있는 시간대에 대한 정의에 기초하여, 수면에 관한 정보를 획득한 날짜 정보를 생성할 수 있다. 시간대에 대한 정의는 기 설정될 수 있으며, 예컨대, 오전 12시(자정)이상 오전 5시 미만은 “새벽”, 오전 5시 이상 오전 9시 미만은 “아침”, 오전 9시 이상 오후 5시 미만은 “낮”, 오후 5시 이상 오후 9시 미만은 “저녁”, 오후 9시 이상 오전 12시(자정) 미만은 “밤”이라고 설정될 수 있다.Alternatively, according to an embodiment of the present invention, after acquiring the sleep state information, a method of displaying the wake-up time as the date on which the sleep state information was acquired, based on the wake-up time information included in the acquired sleep state information. can be provided. Here, information on the date when information about sleep was acquired can be generated based on the definition of the time zone to which the waking up time belongs. The definition of the time zone may be preset, for example, “dawn” for between 12 AM (midnight) and less than 5 AM, “morning” for between 5 AM and less than 9 AM, and between 9 AM and less than 5 PM. can be set as “day”, between 5 PM and less than 9 PM can be set as “evening”, and between 9 PM and less than 12 AM (midnight) can be set as “night”.
예컨대, 도 7a에 도시된 바와 같이, 4월 5일에 입면하였고 4월 6일에 기상하였다는 정보가 포함되어 있는 수면 상태 정보를 획득한 경우, 해당 수면 상태 정보를 획득한 날짜를 4월 6일로 나타낼 수 있다. For example, as shown in Figure 7a, when sleeping state information is obtained including information that one went to bed on April 5 and woke up on April 6, the date on which the corresponding sleeping state information was acquired is set to April 6. It can be expressed as work.
또는, 4월 8일에 입면하였고, 같은 날인 4월 8일에 기상하였다는 정보가 포함되어 있는 수면 상태 정보를 획득한 경우, 도 7c의 참조번호 401d와 같이, 기상 시점의 날짜인 4월 8일을 해당 수면 상태 정보를 획득한 날짜로 나타낼 수 있다. Alternatively, if sleep state information is obtained that includes information that you went to bed on April 8 and woke up on the same day, April 8, as shown by reference number 401d in FIG. 7C, the date of waking up is April 8. The day can be expressed as the date on which the corresponding sleep state information was acquired.
본 발명의 일 실시예에 따라서 기상 시점에 기초하여 수면에 관한 정보를 획득한 날짜 정보를 생성하는 경우에는, 해당 날짜를 표시하는 도형을 포함한 그래픽 사용자 인터페이스가 제공될 수 있다.According to an embodiment of the present invention, when information on the date information on sleep was acquired based on the time of waking up is generated, a graphical user interface including a figure displaying the date may be provided.
한편, 본 발명의 실시예들에 따르면 수면에 관한 정보를 획득한 날짜 정보를 표시하는 도형의 색은 동일한 색상(예컨대, 하얀색)으로 나타낼 수도 있지만, 도 7d에 도시된 바와 같이, 날짜 정보를 표시하는 도형들의 색상은 사용자의 수면에 관한 정보를 획득한 시간대에 따라서 다르게 표시될 수도 있다.Meanwhile, according to embodiments of the present invention, the color of the figure displaying the date information on which sleep-related information was acquired may be expressed in the same color (e.g., white), but as shown in FIG. 7D, the date information is displayed. The colors of the shapes may be displayed differently depending on the time period in which information about the user's sleep was obtained.
예컨대, 사용자의 수면에 관한 정보에 포함된 수면 시간이 속한 시간대가 주로 “새벽” 시간대에 속해 있는 경우에는, 수면에 관한 정보를 획득한 날짜를 표시하는 도형을 짙은 파란색으로 표시할 수도 있다. 또는, 사용자의 수면에 관한 정보에 포함된 수면 시간이 속한 시간대가 주로 “낮” 시간대에 속해 있는 경우에는, 수면에 관한 정보를 획득한 날짜를 표시하는 도형을 노란색으로 표시할 수도 있다.For example, if the time zone to which the sleep time included in the user's sleep information mainly belongs to the “dawn” time zone, the figure indicating the date on which the sleep information was acquired may be displayed in dark blue. Alternatively, if the time zone to which the sleep time included in the information about the user's sleep belongs is mainly in the “day” time zone, the figure indicating the date on which the information about the sleep was acquired may be displayed in yellow.
본 발명의 실시예들에 따른 날짜를 표시하는 도형은, 점, 다각형, 원형, 타원형, 부채꼴, 또는 직선과 곡선의 조합으로 이루어진 도형 중 적어도 하나로 표시될 수 있다.The shape displaying the date according to embodiments of the present invention may be displayed as at least one of a point, a polygon, a circle, an oval, a sector, or a shape consisting of a combination of straight lines and curves.
한편, 본 발명의 실시예들에 따르면 수면에 관한 정보를 획득한 날짜 정보를 표시하는 도형의 종류는 동일한 종류(예컨대, 점)으로 나타낼 수도 있지만, 도 7c에 도시된 바와 같이, 해당 도형의 종류는 사용자의 수면에 관한 정보를 획득한 시간대에 따라서 다르게 표시될 수도 있다.Meanwhile, according to embodiments of the present invention, the type of shape that displays the date information on sleep may be represented by the same type (e.g., dot), but as shown in FIG. 7C, the type of the shape may be displayed differently depending on the time zone in which information about the user's sleep was obtained.
예컨대, 사용자의 수면에 관한 정보에 포함된 수면 시간이 속한 시간대가 주로 “새벽” 시간대에 속해 있는 경우에는, 도 7c의 참조번호 401c로 도시된 바와 같이 수면에 관한 정보를 획득한 날짜를 표시하는 도형을 별모양 도형으로 표시할 수도 있다. 또는, 사용자의 수면에 관한 정보에 포함된 수면 시간이 속한 시간대가 주로 “낮” 시간대에 속해 있는 경우에는, 참조번호 401d로 도시된 바와 같이 수면에 관한 정보를 획득한 날짜를 표시하는 도형을 네모난 도형(예컨대, 사각형)으로 표시할 수도 있다.For example, if the time zone to which the sleep time included in the information about the user's sleep belongs mainly to the “dawn” time zone, the date on which the information about the sleep was acquired is displayed, as shown by reference number 401c in FIG. 7C. The shape can also be displayed as a star shape. Alternatively, if the time zone to which the sleep time included in the information about the user's sleep belongs is mainly in the “day” time zone, a square shape is drawn indicating the date on which the information about sleep was acquired, as shown by reference number 401d. I can also be displayed as a shape (e.g. a square).
한편, 상술한 도형에 관한 색상 및 종류에 관한 구체적인 기재는 본 발명을 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니며, 사용자에게 수면에 관한 정보를 명확하고 직관적으로 나타낼 수 있는 한, 통상의 기술자가 본 발명에 따른 도형이나 색상을 쉽게 채택할 수 있는 범위까지 확장할 수 있을 것이다.Meanwhile, the specific description of the color and type of the above-described shapes is only a simple example for explaining the present invention, and the present invention is not limited thereto, as long as information about sleep can be clearly and intuitively displayed to the user. , a person skilled in the art will be able to expand the scope to easily adopt the shapes or colors according to the present invention.
또한, 본 발명의 일 실시예에 따르면, 동일한 날짜에 여러 번의 수면이 이루어질 수 있다. 예컨대, 동일한 날짜에 여러 번의 수면이 이루어졌고, 이에 따라 동일한 날짜에 기상이 N회(N은 음이 아닌 정수) 이루어진 경우라면, 해당 기상 시점들에 대한 정보에 기초하여, 수면에 관한 정보를 획득한 날짜를 표시하는 정보가 상기 동일한 날짜에 N개 생성될 수 있다. 또한, 이러한 경우에 상기 날짜를 표시하는 정보가 그래픽 사용자 인터페이스에 표시될 때에는 N개의 도형을 포함하도록 표시될 수 있다.Additionally, according to one embodiment of the present invention, multiple sleeps may occur on the same day. For example, if several sleeps occurred on the same day, and accordingly, waking up occurred N times on the same day (N is a non-negative integer), information about sleep is obtained based on information about the corresponding waking times. N pieces of information indicating one date may be generated on the same date. Additionally, in this case, when the information indicating the date is displayed on a graphical user interface, it may be displayed to include N shapes.
예를 들어, 도 7b의 참조번호 401b로 도시된 바와 같이, 2회의 수면 세션에 따른 기상이 4월 7일에 2회 이루어진 경우라면 4월 7일에 수면에 관한 정보를 획득하였다는 정보를 나타내는 도형이 2개 생성될 수 있다.For example, as shown by reference number 401b in FIG. 7B, if waking up according to two sleep sessions occurred twice on April 7, the information indicating that information about sleep was obtained on April 7 Two shapes can be created.
또는, 본 발명의 일 실시예에 따르면, 도 7f의 참조번호 401f에 도시된 바와 같이, 3회의 수면 세션에 따른 기상이 7월 1일에 3회 이루어진 경우라면, 7월 1일에 수면에 관한 정보를 획득하였다는 정보를 나타내는 도형이 3개 생성될 수 있다. 이 경우, 그래픽 사용자 디스플레이 중 7월 1일을 나타내는 날짜에 상응하는 부분의 영역을 체크하였을 때, 참조번호 401f와 같이 3개의 도형으로 표시될 수 있다. Or, according to an embodiment of the present invention, as shown in reference number 401f of FIG. 7F, if waking up according to three sleep sessions occurred three times on July 1, sleep-related information on July 1 Three shapes representing the information that information has been acquired can be created. In this case, when the area of the graphic user display corresponding to the date indicating July 1 is checked, three shapes may be displayed, as indicated by reference number 401f.
한편, 본 발명의 일 실시예에 따라, 그래픽 사용자 인터페이스를 좌/우 스와이프 입력하거나, 또는 401f에 도시된 각 도형을 터치 입력함으로써 해당 날짜에 측정된 3번의 수면 세션 중 특정 세션에 획득한 수면 상태 정보를 나타내는 그래픽 사용자 인터페이스가 그 하단부에 표시될 수 있다. 여기서 하단부에 표시되는 수면 상태 정보는 도 7f에 도시된 바와 같이, 해당 날짜에 획득한 사용자의 수면에 관한 정보에 포함된 입면 시점, 기상 시점, 수면 시간, 및 수면에 대한 정보를 나타내는 텍스트 정보 중 적어도 하나 이상이 함께 표시될 수 있다.Meanwhile, according to an embodiment of the present invention, by swiping left/right on the graphical user interface or by touching each shape shown in 401f, the sleep obtained in a specific session among the three sleep sessions measured on that day A graphical user interface representing status information may be displayed at the bottom. Here, the sleep state information displayed at the bottom is among text information indicating the time of waking up, time of waking up, sleep time, and information about sleep included in the information about the user's sleep obtained on that day, as shown in FIG. 7f. At least one or more may be displayed together.
한편, 앞서 살펴본 바와 같이 본 발명의 실시예들에 따르면 수면에 관한 정보를 획득한 날짜 정보를 표시하는 도형의 종류는 동일한 종류(예컨대, 점)으로 나타낼 수도 있지만, 도 7g의 참조번호 401g로 도시된 바와 같이, 해당 도형의 종류는 사용자의 수면에 관한 정보를 획득한 시간대에 따라서 다르게 표시될 수도 있다.Meanwhile, as seen above, according to the embodiments of the present invention, the type of shape that displays the date information on sleep may be represented by the same type (e.g., dot), but is shown by reference number 401g in FIG. 7g. As described above, the type of shape may be displayed differently depending on the time period in which information about the user's sleep was obtained.
상술한 시간대와 관련한 수치적인 기재 및, 입면 시점 및 기상 시점에 관한 구체적인 기재는 본 발명을 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.The numerical description regarding the above-mentioned time zone and the specific description of the elevation time and the waking up time are merely examples for explaining the present invention, and the present invention is not limited thereto.
또한, 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스에는, 도 7a 내지 도 7e의 참조번호 402 내지 404로 도시된 바와 같이, 해당 날짜에 획득한 사용자의 수면에 관한 정보에 포함된 입면 시점, 기상 시점, 수면 시간, 및 수면에 대한 정보를 나타내는 텍스트 정보 등이 함께 표시될 수 있다. 이 경우 어느 날짜에 획득한 수면 정보를 나타내는 것인지 여부는, 다른 날짜들과 구별되도록 참조번호 401a에 도시된 것처럼, 도형을 활용하여 표시될 수 있다. 또는, 다른 날짜들과 색상을 달리하거나, 밝기를 달리 함으로써 구별되도록 표시될 수도 있다.In addition, the graphic user interface according to embodiments of the present invention includes elevation time and wake-up information included in the information about the user's sleep acquired on the relevant date, as shown by reference numbers 402 to 404 in FIGS. 7A to 7E. Text information indicating time point, sleep time, and information about sleep may be displayed together. In this case, whether sleep information obtained on a certain date is indicated can be indicated using a shape, as shown in reference numeral 401a, to distinguish it from other dates. Alternatively, it may be displayed to distinguish it from other dates by changing its color or brightness.
예를 들어, 4월 6일에 획득한 사용자의 수면에 관한 정보에 포함된 수면 단계를 분석한 결과, 렘 수면의 비율이 상대적으로 높았던 경우에는, “스트레스 해소의 잠”이라는 문구와 함께, “렘수면 비율이 높았어요! 스트레스 해소는 물론 창의력을 발휘하도록 돕는 잠이랍니다.”라는 문구가 표시될 수 있다(참조번호 402 및 403). 또한, 본 발명의 실시예들에 따르면, 실제 잔 시간과, 잠드는 데 걸린 시간을 병렬적으로 표시할 수도 있다(참조번호 404). 상술한 수면에 대한 평가 텍스트 정보로 나타나는 문구는 본 발명의 실시예를 설명하기 위한 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.For example, as a result of analyzing the sleep stages included in the user's sleep information obtained on April 6, if the proportion of REM sleep was relatively high, it was found with the phrase “Sleep to relieve stress”, “ The REM sleep rate was high! You may see the phrase, “Sleep not only relieves stress but also helps you be creative” (References 402 and 403). Additionally, according to embodiments of the present invention, the actual sleeping time and the time taken to fall asleep may be displayed in parallel (reference number 404). The phrases that appear in the above-described sleep evaluation text information are merely examples for explaining embodiments of the present invention, and the present invention is not limited thereto.
또한, 본 발명의 실시예들에 따르면, 도 7e의 참조번호 405로 도시된 바와 같이, 수면에 관한 정보를 획득한 시간대 정보를 표시하는 텍스트를 더 포함하는 그래픽 사용자 인터페이스가 제공될 수도 있다.Additionally, according to embodiments of the present invention, as shown by reference number 405 in FIG. 7E, a graphical user interface may be provided that further includes text displaying information on the time zone in which information about sleep was obtained.
예컨대, 사용자의 수면에 관한 정보에 포함된 수면 시간이 속한 시간대가 주로 “아침” 시간대에 속해 있는 경우에는 “아침잠의 레포트”라는 텍스트를 함께 표시할 수도 있다. 마찬가지로, 사용자의 수면에 관한 정보에 포함된 수면 시간이 속한 시간대가 주로 “낮” 시간대에 속해 있는 경우에는 “낮잠의 레포트”, “저녁” 시간대에 속해 있는 경우에는 “저녁잠의 레포트”, “밤” 시간대에 속해 있는 경우에는 “밤잠의 레포트”, “새벽” 시간대에 속해 있는 경우에는 “새벽잠의 레포트”라는 텍스트를 함께 표시할 수도 있다.For example, if the time zone in which the sleep time included in the information about the user's sleep belongs mainly to the “morning” time zone, the text “Morning sleep report” may also be displayed. Likewise, if the time zone included in the information about the user's sleep mainly falls in the “day” time zone, “nap report”, if it falls in the “evening” time zone, “evening sleep report”, “ If you belong to the “night” time zone, the text “Night sleep report” can be displayed, and if you belong to the “dawn” time zone, the text “Early sleep report” can also be displayed.
한편, 사용자의 수면에 관한 정보를 획득한 시간대 정보를 표시하는 텍스트는 위의 예시에 한정되는 것은 아니며, 기상 시점이 속한 시간대가 새벽 시간대인 경우에는 “새벽”이라는 키워드, 아침 시간대인 경우에는 “아침”이라는 키워드, 낮 시간대인 경우에는 “낮”이라는 키워드, 저녁 시간대인 경우에는 “저녁”이라는 키워드, 밤 시간대인 경우에는 “밤”이라는 키워드를 포함하는 것으로 표시될 수 있다.Meanwhile, the text displaying the time zone information at which information about the user's sleep was obtained is not limited to the example above. If the time zone to which the user wakes up belongs to the early morning time zone, the keyword “dawn” is used, and if it is the morning time zone, the keyword is “ It may be displayed as including the keyword “morning”, the keyword “day” in the case of daytime, the keyword “evening” in the case of the evening, and the keyword “night” in the case of the night.
도 10의 흐름도에 대한 설명Description of the flow chart in Figure 10
도 10은 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성 및 제공하는 방법의 흐름도이다.Figure 10 is a flowchart of a method for creating and providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
도 10에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은, 사용자로부터 수면 정보를 습득하는 단계(S100), 습득된 수면 정보에 포함된 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환하는 단계(S120), 수면 상태 정보를 획득하는 단계(S140), 그래픽 유저 인터페이스를 생성하는 단계(S160) 및, 그래픽 유저 인터페이스를 제공하는 단계(S180)를 포함할 수 있다.As shown in FIG. 10, according to an embodiment of the present invention, a method of generating one or more graphical user interfaces representing information about sleep includes acquiring sleep information from the user (S100), the acquired sleep information A step of converting the frequency components included in the information into information including changes along the time axis (S120), a step of acquiring sleep state information (S140), a step of generating a graphical user interface (S160), and a graphical user interface. It may include a providing step (S180).
여기서 수면 정보를 습득하는 단계에서 습득되는 수면 정보는, 환경 센싱 정보 또는 수면 음향 정보를 포함할 수 있다.Here, the sleep information acquired in the step of acquiring sleep information may include environmental sensing information or sleep sound information.
또한, 본 발명의 일 실시예에 따라서 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 저장 단계(미도시)를 더 포함할 수도 있다.In addition, according to an embodiment of the present invention, a method of generating one or more graphical user interfaces representing information about sleep includes a sleep log storage step (not shown) of storing sleep log information related to an account assigned to a user in memory. It may include more.
또한, 본 발명의 일 실시예에 따르면, 습득된 수면 정보에 포함된 주파수 성분들의 시간 축에 따른 변화를 포함하는 정보로 변환하는 단계(S120)는 시간 도메인상의 로우 음향 정보 또는 주파수 도메인상의 정보에 대한 전처리를 수행하는 단계를 포함할 수 있다.In addition, according to an embodiment of the present invention, the step of converting the frequency components included in the acquired sleep information into information including changes along the time axis (S120) is performed by converting the acquired sleep information into raw acoustic information on the time domain or information on the frequency domain. It may include a step of performing preprocessing.
또는, 본 발명의 일 실시예에 따르면, 습득된 수면 정보를 주파수 도메인상의 정보로 변환하는 단계(S120)는 음향 정보를 스펙트로그램 정보로 변환하는 단계를 포함할 수 있다. 이 경우, 스펙트로그램에 멜 스케일을 적용하여 멜 스펙트로그램으로 변환하는 단계를 더 포함할 수 있다.Alternatively, according to an embodiment of the present invention, the step of converting the acquired sleep information into information on the frequency domain (S120) may include converting acoustic information into spectrogram information. In this case, the step of applying Mel scale to the spectrogram and converting it into Mel spectrogram may be further included.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보를 획득하는 단계(S140)는 주파수 도메인상의 정보, 스펙트로그램 또는 멜 스펙트로그램이 30초 단위로 분할된 각각의 정보에 대응하는 수면 상태 정보를 추출하는 단계를 포함할 수 있다.In addition, the step (S140) of acquiring sleep state information according to an embodiment of the present invention involves extracting sleep state information corresponding to each piece of information in the frequency domain, a spectrogram, or a mel spectrogram divided into 30 second units. It may include steps.
그리고, 본 발명의 일 실시예에 따라서, 그래픽 유저 인터페이스를 생성하는 단계(S160)는 수면 정보에 포함된 사용자의 입면시점 및/또는 기상시점에 기초하여 사용자의 수면에 관한 정보를 획득한 날짜 정보를 생성하는 단계를 포함할 수 있다.And, according to an embodiment of the present invention, the step of generating a graphical user interface (S160) includes the date information on the user's sleep was acquired based on the user's waking time and/or waking time included in the sleep information. It may include the step of generating.
본 발명의 실시예들에 따라서, 수면에 관한 정보를 획득한 날짜 정보를 생성하는 단계는 기상 시점이 속한 시간대 정보에 기초하여, 수면에 관한 정보를 획득한 시간대 정보를 생성하는 단계를 더 포함할 수 있다. 여기서 시간대 정보는 기 설정된 정의에 의하여 결정되는 것일 수 있다.According to embodiments of the present invention, the step of generating information on the date on which information on sleep was acquired may further include generating time zone information on which information on sleep was acquired based on information on the time zone to which the time of waking up belongs. You can. Here, time zone information may be determined according to a preset definition.
AI알람 화면AI alarm screen
도 19a는 본 발명에 따른 알람 기능이 활성화된 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 19a is a diagram showing a graphical user interface showing information about the sleep of a user with the alarm function activated according to the present invention.
도 19b는 본 발명에 따른 알람 기능이 활성화되지 않은 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 19b is a diagram illustrating a graphical user interface showing information about the sleep of a user in which the alarm function according to the present invention is not activated.
도시된 바와 같이, 사용자는 알람 기능을 트리거링 할 수 있으며, 사용자에게 알람 기능 트리거 활성화 상태 사용자 인터페이스(19100) 및 알람 기능 트리거 비활성화 상태 사용자 인터페이스(19200)가 제공될 수 있다. As shown, a user may trigger an alarm function, and an alarm function trigger activation state user interface 19100 and an alarm function trigger deactivation state user interface 19200 may be provided to the user.
예를 들어, 사용자는 알람 기능을 트리거링 할 수 있으며, 사용자가 제1 방향으로 알람 기능을 트리거한 경우, 사용자에게 알람 기능 트리거 활성화 상태 사용자 인터페이스(19100)가 제공될 수 있으며, 사용자가 제2 방향으로 알람 기능 비활성화를 트리거한 경우, 사용자에게 알람 기능 트리거 비활성화 상태 사용자 인터페이스(19200)가 제공될 수 있다.For example, the user may trigger an alarm function, and if the user triggers the alarm function in a first direction, an alarm function trigger activation state user interface 19100 may be provided to the user, and the user may trigger the alarm function in a second direction. When alarm function deactivation is triggered, an alarm function trigger deactivation state user interface 19200 may be provided to the user.
더욱 더 구체적인 예를 들어, 활성화 상태 사용자 인터페이스가 제공되고 있는 경우, 트리거링이 입력되면, 알람기능 상태 비활성화 사용자 인터페이스로 전환되고, 트리거링이 입력되지 않으면, 사용자에게 알람 기능 트리거 활성화 상태 사용자 인터페이스(19100)가 제공될 수 있으며, 사용자가 왼쪽으로 알람 기능 비활성화를 트리거한 경우, 사용자에게 알람 기능 트리거 비활성화 상태 사용자 인터페이스(19200)가 제공될 수 있으나, 이에 한정되지 않는다. For a more specific example, when an activation state user interface is provided, if triggering is input, the alarm function state is switched to a deactivated user interface, and if triggering is not input, the alarm function trigger activation state user interface 19100 is provided to the user. may be provided, and when the user triggers alarm function deactivation to the left, an alarm function trigger deactivation state user interface 19200 may be provided to the user, but is not limited to this.
도시된 바와 같이, 그래픽 사용자 인터페이스 생성 단계는 알림 기능을 활성화 시키기 위한 트리거 영역이 활성화된 경우, 알람 기능 활성화와 함께 수면 측정을 개시하기 위한 그래픽 사용자 인터페이스 생성 단계를 포함하고, 알림 기능을 활성화 시키기 위한 트리거 영역이 활성화되지 않은 경우, 알람 기능 비활성화와 함께 수면 측정을 개시하기 위한 그래픽 사용자 인터페이스 생성 단계를 포함할 수 있다. As shown, the graphical user interface creation step includes a graphical user interface creation step for activating the alarm function and starting sleep measurement when the trigger area for activating the notification function is activated, and activating the notification function. If the trigger area is not activated, the step may include creating a graphical user interface to initiate sleep measurement along with deactivating the alarm function.
즉, 사용자가 알람 기능을 트리거링하여 활성화시키는 경우, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)가 제공될 수 있으며, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)는 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 입력 알림문구 사용자 인터페이스(19110)를 제공할 수 있다. That is, when the user triggers and activates the alarm function, the alarm window user interface 19101 in the alarm function trigger activated state may be provided, and the alarm window user interface 19101 in the alarm function trigger activated state may be provided with the alarm function. A user interface (19110) for inputting the desired wake-up time in the trigger activation state may be provided.
예를 들어, 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 입력 알림문구 사용자 인터페이스(19110)는 "언제 일어날까요?"의 문구를 제공하는 형태일 수 있다. 또 다른 예를 들어, 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 입력 알림문구 사용자 인터페이스(19110)는 "일어나고 싶은 시간은?"의 문구를 제공하는 형태일 수 있으며, "기상 희망 시간은?"의 문구를 제공하는 형태일 수 있고, "언제 깨워드릴까요?"와 같은 형태일 수 있으나 이는 여러 예시들 중 하나일 뿐이며 이에 한정되지 않는다. For example, the notification phrase user interface 19110, which inputs the desired wake-up time when the alarm function trigger is activated, may be in the form of providing the phrase “When will I wake up?” As another example, the desired wake-up time input notification user interface 19110 in the alarm function trigger activation state may be in the form of providing the phrase “What time do you want to wake up?” and “What time do you want to wake up?” It may be in the form of providing a phrase, or it may be in the form of "When should I wake you up?", but this is only one of many examples and is not limited to this.
도 19a에 도시된 바와 같이, 사용자가 알람 기능을 트리거링하여 활성화시키는 경우, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)가 제공될 수 있으며, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)는 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 포함한 기상 예정 범위 사용자 인터페이스(19120) 또는 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 사용자 인터페이스(19130)를 제공할 수 있다. As shown in FIG. 19A, when the user triggers and activates the alarm function, an alarm window user interface 19101 in the alarm function trigger activation state may be provided, and the alarm window user interface 19101 in the alarm function trigger activation state may be provided. (19101) is a wake-up range user interface (19120) including desired wake-up time information when the alarm function trigger is activated, or a slide area user interface (19130) provided to allow input of desired wake-up time information when the alarm function trigger is activated. ) can be provided.
본 발명의 일 실시 형태에 따르면, 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 사용자 인터페이스(19130)는 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 바 사용자 인터페이스(19131)를 포함할 수 있고, 사용자가 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 사용자 인터페이스(19130)를 슬라이드 하여 사용자 기상 희망 시각을 선택할 수 있다. According to one embodiment of the present invention, the slide area user interface 19130 provided to allow input of desired wake-up time information in an alarm function trigger activation state allows input of desired wake-up time information in an alarm function trigger activation state. It may include a slide area bar user interface (19131) provided to allow the user to enter information on the desired wake-up time when the alarm function trigger is activated by sliding the slide area user interface (19130) provided to indicate the user's desired wake-up time. You can choose the time.
본 발명의 일 실시 형태에 따르면, 기상 희망 시각 정보를 선택하기 위한 슬라이드 영역을 포함하는 그래픽 사용자 인터페이스 생성 단계는 슬라이드 영역이 제1방향으로 슬라이드 된 경우 기상 희망 시각 정보의 시각이 늦어지고, 슬라이드 영역이 제2방향으로 슬라이드 된 경우 기상 희망 시각 정보의 시각이 빨라지는 그래픽 사용자 인터페이스 생성 단계를 포함할 수 있다. According to one embodiment of the present invention, in the step of creating a graphical user interface including a slide area for selecting desired wake-up time information, when the slide area is slid in a first direction, the time of the desired wake-up time information is delayed, and the slide area It may include a step of creating a graphical user interface in which the time of the desired wake-up time information becomes faster when the information is slid in the second direction.
구체적인 예를 들어, 사용자가 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 사용자 인터페이스(19130)를 아래로 슬라이드 하는 경우, 기상 희망 시각이 더 이른 시간으로 설정될 수 있으며, 사용자가 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 사용자 인터페이스(19130)를 위로 슬라이드 하는 경우, 기상 희망 시각이 더 늦은이른 시간으로 설정될 수 있으나 이에 한정되지 않는다. For example, if the user slides down the slide area user interface 19130 provided to input information on the desired wake-up time when the alarm function trigger is activated, the desired wake-up time may be set to an earlier time. In addition, when the user slides the slide area user interface (19130) up, which is provided to allow the user to enter information on the desired wake-up time when the alarm function trigger is activated, the desired wake-up time may be set to a later or earlier time, but this is limited to this. It doesn't work.
더욱 더 구체적인 예를 들어, 도 19a에 도시된 바와 같이, 사용자의 기상 희망 시각이 오전 8시 36분인 경우, 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 바 사용자 인터페이스(19131)가 오전 8시 36분을 가리킬 수 있도록 제공될 수 있으며, 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 포함한 기상 예정 범위 사용자 인터페이스(19120)는 오전 8시 36분으로부터 소정의 범위, 예를 들어 30분으로 설정된 경우, 오전 8시 06분부터 오전 8시 36분의 범위를 나타낼 수 있다. For a more specific example, as shown in Figure 19a, when the user's desired wake-up time is 8:36 am, a slide area bar is provided to allow the user to input desired wake-up time information with the alarm function trigger activated. The interface 19131 may be provided to indicate 8:36 a.m., and the scheduled wake-up range user interface 19120 may indicate a predetermined range from 8:36 a.m., including information on the desired wake-up time when the alarm function trigger is activated. , for example, if set to 30 minutes, it can represent the range from 8:06 AM to 8:36 AM.
본 발명의 일 실시 형태에 따르면, 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 포함한 기상 예정 범위 사용자 인터페이스(19120)는 사용자의 기상이 예측되는 시점이 속한 구간을 나타낼 수 있다. According to one embodiment of the present invention, the wake-up range user interface 19120 including information on the desired wake-up time in an alarm function trigger activation state may indicate a section where the user's predicted wake-up time belongs.
본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능을 트리거링하여 활성화시키는 경우, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)가 제공될 수 있으며, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)는 알람 기능 트리거 활성화 상태에서의 수면 예상 시간 정보를 제공하는 사용자 인터페이스(19140)를 포함할 수 있다. According to one embodiment of the present invention, when a user triggers and activates an alarm function, an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and the alarm window user interface in an alarm function trigger activation state may be provided. The interface 19101 may include a user interface 19140 that provides information on the estimated sleep time in an alarm function trigger activation state.
구체적으로, 그래픽 사용자 인터페이스 생성 단계는 슬라이드 영역을 통해 기상 희망 시각 정보를 수신하면, 수신된 기상 희망 시각과 현재 시각의 차이에 기초한 수면 예상 시간을 나타내는 그래픽 사용자 인터페이스 생성 단계를 포함할 수 있다. 예를 들어, 도 19a에 도시된 바와 같이, 기상 희망 시각이 오전 8시 36분이고, 현재 시각이 오전 12시 39분인 경우, 기상 희망 시각인 오전 8시 36분에서 현재 시간인 오전 12시 39분의 차이인 8시간 57분으로 알람 기능 트리거 활성화 상태에서의 수면 예상 시간 정보를 제공하는 사용자 인터페이스(19140)가 제공될 수 있다. Specifically, the step of creating a graphical user interface may include a step of creating a graphical user interface that, upon receiving desired wake-up time information through the slide area, indicates an expected sleep time based on the difference between the received desired wake-up time and the current time. For example, as shown in Figure 19a, if the desired wake-up time is 8:36 AM and the current time is 12:39 AM, the desired wake-up time is 8:36 AM to the current time is 12:39 AM. With the difference of 8 hours and 57 minutes, a user interface 19140 that provides information on the estimated sleep time with the alarm function trigger activated can be provided.
본 발명의 또 다른 일 실시 형태에 따르면, 그래픽 사용자 인터페이스 생성 단계는 사용자가 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 사용자 인터페이스(19130)를 통해 기상 희망 시각 정보를 수신하면, 수신된 사용자의 수면 상태 정보로부터 추론되는 예측 기상 시간 정보 또는 예측 수면 시간 또는 예측 수면 시간과 수면 효율의 조합 중 어느 하나에 기초하여, 수면 예상 시간을 나타내는 그래픽 사용자 인터페이스 생성 단계를 포함할 수 있다. According to another embodiment of the present invention, the step of creating a graphical user interface includes the desired wake-up time information through a slide area user interface 19130 provided to allow the user to input desired wake-up time information in an alarm function trigger activation state. Upon receiving, the step of generating a graphical user interface representing the expected sleep time based on either predicted wake-up time information or predicted sleep time or a combination of predicted sleep time and sleep efficiency inferred from the received sleep state information of the user. can do.
구체적으로, 수면 효율(sleep efficiency)은 (사용자의 실제 수면 시간/수면 측정 개시부터 사용자가 기상할 때까지의 시간)*100일 수 있으며, 더욱 더 구체적으로는 {사용자의 수면 중 NREM 단계의 시간과 REM 단계의 시간 합산 시간에서 WAKE 단계의 시간을 제외하여 산출된 시간)/수면 측정 개시부터 사용자가 기상할 때까지의 시간}*100일 수 있다. Specifically, sleep efficiency may be (user's actual sleep time/time from start of sleep measurement until user wakes up) * 100, and even more specifically, {time of NREM stage during user's sleep and the time calculated by excluding the time of the WAKE phase from the sum of the times of the REM phase)/time from the start of sleep measurement until the user wakes up}*100.
본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 사용자 인터페이스(19130)에 제공되는 수면 예상 시간은 현재 시간으로부터 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 포함한 기상 예정 범위 내에서 사용자의 수면 상태 정보에 기초하여, 렘 수면이 발생될 것으로 예측되는 시점 또는 그 시점으로부터 소정의 시간 경과 후의 시점까지의 시간을 포함할 수 있다. According to one embodiment of the present invention, the estimated sleep time provided in the slide area user interface 19130, which is provided so that the user can input information on the desired wake-up time in the alarm function trigger activation state, is calculated from the current time when the alarm function trigger is activated. Based on the user's sleep state information within the scheduled wake-up range including information on the desired wake-up time in the state, it may include the time until the time when REM sleep is predicted to occur or a time after a predetermined time has elapsed from that time. .
본 발명의 또 다른 일 실시 형태에 따르면, 사용자가 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 입력할 수 있도록 제공되는 슬라이드 영역 사용자 인터페이스(19130)에 제공되는 수면 예상 시간은 현재 시간으로부터 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 포함한 기상 예정 범위 내에서 사용자의 수면 상태 정보에 기초하여, 렘 수면이 발생될 것으로 예측되는 시점 또는 그 시점으로부터 소정의 시간 경과 후의 시점까지의 시간에 수면 효율을 곱하여 산출된 시간일 수 있다. According to another embodiment of the present invention, the estimated sleep time provided in the slide area user interface 19130, which is provided to allow the user to input information on the desired wake-up time when the alarm function trigger is activated, is calculated from the current time of the alarm function. Sleep efficiency at the time when REM sleep is predicted to occur or a predetermined time after the time has elapsed based on the user's sleep state information within the scheduled wake-up range including the desired wake-up time information in the trigger activation state. It may be a time calculated by multiplying .
도시된 바와 같이, 사용자가 알람 기능을 트리거링하여 활성화시키는 경우, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)가 제공될 수 있으며, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19150)가 제공될 수 있다. As shown, when the user triggers and activates the alarm function, an alarm window user interface 19101 in the alarm function trigger activation state may be provided, and at the same time, sleep measurement in the alarm function trigger activation state may be initiated. A user interface 19150 may be provided.
구체적인 예를 들어, 알람 기능 트리거 활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19150)는 "자러 가기"의 문구를 제공하는 형태일 수 있다. 또한, "수면 측정 시작하기"의 문구를 제공하는 형태일 수도 있으며, "자러 가볼까요?"의 문구를 제공하는 형태일 수도 있으나, 이는 예시일 뿐이며 이에 한정되는 것은 아니다. For a specific example, the user interface 19150 that initiates sleep measurement in an alarm function trigger activation state may be in the form of providing the phrase “Go to sleep.” Additionally, it may be in the form of providing a phrase such as "Start measuring sleep" or it may be in a form of providing a phrase such as "Shall we go to sleep?", but this is only an example and is not limited thereto.
도 19b에 도시된 바와 같이, 사용자는 알람 기능을 트리거링 할 수 있으며, 사용자에게 알람 기능 트리거 활성화 상태 사용자 인터페이스(19100) 또는 알람 기능 트리거 비활성화 상태 사용자 인터페이스(19200)가 제공될 수 있다. As shown in FIG. 19B, the user can trigger an alarm function, and an alarm function trigger activation state user interface 19100 or an alarm function trigger deactivation state user interface 19200 may be provided to the user.
예를 들어, 사용자는 알람 기능을 트리거링 할 수 있으며, 사용자가 제1 방향으로 알람 기능을 트리거한 경우, 사용자에게 알람 기능 트리거 활성화 상태 사용자 인터페이스(19100)가 제공될 수 있으며, 사용자가 제2 방향으로 알람 기능 비활성화를 트리거한 경우, 사용자에게 알람 기능 트리거 비활성화 상태 사용자 인터페이스(19200)가 제공될 수 있다.For example, the user may trigger an alarm function, and if the user triggers the alarm function in a first direction, an alarm function trigger activation state user interface 19100 may be provided to the user, and the user may trigger the alarm function in a second direction. When alarm function deactivation is triggered, an alarm function trigger deactivation state user interface 19200 may be provided to the user.
알람 기능 트리거 비활성화 상태 사용자 인터페이스(19200)가 제공되는 경우, 알람 기능은 트리거링 되지 않으며, 기상 예정시간이 정해지지 않은 상태에서의 수면 측정에 부합되는 정보 제공 사용자 인터페이스(19201)가 제공될 수 있다. When the alarm function trigger deactivation state user interface 19200 is provided, the alarm function is not triggered, and a user interface 19201 providing information corresponding to sleep measurement in a state where the scheduled wake-up time is not set may be provided.
구체적인 예를 들어, 기상 예정시간이 정해지지 않은 상태에서의 수면 측정에 부합되는 정보 제공 사용자 인터페이스(19201)는 소정의 시간 이상 수면을 취해야 수면 측정 결과를 제공할 수 있다는 정보를 제공하는 문구일 수 있으며, 예를 들어,"30분 이상 자면 리포트를 받을 수 있어요"와 같은 문구일 수 있다. For a specific example, the information providing user interface 19201 suitable for sleep measurement in a state where the scheduled wake-up time is not set may be a phrase providing information that sleep measurement results can be provided only after sleeping for a certain amount of time, , For example, it could be a phrase like “If you sleep for more than 30 minutes, you can get a report.”
또 다른 예를 들어, "다음 수면에는 AI 알람을 이용해보는 것이 어떨까요?"와 같은 문구일 수 있으며, 이는 예시에 불과하므로 이에 한정되는 것은 아니다. Another example could be a phrase like “Why not try using an AI alarm for your next sleep?” This is just an example and is not limited to this.
본 발명의 일 실시 형태에 따라, 알람 기능 트리거 비활성화 상태 사용자 인터페이스(19200)가 제공되는 경우, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19250)가 제공될 수 있다. According to an embodiment of the present invention, when the alarm function trigger deactivation state user interface 19200 is provided, a user interface 19250 that initiates sleep measurement in the alarm function trigger deactivation state may be provided.
구체적인 예를 들어, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19250)는 "알람 없이 자러 가기"의 문구의 형태로 제공될 수 있으며, "알람 끄고 수면 하기"와 같은 문구의 형태로 제공될 수도 있다. 또한, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19250)는 "알람 끄고 수면 측정 시작"과 같은 문구의 형태로 제공될 수 있으나, 이는 예시에 불과하므로 이에 한정되는 것은 아니다. As a specific example, the user interface 19250 for initiating sleep measurement with the alarm function trigger disabled may be provided in the form of phrases such as “go to bed without an alarm,” or in the form of phrases such as “turn off the alarm and sleep.” It may also be provided as . Additionally, the user interface 19250 for starting sleep measurement with the alarm function trigger disabled may be provided in the form of phrases such as “turn off the alarm and start sleep measurement,” but this is only an example and is not limited thereto.
도 20a는 본 발명에 따른 알람 기능이 활성화된 상태에서 수면 측정 중임을 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. 도 20b는 본 발명에 따른 알람 기능이 비활성화된 상태에서 수면 측정 중임을 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 20a is a diagram showing a graphical user interface indicating that sleep is being measured while the alarm function according to the present invention is activated. Figure 20b is a diagram showing a graphical user interface indicating that sleep is being measured while the alarm function according to the present invention is deactivated.
본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능을 트리거링하여 활성화시키는 경우, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)가 제공될 수 있으며, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19150)가 제공될 수 있다.According to one embodiment of the present invention, when a user triggers and activates an alarm function, an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and at the same time, sleep in an alarm function trigger activation state may be provided. A user interface 19150 may be provided to initiate a measurement.
이에 따라, 알람 기능 트리거 활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19150)로부터 입력 신호를 받으면, 도 20a의 알람 기능 트리거 활성화 상태에서의 수면 측정 중 알람 기능 트리거 활성화 상태임을 나타내는 사용자 인터페이스 (20310)가 제공될 수 있다. Accordingly, upon receiving an input signal from the user interface 19150 that starts sleep measurement in the alarm function trigger activation state, the user interface 20310 indicating that the alarm function trigger is activated during sleep measurement in the alarm function trigger activation state of FIG. 20A ) can be provided.
구체적인 예를 들어, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 알람 기능 트리거 활성화 상태임을 나타내는 사용자 인터페이스(20310)는 "AI가 꼭 깨워드릴게요!"의 알람 기능이 활성화된 상태라는 것을 알리는 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 알람 기능 트리거 활성화 상태임을 나타내는 사용자 인터페이스(20310)는 "AI 알람 기능이 활성화되어 있어요!"의 문구의 형태로 제공될 수 있으며, 또한 "AI가 개운하게 일어나도록 도와줄거에요!"의 문구의 형태로 제공될 수 있으며, 또한 "깨워줄 테니 푹 자요!"의 문구의 형태로 제공될 수 있으나, 이는 예시에 불과하므로 이에 한정되지 않는다. As a specific example, during sleep measurement with the alarm function trigger activated, the user interface 20310 indicating that the alarm function trigger is activated is in the form of a phrase indicating that the alarm function is activated: “AI will definitely wake you up!” can be provided. As another example, during sleep measurement with the alarm function trigger activated, the user interface 20310 indicating that the alarm function trigger is activated may be provided in the form of the phrase “AI alarm function is activated!” It may be provided in the form of a phrase such as “AI will help you wake up refreshed!”, and may also be provided in the form of a phrase such as “I will wake you up, so sleep well!”, but this is only an example and is not limited thereto. .
본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능을 트리거링하여 활성화시키는 경우, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)가 제공될 수 있으며, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19150)가 제공될 수 있고, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정 중 기상 희망 시각 정보를 포함한 기상 예정 범위를 나타내는 사용자 인터페이스(20320)가 제공될 수 있다. According to one embodiment of the present invention, when a user triggers and activates an alarm function, an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and at the same time, sleep in an alarm function trigger activation state may be provided. A user interface 19150 for initiating measurement may be provided, and at the same time, a user interface 20320 may be provided indicating a scheduled wake-up range including desired wake-up time information during sleep measurement in an alarm function trigger activation state.
본 발명에 따르면, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 기상 희망 시각 정보를 포함한 기상 예정 범위를 나타내는 사용자 인터페이스(20320)는 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 포함한 기상 예정 범위 사용자 인터페이스(19120)와 동일한 범위에 알람 예정이라는 정보를 제공할 수 있다. According to the present invention, the user interface 20320, which represents the scheduled wake-up range including desired wake-up time information during sleep measurement in the alarm function trigger activated state, is the user interface 20320 that represents the scheduled wake-up range including desired wake-up time information in the alarm function trigger activated state. Information about scheduled alarms can be provided in the same range as (19120).
구체적인 예를 들어, 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 포함한 기상 예정 범위 사용자 인터페이스(19120)가 "오전 8:06~ 오전 8:36 사이"라는 범위를 제공한 경우, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 기상 희망 시각 정보를 포함한 기상 예정 범위를 나타내는 사용자 인터페이스(20320)는 "오전 8:06~ 오전 8:36 사이 알람"이라는 문구를 제공할 수 있다. As a specific example, if the wake-up range user interface 19120, which includes the desired wake-up time information in the alarm function trigger activation state, provides a range of “between 8:06 a.m. and 8:36 a.m.”, the alarm function trigger is activated. During sleep measurement in the state, the user interface 20320 indicating the expected wake-up range including desired wake-up time information may provide the phrase “alarm between 8:06 a.m. and 8:36 a.m.”
또 다른 예를 들어, 알람 기능 트리거 활성화 상태에서의 기상 희망 시각 정보를 포함한 기상 예정 범위 사용자 인터페이스(19120)가 "오전 8:06~ 오전 8:36 사이"라는 범위를 제공한 경우, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 기상 희망 시각 정보를 포함한 기상 예정 범위를 나타내는 사용자 인터페이스(20320)는 "오전 8:06~ 오전 8:36 사이에 알람이 울릴거에요!"라는 문구를 제공할 수 있다.As another example, if the wake-up range user interface 19120, which includes the desired wake-up time information in the alarm function trigger activation state, provides a range of “between 8:06 a.m. and 8:36 a.m.”, the alarm function is triggered. During sleep measurement in the activated state, the user interface 20320 indicating the expected wake-up range including desired wake-up time information may provide the phrase, “The alarm will sound between 8:06 a.m. and 8:36 a.m.!”
본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능을 트리거링하여 활성화시키는 경우, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)가 제공될 수 있으며, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19150)가 제공될 수 있고, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정 중 기상 희망 시각 정보를 포함한 기상 예정 범위를 나타내는 사용자 인터페이스(20320)가 제공되며, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20340a)가 제공될 수 있다. According to one embodiment of the present invention, when a user triggers and activates an alarm function, an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and at the same time, sleep in an alarm function trigger activation state may be provided. A user interface 19150 for initiating measurement may be provided, and at the same time, a user interface 20320 may be provided indicating a scheduled wake-up range including desired wake-up time information during sleep measurement with the alarm function trigger activated, and at the same time, an alarm function may be provided. A user interface 20340a may be provided indicating the first wave of the user's sleep sound information during sleep measurement in the function trigger activation state.
본 발명의 일 실시 형태에 따르면, 수면 측정 중임을 나타내는 화면을 포함하는 그래픽 사용자 인터페이스를 생성하는 단계는 알람 기능을 활성화 시키기 위한 트리거 영역이 활성화되지 않는 중이라는 것을 나타내는 그래픽 사용자 인터페이스 생성 단계를 포함하고, 기상 예정 시간의 범위를 나타내는 그래픽 사용자 인터페이스 생성 단계를 더 포함하며, 사용자의 수면 음향 정보의 파동을 나타내는 그래픽 사용자 인터페이스 생성 단계를 더 포함할 수 있다.According to one embodiment of the present invention, the step of creating a graphical user interface including a screen indicating that sleep is being measured includes the step of creating a graphical user interface indicating that a trigger area for activating an alarm function is not being activated; , It may further include a step of creating a graphical user interface representing the range of the scheduled wake-up time, and may further include a step of creating a graphical user interface representing waves of the user's sleep sound information.
구체적으로, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20340a)는 실시간으로 사용자의 수면 음향의 크기에 따라 진폭이 변할 수 있다. 구체적인 예를 들어, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제2 파동을 나타내는 사용자 인터페이스(20340a)는 임의의 방향으로 실시간으로 이동하며, 사용자의 수면 음향의 크기에 따라 진폭이 변화할 수 있다. Specifically, the user interface 20340a, which represents the first wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated, may change in amplitude depending on the size of the user's sleep sound in real time. For a specific example, during sleep measurement with the alarm function trigger activated, the user interface 20340a representing the second wave of the user's sleep sound information moves in real time in a random direction, and the amplitude varies depending on the size of the user's sleep sound. This can change.
본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능을 트리거링하여 활성화시키는 경우, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)가 제공될 수 있으며, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19150)가 제공될 수 있고, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정 중 기상 희망 시각 정보를 포함한 기상 예정 범위를 나타내는 사용자 인터페이스(20320)가 제공되며, 이와 동시에 알람 기능 트리거 활성화 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20340a)가 제공될 수 있고, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 수면 측정을 중단하기 위한 사용자 인터페이스(20330)가 제공될 수 있다. According to one embodiment of the present invention, when a user triggers and activates an alarm function, an alarm window user interface 19101 in an alarm function trigger activation state may be provided, and at the same time, sleep in an alarm function trigger activation state may be provided. A user interface 19150 for initiating measurement may be provided, and at the same time, a user interface 20320 may be provided indicating a scheduled wake-up range including desired wake-up time information during sleep measurement with the alarm function trigger activated, and at the same time, an alarm function may be provided. A user interface (20340a) may be provided representing the first wave of the user's sleep sound information during sleep measurement in a function trigger activation state, and a user interface (20340a) for stopping sleep measurement during sleep measurement in an alarm function trigger activation state ( 20330) may be provided.
도 20a에 도시된 바와 같이, 도 20a의 (a)는 알람 기능 트리거 활성화 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20340a)가 제공되는 것을 나타낸 도면이고, 도 20a의 (b)는 알람 기능 트리거 활성화 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제2 파동을 나타내는 사용자 인터페이스(20340b)를 나타낸 도면이다. As shown in FIG. 20A, (a) of FIG. 20A is a diagram showing that a user interface 20340a is provided indicating the first wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated. (b) in 20a is a diagram showing the user interface 20340b showing the second wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated.
알람 기능 트리거 활성화 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20340a)와 알람 기능 트리거 활성화 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제2 파동을 나타내는 사용자 인터페이스(20340b)는 사용자의 사용자 단말 기종에 따라 다르게 제공될 수 있으며, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제2 파동을 나타내는 사용자 인터페이스(20340b)는 사용자의 수면 음향의 크기에 따라 복수의 파동의 진폭들이 모두 똑같이 크기가 변하고 작아지는 것이 특징이며, 사용자 단말의 기종, 구체적으로 스마트폰의 기종에 따라 다르게 제공될 수 있다. A user interface 20340a representing the first wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated, and a user interface representing the second wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated. (20340b) may be provided differently depending on the user's user terminal model, and the user interface (20340b) representing the second wave of the user's sleep sound information during sleep measurement with the alarm function trigger activated is the size of the user's sleep sound. The characteristic is that the amplitudes of the plurality of waves all change and become smaller in size equally, and may be provided differently depending on the type of user terminal, specifically the type of smartphone.
본 발명에 따르면, 수면 측정 중임을 나타내는 화면을 포함하는 그래픽 사용자 인터페이스를 생성하는 단계는 수면 측정을 종료할 수 있는 그래픽 사용자 인터페이스 생성 단계를 더 포함할 수 있다. According to the present invention, the step of generating a graphical user interface including a screen indicating that sleep measurement is in progress may further include the step of creating a graphical user interface capable of ending sleep measurement.
구체적인 예를 들어, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 수면 측정을 중단하기 위한 사용자 인터페이스(20330)는 "일어나기"의 문구를 나타내는 형태로 제공될 수 있으며, 알람 기능 트리거 활성화 상태에서의 수면 측정 중 수면 측정을 중단하기 위한 사용자 인터페이스(20330)는 "기상하기"의 문구를 나타내는 형태로 제공될 수 있다. 또한, "기상하러 가기"의 문구를 나타내는 형태로 제공될 수 있으며, "수면 측정 종료하기"의 문구를 나타내는 형태로도 제공될 수 있으나 이는 예시에 불과하므로 이에 한정되는 것은 아니다. As a specific example, the user interface 20330 for stopping sleep measurement during sleep measurement with the alarm function trigger activated may be provided in the form of indicating the phrase “wake up,” and sleep measurement with the alarm function trigger activated. The user interface 20330 for stopping mid-sleep measurement may be provided in the form of the phrase “wake up.” In addition, it may be provided in a form that represents the phrase "Go to wake up" and may also be provided in a form that represents the phrase "End sleep measurement," but this is only an example and is not limited thereto.
도 20b에 도시되는 바와 같이, 본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능을 트리거링하여 활성화시키지 않는 경우, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(20250)가 제공될 수 있으며, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(20250)를 통해 수면 측정 개시를 입력받으면, 알람 기능 트리거가 활성화되지 않은 상태에서, 수면 측정 중임을 나타내는 문구 또는 이모티콘 또는 문구와 이모티콘을 나타내는 사용자 인터페이스(20610)가 제공될 수 있다. As shown in FIG. 20B, according to one embodiment of the present invention, if the user does not activate the alarm function by triggering, a user interface 20250 may be provided that initiates sleep measurement in the alarm function trigger deactivated state. When the start of sleep measurement is received through the user interface 20250, which starts sleep measurement with the alarm function trigger disabled, a phrase or emoticon or a phrase and an emoticon indicating that sleep measurement is in progress is displayed while the alarm function trigger is not activated. A user interface 20610 representing may be provided.
본 발명의 일 실시 형태에 따르면, 수면 측정 중임을 나타내는 문구 또는 이모티콘 또는 문구와 이모티콘을 나타내는 사용자 인터페이스(20610)는 "눈을 감고, 푹 쉬세요^_^"와 같은 수면을 유도하는 문구의 형태로 제공될 수 있다. 또한, 수면 측정 중임을 나타내는 문구 또는 이모티콘 또는 문구와 이모티콘을 나타내는 사용자 인터페이스(20610)는 "편안한 잠을 잘거에요"의 문구의 형태로 제공될 수도 있으며, 수면 측정 중임을 나타내는 문구 또는 이모티콘 또는 문구와 이모티콘을 나타내는 사용자 인터페이스(20610)는 "오늘 밤은 편안한 밤이에요"의 문구의 형태로 제공될 수도 있으나, 이는 예시에 불과하므로 이에 한정되는 것은 아니다. According to one embodiment of the present invention, the user interface 20610 representing a phrase or an emoticon or a phrase and an emoticon indicating that sleep is being measured is in the form of a sleep-inducing phrase such as "Close your eyes, take a good rest ^_^" It can be provided as . Additionally, the user interface 20610 representing a phrase or emoticon indicating that sleep is being measured, or a phrase and an emoticon, may be provided in the form of the phrase “I will sleep comfortably,” and a phrase or emoticon indicating that sleep is being measured, or a phrase and an emoticon. The user interface 20610 representing an emoticon may be provided in the form of a phrase such as “Tonight is a comfortable night,” but this is only an example and is not limited thereto.
도 20b에 도시되는 바와 같이, 본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능을 트리거링하여 활성화시키지 않는 경우, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19250)가 제공될 수 있으며, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19250)를 통해 수면 측정 개시를 입력받으면, 알람 기능 트리거가 활성화되지 않은 상태에서, 수면 측정 중임을 나타내는 문구 또는 이모티콘 또는 문구와 이모티콘을 나타내는 사용자 인터페이스(20610)가 제공될 수 있으며, 이와 동시에, 알람 기능 트리거가 활성화되지 않은 상태에서 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20640a)가 제공될 수 있다. As shown in FIG. 20B, according to one embodiment of the present invention, if the user does not activate the alarm function by triggering, a user interface 19250 may be provided to initiate sleep measurement in the alarm function trigger deactivated state. When the start of sleep measurement is received through the user interface 19250, which starts sleep measurement with the alarm function trigger disabled, a phrase or emoticon or a phrase and emoticon indicating that sleep measurement is in progress is displayed while the alarm function trigger is not activated. A user interface 20610 may be provided, and at the same time, a user interface 20640a may be provided showing the first wave of the user's sleep sound information during sleep measurement while the alarm function trigger is not activated.
본 발명의 일 실시 형태에 따르면, 알람 기능 트리거가 활성화되지 않은 상태에서 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20640a)는 실시간으로 사용자의 수면 음향의 크기에 따라 진폭이 변할 수 있다. 구체적인 예를 들어, 알람 기능 트리거 활성화되지 않은 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20640a)는 임의의 방향으로 실시간으로 이동하며, 사용자의 수면 음향의 크기에 따라 진폭이 변화할 수 있다. According to one embodiment of the present invention, the user interface 20640a, which represents the first wave of the user's sleep sound information during sleep measurement when the alarm function trigger is not activated, has an amplitude depending on the size of the user's sleep sound in real time. It can change. As a specific example, during sleep measurement in a state in which the alarm function trigger is not activated, the user interface 20640a representing the first wave of the user's sleep sound information moves in real time in a random direction and adjusts to the size of the user's sleep sound. The amplitude may change depending on the
도 20b에 도시되는 바와 같이, 본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능을 트리거링하여 활성화시키지 않는 경우, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19250)가 제공될 수 있으며, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19250)를 통해 수면 측정 개시를 입력받으면, 알람 기능 트리거가 활성화되지 않은 상태에서, 수면 측정 중임을 나타내는 문구 또는 이모티콘 또는 문구와 이모티콘을 나타내는 사용자 인터페이스(20610)가 제공될 수 있으며, 이와 동시에, 알람 기능 트리거가 활성화되지 않은 상태에서 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20640a)가 제공될 수 있으며, 기상 예정시간이 정해지지 않은 상태에서의 수면 측정에 부합되는 정보 제공 사용자 인터페이스(20620)가 제공될 수 있다. As shown in FIG. 20B, according to one embodiment of the present invention, if the user does not activate the alarm function by triggering, a user interface 19250 may be provided to initiate sleep measurement in the alarm function trigger deactivated state. When the start of sleep measurement is received through the user interface 19250, which starts sleep measurement with the alarm function trigger disabled, a phrase or emoticon or a phrase and emoticon indicating that sleep measurement is in progress is displayed while the alarm function trigger is not activated. A user interface 20610 representing may be provided, and at the same time, a user interface 20640a may be provided representing the first wave of the user's sleep acoustic information during sleep measurement while the alarm function trigger is not activated, An information providing user interface 20620 suitable for measuring sleep in a state where the scheduled wake-up time is not set may be provided.
본 발명에 따르면, 그래픽 사용자 인터페이스 생성 단계는 알림 기능을 활성화 시키기 위한 트리거 영역이 활성화되지 않은 경우, 기상 예정시간이 정해지지 않은 수면에 부합되는 정보를 제공하는 그래픽 사용자 인터페이스 생성 단계를 포함할 수 있다. According to the present invention, the step of creating a graphical user interface may include a step of creating a graphical user interface that provides information corresponding to sleep with an undetermined wake-up time when the trigger area for activating the notification function is not activated.
구체적인 예를 들어, 기상 예정시간이 정해지지 않은 상태에서의 수면 측정에 부합되는 정보 제공 사용자 인터페이스(20620)는 "30분 이상 자면 레포트를 받을 수 있어요"와 같은 수면 측정 결과를 받기 위한 정보를 제공하는 문구의 형태로 제공될 수 있다. 또는, 기상 예정시간이 정해지지 않은 상태에서의 수면 측정에 부합되는 정보 제공 사용자 인터페이스(20620)는 "가장 좋은 수면 시간은 7시간 이에요!"와 같은 기상 예정시간이 정해지지 않을 때 에 필요한 정보를 제공하는 형태일 수 있다. 또는 "내일은 주말이군요! 평일보다 잠을 더 자도 되겠어요!"와 같은 문구의 형태로 제공될 수도 있으나, 이는 예시에 불과하므로 이에 한정되는 것은 아니다. As a specific example, the user interface 20620 provides information suitable for sleep measurement in a state where the scheduled wake-up time is not set, and provides information for receiving sleep measurement results such as “You can receive a report if you sleep for more than 30 minutes.” It may be provided in the form of phrases. Alternatively, the user interface 20620, which provides information suitable for sleep measurement in a state where the scheduled wake-up time is not set, provides information necessary when the scheduled wake-up time is not set, such as “The best sleep time is 7 hours!” It may be in the form. Or, it may be provided in the form of phrases such as “Tomorrow is the weekend! I can sleep more than on weekdays!”, but this is only an example and is not limited to this.
도 20b에 도시된 바와 같이, 도 20b의 (a)는 알람 기능 트리거가 활성화되지 않은 상태에서 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20640a)가 제공되는 것을 나타낸 도면이고, 도 20a의 (b)는 알람 기능 트리거가 활성화되지 않은 상태에서 수면 측정 중 사용자의 수면 음향 정보의 제2 파동을 나타내는 사용자 인터페이스(20640b)를 나타낸 도면이다. As shown in FIG. 20B, (a) of FIG. 20B is a diagram showing that a user interface 20640a is provided indicating the first wave of the user's sleep sound information during sleep measurement in a state in which the alarm function trigger is not activated. , FIG. 20A (b) is a diagram illustrating the user interface 20640b showing the second wave of the user's sleep sound information during sleep measurement in a state in which the alarm function trigger is not activated.
알람 기능 트리거가 활성화되지 않은 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20640a)와 알람 기능 트리거가 활성화되지 않은 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제2 파동을 나타내는 사용자 인터페이스(20640b)는 사용자의 사용자 단말 기종에 따라 다르게 제공될 수 있으며, 알람 기능 트리거가 활성화되지 않은 상태에서의 수면 측정 중 사용자의 수면 음향 정보의 제2 파동을 나타내는 사용자 인터페이스(20640b)는 사용자의 수면 음향의 크기에 따라 복수의 파동의 진폭들이 모두 똑같이 크기가 변하고 작아지는 것이 특징이며, 사용자 단말의 기종, 구체적으로 스마트폰의 기종에 따라 다르게 제공될 수 있다. A user interface 20640a representing the first wave of the user's sleep sound information during sleep measurement without the alarm function trigger being activated and the first wave of the user's sleep sound information during sleep measurement without the alarm function trigger being activated. The user interface (20640b) representing the second wave may be provided differently depending on the user's user terminal model, and may be a user interface (20640b) representing the second wave of the user's sleep sound information during sleep measurement when the alarm function trigger is not activated ( 20640b) is characterized in that the amplitudes of a plurality of waves all change in size and become smaller depending on the size of the user's sleeping sound, and may be provided differently depending on the model of the user terminal, specifically the model of the smartphone.
도 20b에 도시되는 바와 같이, 본 발명의 일 실시 형태에 따르면, 사용자가 알람 기능을 트리거링하여 활성화시키지 않는 경우, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19250)가 제공될 수 있으며, 알람 기능 트리거 비활성화 상태에서의 수면 측정을 개시하는 사용자 인터페이스(19250)를 통해 수면 측정 개시를 입력받으면, 알람 기능 트리거가 활성화되지 않은 상태에서, 수면 측정 중임을 나타내는 문구 또는 이모티콘 또는 문구와 이모티콘을 나타내는 사용자 인터페이스(20610)가 제공될 수 있으며, 이와 동시에, 알람 기능 트리거가 활성화되지 않은 상태에서 수면 측정 중 사용자의 수면 음향 정보의 제1 파동을 나타내는 사용자 인터페이스(20640a)가 제공될 수 있으며, 기상 예정시간이 정해지지 않은 상태에서의 수면 측정에 부합되는 정보 제공 사용자 인터페이스(20620)가 제공될 수 있으며, 알람 기능 트리거가 활성화되지 않은 상태에서의 수면 측정 중 수면 측정을 중단하기 위한 사용자 인터페이스(20630)가 제공될 수 있다. As shown in FIG. 20B, according to one embodiment of the present invention, if the user does not activate the alarm function by triggering, a user interface 19250 may be provided to initiate sleep measurement in the alarm function trigger deactivated state. When the start of sleep measurement is received through the user interface 19250, which starts sleep measurement with the alarm function trigger disabled, a phrase or emoticon or a phrase and emoticon indicating that sleep measurement is in progress is displayed while the alarm function trigger is not activated. A user interface 20610 representing may be provided, and at the same time, a user interface 20640a may be provided representing the first wave of the user's sleep acoustic information during sleep measurement while the alarm function trigger is not activated, An information providing user interface (20620) suitable for sleep measurement in a state where the scheduled wake-up time is not set may be provided, and a user interface (20630) for stopping sleep measurement during sleep measurement in a state in which an alarm function trigger is not activated. ) can be provided.
본 발명에 따르면, 알람 기능 트리거가 활성화되지 않은 상태에서의 수면 측정 중 수면 측정을 중단하기 위한 사용자 인터페이스(20630)는 "일어나기"의 문구를 나타내는 형태로 제공될 수 있으며, 알람 기능 트리거가 활성화되지 않은 상태에서의 수면 측정 중 수면 측정을 중단하기 위한 사용자 인터페이스(20630)는 "기상하기"의 문구를 나타내는 형태로 제공될 수 있다. 또한, "기상하러 가기"의 문구를 나타내는 형태로 제공될 수 있으며, "수면 측정 종료하기"의 문구를 나타내는 형태로도 제공될 수 있으나 이는 예시에 불과하므로 이에 한정되는 것은 아니다. According to the present invention, the user interface 20630 for stopping sleep measurement during sleep measurement in a state in which the alarm function trigger is not activated may be provided in the form of indicating the phrase “wake up” and the alarm function trigger is not activated. The user interface 20630 for stopping sleep measurement during sleep measurement in a sleep state may be provided in a form that represents the phrase “wake up.” In addition, it may be provided in a form that represents the phrase "Go to wake up" and may also be provided in a form that represents the phrase "End sleep measurement," but this is only an example and is not limited thereto.
도 21과 관련된 실시예Embodiment related to Figure 21
도 21은 본 발명에 따른 사용자의 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간을 확인할 수 있도록 정보를 제공하는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 21 is a diagram illustrating a graphical user interface that provides information to confirm the user's expected sleep time according to the present invention when the user's expected sleep time is more than a predetermined time.
본 발명에 따르면, 그래픽 사용자 인터페이스 생성 단계는 수면 예상 시간이 소정의 시간을 초과하는 경우, 수면 예상 시간을 확인할 수 있도록 팝업창을 나타내는 그래픽 사용자 인터페이스 생성 단계를 포함할 수 있다. According to the present invention, the step of creating a graphical user interface may include a step of creating a graphical user interface that displays a pop-up window to confirm the expected sleep time when the expected sleep time exceeds a predetermined time.
구체적인 예를 들어, 알람 기능 트리거 활성화 상태에서의 수면 예상 시간 정보를 제공하는 사용자 인터페이스(19140)에 나타나는 시간이 12시간을 초과하는 경우, 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창 사용자 인터페이스(21700)를 제공할 수 있다. 다만, 12시간을 초과하는 경우에 한정되는 것은 아니며, 소정의 시간을 초과하는 경우에도 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창 사용자 인터페이스(21700)를 제공할 수 있다.For a specific example, if the time displayed in the user interface 19140 that provides information on the estimated sleep time with the alarm function trigger activated exceeds 12 hours, and if the estimated sleep time is more than a predetermined time, check the expected sleep time. A pop-up window user interface 21700 may be provided for the user interface. However, the case is not limited to exceeding 12 hours, and even if the estimated sleep time exceeds the predetermined time, a pop-up user interface 21700 may be provided to confirm the estimated sleep time.
본 발명의 일 실시 형태에 따르면, 수면 예상 시간 확인을 위한 팝업창 사용자 인터페이스(21700)는 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창을 설명하는 사용자 인터페이스(21710)를 포함할 수 있다. 예를 들어, 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창을 설명하는 사용자 인터페이스(21710)는 "수면 시간 확인"의 문구를 제공하는 형태일 수 있다. 또한, 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창을 설명하는 사용자 인터페이스(21710)는 "예상 수면 시간이 조금 길어요!"와 같은 문구를 제공하여 사용자가 다시 한번 설정된 기상 희망 시각을 확인하도록 유도하는 정보를 제공하는 형태일 수 있다. According to one embodiment of the present invention, the pop-up window user interface 21700 for checking the expected sleep time may include a user interface 21710 that describes a pop-up window for checking the expected sleep time when the expected sleep time is more than a predetermined time. You can. For example, when the expected sleep time is more than a predetermined time, the user interface 21710 explaining a pop-up window for checking the expected sleep time may be in the form of providing the phrase “Confirm sleep time.” In addition, when the estimated sleep time is more than a predetermined time, the user interface 21710, which describes a pop-up window for checking the expected sleep time, provides phrases such as “The estimated sleep time is a little long!” so that the user can once again set the wake-up wish. It may be in the form of providing information that leads to checking the time.
본 발명의 일 실시 형태에 따르면, 수면 예상 시간 확인을 위한 팝업창 사용자 인터페이스(21700)는 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창을 설명하는 사용자 인터페이스(21710)를 포함할 수 있으며, 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창에서 기상 희망 시간에 대해 질문하는 문구를 나타내는 사용자 인터페이스(21720)를 포함할 수 있다. According to one embodiment of the present invention, the pop-up window user interface 21700 for checking the expected sleep time may include a user interface 21710 that describes a pop-up window for checking the expected sleep time when the expected sleep time is more than a predetermined time. When the expected sleep time is more than a predetermined time, a user interface 21720 may be included that displays a question about the desired wake-up time in a pop-up window for confirming the expected sleep time.
본 발명에 따르면, 수면 예상 시간 확인을 위한 팝업창에서 기상 희망 시간에 대해 질문하는 문구를 나타내는 사용자 인터페이스(21720)는 "예상 수면 시간은 00시 00분입니다. 설정한 시간이 맞나요?"의 문구의 형태로 제공될 수 있다. 또한, 수면 예상 시간 확인을 위한 팝업창에서 기상 희망 시간에 대해 질문하는 문구를 나타내는 사용자 인터페이스(21720)는 "예상 수면 시간이 조금 길어요! 원하는 알람 시간이 오전 00시 00분이 맞나요??"의 문구의 형태로 제공될 수 있다. 또한, "예상 수면 시간이 00시간이 넘어요. 오늘은 잠을 많이 자고 싶은 날인가봐요!"의 문구의 형태로 제공될 수 있으나, 이는 예시에 불과하므로 이에 한정되는 것은 아니다. According to the present invention, the user interface 21720, which displays a phrase asking about the desired wake-up time in a pop-up window for checking the expected sleep time, contains the phrase "The estimated sleep time is 00:00. Is the time set correct?" It can be provided in the form In addition, the user interface 21720, which displays a question about the desired wake-up time in a pop-up window for checking the expected sleep time, contains the phrase "The estimated sleep time is a little long! Is the desired alarm time 00:00 AM??" It can be provided in the form In addition, it may be provided in the form of a phrase such as "The estimated sleep time is over 00 hours. I think today is a day when I want to sleep a lot!", but this is only an example and is not limited to this.
본 발명의 일 실시 형태에 따르면, 수면 예상 시간 확인을 위한 팝업창 사용자 인터페이스(21700)는 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창을 설명하는 사용자 인터페이스(21710)를 포함할 수 있으며, 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창에서 기상 희망 시간을 재설정하기 위한 사용자 인터페이스(21730) 또는 수면 예상 시간이 소정의 시간 이상인 경우, 수면 예상 시간 확인을 위한 팝업창에서 기설정한 기상 희망 시간을 유지하기 위한 사용자 인터페이스(21740)을 더 포함할 수 있다. According to one embodiment of the present invention, the pop-up window user interface 21700 for checking the expected sleep time may include a user interface 21710 that describes a pop-up window for checking the expected sleep time when the expected sleep time is more than a predetermined time. If the expected sleep time is more than a predetermined time, a user interface (21730) for resetting the desired wake-up time in a pop-up window to check the expected sleep time, or if the expected sleep time is more than a predetermined time, a user interface (21730) for checking the expected sleep time A user interface 21740 for maintaining the desired wake-up time preset in the pop-up window may be further included.
본 발명에 따르면, 수면 예상 시간 확인을 위한 팝업창에서 기상 희망 시간을 재설정하기 위한 사용자 인터페이스(21730)는 "다시 설정"의 문구의 형태로 제공될 수 있으며, "다시 설정하러 가기"의 문구의 형태로도 제공될 수 있다. 또한, "알람 설정 다시 하기"의 문구의 형태로도 제공될 수 있으나, 이는 예시에 불과하다. According to the present invention, the user interface 21730 for resetting the desired wake-up time in a pop-up window for checking the expected sleep time may be provided in the form of the phrase “reset” and the phrase “go to reset”. It can also be provided as . Additionally, it may be provided in the form of a phrase such as “Reset alarm settings,” but this is only an example.
본 발명에 따르면, 수면 예상 시간 확인을 위한 팝업창에서 기설정한 기상 희망 시간을 유지하기 위한 사용자 인터페이스(21740)는 "네, 맞아요"의 문구의 형태로 제공될 수 있으며, "시간이 맞아요!"의 문구의 형태로도 제공될 수 있고, "네, 자러 갈래요"의 문구의 형태로도 제공될 수 있으나, 이에 한정되지 않는다. According to the present invention, the user interface 21740 for maintaining the desired wake-up time set in the pop-up window for confirming the expected sleep time may be provided in the form of the phrase "Yes, that's right" and "The time is right!" It may be provided in the form of a phrase such as “Yes, I want to go to bed,” but it is not limited to this.
도 22에 도시된 바와 같이, 사용자가 알람 기능을 트리거링하여 활성화시키는 경우, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)가 제공될 수 있으며, 알람 기능 트리거 활성화 상태에서의 알람창 사용자 인터페이스(19101)는 알람 기능 트리거 활성화 상태에서의 수면 예상 시간 정보를 제공하는 사용자 인터페이스(22140)를 포함할 수 있고, 수면 예상 시간이 소정의 시간 미만인 경우, 수면 예상 시간이 소정의 시간 미만인 경우, 수면 측정에 부합되는 정보 제공 사용자 인터페이스(22202)가 제공될 수 있다. As shown in FIG. 22, when the user triggers and activates the alarm function, an alarm window user interface 19101 in the alarm function trigger activation state may be provided, and the alarm window user interface 19101 in the alarm function trigger activation state may be provided. (19101) may include a user interface (22140) that provides information on the expected sleep time in an alarm function trigger activation state, and when the expected sleep time is less than a predetermined time, when the expected sleep time is less than a predetermined time, sleep An informational user interface 22202 may be provided consistent with the measurement.
구체적인 예를 들어, 사용자 수면 예상 시간이 30분 미만, 예를 들어, 3분인 경우, 수면 측정에 부합되는 정보 제공 사용자 인터페이스(22202)는 "27분만 더 자면 리포트를 받을 수 있어요"의 문구의 형태로 제공될 수 있다. As a specific example, if the user's estimated sleep time is less than 30 minutes, e.g., 3 minutes, the information providing user interface 22202 consistent with the sleep measurement may be in the form of the phrase "Sleep 27 more minutes and you can get a report." It can be provided as .
알람 제공 방법How to provide an alarm
도 23은 본 발명에 따른 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법을 설명하기 위한 도면이다.Figure 23 is a diagram for explaining a method of providing an alarm based on the user's sleep state information according to the present invention.
도 23에 도시된 바와 같이, 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법은 하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 음향 정보를 포함하는 사용자의 수면 정보를 수신하는 수면 정보 수신 단계(S2310), 수신된 사용자의 수면 정보에 기초하여 사용자의 평균 수면 시간 정보를 포함하는 사용자의 수면 상태 정보를 획득하는 수면 상태 정보 획득 단계(S2320), 기상 희망 시각 정보를 수신하기 위한 기상 희망 시각 정보를 수신하는 단계(S2330), 획득된 수면 상태 정보 및 상기 수신된 기상 희망 시각 정보에 기초하여 알람 시점 정보를 생성하는 알람 시점 정보 생성 단계(S2340) 및 생성된 알람 시점 정보에 기초하여 알람음을 제공하는 알람음 제공 단계(S2350) 를 포함할 수 있다. As shown in FIG. 23, the method of providing an alarm based on the user's sleep state information includes a sleep information receiving step of receiving the user's sleep information including the user's sleep sound information from one or more sleep information sensor devices ( S2310), a sleep state information acquisition step of acquiring the user's sleep state information including the user's average sleep time information based on the received user's sleep information (S2320), desired wake-up time information for receiving desired wake-up time information A receiving step (S2330), an alarm time information generating step (S2340) of generating alarm time information based on the acquired sleep state information and the received desired wake-up time information, and an alarm sound based on the generated alarm time information. It may include an alarm sound providing step (S2350).
이하, 획득된 수면 상태 정보 및 상기 수신된 기상 희망 시각 정보에 기초하여 알람 시점 정보를 생성하는 알람 시점 정보 생성 단계(S2340)에 대하여 자세하게 서술한다. Hereinafter, the alarm timing information generation step (S2340) of generating alarm timing information based on the acquired sleep state information and the received desired wake-up time information will be described in detail.
본 발명에 따르면, 수면 상태 정보 획득 단계(S2320)에서 기상 희망 시각 정보를 포함하는 범위의 시간 내에서 사용자가 렘(REM) 수면임을 나타내는 수면 상태 정보를 획득한 경우, 알람 시점 정보 생성 단계(S2340)는 수면 상태 정보를 기초로 알람 시점 정보를 생성할 수 있다. According to the present invention, if sleep state information indicating that the user is in REM sleep is obtained within a time range including the desired wake-up time information in the sleep state information acquisition step (S2320), the alarm time information generation step (S2340) ) can generate alarm timing information based on sleep state information.
구체적으로, 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법에서, 상기 기상 희망 시각 정보를 포함하는 범위의 시간은 상기 기상 희망 시각으로부터 소정의 시간 전부터 상기 기상 희망 시각까지의 시간을 포함하고, 상기 범위의 시간 내에서 사용자가 렘 수면임을 나타내는 수면 상태 정보를 획득하지 못한 경우, 상기 기상 희망 시각으로 상기 알람 시점 정보를 생성할 수 있다. Specifically, in the method of providing an alarm based on the user's sleep state information, the time range including the desired wake-up time information includes the time from a predetermined time before the desired wake-up time to the desired wake-up time; , If sleep state information indicating that the user is in REM sleep is not obtained within the above range of time, the alarm time information may be generated at the desired wake-up time.
예를 들어, 기상 희망 시각이 오전 8시 36분인 경우, 상기 범위는 기상 희망 시각인 오전 8시 36분으로부터 소정의 시간인 30분 전까지의 시간, 즉, 오전 8시06분부터 오전 8시 36분까지의 범위를 의미하고, 오전 8시06분부터 오전 8시 36분까지의 시간 중 사용자의 렘 수면이 측정되지 않은 경우, 오전 8시 36분에 알람 시점 정보를 생성할 수 있다. For example, if the desired wake-up time is 8:36 a.m., the above range is the time from 8:36 a.m., the desired wake-up time, to a predetermined time, 30 minutes before, that is, from 8:06 a.m. to 8:36 a.m. It refers to the range from minute to minute, and if the user's REM sleep is not measured during the period from 8:06 a.m. to 8:36 a.m., alarm time information can be generated at 8:36 a.m.
본 발명에 따르면, 사용자의 수면 상태 정보를 기초로 하는 알람을 제공하는 방법은 상기 기상 희망 시각 정보를 포함하는 범위의 시간은 상기 기상 희망 시각으로부터 소정의 시간 전부터 상기 기상 희망 시각까지의 시간을 포함하고, 상기 범위의 시간 내에서 사용자가 렘 수면임을 나타내는 수면 상태 정보를 획득한 경우, 상기 렘 수면임을 나타내는 수면 상태 정보 획득 시점으로 상기 알람 시점 정보를 생성할 수 있다. According to the present invention, in the method of providing an alarm based on the user's sleep state information, the time range including the desired wake-up time information includes the time from a predetermined time before the desired wake-up time to the desired wake-up time. And, if the user acquires sleep state information indicating that the user is in REM sleep within the above range of time, the alarm time information may be generated at the time of acquisition of sleep state information indicating that the user is in REM sleep.
예를 들어, 기상 희망 시각이 오전 8시 36분인 경우, 상기 범위는 기상 희망 시각인 오전 8시 36분으로부터 소정의 시간인 30분 전까지의 시간, 즉, 오전 8시06분부터 오전 8시 36분까지의 범위를 의미하고, 오전 8시06분부터 오전 8시 36분까지의 시간 중 사용자의 렘 수면이 오전 8시 10분에 측정된 경우, 오전 8시 10분 또는 오전 8시 10분으로부터 소정의 시간 경과 후에 알람 시점 정보를 생성할 수 있다. For example, if the desired wake-up time is 8:36 a.m., the above range is the time from 8:36 a.m., the desired wake-up time, to a predetermined time, 30 minutes before, that is, from 8:06 a.m. to 8:36 a.m. Means a range of minutes, from 8:06 a.m. to 8:36 a.m., if the user's REM sleep was measured at 8:10 a.m., from 8:10 a.m. or 8:10 a.m. Alarm time information can be generated after a predetermined time has elapsed.
도 24a는 본 발명의 AI 알람을 설정하지 않은 경우를 힙노그램을 통해 설명하기 위한 도면이다. 도 24b는 본 발명의 AI 알람을 설정한 경우를 힙노그램을 통해 설명하기 위한 도면이다. Figure 24a is a diagram for explaining the case where the AI alarm of the present invention is not set using a hypnogram. Figure 24b is a diagram for explaining the case of setting the AI alarm of the present invention through a hypnogram.
도 24a에 도시된 바와 같이, AI 알람을 설정하지 않은 경우, 사용자 기상 희망 시각 정보의 시각으로부터 30분 전에 사용자의 수면 상태 정보가 사용자가 렘 수면임을 나타내더라도, 렘 수면임을 나타낸 시점을 지나쳐서, 사용자가 일반잠인 상태 즉, NREM 단계에서 WAKE가 발생함을 알 수 있다. As shown in Figure 24a, when the AI alarm is not set, even if the user's sleep status information indicates that the user is in REM sleep 30 minutes before the time of the user's desired wake-up time information, the user wakes up past the point indicating that the user is in REM sleep. It can be seen that WAKE occurs in the normal sleep state, that is, the NREM stage.
도 24b에 도시된 바와 같이, AI 알람을 설정한 경우, 사용자 기상 희망 시각 정보의 시각으로부터 30분 전에 사용자의 수면 상태 정보가 사용자의 렘 수면임을 나타낸 경우, 사용자 기상 희망 시각 정보의 시각에 도달하지 못했더라도, 사용자의 렘 수면 시점을 알람 시점 정보로 설정할 수 있다. 다만, 렘 수면 시점으로부터 소정의 시간 이후의 시점을 알람 시점 정보로 설정할 수도 있다. As shown in Figure 24b, when an AI alarm is set and the user's sleep status information indicates that the user is in REM sleep 30 minutes before the time of the user's desired wake-up time information, the time of the user's desired wake-up time information is not reached. Even if you can't, you can set the user's REM sleep time as alarm time information. However, a time point a predetermined time after the REM sleep time point may be set as the alarm time information.
본 발명의 또다른 일 실시 형태에 따르면, 사용자 기상 희망 시각 정보의 시각으로부터 30분 전에 사용자 렘 수면이 지속되다가, 사용자의 수면 단계가 렘 수면이 아닌 다른 수면 단계임을 나타내는 시점이 나타나는 경우, 해당 시점을 알람 시점 정보로 설정할 수도 있다. 구체적인 예를 들어, 사용자 기상 희망 시각 정보의 시각이 오전 8시 30분인 경우, 그로부터 30분 전인 오전 8시부터 오전 8시 30분 사이인 오전 8시 10분에 렘 수면이 감지되었다면, 오전 8시 20분에 사용자의 수면 상태 정보가 일반잠을 나타낸다면, 오전 8시20분의 시점을 알람 시점 정보로 설정할 수도 있다. According to another embodiment of the present invention, if the user's REM sleep continues 30 minutes before the time of the user's desired wake-up time information, and a time point appears indicating that the user's sleep stage is a sleep stage other than REM sleep, at that point You can also set it as alarm timing information. For example, if the time in the user's desired wake-up time information is 8:30 a.m., and REM sleep was detected at 8:10 a.m., between 8:00 a.m. and 8:30 a.m., 30 minutes before then, 8:00 a.m. If the user's sleep status information at 20 minutes indicates a normal sleep, the time point of 8:20 a.m. can be set as the alarm time information.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자 기상 희망 시각 정보의 시각으로부터 30분 전에 사용자의 수면 상태 정보가 사용자가 렘 수면임을 나타내는 경우, 사용자가 렘 수면임을 나타내는 상기 수면 상태 정보의 신뢰도(confidence)가 낮아진 경우, 상기 수면 상태 정보의 신뢰도가 낮아진 시점으로 상기 알람 시점 정보를 설정할 수 있다. According to another embodiment of the present invention, when the user's sleep state information indicates that the user is in REM sleep 30 minutes before the time of the user's desired wake-up time information, the confidence of the sleep state information indicating that the user is in REM sleep is ) is lowered, the alarm time information can be set to the point in time when the reliability of the sleep state information is lowered.
도 25a 힙노그램을 포함한 그래픽 사용자 인터페이스Figure 25a Graphical user interface including hypnogram
도 25a는 본 발명의 일 실시예에 따른 힙노그램을 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.Figure 25a is a diagram showing a graphical user interface including a hypnogram according to an embodiment of the present invention.
본 발명의 실시예에 따른 힙노그램을 포함하는 그래픽 사용자 인터페이스에는, 참조번호 25101로 표시된 바와 같이, “수면 단계”라는 문구가 함께 표시될 수 있다.In a graphical user interface including a hypnogram according to an embodiment of the present invention, the phrase “sleep stage” may be displayed together, as indicated by reference number 25101.
본 발명의 일 실시예에 따르면, 힙노그램은 x축은 시간(참조번호 25114), y축은 수면 단계 정보로 표현되는 것으로서, 각 수면 단계 정보에 대응되는 도형을 포함할 수 있다.According to one embodiment of the present invention, the hypnogram is expressed as time (reference number 25114) on the x-axis and sleep stage information on the y-axis, and may include shapes corresponding to each sleep stage information.
도 25a에 따르면, 본 발명의 일 실시예에 따른 수면 단계 정보는 총 4단계로, 각각의 수면 단계 정보에 할당된 복수의 영역을 포함할 수 있다. 예컨대, 깸 단계에 할당된 영역(참조번호 25102), 렘수면 단계에 할당된 영역(참조번호 25103), 얕은 잠(또는 '일반 잠') 단계에 할당된 영역(참조번호 25104), 깊은 잠 단계에 할당된 영역(참조번호 25105)으로 나뉘어 표현될 수 있다.According to FIG. 25A, sleep stage information according to an embodiment of the present invention has a total of four stages and may include a plurality of areas allocated to each sleep stage information. For example, an area allocated to the waking stage (reference number 25102), an area allocated to the REM sleep stage (reference number 25103), an area allocated to the light sleep (or 'normal sleep') stage (reference number 25104), and an area allocated to the deep sleep stage. It can be expressed divided into allocated areas (reference number 25105).
본 발명의 일 실시예에 따르면, 각 수면 단계 정보에 대응되는 도형의 색이 서로 다르게 표현될 수 있다. 예컨대, 깊은 잠 단계에 대응되는 도형의 색은 다른 도형보다 상대적으로 어두운 계열의 색일 수 있다(참조번호 25113). 또는, 렘 수면 단계에 대응되는 도형의 색은 다른 도형보다 상대적으로 밝은 색일 수 있다(참조번호 25111). According to one embodiment of the present invention, the colors of shapes corresponding to each sleep stage information may be expressed differently. For example, the color of the shape corresponding to the deep sleep stage may be a relatively darker color than other shapes (reference number 25113). Alternatively, the color of the shape corresponding to the REM sleep stage may be relatively brighter than other shapes (reference number 25111).
또는, 본 발명의 실시예들에 따르면, 각 수면 단계 정보에 대응되는 도형들 및 배경의 색상은 색공간상의 서로 다른 위치에 표현되는 색상일 수 있다.Alternatively, according to embodiments of the present invention, the colors of the figures and background corresponding to each sleep stage information may be colors expressed at different positions in the color space.
예를 들어, 본 발명의 일 실시예에 따르면, 배경은 검은 계열의 색상으로 표현되고, 깊은 잠 단계에 대응되는 도형은 상대적으로 진한 파란색 계열, 얕은 잠 또는 일반 잠 단계에 대응되는 도형은 상대적으로 연한 파란색 계열(참조번호 25112), 렘 수면 단계에 대응되는 도형은 보라색 계열, 깸 단계에 대응되는 도형은 노란색 계열의 색상으로 표현될 수 있다.For example, according to one embodiment of the present invention, the background is expressed in a black color, the shapes corresponding to the deep sleep stage are relatively dark blue, and the shapes corresponding to the light sleep or normal sleep stages are relatively dark blue. The shape corresponding to the REM sleep stage can be expressed in a light blue color (reference number 25112), the shape corresponding to the REM sleep stage can be expressed in a purple color, and the figure corresponding to the waking stage can be expressed in a yellow color.
본 발명의 실시예들에 따르면, 수면 단계 정보에 대응되는 도형은 서로 이산적으로(discretely) 표현되는 도형일 수 있다. According to embodiments of the present invention, shapes corresponding to sleep stage information may be shapes expressed discretely.
본 발명에서 '이산적으로 표현되는 도형'이라는 의미는, 각각의 도형이 서로 실선이나 점선 등으로 연결되어 있지 않다는 것을 의미할 수 있다.In the present invention, the meaning of 'discretely expressed figures' may mean that each figure is not connected to each other by solid lines or dotted lines.
또한, 본 발명의 일 실시예에 따라 도형이 이산적으로 표현된다는 것에는, 종래 기술과 달리, 서로 다른 수면 단계에 대응되는 도형이 서로 하나의 교점만을 공유하고 있는 경우가 있을 수 있다.In addition, in that shapes are expressed discretely according to an embodiment of the present invention, unlike the prior art, there may be cases where shapes corresponding to different sleep stages share only one intersection with each other.
또한, 본 발명의 일 실시예에 따라 도형이 이산적으로 표현된다는 것에는, 각각이 복수의 수면 단계에 대응되는 복수의 도형들을 포함하되, 복수의 도형 중 적어도 하나의 도형은 나머지 도형들과 분리(isolated)되어 있다는 의미를 포함할 수 있다.In addition, according to an embodiment of the present invention, the fact that shapes are expressed discretely means that they each include a plurality of shapes corresponding to a plurality of sleep stages, and at least one of the plurality of shapes is separated from the remaining shapes. It may include the meaning of being (isolated).
수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스Graphical user interface presenting information about sleep
본 발명에 따르면, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스가 제공될 수 있다.According to the present invention, a graphical user interface that displays information about the user's sleep can be provided.
도 30a 내지 도 30c는 본 발명의 실시예들에 따른 그래픽 사용자 인터페이스가 다양한 디스플레이부에 표시되는 양태를 나타낸 도면이다.Figures 30A to 30C are diagrams illustrating a graphical user interface displayed on various display units according to embodiments of the present invention.
도 30a 내지 도 30c에 도시된 바와 같이, 본 발명의 실시예들에 따르면, 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스는 다양한 형태의 디스플레이로 구현되는 전자장치 또는 사용자 단말에서 표시될 수 있다.As shown in FIGS. 30A to 30C, according to embodiments of the present invention, a graphic user interface representing information about the user's sleep may be displayed on an electronic device or user terminal implemented with various types of displays.
이하, 본 발명의 실시예들에 따른 수면에 관한 정보를 나타내는 그래프를 포함하는 그래픽 사용자 인터페이스를 도면을 활용하여 설명하기로 한다.Hereinafter, a graphical user interface including a graph representing information about sleep according to embodiments of the present invention will be described using drawings.
도 31a 내지 도 31e에 도시한 바와 같이, 종래의 수면 측정 인터페이스에 포함되는 힙노그램 그래프에서는, 수면 단계를 나타내는 도형이 서로 떨어져있더라도 도형 간의 점선이나 실선 등의 선으로 각 도형이 서로 연결되도록 표시하는 경우가 있었다. As shown in FIGS. 31A to 31E, in the hypnogram graph included in the conventional sleep measurement interface, even if the figures representing the sleep stages are separated from each other, each figure is displayed to be connected to each other by lines such as dotted or solid lines between the figures. There was a case.
예를 들어, 도 31a 내지 도 31e로부터 알 수 있듯이, 종래의 기술은 수면 단계를 나타내는 그래프를 표현함에 있어서, 제1 수면 단계와 제2 수면 단계 사이의 변화가 발생하였을 때, 이를 이산적으로 표현하지 않고 연속적으로 표현하는 경우가 있었다. For example, as can be seen from FIGS. 31A to 31E, in the prior art, in expressing a graph representing sleep stages, when a change occurs between the first sleep stage and the second sleep stage, it is expressed discretely. There were cases where it was expressed continuously without doing so.
또한, 도 31e에 도시한 바와 같이, 각 도형의 교점이 서로 존재하지 않더라도, 각 도형간 연속성이 존재한다는 것을 표현하기 위하여, 제1 도형의 끝 부분을 표시하는 점과 제2 도형의 시작 부분을 표시하는 점 사이를 선(점선 또는 실선)으로 연결하는 경우가 있었다.In addition, as shown in Figure 31e, in order to express the existence of continuity between the shapes even if the intersection points of each shape do not exist, a point marking the end of the first shape and the beginning of the second shape are used. There were cases where lines (dotted or solid lines) were used to connect the marked points.
그러나, 이러한 연속적인 그래프를 통한 힙노그램의 표현은 제1 수면 단계에서 제2 수면 단계로 전환되는 과정에서 또 다른 수면 단계를 거쳐야만 한다는 오해를 불러일으킬 우려가 존재하였다. 수면 단계 분석에서는 수면 단계 간의 전환 패턴이 중요한데, 연속적인 힙노그램의 표현은 이러한 수면 단계 간의 전환 패턴을 정확하게 표현하기 어려울 수 있다.However, there was a concern that the representation of the hypnogram through this continuous graph could lead to a misunderstanding that another sleep stage must be passed in the process of converting from the first sleep stage to the second sleep stage. In sleep stage analysis, the transition pattern between sleep stages is important, but the representation of a continuous hypnogram may be difficult to accurately represent the transition pattern between these sleep stages.
본 발명에 따르면, 종래 기술과 달리, 본 발명의 일 실시예에 따라 각각의 수면 단계 정보에 대응되는 도형을 이산적으로(discretely) 표현하는 경우에는 제1 수면 단계에서 제2 수면 단계로 전환되는 과정에서 다른 수면 단계를 거쳐야만 한다는 오해를 줄일 수 있다는 효과가 있다.According to the present invention, unlike the prior art, when the figure corresponding to each sleep stage information is expressed discretely according to an embodiment of the present invention, the transition from the first sleep stage to the second sleep stage is performed. This has the effect of reducing the misunderstanding that one must go through different sleep stages in the process.
또한, 제1 수면 단계에서 제2 수면 단계로 전환되는 과정에서, 반드시 다른 수면 단계를 거쳐야만 하는 것은 아니므로, 각 수면 단계 정보에 대응되는 도형을 이산적으로 표현하는 경우에는 수면 단계 사이의 전환을 직관적으로 이해할 수 있다는 장점이 있다.In addition, in the process of switching from the first sleep stage to the second sleep stage, it is not necessary to go through another sleep stage, so when the shapes corresponding to each sleep stage information are expressed discretely, the transition between sleep stages is not possible. It has the advantage of being intuitively understandable.
예컨대, 도 25a의 참조번호 25110로 표시된 도형(깸 단계에 대응하는 도형)을 참고하면, 얕은 잠(일반 잠) 단계에서 깸 단계로 전환되었다가 다시 얕은 잠(일반 잠) 단계로 전환되는데, 이러한 수면 단계의 전환 또는 변화를 '연속적인' 힙노그램 그래프로 표현하는 경우에는, 수면 단계가 전환될 때 렘 수면 단계를 거쳐야만 한다는 오해를 불러일으킬 수 있지만, 본 발명에 따라 '이산적인' 힙노그램 그래프로 표현하는 경우에는 이러한 오해를 줄일 수 있는 것이다.For example, referring to the figure indicated by reference number 25110 in FIG. 25A (a figure corresponding to the waking stage), the light sleep (normal sleep) stage is switched to the waking stage and then switched back to the light sleep (normal sleep) stage. If the transition or change of sleep stages is expressed as a 'continuous' hypnogram graph, it may lead to the misunderstanding that the REM sleep stage must be passed when the sleep stage is switched, but according to the present invention, a 'discrete' hypnogram graph is used. If expressed as , such misunderstandings can be reduced.
또한, 힙노그램에서 각 수면 단계 정보에 대응되는 도형을 이산적으로 표현할 때, 각 수면 단계의 빈도를 명확하게 표현하므로, 특정 구간에 속하는 수면 단계의 빈도를 직접 확인할 수 있으며, 각 수면 단계의 상대적인 비중을 파악하기에 용이할 수 있다. 이는 수면 패턴의 특징이나 이상(abnormality)을 파악하는 데에 도움이 될 수 있다.In addition, when the shape corresponding to each sleep stage information is expressed discretely in the hypnogram, the frequency of each sleep stage is clearly expressed, so the frequency of the sleep stage belonging to a specific section can be directly confirmed, and the relative frequency of each sleep stage can be checked. It can be easy to understand the proportion. This can help identify features or abnormalities in your sleep pattern.
한편, 본 발명의 일 실시예에 따르면, 수면 단계 정보에 대응되는 도형은 사다리꼴, 등변사다리꼴, 연꼴, 평행사변형, 마름모, 직사각형, 정사각형, 그 밖의 일반적인 사각형 중 적어도 하나 이상의 도형으로 표현될 수 있다. 바람직하게는, 직사각형으로 표현될 수 있다.Meanwhile, according to an embodiment of the present invention, the shape corresponding to the sleep stage information may be expressed as at least one shape selected from the group consisting of a trapezoid, an equilateral trapezoid, a kite, a parallelogram, a rhombus, a rectangle, a square, and other general quadrangles. Preferably, it can be expressed as a rectangle.
도 25a에 도시된 바와 같이, 복수의 수면 단계 정보들은 복수의 직사각형들로 표현될 수 있다. 이 때, 복수의 직사각형들 중 적어도 하나는 도 25a의 참조번호 25110으로 표시된 직사각형과 같이, 나머지 직사각형들과 분리(isolated)될 수 있다. 도 25a에 도시된 실시예에서는, 수면 단계 정보가 깸 단계에 대응하는 직사각형(25110)이 나머지 직사각형들과 분리되어 있다.As shown in FIG. 25A, a plurality of sleep stage information may be expressed as a plurality of rectangles. At this time, at least one of the plurality of rectangles may be isolated from the remaining rectangles, such as the rectangle indicated by reference number 25110 in FIG. 25A. In the embodiment shown in FIG. 25A, a rectangle 25110 corresponding to the waking stage of sleep stage information is separated from the remaining rectangles.
수면 분석을 수행하는 경우, 수면 기간 중 깸 단계가 적어도 한 번 이상 나타날 수 있다. 본 발명의 실시예들에 따른 힙노그램으로 수면 단계 정보를 표현하는 경우에, 깸 단계를 나타내는 직사각형이 그 외의 수면 단계를 나타내는 직사각형들과 서로 분리되어 표시되도록 할 수 있는데, 이렇게 표시하는 경우에는 수면 중 깸 단계의 발생을 명확하게 구별함으로써 수면을 분석할 수 있다는 장점이 있다. 종래 기술의 인터페이스에 따르면, 수면 중 깸 단계 정보가 자주 획득되는 경우, 각 수면 단계와 수면 중 깸 단계를 선(실선 또는 점선)으로 연결하므로, 힙노그램이 상대적으로 명확하지 않게 표현될 우려가 있고, 깸 단계의 발생이 명확하게 구별되지 않을 우려가 있었다.When performing a sleep analysis, there may be at least one waking phase during the sleep period. When expressing sleep stage information with a hypnogram according to embodiments of the present invention, the rectangle representing the awakening stage can be displayed separately from the rectangles representing other sleep stages. In this case, the sleep stage can be displayed separately from the rectangles representing the other sleep stages. It has the advantage of being able to analyze sleep by clearly distinguishing the occurrence of the waking phase. According to the interface of the prior art, when information on the waking stage during sleep is frequently acquired, each sleep stage and the waking stage during sleep are connected with a line (solid line or dotted line), so there is a risk that the hypnogram may be expressed relatively unclearly. , there were concerns that the occurrence of the awakening stage could not be clearly distinguished.
그러나, 본 발명에 따른 이산적으로 및/또는 분리되어 표현되는 도형으로 수면 단계 정보를 나타내는 경우에는 수면 줌 깸 단계의 발생 빈도를 명확하게 확인할 수 있으므로, 종래 기술의 불명확한 오류를 해소할 수 있다.However, when sleep stage information is represented by a figure expressed discretely and/or separately according to the present invention, the frequency of occurrence of the sleep wake stage can be clearly confirmed, thereby eliminating unclear errors in the prior art. .
또한, 본 발명의 일 실시예에 따르면, 깸 단계, 렘수면 단계, 얕은 잠 단계, 및 깊은 잠 단계에 할당된 영역이 위에서부터 아래로 순서대로 배열되어 표시될 수 있다(참조번호 25102 내지 25105 참고).Additionally, according to one embodiment of the present invention, areas allocated to the waking stage, REM sleep stage, light sleep stage, and deep sleep stage may be displayed in order from top to bottom (reference numbers 25102 to 25105). .
한편, 도 31c 또는 도 31d에 도시된 바와 같이, 종래에는 깸 단계를 나타내는 도형이 다른 수면 단계를 나타내는 도형들과 서로 분리되어 있는 것처럼 표시되었다고 하더라도, 다른 수면 단계에 할당된 영역에 수면 단계에 대응하는 도형이 연속적으로 표시됨으로써, 해당 시점에 어느 수면 단계가 발생한 것인지 명확하게 이해하기 어려웠다는 문제점이 있었다.Meanwhile, as shown in Figure 31c or Figure 31d, even if the figure representing the awakening stage is conventionally displayed as if it were separate from the figures representing other sleep stages, the area allocated to the other sleep stage corresponds to the sleep stage. There was a problem in that it was difficult to clearly understand which sleep stage occurred at that time because the shapes were displayed continuously.
예컨대, 도 31c를 참조하면, 전체 수면기간 도중에 깸 단계를 나타내는 도형 복수 개가 다른 수면 단계에 대응하는 도형들과 분리되어있는 것처럼 표시되기는 하지만, 해당 시점에 REM 수면 단계, Light 수면 단계, 또는 Deep 수면 단계를 나타내는 영역에도 그래프가 표시됨으로써, 해당 시점에 수면 중인 것인지, 또는 깸(Awake) 상태인 것인지가 명확하지 않다는 문제점이 있다.For example, referring to Figure 31c, although a plurality of shapes representing the awakening stage during the entire sleep period are displayed as if separated from the shapes corresponding to other sleep stages, at that time, they are REM sleep stage, light sleep stage, or deep sleep stage. Since the graph is also displayed in the area representing the stage, there is a problem in that it is not clear whether the user is sleeping or awake at the relevant time.
반면, 본 발명의 실시예들에 따른 인터페이스에서 복수의 수면 단계에 대응하는 도형들 중 적어도 하나의 도형이 나머지 도형들과 서로 분리(isolated)되어 있는 경우에는, 다른 수면 단계에 할당된 영역에는 도형이 존재하지 않도록 함으로써 해당 시점에 어떠한 수면 단계가 발생한 것인지를 명확하게 이해할 수 있다는 효과가 있다.On the other hand, in the interface according to embodiments of the present invention, when at least one of the shapes corresponding to a plurality of sleep stages is isolated from the remaining shapes, the area allocated to the different sleep stages contains the shape. By preventing this from existing, there is an effect of being able to clearly understand what sleep stage occurred at that point in time.
또한, 본 발명의 실시예들에 따른 인터페이스에서 복수의 수면 단계에 대응하는 도형들은 서로 같은 형태의 도형(예를 들어, 직사각형)으로 표현되고, 그들 중 적어도 하나의 도형이 나머지 도형들과 서로 분리(isolated)될 수 있다. 이러한 실시예의 경우에는, 같은 형태의 도형으로 표현된 다른 수면 단계에 할당된 영역에는 도형이 존재하지 않도록 함으로써 해당 시점에 어떠한 수면 단계가 발생한 것인지를 명확하게 이해할 수 있다는 효과가 있다.Additionally, in the interface according to embodiments of the present invention, shapes corresponding to a plurality of sleep stages are expressed as shapes of the same shape (e.g., rectangles), and at least one of them is separated from the remaining shapes. It can be (isolated). In the case of this embodiment, there is an effect of making it possible to clearly understand which sleep stage occurred at that point in time by ensuring that there are no shapes in areas allocated to different sleep stages expressed by shapes of the same shape.
또한, 본 발명의 실시예들에 따른 인터페이스에 포함되는 복수의 수면 단계에 대응하는 도형들 중 적어도 하나의 수면 단계에 대응하는 도형은 다른 수면 단계에 대응하는 도형과 서로 같은 형태를 띠고 있을 수 있다. In addition, among the shapes corresponding to a plurality of sleep stages included in the interface according to embodiments of the present invention, the shape corresponding to at least one sleep stage may have the same shape as the shape corresponding to the other sleep stage. .
또한, 본 발명의 실시예들에 따르면, 당해 적어도 하나의 수면 단계에 대응하는 도형은 동일한 수면 단계에 대응하는 다른 도형과 분리되어 표시될 수 있다. 또한, 당해 적어도 하나의 수면 단계에 대응하는 도형은 다른 수면 단계에 대응하는 도형과 서로 분리되어 표시될 수 있다.Additionally, according to embodiments of the present invention, a figure corresponding to at least one sleep stage may be displayed separately from other figures corresponding to the same sleep stage. Additionally, shapes corresponding to at least one sleep stage may be displayed separately from shapes corresponding to other sleep stages.
본 발명의 실시예에 따르면, 도 25a에 도시된 참조번호 25110과 같이, 깸 단계가 발생하는 경우에, 해당 시점에는 수면 단계에 대응하는 도형이 참조번호 25102 영역에만 표시되고, 나머지 수면 단계에 할당된 영역(참조번호 25103 내지 25105)에는 표시되지 않으므로, 사용자는 본 발명에 따른 힙노그램 그래프만 보고도 해당 시점에 어느 수면 단계(구체적으로는, 깸 단계)가 발생한 것인지를 명확하게 이해할 수 있다.According to an embodiment of the present invention, when an awakening stage occurs, as indicated by reference number 25110 shown in FIG. 25A, at that time, the figure corresponding to the sleep stage is displayed only in the area reference number 25102 and is assigned to the remaining sleep stages. Since the area (reference numbers 25103 to 25105) is not displayed, the user can clearly understand which sleep stage (specifically, the awakening stage) occurred at that time just by looking at the hypnogram graph according to the present invention.
또한, 도 25a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 얕은(Light) 잠 단계를 나타내는 단어가 한국어로 표시될 때에는 '얕은 잠' 또는 '일반 잠'으로 표시될 수 있다. 수면 단계에 대하여 전문적으로 알지 못하는 사용자가 '얕은 잠'이라는 단어로 인해서 수면 기간 중 제대로 자지 못했다는 오해를 불러일으킬 수 있는데, 그와 대비하여, '일반 잠'이라는 단어로 표시되는 경우에는 이러한 오해를 줄일 가능성이 있다(참조번호 25104).Additionally, as shown in FIG. 25A, according to one embodiment of the present invention, when a word indicating a light sleep stage is displayed in Korean, it may be displayed as 'light sleep' or 'normal sleep'. Users who do not have expert knowledge about sleep stages may misunderstand that they did not sleep properly during the sleep period due to the word 'light sleep'. In contrast, if the word 'normal sleep' is displayed, this misunderstanding may occur. There is a possibility of reducing (reference number 25104).
본 발명의 일 실시예에 따르면, 각 수면 단계에 대응되는 도형은 수면 단계 정보 각각에 할당된 복수의 영역에만 표시될 수 있다(참조번호 25102 내지 25105 참고). 이러한 표시 방법을 통해서 수면 기간 동안의 수면 단계 정보를 명확히 구분하여 표현할 수 있으므로, 사용자로 하여금 수면 기간 동안의 수면 단계 정보를 구분하여, 수면 단계 정보에 대한 그래프를 정확히 이해할 수 있게 된다.According to one embodiment of the present invention, shapes corresponding to each sleep stage can be displayed only in a plurality of areas allocated to each sleep stage information (reference numbers 25102 to 25105). Through this display method, the sleep stage information during the sleep period can be clearly distinguished and expressed, allowing the user to distinguish the sleep stage information during the sleep period and accurately understand the graph of the sleep stage information.
본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역 간에는 경계가 존재할 수 있는데, 이러한 경계는 점선 또는 실선으로 표시될 수 있다(참조번호 25108). 경계를 나타내는 선은 직선일 수도 있고, 곡선일 수도 있다.According to one embodiment of the present invention, there may be a boundary between a plurality of areas allocated to each piece of sleep stage information, and this boundary may be displayed as a dotted line or a solid line (reference number 25108). The line representing the boundary may be straight or curved.
또한, 본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역의 경계를 나타내는 선은 색상 또는 밝기가 다르게 표시될 수도 있다. 구체적으로, 깸 단계 영역과 나머지 수면 단계 영역을 구분하는 경계선의 색이 상대적으로 밝게 표시될 수도 있다.Additionally, according to an embodiment of the present invention, lines representing the boundaries of a plurality of areas allocated to each piece of sleep stage information may be displayed in different colors or brightness. Specifically, the color of the border dividing the waking stage area from the remaining sleep stage area may be displayed relatively brightly.
본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역은 각각에 할당된 높이를 가질 수 있다. According to an embodiment of the present invention, a plurality of areas allocated to each piece of sleep stage information may have a height allocated to each.
또한, 본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역에 할당되는 높이는 서로 같을 수도 있고, 다를 수도 있다. 구체적으로는, 깸 단계 정보에 할당된 영역에 할당된 높이는 다른 영역에 할당되는 높이와 다를 수 있다(참조번호 25102 참고).Additionally, according to an embodiment of the present invention, the heights assigned to a plurality of areas assigned to each piece of sleep stage information may be the same or different. Specifically, the height allocated to the area allocated to the awakening stage information may be different from the height allocated to other areas (see reference number 25102).
본 발명의 일 실시예에 따르면, 수면 단계 정보 각각에 할당된 복수의 영역들 사이에 할당된 피치를 가질 수 있다.According to an embodiment of the present invention, a pitch may be assigned between a plurality of areas assigned to each piece of sleep stage information.
본 발명의 일 실시예에 따르면, 각각의 수면 단계 정보에 대응되는 도형은, 수면 단계 정보 각각에 할당된 복수의 영역들 사이에 할당된 피치에 기초하여 이산적으로 표현될 수 있다. 이러한 이산적인 표현에 의하여 사용자는 수면 기간 동안의 수면 단계 정보를 구분하여, 수면 단계 정보에 대한 그래프를 정확히 이해할 수 있게 된다. According to one embodiment of the present invention, the figure corresponding to each piece of sleep stage information may be expressed discretely based on the pitch allocated between a plurality of areas allocated to each piece of sleep stage information. Through this discrete expression, the user can distinguish the sleep stage information during the sleep period and accurately understand the graph of the sleep stage information.
도 25a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 입면 시점과 기상 시점 중 적어도 하나 이상의 정보가 힙노그램에 함께 표시될 수도 있다. 이 경우, 입면 시점과 기상 시점 중 적어도 하나 이상의 정보는 x축상의 시간 정보로 표시될 수 있다(참조번호 25106 및 25107). 이렇게 입면 시점과 기상 시점 중 적어도 하나 이상의 정보가 힙노그램에 함께 표시되는 경우에는, 힙노그램만을 보고도 입면 시점으로부터 기상 시점까지의 시간 간격을 쉽게 파악할 수 있다. 본 발명의 일 실시예에 따라 입면 시점과 기상 시점 중 적어도 하나 이상의 정보가 x축상의 시간 정보로 표시되는 경우, 각 수면 단계 정보에 대응되는 도형과 선으로 연결되어 표시될 수 있다. 본 발명의 실시예들에 따르면, 입면 시점과 기상 시점 중 적어도 하나 이상의 정보를 수면 단계 정보에 대응되는 도형과 연결하는 선은 실선 또는 점선, 직선 또는 곡선으로 표시될 수 있다.As shown in FIG. 25A, according to an embodiment of the present invention, at least one of the elevation time and the waking up time may be displayed together in the hypnogram. In this case, at least one of the elevation time and the wake-up time may be displayed as time information on the x-axis (reference numbers 25106 and 25107). In this case, when at least one of the elevation time and the wake-up time are displayed together in the hypnogram, the time interval from the elevation time to the wake-up time can be easily determined just by looking at the hypnogram. According to an embodiment of the present invention, when at least one of the time of rising and the time of waking up is displayed as time information on the x-axis, it may be displayed connected to the shape and line corresponding to each sleep stage information. According to embodiments of the present invention, a line connecting at least one piece of information among the time of elevation and the time of waking up with a figure corresponding to the sleep stage information may be displayed as a solid line, a dotted line, a straight line, or a curved line.
또한, 본 발명의 일 실시예에 따르면, 도 25a에 도시된 바와 같이, 수면 단계를 나타내는 힙노그램 그래프와 함께, 수면 단계 정보 또는 수면 상태 정보에 기초한 코멘트(comment) 정보가 함께 표시될 수 있다(참조번호 25109).Additionally, according to an embodiment of the present invention, as shown in FIG. 25A, comment information based on sleep stage information or sleep state information may be displayed together with a hypnogram graph indicating the sleep stage ( Reference number 25109).
도 25d는 본 발명의 또 다른 실시예에 따른 힙노그램을 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.Figure 25d is a diagram showing a graphical user interface including a hypnogram according to another embodiment of the present invention.
본 발명의 일 실시예에 따르면, 수면 측정을 시작하고 난 뒤 잠을 전혀 자지 못한 경우에는 도 25d에 도시된 바와 같이, 깸 단계에 대응하는 도형만 힙노그램에 표시될 수도 있다.According to one embodiment of the present invention, if you do not sleep at all after starting sleep measurement, only the figure corresponding to the awakening stage may be displayed in the hypnogram, as shown in FIG. 25D.
본 발명의 일 실시예에 따르면, 힙노그램 그래프는 수면 기간 중 실시간으로 생성될 수 있다. 본 발명에 따르면 사용자의 수면 음향을 포함하는 수면 정보가 실시간으로 습득되며, 습득된 수면 음향 정보는 스펙트로그램으로 즉각 변환될 수 있다. 변환된 스펙트로그램을 수면 분석 모델의 입력으로 하여 즉각적으로 수면단계를 분석할 수 있는데, 이에 따라 수면 단계 정보를 나타내는 힙노그램 그래프를 수면 단계의 분석과 동시에 실시간으로 생성할 수 있다.According to one embodiment of the present invention, the hypnogram graph can be generated in real time during the sleep period. According to the present invention, sleep information including the user's sleep sound is acquired in real time, and the acquired sleep sound information can be immediately converted into a spectrogram. Sleep stages can be analyzed immediately by using the converted spectrogram as input to the sleep analysis model. Accordingly, a hypnogram graph representing sleep stage information can be generated in real time simultaneously with the analysis of sleep stages.
도 25b 각 수면 단계의 시간 비율을 표시하는 그래프Figure 25B Graph showing percentage of time in each sleep stage
도 25b는 본 발명의 일 실시예에 따라 측정한 각 수면 단계의 시간 비율을 표시하는 그래프이다.Figure 25b is a graph showing the time ratio of each sleep stage measured according to an embodiment of the present invention.
본 발명의 실시예에 따른 각 수면 단계의 시간 비율을 표시하는 그래프를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 25201로 표시된 바와 같이, “한눈에 보는 나의 잠”이라는 문구가 함께 표시될 수 있다.In a graphical user interface that includes a graph displaying the time ratio of each sleep stage according to an embodiment of the present invention, the phrase “My sleep at a glance” may be displayed together, as indicated by reference number 25201.
본 발명에 따른 각 수면 단계의 시간 비율은, 전체 수면 기간 대비 각 수면 단계에 대응하는 시간의 비율로 계산될 수 있다. 구체적으로는, 전체 수면 시간은 입면 시점으로부터 기상 시점까지의 시간으로 계산될 수 있다. 각 수면 단계에 대응하는 시간은, 본 발명의 실시예에 따른 인공지능 모델에 의하여 추론된 수면 단계를 기초로 계산될 수 있다.The time ratio of each sleep stage according to the present invention can be calculated as the ratio of the time corresponding to each sleep stage to the total sleep period. Specifically, the total sleep time can be calculated as the time from the time of falling asleep to the time of waking up. The time corresponding to each sleep stage can be calculated based on the sleep stage inferred by the artificial intelligence model according to an embodiment of the present invention.
예컨대, 도 25b의 참조번호 25203에 도시된 바와 같이, 입면 시점으로부터 기상 시점까지의 전체 수면 시간이 7시간 22분이고, 일반 잠(얕은 잠) 단계로 추론된 기간이 4시간 34분, 렘 수면 단계로 추론된 기간이 1시간 37분, 깊은 잠 단계로 추론된 기간이 58분, 깸 단계로 추론된 기간이 13분인 경우에, 각 기간에 대응하는 시간을 전체 수면 시간으로 나눈 것의 백분위 값으로 각 수면 단계의 비율이 표시될 수 있다. 다만, 상술한 구체적인 시간에 대한 수치는 단순한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.For example, as shown in reference number 25203 in FIG. 25B, the total sleep time from the time of waking up to the time of waking up is 7 hours and 22 minutes, and the period inferred as the general sleep (light sleep) stage is 4 hours and 34 minutes, the REM sleep stage. If the inferred period is 1 hour and 37 minutes, the inferred period in the deep sleep stage is 58 minutes, and the inferred period in the waking stage is 13 minutes, the time corresponding to each period is divided by the total sleep time, and the percentile value is calculated. The percentage of sleep stages may be displayed. However, the specific time values described above are merely examples, and the present invention is not limited thereto.
또한, 본 발명의 실시예에 따른 그래픽 사용자 인터페이스에는 각 수면 단계에 대응하는 시간 정보와, 각 수면 단계의 비율이 좌우로 병렬되어 나란히 표시될 수 있다(참조번호 202). 또한, 도 25b의 참조번호 25204 내지 25207에 도시된 바와 같이, 각 수면 단계에 대응하는 시간 비율을 소정의 도형을 이용하여 시각적으로 나타낼 수 있다.Additionally, in the graphic user interface according to an embodiment of the present invention, time information corresponding to each sleep stage and the ratio of each sleep stage may be displayed side by side in parallel on the left and right (reference number 202). Additionally, as shown in reference numbers 25204 to 25207 of FIG. 25B, the time ratio corresponding to each sleep stage can be visually displayed using a predetermined shape.
여기서, 각 수면 단계에 대응하는 도형의 색은, 도 25a의 힙노그램에 도시된 수면 단계 정보에 대응되는 도형의 색과 동일하게 표시될 수 있다.Here, the color of the figure corresponding to each sleep stage may be displayed the same as the color of the figure corresponding to the sleep stage information shown in the hypnogram of FIG. 25A.
또한, 본 발명의 일 실시예에 따르면, 도 25b의 참조번호 25202 및 참조번호 25204 내지 25207에 도시된 바와 같이, 각 수면 단계에 대응되는 도형은 각 수면 단계에 대응하는 시간 비율이 높은 순서대로 표시할 수 있으나, 또 다른 실시예들에 따르면, 표시되는 수면 단계의 순서는 바뀔 수 있다.In addition, according to an embodiment of the present invention, as shown in reference numbers 25202 and 25204 to 25207 in FIG. 25B, the figures corresponding to each sleep stage are displayed in the order of the highest time ratio corresponding to each sleep stage. However, according to other embodiments, the order of displayed sleep stages may be changed.
예컨대, 깊은 잠 단계가 제일 먼저 표시되고, 깸 단계가 제일 나중에 표시되도록 구성될 수도 있다. 또는, 깸 단계가 제일 먼저 표시되도록 구성되고, 깊은 잠 단계가 제일 나중에 표시되도록 구성될 수 있다. 또는, 렘 수면 단계가 제일 먼저 표시되도록 구성될 수도 있고, 일반 잠 단계가 제일 먼저 표시되도록 구성될 수도 있다. 이러한 순서는 사용자가 직접 선택할 수도 있고, 알고리즘에 의하여 자동으로 구성될 수도 있다. 상술한 순서는 단순한 예시일 뿐, 본 발명은 이에 제한되는 것은 아니다.For example, the deep sleep stage may be displayed first, and the waking stage may be displayed last. Alternatively, the waking stage may be configured to be displayed first, and the deep sleep stage may be displayed last. Alternatively, the REM sleep stage may be configured to be displayed first, or the normal sleep stage may be configured to be displayed first. This order may be selected directly by the user, or may be automatically configured by an algorithm. The above-described sequence is merely an example, and the present invention is not limited thereto.
도 25c 호흡 안정도 그래프Figure 25c Respiratory stability graph
도 25c는 본 발명의 실시예에 따른 호흡 안정도 그래프를 나타낸 도면이다.Figure 25c is a diagram showing a respiratory stability graph according to an embodiment of the present invention.
본 발명의 실시예에 따른 호흡 안정도 그래프를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 25301로 표시된 바와 같이, “호흡 안정도”라는 문구가 함께 표시될 수 있다.In a graphical user interface including a respiratory stability graph according to an embodiment of the present invention, the phrase “respiratory stability” may be displayed together, as indicated by reference number 25301.
본 발명의 일 실시예에 따른 수면 분석을 통해서, 수면 질환(예: 수면 무호흡증)과 그의 근본적인 원인(예: 코골이)까지 예측할 수 있다.Through sleep analysis according to an embodiment of the present invention, sleep disorders (eg, sleep apnea) and their underlying causes (eg, snoring) can be predicted.
본 발명의 실시예에 따르면, 호흡의 안정도는 호흡 주기, 호흡 빈도 변동, 호흡 패턴 등의 판단 기준에 의하여 판단될 수 있다.According to an embodiment of the present invention, the stability of breathing can be determined based on criteria such as breathing cycle, breathing frequency change, and breathing pattern.
수면 기간 중 호흡 패턴이 불규칙적이거나, 갑작스럽게 변하는 경우 등에는 호흡이 불안정하다고 판단될 수 있다. 또는, 수면 기간 중 호흡의 빈도가 크게 변동하거나 불규칙한 변화를 보이는 경우에 호흡이 불안정하다고 판단될 수 있다.If your breathing pattern is irregular or changes suddenly during the sleep period, your breathing may be judged to be unstable. Alternatively, if the breathing frequency fluctuates significantly or shows irregular changes during the sleep period, breathing may be judged to be unstable.
본 발명의 일 실시예에 따르면 이와 같이 호흡이 불안정하다고 판단되는 경우에는, 해당 기간의 호흡 안정도를 '호흡 불안정'으로 나타낼 수 있다(참조번호 25303). 또한, '호흡 불안정'에 해당하지 않는 구간의 호흡 안정도를 '호흡 안정'으로 나타낼 수 있다(참조번호 25302).According to one embodiment of the present invention, when breathing is judged to be unstable, the breathing stability during the relevant period can be expressed as 'respiratory instability' (reference number 25303). Additionally, the respiratory stability in the section that does not correspond to 'respiratory instability' can be expressed as 'respiratory stability' (reference number 25302).
도 25c의 참조번호 25302 및 25303에 표시된 바와 같이, 호흡 안정도를 시간에 따른 그래프로 나타낼 수 있다. 이 경우, 수면 중, 수면의 호흡 안정도가 불안정하다고 판단되는 경우에는, “불안정”이라는 문구를 함께 표시할 수도 있다(참조번호 25306).As indicated by reference numbers 25302 and 25303 in FIG. 25C, respiratory stability can be graphed over time. In this case, if the breathing stability during sleep is judged to be unstable, the phrase “unstable” may also be displayed (reference number 25306).
수면다원검사 등 수면 분석을 통해 기록된 수면 중 무호흡과 저호흡의 빈도의 합을 총 수면시간으로 나눈 것을 무호흡-저호흡지수(apnea-hypopnea index, AHI)라고 한다.AHI 수치가 5 미만인 경우 정상(normal), 5 이상 15 미만인 경우 경증(mild), 15 이상 30 미만인 경우 중등도(moderate), 30 이상인 경우 중증(severe)으로 각각 분류할 수 있다.The sum of the frequencies of apneas and hypopneas during sleep recorded through sleep analysis such as polysomnography divided by the total sleep time is called the apnea-hypopnea index (AHI). If the AHI value is less than 5, it is normal. (normal), 5 to 15 can be classified as mild, 15 to 30 can be classified as moderate, and 30 or more can be classified as severe.
본 발명의 일실시예 따르면, 인공지능 모델을 이용한 수면 분석을 통해서 AHI 수치를 판단하고, 판단된 AHI 수치에 기초하여 호흡 안정도의 비율을 계산하여 인터페이스에 표시할 수 있다(참조번호 25304 및 25305).According to one embodiment of the present invention, the AHI level can be determined through sleep analysis using an artificial intelligence model, and the rate of respiratory stability can be calculated and displayed on the interface based on the determined AHI level (reference numbers 25304 and 25305). .
또한, 본 발명의 일 실시예에 따르면, 호흡이 불안정하다고 판단된 시점에 대응하는 도형의 색을 더 밝게 표시할 수도 있다. 이렇게 표시하는 경우에는, 호흡 안정도의 관점에서 문제가 되는 이벤트(event)의 발생을 더 잘 파악할 수 있다는 장점이 있다.Additionally, according to one embodiment of the present invention, the color of the figure corresponding to the point in time when it is determined that breathing is unstable may be displayed brighter. This display has the advantage of being able to better identify the occurrence of problematic events from the viewpoint of respiratory stability.
또한, 본 발명의 일 실시예에 따르면, 수면 단계 정보를 나타내는 힙노그램 그래프와 호흡 안정도를 나타내는 그래프가 같은 시간 축 상에서 위아래로 병렬되어 함께 표시될 수도 있다. 이렇게 표시되는 경우, 어떤 수면 단계에서 호흡 안정도가 어떠하였는지를 사용자가 한 눈에 파악할 수 있어서, 수면을 분석하는 데에 효과적일 수 있다.Additionally, according to one embodiment of the present invention, a hypnogram graph representing sleep stage information and a graph representing breathing stability may be displayed together in parallel up and down on the same time axis. When displayed in this way, the user can see at a glance what the breathing stability was at which sleep stage, which can be effective in analyzing sleep.
예컨대, 렘 수면 단계일 때 호흡 불안정 이벤트가 발생하면 더욱 심각하다고 해석될 수 있는데, 위와 같이 수면 단계 정보를 나타내는 힙노그램 그래프와 호흡 안정도를 나타내는 그래프가 같은 시간 축 상에서 위아래로 병렬되어 함께 표시된다면, 이러한 이벤트의 발생을 한 눈에 쉽게 파악할 수 있어서, 수면 정보에 대한 해석 및/또는 판단이 용이할 수 있다.For example, if a breathing instability event occurs during the REM sleep stage, it can be interpreted as more serious. If the hypnogram graph representing sleep stage information and the graph representing breathing stability are displayed together in parallel up and down on the same time axis as shown above, Since the occurrence of such an event can be easily identified at a glance, it can be easy to interpret and/or judge sleep information.
또한, 본 발명의 실시예들에 따라 수면 단계 정보를 나타내는 힙노그램 그래프와 호흡 안정도를 나타내는 그래프가 같은 시간 축 상에서 위아래로 병렬되어 함께 표시되는 경우에, 이와 같은 정보를 각종 서비스 제공에도 활용하거나, 또는 이러한 그래픽 이미지 정보를 딥 러닝 모델의 학습에도 활용할 수 있다는 장점이 있다.In addition, according to embodiments of the present invention, when a hypnogram graph representing sleep stage information and a graph representing respiratory stability are displayed together in parallel up and down on the same time axis, such information can be used to provide various services, Alternatively, there is an advantage that such graphic image information can be used for learning deep learning models.
또한, 본 발명의 실시예들에 따라, 위와 같이 병렬적으로 함께 표시되는 그래프들로부터 파악한 수면 정보간의 연관관계를 수면 평가 정보의 생성에도 활용할 수 있다는 장점이 있다.In addition, according to embodiments of the present invention, there is an advantage that the correlation between sleep information identified from graphs displayed together in parallel as above can be used to generate sleep evaluation information.
도 25e는 본 발명의 일 실시예에 따른 호흡 불안정에 대한 설명 표시를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.Figure 25e is a diagram showing a graphical user interface including an explanatory display for respiratory instability according to an embodiment of the present invention.
본 발명의 실시예에 따른 호흡 불안정에 대한 설명 표시를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 25401로 표시된 바와 같이, “호흡 불안정이란?”이라는 문구가 함께 표시될 수 있다. In a graphical user interface including an explanatory display for respiratory instability according to an embodiment of the present invention, the phrase “What is respiratory instability?” may be displayed together, as indicated by reference number 25401.
도 25e에 도시된 바와 같이, 그래픽 사용자 인터페이스에는 호흡 불안정에 대한 설명이 표시될 수 있다(참조번호 25402). 또한, 참조번호 25403으로 표시되는 소정의 영역에 할당된 부분을 사용자가 클릭하는 경우, 호흡 불안정에 대하여 설명하는 외부 웹사이트나, 더 자세한 설명을 수반하는 정보를 나타내는 화면으로 연결될 수 있다.As shown in Figure 25E, a graphical user interface may display a description of respiratory instability (reference number 25402). Additionally, when the user clicks on the part assigned to the predetermined area indicated by reference number 25403, the user may be connected to an external website explaining respiratory instability or a screen displaying information accompanying a more detailed explanation.
도 25e에 도시된 바와 같이, 본 발명의 일 실시예에 따라 호흡 불안정에 대한 설명이 표시되는 경우에는, 배경 부분인 백그라운드(Background)에 위치하는 그래픽 사용자 인터페이스가 상대적으로 어둡게 표현될 수 있다(참조번호 25404).As shown in FIG. 25e, when a description of respiratory instability is displayed according to an embodiment of the present invention, the graphical user interface located in the background may be displayed relatively darkly (see No. 25404).
도 26 수면 통계를 나타내는 화면Figure 26 Screen showing sleep statistics
도 26a 및 도 26b는 본 발명의 실시예들에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스를 나타내는 도면이다. 26A and 26B are diagrams illustrating a graphical user interface including statistical information of sleep state information according to embodiments of the present invention.
본 발명의 실시예에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 26501로 표시된 바와 같이, “수면 통계”라는 문구가 함께 표시될 수 있다.In a graphical user interface containing statistical information of sleep state information according to an embodiment of the present invention, the phrase “sleep statistics” may be displayed together, as indicated by reference number 26501.
본 발명의 실시예에 따르면, 일별 수면 시간을 막대그래프로 표현할 수 있다. 구체적으로는, x축에는 수면 상태 정보를 획득한 날짜가 표시되고(참조번호 26503), y축에는 수면 시간 값이 표시될 수 있다(참조번호 26504).According to an embodiment of the present invention, daily sleep time can be expressed as a bar graph. Specifically, the date on which sleep state information was acquired may be displayed on the x-axis (reference number 26503), and the sleep time value may be displayed on the y-axis (reference number 26504).
본 발명의 실시예에 따르면, x축의 날짜에 대응되는 날에 획득한 수면 상태 정보에 기초하여 계산한 수면 시간을 막대그래프의 형태로 표시할 수 있다(참조번호 26502).According to an embodiment of the present invention, the sleep time calculated based on sleep state information acquired on the day corresponding to the date on the x-axis can be displayed in the form of a bar graph (reference number 26502).
또한, 본 발명의 일 실시예에 따르면, 막대그래프의 위 부분에 해당 수면 상태 정보를 획득한 날의 요일 정보가 표시될 수 있다(참조번호 26505).Additionally, according to an embodiment of the present invention, day of the week information on the day the corresponding sleep state information was acquired may be displayed in the upper part of the bar graph (reference number 26505).
또한, 본 발명의 일 실시예에 따르면, 막대그래프의 아래 쪽에는 실제 잔 시간의 평균을 나타내는 정보가 표시될 수 있다(참조번호 26506 내지 26508). 구체적으로는, 소정의 기간 동안 획득한 수면 시간의 평균, 평일 동안 측정한 수면 시간의 평균 또는, 주말 동안 측정한 수면 시간의 평균 중 적어도 하나 이상을 함께 나타낼 수 있다. Additionally, according to one embodiment of the present invention, information indicating the average of actual remaining time may be displayed at the bottom of the bar graph (reference numbers 26506 to 26508). Specifically, at least one of the average of sleep times obtained over a predetermined period of time, the average of sleep times measured during weekdays, or the average of sleep times measured during weekends may be displayed together.
또한, 본 발명의 일 실시예에 따르면, 소정의 기간 동안 획득한 수면 시간의 평균, 평일 동안 측정한 수면 시간의 평균 또는, 주말 동안 측정한 수면 시간의 평균을 모두 함께 나타낼 수도 있다.Additionally, according to an embodiment of the present invention, the average of sleep times obtained over a predetermined period of time, the average of sleep times measured during weekdays, or the average of sleep times measured during weekends may all be displayed together.
또한, 본 발명의 일 실시예에 따르면, 평일 동안 측정한 수면 시간의 평균 및 주말 동안 측정한 수면 시간의 평균을, 소정의 기간 동안 측정한 수면 시간의 평균과 비교하기 위하여, 참조번호 26509에 표시된 바와 같이, 평균값들 사이에 선으로 구분하여 표현하는 그래픽 사용자 인터페이스를 제공할 수도 있다. 이 경우 구분하기 위한 선은 점선 또는 실선일 수 있으며, 곡선 또는 직선으로 표현될 수 있다.In addition, according to an embodiment of the present invention, in order to compare the average sleep time measured during weekdays and the average sleep time measured during weekends with the average sleep time measured over a predetermined period, the sleep time indicated by reference number 26509 is used. As shown, a graphical user interface may be provided that displays average values separated by lines. In this case, the line for distinction may be a dotted line or a solid line, and may be expressed as a curved line or a straight line.
본 발명의 일 실시예에 따르면, 평일에만 수면 상태 정보를 획득하고, 주말에는 수면 분석을 수행하지 않아서 수면 상태 정보를 획득하지 못한 경우에는, 그래픽 사용자 인터페이스가 도 26a의 참조번호 26508에 도시된 바와 같이 표시될 수 있다. 또한, 이 경우 도 26a의 11일(토요일) 및 12일(일요일)에 대응하는 막대그래프가 형성되지 않을 수 있다. 상술한 요일 및 날짜에 대한 구체적인 서술은 단순한 예시일 뿐, 이에 한정되는 것은 아니며, 예컨대 9일(목요일)에 수면 분석을 수행하지 않는 경우에는, 9일(목요일)에 대응하는 막대그래프가 형성되지 않을 수 있다.According to one embodiment of the present invention, when sleep state information is obtained only on weekdays and sleep analysis is not performed on weekends, and sleep state information is not obtained, the graphical user interface is as shown at reference number 26508 in FIG. 26A. can be displayed together. Additionally, in this case, bar graphs corresponding to the 11th (Saturday) and 12th (Sunday) of FIG. 26A may not be formed. The specific description of the above-mentioned day and date is merely an example and is not limited thereto. For example, if sleep analysis is not performed on the 9th (Thursday), a bar graph corresponding to the 9th (Thursday) will not be formed. It may not be possible.
또한, 도 26b에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 막대그래프 중 특정 막대그래프를 클릭하는 경우에, 해당 막대그래프에 대응되는 날짜에 획득한 수면 시간 정보가 표시될 수 있다(참조번호 26513). 이 경우 해당 막대그래프가 밝게 표시되고(참조번호 26512), 다른 막대그래프들은 상대적으로 어둡게 표시될 수 있다.In addition, as shown in Figure 26b, according to one embodiment of the present invention, when a specific bar graph is clicked, sleep time information acquired on the date corresponding to the bar graph may be displayed ( Reference number 26513). In this case, the corresponding bar graph may be displayed brightly (reference number 26512), and other bar graphs may be displayed relatively dark.
또한, 도 26a 및 도 26b에 도시된 바와 같이, 소정의 기간 동안 획득한 수면 시간의 평균 정보가 막대그래프와 함께 표시될 수 있다. 예컨대, 소정의 기간 동안 획득한 수면 시간의 평균이 6시간 26분인 경우에, 막대그래프상의 y축에서 6시간 26분에 대응하는 위치에 선(예컨대, 점선)등의 도형으로 평균 수면 시간이 표시될 수 있다(참조번호 26510). 또는, 도 26b를 참고하면, 소정의 기간 동안 획득한 수면 시간의 평균이 6시간 4분인 경우에, 막대그래프상의 y축에서 6시간 4분에 대응하는 위치에 선 등의 도형으로 평균 수면 시간이 표시될 수 있다. Additionally, as shown in FIGS. 26A and 26B, average information on sleep time acquired over a predetermined period may be displayed along with a bar graph. For example, if the average sleep time acquired during a predetermined period is 6 hours and 26 minutes, the average sleep time is displayed in a shape such as a line (e.g., dotted line) at the position corresponding to 6 hours and 26 minutes on the y-axis of the bar graph. It can be (reference number 26510). Or, referring to Figure 26b, if the average of sleep time acquired during a predetermined period is 6 hours and 4 minutes, the average sleep time is represented by a line, etc., at a position corresponding to 6 hours and 4 minutes on the y-axis of the bar graph. can be displayed.
본 발명의 일 실시예에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 26511에 표시된 바와 같이 '수면 통계'라는 문구와, 해당 수면 상태 정보들을 획득한 기간 정보(예컨대, “2022.6.6 ~ 6.12”라는 기간 정보)가 함께 표시될 수 있다.A graphical user interface containing statistical information of sleep state information according to an embodiment of the present invention includes the phrase 'sleep statistics' as indicated by reference number 26511 and information on the period during which the corresponding sleep state information was acquired (e.g., “ Period information “2022.6.6 ~ 6.12” may be displayed together.
또한, 본 발명의 일 실시예에 따른 수면 상태 정보의 통계 정보를 포함하는 그래픽 사용자 인터페이스에는, 참조번호 26511에 표시된 바와 같이 해당 그래프에 대한 간략한 설명(예컨대, “이번 주에 이만큼 잤어요.”라는 설명 또는, “수면 막대의 높이가 일정할수록 좋습니다.”라는 설명)이 함께 표시될 수 있다. 상술한 평균 수면 시간에 대한 구체적인 수치 및, 그래프에 대한 간략한 설명 문구는 단순한 예시일 뿐, 본 발명은 이에 제한되지는 않는다.In addition, a graphical user interface containing statistical information of sleep state information according to an embodiment of the present invention includes a brief description of the corresponding graph (e.g., “I slept this much this week”) as indicated by reference number 26511. An explanation (or, “The more consistent the height of the water bar, the better”) may be displayed together. The specific figures for the above-described average sleep time and brief explanatory text on the graph are merely examples, and the present invention is not limited thereto.
도 27 일주일 간 획득한 수면 상태 정보Figure 27 Sleep state information acquired for one week
도 27a 및 도 27b는 본 발명의 실시예들에 따라 일주일 간 획득한 수면 상태 정보를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.Figures 27a and 27b are diagrams illustrating a graphical user interface including sleep state information acquired over a week according to embodiments of the present invention.
도 27a 및 도 27b에 도시된 바와 같이, 본 발명의 실시예들에 따른 일주일 간 획득한 수면 상태 정보는 x축이 요일(참조번호 27601), y축이 시간 정보인 막대그래프로 표현될 수 있다. 여기서, y축의 시간 정보는 2시간 단위로 표현되는 것일 수 있다(참조번호 27602). 또한, y축의 각 시간에 대응하는 선(실선 또는 점선)도 함께 표시될 수 있다(참조번호 27603).As shown in FIGS. 27A and 27B, sleep state information obtained for a week according to embodiments of the present invention can be expressed as a bar graph where the x-axis is the day of the week (reference number 27601) and the y-axis is time information. . Here, time information on the y-axis may be expressed in 2-hour units (reference number 27602). Additionally, lines (solid or dotted lines) corresponding to each time on the y-axis can also be displayed (reference number 27603).
도 27a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 막대그래프는 전체가 단일한 색상으로 표현되는 것일 수 있다(참조번호 27604).As shown in FIG. 27A, according to one embodiment of the present invention, the entire bar graph may be expressed in a single color (reference number 27604).
또한, 도 27b에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 막대그래프에는 렘 수면, 깊은 잠, 얕은 잠 및 깸 단계의 수면 단계와 대응하는 부분이 구분되어 표시될 수도 있다(참조번호 27605 내지 27608). 구체적으로 설명하면, 힙노그램 그래프에서 각 수면 단계 정보에 대응되는 도형의 색이 서로 다르게 표현되는 경우, 해당 날짜의 막대그래프에서 각 수면 단계 정보에 대응되는 도형의 색으로 해당 수면 단계의 비율만큼 표시될 수 있다.In addition, as shown in FIG. 27B, according to one embodiment of the present invention, the bar graph may be displayed with sections corresponding to the sleep stages of REM sleep, deep sleep, light sleep, and awakening stages (reference number 27605). to 27608). Specifically, if the colors of the shapes corresponding to each sleep stage information in the hypnogram graph are expressed differently, the color of the shapes corresponding to each sleep stage information in the bar graph for that date is displayed as the ratio of the corresponding sleep stage. It can be.
또한, 본 발명의 일 실시예에 따라 각 수면 단계와 대응하는 부분이 구분되어 표시되는 경우에는 깸 단계와 대응하는 부분이 막대그래프의 가장 위쪽에 배치되고(참조번호 27608), 깊은 잠에 대응되는 부분이 막대그래프의 가장 아래쪽에 배치될 수도 있다(참조번호 27605). 또는, 시간 비율이 높은 수면 단계에 대응되는 부분일 수록 막대그래프의 아래쪽에 배치되고, 시간 비율이 낮은 수면 단계에 대응되는 부분일 수록 막대그래프의 위쪽에 배치될 수도 있다. 한편, 이러한 배치 순서는 단순한 예시일 뿐 본 발명은 이에 한정되는 것은 아니다. 예컨대, 맨 아래부터 순서대로 깊은 잠 단계에 대응되는 부분, 얕은 잠 단계에 대응하는 부분, 렘 수면 단계에 대응하는 부분, 깸 단계에 대응하는 부분이 차례로 배치될 수도 있다.In addition, when the parts corresponding to each sleep stage are displayed separately according to an embodiment of the present invention, the part corresponding to the awakening stage is placed at the top of the bar graph (reference number 27608), and the part corresponding to deep sleep is placed at the top of the bar graph (reference number 27608). The section may be placed at the bottom of the bar graph (reference number 27605). Alternatively, the portion corresponding to a sleep stage with a high time ratio may be placed lower in the bar graph, and the portion corresponding to a sleep stage with a lower time ratio may be placed higher in the bar graph. Meanwhile, this arrangement order is merely an example and the present invention is not limited thereto. For example, starting from the bottom, the part corresponding to the deep sleep stage, the part corresponding to the light sleep stage, the part corresponding to the REM sleep stage, and the part corresponding to the awakening stage may be arranged in that order.
도 28 소정의 기간동안 획득한 수면 상태 정보Figure 28 Sleep state information acquired during a predetermined period
도 28a 및 도 28b는 본 발명의 실시예들에 따라 소정의 기간동안 획득한 수면 상태 정보를 포함하는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIGS. 28A and 28B are diagrams illustrating a graphical user interface including sleep state information acquired over a predetermined period of time according to embodiments of the present invention.
도 28a 및 도 28b에 도시된 바와 같이, 본 발명의 실시예들에 따른 일주일 간 획득한 수면 상태 정보는 x축이 날짜(참조번호 28701a 및 28701b), y축이 시각 정보인 막대그래프로 표현될 수 있다. As shown in FIGS. 28A and 28B, the sleep state information obtained for a week according to embodiments of the present invention is expressed as a bar graph where the x-axis is the date ( reference numbers 28701a and 28701b) and the y-axis is time information. You can.
여기서, 도 28a의 참조번호 28701a 및 28701b를 참고하면, 위쪽에 표시되는 날짜부터 아래 쪽에 표시되는 날짜까지 수행되는 수면 분석을 통하여 수면 상태 정보를 획득하는 경우, 획득된 수면 상태 정보에 포함되는 입면 시점 정보와 기상 시점 정보에 기초하여 막대그래프를 표시할 수 있다. 예컨대, 12일 저녁 이후에 입면하였고, 13일 새벽 이후에 기상하였다고 판단되는 경우에는 도 28a에 도시된 막대그래프 중 가장 왼쪽의 막대그래프의 모양으로 표현될 수 있다. 이 때, 도 28a 및 도 28b에 도시된 바와 같이, 소정의 기간동안 획득한 수면 상태 정보 막대 그래프의 양 끝은 각각 입면 시점과 기상 시점에 대응하는 것일 수 있다.Here, referring to reference numbers 28701a and 28701b in FIG. 28A, when sleep state information is obtained through sleep analysis performed from the date displayed at the top to the date displayed at the bottom, the elevation time included in the obtained sleep state information A bar graph can be displayed based on information and weather timing information. For example, if it is determined that the person went to bed after the evening of the 12th and woke up after the early morning of the 13th, it may be expressed in the shape of the leftmost bar graph shown in FIG. 28A. At this time, as shown in FIGS. 28A and 28B, both ends of the bar graph of sleep state information acquired during a predetermined period may correspond to the elevation time and the wake-up time, respectively.
여기서, y축의 시각 정보는 시간 단위로 표현되는 것일 수도 있지만, 도 28a 및 도 28b에 도시된 바와 같이, 정오, 새벽, 자정, 저녁 및 정오라는 단어로 표현될 수도 있다(참조번호 28702). 또한, y축의 각 시각에 대응하는 선(실선 또는 점선)도 함께 표시될 수 있다(참조번호 28703).Here, the time information on the y-axis may be expressed in time units, but may also be expressed in the words noon, dawn, midnight, evening, and noon, as shown in FIGS. 28A and 28B (reference number 28702). Additionally, lines (solid or dotted lines) corresponding to each time on the y-axis can also be displayed (reference number 28703).
도 28a에 도시된 바와 같이, 본 발명의 일 실시예에 따라 y축의 각 시각에 대응하는 선이 함께 표시되는 경우에, 자정 시각에 대응하는 선이 다른 시각에 대응하는 선보다 상대적으로 굵은 선으로 또는 밝은 선으로 표시되어 구별될 수 있다.As shown in Figure 28a, when lines corresponding to each time on the y-axis are displayed together according to an embodiment of the present invention, the line corresponding to midnight time is relatively thicker than the lines corresponding to other times. They can be distinguished by being marked with a bright line.
도 28a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 막대그래프는 전체가 단일한 색상으로 표현되는 것일 수 있다(참조번호 28704).As shown in FIG. 28A, according to one embodiment of the present invention, the entire bar graph may be expressed in a single color (reference number 28704).
또한, 도 28b에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 막대그래프에는 렘 수면, 깊은 잠, 얕은 잠 및 깸 단계의 수면 단계와 대응하는 부분이 구분되어 표시될 수도 있다. 구체적으로 설명하면, 힙노그램 그래프에서 각 수면 단계 정보에 대응되는 도형의 색이 서로 다르게 표현되는 경우, 해당 날짜의 막대그래프에서 각 수면 단계 정보에 대응되는 도형의 색으로 해당 수면 단계의 비율만큼 표시될 수 있다.In addition, as shown in FIG. 28B, according to an embodiment of the present invention, the bar graph may display separate parts corresponding to the sleep stages of REM sleep, deep sleep, light sleep, and waking stages. Specifically, if the colors of the shapes corresponding to each sleep stage information in the hypnogram graph are expressed differently, the color of the shapes corresponding to each sleep stage information in the bar graph for that date is displayed as the ratio of the corresponding sleep stage. It can be.
또한, 도 28b에 도시된 바와 같이, 본 발명의 일 실시예에 따라 막대그래프에 렘 수면, 깊은 잠, 얕은 잠 및 깸 단계의 수면 단계와 대응하는 부분이 구분되어 표시되는 경우에, 각 수면 단계와 대응하는 부분은 해당 수면 단계가 감지된 시간 순서대로 배치될 수 있다.In addition, as shown in FIG. 28B, when the bar graph shows separate parts corresponding to the sleep stages of REM sleep, deep sleep, light sleep, and awakening stages according to an embodiment of the present invention, each sleep stage The corresponding part may be arranged in the order of time when the corresponding sleep stage was detected.
도 29의 흐름도에 대한 설명Description of the flow chart in Figure 29
도 29는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성 및 제공하는 방법의 흐름도이다.Figure 29 is a flowchart of a method for creating and providing one or more graphical user interfaces representing information about a user's sleep according to an embodiment of the present invention.
도 29에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 수면 정보를 습득하는 단계(S29120), 시간 도메인상에서 획득된 수면 정보를 주파수 도메인상의 정보로 변환하는 단계(S29140), 그래픽 유저 인터페이스를 생성하는 단계(S29160) 및, 그래픽 유저 인터페이스를 제공하는 단계(S29180)를 포함할 수 있다.As shown in Figure 29, according to one embodiment of the present invention, a method of generating one or more graphical user interfaces representing information about sleep includes acquiring sleep information (S29120), sleep information acquired in the time domain It may include converting to information on the frequency domain (S29140), generating a graphical user interface (S29160), and providing a graphical user interface (S29180).
여기서 수면 정보를 습득하는 단계에서 습득되는 수면 정보는, 환경 센싱 정보 또는 수면 음향 정보를 포함할 수 있다.Here, the sleep information acquired in the step of acquiring sleep information may include environmental sensing information or sleep sound information.
또한, 본 발명의 일 실시예에 따라서 수면에 관한 정보를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 저장 단계를 더 포함할 수도 있다.In addition, according to an embodiment of the present invention, the method of generating one or more graphical user interfaces representing information about sleep may further include a sleep log storage step of storing sleep log information related to the account assigned to the user in a memory. there is.
또한, 본 발명의 일 실시예에 따르면, 시간 도메인상에서 획득된 환경 센싱 정보를 주파수 도메인상의 정보로 변환하는 단계(S29140)는 시간 도메인상의 로우 음향 정보 또는 주파수 도메인상의 정보에 대한 전처리를 수행하는 단계를 포함할 수 있다.In addition, according to an embodiment of the present invention, the step of converting environmental sensing information obtained in the time domain into information in the frequency domain (S29140) includes performing preprocessing on raw acoustic information in the time domain or information in the frequency domain. may include.
또는, 본 발명의 일 실시예에 따르면, 시간 도메인상에서 획득된 환경 센싱 정보를 주파수 도메인상의 정보로 변환하는 단계(S29140)는 음향 정보를 주파수 도메인상의 스펙트로그램 정보로 변환하는 단계를 포함할 수 있다. 이 경우, 스펙트로그램에 멜 스케일을 적용하여 멜 스펙트로그램으로 변환하는 단계를 더 포함할 수 있다.Alternatively, according to an embodiment of the present invention, the step of converting environmental sensing information obtained in the time domain into information in the frequency domain (S29140) may include converting acoustic information into spectrogram information in the frequency domain. . In this case, the step of applying Mel scale to the spectrogram and converting it into Mel spectrogram may be further included.
그리고, 본 발명의 일 실시예에 따라서, 그래픽 유저 인터페이스를 생성하는 단계(S29160)는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는 힙노그램 그래프 생성단계를 포함할 수 있다.And, according to an embodiment of the present invention, the step of generating a graphical user interface (S29160) may include a hypnogram graph generating step of generating a graph of the sleep stage within the user's sleep period based on sleep information. .
또한, 본 발명의 일 실시예에 따라, 힙노그램 그래프를 생성하는 데에 기초가 되는 수면 정보는, 시간 도메인상에서 획득된 수면 정보를 주파수 도메인상의 정보로 변환한 것일 수 있다.Additionally, according to an embodiment of the present invention, sleep information that is the basis for generating a hypnogram graph may be obtained by converting sleep information obtained in the time domain into information in the frequency domain.
또는, 본 발명의 일 실시예에 따라, 주파수 도메인상의 정보는 스펙트로그램 또는 멜 스케일이 적용된 멜 스펙트로그램일 수 있다.Alternatively, according to an embodiment of the present invention, the information in the frequency domain may be a spectrogram or a Mel spectrogram to which a Mel scale is applied.
또한, 본 발명의 일 실시예에 따른 그래픽 유저 인터페이스를 생성하는 단계(S29160)는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 안정도에 대한 그래프를 생성하는 단계를 포함할 수 있다.Additionally, the step of generating a graphical user interface (S29160) according to an embodiment of the present invention may include generating a graph about sleep stability within the user's sleep period based on sleep information.
사용자 수면 희망 시각User's desired sleep time
본 발명에 따르면, 사용자는 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법에 있어서, 사용자 수면 희망 시각을 미리 설정할 수 있다. 예를 들어, 사용자 수면 희망 시각이 오후 10시로 설정된 경우, 이하에서 설명할 수면 측정 개시 트리거가 활성화될 수 있도록 설정될 수 있다. According to the present invention, in a method for starting sleep measurement through the user device 10, the user can set the user's desired sleep time in advance. For example, if the user's desired sleep time is set to 10 PM, the sleep measurement start trigger, which will be described below, may be set to be activated.
이하의 모든 실시예들에 있어서, 사용자 수면 희망 시각이 설정되었다면, 사용자 수면 희망 시각 이후에, 비로소 수면 측정을 개시하기 위한 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;가 진행될 수 있을 것이다.In all of the following embodiments, if the user's desired sleep time is set, a sensing step of sensing a sleep measurement start trigger to start sleep measurement only after the user's desired sleep time; and a start step of starting sleep measurement at the time the trigger is sensed.
한편, 이하의 모든 실시예들에 있어서, 사용자 디바이스(10)에서 동작하는 애플리케이션들과 관련된 이벤트의 발생을 나타내는 정보의 출력이 제한된 모드(예컨대, 취침 모드, 수면 모드, 잠들기 모드 등)로 동작하도록 설정되었다면, 수면 모드 설정 이후에, 비로소 수면 측정을 개시하기 위한 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;가 진행될 수 있을 것이다.Meanwhile, in all of the following embodiments, the user device 10 operates in a mode in which the output of information indicating the occurrence of events related to applications operating on the user device 10 is restricted (e.g., sleep mode, sleep mode, falling asleep mode, etc.). If set, a sensing step of sensing a sleep measurement start trigger to start sleep measurement only after setting the sleep mode; and a start step of starting sleep measurement at the time the trigger is sensed.
또한, 본 발명의 일 실시예에 따르면, 사용자 수면 희망 시각이 설정된 경우, 설정된 사용자 수면 희망 시각 이후에 사용자 디바이스(10)가 수면 모드 등으로 동작하도록 설정될 수 있으며, 이러한 경우 사용자 수면 희망 시각을 설정한다는 것은 사용자 디바이스(10)가 수면 모드 등으로 동작하기 시작하는 시각을 설정한다는 것을 의미할 수 있다.In addition, according to an embodiment of the present invention, when the user's desired sleep time is set, the user device 10 may be set to operate in a sleep mode, etc. after the set user's desired sleep time, and in this case, the user's desired sleep time Setting may mean setting the time at which the user device 10 starts operating in sleep mode, etc.
이하 도면을 활용하여 본 발명의 실시예들에 따른 수면 측정 개시 트리거를 센싱하는 방법을 자세하게 설명한다. 한편, 본 발명에 따른 이하의 실시예들에 있어서, 수면 측정 개시 트리거를 각각 독립적으로 센싱하였을 때에만 수면 측정을 개시하는 것뿐만 아니라, 두 가지 이상의 실시예에 따른 트리거 센싱 동작이 함께 센싱되는 경우 비로소 수면 측정의 트리거 센싱 시점으로 인식할 수도 있다.Hereinafter, a method for sensing a sleep measurement start trigger according to embodiments of the present invention will be described in detail using the drawings. Meanwhile, in the following embodiments according to the present invention, sleep measurement is not only started when each sleep measurement start trigger is sensed independently, but also when trigger sensing operations according to two or more embodiments are sensed together. Only then can it be recognized as the trigger sensing point for sleep measurement.
도32Figure 32
도 32는 본 발명의 일 실시예인 사용자 디바이스의 디스플레이부에 손가락 스와이프 입력이 센싱되면, 손가락 스와이프를 센싱하는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 32 is a diagram showing that when a finger swipe input is sensed on the display unit of a user device, which is an embodiment of the present invention, the time of sensing the finger swipe is recognized as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. According to the present invention, a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
도 32에 도시된 바와 같이, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있는 상태에서, 스와이프 입력 제1 방향(32110)으로 사용자 디바이스(10)의 디스플레이부를 손가락으로 스와이프 하는 경우, 사용자 디바이스(10)는 스와이프 입력 제1 방향(32110)으로의 스와이프를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도 34(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. As shown in FIG. 32, when the user's hand 32200 is holding the user device 10 and the display unit of the user device 10 is swiped with a finger in the first swipe input direction 32110. , the user device 10 may sense a swipe in the first swipe input direction 32110 as a sleep measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time when the sleep measurement start trigger is sensed. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 34(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있는 상태에서, 스와이프 입력 제2 방향(32120)으로 사용자 디바이스(10)의 디스플레이부를 손가락으로 스와이프 하는 경우, 사용자 디바이스(10)는 스와이프 입력 제2 방향(32120)으로의 스와이프를 수면 측정 개시 트리거로 센싱할 수 있다. 구체적으로, 사용자는 스와이프 입력 제1 방향(32110)과 스와이프 입력 제2 방향(32120) 중 스와이프를 수면 측정 개시 트리거로 센싱하기 위한 특정한 방향을 설정할 수 있으며, 미리 설정한 수면 측정 개시 트리거로 센싱하기 위한 특정한 방향이 스와이프 입력 제2 방향(32120)인 경우, 그에 따라 수면 측정이 개시될 수도 있다. According to another embodiment of the present invention, while the user's hand 32200 is holding the user device 10, the user swipes the display portion of the user device 10 with a finger in the second swipe input direction 32120. When wiping, the user device 10 may sense the swipe in the second swipe input direction 32120 as a sleep measurement start trigger. Specifically, the user can set a specific direction for sensing a swipe as a sleep measurement start trigger among the first swipe input direction (32110) and the second swipe input direction (32120), and a preset sleep measurement start trigger. If the specific direction for sensing is the second swipe input direction 32120, sleep measurement may be started accordingly.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있는 상태에서, 스와이프 입력 제1 방향(32110)으로 사용자 디바이스(10)의 디스플레이부를 손가락으로 스와이프 할 때, 수면 측정이 개시되도록 설정된 경우, 사용자 디바이스(10)는 스와이프 입력 제2 방향(32120)으로의 스와이프를 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다. According to another embodiment of the present invention, while the user's hand 32200 is holding the user device 10, the user swipes the display portion of the user device 10 with a finger in the first swipe input direction 32110. If sleep measurement is set to start when swiping, the user device 10 may sense a swipe in the second swipe input direction 32120 as a sleep measurement interruption trigger to stop sleep measurement, and the sleep measurement Sleep measurement can be stopped when the measurement interruption trigger is sensed.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있는 상태에서, 스와이프 입력 제2 방향(32120)으로 사용자 디바이스(10)의 디스플레이부를 손가락으로 스와이프 할 때, 수면 측정이 개시되도록 설정된 경우, 사용자 디바이스(10)는 스와이프 입력 제1 방향(32110)으로의 스와이프를 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다. According to another embodiment of the present invention, while the user's hand 32200 is holding the user device 10, the user swipes the display portion of the user device 10 with a finger in the second swipe input direction 32120. If sleep measurement is set to start when swiping, the user device 10 may sense a swipe in the first swipe input direction 32110 as a sleep measurement interruption trigger to stop sleep measurement, and the sleep measurement Sleep measurement can be stopped when the measurement interruption trigger is sensed.
도 33Figure 33
도 33은 본 발명의 일 실시예인 사용자 디바이스의 디스플레이부에 손바닥 스와이프 입력이 센싱되면, 손바닥 스와이프를 센싱하는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 33 is a diagram showing that when a palm swipe input is sensed on the display unit of a user device, which is an embodiment of the present invention, the time of sensing the palm swipe is recognized as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. According to the present invention, a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
도 33에 도시된 바와 같이, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있지 않은 상태에서, 스와이프 입력 제1 방향(33110)으로 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')를 손바닥으로 스와이프 하는 경우, 사용자 디바이스(10)는 스와이프 입력 제1 방향(33110)으로의 스와이프를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도34(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. As shown in FIG. 33, in a state where the user's hand 32200 is not holding the user device 10, the user device display unit 32100' of the user device 10 is displayed in the first swipe input direction 33110. ) with the palm of the hand, the user device 10 may sense the swipe in the first swipe input direction 33110 as a sleep measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in Figure 34(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있지 않은 상태에서, 스와이프 입력 제2 방향(33120)으로 사용자 디바이스(10)의 디스플레이부를 손바닥으로 스와이프 하는 경우, 사용자 디바이스(10)는 스와이프 입력 제2 방향(33120)으로의 스와이프를 수면 측정 개시 트리거로 센싱할 수 있다. 구체적으로, 사용자는 스와이프 입력 제1 방향(33110)과 스와이프 입력 제2 방향(33120) 중 스와이프를 수면 측정 개시 트리거로 센싱하기 위한 특정한 방향을 설정할 수 있으며, 미리 설정한 수면 측정 개시 트리거로 센싱하기 위한 특정한 방향이 스와이프 입력 제2 방향(33120)인 경우, 그에 따라 수면 측정이 개시될 수도 있다. According to another embodiment of the present invention, in a state where the user's hand 32200 is not holding the user device 10, the display unit of the user device 10 is held with the palm in the second swipe input direction 33120. When swiping, the user device 10 may sense the swipe in the second swipe input direction 33120 as a sleep measurement start trigger. Specifically, the user can set a specific direction for sensing a swipe as a sleep measurement start trigger among the first swipe input direction (33110) and the second swipe input direction (33120), and a preset sleep measurement start trigger. If the specific direction for sensing is the second swipe input direction 33120, sleep measurement may be started accordingly.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있지 않은 상태에서, 스와이프 입력 제1 방향(33110)으로 사용자 디바이스(10)의 디스플레이부를 손바닥으로 스와이프 할 때, 수면 측정이 개시되도록 설정된 경우, 사용자 디바이스(10)는 스와이프 입력 제2 방향(33120)으로의 스와이프를 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다. According to another embodiment of the present invention, in a state where the user's hand 32200 is not holding the user device 10, the user touches the display unit of the user device 10 with the palm in the first swipe input direction 33110. When sleep measurement is set to start when swiping, the user device 10 may sense a swipe in the second swipe input direction 33120 as a sleep measurement interruption trigger to stop sleep measurement, Sleep measurement can be stopped when the sleep measurement interruption trigger is sensed.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있지 않은 상태에서, 스와이프 입력 제2 방향(33120)으로 사용자 디바이스(10)의 디스플레이부를 손바닥으로 스와이프 할 때, 수면 측정이 개시되도록 설정된 경우, 사용자 디바이스(10)는 스와이프 입력 제1 방향(33110)으로의 스와이프를 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다. According to another embodiment of the present invention, in a state where the user's hand 32200 is not holding the user device 10, the display unit of the user device 10 is held with the palm in the second swipe input direction 33120. When sleep measurement is set to start when swiping, the user device 10 may sense a swipe in the first swipe input direction 33110 as a sleep measurement interruption trigger to stop sleep measurement, Sleep measurement can be stopped when the sleep measurement interruption trigger is sensed.
도34Figure 34
도 34는 본 발명의 일 실시예인 사용자 디바이스가 유선 충전 개시를 센싱하면, 충전 개시 센싱 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 34 is a diagram showing that when the user device, which is an embodiment of the present invention, senses the start of wired charging, it recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. According to the present invention, a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
도 34(a)에 도시된 바와 같이, 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결되어 있지 않은 경우, 사용자 디바이스 디스플레이부(32100')에는 수면 측정이 개시되지 않으므로, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타나지 않을 수 있다. As shown in FIG. 34(a), when the user device 10 is not connected to the user device charger 34300, sleep measurement is not started on the user device display unit 32100', indicating that sleep measurement is in progress. The displayed user interface 32100" may not appear on the user device display unit 32100' of the user device 10.
이와 반대로, 도 34(b)에 도시된 바와 같이, 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 경우, 사용자 디바이스(10)는 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다. 이에 따라, 사용자 디바이스 디스플레이부(32100')에는 수면 측정이 개시되어, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타날 수 있다. On the contrary, as shown in FIG. 34(b), when the user device 10 is connected to the user device charger 34300, the user device 10 is connected to the user device charger 34300. The time point can be sensed as a sleep measurement start trigger, and the time when the user device 10 is connected to the user device charger 34300 can be recognized as the sleep measurement start time point to start sleep measurement. Accordingly, sleep measurement may be initiated on the user device display unit 32100', and a user interface 32100" indicating that sleep measurement is in progress may appear on the user device display unit 32100' of the user device 10.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자 수면 희망 시각 이후에, 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 경우, 사용자 디바이스(10)는 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다. 바람직하게는, 사용자가 설정한 시간 범위는 사용자가 주로 잠에 드는 시간을 설정한 범위일 수 있고, 구체적인 예를 들어, 사용자가 주로 잠에 드는 시간이 오후 10시 이후인 경우, 오후 10시 이후에, 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 경우, 사용자 디바이스(10)는 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다.According to another embodiment of the present invention, when the user device 10 is connected to the user device charger 34300 after the user's desired sleep time, the user device 10 is connected to the user device charger (34300). 34300) can be sensed as a sleep measurement start trigger, and the user device 10 can recognize the time connected to the user device charger 34300 as the sleep measurement start time to start sleep measurement. Preferably, the time range set by the user may be a range in which the user usually sets the time to sleep. For example, if the time when the user mainly falls asleep is after 10 p.m., after 10 p.m. In the case where the user device 10 is connected to the user device charger 34300, the user device 10 may sense the time when the user device 10 is connected to the user device charger 34300 as a sleep measurement start trigger, The time when the user device 10 is connected to the user device charger 34300 may be recognized as the start time of sleep measurement and the sleep measurement may be started.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자 수면 희망 시각 이후에, 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 경우, 사용자 디바이스(10)는 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 사용자 디바이스(10)가 사용자 디바이스 충전기(34300)와 연결된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시한 이후에, 사용자가 사용자 디바이스(10)와 사용자 디바이스 충전기(34300) 간의 연결을 해제한 경우, 수면 측정이 중단될 수 있고, 이 경우, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에서 나타나지 않을 수 있다. According to another embodiment of the present invention, when the user device 10 is connected to the user device charger 34300 after the user's desired sleep time, the user device 10 is connected to the user device charger (34300). 34300) can be sensed as a sleep measurement start trigger, and after the user device 10 recognizes the time connected to the user device charger 34300 as the sleep measurement start time and starts sleep measurement, the user If the connection between the device 10 and the user device charger 34300 is disconnected, sleep measurement may be interrupted, and in this case, the user interface 32100" indicating that sleep measurement is being displayed is displayed on the user device 10. It may not appear in section 32100'.
도35Figure 35
도 35는 본 발명의 일 실시예인 사용자 디바이스가 무선 충전 개시를 센싱하면, 충전 개시 센싱 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 35 is a diagram showing that when a user device, which is an embodiment of the present invention, senses the start of wireless charging, it recognizes the charging start sensing time as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. According to the present invention, a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
도 35(a)에 도시된 바와 같이, 사용자 디바이스(10)가 사용자 디바이스 무선충전 패드(35400)에 접촉되지 않은 경우, 사용자 디바이스 디스플레이부(32100')에는 수면 측정이 개시되지 않으므로, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타나지 않을 수 있다. As shown in FIG. 35(a), when the user device 10 is not in contact with the user device wireless charging pad 35400, sleep measurement is not initiated on the user device display unit 32100', so sleep measurement is in progress. The user interface 32100" indicating may not appear on the user device display unit 32100' of the user device 10.
이와 반대로, 도 35(b)에 도시된 바와 같이, 사용자 디바이스(10)가 사용자 디바이스 무선 충전 패드(35400)에 접촉되는 경우, 사용자 디바이스(10)는 사용자 디바이스(10)가 사용자 디바이스 무선 충전 패드(35400)에 접촉된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 사용자 디바이스(10)가 사용자 디바이스 무선충전 패드(35400)에 접촉된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다. 이에 따라, 사용자 디바이스 디스플레이부(32100')에는 수면 측정이 개시되어, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타날 수 있다. On the contrary, as shown in FIG. 35(b), when the user device 10 is in contact with the user device wireless charging pad 35400, the user device 10 is connected to the user device wireless charging pad 35400. The point of contact with (35400) can be sensed as a sleep measurement start trigger, and the user device 10 can recognize the point of contact with the user device wireless charging pad 35400 as the sleep measurement start point to start sleep measurement. there is. Accordingly, sleep measurement may be initiated on the user device display unit 32100', and a user interface 32100" indicating that sleep measurement is in progress may appear on the user device display unit 32100' of the user device 10.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자 수면 희망 시각 이후에, 사용자 디바이스(10)가 사용자 디바이스 무선충전 패드(35400)에 접촉된 경우, 사용자 디바이스(10)는 사용자 디바이스(10)가 사용자 디바이스 무선충전 패드(35400)에 접촉된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 사용자 디바이스(10)가 사용자 디바이스 무선충전 패드(35400)에 접촉된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다. 바람직하게는, 사용자가 설정한 시간 범위는 사용자가 주로 잠에 드는 시간을 설정한 범위일 수 있고, 구체적인 예를 들어, 사용자가 주로 잠에 드는 시간이 오후 10시 이후인 경우, 오후 10시 이후에, 사용자 디바이스(10)가 사용자 디바이스 무선 충전 패드(35400)에 접촉된 경우, 사용자 디바이스(10)는 사용자 디바이스(10)가 사용자 디바이스 무선 충전 패드(35400)에 접촉된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 사용자 디바이스(10)가 사용자 디바이스 무선 충전 패드(35400)에 접촉된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다.According to another embodiment of the present invention, when the user device 10 comes into contact with the user device wireless charging pad 35400 after the user's desired sleep time, the user device 10 The time of contact with the device wireless charging pad 35400 can be sensed as a sleep measurement start trigger, and the time when the user device 10 touches the user device wireless charging pad 35400 is recognized as the sleep measurement start time to measure sleep. can be initiated. Preferably, the time range set by the user may be a range in which the user usually sets the time to sleep. For example, if the time when the user mainly falls asleep is after 10 p.m., after 10 p.m. When the user device 10 is in contact with the user device wireless charging pad 35400, the user device 10 triggers the start of sleep measurement at the time when the user device 10 is in contact with the user device wireless charging pad 35400. The sleep measurement can be started by recognizing the time when the user device 10 touches the user device wireless charging pad 35400 as the sleep measurement start time.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자가 설정한 시간 범위 내에서, 사용자 디바이스(10)가 사용자 디바이스 무선충전 패드(35400)에 접촉된 경우, 사용자 디바이스(10)는 사용자 디바이스(10)가 사용자 디바이스 무선충전 패드(35400)에 접촉된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 사용자 디바이스(10)가 사용자 디바이스 무선충전 패드(35400)에 접촉된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시한 이후에, 사용자가 사용자 디바이스(10)와 사용자 디바이스 무선충전 패드(35400)간의 접촉을 해제한 경우, 수면 측정이 중단될 수 있고, 이 경우, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에서 나타나지 않을 수 있다.According to another embodiment of the present invention, when the user device 10 is in contact with the user device wireless charging pad 35400 within the time range set by the user, the user device 10 The time when the user device touches the wireless charging pad 35400 can be sensed as a sleep measurement start trigger, and the time when the user device 10 touches the user device wireless charging pad 35400 is recognized as the sleep measurement start time. After starting sleep measurement, if the user releases contact between the user device 10 and the user device wireless charging pad 35400, sleep measurement may be stopped, and in this case, a user interface indicating that sleep measurement is in progress ( 32100") may not appear on the user device display unit 32100' of the user device 10.
도 36Figure 36
도 36은 본 발명의 일 실시예인 사용자 디바이스에 운동 또는 움직임이 센싱되면, 운동 또는 움직임이 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 36 is a diagram showing that when exercise or movement is sensed by a user device, which is an embodiment of the present invention, the time at which the exercise or movement is sensed is recognized as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. According to the present invention, a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
도 36에 도시된 바와 같이, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있는 상태에서, 사용자 디바이스(10)를 흔드는 경우, 사용자 디바이스(10)는 사용자의 운동 또는 움직임을 센싱할 수 있다. 이 때, 사용자 디바이스(10)의 가속도계 센서가 사용자의 운동 또는 움직임을 감지할 수 있으며, 구체적인 예를 들어, 자이로 센서(Gyro sensor)가 사용자의 운동 또는 움직임을 감지할 수 있고, 이 경우, 자이로 센서는 가속도를 측정하는 가속도 센서와 달리 각속도를 측정할 수 있다. As shown in FIG. 36, when the user's hand 32200 is holding the user device 10 and the user device 10 is shaken, the user device 10 can sense the user's exercise or movement. there is. At this time, the accelerometer sensor of the user device 10 may detect the user's exercise or movement. For example, a gyro sensor may detect the user's exercise or movement. In this case, the gyro sensor may detect the user's exercise or movement. The sensor can measure angular velocity, unlike an accelerometer that measures acceleration.
이에 따라, 사용자 디바이스(10)는 사용자 디바이스(10)의 가속도계 센서가 사용자의 운동 또는 움직임을 감지한 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여, 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도 36(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects the user's exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 36(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자 디바이스(10)는 사용자 디바이스(10)의 가속도계 센서가 사용자의 운동 또는 움직임을 감지한 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여, 수면 측정을 개시할 수 있고, 이 때, 사용자의 손(32200)이 수면 측정 중인 사용자 디바이스(10)를 한번 더 흔드는 경우, 사용자 디바이스(10)는 수면 측정 중인 사용자 디바이스(10)를 한번 더 흔드는 것을 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다.According to another embodiment of the present invention, the user device 10 recognizes the time when the accelerometer sensor of the user device 10 detects the user's exercise or movement as the time when the sleep measurement start trigger is sensed, and sleep measurement may be initiated, and at this time, when the user's hand 32200 shakes the user device 10 that is measuring sleep once more, the user device 10 shakes the user device 10 that is measuring sleep once more to detect sleep. It can be sensed as a sleep measurement interruption trigger to stop measurement, and sleep measurement can be stopped at the point when the sleep measurement interruption trigger is sensed.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자가 설정한 시간 범위 내에서, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있는 상태에서, 사용자 디바이스(10)를 흔드는 경우, 사용자 디바이스(10)는 사용자의 운동 또는 움직임을 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 사용자 디바이스(10)의 가속도계 센서가 운동 또는 움직임을 감지한 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여, 수면 측정을 개시할 수 있다. 구체적인 예를 들어, 사용자가 주로 잠에 드는 오후 10시 이후로 시간의 범위를 설정한 경우, 오후 10시가 지난 이후에, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있는 상태에서, 사용자 디바이스(10)를 흔드는 경우, 사용자 디바이스(10)는 사용자의 운동 또는 움직임을 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 사용자 디바이스(10)의 가속도계 센서가 운동 또는 움직임을 감지한 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여, 수면 측정을 개시할 수 있다.According to another embodiment of the present invention, when the user device 10 is shaken while the user's hand 32200 is holding the user device 10 within a time range set by the user, the user device ( 10) can sense the user's exercise or movement. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement. For example, if the time range is set to after 10 PM, when the user usually goes to sleep, after 10 PM, while the user's hand 32200 is holding the user device 10, the user When the device 10 is shaken, the user device 10 may sense the user's exercise or movement. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자가 설정한 시간 범위 내에서, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있는 상태에서, 사용자 디바이스(10)를 흔드는 경우, 사용자 디바이스(10)는 사용자의 운동 또는 움직임을 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 사용자 디바이스(10)의 가속도계 센서가 사용자의 운동 또는 움직임을 감지한 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여, 수면 측정을 개시할 수 있다. 이 경우, 사용자의 손(32200)이 수면 측정 중인 사용자 디바이스(10)를 한번 더 흔드는 경우, 사용자 디바이스(10)는 수면 측정 중인 사용자 디바이스(10)를 한번 더 흔드는 것을 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다. According to another embodiment of the present invention, when the user device 10 is shaken while the user's hand 32200 is holding the user device 10 within a time range set by the user, the user device ( 10) can sense the user's exercise or movement. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects the user's exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement. In this case, when the user's hand 32200 shakes the user device 10 that is measuring sleep once more, the user device 10 shakes the user device 10 that is measuring sleep once more to stop sleep measurement. It can be sensed with a measurement stop trigger, and sleep measurement can be stopped at the point when the sleep measurement stop trigger is sensed.
구체적인 예를 들어, 사용자가 주로 잠에 드는 오후 10시 이후로 시간의 범위를 설정한 경우, 오후 10시가 지난 이후에, 사용자의 손(32200)이 사용자 디바이스(10)를 쥐고 있는 상태에서, 사용자 디바이스(10)를 흔드는 경우, 사용자 디바이스(10)는 사용자의 운동 또는 움직임을 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 사용자 디바이스(10)의 가속도계 센서가 사용자의 운동 또는 움직임을 감지한 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여, 수면 측정을 개시할 수 있다. 이 경우, 사용자의 손(32200)이 수면 측정 중인 사용자 디바이스(10)를 한번 더 흔드는 경우, 사용자 디바이스(10)는 수면 측정 중인 사용자 디바이스(10)를 한번 더 흔드는 것을 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다. 상술한 운동 또는 움직임의 구체적인 패턴(예컨대, 흔들림)은 단순히 본 발명을 설명하기 위한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.For example, if the time range is set to after 10 PM, when the user usually goes to sleep, after 10 PM, while the user's hand 32200 is holding the user device 10, the user When the device 10 is shaken, the user device 10 may sense the user's exercise or movement. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the user device 10 detects the user's exercise or movement as the time when the sleep measurement start trigger is sensed, and start sleep measurement. In this case, when the user's hand 32200 shakes the user device 10 that is measuring sleep once more, the user device 10 shakes the user device 10 that is measuring sleep once more to stop sleep measurement. It can be sensed with a measurement stop trigger, and sleep measurement can be stopped at the point when the sleep measurement stop trigger is sensed. The above-described movement or specific pattern of movement (eg, shaking) is merely an example for explaining the present invention, and the present invention is not limited thereto.
도 37Figure 37
도 37은 본 발명의 일 실시예인 사용자 디바이스에 사용자 음성이 센싱되면, 사용자 음성이 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 37 is a diagram showing that when a user's voice is sensed by a user device, which is an embodiment of the present invention, the time when the user's voice is sensed is recognized as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. According to the present invention, a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
도 37에 도시된 바와 같이, 사용자 디바이스(10)가 사용자 수면 측정 개시 트리거 음성(37210)을 센싱하는 경우, 상기 음성이 센싱된 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어, 사용자 수면 측정 개시 트리거 음성(37210)은 소정의 데시벨 이상을 사용자 디바이스(10)가 센싱한 경우일 수 있으며, 사용자 수면 측정 개시 트리거 음성(37210)은 사용자가 설정한 시간 범위 내에서 소정의 데시벨 이상을 사용자 디바이스(10)가 센싱한 경우일 수 있고, 사용자 디바이스(10)가 사용자 수면 측정 개시 트리거 음성(37210)의 의미 자체를 인식하는 것일 수 있다. As shown in FIG. 37 , when the user device 10 senses the user's sleep measurement start trigger voice 37210, sleep measurement may be started at the time when the voice is sensed. For a specific example, the user sleep measurement start trigger voice 37210 may be when the user device 10 senses a level higher than a predetermined decibel, and the user sleep measurement start trigger voice 37210 may be within the time range set by the user. This may be the case where the user device 10 senses a level higher than a predetermined decibel, and the user device 10 may recognize the meaning of the user sleep measurement start trigger voice 37210.
본 발명의 일 실시 형태에 따르면, 사용자 디바이스(10)가 사용자 수면 측정 개시 트리거 음성(37210)의 의미 자체를 인식하는 경우, 외부 서버(20)가 사용자 디바이스(10)로부터 수신하는 사용자 수면 측정 개시 트리거 음성(37210)의 음성 데이터를 분석하여 사용자의 발화의 의도를 도출하고, 사용자 디바이스(10)로 사용자의 발화의 의도에 대응하는 신호, 데이터 또는 명령의 전송을 수행하는 음성 데이터 분석 모듈을 포함할 수 있다. 구체적으로, 음성 데이터 분석 모듈은 자동 음성 인식(automatic speech recognition; ASR) 모듈 또는 자연 언어 이해(natural language understanding; NLU) 모듈 중 적어도 하나를 포함할 수 있다.According to one embodiment of the present invention, when the user device 10 recognizes the meaning of the user sleep measurement start trigger voice 37210, the external server 20 starts the user sleep measurement received from the user device 10. Includes a voice data analysis module that analyzes voice data of the trigger voice 37210 to derive the user's utterance intention and transmits a signal, data, or command corresponding to the user's utterance intention to the user device 10. can do. Specifically, the speech data analysis module may include at least one of an automatic speech recognition (ASR) module or a natural language understanding (NLU) module.
도시된 바와 같이, 사용자가 "나 이제 잘거야"등의 사용자 수면 측정 개시 트리거 음성(37210)을 발화하는 경우, 사용자 디바이스(10)가 사용자 수면 측정 개시 트리거 음성(37210)의 의미 자체를 인식하여, 사용자 수면 측정 개시 트리거 음성(37210)을 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어, 사용자 수면 측정 개시 트리거 음성(37210)은 "나 졸려", "나 잘래", "나 이제 자려구", "나 잔다"등과 같은 사용자가 잠을 자려는 의도를 나타내는 음성일 수 있다. As shown, when the user utters the user sleep measurement start trigger voice 37210, such as “I am going to sleep now,” the user device 10 recognizes the meaning of the user sleep measurement start trigger voice 37210 and , Sleep measurement can be started at the point when the user's sleep measurement start trigger voice (37210) is sensed. As a specific example, the user sleep measurement initiation trigger voice 37210 may be a voice indicating the user's intention to sleep, such as “I'm sleepy,” “I'm going to sleep,” “I'm going to sleep now,” “I'm going to sleep,” etc. there is.
도38Figure 38
도 38은 본 발명의 일 실시예인 사용자 디바이스에 네트워크로 연결된 타 디바이스가 수면 측정 개시 트리거 정보를 센싱하면, 상기 센싱 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 38 is a diagram illustrating that when another device connected to the user device through a network senses sleep measurement start trigger information, which is an embodiment of the present invention, the sensing time is recognized as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 사용자 디바이스에 네트워크(38230)로 연결된 타 디바이스(38220)가 수면 측정 개시 트리거 정보를 센싱하고, 상기 타 디바이스가 센싱한 상기 수면 측정 개시 트리거 정보를 송신하면, 상기 송신된 수면 측정 개시 트리거 정보를 수신하는 수신 단계; 및 상기 수신한 수면 측정 개시 트리거 정보에 기초하여 상기 트리거 정보가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. According to the present invention, the method for starting sleep measurement through the user device 10 is that another device (38220) connected to the user device through a network (38230) senses sleep measurement start trigger information, and the other device senses sleep measurement start trigger information. A receiving step of receiving the transmitted sleep measurement start trigger information when the sleep measurement start trigger information is transmitted; and a starting step of starting sleep measurement at a time when the trigger information is sensed based on the received sleep measurement start trigger information.
타 디바이스 신체 접촉Physical contact with other devices
도 38에 도시된 바와 같이, 사용자 디바이스(10)를 통한 수면 측정 개시 트리거는 타 디바이스(38220)와 사용자의 신체 간의 물리적인 접촉일 수 있고, 이 경우, 사용자 디바이스(10)는 타 디바이스(38220)와 사용자의 신체 간의 물리적인 접촉이 있는 시점을 네트워크(38230)를 통해 센싱하여, 센싱된 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어, 타 디바이스(38220)는 사용자가 신체에 착용할 수 있도록 구성된 "스마트 워치" 형태의 디바이스일 수 있고, 사용자가 신체에 착용하여 물리적인 접촉이 발생하는 경우, 사용자 디바이스(10)는 타 디바이스(38220)와 사용자의 신체 간의 물리적인 접촉이 있는 시점을 센싱하여, 센싱된 시점에 수면 측정을 개시할 수 있다.As shown in FIG. 38, the trigger for starting sleep measurement through the user device 10 may be physical contact between another device 38220 and the user's body. In this case, the user device 10 may be connected to the other device 38220. ) and the user's body can be sensed through the network (38230), and sleep measurement can be started at the sensed time. For a specific example, the other device 38220 may be a “smart watch” type device configured to be worn by the user on the body, and when the user wears it on the body and physical contact occurs, the user device 10 can sense the point in time when there is physical contact between another device 38220 and the user's body and start measuring sleep at the sensed point in time.
본 발명의 타 디바이스(38220)는 스마트 워치, 스마트 반지, 오우라 링, 블루투스 이어폰, 스마트 밴드, 스마트 안경, 착용 컴퓨터, 스마트 가전기기, 사용자의 수면 환경을 조정하기 위한 전자장치 등을 모두 포함하나, 이에 한정되는 것은 아니다. Other devices (38220) of the present invention include smart watches, smart rings, Oura rings, Bluetooth earphones, smart bands, smart glasses, wearable computers, smart home appliances, electronic devices for adjusting the user's sleep environment, etc. , but is not limited to this.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자가 설정한 시간 범위 내에서, 수면 측정 개시 트리거가 발생한 경우, 수면 측정을 개시할 수 있다. 구체적인 예를 들어, 사용자가 설정한 시간이 오후 10시인 경우, 오후 10시 이후에 타 디바이스(38220)와 사용자의 신체 간의 물리적인 접촉이 있는 경우, 사용자 디바이스(10)는 타 디바이스(38220)와 사용자의 신체 간의 물리적인 접촉이 있는 시점을 네트워크(38230)를 통해 센싱하여, 센싱된 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어, 타 디바이스(38220)는 사용자가 신체에 착용할 수 있도록 구성된 "스마트 워치" 형태의 디바이스일 수 있고, 사용자가 설정한 시간인 밤 10시 이후에 사용자가 신체에 착용하여 물리적인 접촉이 발생하는 경우, 사용자 디바이스(10)는 타 디바이스(38220)와 사용자의 신체 간의 물리적인 접촉이 있는 시점을 센싱하여, 센싱된 시점에 수면 측정을 개시할 수 있다.According to another embodiment of the present invention, when a sleep measurement start trigger occurs within a time range set by the user, sleep measurement may be started. For example, if the time set by the user is 10 p.m., and there is physical contact between the other device 38220 and the user's body after 10 p.m., the user device 10 contacts the other device 38220. The point at which there is physical contact between the user's bodies can be sensed through the network 38230, and sleep measurement can be started at the sensed point in time. For a specific example, the other device 38220 may be a “smart watch” type device configured to be worn by the user on the body, and may be worn on the user’s body after 10 p.m., a time set by the user, to physically watch the device. When contact occurs, the user device 10 may sense the point in time when there is physical contact between the other device 38220 and the user's body and start measuring sleep at the sensed point in time.
타 디바이스 사용자 디바이스 접촉Contact with another device user device
본 발명의 또 다른 일 실시 형태에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 사용자 디바이스에 네트워크(38230)로 연결된 타 디바이스(38220)가 수면 측정 개시 트리거 정보를 센싱하고, 상기 타 디바이스가 센싱한 상기 수면 측정 개시 트리거 정보를 송신하면, 상기 송신된 수면 측정 개시 트리거 정보를 수신하는 수신 단계; 및 상기 수신한 수면 측정 개시 트리거 정보에 기초하여 상기 트리거 정보가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. 이 경우, 상기 수면 측정 개시 트리거는 상기 타 디바이스(38220)와 상기 사용자 디바이스간(10)의 물리적인 접촉이고, 상기 개시 단계는, 상기 타 디바이스와 상기 사용자 디바이스간의 물리적인 접촉을 센싱한 시점에 수면 측정을 개시하는 것을 포함할 수 있다. According to another embodiment of the present invention, a method for starting sleep measurement through the user device 10 includes another device 38220 connected to the user device through a network 38230 sensing sleep measurement start trigger information, When the other device transmits the sleep measurement start trigger information sensed, a receiving step of receiving the transmitted sleep measurement start trigger information; and a starting step of starting sleep measurement at a time when the trigger information is sensed based on the received sleep measurement start trigger information. In this case, the sleep measurement start trigger is a physical contact between the other device 38220 and the user device 10, and the start step is when physical contact between the other device and the user device is sensed. It may include initiating sleep measurement.
구체적인 예를 들어, 사용자가 타 디바이스(38220)에 포함되는 "스마트 워치"를 착용한 후, 사용자 디바이스(10)에 현재 착용하고 있는 타 디바이스(38220)를 터치하는 경우, 사용자 디바이스(10)는 사용자 디바이스(10)와 타 디바이스(38220)가 물리적으로 접촉하는 시점을 수면 측정 개시 트리거로 센싱할 수 있다. For a specific example, when a user wears a “smart watch” included in another device 38220 and then touches the other device 38220 currently being worn on the user device 10, the user device 10 The point at which the user device 10 and another device 38220 come into physical contact can be sensed as a sleep measurement start trigger.
바람직한 실시예는, 사용자가 설정해둔 수면 희망 시각 이후인, 오후 10시 이후에, 사용자가 타 디바이스(38220)에 포함되는 "스마트 워치"를 착용한 후, 사용자 디바이스(10)에 현재 착용하고 있는 타 디바이스(38220)를 터치하는 경우, 사용자 디바이스(10)는 사용자 디바이스(10)와 타 디바이스(38220)가 물리적으로 접촉하는 시점을 수면 측정 개시 트리거로 센싱할 수 있다. In a preferred embodiment, after 10 p.m., which is after the desired sleep time set by the user, the user wears the “smart watch” included in the other device 38220 and then displays the currently worn watch on the user device 10. When touching another device 38220, the user device 10 may sense the point at which the user device 10 and the other device 38220 physically contact as a sleep measurement start trigger.
타 디바이스 음성 인식Other device voice recognition
본 발명의 또 다른 실시 형태에 따르면, 수면 측정 개시 트리거는 타 디바이스(38220)에 입력되는 사용자 수면 측정 개시 트리거 음성(37210)일 수 있고, 개시 단계는, 타 디바이스(38220)에 입력되는 사용자 수면 측정 개시 트리거 음성(37210)을 센싱한 시점을 네트워크(230)를 통하여 사용자 디바이스(10)에 송신하면, 사용자 디바이스(10)는 타 디바이스(38220)가 사용자 수면 측정 개시 트리거 음성(37210)의 의미 자체를 인식하여, 사용자 수면 측정 개시 트리거 음성(37210)을 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어, 사용자가 "나 이제 잘거야"등의 사용자 수면 측정 개시 트리거 음성(37210)을 발화하는 경우, 타 디바이스(38220)가 사용자 수면 측정 개시 트리거 음성(37210)의 의미 자체를 인식하여, 사용자 수면 측정 개시 트리거 음성(37210)을 센싱한 시점을 네트워크(38230)를 통하여 사용자 디바이스(10)에 송신하면, 사용자 디바이스(10)는 타 디바이스(38220)가 사용자 수면 측정 개시 트리거 음성(37210)의 의미 자체를 인식하여, 사용자 수면 측정 개시 트리거 음성(37210)을 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어, 사용자 수면 측정 개시 트리거 음성(37210)은 "나 졸려", "나 잘래", "나 이제 자려구", "나 잔다"등과 같은 사용자가 잠을 자려는 의도를 나타내는 음성일 수 있다. According to another embodiment of the present invention, the sleep measurement start trigger may be a user sleep measurement start trigger voice 37210 input to another device 38220, and the start step may be a user sleep measurement start trigger voice 37210 input to another device 38220. When the time at which the measurement start trigger voice 37210 is sensed is transmitted to the user device 10 through the network 230, the user device 10 determines the meaning of the user sleep measurement start trigger voice 37210 by another device 38220. By recognizing itself, sleep measurement can be started at the point when the user's sleep measurement start trigger voice (37210) is sensed. For a specific example, when the user utters the user sleep measurement start trigger voice 37210, such as “I am going to sleep now,” the other device 38220 recognizes the meaning of the user sleep measurement start trigger voice 37210 and , when the time at which the user sleep measurement start trigger voice 37210 is sensed is transmitted to the user device 10 through the network 38230, the user device 10 responds to the user sleep measurement start trigger voice 37210 by another device 38220. ) By recognizing the meaning itself, sleep measurement can be started at the time when the user's sleep measurement start trigger voice (37210) is sensed. As a specific example, the user sleep measurement initiation trigger voice 37210 may be a voice indicating the user's intention to sleep, such as “I'm sleepy,” “I'm going to sleep,” “I'm going to sleep now,” “I'm going to sleep,” etc. there is.
타 디바이스 충전Charging other devices
본 발명의 또 다른 실시 형태에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 수면 측정 개시 트리거는 사용자 수면 희망 시각 이후에 타 디바이스(38220)가 충전을 시작하였다는 신호일 수 있고, 개시 단계는, 타 디바이스(38220)가 충전을 시작한 시점에 수면 측정을 개시하는 것을 포함할 수 있다. According to another embodiment of the present invention, in the method for starting sleep measurement through the user device 10, the sleep measurement start trigger may be a signal that another device (38220) has started charging after the user's desired sleep time, and , The initiating step may include initiating sleep measurement at the time when the other device 38220 starts charging.
구체적인 예를 들어, 사용자 수면 희망 시각 이후에, 타 디바이스(38220)가 충전기와 연결된 경우, 사용자 디바이스(10)는 타 디바이스(38220)가 충전기와 연결된 시점을 네트워크(38230)를 통해 수신받아, 수면 측정 개시 트리거로 센싱할 수 있고, 사용자 디바이스(10)가 타 디바이스(38220)가 충전기와 연결된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다. 바람직하게는, 사용자 수면 희망 시각은 사용자가 주로 잠에 드는 시간을 설정한 범위일 수 있고, 구체적인 예를 들어, 사용자가 주로 잠에 드는 시간이 오후 10시 이후인 경우, 오후 10시 이후에, 타 디바이스(38220)가 충전기와 연결된 경우, 사용자 디바이스(10)는 타 디바이스(38220)가 충전기와 연결된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 타 디바이스(38220)가 충전기와 연결된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다.For example, if another device 38220 is connected to the charger after the user's desired sleep time, the user device 10 receives the time when the other device 38220 is connected to the charger through the network 38230 and sleeps. It can be sensed using a measurement start trigger, and the user device 10 can recognize the time when another device 38220 is connected to the charger as the sleep measurement start time and start sleep measurement. Preferably, the user's desired sleep time may be a range in which the user usually sets the time to sleep. For example, if the user's main sleep time is after 10 p.m., after 10 p.m., When the other device 38220 is connected to the charger, the user device 10 can sense the time when the other device 38220 is connected to the charger as a sleep measurement start trigger, and the time when the other device 38220 is connected to the charger can be detected as the sleep measurement start trigger. Sleep measurement can be started by recognizing the measurement start time.
타 디바이스 운동 또는 움직임 인식Other device exercise or movement recognition
한편, 본 발명의 일 실시예에 따르면, 타 디바이스(38220)의 가속도계 센서가 타 디바이스(38220)의 운동 또는 움직임을 감지할 수 있으며, 구체적인 예를 들어, 자이로 센서(Gyro sensor)가 운동 또는 움직임을 감지할 수 있고, 이 경우, 자이로 센서는 가속도를 측정하는 가속도 센서와 달리 각속도를 측정할 수 있다. 이에 따라, 사용자 디바이스(10)는 타 디바이스(38220)의 가속도계 센서가 타 디바이스의 운동 또는 움직임을 감지한 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여, 수면 측정을 개시할 수 있다.Meanwhile, according to an embodiment of the present invention, the accelerometer sensor of the other device 38220 may detect the movement or movement of the other device 38220, and for a specific example, the gyro sensor may detect the movement or movement of the other device 38220. can detect, and in this case, the gyro sensor can measure angular velocity, unlike an accelerometer that measures acceleration. Accordingly, the user device 10 may recognize the time when the accelerometer sensor of the other device 38220 detects the exercise or movement of the other device as the time when the sleep measurement start trigger is sensed, and start sleep measurement.
구체적인 예를 들어, 사용자 수면 희망 시각 이후에, 타 디바이스(38220)의 가속도계 센서 및/또는 자이로 센서가 타 디바이스(38220)의 운동 또는 움직임을 감지하면, 사용자 디바이스(10)는 타 디바이스(38220)의 운동 또는 움직임 감지 시점을 네트워크(38230)를 통해 수신받아, 수면 측정 개시 트리거로서 센싱할 수 있고, 사용자 디바이스(10)가 타 디바이스(38220)의 운동 또는 움직임 감지 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다. 바람직하게는, 사용자 수면 희망 시각은 사용자가 주로 잠에 드는 시간을 설정한 범위일 수 있고, 구체적인 예를 들어, 사용자가 주로 잠에 드는 시간이 오후 10시 이후인 경우, 오후 10시 이후에 타 디바이스(38220)에서 운동 또는 움직임이 센싱된 경우, 사용자 디바이스(10)는 타 디바이스(38220)의 운동 또는 움직임이 센싱된 시점을 수면 측정 개시 트리거로 센싱할 수 있고, 타 디바이스(38220)의 운동 또는 움직임이 센싱된 시점을 수면 측정 개시 시점으로 인식하여 수면 측정을 개시할 수 있다. For a specific example, after the user's desired sleep time, if the accelerometer sensor and/or gyro sensor of the other device 38220 detects movement or movement of the other device 38220, the user device 10 detects the other device 38220 The exercise or motion detection point can be received through the network 38230 and sensed as a sleep measurement start trigger, and the user device 10 recognizes the exercise or motion detection point of the other device 38220 as the sleep measurement start point. Thus, sleep measurement can be started. Preferably, the user's desired sleep time may be a range in which the user usually sets the time to sleep. For example, if the user's main sleep time is after 10 p.m., the user may sleep after 10 p.m. When exercise or movement is sensed by the device 38220, the user device 10 can sense the time when the exercise or movement of another device 38220 is sensed as a sleep measurement start trigger, and the movement of the other device 38220 can be detected as a sleep measurement start trigger. Alternatively, sleep measurement can be started by recognizing the time when movement is sensed as the sleep measurement start time.
한편, 본 발명의 실시예들에 따르면, 타 디바이스(38220)에서 특정한 패턴의 운동 또는 움직임을 감지하였을 때 비로소 사용자 디바이스(10)가 해당 패턴의 운동 또는 움직임 감지 시점을 수면 측정 개시 시점으로 인식할 수 있다.Meanwhile, according to embodiments of the present invention, when another device 38220 detects exercise or movement of a specific pattern, the user device 10 recognizes the time of detection of exercise or movement of the pattern as the start time of sleep measurement. You can.
구체적인 예를 들어, 타 디바이스(38220)에서 흔들림을 감지하는 경우, 사용자 디바이스(10)는 타 디바이스(38220)에서 흔들림이 감지된 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여 수면 측정을 개시할 수 있다. 이 경우, 타 디바이스(38220)에 흔들림이 한 번 더 감지되는 경우, 사용자 디바이스(10)는 타 디바이스(38220)에 흔들림이 한 번 더 감지되는 것을 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다. 상술한 운동 또는 움직임의 구체적인 패턴(예컨대, 흔들림)은 단순히 본 발명을 설명하기 위한 예시일 뿐, 본 발명은 이에 한정되는 것은 아니다.For a specific example, when shaking is detected in another device 38220, the user device 10 recognizes the time when shaking is detected in the other device 38220 as the time when the sleep measurement start trigger is sensed and starts sleep measurement. can do. In this case, when shaking is detected once more in the other device (38220), the user device 10 senses the shaking in the other device (38220) as a sleep measurement interruption trigger to stop sleep measurement. This can be done, and sleep measurement can be stopped at the point when the sleep measurement interruption trigger is sensed. The above-described movement or specific pattern of movement (eg, shaking) is merely an example for explaining the present invention, and the present invention is not limited thereto.
도 39Figure 39
도 39는 본 발명의 일 실시예인 사용자 디바이스에 수면 음향 정보가 센싱되면, 수면 음향 정보가 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 39 is a diagram showing that when sleep sound information is sensed by a user device according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스(10)를 통한 수면 측정을 개시하기 위한 방법은 수면 측정 개시 트리거를 센싱하는 센싱 단계; 및 상기 트리거가 센싱된 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. According to the present invention, a method for starting sleep measurement through the user device 10 includes a sensing step of sensing a sleep measurement start trigger; and a starting step of starting sleep measurement at the time when the trigger is sensed.
도시된 바와 같이, 사용자가 잠에 드는 경우, 사용자 디바이스(10)는 사용자의 수면 음향 정보를 센싱할 수 있다. 전술한 바와 같이, 사용자 디바이스(10)는 사용자의 수면 음향 정보(SS)를 수신할 수 있으며, 사용자의 수면 음향 정보(SS)는 환경 센싱 정보를 포함할 수 있다. 구체적으로, 환경 센싱 정보는 일 공간 상에서의 사용자의 활동 또는 수면 동안 비침습적 방식으로 획득되는 정보를 포함할 수 있다. 구체적인 예를 들어, 환경 센싱 정보는, 수면 동안 사용자가 뒤척거림에 따라 발생되는 음향, 근육 움직임에 관련한 음향 또는 수면 동안 사용자의 호흡에 관련한 음향 등을 포함할 수 있다. 또는, 환경 센싱 정보는, 수면 동안 사용자의 움직임에 관련된 움직임과 거리 정보와, 이를 기초로 생성된 호흡 정보를 포함할 수 있다. As shown, when the user falls asleep, the user device 10 may sense the user's sleep sound information. As described above, the user device 10 may receive the user's sleep sound information (SS), and the user's sleep sound information (SS) may include environmental sensing information. Specifically, environmental sensing information may include information acquired in a non-invasive manner during the user's activities or sleep in the work space. For example, environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep. Alternatively, the environmental sensing information may include movement and distance information related to the user's movement during sleep, and breathing information generated based on this.
실시예에 따르면, 환경 센싱 정보는 수면 음향 정보(SS)를 포함할 수 있으며, 해당 수면 음향 정보(SS)는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련한 음향 정보를 의미할 수 있다. 또는 환경 센싱 정보는 수면 움직임 정보를 포함할 수 있으며, 수면 움직임 정보는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련된 정보를 의미할 수 있다.According to an embodiment, the environmental sensing information may include sleep sound information (SS), and the sleep sound information (SS) may mean sound information related to movement patterns and breathing patterns that occur during the user's sleep. . Alternatively, the environmental sensing information may include sleep movement information, and the sleep movement information may mean information related to movement patterns and breathing patterns that occur during the user's sleep.
이러한 수면 음향 정보(SS)는, 사용자의 호흡 및 움직임 등 매우 작은 음향(즉, 구분이 어려운 음향)에 관한 정보이며, 수면 환경 동안 다른 음향들과 함께 획득되는 것이므로, 낮은 신호 대 잡음비의 상기한 바와 같은 마이크 모듈을 통해 획득되는 경우, 탐지 및 분석이 매우 어려울 수 있다.This sleep sound information (SS) is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired along with other sounds during the sleep environment, so it has a low signal-to-noise ratio. When acquired through a microphone module such as a bar, detection and analysis can be very difficult.
본 발명의 일 실시 형태에 따르면, 도 39(a)에 도시된 바와 같이, 사용자가 아직 잠에 들지 않은 경우, 잠이 들지 않은 사용자(39240)에게서는 사용자 디바이스(10)가 수면 음향 정보를 센싱하지 못하므로, 사용자 디바이스(10)는 사용자의 수면 음향 정보를 수면 측정 개시 트리거로 센싱할 수 없다. According to one embodiment of the present invention, as shown in FIG. 39(a), when the user has not yet fallen asleep, the user device 10 does not sense sleep sound information from the user 39240 who is not asleep. Therefore, the user device 10 cannot sense the user's sleep sound information as a sleep measurement start trigger.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자가 아직 잠에 들지 않은 경우, 잠이 들지 않은 사용자(39240)에게서는 사용자 디바이스(10)가 수면 센싱 데이터를 센싱하지 못하므로, 사용자 디바이스(10)는 사용자의 수면 센싱 데이터를 수면 측정 개시 트리거로 센싱할 수 없다. 구체적으로, 수면 센싱 데이터는 사용자의 수면 환경에 관련하여 사전 결정된 시간 기간 동안 획득되는 사용자의 호흡 정보를 포함할 수 있다. 또한, 수면 센성 데이터는 사용자의 수면 환경에 관련하여 사전 결정된 시간 기간 동안 획득되는 사용자의 움직임 정보 및 심박수 정보를 더 포함할 수도 있다. 즉, 사용자 디바이스(10)는 사용자의 수면 환경에 관련하여 사용자로부터 호흡 정보, 움직임 정보 및 심박수 정보 중 적어도 하나의 정보를 획득하기 위한 센서 모듈을 포함하여 구성될 수 있다.According to another embodiment of the present invention, when the user is not yet asleep, the user device 10 cannot sense sleep sensing data from the user 39240 who is not asleep, so the user device 10 The user's sleep sensing data cannot be sensed as a sleep measurement start trigger. Specifically, the sleep sensing data may include the user's breathing information acquired during a predetermined time period related to the user's sleep environment. Additionally, the sleep sensitivity data may further include the user's movement information and heart rate information acquired during a predetermined time period in relation to the user's sleep environment. That is, the user device 10 may be configured to include a sensor module for obtaining at least one of breathing information, movement information, and heart rate information from the user in relation to the user's sleeping environment.
본 개시의 일 실시예에 따르면, 사용자 디바이스(10)는 특정 주파수의 전파를 송신하는 하나 이상의 송신 모듈 및 특정 주파수의 전파(예컨대, 극초단파(microwave))에 대응하여 생성된 반사파를 수신하는 수신 모듈을 포함하여 구비될 수 있다. 이 경우, 사용자 디바이스(10)는 송신 모듈에서 송신된 전파에 대응하는 반사파의 이동 거리에 따른 위상차, 또는 주파수 변화를 검출함으로써, 비접촉식으로 사용자로부터 수면 센싱 데이터를 획득할 수 있다. 예를 들어, 송신 모듈을 통해 송신된 전파가 객체에 부딪혀서 반사되는 경우, 위상차 또는, 주파수가 달라질 수 있다. 예컨대, 송신 모듈에 객체가 보다 근접하는 경우, 반사파의 주파수가 짧아지고, 점점 멀어지는 경우, 반사파의 주파수가 길어질 수 있다. 즉, 사용자 디바이스(10)는 반사파의 위상차 또는 주파수의 변화상태에 기반하여 사용자의 신체(예컨대, 복부 또는 흉부 등)의 움직임을 감지함으로써 사용자의 호흡에 관련한 수면 센싱 정보를 획득할 수 있다. 예를 들어, 사용자 디바이스(10)는 사용자의 수면 시, 사용자가 수면을 취하는 공간 일 영역에 위치할 수 있다. 사용자 디바이스(10)는 송신 모듈을 통해 특정 주파수를 가진 전파를 송신할 수 있으며, 상기 전파에 대응하여 사용자의 신체에서 반사되는 반사파를 수신 모듈을 통해 수신할 수 있다. 또한, 사용자 디바이스(10)는 수신 모듈을 통해 수신한 반사파의 위상차, 또는 주파수 변화에 기반하여 사용자의 호흡 정보, 움직임 정보 및 심박수 정보 중 적어도 하나의 정보를 획득할 수 있다. According to an embodiment of the present disclosure, the user device 10 includes one or more transmitting modules that transmit radio waves of a specific frequency and a receiving module that receives reflected waves generated in response to radio waves of a specific frequency (e.g., microwaves). It may be provided including. In this case, the user device 10 can obtain sleep sensing data from the user in a non-contact manner by detecting a phase difference or frequency change according to the moving distance of the reflected wave corresponding to the radio wave transmitted from the transmission module. For example, when radio waves transmitted through a transmission module hit an object and are reflected, the phase difference or frequency may vary. For example, when an object gets closer to the transmission module, the frequency of the reflected wave may become shorter, and as it moves further away, the frequency of the reflected wave may become longer. That is, the user device 10 may acquire sleep sensing information related to the user's breathing by detecting movement of the user's body (eg, abdomen or chest, etc.) based on the phase difference or frequency change state of the reflected wave. For example, when the user sleeps, the user device 10 may be located in an area of the space where the user sleeps. The user device 10 can transmit radio waves with a specific frequency through a transmission module, and receive reflected waves reflected from the user's body in response to the radio waves through a reception module. Additionally, the user device 10 may obtain at least one of the user's breathing information, movement information, and heart rate information based on the phase difference or frequency change of the reflected wave received through the reception module.
또한, 사용자 디바이스(10)는 상술한 바와 같이, 송신 모듈 및 수신 모듈을 구비하여 RF(Radio Frequency) 센싱 방식을 통해 수면 센싱 데이터를 획득할 수 있으나, 본 개시는 이에 제한되지 않는다. 추가적인 실시예에서, 본 개시의 사용자 디바이스(10)는 wifi 전파를 송신 및 검출하는 센서 모듈 및 사용자의 호흡과 관련한 공기의 흐름(airflow)을 검출하기 위한 센서 모듈 등을 더 포함하여 구성되어 수면 센싱 데이터를 획득할 수 있다.Additionally, as described above, the user device 10 may be equipped with a transmission module and a reception module to obtain sleep sensing data through RF (Radio Frequency) sensing, but the present disclosure is not limited thereto. In an additional embodiment, the user device 10 of the present disclosure is configured to further include a sensor module for transmitting and detecting WiFi radio waves and a sensor module for detecting airflow related to the user's breathing to perform sleep sensing. Data can be obtained.
반면에, 본 발명의 일 실시 형태에 따르면, 사용자 디바이스(10)가 잠이 든 사용자(39240')의 수면 음향 정보를 센싱하는 경우, 사용자 디바이스(10)는 사용자의 수면 음향 정보를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(00)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도 39(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. On the other hand, according to one embodiment of the present invention, when the user device 10 senses the sleep sound information of the user 39240' who is asleep, the user device 10 starts measuring the sleep sound information of the user. It can be sensed with a trigger. Accordingly, the user device 00 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in FIG. 39(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
또한, 반면에, 본 발명의 일 실시 형태에 따르면, 사용자 디바이스(10)가 잠이 든 사용자(39240')의 수면 센싱 데이터를 센싱하는 경우, 사용자 디바이스(10)는 사용자의 수면 센싱 데이터를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도39(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. Also, on the other hand, according to one embodiment of the present invention, when the user device 10 senses the sleep sensing data of the user 39240' who is asleep, the user device 10 detects the sleep sensing data of the user Sensing is possible with a measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in Figure 39(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
본 발명의 또 다른 일 실시 예에 따르면, 사용자 수면 희망 시각이 오후 10시로 설정된 경우, 오후 10시가 지난 이후에, 사용자 디바이스(10)가 잠이 든 사용자(39240')의 수면 음향 정보를 센싱하는 경우, 사용자 디바이스(10)는 잠이 든 사용자(39240')의 수면 음향 정보를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도 39(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. According to another embodiment of the present invention, when the user's desired sleep time is set to 10 p.m., after 10 p.m., the user device 10 senses sleep sound information of the sleeping user 39240'. In this case, the user device 10 may sense sleep sound information of the sleeping user 39240' as a sleep measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time when the sleep measurement start trigger is sensed. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in FIG. 39(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
도 40Figure 40
도 40은 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스에 수면 음향 정보가 센싱되면, 수면 음향 정보가 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. FIG. 40 is a diagram illustrating that when sleep sound information is sensed by a user device in a sleep mode according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법은, 사용자와 관련한 정보를 센싱하는 센싱 단계; 상기 센싱된 사용자와 관련한 정보에 기초하여 수면 측정 개시 시점을 결정하는 개시 결정 정보 생성 단계; 및 상기 결정된 개시 시점에 수면 측정을 개시하는 개시 단계;를 포함하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 포함할 수 있다. According to the present invention, a method for initiating sleep measurement through a user device includes a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start time. It may include a method for starting sleep measurement through a user device.
구체적으로, 수면 모드 중, 사용자가 잠에 드는 경우, 사용자 디바이스(10)는 사용자의 수면 음향 정보를 센싱할 수 있다. 전술한 바와 같이, 사용자 디바이스(10)는 사용자의 수면 음향 정보(SS)를 수신할 수 있으며, 사용자의 수면 음향 정보(SS)는 환경 센싱 정보를 포함할 수 있다. 구체적으로, 환경 센싱 정보는 일 공간 상에서의 사용자의 활동 또는 수면 동안 비침습적 방식으로 획득되는 정보를 포함할 수 있다. 구체적인 예를 들어, 환경 센싱 정보는, 수면 동안 사용자가 뒤척거림에 따라 발생되는 음향, 근육 움직임에 관련한 음향 또는 수면 동안 사용자의 호흡에 관련한 음향 등을 포함할 수 있다. 또는, 환경 센싱 정보는, 수면 동안 사용자의 움직임에 관련된 움직임과 거리 정보와, 이를 기초로 생성된 호흡 정보를 포함할 수 있다. Specifically, during sleep mode, when the user falls asleep, the user device 10 may sense the user's sleep sound information. As described above, the user device 10 may receive the user's sleep sound information (SS), and the user's sleep sound information (SS) may include environmental sensing information. Specifically, environmental sensing information may include information acquired in a non-invasive manner during the user's activities or sleep in the work space. For example, environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep. Alternatively, the environmental sensing information may include movement and distance information related to the user's movement during sleep, and breathing information generated based on this.
실시예에 따르면, 환경 센싱 정보는 수면 음향 정보(SS)를 포함할 수 있으며, 해당 수면 음향 정보(SS)는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련한 음향 정보를 의미할 수 있다. 또는 환경 센싱 정보는 수면 움직임 정보를 포함할 수 있으며, 수면 움직임 정보는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련된 정보를 의미할 수 있다.According to an embodiment, the environmental sensing information may include sleep sound information (SS), and the sleep sound information (SS) may mean sound information related to movement patterns and breathing patterns that occur during the user's sleep. . Alternatively, the environmental sensing information may include sleep movement information, and the sleep movement information may mean information related to movement patterns and breathing patterns that occur during the user's sleep.
이러한 수면 음향 정보(SS)는, 사용자의 호흡 및 움직임 등 매우 작은 음향(즉, 구분이 어려운 음향)에 관한 정보이며, 수면 환경 동안 다른 음향들과 함께 획득되는 것이므로, 낮은 신호 대 잡음비의 상기한 바와 같은 마이크 모듈을 통해 획득되는 경우, 탐지 및 분석이 매우 어려울 수 있다.This sleep sound information (SS) is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired along with other sounds during the sleep environment, so it has a low signal-to-noise ratio. When acquired through a microphone module such as a bar, detection and analysis can be very difficult.
본 발명의 일 실시 형태에 따르면, 도 40(a)에 도시된 바와 같이, 사용자가 아직 잠에 들지 않은 경우, 잠이 들지 않은 사용자(39240)에게서는 사용자 디바이스(10)가 수면 음향 정보를 센싱하지 못하므로, 사용자 디바이스(10)는 사용자의 수면 음향 정보를 수면 측정 개시 트리거로 센싱할 수 없다. According to one embodiment of the present invention, as shown in FIG. 40(a), when the user has not yet fallen asleep, the user device 10 does not sense sleep sound information from the user 39240 who is not asleep. Therefore, the user device 10 cannot sense the user's sleep sound information as a sleep measurement start trigger.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자가 아직 잠에 들지 않은 경우, 잠이 들지 않은 사용자(39240)에게서는 사용자 디바이스(10)가 수면 센싱 데이터를 센싱하지 못하므로, 사용자 디바이스(10)는 사용자의 수면 센싱 데이터를 수면 측정 개시 트리거로 센싱할 수 없다. 구체적으로, 수면 센싱 데이터는 사용자의 수면 환경에 관련하여 사전 결정된 시간 기간 동안 획득되는 사용자의 호흡 정보를 포함할 수 있다. 또한, 수면 센성 데이터는 사용자의 수면 환경에 관련하여 사전 결정된 시간 기간 동안 획득되는 사용자의 움직임 정보 및 심박수 정보를 더 포함할 수도 있다. 즉, 사용자 디바이스(10)는 사용자의 수면 환경에 관련하여 사용자로부터 호흡 정보, 움직임 정보 및 심박수 정보 중 적어도 하나의 정보를 획득하기 위한 센서 모듈을 포함하여 구성될 수 있다.According to another embodiment of the present invention, when the user is not yet asleep, the user device 10 cannot sense sleep sensing data from the user 39240 who is not asleep, so the user device 10 The user's sleep sensing data cannot be sensed as a sleep measurement start trigger. Specifically, the sleep sensing data may include the user's breathing information acquired during a predetermined time period related to the user's sleep environment. Additionally, the sleep sensitivity data may further include the user's movement information and heart rate information acquired during a predetermined time period in relation to the user's sleep environment. That is, the user device 10 may be configured to include a sensor module for obtaining at least one of breathing information, movement information, and heart rate information from the user in relation to the user's sleeping environment.
본 개시의 일 실시예에 따르면, 사용자 디바이스(10)는 특정 주파수의 전파를 송신하는 하나 이상의 송신 모듈 및 특정 주파수의 전파(예컨대, 극초단파(microwave))에 대응하여 생성된 반사파를 수신하는 수신 모듈을 포함하여 구비될 수 있다. 이 경우, 사용자 디바이스(10)는 송신 모듈에서 송신된 전파에 대응하는 반사파의 이동 거리에 따른 위상차, 또는 주파수 변화를 검출함으로써, 비접촉식으로 사용자로부터 수면 센싱 데이터를 획득할 수 있다. 예를 들어, 송신 모듈을 통해 송신된 전파가 객체에 부딪혀서 반사되는 경우, 위상차 또는, 주파수가 달라질 수 있다. 예컨대, 송신 모듈에 객체가 보다 근접하는 경우, 반사파의 주파수가 짧아지고, 점점 멀어지는 경우, 반사파의 주파수가 길어질 수 있다. According to an embodiment of the present disclosure, the user device 10 includes one or more transmitting modules that transmit radio waves of a specific frequency and a receiving module that receives reflected waves generated in response to radio waves of a specific frequency (e.g., microwaves). It may be provided including. In this case, the user device 10 can obtain sleep sensing data from the user in a non-contact manner by detecting a phase difference or frequency change according to the moving distance of the reflected wave corresponding to the radio wave transmitted from the transmission module. For example, when radio waves transmitted through a transmission module hit an object and are reflected, the phase difference or frequency may vary. For example, when an object gets closer to the transmission module, the frequency of the reflected wave may become shorter, and as it moves further away, the frequency of the reflected wave may become longer.
즉, 사용자 디바이스(10)는 반사파의 위상차 또는 주파수의 변화상태에 기반하여 사용자의 신체(예컨대, 복부 또는 흉부 등)의 움직임을 감지함으로써 사용자의 호흡에 관련한 수면 센싱 정보를 획득할 수 있다. 예를 들어, 사용자 디바이스(10)는 사용자의 수면 시, 사용자가 수면을 취하는 공간 일 영역에 위치할 수 있다. That is, the user device 10 may acquire sleep sensing information related to the user's breathing by detecting movement of the user's body (eg, abdomen or chest, etc.) based on the phase difference or frequency change state of the reflected wave. For example, when the user sleeps, the user device 10 may be located in an area of the space where the user sleeps.
사용자 디바이스(10)는 송신 모듈을 통해 특정 주파수를 가진 전파를 송신할 수 있으며, 상기 전파에 대응하여 사용자의 신체에서 반사되는 반사파를 수신 모듈을 통해 수신할 수 있다. 또한, 사용자 디바이스(10)는 수신 모듈을 통해 수신한 반사파의 위상차, 또는 주파수 변화에 기반하여 사용자의 호흡 정보, 움직임 정보 및 심박수 정보 중 적어도 하나의 정보를 획득할 수 있다. The user device 10 can transmit radio waves with a specific frequency through a transmission module, and receive reflected waves reflected from the user's body in response to the radio waves through a reception module. Additionally, the user device 10 may obtain at least one of the user's breathing information, movement information, and heart rate information based on the phase difference or frequency change of the reflected wave received through the reception module.
또한, 사용자 디바이스(10)는 상술한 바와 같이, 송신 모듈 및 수신 모듈을 구비하여 RF(Radio Frequency) 센싱 방식을 통해 수면 센싱 데이터를 획득할 수 있으나, 본 개시는 이에 제한되지 않는다. 추가적인 실시예에서, 본 개시의 사용자 디바이스(10)는 wifi 전파를 송신 및 검출하는 센서 모듈 및 사용자의 호흡과 관련한 공기의 흐름(airflow)을 검출하기 위한 센서 모듈 등을 더 포함하여 구성되어 수면 센싱 데이터를 획득할 수 있다.Additionally, as described above, the user device 10 may be equipped with a transmission module and a reception module to obtain sleep sensing data through RF (Radio Frequency) sensing, but the present disclosure is not limited thereto. In an additional embodiment, the user device 10 of the present disclosure is configured to further include a sensor module for transmitting and detecting WiFi radio waves and a sensor module for detecting airflow related to the user's breathing to perform sleep sensing. Data can be obtained.
반면에, 본 발명의 일 실시 형태에 따르면, 사용자 디바이스(10)가 잠이 든 사용자(39240')의 수면 음향 정보를 센싱하는 경우, 사용자 디바이스(10)는 사용자의 수면 음향 정보를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도 39(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. On the other hand, according to one embodiment of the present invention, when the user device 10 senses the sleep sound information of the user 39240' who is asleep, the user device 10 starts measuring the sleep sound information of the user. It can be sensed with a trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100', which indicates that sleep measurement is in progress, shown in FIG. 39(b), on the user device display unit 32100' of the user device 10. ) can be displayed.
또한, 반면에, 본 발명의 일 실시 형태에 따르면, 사용자 디바이스(10)가 잠이 든 사용자(39240')의 수면 센싱 데이터를 센싱하는 경우, 사용자 디바이스(10)는 사용자의 수면 센싱 데이터를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도 40(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. Also, on the other hand, according to one embodiment of the present invention, when the user device 10 senses the sleep sensing data of the user 39240' who is asleep, the user device 10 detects the sleep sensing data of the user Sensing is possible with a measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 40(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
본 발명의 또 다른 일 실시 예에 따르면, 사용자 수면 희망 시각이 오후 10시로 설정된 경우, 오후 10시가 지난 이후에, 사용자 디바이스(10)가 잠이 든 사용자(39240')의 수면 음향 정보를 센싱하는 경우, 사용자 디바이스(10)는 잠이 든 사용자(39240')의 수면 음향 정보를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도 40(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. According to another embodiment of the present invention, when the user's desired sleep time is set to 10 p.m., after 10 p.m., the user device 10 senses sleep sound information of the sleeping user 39240'. In this case, the user device 10 may sense sleep sound information of the sleeping user 39240' as a sleep measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time of sensing the sleep measurement start trigger. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 40(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
도 41Figure 41
도 41은 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스에 수면 음향 정보가 센싱되면, 수면 음향 정보가 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. FIG. 41 is a diagram illustrating that when sleep sound information is sensed by a user device in a sleep mode according to an embodiment of the present invention, the time at which the sleep sound information is sensed is recognized as the sensing time of the sleep measurement start trigger.
본 발명에 따르면, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법은, 사용자와 관련한 정보를 센싱하는 센싱 단계; 상기 센싱된 사용자와 관련한 정보에 기초하여 수면 측정 개시 시점을 결정하는 개시 결정 정보 생성 단계; 및 상기 결정된 개시 시점에 수면 측정을 개시하는 개시 단계;를 포함하는, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법을 포함할 수 있다. According to the present invention, a method for initiating sleep measurement through a user device includes a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start time. It may include a method for starting sleep measurement through a user device.
구체적으로, 수면 모드 중, 사용자가 잠에 드는 경우, 사용자 디바이스(10)는 사용자의 수면 음향 정보를 센싱할 수 있다. 전술한 바와 같이, 사용자 디바이스(10)는 사용자의 수면 음향 정보(SS)를 수신할 수 있으며, 사용자의 수면 음향 정보(SS)는 환경 센싱 정보를 포함할 수 있다. 구체적으로, 환경 센싱 정보는 일 공간 상에서의 사용자의 활동 또는 수면 동안 비침습적 방식으로 획득되는 정보를 포함할 수 있다. 구체적인 예를 들어, 환경 센싱 정보는, 수면 동안 사용자가 뒤척거림에 따라 발생되는 음향, 근육 움직임에 관련한 음향 또는 수면 동안 사용자의 호흡에 관련한 음향 등을 포함할 수 있다. 또는, 환경 센싱 정보는, 수면 동안 사용자의 움직임에 관련된 움직임과 거리 정보와, 이를 기초로 생성된 호흡 정보를 포함할 수 있다. Specifically, during sleep mode, when the user falls asleep, the user device 10 may sense the user's sleep sound information. As described above, the user device 10 may receive the user's sleep sound information (SS), and the user's sleep sound information (SS) may include environmental sensing information. Specifically, environmental sensing information may include information acquired in a non-invasive manner during the user's activities or sleep in the work space. For example, environmental sensing information may include sounds generated as the user tosses and turns during sleep, sounds related to muscle movements, or sounds related to the user's breathing during sleep. Alternatively, the environmental sensing information may include movement and distance information related to the user's movement during sleep, and breathing information generated based on this.
실시예에 따르면, 환경 센싱 정보는 수면 음향 정보(SS)를 포함할 수 있으며, 해당 수면 음향 정보(SS)는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련한 음향 정보를 의미할 수 있다. 또는 환경 센싱 정보는 수면 움직임 정보를 포함할 수 있으며, 수면 움직임 정보는, 사용자의 수면 동안에 발생하는 움직임 패턴 및 호흡 패턴에 관련된 정보를 의미할 수 있다.According to an embodiment, the environmental sensing information may include sleep sound information (SS), and the sleep sound information (SS) may mean sound information related to movement patterns and breathing patterns that occur during the user's sleep. . Alternatively, the environmental sensing information may include sleep movement information, and the sleep movement information may mean information related to movement patterns and breathing patterns that occur during the user's sleep.
이러한 수면 음향 정보(SS)는, 사용자의 호흡 및 움직임 등 매우 작은 음향(즉, 구분이 어려운 음향)에 관한 정보이며, 수면 환경 동안 다른 음향들과 함께 획득되는 것이므로, 낮은 신호 대 잡음비의 상기한 바와 같은 마이크 모듈을 통해 획득되는 경우, 탐지 및 분석이 매우 어려울 수 있다.This sleep sound information (SS) is information about very small sounds (i.e., sounds that are difficult to distinguish) such as the user's breathing and movement, and is acquired along with other sounds during the sleep environment, so it has a low signal-to-noise ratio. When acquired through a microphone module such as a bar, detection and analysis can be very difficult.
본 발명의 일 실시 형태에 따르면, 도 41(a)에 도시된 바와 같이, 사용자가 아직 잠에 들지 않은 경우, 잠이 들지 않은 사용자(39240)에게서는 사용자 디바이스(10)가 수면 음향 정보를 센싱하지 못하므로, 사용자 디바이스(10)는 사용자의 수면 음향 정보를 수면 측정 개시 트리거로 센싱할 수 없다. According to one embodiment of the present invention, as shown in FIG. 41(a), when the user has not yet fallen asleep, the user device 10 does not sense sleep sound information from the user 39240 who is not asleep. Therefore, the user device 10 cannot sense the user's sleep sound information as a sleep measurement start trigger.
본 발명의 또 다른 일 실시 형태에 따르면, 사용자가 아직 잠에 들지 않은 경우, 잠이 들지 않은 사용자(39240)에게서는 사용자 디바이스(10)가 수면 센싱 데이터를 센싱하지 못하므로, 사용자 디바이스(10)는 사용자의 수면 센싱 데이터를 수면 측정 개시 트리거로 센싱할 수 없다. 구체적으로, 수면 센싱 데이터는 사용자의 수면 환경에 관련하여 사전 결정된 시간 기간 동안 획득되는 사용자의 호흡 정보를 포함할 수 있다. 또한, 수면 센성 데이터는 사용자의 수면 환경에 관련하여 사전 결정된 시간 기간 동안 획득되는 사용자의 움직임 정보 및 심박수 정보를 더 포함할 수도 있다. 즉, 사용자 디바이스(10)는 사용자의 수면 환경에 관련하여 사용자로부터 호흡 정보, 움직임 정보 및 심박수 정보 중 적어도 하나의 정보를 획득하기 위한 센서 모듈을 포함하여 구성될 수 있다.According to another embodiment of the present invention, when the user is not yet asleep, the user device 10 cannot sense sleep sensing data from the user 39240 who is not asleep, so the user device 10 The user's sleep sensing data cannot be sensed as a sleep measurement start trigger. Specifically, the sleep sensing data may include the user's breathing information acquired during a predetermined time period related to the user's sleep environment. Additionally, the sleep sensitivity data may further include the user's movement information and heart rate information acquired during a predetermined time period in relation to the user's sleep environment. That is, the user device 10 may be configured to include a sensor module for obtaining at least one of information among breathing information, movement information, and heart rate information from the user in relation to the user's sleep environment.
본 개시의 일 실시예에 따르면, 사용자 디바이스(10)는 특정 주파수의 전파를 송신하는 하나 이상의 송신 모듈 및 특정 주파수의 전파(예컨대, 극초단파(microwave))에 대응하여 생성된 반사파를 수신하는 수신 모듈을 포함하여 구비될 수 있다. 이 경우, 사용자 디바이스(10)는 송신 모듈에서 송신된 전파에 대응하는 반사파의 이동 거리에 따른 위상차, 또는 주파수 변화를 검출함으로써, 비접촉식으로 사용자로부터 수면 센싱 데이터를 획득할 수 있다. 예를 들어, 송신 모듈을 통해 송신된 전파가 객체에 부딪혀서 반사되는 경우, 위상차 또는, 주파수가 달라질 수 있다. 예컨대, 송신 모듈에 객체가 보다 근접하는 경우, 반사파의 주파수가 짧아지고, 점점 멀어지는 경우, 반사파의 주파수가 길어질 수 있다. According to an embodiment of the present disclosure, the user device 10 includes one or more transmitting modules that transmit radio waves of a specific frequency and a receiving module that receives reflected waves generated in response to radio waves of a specific frequency (e.g., microwaves). It may be provided including. In this case, the user device 10 can obtain sleep sensing data from the user in a non-contact manner by detecting a phase difference or frequency change according to the moving distance of the reflected wave corresponding to the radio wave transmitted from the transmission module. For example, when radio waves transmitted through a transmission module hit an object and are reflected, the phase difference or frequency may vary. For example, when an object gets closer to the transmission module, the frequency of the reflected wave may become shorter, and as it moves further away, the frequency of the reflected wave may become longer.
즉, 사용자 디바이스(10)는 반사파의 위상차 또는 주파수의 변화상태에 기반하여 사용자의 신체(예컨대, 복부 또는 흉부 등)의 움직임을 감지함으로써 사용자의 호흡에 관련한 수면 센싱 정보를 획득할 수 있다. 예를 들어, 사용자 디바이스(10)는 사용자의 수면 시, 사용자가 수면을 취하는 공간 일 영역에 위치할 수 있다. That is, the user device 10 may acquire sleep sensing information related to the user's breathing by detecting movement of the user's body (eg, abdomen or chest, etc.) based on the phase difference or frequency change state of the reflected wave. For example, when the user sleeps, the user device 10 may be located in an area of the space where the user sleeps.
사용자 디바이스(10)는 송신 모듈을 통해 특정 주파수를 가진 전파를 송신할 수 있으며, 상기 전파에 대응하여 사용자의 신체에서 반사되는 반사파를 수신 모듈을 통해 수신할 수 있다. 또한, 사용자 디바이스(10)는 수신 모듈을 통해 수신한 반사파의 위상차, 또는 주파수 변화에 기반하여 사용자의 호흡 정보, 움직임 정보 및 심박수 정보 중 적어도 하나의 정보를 획득할 수 있다. The user device 10 can transmit radio waves with a specific frequency through a transmission module, and receive reflected waves reflected from the user's body in response to the radio waves through a reception module. Additionally, the user device 10 may obtain at least one of the user's breathing information, movement information, and heart rate information based on the phase difference or frequency change of the reflected wave received through the reception module.
또한, 사용자 디바이스(10)는 상술한 바와 같이, 송신 모듈 및 수신 모듈을 구비하여 RF(Radio Frequency) 센싱 방식을 통해 수면 센싱 데이터를 획득할 수 있으나, 본 개시는 이에 제한되지 않는다. 추가적인 실시예에서, 본 개시의 사용자 디바이스(10)는 wifi 전파를 송신 및 검출하는 센서 모듈 및 사용자의 호흡과 관련한 공기의 흐름(airflow)을 검출하기 위한 센서 모듈 등을 더 포함하여 구성되어 수면 센싱 데이터를 획득할 수 있다.Additionally, as described above, the user device 10 may be equipped with a transmission module and a reception module to obtain sleep sensing data through RF (Radio Frequency) sensing, but the present disclosure is not limited thereto. In an additional embodiment, the user device 10 of the present disclosure is configured to further include a sensor module for transmitting and detecting WiFi radio waves and a sensor module for detecting airflow related to the user's breathing to perform sleep sensing. Data can be obtained.
반면에, 본 발명의 일 실시 형태에 따르면, 사용자 디바이스(10)가 잠이 든 사용자(39240')의 수면 음향 정보를 센싱하는 경우, 사용자 디바이스(10)는 사용자의 수면 음향 정보를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도 40(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. On the other hand, according to one embodiment of the present invention, when the user device 10 senses the sleep sound information of the user 39240' who is asleep, the user device 10 starts measuring the sleep sound information of the user. It can be sensed with a trigger. Accordingly, the user device 10 may start sleep measurement at the time when the sleep measurement start trigger is sensed. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 40(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
또한, 반면에, 본 발명의 일 실시 형태에 따르면, 사용자 디바이스(10)가 잠이 든 사용자(39240')의 수면 센싱 데이터를 센싱하는 경우, 사용자 디바이스(10)는 사용자의 수면 센싱 데이터를 수면 측정 개시 트리거로 센싱할 수 있다. 이에 따라, 사용자 디바이스(10)는 상기 수면 측정 개시 트리거를 센싱한 시점에 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 도 41(b)에 도시된 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. Also, on the other hand, according to one embodiment of the present invention, when the user device 10 senses the sleep sensing data of the user 39240' who is asleep, the user device 10 detects the sleep sensing data of the user Sensing is possible with a measurement start trigger. Accordingly, the user device 10 may start sleep measurement at the time when the sleep measurement start trigger is sensed. For example, when starting sleep measurement, the user device 10 displays the user interface 32100'' indicating that sleep measurement is in progress as shown in FIG. 41(b) on the user device display unit 32100' of the user device 10. ) can be displayed.
도 41Figure 41
도 41은 본 발명의 일 실시예인 사용자 디바이스의 잠금 장치 해제가 센싱되면, 잠금 장치 해제가 센싱되는 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. 상술한 실시예들과 동일하게 적용 가능한 하나의 실시예일 수 있다.FIG. 41 is a diagram illustrating that when unlocking of the locking device of the user device is sensed, which is an embodiment of the present invention, the time when unlocking of the locking device is sensed is recognized as the sensing time of the sleep measurement start trigger. It may be an embodiment that is applicable in the same way as the above-described embodiments.
도 42Figure 42
도 42는 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스에 손가락 탭핑이 센싱되지 않으면, 손가락 탭핑이 센싱되지 않은 시점에서 소정의 시간이 지난 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 42 shows that during the sleep mode, which is an embodiment of the present invention, if finger tapping is not sensed by the user device, the time when a predetermined time has elapsed from the time when finger tapping was not sensed is recognized as the sensing time of the sleep measurement start trigger. It is a drawing.
본 발명에 따르면, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법은, 사용자와 관련한 정보를 센싱하는 센싱 단계; 상기 센싱된 사용자와 관련한 정보에 기초하여 수면 측정 개시 시점을 결정하는 개시 결정 정보 생성 단계; 및 상기 결정된 개시 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. According to the present invention, a method for initiating sleep measurement through a user device includes a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start point.
구체적으로, 상기 개시 결정 정보 생성 단계는, 상기 센싱 단계에서 사용자 디바이스에서 동작하는 애플리케이션들과 관련된 이벤트의 발생을 나타내는 정보의 출력이 제한된 모드로 설정된 기간 동안에, 소정의 시간 동안 사용자가 상기 사용자 디바이스를 사용하고 있다는 정보를 센싱하지 못한 경우, 상기 소정의 시간이 끝나는 시점을 상기 수면 측정 개시 시점으로 결정하는 단계일 수 있다.Specifically, the start decision information generation step is performed when the user uses the user device for a predetermined period of time during a period in which the output of information indicating the occurrence of an event related to applications operating on the user device is set to a limited mode in the sensing step. If the information indicating use is not sensed, the time at which the predetermined time ends may be determined as the start time of the sleep measurement.
더욱 더 구체적으로, 상기 사용자가 상기 사용자 디바이스를 사용하고 있다는 정보는, 상기 사용자 디바이스에 감지되는 사용자의 운동 또는 움직임, 상기 사용자 디바이스의 디스플레이가 켜져 있다는 신호, 상기 사용자 디바이스에 입력되는 사용자의 음성, 또는 상기 사용자 디바이스의 디스플레이에 감지되는 사용자의 탭핑 중 적어도 하나 이상일 수 있다. More specifically, the information that the user is using the user device includes the user's movement or movement detected by the user device, a signal that the display of the user device is turned on, the user's voice input to the user device, Alternatively, it may be at least one of the user's tapping detected on the display of the user device.
손가락 탭핑이 센싱되지 않는 경우When finger tapping is not detected
본 발명의 일 실시 형태에 따르면, 도 42(a)에 도시된 바와 같이, 수면 모드 작동 사용자 인터페이스(S)는 사용자 디바이스(10)에서 동작하는 애플리케이션들과 관련된 이벤트의 발생을 나타내는 정보의 출력이 제한된 모드가 설정된 경우, 사용자 디바이스 디스플레이부(32100')에 나타나는 사용자 인터페이스일 수 있다. 구체적인 예를 들어, 사용자가 곧 취침할 것을 원하는 경우, 사용자 디바이스(10)에 취침 모드, 수면 모드, 잠들기 모드 등을 설정할 수 있고, 이와 같은 수면 모드 등은 사용자 디바이스(10)에서 동작하는 애플리케이션들과 관련된 이벤트의 발생을 나타내는 정보의 출력을 제한시킬 수 있다. 구체적으로, 사용자 디바이스 디스플레이부(32100')의 조도를 소정의 출력 이하로 제어할 수 있으며, 또한 사용자 디바이스(10)의 소리를 소정의 출력 이하로 제어할 수 있고, 메신저 기능을 하는 애플리케이션 등의 알람을 차단할 수 있으나 이에 한정되는 것은 아니다. 이 경우, 수면 모드 작동 사용자 인터페이스(S)가 나타나는 시간 동안에, 사용자가 잠이 들지 않은 경우, 잠이 들지 않은 사용자의 손가락 탭핑(42241)이 사용자 디바이스 디스플레이부(32100')에서 감지될 수 있으므로, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타나지 않을 수 있다. According to one embodiment of the present invention, as shown in FIG. 42(a), the sleep mode operation user interface S outputs information indicating the occurrence of events related to applications running on the user device 10. When the restricted mode is set, it may be a user interface that appears on the user device display unit 32100'. For example, if the user wants to go to bed soon, a sleep mode, sleep mode, falling asleep mode, etc. can be set on the user device 10, and such sleep modes, etc. can be set by applications running on the user device 10. The output of information indicating the occurrence of events related to can be restricted. Specifically, the illuminance of the user device display unit 32100' can be controlled below a predetermined output, and the sound of the user device 10 can be controlled below a predetermined output, and an application that functions as a messenger can be used. Alarms can be blocked, but are not limited to this. In this case, if the user is not asleep during the time when the sleep mode operation user interface (S) appears, the finger tapping (42241) of the user who is not asleep may be detected on the user device display unit (32100'), The user interface 32100" indicating that sleep is being measured may not appear on the user device display unit 32100' of the user device 10.
본 발명의 또 다른 일 실시 형태에 따르면, 도 42(b)에 도시된 바와 같이, 사용자가 곧 취침할 것을 원하는 경우, 사용자 디바이스(10)에 취침 모드, 수면 모드, 잠들기 모드 등을 설정할 수 있고, 이와 같은 수면 모드 등은 사용자 디바이스(10)에서 동작하는 애플리케이션들과 관련된 이벤트의 발생을 나타내는 정보의 출력을 제한시킬 수 있다. 구체적으로, 사용자 디바이스 디스플레이부(32100')의 조도를 소정의 출력 이하로 제어할 수 있으며, 또한 사용자 디바이스(10)의 소리를 소정의 출력 이하로 제어할 수 있고, 메신저 기능을 하는 애플리케이션 등의 알람을 차단할 수 있으나 이에 한정되는 것은 아니다. 이 경우, 수면 모드 작동 사용자 인터페이스(S)가 나타나는 시간 동안에, 사용자가 잠이 든 경우, 잠이 든 사용자의 손가락(42241')이 사용자 디바이스 디스플레이부(32100')에서 감지되지 않으므로, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타날 수 있다. 더욱 더 구체적으로, 소정의 시간 예컨대, 마지막 감지된 잠이 들지 않은 사용자의 손가락 탭핑(42241) 감지 시점으로부터 5분 이내에 잠이 들지 않은 사용자의 손가락 탭핑(42241)이 다시 감지되지 않는 경우, 사용자 디바이스(10)는 상기 소정의 시간이 끝나는 시점인 마지막 감지된 잠이 들지 않은 사용자의 손가락 탭핑(42241) 감지 시점으로부터 5분 후 시점을 상기 수면 측정 개시 시점으로 결정할 수 있다. According to another embodiment of the present invention, as shown in FIG. 42(b), if the user wants to go to bed soon, he or she can set a sleep mode, sleep mode, falling asleep mode, etc. on the user device 10. , such sleep mode, etc. may limit the output of information indicating the occurrence of events related to applications operating on the user device 10. Specifically, the illuminance of the user device display unit 32100' can be controlled below a predetermined output, and the sound of the user device 10 can be controlled below a predetermined output, and an application that functions as a messenger can be used. Alarms can be blocked, but are not limited to this. In this case, if the user is asleep during the time when the sleep mode operation user interface (S) appears, the finger (42241') of the sleeping user is not detected on the user device display unit (32100'), so sleep is being measured. A user interface 32100" indicating may appear on the user device display unit 32100' of the user device 10. More specifically, at a predetermined time, for example, the last detected user's finger tapping ( 42241) If the finger tapping 42241 of the user who is not asleep is not detected again within 5 minutes from the time of detection, the user device 10 selects the finger of the user who is not asleep at the last detected time, which is when the predetermined time ends. The time point 5 minutes after the tapping (42241) is detected can be determined as the start time of the sleep measurement.
본 발명의 또 다른 일 실시 형태에 따르면, 수면 모드 작동 사용자 인터페이스(S)가 나타나는 시간 동안에, 마지막 감지된 잠이 들지 않은 사용자의 손가락 탭핑(42241) 감지 시점으로부터 소정의 시간 이내에 잠이 들지 않은 사용자의 손가락 탭핑(42241)이 다시 감지되지 않는 경우라도, 사용자 디바이스 디스플레이부(32100')에 동영상이 재생되고 있는 경우와 같이, 사용자가 사용자 디바이스(10)를 사용하고 있는 경우, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타나지 않을 수 있다. According to another embodiment of the present invention, during the time when the sleep mode operation user interface (S) appears, the user who has not fallen asleep within a predetermined time from the time of detecting the last detected finger tapping (42241) of the user who has not fallen asleep Even if the finger tapping 42241 is not detected again, when the user is using the user device 10, such as when a video is being played on the user device display unit 32100', it indicates that sleep is being measured. The user interface 32100" may not appear on the user device display unit 32100' of the user device 10.
본 발명의 또 다른 일 실시 형태에 따르면, 수면 모드 작동 사용자 인터페이스(S)가 나타나는 시간 동안에, 사용자가 잠이 든 경우, 잠이 든 사용자의 손가락(42241')이 사용자 디바이스 디스플레이부(32100')에서 감지되지 않으므로, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타날 수 있고, 이 때, 사용자 디바이스 디스플레이부(32100')에 잠이 들지 않은 사용자의 손가락 탭핑(42241)이 다시 센싱되는 경우, 사용자 디바이스(10)는 수면 측정 중인 사용자 디바이스(10)에 잠이 들지 않은 사용자의 손가락 탭핑(42241)이 다시 센싱되는 시점에 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다.According to another embodiment of the present invention, when the user falls asleep during the time when the sleep mode operation user interface (S) appears, the finger (42241') of the sleeping user is displayed on the user device display unit (32100'). Since it is not detected, a user interface 32100" indicating that sleep is being measured may appear on the user device display unit 32100' of the user device 10, and at this time, sleep is displayed on the user device display unit 32100'. If the finger tapping (42241) of the user who is not asleep is sensed again, the user device 10 measures sleep at the time when the finger tapping (42241) of the user who is not asleep is sensed again by the user device 10 that is measuring sleep. It is possible to sense a sleep measurement interruption trigger to stop the sleep measurement, and the sleep measurement can be stopped at the point when the sleep measurement interruption trigger is sensed.
도 42를 활용하여, '수면 모드 등'으로 설정된 이후에 센싱되는 수면 측정 개시 트리거의 일 실시예에 대하여 서술하였으나, 상기 실시예는 수면 모드 중에 수면 측정 개시 트리거가 센싱되는 것에 한정되는 것은 아니다. 예를 들어, 사용자 수면 희망 시각으로 설정된 시각 이후에 상기 실시예에 따른 수면 측정 개시 트리거가 센시오디는 경우도 상정할 수 있을 것이며, 사용자 수면 희망 시각 및 수면 모드 등이 설정되지 않은 경우에 상술한 수면 측정 개시 트리거가 센싱되는 경우도 상정할 수 있을 것이다.Using FIG. 42, an embodiment of a sleep measurement start trigger that is sensed after being set to 'sleep mode, etc.' has been described. However, this embodiment is not limited to the sleep measurement start trigger being sensed during sleep mode. For example, it may be assumed that the sleep measurement start trigger according to the above embodiment is sensed after the time set as the user's desired sleep time, and in the case where the user's desired sleep time and sleep mode are not set, the above-described It may also be assumed that a sleep measurement start trigger is sensed.
도 43Figure 43
도 43은 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스에 사용자의 운동 또는 움직임이 센싱되지 않으면, 사용자의 운동 또는 움직임이 센싱되지 않은 시점에서 소정의 시간이 지난 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다. Figure 43 shows that during the sleep mode, which is an embodiment of the present invention, if the user's exercise or movement is not sensed by the user device, the sleep measurement start trigger is sensed at a predetermined time after the user's exercise or movement is not sensed. This is a diagram showing what is perceived from a viewpoint.
운동 또는 움직임이 센싱되지 않는 경우When exercise or movement is not detected
본 발명에 따르면, 사용자 디바이스를 통한 수면 측정을 개시하기 위한 방법은, 사용자와 관련한 정보를 센싱하는 센싱 단계; 상기 센싱된 사용자와 관련한 정보에 기초하여 수면 측정 개시 시점을 결정하는 개시 결정 정보 생성 단계; 및 상기 결정된 개시 시점에 수면 측정을 개시하는 개시 단계;를 포함할 수 있다. 구체적으로, 상기 개시 결정 정보 생성 단계는, 상기 센싱 단계에서 사용자 디바이스에서 동작하는 애플리케이션들과 관련된 이벤트의 발생을 나타내는 정보의 출력이 제한된 모드로 설정된 기간 동안에, 소정의 시간 동안 사용자가 상기 사용자 디바이스를 사용하고 있다는 정보를 센싱하지 못한 경우, 상기 소정의 시간이 끝나는 시점을 상기 수면 측정 개시 시점으로 결정하는 단계일 수 있다. 더욱 더 구체적으로, 상기 사용자가 상기 사용자 디바이스를 사용하고 있다는 정보는, 상기 사용자 디바이스에 감지되는 사용자의 운동 또는 움직임, 상기 사용자 디바이스의 디스플레이가 켜져 있다는 신호, 상기 사용자 디바이스에 입력되는 사용자의 음성, 또는 상기 사용자 디바이스의 디스플레이에 감지되는 사용자의 탭핑 중 적어도 하나 이상일 수 있다. According to the present invention, a method for initiating sleep measurement through a user device includes a sensing step of sensing information related to the user; A start decision information generating step of determining a time to start sleep measurement based on the sensed user-related information; and a start step of starting sleep measurement at the determined start point. Specifically, the start decision information generation step is performed when the user uses the user device for a predetermined period of time during a period in which the output of information indicating the occurrence of an event related to applications operating on the user device is set to a limited mode in the sensing step. If the information indicating use is not sensed, the time at which the predetermined time ends may be determined as the start time of the sleep measurement. More specifically, the information that the user is using the user device includes the user's movement or movement detected by the user device, a signal that the display of the user device is turned on, the user's voice input to the user device, Alternatively, it may be at least one of the user's tapping detected on the display of the user device.
본 발명의 또 다른 일 실시 형태에 따르면, 수면 모드 작동 사용자 인터페이스(S)가 나타나는 시간 동안에, 잠이 들지 않은 사용자의 손가락 탭핑(43241), 또는 잠이 들지 않은 사용자가 사용자 디바이스(10)를 사용하는 중인 경우, 사용자 디바이스(10)의 가속도계 센서가 사용자의 운동 또는 움직임을 감지할 수 있으며, 구체적인 예를 들어, 자이로 센서(Gyro sensor)가 사용자의 운동 또는 움직임을 감지할 수 있고, 이 경우, 자이로 센서는 가속도를 측정하는 가속도 센서와 달리 각속도를 측정할 수 있다. According to another embodiment of the present invention, during the time when the sleep mode operation user interface S appears, a finger tapping 43241 by a user who is not asleep, or a user who is not asleep uses the user device 10. In this case, the accelerometer sensor of the user device 10 may detect the user's exercise or movement, and as a specific example, a gyro sensor may detect the user's exercise or movement, in this case, Unlike an accelerometer, which measures acceleration, a gyro sensor can measure angular velocity.
이에 따라, 사용자 디바이스(10)는 사용자 디바이스(10)의 가속도계 센서가 사용자의 운동 또는 움직임을 감지한 시점으로부터 소정의 시간이 지나는 동안, 사용자의 운동 또는 움직임이 감지되지 않은 경우, 상기 마지막 사용자의 운동 또는 움직임을 감지한 시점으로부터 소정의 시간이 지난 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여, 수면 측정을 개시할 수 있다. 구체적인 예를 들어 수면 측정을 개시하는 경우, 사용자 디바이스(10)는 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타내게 할 수 있다. Accordingly, if the user's exercise or movement is not detected while the accelerometer sensor of the user device 10 detects the user's exercise or movement for a predetermined period of time, the user device 10 detects the last user's motion. The time at which a predetermined time has elapsed from the time at which exercise or movement is detected is recognized as the time at which the sleep measurement start trigger is sensed, and sleep measurement can be started. For example, when starting sleep measurement, the user device 10 may display a user interface 32100' indicating that sleep measurement is being performed on the user device display unit 32100' of the user device 10.
본 발명의 또 다른 일 실시 형태에 따르면, 수면 모드 작동 사용자 인터페이스(S)가 나타나는 시간 동안에, 잠이 들지 않은 사용자의 손가락 탭핑(43241), 또는 잠이 들지 않은 사용자가 사용자 디바이스(10)를 사용하는 중인 경우, 사용자 디바이스(10)는 사용자 디바이스(10)의 가속도계 센서가 사용자의 운동 또는 움직임을 감지한 시점으로부터 소정의 시간이 지나는 동안, 사용자의 운동 또는 움직임이 감지되지 않은 경우, 상기 마지막 사용자의 운동 또는 움직임을 감지한 시점으로부터 소정의 시간이 지난 시점을 수면 측정 개시 트리거를 센싱한 시점으로 인식하여, 수면 측정을 개시할 수 있고, 이 때, 사용자 디바이스(10)에 수면 측정 중에 사용자의 운동 또는 움직임이 다시 센싱되는 경우, 사용자 디바이스(10)는 수면 측정 중인 사용자 디바이스(10)에 사용자의 운동 또는 움직임이 다시 센싱되는 시점에 수면 측정을 중단하도록 하는 수면 측정 중단 트리거로 센싱할 수 있고, 상기 수면 측정 중단 트리거가 센싱된 시점에 수면 측정을 중단시킬 수 있다.According to another embodiment of the present invention, during the time when the sleep mode operation user interface S appears, a finger tapping 43241 by a user who is not asleep, or a user who is not asleep uses the user device 10. In the case of the user device 10, if the user's exercise or movement is not detected while the accelerometer sensor of the user device 10 detects the user's exercise or movement for a predetermined period of time, the last user The point in time at which a predetermined period of time has elapsed from the point in time at which exercise or movement of the body is detected is recognized as the point in time at which the sleep measurement start trigger is sensed, and sleep measurement can be started. At this time, the user device 10 detects the user's sleep during sleep measurement. When exercise or movement is sensed again, the user device 10 may sense a sleep measurement interruption trigger to stop sleep measurement at the point when the user's exercise or movement is sensed again by the user device 10 that is measuring sleep. , sleep measurement can be stopped at the point when the sleep measurement interruption trigger is sensed.
도 43을 활용하여, '수면 모드 등'으로 설정된 이후에 센싱되는 수면 측정 개시 트리거의 일 실시예에 대하여 서술하였으나, 상기 실시예는 수면 모드 중에 수면 측정 개시 트리거가 센싱되는 것에 한정되는 것은 아니다. 예를 들어, 사용자 수면 희망 시각으로 설정된 시각 이후에 상기 실시예에 따른 수면 측정 개시 트리거가 센시오디는 경우도 상정할 수 있을 것이며, 사용자 수면 희망 시각 및 수면 모드 등이 설정되지 않은 경우에 상술한 수면 측정 개시 트리거가 센싱되는 경우도 상정할 수 있을 것이다.Using FIG. 43, an example of a sleep measurement start trigger that is sensed after being set to 'sleep mode, etc.' has been described. However, this embodiment is not limited to the sleep measurement start trigger being sensed during sleep mode. For example, it may be assumed that the sleep measurement start trigger according to the above embodiment is sensed after the time set as the user's desired sleep time, and in the case where the user's desired sleep time and sleep mode are not set, the above-described It may also be assumed that a sleep measurement start trigger is sensed.
도 44Figure 44
도 44는 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스의 디스플레이가 꺼지면, 사용자 디바이스의 디스플레이가 꺼진 시점에서 소정의 시간이 지난 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다.Figure 44 is a diagram showing that when the display of the user device is turned off during sleep mode, which is an embodiment of the present invention, the point in time when a predetermined time has elapsed from the time the display of the user device is turned off is recognized as the sensing time of the sleep measurement start trigger.
디스플레이가 꺼지는 경우If the display turns off
본 발명의 일 실시 형태에 따르면, 도 44(a)에 도시된 바와 같이, 수면 모드 작동 사용자 인터페이스(S)가 나타나는 시간 동안에, 사용자 디바이스 디스플레이부(32100')가 켜져 있어, 사용자 디바이스 디스플레이 켜짐 화면(32100'a)이 나타나는 경우, 수면 측정 개시 시점을 결정하지 않으므로, 수면 측정 중임을 나타내는 사용자 인터페이스(32100")가 사용자 디바이스(10)의 사용자 디바이스 디스플레이부(32100')에 나타나지 않을 수 있다. According to one embodiment of the present invention, as shown in FIG. 44(a), during the time when the sleep mode operation user interface S appears, the user device display unit 32100' is turned on, and the user device display on screen is displayed. When (32100'a) appears, since the time to start sleep measurement is not determined, the user interface 32100" indicating that sleep measurement is in progress may not appear on the user device display unit 32100' of the user device 10.
본 발명의 또 다른 일 실시 형태에 따르면, 수면 모드 작동 사용자 인터페이스(S)가 나타나는 시간 동안에, 사용자가 잠이 들어 사용자 디바이스(10)를 사용하지 않거나, 사용자 디바이스(10)가 기능하지 않는 경우, 사용자 디바이스 디스플레이부(32100')가 꺼지므로, 사용자 디바이스 디스플레이 꺼짐 화면(32100'b)이 나타날 수 있다. 이 경우, 소정의 시간 동안 사용자가 사용자 디바이스(10)를 사용하고 있다는 정보를 센싱하지 못하였으므로, 상기 소정의 시간이 끝나는 시점을 상기 수면 측정 개시 시점으로 결정할 수 있다. According to another embodiment of the present invention, if the user falls asleep and does not use the user device 10 or the user device 10 does not function during the time when the sleep mode operation user interface S appears, Since the user device display unit 32100' is turned off, the user device display off screen 32100'b may appear. In this case, since information indicating that the user is using the user device 10 cannot be sensed for a predetermined period of time, the end of the predetermined period of time may be determined as the start point of the sleep measurement.
구체적인 예를 들어, 수면 모드 작동 사용자 인터페이스(S)가 나타나는 시간 동안에, 잠이 든 사용자(39240')가 사용자 디바이스(10)를 사용하지 않아서 사용자 디바이스 디스플레이 꺼짐 화면(32100'b)이 마지막으로 나타나고, 5분이 지난 시점까지 사용자 디바이스 디스플레이 켜짐 화면(32100'a)이 나타나지 않은 경우, 상기 사용자 디바이스 디스플레이 꺼짐 화면(32100'b)이 마지막으로 나타나고, 5분이 지난 시점 시점을 상기 수면 측정 개시 시점으로 결정할 수 있다.As a specific example, during the time when the sleep mode operation user interface S appears, the user device 10 is not used by the user 39240', who is asleep, so the user device display off screen 32100'b appears for the last time. , If the user device display on screen 32100'a does not appear until 5 minutes have passed, the user device display off screen 32100'b appears last, and the time after 5 minutes is determined as the start time of the sleep measurement. You can.
도 44를 활용하여, '수면 모드 등'으로 설정된 이후에 센싱되는 수면 측정 개시 트리거의 일 실시예에 대하여 서술하였으나, 상기 실시예는 수면 모드 중에 수면 측정 개시 트리거가 센싱되는 것에 한정되는 것은 아니다. 예를 들어, 사용자 수면 희망 시각으로 설정된 시각 이후에 상기 실시예에 따른 수면 측정 개시 트리거가 센시오디는 경우도 상정할 수 있을 것이며, 사용자 수면 희망 시각 및 수면 모드 등이 설정되지 않은 경우에 상술한 수면 측정 개시 트리거가 센싱되는 경우도 상정할 수 있을 것이다.Using FIG. 44, an embodiment of a sleep measurement start trigger that is sensed after being set to 'sleep mode, etc.' has been described. However, this embodiment is not limited to the sleep measurement start trigger being sensed during sleep mode. For example, it may be assumed that the sleep measurement start trigger according to the above embodiment is sensed after the time set as the user's desired sleep time, and in the case where the user's desired sleep time and sleep mode are not set, the above-described It may also be assumed that a sleep measurement start trigger is sensed.
도 45는 본 발명의 일 실시예인 수면 모드 중, 사용자 디바이스에 사용자의 음성이 인식되지 않으면, 사용자 디바이스의 사용자의 음성이 인식되지 않는 시점에서 소정의 시간이 지난 시점을 수면 측정 개시 트리거의 센싱 시점으로 인식하는 것을 나타내는 도면이다.Figure 45 shows the sensing time of the sleep measurement start trigger when a predetermined time has elapsed from the time when the user's voice is not recognized by the user device during the sleep mode, which is an embodiment of the present invention, when the user's voice is not recognized by the user device. This is a drawing showing what is recognized as.
타인과의 수면 비교Compare your sleep with others
도 46aFigure 46a
도 46a는 본 발명의 일 실시 형태에 따라, 일반인의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 46a is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of the general public and the average elevation delay time of a user, according to an embodiment of the present invention.
도시된 바와 같이, 일반인의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 입면 지연 시간에 관한 제1 정보 전달 사용자 인터페이스(46200A)를 제공할 수 있다. As shown, the graphical user interface representing the comparison of the average elevation delay time of the general public and the average elevation delay time of the user provides a sleep comparison title user interface 46100 and a first information delivery user interface 46200A regarding the elevation delay time. can do.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand form. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 입면 지연 시간에 관한 제1 정보 전달 사용자 인터페이스(46200A)는 사용자에게 입면 지연 시간에 관한 정보 즉, 어느 정도의 입면 지연 시간이 타인의 평균 입면 지연 시간과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "눈을 감고 30분 안에 잠들면 적당해요."와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "일반인 평균보다 더 일찍 잠들었어요! 아주 좋아요!"와 같이, 수면에 대한 긍정적인 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface 46200A about the elevation delay time provides the user with information about the elevation delay time, that is, information about how much the elevation delay time is similar to the average elevation delay time of others. can do. A specific example may be provided in the form of a phrase such as, “Close your eyes and fall asleep within 30 minutes.” For another example, it may be provided as a way to give positive feedback about sleep, such as "I fell asleep earlier than the average person! It's great!", but it is not limited to this.
도시된 바와 같이, 일반인의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 중간에 깬 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, the graphical user interface representing the comparison of the average sleep latency time of the general public and the average sleep latency time of the user includes a sleep latency sleep comparison check button user interface 46310, a deep sleep proportion comparison check button user interface 46320, and REM sleep proportion comparison confirmation button user interface 46330 may be provided in a manner that provides information that one has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310, the deep sleep proportion comparison confirmation button user interface (46320), and the REM sleep ratio comparison confirmation button user interface (46330), but are not limited to other types of comparison confirmation button user interfaces, such as the number of awakenings in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface. may be provided.
도 46a에 도시된 바와 같이, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 입면 지연 시간에 관한 정보를 제공하는 것임을 알 수 있다. As shown in Figure 46a, when only the elevation delay time sleep comparison confirmation button user interface 46310 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information about the elevation delay time. .
구체적으로, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310)는 “잠들기까지”와 같은 문구를 제공하는 형태일 수 있으며, “잠드는 시간”과 같은 문구를 제공하는 형태일 수 있고, “잠드는데 걸린 시간은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the sleep delay time sleep comparison confirmation button user interface 46310 may be in a form that provides phrases such as “to fall asleep,” may be in a form that provides phrases such as “time to fall asleep,” and may be in a form that provides phrases such as “time to fall asleep.” It may be in the form of providing a phrase such as “What is the time?”, but is not limited to this.
본 발명에 따르면, 일반인의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A) 및 일반인 평균 입면 지연 시간 정보 사용자 인터페이스(46410A)를 포함할 수 있다. 구체적으로, 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 사용자의 입면 지연 시간을 일반인 평균 입면 지연 시간 정보 사용자 인터페이스(46410A)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison of the average elevation delay time of the general public and the average elevation delay time of a user may include a user elevation delay time information user interface 46400A and an average elevation delay time information user interface 46410A of the general public. You can. Specifically, the user's sleep delay time information user interface (46400A) is a bar graph that compares the user's sleep delay time with the average sleep delay time information user interface (46410A) of the general public, based on the sleep data of the date of the report selected by the user. It can be provided with .
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)의 막대 그래프의 길이와, 일반인 평균 입면 지연 시간 정보 사용자 인터페이스(46410A)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 입면 지연 시간과 일반인 평균 입면 지연 시간 중 더 긴 시간이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user elevation delay time information user interface 46400A and the length of the bar graph of the average person elevation delay time information user interface 46410A By providing a comparison, it is possible to easily provide information about which of the user's elevation delay time and the average person's average elevation delay time is longer.
본 발명의 일 실시 형태에 따르면, 일반인 평균 입면 지연 시간 정보 사용자 인터페이스(46410A)는 의학적으로 획득된 일반인 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 일반인 평균 입면 지연 시간 정보 사용자 인터페이스(46410A)는 의학적으로 권고되는 일반인 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 또한, 일반인 평균 입면 지연 시간 정보 사용자 인터페이스(46410A)는 통계적으로 획득된 일반인 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다.According to one embodiment of the present invention, the average elevation delay time information for the general public user interface 46410A may be in a form that provides medically obtained average elevation delay time information for the general public. The general public average elevation delay time information user interface 46410A may be in a form that provides medically recommended average elevation delay time information for the general public. Additionally, the general public average elevation delay time information user interface 46410A may be in a form that provides statistically obtained general public average elevation delay time information. Additionally, it may be in the form of providing average sleep delay time information for the general public obtained by analyzing other people's sleep state information.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 입면 지연 시간 정보는 서비스를 통해 통계적으로 획득된 전체 평균 입면 지연 시간 정보일 수 있고, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 입면 지연 시간 정보일 수 있으며, 의학적으로 권고되는 입면 지연 시간 정보일 수 있고, 사용자 스스로의 과거 데이터를 통해서 얻어지는 평균 입면 지연 시간 정보일 수 있으나, 이에 한정되는 것은 아니다. Specifically, the average sleep delay time information for the general public obtained by analyzing other people's sleep status information may be the overall average sleep delay time information statistically obtained through the service, and the information for a specific group among the data statistically obtained through the service may be It may be overall average elevation delay time information, medically recommended elevation delay time information, or average elevation delay time information obtained through the user's own past data, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 입면 지연 시간 정보는, 타인의 그 날의 활동 기록을 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 그 날에 커피를 마셨는지 여부, 커피를 마셨다면 얼마나 섭취했는지 여부, 그 날의 음주 여부, 음주를 했다면 얼마나 알코올을 섭취했는지 여부, 그 날의 흡연 여부, 흡연을 했다면 얼마나 흡연을 했는지 여부 등에 의해 획득된 정보일 수 있으나 이에 한정되는 것은 아니다. Specifically, the average waking delay time information for the general public obtained by analyzing other people's sleep state information may be information obtained based on the other person's activity record for that day. Specific examples include whether you drank coffee that day, if you drank coffee, how much you consumed, whether you drank alcohol that day, if you drank, how much alcohol you consumed, whether you smoked that day, and if you smoked, how much you smoked. It may be information obtained based on whether or not the information has been used, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 입면 지연 시간 정보는, 타인의 금융 데이터 정보를 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 타인의 금융 데이터 정보를 기초로 획득된 정보는 타인의 자산을 기초로 획득된 정보일 수 있고, 타인의 급여를 기초로 획득된 정보일 수 있으나, 이에 한정되는 것은 아니다.Specifically, the average waking delay time information for the general public obtained by analyzing other people's sleep state information may be information obtained based on other people's financial data information. For a specific example, information acquired based on another person's financial data information may be information obtained based on another person's assets or information obtained based on another person's salary, but is not limited thereto.
구체적인 예를 들어, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 입면 지연 시간 정보는 남자의 평균 입면 지연 시간 정보, 30대의 평균 입면 지연 시간 정보, 주말에 잘 때 평균 입면 지연 시간 정보, 커피를 마신 사람들의 평균 입면 지연 시간 정보 등일 수 있고, 상기 평균 입면 지연 시간 정보들 중 둘 이상의 조합일 수 있으나, 이는 예시에 불과하며, 이에 한정되는 것은 아니다. For example, among the data statistically obtained through the service, the overall average sleep delay time information for a specific group includes the average sleep delay time information for men, the average sleep delay time information for people in their 30s, and the average sleep delay time information for those in their 30s who sleep on weekends. , it may be the average elevation delay time information of people who drank coffee, etc., and it may be a combination of two or more of the above average elevation delay time information, but this is only an example and is not limited thereto.
본 발명에 따르면, 일반인의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')를 포함할 수 있다. 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')는 수신된 타인의 수면 평균 데이터와 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison of the average elevation delay time of the general public and the average elevation delay time of a user may include a user elevation delay time emoticon information user interface 46400A'. The user sleep delay time emoticon information user interface 46400A' may include expressing the evaluation obtained by comparing the received sleep average data of others with the acquired sleep state information of the user as an “emoticon.”
구체적인 예를 들어, 도 1a에 도시된 바와 같이, 일반인 평균 입면 지연 시간 정보 사용자 인터페이스(46410A)의 막대 길이보다 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)의 막대 길이가 더 길게 표현된 경우, 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')가 울상인 이모티콘을 표현하여, 사용자가 입면 지연 시간과 관련하여, 수면의 질이 일반인 평균에 비해 좋지 못하다는 정보를 알아보기 쉽게 제공할 수 있다. For a specific example, as shown in FIG. 1A, when the bar length of the user's elevation delay time information user interface (46400A) is expressed as longer than the bar length of the average person's average elevation delay time information user interface (46410A), the user's elevation The delay time emoticon information user interface 46400A' displays a crying emoticon, so that the user can easily provide information that the sleep quality is worse than the average of the general public in relation to the waking delay time.
본 발명에 따르면, 일반인의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간에 관한 제2 정보 전달 사용자 인터페이스(46500A)를 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average elevation delay time of the general public and the average elevation delay time of a user may include a second information delivery user interface 46500A regarding the elevation delay time.
구체적인 예를 들어, 입면 지연 시간에 관한 제2 정보 전달 사용자 인터페이스(46500A)는 “알코올 섭취는 빠르게 잠드는 데 도움이 될 수 있지만, 깊게 잠들지 못하게 방해해 오히려 수면의 질을 떨어뜨립니다.”와 같이, 입면 지연 시간에 관한 의학적 정보를 전달하는 형태로 제공될 수 있다. 또한, “우유에 들어있는 트립토판은 숙면에 도움이 됩니다. 잠들기까지 시간이 오래 걸린다면, 따뜻한 우유를 마셔볼까요?”와 같은 수면에 관한 의학적 정보를 전달하는 형태로 제공될 수도 있으나, 이에 한정되는 것은 아니다. As a specific example, the user interface 46500A, which conveys second information about sleep latency, may be as follows: “Alcohol consumption may help you fall asleep quickly, but it may prevent you from falling asleep deeply and actually reduce the quality of your sleep.” , may be provided in the form of conveying medical information regarding the delay time of elevation. Also, “Tryptophan in milk helps you sleep well. It may be provided in the form of delivering medical information about sleep, such as “If it takes a long time to fall asleep, should I drink warm milk?”, but is not limited to this.
도 46bFigure 46b
도 46b는 본 발명의 일 실시 형태에 따라, 특정 연령대, 및 특정 성별의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. FIG. 46B is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of a user with the average elevation delay time of a specific age group and a specific gender, according to an embodiment of the present invention.
도시된 바와 같이, 특정 연령대, 및 특정 성별의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 입면 지연 시간에 관한 제1 정보 전달 사용자 인터페이스(46200A)를 제공할 수 있다. As shown, a graphical user interface representing a comparison of the user's average sleep latency time with the average sleep latency time of a specific age group and a specific gender is a sleep comparison title user interface 46100 and a user interface conveying first information regarding the sleep latency latency. (46200A) can be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand form. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 입면 지연 시간에 관한 제1 정보 전달 사용자 인터페이스(46200A)는 사용자에게 입면 지연 시간에 관한 정보 즉, 어느 정도의 입면 지연 시간이 타인의 평균 입면 지연 시간과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "눈을 감고 30분 안에 잠들면 적당해요."와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "50대 여자 평균보다 더 일찍 잠들었어요! 아주 좋아요!"와 같이, 수면에 대한 긍정적인 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface 46200A about the elevation delay time provides the user with information about the elevation delay time, that is, information about how much the elevation delay time is similar to the average elevation delay time of others. can do. A specific example may be provided in the form of a phrase such as, “Close your eyes and fall asleep within 30 minutes.” As another example, it may be provided as a way to give positive feedback about sleep, such as "I fell asleep earlier than the average for women in their 50s! It's great!", but it is not limited to this.
도시된 바와 같이, 특정 연령대, 및 특정 성별의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 중간에 깬 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, a graphical user interface representing a comparison of the user's average sleep latency with the average sleep latency of a specific age group and a specific gender includes a sleep latency sleep comparison check button user interface 46310, and a deep sleep proportion comparison check button for the user. The interface 46320, and the REM sleep proportion comparison check button user interface 46330 may be provided in a manner that provides information that one has been selected, but the hypnagogic delay time sleep comparison check button user interface 46310, the deep sleep proportion confirmation button user interface 46310 It is not limited to the comparison confirmation button user interface 46320, and the REM sleep percentage comparison confirmation button user interface 46330, and is not limited to other types of comparison, such as the number of waking up in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface. An OK button user interface may be provided.
도 46b에 도시된 바와 같이, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 입면 지연 시간에 관한 정보를 제공하는 것임을 알 수 있다. As shown in Figure 46b, when only the elevation delay time sleep comparison confirmation button user interface 46310 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information about the elevation delay time. .
구체적으로, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310)는 “잠들기까지”와 같은 문구를 제공하는 형태일 수 있으며, “잠드는 시간”과 같은 문구를 제공하는 형태일 수 있고, “잠드는데 걸린 시간은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the sleep delay time sleep comparison confirmation button user interface 46310 may be in a form that provides phrases such as “to fall asleep,” may be in a form that provides phrases such as “time to fall asleep,” and may be in a form that provides phrases such as “time to fall asleep.” It may be in the form of providing a phrase such as “What is the time?”, but is not limited to this.
본 발명에 따르면, 특정 연령대, 및 특정 성별의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A) 및 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보 사용자 인터페이스(46411A)를 포함할 수 있다. 구체적으로, 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 사용자의 입면 지연 시간을 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보 사용자 인터페이스(46411A)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. 구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)의 막대 그래프의 길이와, 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보 사용자 인터페이스(46411A)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 입면 지연 시간과 특정 연령대, 및 특정 성별 평균 입면 지연 시간 중 더 긴 시간이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison of the average elevation delay time of a specific age group and a specific gender with the average elevation delay time of a user includes a user elevation delay time information user interface 46400A and an average elevation delay time of a specific age group and a specific gender. May include a time information user interface 46411A. Specifically, the user's waking delay time information user interface 46400A displays the user's sleeping delay time based on the sleep data of the date of the report selected by the user, and the average sleeping delay time information user interface 46411A for a specific age group and a specific gender. It can be provided with bar graphs for comparison. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user elevation delay time information user interface 46400A and the average elevation delay time information user interface 46411A for a specific age group and a specific gender By providing a comparison of the length of the bar graph, it is possible to easily provide information about which of the user's elevation delay time and the average elevation delay time of a specific age group or specific gender is longer.
본 발명의 일 실시 형태에 따르면, 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보 사용자 인터페이스(46411A)는 의학적으로 획득된 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보 사용자 인터페이스(46411A)는 의학적으로 권고되는 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 또한, 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보 사용자 인터페이스(46411A)는 통계적으로 획득된 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다.According to an embodiment of the present invention, the average elevation delay time information user interface 46411A for a specific age group and a specific gender may be in a form that provides medically obtained average elevation delay time information for a specific age group and a specific gender. The average elevation delay time information user interface 46411A for a specific age group and a specific gender may be in a form that provides medically recommended average elevation delay time information for a specific age group and a specific gender. Additionally, the average elevation delay time information user interface 46411A for a specific age group and a specific gender may be in a form that provides statistically obtained average elevation delay time information for a specific age group and a specific gender. Additionally, it may be in the form of providing average sleep delay time information for a specific age group and specific gender obtained by analyzing other people's sleep status information.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보는 서비스를 통해 통계적으로 획득된 전체 평균 입면 지연 시간 정보일 수 있고, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 입면 지연 시간 정보일 수 있으며, 의학적으로 권고되는 입면 지연 시간 정보일 수 있고, 사용자 스스로의 과거 데이터를 통해서 얻어지는 평균 입면 지연 시간 정보일 수 있으나, 이에 한정되는 것은 아니다. Specifically, the average sleep delay time information for a specific age group and a specific gender obtained by analyzing other people's sleep status information may be the overall average sleep delay time information statistically obtained through the service, and data statistically obtained through the service. It may be the overall average elevation delay time information for a specific group, may be medically recommended elevation delay time information, or may be average elevation delay time information obtained through the user's own past data, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보는, 타인의 그 날의 활동 기록을 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 그 날에 커피를 마셨는지 여부, 커피를 마셨다면 얼마나 섭취했는지 여부, 그 날의 음주 여부, 음주를 했다면 얼마나 알코올을 섭취했는지 여부, 그 날의 흡연 여부, 흡연을 했다면 얼마나 흡연을 했는지 여부 등에 의해 획득된 정보일 수 있으나 이에 한정되는 것은 아니다. Specifically, the average sleep delay time information for a specific age group and a specific gender obtained by analyzing other people's sleep state information may be information obtained based on the other person's activity record for that day. Specific examples include whether you drank coffee that day, if you drank coffee, how much you consumed, whether you drank alcohol that day, if you drank, how much alcohol you consumed, whether you smoked that day, and if you smoked, how much you smoked. It may be information obtained based on whether or not the information has been used, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 입면 지연 시간 정보는, 타인의 금융 데이터 정보를 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 타인의 금융 데이터 정보를 기초로 획득된 정보는 타인의 자산을 기초로 획득된 정보일 수 있고, 타인의 급여를 기초로 획득된 정보일 수 있으나, 이에 한정되는 것은 아니다.Specifically, the average waking delay time information for the general public obtained by analyzing other people's sleep state information may be information obtained based on other people's financial data information. For a specific example, information acquired based on another person's financial data information may be information obtained based on another person's assets or information obtained based on another person's salary, but is not limited thereto.
구체적인 예를 들어, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 입면 지연 시간 정보는 남자의 평균 입면 지연 시간 정보, 30대의 평균 입면 지연 시간 정보, 주말에 잘 때 평균 입면 지연 시간 정보, 커피를 마신 사람들의 평균 입면 지연 시간 정보 등일 수 있고, 상기 평균 입면 지연 시간 정보들 중 둘 이상의 조합일 수 있으나, 이는 예시에 불과하며, 이에 한정되는 것은 아니다. For example, among the data statistically obtained through the service, the overall average sleep delay time information for a specific group includes the average sleep delay time information for men, the average sleep delay time information for people in their 30s, and the average sleep delay time information for those in their 30s who sleep on weekends. , it may be the average elevation delay time information of people who drank coffee, etc., and it may be a combination of two or more of the above average elevation delay time information, but this is only an example and is not limited thereto.
본 발명에 따르면, 특정 연령대, 및 특정 성별의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')를 포함할 수 있다. 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')는 수신된 타인의 수면 평균 데이터와 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average elevation delay time with the average elevation delay time of a specific age group and a specific gender may include a user elevation delay time emoticon information user interface 46400A'. The user sleep delay time emoticon information user interface 46400A' may include expressing the evaluation obtained by comparing the received sleep average data of others with the acquired sleep state information of the user as an “emoticon.”
구체적인 예를 들어, 도 46b에 도시된 바와 같이, 특정 연령대 및 특정 성별의 평균 입면 지연 시간 정보 사용자 인터페이스(46411A)의 막대 길이보다 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)의 막대 길이가 더 짧게 표현된 경우, 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')가 웃는 이모티콘을 표현하여, 사용자가 입면 지연 시간과 관련하여, 수면의 질이 특정 연령대, 및 특정 성별 평균에 비해 좋다는 정보를 알아보기 쉽게 제공할 수 있다. For a specific example, as shown in Figure 46b, the bar length of the user elevation delay time information user interface 46400A is expressed shorter than the bar length of the average elevation delay time information user interface 46411A for a specific age group and a specific gender. In this case, the user's waking delay time emoticon information user interface (46400A') displays a smiling emoticon so that the user can easily recognize information that sleep quality is better than the average for a specific age group and a specific gender in relation to waking delay time. can be provided.
본 발명에 따르면, 특정 연령대, 및 특정 성별의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간에 관한 제2 정보 전달 사용자 인터페이스(46500A)를 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average elevation delay time with the average elevation delay time of a specific age group and a specific gender may include a second information delivery user interface 46500A regarding the elevation delay time.
구체적인 예를 들어, 입면 지연 시간에 관한 제2 정보 전달 사용자 인터페이스(46500A)는 “알코올 섭취는 빠르게 잠드는 데 도움이 될 수 있지만, 깊게 잠들지 못하게 방해해 오히려 수면의 질을 떨어뜨립니다.”와 같이, 입면 지연 시간에 관한 의학적 정보를 전달하는 형태로 제공될 수 있다. 또한, “우유에 들어있는 트립토판은 숙면에 도움이 됩니다. 잠들기까지 시간이 오래 걸린다면, 따뜻한 우유를 마셔볼까요?”와 같은 수면에 관한 의학적 정보를 전달하는 형태로 제공될 수도 있으나, 이에 한정되는 것은 아니다. As a specific example, the user interface 46500A, which conveys second information about sleep latency, may be as follows: “Alcohol consumption may help you fall asleep quickly, but it may prevent you from falling asleep deeply and actually reduce the quality of your sleep.” , may be provided in the form of conveying medical information regarding the delay time of elevation. Also, “Tryptophan in milk helps you sleep well. It may be provided in the form of delivering medical information about sleep, such as “If it takes a long time to fall asleep, should I drink warm milk?”, but is not limited to this.
도 46cFigure 46c
도 46c는 본 발명의 일 실시 형태에 따라, 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 46c is a diagram illustrating a graphical user interface showing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user, according to an embodiment of the present invention.
도시된 바와 같이, 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 입면 지연 시간에 관한 제1 정보 전달 사용자 인터페이스(46200A)를 제공할 수 있다. As shown, a graphical user interface representing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user includes a sleep comparison title user interface 46100 and a first information delivery user interface regarding the elevation delay time 46200A. can be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand format. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 입면 지연 시간에 관한 제1 정보 전달 사용자 인터페이스(46200A)는 사용자에게 입면 지연 시간에 관한 정보 즉, 어느 정도의 입면 지연 시간이 타인의 평균 입면 지연 시간과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "눈을 감고 30분 안에 잠들면 적당해요."와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "간호사 평균보다 더 일찍 잠들었어요! 아주 좋아요!"와 같이, 수면에 대한 긍정적인 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface 46200A about the elevation delay time provides the user with information about the elevation delay time, that is, information about how much the elevation delay time is similar to the average elevation delay time of others. can do. A specific example may be provided in the form of a phrase such as, “Close your eyes and fall asleep within 30 minutes.” As another example, it may be provided as a way to provide positive feedback about sleep, such as, "I fell asleep earlier than the nurse average! It's great!", but is not limited to this.
도시된 바와 같이, 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 중간에 깬 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, a graphical user interface representing a comparison of the average sleep latency of a specific occupation and the user's average sleep latency includes a sleep latency sleep comparison check button user interface 46310 and a deep sleep proportion comparison check button user interface 46320. , and the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a way to provide information that one has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310, the deep sleep proportion comparison confirmation button user It is not limited to the interface 46320, and the REM sleep ratio comparison confirmation button user interface 46330, and other types of comparison confirmation button user interfaces, such as the number of waking up in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface. may be provided.
도 46c에 도시된 바와 같이, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 입면 지연 시간에 관한 정보를 제공하는 것임을 알 수 있다. As shown in Figure 46c, when only the elevation delay time sleep comparison confirmation button user interface 46310 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information about the elevation delay time. .
구체적으로, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310)는 “잠들기까지”와 같은 문구를 제공하는 형태일 수 있으며, “잠드는 시간”과 같은 문구를 제공하는 형태일 수 있고, “잠드는데 걸린 시간은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the sleep delay time sleep comparison confirmation button user interface 46310 may be in a form that provides phrases such as “to fall asleep,” may be in a form that provides phrases such as “time to fall asleep,” and may be in a form that provides phrases such as “time to fall asleep.” It may be in the form of providing a phrase such as “What is the time?”, but is not limited to this.
본 발명에 따르면, 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A) 및 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46412A)를 포함할 수 있다. 구체적으로, 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 사용자의 입면 지연 시간을 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46412A)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. 구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)의 막대 그래프의 길이와, 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46412A)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 입면 지연 시간과 특정 직종의 평균 입면 지연 시간 중 더 긴 시간이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user includes a user elevation delay time information user interface 46400A and an average elevation delay time information user interface 46412A of a specific occupation. may include. Specifically, the user's elevation delay time information user interface (46400A) can compare the user's elevation delay time with the average elevation delay time information user interface (46412A) of a specific occupation based on the sleep data of the date of the report selected by the user. It can be provided with a bar graph. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user elevation delay time information user interface 46400A and the bar graph of the average elevation delay time information user interface 46412A of a specific occupation By providing a comparison of the length of , it is possible to easily provide information on which is longer between the user's elevation delay time and the average elevation delay time of a specific occupation.
본 발명의 일 실시 형태에 따르면, 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46412A)는 의학적으로 획득된 특정 직종의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46412A)는 의학적으로 권고되는 특정 직종의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 또한, 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46412A)는 통계적으로 획득된 특정 직종의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 특정 직종의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다.According to one embodiment of the present invention, the average elevation delay time information user interface 46412A for a specific occupation may be in a form that provides medically obtained average elevation delay time information for a specific occupation. The average elevation delay time information user interface 46412A for a specific occupation may be in a form that provides medically recommended information on the average elevation delay time for a specific occupation. Additionally, the average elevation delay time information user interface 46412A for a specific occupation may be in a form that provides statistically obtained average elevation delay time information for a specific occupation. Additionally, it may be in the form of providing average waking delay time information for a specific occupation obtained by analyzing other people's sleep state information.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 특정 직종의 평균 입면 지연 시간 정보는 서비스를 통해 통계적으로 획득된 특정 직종의 평균 입면 지연 시간 정보일 수 있고, 서비스를 통해 통계적으로 획득된 데이터 중 특정 직종에 대한 전체 평균 입면 지연 시간 정보일 수 있으며, 의학적으로 권고되는 입면 지연 시간 정보일 수 있고, 사용자 스스로의 과거 데이터를 통해서 얻어지는 평균 입면 지연 시간 정보일 수 있으나, 이에 한정되는 것은 아니다. Specifically, the average waking delay time information for a specific occupation obtained by analyzing other people's sleep status information may be the average waking delay time information for a specific occupation statistically obtained through the service, and may be among the data statistically obtained through the service. It may be overall average elevation delay time information for a specific occupation, may be medically recommended elevation delay time information, or may be average elevation delay time information obtained through the user's own past data, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 특정 직종의 평균 입면 지연 시간 정보는, 타인의 그 날의 활동 기록을 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 그 날에 커피를 마셨는지 여부, 커피를 마셨다면 얼마나 섭취했는지 여부, 그 날의 음주 여부, 음주를 했다면 얼마나 알코올을 섭취했는지 여부, 그 날의 흡연 여부, 흡연을 했다면 얼마나 흡연을 했는지 여부 등에 의해 획득된 정보일 수 있으나 이에 한정되는 것은 아니다. Specifically, the average waking delay time information for a specific occupation obtained by analyzing other people's sleep state information may be information obtained based on the other person's activity record for that day. Specific examples include whether you drank coffee that day, if you drank coffee, how much you consumed, whether you drank alcohol that day, if you drank, how much alcohol you consumed, whether you smoked that day, and if you smoked, how much you smoked. It may be information obtained based on whether or not the information has been used, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 입면 지연 시간 정보는, 타인의 금융 데이터 정보를 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 타인의 금융 데이터 정보를 기초로 획득된 정보는 타인의 자산을 기초로 획득된 정보일 수 있고, 타인의 급여를 기초로 획득된 정보일 수 있으나, 이에 한정되는 것은 아니다.Specifically, the average waking delay time information for the general public obtained by analyzing other people's sleep state information may be information obtained based on other people's financial data information. For a specific example, information acquired based on another person's financial data information may be information obtained based on another person's assets or information obtained based on another person's salary, but is not limited thereto.
구체적인 예를 들어, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 입면 지연 시간 정보는 남자의 평균 입면 지연 시간 정보, 30대의 평균 입면 지연 시간 정보, 주말에 잘 때 평균 입면 지연 시간 정보, 커피를 마신 사람들의 평균 입면 지연 시간 정보 등일 수 있고, 상기 평균 입면 지연 시간 정보들 중 둘 이상의 조합일 수 있으나, 이는 예시에 불과하며, 이에 한정되는 것은 아니다. For example, among the data statistically obtained through the service, the overall average sleep delay time information for a specific group includes the average sleep delay time information for men, the average sleep delay time information for people in their 30s, and the average sleep delay time information for those in their 30s who sleep on weekends. , it may be the average elevation delay time information of people who drank coffee, etc., and it may be a combination of two or more of the above average elevation delay time information, but this is only an example and is not limited thereto.
본 발명에 따르면, 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')를 포함할 수 있다. 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')는 수신된 타인의 수면 평균 데이터와 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user may include a user elevation delay time emoticon information user interface 46400A'. The user sleep delay time emoticon information user interface 46400A' may include expressing the evaluation obtained by comparing the received sleep average data of others with the acquired sleep state information of the user as an “emoticon.”
구체적인 예를 들어, 도 46c에 도시된 바와 같이, 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46412A)의 막대 길이보다 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)의 막대 길이가 더 짧게 표현된 경우, 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')가 웃는 이모티콘을 표현하여, 사용자가 입면 지연 시간과 관련하여, 수면의 질이 특정 직종의 평균에 비해 좋다는 정보를 알아보기 쉽게 제공할 수 있다. For a specific example, as shown in Figure 46c, when the bar length of the user elevation delay time information user interface 46400A is expressed shorter than the bar length of the average elevation delay time information user interface 46412A of a specific occupation, The user waking delay time emoticon information user interface 46400A' displays a smiling emoticon, so that the user can easily provide information that the sleep quality is better than the average for a specific occupation in relation to waking delay time.
본 발명에 따르면, 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간에 관한 제2 정보 전달 사용자 인터페이스(46500A)를 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average elevation delay time of a specific occupation and the average elevation delay time of a user may include a second information delivery user interface 46500A regarding the elevation delay time.
구체적인 예를 들어, 입면 지연 시간에 관한 제2 정보 전달 사용자 인터페이스(46500A)는 “알코올 섭취는 빠르게 잠드는 데 도움이 될 수 있지만, 깊게 잠들지 못하게 방해해 오히려 수면의 질을 떨어뜨립니다.”와 같이, 입면 지연 시간에 관한 의학적 정보를 전달하는 형태로 제공될 수 있다. 또한, “우유에 들어있는 트립토판은 숙면에 도움이 됩니다. 잠들기까지 시간이 오래 걸린다면, 따뜻한 우유를 마셔볼까요?”와 같은 수면에 관한 의학적 정보를 전달하는 형태로 제공될 수도 있으나, 이에 한정되는 것은 아니다. As a specific example, the second information delivery user interface (46500A) regarding sleep latency may be as follows: “Alcohol consumption may help you fall asleep quickly, but it actually reduces the quality of your sleep by preventing you from falling asleep deeply.” , may be provided in the form of conveying medical information regarding the delay time of elevation. Also, “Tryptophan in milk helps you sleep well. It may be provided in the form of delivering medical information about sleep, such as “If it takes a long time to fall asleep, should I drink warm milk?”, but is not limited to this.
도 46dFigure 46d
도 46d는 본 발명의 일 실시 형태에 따라, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다.Figure 46d is a diagram illustrating a graphical user interface showing a comparison of the average elevation delay time of a user with the average elevation delay time of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
도시된 바와 같이, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 입면 지연 시간에 관한 제1 정보 전달 사용자 인터페이스(46200A)를 제공할 수 있다. As shown, a graphical user interface representing a comparison of the user's average sleep latency time with the average sleep latency time of a specific age group, specific gender, and specific occupation is provided with a sleep comparison title user interface 46100 and first information about the sleep latency time. A delivery user interface 46200A may be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand format. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 입면 지연 시간에 관한 제1 정보 전달 사용자 인터페이스(46200A)는 사용자에게 입면 지연 시간에 관한 정보 즉, 어느 정도의 입면 지연 시간이 타인의 평균 입면 지연 시간과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "눈을 감고 30분 안에 잠들면 적당해요."와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "50대 여자 간호사의 평균보다 더 일찍 잠들었어요! 아주 좋아요!"와 같이, 수면에 대한 긍정적인 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface 46200A about the elevation delay time provides the user with information about the elevation delay time, that is, information about how much the elevation delay time is similar to the average elevation delay time of others. can do. A specific example could be given in the form of a phrase such as, “Close your eyes and fall asleep within 30 minutes.” As another example, it may be provided as a way to give positive feedback about sleep, such as "I fell asleep earlier than the average for a female nurse in her 50s! It's great!", but it is not limited to this.
도시된 바와 같이, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 중간에 깬 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, a graphical user interface representing a comparison of the user's average sleep latency with the average sleep latency of a specific age group, specific gender, and specific occupation includes a sleep latency sleep comparison check button user interface 46310, deep sleep proportion comparison. The confirmation button user interface 46320, and the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a way that provides information that one of them has been selected, but the elevation delay time sleep comparison confirmation button user interface 46310, It is not limited to the deep sleep proportion comparison confirmation button user interface 46320, and the REM sleep proportion comparison confirmation button user interface 46330, and may include other devices such as the number of awakenings in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface. A user interface of type Compare Confirm button may be provided.
도 46d에 도시된 바와 같이, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 입면 지연 시간에 관한 정보를 제공하는 것임을 알 수 있다. As shown in Figure 46d, when only the elevation delay time sleep comparison confirmation button user interface 46310 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information about the elevation delay time. .
구체적으로, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310)는 “잠들기까지”와 같은 문구를 제공하는 형태일 수 있으며, “잠드는 시간”과 같은 문구를 제공하는 형태일 수 있고, “잠드는데 걸린 시간은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the sleep delay time sleep comparison confirmation button user interface 46310 may be in a form that provides phrases such as “to fall asleep,” may be in a form that provides phrases such as “time to fall asleep,” and may be in a form that provides phrases such as “time to fall asleep.” It may be in the form of providing a phrase such as “What is the time?”, but is not limited to this.
본 발명에 따르면, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A) 및 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46413A)를 포함할 수 있다. 구체적으로, 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 사용자의 입면 지연 시간을 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46413A)과 비교할 수 있는 막대 그래프와 함께 제공할 수 있다.According to the present invention, a graphical user interface representing a comparison of the average elevation delay time of a user with the average elevation delay time of a specific age group, specific gender, and specific occupation is comprised of a user elevation delay time information user interface 46400A and a specific age group, specific gender, And it may include an average elevation delay time information user interface 46413A for a specific occupation. Specifically, the user waking delay time information user interface 46400A calculates the user's sleeping delay time for a specific age group, specific gender, and specific occupation based on the sleep data of the date of the report selected by the user. (46413A) may be provided along with a bar graph for comparison.
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)의 막대 그래프의 길이와, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46413A)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 입면 지연 시간과 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 중 더 긴 시간이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user elevation delay time information user interface 46400A and the average elevation delay time information users of a specific age group, specific gender, and specific occupation By providing a comparison of the length of the bar graph in the interface (46413A), it is easy to see information about which is longer: the user's elevation delay time or the average elevation delay time for a specific age group, specific gender, and specific occupation. can be provided.
본 발명의 일 실시 형태에 따르면, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46413A)는 의학적으로 획득된 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46413A)는 의학적으로 권고되는 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 또한, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46413A)는 통계적으로 획득된 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보를 제공하는 형태일 수 있다.According to one embodiment of the present invention, the average elevation delay time information user interface 46413A for a specific age group, a specific gender, and a specific occupation provides medically obtained average elevation delay time information for a specific age group, a specific gender, and a specific occupation. It may be in the form of provision. The average elevation delay time information user interface 46413A for a specific age group, a specific gender, and a specific occupation may be in a form that provides medically recommended average elevation delay time information for a specific age group, a specific gender, and a specific occupation. Additionally, the average elevation delay time information user interface 46413A for a specific age group, specific gender, and specific occupation may be in a form that provides statistically obtained average elevation delay time information for a specific age group, specific gender, and specific occupation. Additionally, it may be in the form of providing average sleep delay time information for a specific age group, specific gender, and specific occupation obtained by analyzing other people's sleep status information.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보는 서비스를 통해 통계적으로 획득된 전체 평균 입면 지연 시간 정보일 수 있고, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 입면 지연 시간 정보일 수 있으며, 의학적으로 권고되는 입면 지연 시간 정보일 수 있고, 사용자 스스로의 과거 데이터를 통해서 얻어지는 평균 입면 지연 시간 정보일 수 있으나, 이에 한정되는 것은 아니다. Specifically, the average waking delay time information for a specific age group, specific gender, and specific occupation obtained by analyzing other people's sleep status information may be the overall average waking delay time information statistically obtained through the service, and may be statistically obtained through the service. Among the data acquired, it may be the overall average elevation delay time information for a specific group, it may be medically recommended elevation delay time information, or it may be the average elevation delay time information obtained through the user's own past data, but it is limited to this. It doesn't work.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보는, 타인의 그 날의 활동 기록을 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 그 날에 커피를 마셨는지 여부, 커피를 마셨다면 얼마나 섭취했는지 여부, 그 날의 음주 여부, 음주를 했다면 얼마나 알코올을 섭취했는지 여부, 그 날의 흡연 여부, 흡연을 했다면 얼마나 흡연을 했는지 여부 등에 의해 획득된 정보일 수 있으나 이에 한정되는 것은 아니다. Specifically, the average waking delay time information for a specific age group, specific gender, and specific occupation obtained by analyzing other people's sleep status information may be information obtained based on the other person's activity record for that day. Specific examples include whether you drank coffee that day, if you drank coffee, how much you consumed, whether you drank alcohol that day, if you drank, how much alcohol you consumed, whether you smoked that day, and if you smoked, how much you smoked. It may be information obtained based on whether or not the information has been used, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 입면 지연 시간 정보는, 타인의 금융 데이터 정보를 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 타인의 금융 데이터 정보를 기초로 획득된 정보는 타인의 자산을 기초로 획득된 정보일 수 있고, 타인의 급여를 기초로 획득된 정보일 수 있으나, 이에 한정되는 것은 아니다.Specifically, the average waking delay time information for the general public obtained by analyzing other people's sleep state information may be information obtained based on other people's financial data information. For a specific example, information acquired based on another person's financial data information may be information obtained based on another person's assets or information obtained based on another person's salary, but is not limited thereto.
구체적인 예를 들어, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 입면 지연 시간 정보는 여자의 평균 입면 지연 시간 정보, 50대의 평균 입면 지연 시간 정보, 간호사의 평균 입면 지연 시간 정보, 주말에 잘 때 평균 입면 지연 시간 정보, 커피를 마신 사람들의 평균 입면 지연 시간 정보 등일 수 있고, 상기 평균 입면 지연 시간 정보들 중 둘 이상의 조합일 수 있으나, 이는 예시에 불과하며, 이에 한정되는 것은 아니다. For a specific example, among the data statistically obtained through the service, the overall average bedtime delay time information for a specific group includes the average bedbreak delay time information for women, the average bedbreak delay time information for people in their 50s, the average bedbreak delay time information for nurses, and the weekend. It may be the average elevation delay time information when sleeping, the average elevation delay time information of people who drink coffee, etc., or it may be a combination of two or more of the above average elevation delay time information, but this is only an example and is not limited thereto.
본 발명에 따르면, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')를 포함할 수 있다. 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')는 수신된 타인의 수면 평균 데이터와 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average elevation delay time with the average elevation delay time of a specific age group, specific gender, and specific occupation may include a user elevation delay time emoticon information user interface 46400A'. . The user sleep delay time emoticon information user interface 46400A' may include expressing the evaluation obtained by comparing the received sleep average data of others with the acquired sleep state information of the user as an “emoticon.”
구체적인 예를 들어, 도 46c에 도시된 바와 같이, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간 정보 사용자 인터페이스(46413A)의 막대 길이보다 사용자 입면 지연 시간 정보 사용자 인터페이스(46400A)의 막대 길이가 더 짧게 표현된 경우, 사용자 입면 지연 시간 이모티콘 정보 사용자 인터페이스(46400A')가 웃는 이모티콘을 표현하여, 사용자가 입면 지연 시간과 관련하여, 수면의 질이 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간의 평균에 비해 좋지 못하다는 정보를 알아보기 쉽게 제공할 수 있다. For a specific example, as shown in FIG. 46C, the bar length of the user elevation delay time information user interface 46400A is greater than the bar length of the average elevation delay time information user interface 46413A for a specific age group, specific gender, and specific occupation. If is expressed shorter, the user's sleep latency emoticon information user interface 46400A' expresses a smiling emoticon, indicating that the user's sleep quality is average for a specific age group, specific gender, and specific occupation in relation to the sleep latency time. It can provide easily identifiable information that the elevation delay time is worse than the average.
본 발명에 따르면, 특정 연령대, 특정 성별, 및 특정 직종의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간에 관한 제2 정보 전달 사용자 인터페이스(46500A)를 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average elevation delay time with the average elevation delay time of a specific age group, specific gender, and specific occupation may include a second information conveying user interface 46500A regarding the elevation delay time. You can.
구체적인 예를 들어, 입면 지연 시간에 관한 제2 정보 전달 사용자 인터페이스(46500A)는 “알코올 섭취는 빠르게 잠드는 데 도움이 될 수 있지만, 깊게 잠들지 못하게 방해해 오히려 수면의 질을 떨어뜨립니다.”와 같이, 입면 지연 시간에 관한 의학적 정보를 전달하는 형태로 제공될 수 있다. 또한, “우유에 들어있는 트립토판은 숙면에 도움이 됩니다. 잠들기까지 시간이 오래 걸린다면, 따뜻한 우유를 마셔볼까요?”와 같은 수면에 관한 의학적 정보를 전달하는 형태로 제공될 수도 있으나, 이에 한정되는 것은 아니다. As a specific example, the second information delivery user interface (46500A) regarding sleep latency may be as follows: “Alcohol consumption may help you fall asleep quickly, but it actually reduces the quality of your sleep by preventing you from falling asleep deeply.” , may be provided in the form of conveying medical information regarding the delay time of elevation. Also, “Tryptophan in milk helps you sleep well. It may be provided in the form of delivering medical information about sleep, such as “If it takes a long time to fall asleep, should I drink warm milk?”, but is not limited to this.
도 47aFigure 47a
도 47a는 본 발명의 일 실시 형태에 따라, 일반인의 평균 깊은 잠과 사용자의 평균 깊은 잠의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 47a is a diagram illustrating a graphical user interface showing a comparison between the average deep sleep of a general person and the average deep sleep of a user, according to an embodiment of the present invention.
도시된 바와 같이, 일반인의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 깊은 잠 비중에 관한 제1 정보 전달 사용자 인터페이스(47200B)를 제공할 수 있다. As shown, the graphical user interface representing the comparison between the average deep sleep proportion of the general public and the average deep sleep proportion of the user includes a sleep comparison title user interface 46100 and a first information delivery user interface 47200B regarding the deep sleep proportion. can be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand format. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 깊은 잠 비중에 관한 제1 정보 전달 사용자 인터페이스(47200B)는 사용자에게 깊은 잠 비중에 관한 정보 즉, 어느 정도의 깊은 잠의 비중이 타인의 평균 깊은 잠 비중과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "깊은 잠이 15% 이상이면 적당해요"와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "일반인 평균보다 깊은 잠이 많아요! 아주 좋아요!"와 같이, 수면에 대한 긍정적인 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface (47200B) about the proportion of deep sleep provides the user with information about the proportion of deep sleep, that is, information about how much the proportion of deep sleep is similar to the average proportion of deep sleep of others. can be provided. As a specific example, it may be provided in the form of a phrase such as “Deep sleep of more than 15% is appropriate.” As another example, it may be provided as a way to give positive feedback about sleep, such as "I have more deep sleep than the average person! It's great!", but it is not limited to this.
도시된 바와 같이, 일반인의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 중간에 깬 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, the graphical user interface representing the comparison between the average deep sleep proportion of the general public and the average deep sleep proportion of the user includes a hypnagogic delay time sleep comparison confirmation button user interface 46310 and a deep sleep proportion comparison confirmation button user interface 46320. , and the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a way to provide information that one has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310, the deep sleep proportion comparison confirmation button user It is not limited to the interface 46320, and the REM sleep ratio comparison confirmation button user interface 46330, and other types of comparison confirmation button user interfaces, such as the number of waking up in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface. may be provided.
도 47a에 도시된 바와 같이, 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 깊은 잠 비중에 관한 정보를 제공하는 것임을 알 수 있다. As shown in FIG. 47A, when only the deep sleep proportion comparison confirmation button user interface 46320 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information about the deep sleep proportion.
구체적으로, 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320)는 “깊은 잠”과 같은 문구를 제공하는 형태일 수 있으며, “나의 깊은 잠은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the deep sleep proportion comparison confirmation button user interface 46320 may be in a form that provides phrases such as “deep sleep,” and may be in a form that provides phrases such as “what is my deep sleep?”, but is limited to this. It doesn't work.
본 발명에 따르면, 일반인의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B) 및 일반인 평균 깊은 잠 비중 정보 사용자 인터페이스(47410B)를 포함할 수 있다. 구체적으로, 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 사용자의 깊은 잠 비중을 일반인 평균 깊은 잠 비중 정보 사용자 인터페이스(47410B)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average deep sleep proportion of a general person and the average deep sleep proportion of a user includes a user deep sleep proportion information user interface 47400B and a general person average deep sleep proportion information user interface 47410B. can do. Specifically, the user deep sleep proportion information user interface (47400B) is a bar graph that compares the user's deep sleep proportion with the average deep sleep proportion information user interface (47410B) of the general public, based on the sleep data of the date of the report selected by the user. It can be provided with .
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B)의 막대 그래프의 길이와, 일반인 평균 깊은 잠 비중 정보 사용자 인터페이스(47410B)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 깊은 잠 비중과 일반인 평균 깊은 잠 비중 중 더 높은 비중이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user deep sleep proportion information user interface 47400B and the length of the bar graph of the average deep sleep proportion information user interface 47410B of the general public By providing a comparison, it is possible to easily provide information about which of the user's deep sleep proportions and the average deep sleep proportion of the general public is higher.
본 발명의 일 실시 형태에 따르면, 일반인 평균 깊은 잠 비중 정보 사용자 인터페이스(47410B)는 의학적으로 획득된 일반인 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 일반인 평균 깊은 잠 비중 정보 사용자 인터페이스(47410B)는 의학적으로 권고되는 일반인 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 또한, 일반인 평균 깊은 잠 비중 정보 사용자 인터페이스(47410B)는 통계적으로 획득된 일반인 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다.According to one embodiment of the present invention, the information user interface 47410B on the average deep sleep proportion of the general public may be in a form that provides information on the average deep sleep proportion of the general public obtained medically. The average deep sleep proportion information user interface (47410B) for the general public may be in a form that provides information on the average deep sleep proportion for the general public that is medically recommended. Additionally, the information user interface 47410B on the average deep sleep proportion of the general public may be in a form that provides statistically obtained information on the average deep sleep proportion of the general public. Additionally, it may be in the form of providing information on the average deep sleep proportion of the general public obtained by analyzing other people's sleep status information.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 깊은 잠 비중 정보는 서비스를 통해 통계적으로 획득된 전체 평균 깊은 잠 비중 정보일 수 있고, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 깊은 잠 비중 정보일 수 있으며, 의학적으로 권고되는 깊은 잠 비중 정보일 수 있고, 사용자 스스로의 과거 데이터를 통해서 얻어지는 평균 깊은 잠 비중 정보일 수 있으나, 이에 한정되는 것은 아니다. Specifically, the general deep sleep proportion information obtained by analyzing other people's sleep status information may be the overall average deep sleep proportion information statistically obtained through the service, and the overall average deep sleep proportion information for a specific group among the data statistically obtained through the service. It may be average deep sleep proportion information, medically recommended deep sleep proportion information, or average deep sleep proportion information obtained through the user's own past data, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 깊은 잠 비중 정보는, 타인의 그 날의 활동 기록을 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 그 날에 커피를 마셨는지 여부, 커피를 마셨다면 얼마나 섭취했는지 여부, 그 날의 음주 여부, 음주를 했다면 얼마나 알코올을 섭취했는지 여부, 그 날의 흡연 여부, 흡연을 했다면 얼마나 흡연을 했는지 여부 등에 의해 획득된 정보일 수 있으나 이에 한정되는 것은 아니다. Specifically, information on the average deep sleep proportion of the general public obtained by analyzing other people's sleep state information may be information obtained based on the other person's activity record for the day. Specific examples include whether you drank coffee that day, if you drank coffee, how much you consumed, whether you drank alcohol that day, if you drank, how much alcohol you consumed, whether you smoked that day, and if you smoked, how much you smoked. It may be information obtained based on whether or not the information has been used, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 깊은 잠 정보는, 타인의 금융 데이터 정보를 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 타인의 금융 데이터 정보를 기초로 획득된 정보는 타인의 자산을 기초로 획득된 정보일 수 있고, 타인의 급여를 기초로 획득된 정보일 수 있으나, 이에 한정되는 것은 아니다.Specifically, the average deep sleep information of the general public obtained by analyzing other people's sleep state information may be information obtained based on other people's financial data information. For a specific example, information acquired based on another person's financial data information may be information obtained based on another person's assets or information obtained based on another person's salary, but is not limited thereto.
구체적인 예를 들어, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 깊은 잠 비중 정보는 남자의 평균 깊은 잠 비중 정보, 30대의 평균 깊은 잠 비중 정보, 주말에 잘 때 평균 깊은 잠 비중 정보, 커피를 마신 사람들의 평균 깊은 잠 비중 정보 등일 수 있고, 상기 평균 깊은 잠 비중 정보들 중 둘 이상의 조합일 수 있으나, 이는 예시에 불과하며, 이에 한정되는 것은 아니다. For example, among the data statistically obtained through the service, the overall average deep sleep proportion information for a specific group includes the average deep sleep proportion information for men, the average deep sleep proportion information for people in their 30s, and the average deep sleep proportion information when sleeping on the weekend. , it may be information on the average deep sleep proportion of people who drank coffee, etc., or it may be a combination of two or more of the above average deep sleep proportion information, but this is only an example and is not limited thereto.
본 발명에 따르면, 일반인의 평균 깊은 잠 비중 정보과 사용자의 평균 깊은 잠 비중 정보를 나타내는 그래픽 사용자 인터페이스는 사용자 깊은 잠 비중 이모티콘 정보 사용자 인터페이스(47400B')를 포함할 수 있다. 사용자 깊은 잠 비중 이모티콘 정보 사용자 인터페이스(47400B')는 수신된 타인의 수면 평균 데이터와 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 포함할 수 있다. According to the present invention, a graphical user interface representing the average deep sleep proportion information of the general public and the average deep sleep proportion information of the user may include a user deep sleep proportion emoticon information user interface 47400B'. The user deep sleep proportion emoticon information user interface 47400B' may include expressing the evaluation obtained by comparing the received sleep average data of others with the acquired sleep state information of the user as an "emoticon."
구체적인 예를 들어, 도 47a에 도시된 바와 같이, 일반인 평균 깊은 잠 비중 정보 사용자 인터페이스(47410B)의 막대 길이보다 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B)의 막대 길이가 더 짧게 표현된 경우, 사용자 깊은 잠 비중 이모티콘 정보 사용자 인터페이스(47400B')가 울상인 이모티콘을 표현하여, 사용자가 깊은 잠 비중과 관련하여, 수면의 질이 일반인 평균에 비해 좋지 못하다는 정보를 알아보기 쉽게 제공할 수 있다. For a specific example, as shown in Figure 47a, when the bar length of the user deep sleep proportion information user interface 47400B is expressed shorter than the bar length of the average deep sleep proportion information user interface 47410B of the general public, the user deep sleep proportion information user interface 47400B The sleep ratio emoticon information user interface (47400B') displays a crying emoticon, so that the user can easily provide information that the quality of sleep is not as good as the average of the general public in relation to the proportion of deep sleep.
본 발명에 따르면, 일반인의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 깊은 잠 비중에 관한 제2 정보 전달 사용자 인터페이스(47500B)를 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average proportion of deep sleep of an ordinary person and the average proportion of deep sleep of a user may include a user interface 47500B for transmitting second information regarding the proportion of deep sleep.
구체적인 예를 들어, 깊은 잠 비중에 관한 제2 정보 전달 사용자 인터페이스(47500B)는 “깊은 잠은 문제를 해결하고 의사 결정하는 뇌의 복잡한 인지 기능을 회복시킵니다.”와 같이, 깊은 잠 비중에 관한 의학적 정보를 전달하는 형태로 제공될 수 있다. 또한, “캐모마일 차는 뇌 신경을 안정적으로 만들어 심신을 편안하게 해줍니다. 숙면에 도움이 되는 차를 마셔보는 건 어떨까요?”와 같은 수면에 관한 의학적 정보를 전달하는 형태로 제공될 수도 있으나, 이에 한정되는 것은 아니다. As a specific example, the second information-conveying user interface 47500B about the proportion of deep sleep may provide medical information about the proportion of deep sleep, such as “Deep sleep restores the brain's complex cognitive functions for solving problems and making decisions.” It can be provided in a form that conveys information. Additionally, “Chamomile tea stabilizes the brain nerves and relaxes the mind and body. It may be provided in the form of delivering medical information about sleep, such as “Why don’t you try drinking tea that helps you sleep better?”, but it is not limited to this.
도 47bFigure 47b
도 47b는 본 발명의 일 실시 형태에 따라, 특정 연령대, 및 특정 성별의 평균 깊은 잠과 사용자의 평균 깊은 잠의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. FIG. 47B is a diagram illustrating a graphical user interface showing a comparison of a user's average deep sleep with that of a specific age group and a specific gender, according to an embodiment of the present invention.
도시된 바와 같이, 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 깊은 잠 비중에 관한 제1 정보 전달 사용자 인터페이스(47200B)를 제공할 수 있다. As shown, a graphical user interface representing a comparison of the user's average deep sleep proportion with the average deep sleep proportion of a specific age group and a specific gender is provided to the user through a sleep comparison title user interface 46100 and first information about the deep sleep proportion. An interface (47200B) may be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand form. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 깊은 잠 비중에 관한 제1 정보 전달 사용자 인터페이스(47200B)는 사용자에게 깊은 잠 비중에 관한 정보 즉, 어느 정도의 깊은 잠의 비중이 타인의 평균 깊은 잠 비중과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "깊은 잠이 15% 이상이면 적당해요"와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "40대 남자 평균보다 깊은 잠이 많아요! 아주 좋아요!"와 같이, 수면에 대한 긍정적인 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface (47200B) about the proportion of deep sleep provides the user with information about the proportion of deep sleep, that is, information about how much the proportion of deep sleep is similar to the average proportion of deep sleep of others. can be provided. As a specific example, it may be provided in the form of a phrase such as “Deep sleep of more than 15% is appropriate.” As another example, it may be provided as a way to provide positive feedback about sleep, such as "I have more deep sleep than the average man in his 40s! It's great!", but it is not limited to this.
도시된 바와 같이, 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 수면 중 깸(WAKE) 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, a graphical user interface representing a comparison of the user's average deep sleep proportion with the average deep sleep proportion of a specific age group and a specific gender includes a hypnagogic latency sleep comparison check button user interface 46310, a deep sleep proportion check comparison button. The user interface 46320, and the REM sleep ratio comparison confirmation button user interface 46330 may be provided in a manner that provides information that one has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310, deep sleep It is not limited to the ratio comparison confirmation button user interface (46320) and the REM sleep ratio comparison confirmation button user interface (46330), and the number of awakenings (WAKE) during sleep comparison confirmation button user interface, or the light sleep comparison confirmation button user interface, etc. Other types of compare confirmation button user interfaces may also be provided.
도 47b에 도시된 바와 같이, 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 깊은 잠 비중에 관한 정보를 제공하는 것임을 알 수 있다. As shown in FIG. 47B, when only the deep sleep proportion comparison confirmation button user interface 46320 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information about the deep sleep proportion.
구체적으로, 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320)는 “깊은 잠”과 같은 문구를 제공하는 형태일 수 있으며, “나의 깊은 잠은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the deep sleep proportion comparison confirmation button user interface 46320 may be in a form that provides phrases such as “deep sleep,” and may be in a form that provides phrases such as “what is my deep sleep?”, but is limited to this. It doesn't work.
본 발명에 따르면, 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B) 및 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보 사용자 인터페이스(47411B)를 포함할 수 있다. 구체적으로, 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보 사용자 인터페이스(47411B)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average deep sleep proportion with the average deep sleep proportion of a specific age group and a specific gender is a user deep sleep proportion information user interface 47400B and the average deep sleep proportion of a specific age group and a specific gender. A deep sleep specification information user interface 47411B may be included. Specifically, the user deep sleep proportion information user interface 47400B is a bar graph that can be compared with the average deep sleep proportion information user interface 47411B for a specific age group and a specific gender based on the sleep data of the date of the report selected by the user. It can be provided with.
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B)의 막대 그래프의 길이와, 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보 사용자 인터페이스(47411B)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 깊은 잠 비중과 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 중 더 높은 비중이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user deep sleep proportion information user interface 47400B and the average deep sleep proportion information user interface 47411B of a specific age group and a specific gender ) by providing a comparison of the length of the bar graph, it is possible to easily provide information on which of the user's deep sleep proportion and the average deep sleep proportion of a specific age group and specific gender is higher.
본 발명의 일 실시 형태에 따르면, 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보 사용자 인터페이스(47411B)는 의학적으로 획득된 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보 사용자 인터페이스(47411B)는 의학적으로 권고되는 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 또한, 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보 사용자 인터페이스(47411B)는 통계적으로 획득된 일반인 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다.According to one embodiment of the present invention, the average deep sleep ratio information user interface 47411B for a specific age group and a specific gender may be in a form that provides medically obtained average deep sleep ratio information for a specific age group and a specific gender. . The average deep sleep ratio information user interface 47411B for a specific age group and a specific gender may be in a form that provides medically recommended average deep sleep ratio information for a specific age group and a specific gender. Additionally, the average deep sleep ratio information user interface 47411B for a specific age group and a specific gender may be in a form that provides statistically obtained information on the average deep sleep ratio of the general public. Additionally, it may be in the form of providing information on the average deep sleep proportion of a specific age group and a specific gender obtained by analyzing other people's sleep status information.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대, 및 특정 성별의 깊은 잠 비중 정보는 서비스를 통해 통계적으로 획득된 전체 평균 깊은 잠 비중 정보일 수 있고, 서비스를 통해 통계적으로 획득된 데이터 중 특정 그룹에 대한 전체 평균 깊은 잠 비중 정보일 수 있으며, 의학적으로 권고되는 깊은 잠 비중 정보일 수 있고, 사용자 스스로의 과거 데이터를 통해서 얻어지는 평균 깊은 잠 비중 정보일 수 있으나, 이에 한정되는 것은 아니다. Specifically, deep sleep proportion information for a specific age group and specific gender obtained by analyzing other people's sleep status information may be the overall average deep sleep proportion information statistically obtained through the service, and data statistically obtained through the service. It may be the overall average deep sleep proportion information for a specific group, may be medically recommended deep sleep proportion information, or may be average deep sleep proportion information obtained through the user's own past data, but is not limited to this.
구체적으로, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 깊은 잠 비중 정보는, 타인의 그 날의 활동 기록을 기초로 획득된 정보일 수 있다. 구체적인 예를 들어, 그 날에 커피를 마셨는지 여부, 커피를 마셨다면 얼마나 섭취했는지 여부, 그 날의 음주 여부, 음주를 했다면 얼마나 알코올을 섭취했는지 여부, 그 날의 흡연 여부, 흡연을 했다면 얼마나 흡연을 했는지 여부 등에 의해 획득된 정보일 수 있으나 이에 한정되는 것은 아니다. Specifically, information on the average deep sleep proportion of the general public obtained by analyzing other people's sleep state information may be information obtained based on the other person's activity record for the day. Specific examples include whether you drank coffee that day, if you drank coffee, how much you consumed, whether you drank alcohol that day, if you drank, how much alcohol you consumed, whether you smoked that day, and if you smoked, how much you smoked. It may be information obtained based on whether or not the information has been used, but is not limited to this.
도 47cFigure 47c
도 47c는 본 발명의 일 실시 형태에 따라, 특정 직종의 깊은 잠과 사용자의 깊은 잠의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 47c is a diagram illustrating a graphical user interface showing a comparison between deep sleep of a specific occupation and deep sleep of a user, according to an embodiment of the present invention.
도시된 바와 같이, 특정 직종의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 깊은 잠 비중에 관한 제1 정보 전달 사용자 인터페이스(47200B)를 제공할 수 있다. As shown, a graphical user interface representing a comparison between the average deep sleep proportion of a specific occupation and the user's average deep sleep proportion includes a sleep comparison title user interface 46100 and a first information delivery user interface regarding the deep sleep proportion 47200B. can be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand form. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 깊은 잠 비중에 관한 제1 정보 전달 사용자 인터페이스(47200B)는 사용자에게 깊은 잠 비중에 관한 정보 즉, 어느 정도의 깊은 잠의 비중이 타인의 평균 깊은 잠 비중과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "깊은 잠이 15% 이상이면 적당해요"와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "개발자 평균보다 깊은 잠이 많아요! 아주 좋아요!"와 같이, 수면에 대한 긍정적인 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface (47200B) about the proportion of deep sleep provides the user with information about the proportion of deep sleep, that is, information about how much the proportion of deep sleep is similar to the average proportion of deep sleep of others. can be provided. As a specific example, it may be provided in the form of a phrase such as “Deep sleep of more than 15% is appropriate.” As another example, it may be provided as a way to give positive feedback about sleep, such as "I sleep more deeply than the developer average! It's great!", but it is not limited to this.
도시된 바와 같이, 특정 직종의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 수면 중 깸(WAKE) 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, the graphical user interface representing the comparison between the average deep sleep proportion of a specific occupation and the user's average deep sleep proportion is hypnagogic latency sleep comparison confirmation button user interface 46310, deep sleep proportion comparison confirmation button user interface 46320 ), and the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a way to provide information that one has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310, the deep sleep proportion comparison confirmation button It is not limited to the user interface 46320, and the REM sleep percentage comparison confirmation button user interface 46330, and other types of comparisons such as the WAKE number comparison confirmation button user interface or the light sleep comparison confirmation button user interface. An OK button user interface may be provided.
도 47c에 도시된 바와 같이, 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 깊은 잠 비중에 관한 정보를 제공하는 것임을 알 수 있다. As shown in FIG. 47C, when only the deep sleep proportion comparison confirmation button user interface 46320 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information about the deep sleep proportion.
구체적으로, 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320)는 “깊은 잠”과 같은 문구를 제공하는 형태일 수 있으며, “나의 깊은 잠은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the deep sleep proportion comparison confirmation button user interface 46320 may be in a form that provides phrases such as “deep sleep,” and may be in a form that provides phrases such as “what is my deep sleep?”, but is limited to this. It doesn't work.
본 발명에 따르면, 특정 직종의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B) 및 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47412B)를 포함할 수 있다. 구체적으로, 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47412B)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average deep sleep proportion of a specific occupation and the user's average deep sleep proportion is a user deep sleep proportion information user interface (47400B) and an average deep sleep proportion information user interface (47412B) of a specific occupation. ) may include. Specifically, the user deep sleep proportion information user interface (47400B) provides a bar graph that can be compared with the average deep sleep proportion information user interface (47412B) of a specific occupation based on the sleep data of the date of the report selected by the user. You can.
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B)의 막대 그래프의 길이와, 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47412B)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 깊은 잠 비중과 특정 직종의 평균 깊은 잠 비중 중 더 높은 비중이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user deep sleep ratio information user interface 47400B and the bar graph of the average deep sleep ratio information user interface 47412B of a specific occupation By providing a comparison of the length, it is possible to easily provide information on which is the higher proportion of the user's deep sleep or the average deep sleep proportion of a specific occupation.
본 발명의 일 실시 형태에 따르면, 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47412B)는 의학적으로 획득된 직종의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47412B)는 의학적으로 권고되는 특정 직종의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 또한, 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47412B)는 통계적으로 획득된 특정 직종의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 특정 직종의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. According to one embodiment of the present invention, the average deep sleep proportion information user interface 47412B for a specific occupation may be in a form that provides medically obtained average deep sleep proportion information for the occupation. The average deep sleep ratio information user interface 47412B for a specific occupation may be in a form that provides medically recommended information on the average deep sleep ratio for a specific occupation. Additionally, the average deep sleep ratio information user interface 47412B for a specific occupation may be in a form that provides statistically obtained average deep sleep ratio information for a specific occupation. Additionally, it may be in the form of providing information on the average deep sleep proportion of a specific occupation obtained by analyzing other people's sleep status information.
도 47dFigure 47d
도 47d는 본 발명의 일 실시 형태에 따라, 특정 연령대, 특정 성별, 및 특정 직종의 깊은 잠과 사용자의 깊은 잠 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 47D is a diagram illustrating a graphical user interface showing a comparison of deep sleep of a user with deep sleep of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
도시된 바와 같이, 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 깊은 잠 비중에 관한 제1 정보 전달 사용자 인터페이스(47200B)를 제공할 수 있다. As shown, a graphical user interface representing a comparison of the user's average deep sleep proportion with the average deep sleep proportion of a specific age group, specific gender, and specific occupation is a sleep comparison title user interface 46100 and a first section regarding deep sleep proportion. An information transfer user interface 47200B may be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand form. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 깊은 잠 비중에 관한 제1 정보 전달 사용자 인터페이스(47200B)는 사용자에게 깊은 잠 비중에 관한 정보 즉, 어느 정도의 깊은 잠의 비중이 타인의 평균 깊은 잠 비중과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "깊은 잠이 15% 이상이면 적당해요"와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "40대 남자 개발자 평균보다 깊은 잠이 많아요! 아주 좋아요!"와 같이, 수면에 대한 긍정적인 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface (47200B) about the proportion of deep sleep provides the user with information about the proportion of deep sleep, that is, information about how much the proportion of deep sleep is similar to the average proportion of deep sleep of others. can be provided. As a specific example, it may be provided in the form of a phrase such as “Deep sleep of more than 15% is appropriate.” As another example, it may be provided as a way to give positive feedback about sleep, such as "I sleep more deeply than the average male developer in his 40s! It's great!", but it is not limited to this.
도시된 바와 같이, 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 수면 중 깸(WAKE) 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, a graphical user interface representing a comparison of the user's average deep sleep proportion with the average deep sleep proportion of a specific age group, specific gender, and specific occupation is hypnagogic latency sleep comparison confirmation button user interface 46310, deep sleep proportion. The comparison confirmation button user interface 46320 and the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a manner that provides information that one of the two has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310 may be provided. , the deep sleep proportion comparison confirmation button user interface 46320, and the REM sleep proportion comparison confirmation button user interface 46330, but are not limited to the WAKE number comparison confirmation button user interface, or the light sleep comparison confirmation button Other types of comparison confirmation button user interfaces, such as user interfaces, may also be provided.
도 47d에 도시된 바와 같이, 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 깊은 잠 비중에 관한 정보를 제공하는 것임을 알 수 있다. As shown in FIG. 47D, when only the deep sleep proportion comparison confirmation button user interface 46320 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information about the deep sleep proportion.
구체적으로, 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320)는 “깊은 잠”과 같은 문구를 제공하는 형태일 수 있으며, “나의 깊은 잠은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the deep sleep proportion comparison confirmation button user interface 46320 may be in a form that provides phrases such as “deep sleep,” and may be in a form that provides phrases such as “what is my deep sleep?”, but is limited to this. It doesn't work.
본 발명에 따르면, 특정 직종의 평균 깊은 잠 비중과 사용자의 평균 깊은 잠 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B) 및 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47413B)를 포함할 수 있다. 구체적으로, 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47413B)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison of the average deep sleep proportion of a specific occupation and the user's average deep sleep proportion is a user deep sleep proportion information user interface 47400B and the average deep sleep proportion of a specific age group, a specific gender, and a specific occupation. A sleep specific information user interface 47413B may be included. Specifically, the user deep sleep proportion information user interface (47400B) can be compared with the average deep sleep proportion information user interface (47413B) for a specific age group, specific gender, and specific occupation based on the sleep data of the date of the report selected by the user. It can be provided with a bar graph.
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 깊은 잠 비중 정보 사용자 인터페이스(47400B)의 막대 그래프의 길이와, 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47413B)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 깊은 잠 비중과 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중 중 더 높은 비중이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user deep sleep ratio information user interface 47400B and the average deep sleep ratio information users of a specific age group, specific gender, and specific occupation By providing a comparison of the length of the bar graph in the interface (47413B), it is easy to see information about which is higher: the user's deep sleep proportion or the average deep sleep proportion for a specific age group, specific gender, and specific occupation. can be provided.
본 발명의 일 실시 형태에 따르면, 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47413B)는 의학적으로 획득된 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47413B)는 의학적으로 권고되는 특정 직종의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 또한, 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중 정보 사용자 인터페이스(47413B)는 통계적으로 획득된 특정 연령대, 특정 성별, 및 특정 직종의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대, 및 특정 성별의 평균 깊은 잠 비중 정보를 제공하는 형태일 수 있다.According to one embodiment of the present invention, the average deep sleep ratio information user interface 47413B for a specific age group, a specific gender, and a specific occupation provides medically obtained average deep sleep ratio information for a specific age group, a specific gender, and a specific occupation. It may be in the form of provision. The average deep sleep ratio information user interface 47413B for a specific age group, specific gender, and specific occupation may be in a form that provides medically recommended average deep sleep ratio information for a specific occupation. Additionally, the average deep sleep ratio information user interface 47413B for a specific age group, specific gender, and specific occupation may be in a form that provides statistically obtained average deep sleep ratio information for a specific age group, specific gender, and specific occupation. Additionally, it may be in the form of providing information on the average deep sleep proportion of a specific age group and a specific gender obtained by analyzing other people's sleep status information.
도 48aFigure 48a
도 48a는 본 발명의 일 실시 형태에 따라, 일반인의 평균 렘 수면과 사용자의 렘 수면의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. FIG. 48A is a diagram illustrating a graphical user interface showing a comparison between the average REM sleep of an ordinary person and the REM sleep of a user, according to an embodiment of the present invention.
도시된 바와 같이, 일반인의 평균 렘(REM) 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 렘 수면 비중에 관한 제1 정보 전달 사용자 인터페이스(48200C)를 제공할 수 있다. As shown, the graphical user interface representing the comparison between the average REM sleep proportion of the general public and the average REM sleep proportion of the user includes a sleep comparison title user interface 46100 and a first information delivery user interface regarding the REM sleep proportion ( 48200C) can be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand format. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 렘 수면 비중에 관한 제1 정보 전달 사용자 인터페이스(48200C)는 사용자에게 렘 수면 비중에 관한 정보 즉, 어느 정도의 렘 수면의 비중이 타인의 평균 렘 수면 비중과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "렘 수면이 20~25%면 적당해요."와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "일반인 평균보다 렘 수면이 길어요!"와 같이, 수면에 대한 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface (48200C) about the proportion of REM sleep provides the user with information about the proportion of REM sleep, that is, information about how much the proportion of REM sleep is similar to the average proportion of REM sleep of others. can be provided. A specific example could be provided in the form of a statement such as “20-25% REM sleep is adequate.” For another example, it may be provided as a way to provide feedback about sleep, such as “I have longer REM sleep than the average person!”, but it is not limited to this.
도시된 바와 같이, 일반인의 평균 렘 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 중간에 깬 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, the graphical user interface representing the comparison of the average REM sleep proportion of the general public and the average REM sleep proportion of the user includes a hypnagogic delay time sleep comparison confirmation button user interface 46310 and a deep sleep proportion comparison confirmation button user interface 46320. , and the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a way to provide information that one has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310, the deep sleep proportion comparison confirmation button user It is not limited to the interface 46320, and the REM sleep ratio comparison confirmation button user interface 46330, and other types of comparison confirmation button user interfaces, such as the number of waking up in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface. may be provided.
도 48a에 도시된 바와 같이, 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 렘 수면 비중 비교에 관한 정보를 제공하는 것임을 알 수 있다. As shown in Figure 48a, when only the REM sleep proportion comparison confirmation button user interface 46330 is expressed in a distinguishable border form, it can be seen that the currently provided user interface provides information on REM sleep proportion comparison. .
구체적으로, 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)는 “렘수면”과 같은 문구를 제공하는 형태일 수 있으며, “렘 수면 비중”과 같은 문구를 제공하는 형태일 수 있고, “나의 렘 수면은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the REM sleep proportion comparison confirmation button user interface 46330 may be in a form that provides phrases such as “REM sleep,” “REM sleep proportion,” and “My REM sleep is.” It may be in the form of providing a phrase such as “?”, but is not limited to this.
본 발명에 따르면, 일반인의 평균 렘(REM) 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C) 및 일반인 평균 렘 수면 비중 정보 사용자 인터페이스(48410C)를 포함할 수 있다. 구체적으로, 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 사용자의 렘 수면 비중을 일반인 평균 렘 수면 비중 정보 사용자 인터페이스(48410C)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average REM sleep proportion of the general public and the average REM sleep proportion of the user includes the user REM sleep proportion information user interface (48400C) and the average REM sleep proportion information user interface (48410C) of the general public. ) may include. Specifically, the user REM sleep proportion information user interface (48400C) is a bar graph that compares the user's REM sleep proportion with the average REM sleep proportion information user interface (48410C) of the general public, based on the sleep data of the date of the report selected by the user. It can be provided with.
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)의 막대 그래프의 길이와, 일반인 평균 렘 수면 비중 정보 사용자 인터페이스(48410C)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 렘 수면 비중과 일반인 평균 렘 수면 비중 중 더 높은 것이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user REM sleep proportion information user interface (48400C) and the length of the bar graph of the general public's average REM sleep proportion information user interface (48410C) can be provided for comparison, providing information on which is higher between the user's REM sleep proportion and the average REM sleep proportion of the general public.
본 발명의 일 실시 형태에 따르면, 일반인 평균 렘 수면 비중 정보 사용자 인터페이스(48410C)는 의학적으로 획득된 일반인 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 일반인 평균 렘 수면 비중 정보 사용자 인터페이스(48410C)는 의학적으로 권고되는 일반인 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 또한, 일반인 평균 렘 수면 비중 정보 사용자 인터페이스(48410C)는 통계적으로 획득된 일반인 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 일반인 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다.According to an embodiment of the present invention, the general public average REM sleep proportion information user interface 48410C may be in a form that provides medically obtained general public average REM sleep proportion information. The average REM sleep proportion information user interface for the general public (48410C) may be in a form that provides medically recommended average REM sleep proportion information for the general public. Additionally, the general public average REM sleep proportion information user interface 48410C may be in a form that provides information on the general public average REM sleep proportion information obtained statistically. Additionally, it may be in the form of providing information on the average REM sleep proportion of the general public obtained by analyzing other people's sleep status information.
본 발명에 따르면, 일반인의 평균 렘 수면 비중 정보와 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')를 포함할 수 있다. 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')는 수신된 타인의 수면 평균 데이터와 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average REM sleep ratio information of the general public and the average REM sleep ratio of a user may include a user REM sleep ratio emoticon information user interface 48400C'. The user REM sleep ratio emoticon information user interface 48400C' may include expressing an evaluation obtained by comparing the received average sleep data of others with the acquired sleep state information of the user as an "emoticon."
구체적인 예를 들어, 도 48a에 도시된 바와 같이, 일반인 평균 렘 수면 비중 정보 사용자 인터페이스(48410C)의 막대 길이보다 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)의 막대 길이가 더 길게 표현된 경우, 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')가 울상인 이모티콘을 표현하여, 사용자가 렘수면 비중과 관련하여, 수면의 질이 일반인 평균에 비해 좋지 못하다는 정보를 알아보기 쉽게 제공할 수 있다. For a specific example, as shown in Figure 48a, when the bar length of the user REM sleep proportion information user interface (48400C) is expressed as longer than the bar length of the average REM sleep proportion information user interface (48410C) of the general public, the user REM The sleep ratio emoticon information user interface (48400C') displays a crying emoticon, allowing users to easily understand information that their sleep quality is worse than the average of the general public in relation to their REM sleep ratio.
본 발명에 따르면, 일반인의 평균 입면 지연 시간과 사용자의 평균 입면 지연 시간 비교를 나타내는 그래픽 사용자 인터페이스는 렘 수면 비중에 관한 제2 정보 전달 사용자 인터페이스(48500C)를 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average elevation delay time of the general public and the average elevation delay time of a user may include a second information delivery user interface 48500C regarding the proportion of REM sleep.
구체적인 예를 들어, 렘 수면 비중에 관한 제2 정보 전달 사용자 인터페이스(48500C)는 “렘 수면일 때 우리는 생생하고 감정적으로 강렬한 꿈을 꿀 가능성이 커요. 그렇다고 꿈을 모두 기억할 수 있는 것은 아니랍니다.”와 같이, 렙 수면 비중에 관한 의학적 정보를 전달하는 형태로 제공될 수 있다. 또한, “렘 수면 단계에서는 낮 동안 습득된 단기 기억이 장기 기억으로 저장돼요!”와 같은 수면에 관한 의학적 정보를 전달하는 형태로 제공될 수도 있으나, 이에 한정되는 것은 아니다. As a specific example, the second informative user interface (48500C) regarding the proportion of REM sleep states, “During REM sleep, we are more likely to have vivid and emotionally intense dreams. It can be provided in the form of conveying medical information about the proportion of REP sleep, such as “That doesn’t mean you can remember all your dreams.” In addition, it may be provided in the form of delivering medical information about sleep, such as “During the REM sleep stage, short-term memories acquired during the day are stored as long-term memories!”, but is not limited to this.
도 48bFigure 48b
도 48b는 본 발명의 일 실시 형태에 따라, 특정 연령대, 및 특정 성별의 평균 렘 수면과 사용자의 렘 수면의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. FIG. 48B is a diagram illustrating a graphical user interface showing a comparison of the user's REM sleep with the average REM sleep of a specific age group and a specific gender, according to an embodiment of the present invention.
도시된 바와 같이, 일반인의 평균 렘(REM) 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 렘 수면 비중에 관한 제1 정보 전달 사용자 인터페이스(48200C)를 제공할 수 있다. As shown, the graphical user interface representing the comparison between the average REM sleep proportion of the general public and the average REM sleep proportion of the user includes a sleep comparison title user interface 46100 and a first information delivery user interface regarding the REM sleep proportion ( 48200C) can be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand format. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 렘 수면 비중에 관한 제1 정보 전달 사용자 인터페이스(48200C)는 사용자에게 렘 수면 비중에 관한 정보 즉, 어느 정도의 렘 수면의 비중이 타인의 평균 렘 수면 비중과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "렘 수면이 20~25%면 적당해요."와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "일반인 평균보다 렘 수면이 길어요!"와 같이, 수면에 대한 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface (48200C) about the proportion of REM sleep provides the user with information about the proportion of REM sleep, that is, information about how much the proportion of REM sleep is similar to the average proportion of REM sleep of others. can be provided. A specific example could be provided in the form of a statement such as “20-25% REM sleep is adequate.” As another example, it may be provided as a way to provide feedback about sleep, such as “I have longer REM sleep than the average person!”, but it is not limited to this.
도시된 바와 같이, 일반인의 평균 렘 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 중간에 깬 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, the graphical user interface representing the comparison of the average REM sleep proportion of the general public and the average REM sleep proportion of the user includes a hypnagogic delay time sleep comparison confirmation button user interface 46310 and a deep sleep proportion comparison confirmation button user interface 46320. , and the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a way to provide information that one has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310, the deep sleep proportion comparison confirmation button user It is not limited to the interface 46320, and the REM sleep ratio comparison confirmation button user interface 46330, and other types of comparison confirmation button user interfaces, such as the number of waking up in the middle comparison confirmation button user interface, or the light sleep comparison confirmation button user interface. may be provided.
도 48b에 도시된 바와 같이, 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 렘 수면 비중 비교에 관한 정보를 제공하는 것임을 알 수 있다. As shown in Figure 48b, when only the REM sleep proportion comparison confirmation button user interface 46330 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information on REM sleep proportion comparison. .
구체적으로, 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)는 “렘수면”과 같은 문구를 제공하는 형태일 수 있으며, “렘 수면 비중”과 같은 문구를 제공하는 형태일 수 있고, “나의 렘 수면은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the REM sleep proportion comparison confirmation button user interface 46330 may be in a form that provides phrases such as “REM sleep,” “REM sleep proportion,” and “My REM sleep is.” It may be in the form of providing a phrase such as “?”, but is not limited to this.
본 발명에 따르면, 특정 연령대, 및 특정 성별의 평균 렘(REM) 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C) 및 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보 사용자 인터페이스(48411C)를 포함할 수 있다. 구체적으로, 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 사용자의 렘 수면 비중을 특정 연령대, 및 특정 성별 평균 렘 수면 비중 정보 사용자 인터페이스(48411C)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average REM sleep proportion with the average REM sleep proportion of a specific age group and a specific gender includes a user REM sleep proportion information user interface 48400C and a specific age group, and a specific It may include an average REM sleep proportion information user interface (48411C) for each gender. Specifically, the user REM sleep ratio information user interface 48400C displays the user's REM sleep ratio for a specific age group and a specific gender based on the sleep data of the date of the report selected by the user, and the average REM sleep ratio information user interface 48411C for a specific gender. It can be provided with bar graphs for comparison.
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)의 막대 그래프의 길이와, 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보 사용자 인터페이스(48411C)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 렘 수면 비중과 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 중 더 높은 것이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user REM sleep proportion information user interface 48400C and the average REM sleep proportion information user interface 48411C for a specific age group and a specific gender ) by providing a comparison of the length of the bar graph, it is possible to easily provide information on which is higher among the user's REM sleep proportion and the average REM sleep proportion of a specific age group and a specific gender.
본 발명의 일 실시 형태에 따르면, 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보 사용자 인터페이스(48411C)는 의학적으로 획득된 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 특정 연령대, 및 특정 성별 평균 렘 수면 비중 정보 사용자 인터페이스(48411C)는 의학적으로 권고되는 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 또한, 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보 사용자 인터페이스(48411C)는 통계적으로 획득된 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다.According to one embodiment of the present invention, the average REM sleep ratio information user interface 48411C for a specific age group and a specific gender may be in a form that provides medically obtained average REM sleep ratio information for a specific age group and a specific gender. . The average REM sleep ratio information user interface 48411C for a specific age group and a specific gender may be in a form that provides medically recommended average REM sleep ratio information for a specific age group and a specific gender. Additionally, the average REM sleep ratio information user interface 48411C for a specific age group and a specific gender may be in a form that provides statistically obtained average REM sleep ratio information for a specific age group and a specific gender. Additionally, it may be in the form of providing information on the average REM sleep proportion of a specific age group and a specific gender obtained by analyzing other people's sleep status information.
본 발명에 따르면, 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보와 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')를 포함할 수 있다. 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')는 수신된 타인의 수면 평균 데이터와 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average REM sleep proportion information with the average REM sleep proportion information of a specific age group and a specific gender may include a user REM sleep proportion emoticon information user interface 48400C'. The user REM sleep ratio emoticon information user interface 48400C' may include expressing an evaluation obtained by comparing the received average sleep data of others with the acquired sleep state information of the user as an "emoticon."
구체적인 예를 들어, 도 48b에 도시된 바와 같이, 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보 사용자 인터페이스(48411C)의 막대 길이가 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)의 막대 길이와 비슷하게 표현된 경우, 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')가 웃는 이모티콘을 표현하여, 사용자가 렘수면 비중과 관련하여, 수면의 질이 특정 연령대, 및 특정 성별의 평균과 비슷하다는 정보를 알아보기 쉽게 제공할 수 있다. For a specific example, as shown in FIG. 48B, the bar length of the average REM sleep proportion information user interface 48411C for a specific age group and a specific gender is expressed similarly to the bar length of the user REM sleep proportion information user interface 48400C. In this case, the user REM sleep proportion emoticon information user interface (48400C') displays a smiling emoticon, making it easier for the user to recognize information that sleep quality in relation to REM sleep proportion is similar to the average of a specific age group and a specific gender. can be provided.
본 발명에 따르면, 특정 연령대, 및 특정 성별의 평균 렘 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 렘 수면 비중에 관한 제2 정보 전달 사용자 인터페이스(48500C)를 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average REM sleep proportion with the average REM sleep proportion of a specific age group and a specific gender may include a second information conveying user interface 48500C regarding the REM sleep proportion. .
구체적인 예를 들어, 렘 수면 비중에 관한 제2 정보 전달 사용자 인터페이스(48500C)는 “렘 수면일 때 우리는 생생하고 감정적으로 강렬한 꿈을 꿀 가능성이 커요. 그렇다고 꿈을 모두 기억할 수 있는 것은 아니랍니다.”와 같이, 렙 수면 비중에 관한 의학적 정보를 전달하는 형태로 제공될 수 있다. 또한, “렘 수면 단계에서는 낮 동안 습득된 단기 기억이 장기 기억으로 저장돼요!”와 같은 수면에 관한 의학적 정보를 전달하는 형태로 제공될 수도 있으나, 이에 한정되는 것은 아니다. As a specific example, the second informative user interface (48500C) regarding the proportion of REM sleep states, “During REM sleep, we are more likely to have vivid and emotionally intense dreams. It can be provided in the form of conveying medical information about the proportion of REP sleep, such as “That doesn’t mean you can remember all your dreams.” In addition, it may be provided in the form of delivering medical information about sleep, such as “During the REM sleep stage, short-term memories acquired during the day are stored as long-term memories!”, but is not limited to this.
도 48cFigure 48c
도 48c는 본 발명의 일 실시 형태에 따라, 특정 직종의 렘 수면과 사용자의 렘 수면의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다. Figure 48c is a diagram illustrating a graphical user interface showing a comparison between the REM sleep of a specific occupation and the REM sleep of a user, according to an embodiment of the present invention.
도 48c에 도시된 바와 같이, 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 렘 수면 비중 비교에 관한 정보를 제공하는 것임을 알 수 있다. As shown in Figure 48c, when only the REM sleep proportion comparison confirmation button user interface 46330 is expressed in the form of a distinguishable border, it can be seen that the currently provided user interface provides information on REM sleep proportion comparison. .
구체적으로, 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)는 “렘수면”과 같은 문구를 제공하는 형태일 수 있으며, “렘 수면 비중”과 같은 문구를 제공하는 형태일 수 있고, “나의 렘 수면은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the REM sleep proportion comparison confirmation button user interface 46330 may be in a form that provides phrases such as “REM sleep,” “REM sleep proportion,” and “My REM sleep is.” It may be in the form of providing a phrase such as “?”, but is not limited to this.
본 발명에 따르면, 특정 직종의 평균 렘(REM) 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C) 및 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48412C)를 포함할 수 있다. 구체적으로, 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 사용자의 렘 수면 비중을 특정 직종의 렘 수면 비중 정보 사용자 인터페이스(48412C)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average REM sleep proportion of a specific occupation and the user's average REM sleep proportion includes the user REM sleep proportion information user interface 48400C and the average REM sleep proportion information user of a specific occupation. It may include an interface 48412C. Specifically, the user REM sleep ratio information user interface (48400C) is a bar that can compare the user's REM sleep ratio with the REM sleep ratio information user interface (48412C) of a specific occupation based on the sleep data of the date of the report selected by the user. It can be provided with a graph.
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)의 막대 그래프의 길이와, 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48412C)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 렘 수면 비중과 특정 직종의 평균 렘 수면 비중 중 더 높은 것이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user REM sleep ratio information user interface 48400C and the bar graph of the average REM sleep ratio information user interface 48412C of a specific occupation By providing a comparison of the length, it is possible to easily provide information on which is higher between the user's REM sleep proportion and the average REM sleep proportion of a specific occupation.
본 발명의 일 실시 형태에 따르면, 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48412C)는 의학적으로 획득된 특정 직종의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48412C)는 의학적으로 권고되는 특정 직종의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 또한, 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48412C)는 통계적으로 획득된 특정 직종의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 특정 직종의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다.According to one embodiment of the present invention, the average REM sleep ratio information user interface 48412C for a specific occupation may be in a form that provides medically obtained average REM sleep ratio information for a specific occupation. The average REM sleep ratio information user interface 48412C for a specific occupation may be in a form that provides medically recommended information on the average REM sleep ratio for a specific occupation. Additionally, the average REM sleep ratio information user interface 48412C for a specific occupation may be in a form that provides statistically obtained average REM sleep ratio information for a specific occupation. Additionally, it may be in the form of providing information on the average REM sleep proportion of a specific occupation obtained by analyzing other people's sleep status information.
본 발명에 따르면, 특정 연령대, 및 특정 성별의 평균 렘 수면 비중 정보와 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')를 포함할 수 있다. 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')는 수신된 타인의 수면 평균 데이터와 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average REM sleep proportion information with the average REM sleep proportion information of a specific age group and a specific gender may include a user REM sleep proportion emoticon information user interface 48400C'. The user REM sleep ratio emoticon information user interface 48400C' may include expressing an evaluation obtained by comparing the received average sleep data of others with the acquired sleep state information of the user as an "emoticon."
구체적인 예를 들어, 도 48c에 도시된 바와 같이, 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48412C)의 막대 길이가 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)의 막대 길이보다 길게 표현된 경우, 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')가 웃는 이모티콘을 표현하여, 사용자가 렘수면 비중과 관련하여, 수면의 질이 초등학교 선생님 평균보다 좋다는 정보를 알아보기 쉽게 제공할 수 있다. For example, as shown in FIG. 48C, when the bar length of the average REM sleep proportion information user interface 48412C of a specific occupation is expressed as longer than the bar length of the user REM sleep proportion information user interface 48400C, the user The REM sleep percentage emoticon information user interface (48400C') displays a smiling emoticon, allowing users to easily understand information that their sleep quality is better than the average of elementary school teachers in relation to REM sleep percentage.
본 발명에 따르면, 특정 직종의 평균 렘 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 렘 수면 비중에 관한 제2 정보 전달 사용자 인터페이스(48500C)를 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison between the average REM sleep proportion of a specific occupation and the user's average REM sleep proportion may include a second information delivery user interface 48500C regarding the REM sleep proportion.
구체적인 예를 들어, 렘 수면 비중에 관한 제2 정보 전달 사용자 인터페이스(48500C)는 “렘 수면일 때 우리는 생생하고 감정적으로 강렬한 꿈을 꿀 가능성이 커요. 그렇다고 꿈을 모두 기억할 수 있는 것은 아니랍니다.”와 같이, 렙 수면 비중에 관한 의학적 정보를 전달하는 형태로 제공될 수 있다. 또한, “렘 수면 단계에서는 낮 동안 습득된 단기 기억이 장기 기억으로 저장돼요!”와 같은 수면에 관한 의학적 정보를 전달하는 형태로 제공될 수도 있으나, 이에 한정되는 것은 아니다. As a specific example, the second informative user interface (48500C) regarding the proportion of REM sleep states, “During REM sleep, we are more likely to have vivid and emotionally intense dreams. It can be provided in the form of conveying medical information about the proportion of REP sleep, such as “That doesn’t mean you can remember all your dreams.” In addition, it may be provided in the form of delivering medical information about sleep, such as “During the REM sleep stage, short-term memories acquired during the day are stored as long-term memories!”, but is not limited to this.
도 48dFigure 48d
도 48d는 본 발명의 일 실시 형태에 따라, 특정 연령대, 특정 성별, 및 특정 직종의 렘 수면과 사용자의 렘 수면의 비교를 나타내는 그래픽 사용자 인터페이스를 나타낸 도면이다.FIG. 48D is a diagram illustrating a graphical user interface showing a comparison of the user's REM sleep with that of a specific age group, specific gender, and specific occupation, according to an embodiment of the present invention.
도시된 바와 같이, 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘(REM) 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 수면 비교 타이틀 사용자 인터페이스(46100)와 렘 수면 비중에 관한 제1 정보 전달 사용자 인터페이스(48200C)를 제공할 수 있다. As shown, a graphical user interface representing a comparison of the user's average REM sleep proportion with the average REM sleep proportion of a specific age group, specific gender, and specific occupation is provided in the sleep comparison title user interface 46100 and the REM sleep proportion. A first information delivery user interface 48200C may be provided.
본 발명에 따르면, 수면 비교 타이틀 사용자 인터페이스(46100)는 사용자에게 사용자의 수면을 이해하기 쉬운 형태로 수면 분석 정보가 제공된다는 정보를 제공할 수 있다. 구체적인 예를 들어, 수면 비교 타이틀 사용자 인터페이스(46100)는 "알기 쉬운 나의 잠"과 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "다른 사람과 나의 수면 비교하기"와 같은 문구의 형태로 제공될 수도 있으며, "나의 수면 비교하기"와 같은 문구의 형태로 제공될 수 있으나 이에 한정되지 않는다. According to the present invention, the sleep comparison title user interface 46100 can provide the user with information that sleep analysis information about the user's sleep is provided in an easy-to-understand format. As a specific example, the sleep comparison title user interface 46100 may be provided in the form of phrases such as “My sleep is easy to understand.” As another example, it may be provided in the form of a phrase such as “Compare my sleep with others,” and may be provided in the form of a phrase such as “Compare my sleep,” but is not limited thereto.
본 발명에 따르면, 렘 수면 비중에 관한 제1 정보 전달 사용자 인터페이스(48200C)는 사용자에게 렘 수면 비중에 관한 정보 즉, 어느 정도의 렘 수면의 비중이 타인의 평균 렘 수면 비중과 유사한지에 대한 정보를 제공할 수 있다. 구체적인 예를 들어, "렘 수면이 20~25%면 적당해요."와 같은 문구의 형태로 제공될 수 있다. 또 다른 예를 들어, "20대 초등학교 여자 선생님 평균보다 렘 수면이 길어요!"와 같이, 수면에 대한 피드백을 주는 방법으로 제공될 수도 있으나, 이에 한정되는 것은 아니다. According to the present invention, the first information delivery user interface (48200C) about the proportion of REM sleep provides the user with information about the proportion of REM sleep, that is, information about how much the proportion of REM sleep is similar to the average proportion of REM sleep of others. can be provided. A specific example could be provided in the form of a statement such as “20-25% REM sleep is adequate.” For another example, it may be provided as a way to provide feedback on sleep, such as “Rem sleep is longer than the average of female elementary school teachers in their 20s!”, but it is not limited to this.
도시된 바와 같이, 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330) 중 어느 하나가 선택된 것이라는 정보를 제공하는 방식으로 제공될 수 있으나, 입면 지연 시간 수면 비교 확인 버튼 사용자 인터페이스(46310), 깊은 잠 비중 비교 확인 버튼 사용자 인터페이스(46320), 및 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)에 한정되는 것은 아니고, 중간에 깬 횟수 비교 확인 버튼 사용자 인터페이스, 또는 얕은 잠 비교 확인 버튼 사용자 인터페이스 등 다른 유형의 비교 확인 버튼 사용자 인터페이스가 제공될 수도 있다. As shown, a graphical user interface representing a comparison of the user's average REM sleep proportion with the average REM sleep proportion of a specific age group, specific gender, and specific occupation is hypnagogic latency sleep comparison confirmation button user interface 46310, deep sleep proportion. The comparison confirmation button user interface 46320 and the REM sleep proportion comparison confirmation button user interface 46330 may be provided in a manner that provides information that one of the two has been selected, but the hypnagogic delay time sleep comparison confirmation button user interface 46310 may be provided. , the deep sleep proportion comparison confirmation button user interface 46320, and the REM sleep proportion comparison confirmation button user interface 46330, but are not limited to the number of waking up comparison confirmation button user interface, or the light sleep comparison confirmation button user interface, etc. Other types of compare confirmation button user interfaces may also be provided.
도 48d에 도시된 바와 같이, 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)만 구별 가능한 테두리 형태로 표현이 되는 경우, 현재 제공되는 사용자 인터페이스는 렘 수면 비중 비교에 관한 정보를 제공하는 것임을 알 수 있다. As shown in Figure 48d, when only the REM sleep proportion comparison confirmation button user interface 46330 is expressed in a distinguishable border form, it can be seen that the currently provided user interface provides information about REM sleep proportion comparison. .
구체적으로, 렘 수면 비중 비교 확인 버튼 사용자 인터페이스(46330)는 “렘수면”과 같은 문구를 제공하는 형태일 수 있으며, “렘 수면 비중”과 같은 문구를 제공하는 형태일 수 있고, “나의 렘 수면은?”과 같은 문구를 제공하는 형태일 수 있으나, 이에 한정되지 않는다. Specifically, the REM sleep proportion comparison confirmation button user interface 46330 may be in a form that provides phrases such as “REM sleep,” “REM sleep proportion,” and “My REM sleep is.” It may be in the form of providing a phrase such as “?”, but is not limited to this.
본 발명에 따르면, 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘(REM) 수면 비중과 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C) 및 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48413C)를 포함할 수 있다. 구체적으로, 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)는 사용자가 선택한 레포트의 날짜의 수면 데이터를 기준으로, 사용자의 렘 수면 비중을 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48413C)와 비교할 수 있는 막대 그래프와 함께 제공할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average REM sleep proportion with the average REM sleep proportion of a specific age group, specific gender, and specific occupation includes a user REM sleep proportion information user interface (48400C) and a specific age group. , a specific gender, and a specific occupation may include an average REM sleep ratio information user interface 48413C. Specifically, the user REM sleep ratio information user interface (48400C) displays the user's REM sleep ratio as the average REM sleep ratio information user interface for a specific age group, specific gender, and specific occupation, based on the sleep data of the date of the report selected by the user. (48413C) may be provided along with a bar graph for comparison.
구체적으로, 막대 그래프는, 데이터 값에 비례한 길이를 가지므로, 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)의 막대 그래프의 길이와, 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48413C)의 막대 그래프의 길이를 비교할 수 있도록 제공하여, 사용자 렘 수면 비중과 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 중 더 높은 것이 어느 쪽인지에 관한 정보를 알아보기 쉽게 제공할 수 있다. Specifically, since the bar graph has a length proportional to the data value, the length of the bar graph of the user REM sleep ratio information user interface (48400C) and the average REM sleep ratio information users of a specific age group, specific gender, and specific occupation By providing a comparison of the length of the bar graph in the interface (48413C), it provides information on which is higher between the user's REM sleep proportion and the average REM sleep proportion of a specific age group, specific gender, and specific occupation. can do.
본 발명의 일 실시 형태에 따르면, 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48413C)는 의학적으로 획득된 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48413C)는 의학적으로 권고되는 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 또한, 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48413C)는 통계적으로 획득된 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다. 또한, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보를 제공하는 형태일 수 있다.According to one embodiment of the present invention, the average REM sleep ratio information user interface 48413C for a specific age group, specific gender, and specific occupation provides medically obtained average REM sleep ratio information for a specific age group, specific gender, and specific occupation. It may be in the form of provision. The average REM sleep ratio information user interface 48413C for a specific age group, a specific gender, and a specific occupation may be in a form that provides medically recommended average REM sleep ratio information for a specific age group, a specific gender, and a specific occupation. Additionally, the average REM sleep ratio information user interface 48413C for a specific age group, specific gender, and specific occupation may be in a form that provides statistically obtained average REM sleep ratio information for a specific age group, specific gender, and specific occupation. Additionally, it may be in the form of providing information on the average REM sleep proportion of a specific age group, specific gender, and specific occupation obtained by analyzing other people's sleep status information.
본 발명에 따르면, 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보와 사용자의 평균 렘 수면 비중의 비교를 나타내는 그래픽 사용자 인터페이스는 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')를 포함할 수 있다. 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')는 수신된 타인의 수면 평균 데이터와 획득한 사용자의 수면 상태 정보를 비교함으로써 얻어지는 평가를 “이모티콘”으로 표현하는 것을 포함할 수 있다. According to the present invention, a graphical user interface representing a comparison of the user's average REM sleep ratio information with the average REM sleep ratio information of a specific age group, specific gender, and specific occupation may include a user REM sleep ratio emoticon information user interface 48400C'. You can. The user REM sleep ratio emoticon information user interface 48400C' may include expressing an evaluation obtained by comparing the received average sleep data of others with the acquired sleep state information of the user as an "emoticon."
구체적인 예를 들어, 도 48d에 도시된 바와 같이, 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48413C)의 막대 길이가 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)의 막대 길이보다 짧게 표현된 경우, 사용자 렘 수면 비중 이모티콘 정보 사용자 인터페이스(48400C')가 웃는 이모티콘을 표현하여, 사용자가 렘수면 비중과 관련하여, 수면의 질이 특정 연령대, 특정 성별, 및 특정 직종의 평균과 비슷하다는 정보를 알아보기 쉽게 제공할 수 있다. For a specific example, as shown in FIG. 48D, the bar length of the average REM sleep ratio information user interface 48413C for a specific age group, specific gender, and specific occupation is the bar length of the user REM sleep ratio information user interface 48400C. In a shorter expression, the user REM sleep percentage emoticon information user interface 48400C' displays a smiling emoticon, indicating that the user's sleep quality, in relation to REM sleep percentage, is similar to the average for a specific age group, a specific gender, and a specific occupation. We can provide information that is easy to understand.
본 발명에 따르면, 특정 연령대, 특정 성별, 및 특정 직종의 평균 평균 렘 수면 비중 정보와 사용자의 평균 렘 수면 비중 정보를 나타내는 그래픽 사용자 인터페이스는 렘 수면 비중에 관한 제2 정보 전달 사용자 인터페이스(48500C)를 포함할 수 있다. According to the present invention, the graphical user interface representing the average REM sleep proportion information of a specific age group, specific gender, and specific occupation and the user's average REM sleep proportion information includes a second information delivery user interface (48500C) regarding the REM sleep proportion. It can be included.
구체적인 예를 들어, 렘 수면 비중에 관한 제2 정보 전달 사용자 인터페이스(48500C)는 “초등학교 선생님 평균보다 렘수면 비중이 조금 적어요!”와 같이, 특정 연령대, 특정 성별, 및 특정 직종의 평균 렘 수면 비중 정보 사용자 인터페이스(48413C)의 막대 길이가 사용자 렘 수면 비중 정보 사용자 인터페이스(48400C)의 막대 길이보다 짧게 표현된 것에 대한 해석을 제공할 수도 있다. As a specific example, the user interface 48500C, which conveys the second information about REM sleep proportion, may display the average REM sleep proportion of a specific age group, a specific gender, and a specific occupation, such as “I have a slightly lower REM sleep proportion than the average elementary school teacher!” An interpretation may be provided for the fact that the bar length of the information user interface 48413C is expressed as being shorter than the bar length of the user REM sleep proportion information user interface 48400C.
타인의 수면 상태 정보를 분석하는 방법How to analyze other people's sleep status information
본 발명의 일 실시 형태에 따르면, 타인의 수면 상태 정보를 분석하여 획득한 특정 연령대, 특정 성별, 및 특정 직종의 평균 수면 데이터를 제공할 수 있다. 구체적으로, 수면을 측정하여 분석 레포트를 제공하는 애플리케이션을 사용하는 사용자들을 대상으로 사용자의 인적 사항 정보를 수집할 수 있다. 구체적인 예를 들어, 사용자의 나이, 성별, 직종, 금융 데이터, 그 날의 활동 기록 등에 대한 정보를 수집할 수 있다. According to one embodiment of the present invention, average sleep data for a specific age group, specific gender, and specific occupation obtained by analyzing other people's sleep status information can be provided. Specifically, personal information can be collected from users who use an application that measures sleep and provides analysis reports. For example, information about the user's age, gender, occupation, financial data, and daily activity records may be collected.
본 발명의 일 실시예에 따르면, 사용자의 인적 사항에 대한 신뢰도를 높이기 위하여, 사용자의 인적 사항 정보를 기본으로 더 정확한 수면 분석을 제공한다는 문구를 함께 제공할 수 있다. According to one embodiment of the present invention, in order to increase reliability of the user's personal information, a statement that more accurate sleep analysis is provided based on the user's personal information may be provided.
본 발명의 일 실시예에 따르면, 그 날의 활동 기록에 대한 정보 수집은 다른 인적 사항과는 달리 매일 데이터가 변동할 것이므로, 수면을 측정하기 전 매일 새로운 정보를 수집할 수 있다. According to one embodiment of the present invention, unlike other personal information, when collecting information about that day's activity records, the data will change every day, so new information can be collected every day before measuring sleep.
수면 평가 한줄평One-line sleep evaluation review
도 49a의 흐름도에 대한 설명Description of the flow chart of Figure 49A
도 49a는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법의 흐름도이다.Figure 49A is a flowchart of a method for creating one or more graphical user interfaces representing a non-numerical assessment of a user's sleep according to an embodiment of the present invention.
도 49a에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 수면 정보 습득 단계(S49100), 수면 문구 생성 단계(S49120), 그래픽 유저 인터페이스를 디스플레이하는 단계(S49140)을 포함할 수 있다. 수면 문구는 적어도 두 개의 단어를 포함하고, 상기 생성된 문구는 수치적인 방식으로 표현되지 않을 수 있다.As shown in FIG. 49A, according to one embodiment of the present invention, the method of generating one or more graphical user interfaces representing non-numerical evaluations of sleep includes a sleep information acquisition step (S49100) and a sleep phrase generation step (S49120). ), may include displaying a graphical user interface (S49140). A sleep phrase contains at least two words, and the generated phrase may not be expressed in a numerical manner.
또한, 본 발명의 일 실시예에 따라서 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 정보 저장 단계를 포함할 수 있다.In addition, according to an embodiment of the present invention, a method of generating one or more graphical user interfaces representing non-numerical evaluations of sleep includes a sleep log information storage step of storing sleep log information related to an account assigned to a user in a memory. It can be included.
그리고, 본 발명의 일 실시예에 따라서 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 정보 습득 단계(S49100)는 도 9에 도시된 바와 같이, 수면 음향 정보(SS)를 주파수 도메인 상의 정보(SP)로 변환하는 수면 정보 변환 단계를 포함할 수 있다.And, in the method of generating one or more graphical user interfaces representing non-numerical evaluations of sleep according to an embodiment of the present invention, the sleep information acquisition step (S49100) includes sleep sound information, as shown in FIG. 9. It may include a sleep information conversion step of converting (SS) into information (SP) in the frequency domain.
또한, 본 발명의 일 실시예에 따라서 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 정보 습득 단계(S49100)는 수면 음향 정보를 도 52에 개시된 바와 같이 딥러닝 모델(52700)의 입력으로 하여, 수면에 대한 정보를 추론하는 수면 정보 추론 단계를 더 포함할 수 있다.In addition, in the method of generating one or more graphical user interfaces representing non-numerical evaluations of sleep according to an embodiment of the present invention, the sleep information acquisition step (S49100) includes deep sleep sound information as shown in FIG. 52. A sleep information inference step of inferring information about sleep using the input of the learning model 52700 may be further included.
그리고, 본 발명의 일 실시예에 따라서 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 문구 생성 단계(S49120)는 수면에 관한 평가 중 주목성이 높은 텍스트를 생성하는 제1 수면 문구 생성단계 및 상기 사용자의 수면에 관한 평가를 구성하는 텍스트를 생성하는 제2 수면 문구 생성 단계를 포함할 수 있다.In addition, in the method of generating one or more graphical user interfaces representing non-numerical evaluations of sleep according to an embodiment of the present invention, the sleep phrase generating step (S49120) selects text with high attention among the evaluations of sleep. It may include a first sleep phrase generating step and a second sleep phrase generating step of generating text constituting an evaluation of the user's sleep.
또한, 본 발명의 일 실시예에 따라서 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 문구 생성 단계(S49120)는 수면에 관한 평가에 기초하여 조언 텍스트를 생성하는 제3 수면 문구 생성 단게를 포함할 수 있다.Additionally, in the method for generating one or more graphical user interfaces representing non-numerical evaluations of sleep according to an embodiment of the present invention, the sleep phrase generating step (S49120) generates advice text based on the evaluation of sleep. It may include a third sleep phrase generation step.
그리고, 본 발명의 일 실시예에 따라서 수면 문구 생성 단계(S49120)은 도 53에 개시된 바와 같이, 룩업테이블에 기초하여 수면 문구를 생성하는 룩업테이블 수면 문구 생성 단계를 더 포함할 수 있다. 룩업테이블 문구 생성 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(53800)을 분류하는 룩업테이블 사용자 수면 특성 분류단계 및 분류된 수면 특성(53822, 53824, 53826, 53828)과 대응되는 룩업테이블 내 수면평가(53842, 53844, 53846, 53848)에 기초한 수면 문구 추출단계를 포함할 수 있다. And, according to an embodiment of the present invention, the sleep phrase generating step (S49120) may further include a lookup table sleep phrase generating step of generating a sleep phrase based on a lookup table, as shown in FIG. 53. The lookup table phrase generation step is a lookup table user sleep characteristic classification step that classifies the user's sleep characteristics (53800) based on sleep information, and a lookup table corresponding to the classified sleep characteristics (53822, 53824, 53826, 53828). It may include a sleep phrase extraction step based on sleep evaluation (53842, 53844, 53846, 53848).
또한, 본 발명의 일 실시예에 따라서 수면 문구 생성 단계(S49120)은 도 54에 개시된 바와 같이, 대규모 언어 모델에 기초하여 수면 문구를 생성하는 대규모 언어 모델 수면 문구 생성 단계를 더 포함할 수 있다. 대규모 언어 모델 수면 문구 생성 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(54900)을 분류하는 대규모 언어 모델 사용자 수면 특성 분류 단계 및 분류된 수면 특성(54922, 54924, 54926, 54928)을 대규모 언어 모델(54930)의 입력으로 하여 출력되는 대규모 언어 모델 수면평가(54942, 54944, 54946, 54948)을 추출하는 대규모 언어 모델 수면 문구 추출 단계를 포함할 수 있다.In addition, according to an embodiment of the present invention, the sleep phrase generating step (S49120) may further include a large-scale language model sleep phrase generating step of generating a sleep phrase based on a large-scale language model, as shown in FIG. 54. The large-scale language model sleep phrase generation step is a large-scale language model user sleep characteristic classification step that classifies the user's sleep characteristics (54900) based on sleep information, and the classified sleep characteristics (54922, 54924, 54926, 54928) are classified into a large-scale language model. It may include a large-scale language model sleep phrase extraction step of extracting large-scale language model sleep evaluations (54942, 54944, 54946, 54948) output as input to the model (54930).
그리고, 본 발명의 일 실시예에 따라서, 그래픽 유저 인터페이스 디스플레이 단계(S49140)는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는 사용자 수면 그래프 생성단계를 포함할 수 있다.And, according to an embodiment of the present invention, the graphic user interface display step (S49140) may include a user sleep graph generating step of generating a graph about the sleep stage within the user's sleep period based on sleep information.
도 49b의 흐름도에 대한 설명Description of the flow chart of Figure 49b
도 49b는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 평가를 비수치적인 방식 및 수치적인 방식으로 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법의 흐름도이다.Figure 49b is a flowchart of a method for creating one or more graphical user interfaces that represent the evaluation of the user's sleep in a non-numerical and numerical manner according to an embodiment of the present invention.
도 49b에 도시된 바와 같이 본 발명의 일 실시예에 따르면, 수면에 관한 비수치적인 방식 및 수치적인 방식으로 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 수면 정보 습득 단계(S49200), 수면 문구 생성 단계(S49220), 수면 수치 정보 생성 단계(S49230) 및 그래픽 유저 인터페이스를 디스플레이 하는 단계(S49240)을 포함할 수 있다. 수면 평가는 비수치적인 방식으로 적어도 두 개 이상의 단어를 포함하는 수면 문구와 수치적인 방식으로 수면 수치 평가를 포함한다.As shown in FIG. 49B, according to an embodiment of the present invention, a method of creating one or more graphical user interfaces that represent sleep in a non-numerical and numerical manner includes a sleep information acquisition step (S49200) and sleep phrase generation. It may include a step (S49220), a step of generating sleep numerical information (S49230), and a step of displaying a graphical user interface (S49240). Sleep assessment includes sleep phrases containing at least two words in a non-numerical manner and sleep numerical assessment in a numerical manner.
또한, 본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법은 사용자에게 할당된 계정과 관련한 수면 로그 정보를 메모리에 저장하는 수면 로그 정보 저장 단계를 포함할 수 있다.Additionally, according to an embodiment of the present invention, a method of generating one or more graphical user interfaces representing an evaluation of sleep may include a sleep log information storage step of storing sleep log information related to an account assigned to a user in a memory. there is.
그리고, 본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 정보 습득 단계(S49200)는 도 9에 도시된 바와 같이, 수면 음향 정보(SS)를 주파수 도메인 상의 정보(SP)로 변환하는 수면 정보 변환 단계를 포함할 수 있다.And, in the method of generating one or more graphical user interfaces representing evaluation of sleep according to an embodiment of the present invention, the sleep information acquisition step (S49200) includes sleep sound information (SS), as shown in FIG. 9. It may include a sleep information conversion step of converting into information (SP) in the frequency domain.
또한, 본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 정보 습득 단계(S49200)는 수면 음향 정보를 도 52에 개시된 바와 같이 딥러닝 모델(52700)의 입력으로 하여, 수면에 대한 정보를 추론하는 수면 정보 추론 단계를 더 포함할 수 있다.In addition, in the method of generating one or more graphical user interfaces representing evaluation of sleep according to an embodiment of the present invention, the sleep information acquisition step (S49200) uses sleep sound information as a deep learning model (S49200) as shown in FIG. 52. 52700), a sleep information inference step of inferring information about sleep may be further included.
그리고, 본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 문구 생성 단계(S49220)는 수면에 관한 평가 중 주목성이 높은 텍스트를 생성하는 제1 수면 문구 생성단계 및 상기 사용자의 수면에 관한 평가를 구성하는 텍스트를 생성하는 제2 수면 문구 단계를 포함할 수 있다.And, in the method of generating one or more graphical user interfaces representing an evaluation of sleep according to an embodiment of the present invention, the sleep phrase generating step (S49220) is a method of generating text of high interest among the evaluation of sleep. 1. It may include a sleep phrase generation step and a second sleep phrase step of generating text constituting an evaluation of the user's sleep.
또한, 본 발명의 일 실시예에 따라서 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법에 있어서, 수면 문구 생성 단계(S49120)는 수면에 관한 평가에 기초하여 조언 텍스트를 생성하는 제3 수면 문구 생성 단게를 포함할 수 있다.Additionally, in the method of generating one or more graphical user interfaces representing an evaluation of sleep according to an embodiment of the present invention, the sleep phrase generating step (S49120) includes a third message generating advice text based on the evaluation of sleep. A sleep phrase creation step may be included.
그리고, 본 발명의 일 실시예에 따라서 수면 문구 생성 단계(S49220)와 수면 수치 정보 생성 단계(S49230)은 도 53에 개시된 바와 같이, 룩업테이블에 기초하여 수면 문구를 생성하는 룩업테이블 수면 문구 생성 단계를 더 포함할 수 있다. 룩업테이블 문구 생성 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(53800)을 분류하는 룩업테이블 사용자 수면 특성 분류단계 및 분류된 수면 특성(53822, 53824, 53826, 53828)과 대응되는 룩업테이블 내 수면평가(53842, 53844, 53846, 53848)에 기초한 수면 문구 추출단계를 포함할 수 있다.And, according to an embodiment of the present invention, the sleep phrase generation step (S49220) and the sleep numerical information generation step (S49230) are a lookup table sleep phrase generation step of generating a sleep phrase based on a lookup table, as shown in FIG. 53. It may further include. The lookup table phrase generation step is a lookup table user sleep characteristic classification step that classifies the user's sleep characteristics (53800) based on sleep information, and a lookup table corresponding to the classified sleep characteristics (53822, 53824, 53826, 53828). It may include a sleep phrase extraction step based on sleep evaluation (53842, 53844, 53846, 53848).
또한, 본 발명의 일 실시예에 따라서 수면 문구 생성 단계(S49220)와 수면 수치 정보 생성 단계(S49230)은 도 54에 개시된 바와 같이, 대규모 언어 모델에 기초하여 수면 문구를 생성하는 대규모 언어 모델 수면 문구 생성 단계를 더 포함할 수 있다. 대규모 언어 모델 수면 문구 생성 단계는, 수면 정보에 기초하여 사용자의 수면의 특성(54900)을 분류하는 대규모 언어 모델 사용자 수면 특성 분류 단계 및 분류된 수면 특성(54922, 54924, 54926, 54928)을 대규모 언어 모델(54930)의 입력으로 하여 출력되는 대규모 언어 모델 수면평가(54942, 54944, 54946, 54948)을 추출하는 대규모 언어 모델 수면 문구 추출 단계를 포함할 수 있다.In addition, according to an embodiment of the present invention, the sleep phrase generation step (S49220) and the sleep numerical information generation step (S49230) are large-scale language model sleep phrases that generate sleep phrases based on a large-scale language model, as shown in Figure 54. A creation step may be further included. The large-scale language model sleep phrase generation step is a large-scale language model user sleep characteristic classification step that classifies the user's sleep characteristics (54900) based on sleep information, and the classified sleep characteristics (54922, 54924, 54926, 54928) are classified into a large-scale language model. It may include a large-scale language model sleep phrase extraction step of extracting large-scale language model sleep evaluations (54942, 54944, 54946, 54948) output as input to the model (54930).
그리고, 본 발명의 일 실시예에 따라서, 그래픽 유저 인터페이스 디스플레이 단계(S49140)는 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프를 생성하는 사용자 수면 그래프 생성단계를 포함할 수 있다.And, according to an embodiment of the present invention, the graphic user interface display step (S49140) may include a user sleep graph generating step of generating a graph about the sleep stage within the user's sleep period based on sleep information.
도50 비수치적 수면 평가(한줄평)Figure 50 Non-numerical sleep evaluation (one-line review)
도 50a 내지 도50c는 본 발명의 일 실시예에 따른 사용자의 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.50A to 50C are diagrams for explaining one or more graphical user interfaces representing non-numerical evaluations of a user's sleep according to an embodiment of the present invention.
도 50a는 사용자의 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다. 도 50a에서 도시된 본 발명의 일 실시예에서, 이 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스는 사용자의 수면에 관한 평가 중 주목성이 높은 텍스트인 제1 수면 문구(50400), 사용자의 수면에 관한 평가를 구성하는 텍스트인 제2 수면 문구(50420) 및 사용자의 수면에 대해 나타내는 꿈에 관련된 이미지를 포함할 수 있다.FIG. 50A is a diagram illustrating one or more graphical user interfaces representing a non-numerical evaluation of a user's sleep. In one embodiment of the present invention shown in FIG. 50A, one or more graphical user interfaces representing a numerical evaluation of the user's sleep include a first sleep phrase 50400, which is text of high interest in the user's evaluation of the user's sleep. , It may include a second sleep phrase 50420, which is text constituting an evaluation of the user's sleep, and an image related to a dream indicating the user's sleep.
본 발명의 일 실시예에 따르면, 예를 들어, 제1 수면 문구(50400)는 사용자의 수면에 관하여 사용자의 수면이 부족하다는 평가를 내려야 하는 경우 “더 잤으면 좋을 잠”, “감질 나는 잠” 등 주목성이 높은 텍스트 일 수 있다. 제1 수면 문구(50400)는 도 53에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제1 수면 문구(50400)는 도 54에 개시된 대규모 언어 모델을 통해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the first sleep phrase 50400 may be used to describe the user's sleep, such as “sleep that would be nice to sleep more”, “tantalizing sleep”, when evaluating that the user's sleep is insufficient. It may be a text with high attention, etc. The first sleep phrase 50400 may be text generated by the lookup table shown in FIG. 53, but is not limited thereto. The first sleep phrase 50400 may be text generated through the large-scale language model disclosed in FIG. 54, but is not limited thereto.
본 발명의 일 실시예에 따르면, 예를 들어, 제2 수면 문구(50420)는 사용자의 수면에 관하여 사용자의 수면이 부족한 경우 “요즘 많이 바쁘신가봐요. 오늘 밤에는 잠을 보충하면 어떨까요?”, “수면이 부족해요. 오늘은 휴식하며 잠을 보충하면 어떨까요?” 등 사용자의 수면에 대한 평가를 구성하는 텍스트 일 수 있다. 제2 수면 문구(50420)은 도 53에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제2 수면 문구(50420)는 도54에 개시된 대규모 언어 모델을 통해서 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the second sleep phrase 50420 may say, “You must be very busy these days.” When the user lacks sleep, the second sleep phrase 50420 may say, “You must be very busy these days.” “How about catching up on sleep tonight?”, “I’m not getting enough sleep. “How about resting today and catching up on sleep?” This may be text that constitutes an evaluation of the user's sleep. The second sleep phrase 50420 may be text generated by the lookup table shown in FIG. 53, but is not limited thereto. The second sleep phrase 50420 may be text generated through the large-scale language model disclosed in Figure 54, but is not limited thereto.
도 50b는 사용자의 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다. 도 50b에서 도시된 본 발명의 일 실시예에서, 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스는 사용자의 수면에 관한 평가 중 주목성이 높은 텍스트인 제1 수면 문구(50402) 및 사용자의 수면에 관한 평가를 구성하는 텍스트인 제2 수면 문구(50422)를 포함할 수 있다.FIG. 50B is a diagram illustrating one or more graphical user interfaces representing a non-numerical evaluation of a user's sleep. In one embodiment of the present invention shown in FIG. 50B, one or more graphical user interfaces representing a numerical evaluation of the user's sleep include a first sleep phrase 50402, which is text of high interest in the evaluation of the user's sleep, and It may include a second sleep phrase 50422, which is text that constitutes an evaluation of the user's sleep.
본 발명의 일 실시예에 따르면, 예를 들어, 제1 수면 문구(50402)는 사용자의 수면에 관하여 사용자의 수면이 좋다는 평가를 내려야 하는 경우 “스트레스 해소의 잠”, “꿀맛 나는 잠” 등 주목성이 높은 텍스트 일 수 있다. 제1 수면 문구(50402)는 도 53에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제1 수면 문구(50402)는 도 54에 개시된 대규모 언어 모델을 통해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the first sleep phrase 50402 pays attention to “stress-relieving sleep,” “sweet sleep,” etc. when the user needs to evaluate that the user's sleep is good. It may be a text with a high level of prominence. The first sleep phrase 50402 may be text generated by the lookup table shown in FIG. 53, but is not limited thereto. The first sleep phrase 50402 may be text generated through the large-scale language model disclosed in FIG. 54, but is not limited thereto.
본 발명의 일 실시예에 따르면, 예를 들어, 제2 수면 문구(50422)는 사용자의 수면에 관하여 사용자의 렘수면 비율이 좋아, 수면이 좋다는 평가를 내려야하는 경우 “렘수면 비율이 높았어요! 스트레스 해소는 물론 창의력을 발휘하도록 돕는 잠이랍니다.”, “렘수면 비율이 높았어요! 좋은 잠은 하루를 즐겁게 해줘요.” 등 사용자의 수면에 대한 평가를 구성하는 텍스트 일 수 있다. 제2 수면 문구(50422)는 도 53에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제2 수면 문구(50422)는 도 54에 개시된 대규모 언어 모델을 통해서 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the second sleep phrase 50422 may say, “The REM sleep ratio was high! “It is sleep that not only relieves stress but also helps you demonstrate creativity.”, “The REM sleep rate was high! “A good sleep makes your day enjoyable.” This may be text that constitutes an evaluation of the user's sleep. The second sleep phrase 50422 may be text generated by the lookup table shown in FIG. 53, but is not limited thereto. The second sleep phrase 50422 may be text generated through the large-scale language model disclosed in FIG. 54, but is not limited thereto.
도 50c는 사용자의 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다. 도 50c에서 도시된 본 발명의 일 실시예에서, 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스는 사용자의 수면에 관한 평가에 기초한 조언 텍스트인 제3 수면 문구(50440)와 사용자의 수면 정보에 기초하여 사용자의 수면 기간 내 수면 단계에 대한 그래프인 사용자 수면 그래프(50460)을 포함할 수 있다.FIG. 50C is a diagram illustrating one or more graphical user interfaces representing a non-numerical evaluation of a user's sleep. In one embodiment of the invention, shown in FIG. 50C, one or more graphical user interfaces representing a numerical assessment of the user's sleep include a third sleep phrase 50440, which is advisory text based on the user's assessment of the user's sleep, and a third sleep phrase 50440 of the user's sleep. Based on the sleep information, a user sleep graph 50460, which is a graph of the sleep stage within the user's sleep period, may be included.
본 발명의 일 실시예에 따르면, 예를 들어, 제3 수면 문구(50440)는 사용자의 수면에 관하여 렘 수면의 비율에 관한 조언을 하기 위해서 “창의력을 키우려면 REM 수면을 활용하라는 말이 있어요.” 등 수면과 관련된 조언 텍스트 일 수 있다. 제3 수면 문구(50440)는 도 53에 개시된 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. According to one embodiment of the present invention, for example, the third sleep phrase 50440 may be used to provide advice regarding the proportion of REM sleep in relation to the user's sleep: “There is a saying that you should use REM sleep to increase creativity.” It may be an advice text related to sleep, etc. The third sleep phrase 50440 may be text generated by the lookup table shown in FIG. 53, but is not limited thereto.
본 발명의 일 실시예에 따르면, 예를 들어, 사용자 수면 그래프(50460)는 사용자의 수면 정보에 기초하여 사용자의 수면 동안의 수면 단계를 나타내는 힙노그램(hypnogram)의 형식일 수 있다. 도 55에 개시된 바와 같이, 수면 단계는 렘수면, 깸, 일반잠, 깊은잠 4단계일 수 있다.According to one embodiment of the present invention, for example, the user sleep graph 50460 may be in the form of a hypnogram indicating the sleep stage during the user's sleep based on the user's sleep information. As shown in Figure 55, the sleep stages may be four stages: REM sleep, waking, normal sleep, and deep sleep.
도51 수치적 수면 평가Figure 51 Numerical sleep evaluation
도 51a 및 도 51b는 본 발명의 일 실시예에 따른, 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.FIGS. 51A and 51B are diagrams for explaining one or more graphical user interfaces representing numerical evaluations of a user's sleep, according to an embodiment of the present invention.
도 51c는 본 발명의 일 실시예에 따른, 사용자의 수면에 관한 수치적인 평가 계산 식 생성을 위해 조사한 정신과 전문의 36명을 대상으로 한, 수면의 질에 영향을 주는 요소를 설명하기 위한 도면이다.Figure 51c is a diagram for explaining factors affecting sleep quality among 36 psychiatrists surveyed to generate a numerical evaluation calculation formula for the user's sleep according to an embodiment of the present invention. .
도 51d는 본 발명의 일 실시예에 따른, 사용자의 수면에 관한 수치적인 평가를 계산하기 위한 수면 키워드와 수면 리커트 척도(Likert Scale)를 설명하기 위한 도면이다.FIG. 51D is a diagram illustrating sleep keywords and a sleep Likert scale for calculating a numerical evaluation of a user's sleep, according to an embodiment of the present invention.
수면 스코어sleep score
도 51c는 본 발명의 일 실시예에 따른, 사용자의 수면에 관한 수치적인 평가 계산 식 생성을 위해 조사한 정신과 전문의 36명을 대상으로 한, 수면의 질에 영향을 주는 요소를 설명하기 위한 도면이다.Figure 51c is a diagram for explaining factors affecting sleep quality among 36 psychiatrists surveyed to generate a numerical evaluation calculation formula for the user's sleep according to an embodiment of the present invention. .
도 51c는 본 발명의 실시예에 따른 사용자의 수면에 관한 수치적인 평가 계산 식 생성을 위해 조사한 정신과 전문의를 대상으로 한 수면의 질에 영향을 주는 요소들 간에 순위를 나타내고 있다. 수면의 질에 영향을 주는 요소는, 수면 효율, 잠드는데 걸린시간(입면시간), 수면 중 기상, 렘 수면 비율, 깊은 잠 비율, 추천 수면 시간 충족도, 수면 사이클 반복 횟수, 실제 수면 시간, 평균 수면 타이밍에서 이탈한 정도, 코골이 또는 이갈이, 주관적 만족감을 포함할 수 있으나, 이에 한정되지 않는다.Figure 51c shows the ranking of factors affecting the quality of sleep among psychiatrists surveyed to generate a numerical evaluation equation for the user's sleep according to an embodiment of the present invention. Factors that affect sleep quality include sleep efficiency, time taken to fall asleep (falling asleep time), waking up during sleep, REM sleep rate, deep sleep rate, satisfaction with recommended sleep time, number of sleep cycle repetitions, actual sleep time, and average. This may include, but is not limited to, deviation from sleep timing, snoring or bruxism, and subjective satisfaction.
도 51c에 개시된 바와 같이, 정신과 전문의들은 수면에 영향을 주는 요소 중 1순위를 수면 효율과 주관적 만족감으로 꼽았으며, 2순위로 잠 드는 데 걸린 시간, 3순위로 수면 중 기상 여부, 4순위로 렘 수면의 비율과 깊은 잠의 비율, 5순위로 실제 수면 시간, 6순위로 추천 수면 시간 충족도, 7순위로 수면 사이클의 반복 횟수, 8순위로는 평균 수면 타이밍에서 이탈한 정도 및 코골이 또는 이갈이 여부가 수면에 영향을 미치는 요소의 순위로 선정하였다.As shown in Figure 51c, psychiatrists ranked sleep efficiency and subjective satisfaction as the first priority among the factors affecting sleep, the time taken to fall asleep as the second priority, whether or not one wakes up during sleep as the third priority, and the REM as the fourth priority. Ratio of sleep and deep sleep, actual sleep time as 5th, satisfaction with recommended sleep time as 6th, number of repetitions of sleep cycle as 7th, degree of deviation from average sleep timing and snoring or bruxism as 8th. It was selected based on the ranking of factors that affect sleep.
도 51d는 본 발명의 일 실시예에 따른, 사용자의 수면에 관한 수치적인 평가를 계산하기 위한 수면 키워드와 수면 리커트 척도(Likert Scale)를 설명하기 위한 도면이다.FIG. 51D is a diagram illustrating sleep keywords and a sleep Likert scale for calculating a numerical evaluation of a user's sleep, according to an embodiment of the present invention.
본 발명의 일 실시예에 따르면, 사용자의 수면에 관한 수치적인 평가를 나타내는 방법은 주관적 객관적 수면 점수(Objective Sleep Score)와 주관적 수면 점수(Subjective Sleep Score)의 계산 통해서 구해질 수 있다.According to one embodiment of the present invention, a method of expressing a numerical evaluation of a user's sleep can be obtained through calculation of a subjective and objective sleep score and a subjective sleep score.
본 발명의 일 실시예에 따르면, 사용자의 수면에 관한 수치적인 평가를 나타내는 방법은 사용자의 수면에 영향을 미치는 요소 별 가중치를 고려하여 객관적 수면 점수(Objective Sleep Score)와 주관적 수면 점수(Subjective Sleep Score)수식으로 계산되어 점수로 표현 될 수 있다. 예를 들어, 사용자의 수면에 관한 수치적인 평가를 나타내는 점수는 객관적 수면 점수(Objective Sleep Score)와 주관적 수면 점수(Subjective Sleep Score)가 수면에 영향을 미치는 비율이 같다고 평가되는 경우 객관적 수면 점수와 주관적 수면 점수의 평균으로 계산될 수 있다. 예를 들어, 사용자의 수면에 관한 수치적인 평가를 나타내는 점수는 객관적 수면 점수(Objective Sleep Score)와 주관적 수면 점수(Subjective Sleep Score)가 수면에 영향을 미치는 비율이 다르다고 평가되는 경우 객관적 수면 점수와 주관적 수면 점수의 평균으로 계산될 수 있다. 구체적으로, 주관적 수면 점수의 중요도가 70%이고, 객관적 수면 점수의 중요도가 30%라고 판단되는 경우 주관적 수면 점수에 0.7을 곱한 값과 객관적 수면 점수의 중요도가 0.3을 곱한 값을 더함으로써, 수면에 관한 수치적인 평가를 구할 수 있다.According to one embodiment of the present invention, a method of expressing a numerical evaluation of a user's sleep is based on an Objective Sleep Score and a Subjective Sleep Score by considering the weight of each factor affecting the user's sleep. ) can be calculated using a formula and expressed as a score. For example, the score representing the numerical evaluation of the user's sleep is calculated as the objective sleep score and the subjective sleep score if the objective sleep score and the subjective sleep score are evaluated to have the same influence on sleep. It can be calculated as the average of sleep scores. For example, a score representing a numerical evaluation of the user's sleep may be used if the Objective Sleep Score and the Subjective Sleep Score are assessed to have different rates of influence on sleep. It can be calculated as the average of sleep scores. Specifically, if it is determined that the importance of the subjective sleep score is 70% and the importance of the objective sleep score is 30%, the subjective sleep score multiplied by 0.7 and the importance of the objective sleep score multiplied by 0.3 are added to sleep. A numerical evaluation can be obtained.
본 발명의 일 실시예에 따른 객관적 수면 점수는 100점을 최고점으로 하는 수식으로 계산될 수 있다. 수식에는 수면 효율점수, 전체 수면 시간 점수 및 잠이 들기 위해 걸린 시간(입면시간) 점수 및 깸 단계 탐지 횟수 점수가 포함될 수 있다.The objective sleep score according to an embodiment of the present invention can be calculated using a formula with 100 as the highest score. The formula may include a sleep efficiency score, a total sleep time score, a time taken to fall asleep (fall asleep time) score, and a wake stage detection count score.
본 발명의 일 실시예에 따른 객관적 수면 점수는 100점을 최고점으로하는 수면 효율점수가 포함될 수 있다. 수면 효율 점수 e 는 다음 수식과 같이 표현될 수 있다.The objective sleep score according to an embodiment of the present invention may include a sleep efficiency score with a maximum score of 100. The sleep efficiency score e can be expressed as the following formula.
Figure PCTKR2023016512-appb-img-000001
.
Figure PCTKR2023016512-appb-img-000001
.
전체 수면 시간(TOTAL SLEEP TIME)은 어플리케이션이 구동 혹은 수면 측정을 시작하는 시점부터 수면 측정을 종료한 시점까지의 시간이다. 수면 측정을 시작하기 위한 방법은 어플리케이션이 사용자의 수면을 탐지하여 측정하는 방법, 사용자가 직접 수면 측정 어플을 구동하는 방법을 포함할 수 있으나, 이에 한정되지 않는다. 수면 측정을 종료 하기 위한 방법은, 어플리케이션이 사용자의 수면 종료를 탐지하여 종료하는 방법, 사용자가 직접 수면 종료 후 측정을 종료하는 방법을 포함할 수 있으나, 이에 한정되지 않는다.TOTAL SLEEP TIME is the time from when the application starts running or measuring sleep to when sleep measurement ends. Methods for starting sleep measurement may include, but are not limited to, a method in which an application detects and measures the user's sleep, and a method in which the user directly runs the sleep measurement application. Methods for ending sleep measurement may include, but are not limited to, a method in which the application detects and terminates the end of the user's sleep, and a method in which the user directly terminates the measurement after the end of sleep.
본 발명의 일 실시예에 따른 객관적 수면 점수는 100점을 최고점으로하는 전체 수면 시간 점수(TOTAL SLEEP TIME, TOT)가 포함될 수 있다. 전체 수면 시간 점수(TOT)는 사용자의 전체 수면 시간이 420분 이상 540분 이상인 경우, 100점을 부여하고, 사용자의 전체 수면시간이 420분 미만인 경우
Figure PCTKR2023016512-appb-img-000002
의 식에 전체 수면시간 t를 대입한 값을 점수로 부여하고, 사용자의 전체 수면 시간이 540분 초과인 경우
Figure PCTKR2023016512-appb-img-000003
값에 100을 곱한 값을 점수로 부여하고, 만약 전체 수면 시간이 540분 초과이고 위의 식의 값이 0 이하인 경우에는 0점을 부여한다.
The objective sleep score according to an embodiment of the present invention may include a TOTAL SLEEP TIME (TOT) score with a maximum score of 100. The total sleep time score (TOT) is given 100 points if the user's total sleep time is between 420 and 540 minutes, and if the user's total sleep time is less than 420 minutes.
Figure PCTKR2023016512-appb-img-000002
The score is given by substituting the total sleep time t in the equation, and if the user's total sleep time exceeds 540 minutes,
Figure PCTKR2023016512-appb-img-000003
The score is given by multiplying the value by 100, and if the total sleep time exceeds 540 minutes and the value in the above equation is less than 0, 0 points are given.
본 발명의 일 실시예에 따른 객관적 수면 점수는 100점을 최고점으로하는 잠이 들기 까지 걸린 시간(입면시간) 점수(SLEEP ONSET LATENCY, SOL)가 포함될 수 있다. 잠이 들기 위해 걸린시간(입면시간) 점수는 입면시간이 15분 미만인 경우 100점을 부여하고, 입면시간이 15분 초과 60분 미만이면 60분에서 입면시간을 뺀 값을 45분으로 나눈 값에 100을 곱한 값을 점수로 부여하고, 입면시간이 60분을 초과하면 0점을 부여한다.The objective sleep score according to an embodiment of the present invention may include a score (SLEEP ONSET LATENCY, SOL) for the time it takes to fall asleep (sleep time) with a maximum score of 100. The score for the time taken to fall asleep (falling asleep time) is given as 100 points if the falling asleep time is less than 15 minutes, and if the falling asleep time is more than 15 minutes but less than 60 minutes, the score is calculated by subtracting the falling asleep time from 60 minutes and dividing it by 45 minutes. The score is given as the value multiplied by 100, and if the elevation time exceeds 60 minutes, 0 points are given.
본 발명의 일 실시예에 따른 객관적 수면 점수는 깸 단계 탐지 횟수에 따라서 감점을 진행하기 위한 깸 단계 횟수 점수(AWAKE)가 포함될 수 있다. 수면에 관한 수치적인 평가 점수는 깸 단계가 1번 이하로 탐지되면 0점을 감점하고, 깸 단계가 2번 이상 3번 이하로 탐지되면 5점을 감점하고, 깸 단계가 4번 이상 탐지되면 탐지된 깸 단계의 횟수에 6을 더한 값을 감점한다.The objective sleep score according to an embodiment of the present invention may include an awakening stage count score (AWAKE) for deducting points according to the number of waking stage detections. For the numerical evaluation score regarding sleep, 0 points are deducted if the waking stage is detected less than 1 time, 5 points are deducted if the waking stage is detected more than 2 times but 3 times less, and if the waking stage is detected more than 4 times, 5 points are deducted. Points are deducted by adding 6 to the number of broken steps.
본 발명의 일 실시예에 따른 객관적 수면 점수는 100점을 최고점으로 하는 수식으로 계산될 수 있다. 예를 들어, 최고점이 100점인 수면 효율 점수, 최고점이 100점인 전체 수면 시간 점수 및 최고점이 100점인 잠이 들기 위해 걸린 시간(입면시간) 점수의 각각의 총합의 평균을 최고점이 100점인 수면에 관한 수치적인 평가로 나타낼 수 있고, 수면에 관한 수치적인 평가 점수는 깸 단계 탐지 횟수에 따라 감점 될 수 있고 이는 수식으로
Figure PCTKR2023016512-appb-img-000004
로 표현될 수 있다. 구체적으로, 수면 효율 점수는
Figure PCTKR2023016512-appb-img-000005
로 계산될 수 있다. 구체적으로, 전체 수면 시간 점수(TOT)는 사용자의 전체 수면 시간이 420분 이상 540분 이상인 경우, 100점을 부여하고, 사용자의 전체 수면시간이 420분 미만인 경우
Figure PCTKR2023016512-appb-img-000006
의 식에 전체 수면시간 t를 대입한 값을 점수로 부여하고, 사용자의 전체 수면 시간이 540분 초과인 경우
Figure PCTKR2023016512-appb-img-000007
값에 100을 곱한 값을 점수로 부여하고, 만약 전체 수면 시간이 540분 초과이고 위의 식의 값이 0 이하인 경우에는 0점을 부여한다. 구체적으로, 잠이 들기 위해 걸린시간(입면시간) 점수는 입면시간이 15분 미만인 경우 100점을 부여하고, 입면시간이 15분 초과 60분 미만이면 60분에서 입면시간을 뺀 값을 45분으로 나눈 값에 100을 곱한 값을 점수로 부여하고, 입면시간이 60분을 초과하면 0점을 부여한다. 구체적으로, 수면에 관한 수치적인 평가 점수는 깸 단계가 1번 이하로 탐지되면 0점을 감점하고, 깸 단계가 2번 이상 3번 이하로 탐지되면 5점을 감점하고, 깸 단계가 4번 이상 탐지되면 탐지된 깸 단계의 횟수에 6을 더한 값을 감점한다.
The objective sleep score according to an embodiment of the present invention can be calculated using a formula with 100 as the highest score. For example, the average of the sum of the sleep efficiency score with the highest score of 100, the total sleep time score with the highest score of 100, and the time taken to fall asleep (sleep time) score with the highest score of 100 is the sleep score with the highest score of 100. It can be expressed as a numerical evaluation, and the numerical evaluation score for sleep can be deducted according to the number of wake-up stage detections, which can be expressed as a formula:
Figure PCTKR2023016512-appb-img-000004
It can be expressed as Specifically, the sleep efficiency score is
Figure PCTKR2023016512-appb-img-000005
It can be calculated as Specifically, the total sleep time score (TOT) is given 100 points if the user's total sleep time is 420 minutes or more and 540 minutes or more, and if the user's total sleep time is less than 420 minutes.
Figure PCTKR2023016512-appb-img-000006
The score is given by substituting the total sleep time t in the equation, and if the user's total sleep time exceeds 540 minutes,
Figure PCTKR2023016512-appb-img-000007
The score is given by multiplying the value by 100, and if the total sleep time exceeds 540 minutes and the value in the above equation is less than 0, 0 points are given. Specifically, the score for the time taken to fall asleep (falling asleep time) is given as 100 points if the falling asleep time is less than 15 minutes, and if the falling asleep time is more than 15 minutes but less than 60 minutes, 60 minutes minus the falling asleep time is given as 45 minutes. The divided value is multiplied by 100 to give a score, and if the elevation time exceeds 60 minutes, 0 points are given. Specifically, the numerical evaluation score for sleep is deducted 0 points if the waking stage is detected less than 1 time, 5 points are deducted if the waking stage is detected more than 2 times but less than 3 times, and 5 points are deducted if the waking stage is detected more than 4 times. When detected, a score is deducted by adding 6 to the number of wake steps detected.
본 발명의 일실시예에 따른 수면에 관한 주관적 수면 점수는 사용자의 주관적인 수면에 대한 평가를 기초로 하여 계산 될 수 있다. 예를 들어, 100점을 최고점으로 하는 수면에 관한 수식을 통해 계산될 수 있다. 예를 들어, 사용자가 주관적으로 수면에 대한 키워드 또는 평가를 선택하고, 선택에 따른 점수를 부여하여 계산될 수 있다. 예를 들어, 사용자의 수면에 대한 주관적 평가가 작성되면 이를 자연어처리기반의 딥러닝을 통해서 점수를 계산할 수 있다. 예를 들어, 사용자의 수면에 대한 주관적 평가를 룩업테이블에서 제공하고, 사용자가 주관적 평가를 선택하는 경우 룩업테이블에 기초하여 점수를 계산할 수 있다. 상술한 사용자의 수면에 관한 주관적 수면 점수는 사용자가 주관적으로 수면에 대한 어떤 평가를 내리는지를 설명하기 위한 예시일 뿐, 이에 한정되지 않는다.The subjective sleep score related to sleep according to an embodiment of the present invention may be calculated based on the user's subjective evaluation of sleep. For example, it can be calculated using a formula for sleep with a maximum score of 100. For example, it may be calculated by the user subjectively selecting a keyword or evaluation about sleep and giving a score according to the selection. For example, when a subjective evaluation of a user's sleep is written, the score can be calculated through deep learning based on natural language processing. For example, a subjective evaluation of the user's sleep may be provided in a lookup table, and if the user selects the subjective evaluation, a score may be calculated based on the lookup table. The subjective sleep score regarding the user's sleep described above is only an example to explain how the user subjectively evaluates sleep, and is not limited thereto.
도 51d에 도시된 바와 같이, 수면에 관한 키워드는 정신적 상태, 신체적 상태 및 감정적 상태에 대한 좋은 키워드와 나쁜 키워드 일 수 있다. 수면에 관한 리커트 척도는 5단계 리커트 척도로, GREAT, GOOD, SO-SO, BAD, AWFUL일 수 있다. As shown in Figure 51D, keywords related to sleep may be good and bad keywords for mental state, physical state, and emotional state. The Likert scale for sleep is a five-level Likert scale that can be GREAT, GOOD, SO-SO, BAD, and AWFUL.
본 발명의 일 실시예에 따른 주관적 수면 점수는 85점을 최고점으로 하고 15점을 최저점으로 하는 수면에 관한 리커트 척도(Likert Scale) 점수와 15점을 최고점으로 하고, 최저점은 -15점으로하는 키워드 점수의 합을 통해 100점을 최고점으로 하는 수식으로 계산될 수 있다. 예를 들어, 리커트 척도 점수는 유저가 리커트 척도에 GREAT로 응답하는 경우 85점을 부여하고, GOOD으로 응답하는 경우 67.5점을 부여하고, SO-SO로 응답하는 경우 50점을 부여하고, BAD로 응답하는 경우 32.5점을 부여하며, AWFUL로 응답하는 경우 15점을 부여한다. 예를 들어, 키워드 점수는 유저가 수면에 관한 키워드를 선택하지 않는 경우에 0점을 부여한다. 예를 들어, 키워드 점수는 정신적 상태의 좋은 키워드(Alert)를 선택하는 경우에 5점을 부여하고, 나쁜 키워드(DROWSY)를 선택하는 경우에 -5점을 부여한다. 예를 들어, 키워드 점수는 신체적 상태의 좋은 키워드(REFRESHED)를 선택하는 경우에 5점을 부여하고, 나쁜 키워드(EXHAUSTED)를 선택하는 경우에 -5점을 부여한다. 예를 들어, 키워드 점수는 감정적 상태의 좋은 키워드(PLEASANT)를 선택하는 경우에 5점을 부여하고, 나쁜 키워드(UNPLEASANT)를 선택하는 경우에 -5점을 부여한다.The subjective sleep score according to an embodiment of the present invention is a Likert scale score for sleep with 85 as the highest score and 15 as the lowest score, 15 as the highest score, and -15 as the lowest score. It can be calculated using a formula where 100 points is the highest score through the sum of keyword scores. For example, the Likert scale score is 85 points if the user responds to the Likert scale with GREAT, 67.5 points if the user responds with GOOD, and 50 points if the user responds with SO-SO. If you respond with BAD, 32.5 points are given, and if you respond with AWFUL, 15 points are given. For example, the keyword score is given a score of 0 if the user does not select a keyword related to sleep. For example, the keyword score is given 5 points when a good keyword for mental state (Alert) is selected, and -5 points is given when a bad keyword (DROWSY) is selected. For example, the keyword score is given 5 points when a keyword with good physical condition (REFRESHED) is selected, and -5 points is given when a bad keyword (EXHAUSTED) is selected. For example, the keyword score is given 5 points when a keyword with a good emotional state (PLEASANT) is selected, and -5 points is given when a bad keyword (UNPLEASANT) is selected.
도 51a 및 도 51b 에 개시된 바와 같이, 수치적인 수면 평가를 제공하는 그래픽 사용자 인터페이스(51500,51502)는 수면을 점수화 한 수면 스코어(51520,51522)를 통해서 수치적인 수면 평가를 제공할 수 있다.As shown in FIGS. 51A and 51B, graphical user interfaces 51500 and 51502 that provide numerical sleep evaluation can provide numerical sleep evaluation through sleep scores 51520 and 51522 that score sleep.
본 발명의 일 실시예에 따른 도 51a 및 도 51b에 따르면, 수면 스코어(51520,51522)는 100점을 최고점으로 하는 수면의 종합 점수로서 수면에 대한 수치적인 평가를 제공할 수 있다. 수면 스코어는 기 설정된 수면 스코어 산정 공식에 의해 평가될 수 있다. 예를 들어, 수면 단계(예컨대, 렘수면, 깊은잠, 얕은잠, 깸 등)마다 대응되는 점수를 부여하고, 기 설정된 수면 스코어 산정 공식에 대입하여 최종 점수를 얻을 수 있고, 최종 점수를 득점 가능한 최고점수로 나누어 100을 곱한 값이 수면 종합 점수가 될 수 있다. 수면 스코어를 점수로서 평가를 제공함으로써, 수면에 대하여 직관적인 평가를 제공할 수 있다.According to FIGS. 51A and 51B according to an embodiment of the present invention, sleep scores 51520 and 51522 are comprehensive sleep scores with 100 being the highest point, and can provide a numerical evaluation of sleep. The sleep score can be evaluated using a preset sleep score calculation formula. For example, a corresponding score can be assigned to each sleep stage (e.g., REM sleep, deep sleep, light sleep, awakening, etc.), and the final score can be obtained by substituting it into a preset sleep score calculation formula, and the final score is the highest score possible. The value divided by the score and multiplied by 100 can be the overall sleep score. By providing an evaluation with a sleep score as a score, an intuitive evaluation of sleep can be provided.
수면 시각(취침/기상 시각)Sleep time (sleep/wake up time)
본 발명의 일 실시예에 따른 도 51a 및 도 51b에 따르면, 수면 시각(51540,51542)은 수면이 시작된 취침시각과 수면이 종료된 기상 시각을 포함할 수 있다.According to FIGS. 51A and 51B according to an embodiment of the present invention, sleep times 51540 and 51542 may include a bedtime when sleep begins and a wake-up time when sleep ends.
수면 시간sleep time
본 발명의 일 실시예에 따른 도 51a 및 도 51b에 따르면, 수면 시간(51560, 51562)는 사용자의 총 수면시간, 사용자의 수면 단계 별 수면시간을 포함할 수 있다. 사용자의 총 수면시간은 취침 시각과 기상 기각의 시간의 차의 절대값이 일수 있다. 사용자의 수면 단계 별 수면시간은 측정된 사용자의 수면단계(예컨대, 깸, 깊은잠, 얕은잠, 렘수면 등)의 비율 또는 시간으로 나타날 수 있다.According to FIGS. 51A and 51B according to an embodiment of the present invention, sleep time 51560 and 51562 may include the user's total sleep time and sleep time for each sleep stage of the user. The user's total sleep time may be the absolute value of the difference between bedtime and wake-up time. The sleep time for each user's sleep stage may be expressed as a ratio or time of the user's measured sleep stage (e.g., waking, deep sleep, light sleep, REM sleep, etc.).
도 51a는 사용자의 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.FIG. 51A is a diagram illustrating one or more graphical user interfaces representing a non-numerical evaluation of a user's sleep.
도 51a에서 도시된 본 발명의 일 실시예에서, 이 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스(51500)는 사용자의 수면에 관한 평가인 수면 스코어(51520), 사용자의 수면 시각(51540) 및 사용자의 수면 시간(51560)을 포함할 수 있다.In one embodiment of the present invention shown in FIG. 51A, one or more graphical user interfaces 51500 representing a numerical evaluation of the user's sleep include a sleep score 51520, which is an evaluation of the user's sleep, and the user's sleep time. (51540) and the user's sleep time (51560).
도 51b는 사용자의 수면에 관한 비수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.FIG. 51B is a diagram illustrating one or more graphical user interfaces representing non-numerical evaluations of a user's sleep.
도 51b에서 도시된 본 발명의 일 실시예에서, 이 사용자의 수면에 관한 수치적인 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스(51502)는 사용자의 수면에 관한 평가인 수면 스코어(51522), 사용자의 수면 시각(51542) 및 사용자의 수면 시간(51562)을 포함할 수 있다.In one embodiment of the present invention shown in FIG. 51B, one or more graphical user interfaces 51502 representing a numerical evaluation of the user's sleep include a sleep score 51522, which is an evaluation of the user's sleep, and the user's sleep time. (51542) and the user's sleep time (51562).
도52 딥러닝 모델Figure 52 Deep learning model
도 52는 본 발명의 일 실시예에 따라서, 사용자의 수면을 분석하기 위해서 딥러닝을 활용한 수면 분석 모델의 구조를 설명하기 위한 도면이다.Figure 52 is a diagram illustrating the structure of a sleep analysis model using deep learning to analyze a user's sleep, according to an embodiment of the present invention.
본 발명의 일 실시예에 따라서, 도 52에 개시된 사용자의 수면을 분석하기 위한 딥러닝을 활용한 수면 분석 모델(52700)은 피처 추출 모델(52720), 중간층(52740) 및 피처 분류 모델(52760)을 통해서 수면정보추론(52780)을 진행할 수 있다. 피처 추출 모델(52720), 중간층(52740) 및 피처 분류 모델(52760)을 통해서 구성된 딥러닝을 활용한 수면 분석 모델(52700)은 시계열적인 피처와 복수의 이미지에 대한 피처의 학습이 모두 진행되고, 이를 통해서 학습된 딥러닝을 활용한 수면 분석 모델(52700)은 전체 수면 시간에 있어서의 수면 단계를 추론할 수 있고, 실시간으로 발생하는 수면의 이벤트를 추론할 수 있다.According to an embodiment of the present invention, the sleep analysis model 52700 using deep learning for analyzing the user's sleep disclosed in Figure 52 includes a feature extraction model 52720, an intermediate layer 52740, and a feature classification model 52760. You can proceed with sleep information inference (52780). The sleep analysis model (52700) using deep learning, constructed through the feature extraction model (52720), the middle layer (52740), and the feature classification model (52760), learns both time-series features and features from multiple images, The sleep analysis model (52700) using deep learning learned through this can infer the sleep stage in the entire sleep time and can infer sleep events that occur in real time.
피처 추출모델Feature extraction model
본 발명의 일 실시예에 따라서, 피처 추출 모델(52720)은 수면을 분석하기 위한 딥러닝을 활용한 수면 분석 모델(52700)에 입력된 수면 음향 정보(SS) 또는 변환된 주파수 도메인 상의 정보(SP)을 입력으로 하여 입력된 정보의 피처를 추출할 수 있다.According to an embodiment of the present invention, the feature extraction model (52720) uses sleep sound information (SS) or converted frequency domain information (SP) input to the sleep analysis model (52700) using deep learning to analyze sleep. ) as input, the features of the input information can be extracted.
피처 추출 모델(52720)은 학습 데이터 세트를 통해 학습된 독자적인 딥러닝 모델(바람직하게는, MobileVITV2, Transformer 등)을 통해 구성될 수 있다. 피처 추출 모델(52720)은 지도 학습 또는 비지도 학습 방식을 통해 학습될 수 있다. 피처 추출 모델은 학습 데이터 세트를 통해 입력 데이터와 유사한 출력 데이터를 출력하도록 학습될 수 있다.The feature extraction model 52720 can be constructed through an independent deep learning model (preferably MobileVITV2, Transformer, etc.) learned through a learning data set. The feature extraction model 52720 can be learned through supervised learning or unsupervised learning methods. A feature extraction model can be trained to output output data similar to input data through a training data set.
한편, 본 발명의 실시예에 따른, 피처 추출 모델(52720)은 One-to-one 프록시 태스크에 의해 학습을 수행할 수도 있다. 또한, 하나의 스펙트로그램에 대한 수면상태정보를 추출하도록 학습하는 과정에 있어서, 피처추출모델과 또 다른 NN(Neural Network)을 결합하여 피처를 추출하도록 학습될 수 있다.Meanwhile, according to an embodiment of the present invention, the feature extraction model 52720 may perform learning using a one-to-one proxy task. Additionally, in the process of learning to extract sleep state information for one spectrogram, it can be learned to extract features by combining a feature extraction model and another NN (Neural Network).
본 발명의 일 실시에에 따라서, 딥러닝을 활용한 수면 분석 모델(52700)에 입력되는 정보는 스펙트로그램 일 수 있다. According to one embodiment of the present invention, information input to the sleep analysis model 52700 using deep learning may be a spectrogram.
중간층middle layer
본 발명의 실시예에 따른 중간층(52740)은 피처 추출 모델(52720)에서 추출된 피처와 피처 분류 모델(52740)에서 요구하는 입력 값의 채널이 다른 경우, 피처 분류 모델에서의 입력 값을 맞추도록 구성될 수 있다.The middle layer 52740 according to an embodiment of the present invention is configured to match the input values in the feature classification model when the channels of the features extracted from the feature extraction model 52720 and the input values required by the feature classification model 52740 are different. It can be configured.
본 발명의 일 실시예에 따른 중간층(52720)은 추출된 피처들을 표준편차와 분산을 표준화 시키는 레이어놈(Layernorm)함수, 채널의 수를 선형화를 통해 변경시키는 선형화(Linearization)함수 및 과적합을 방지하기 위한 드롭아웃(Dropout)함수로 구성될 수 있다. The middle layer 52720 according to an embodiment of the present invention uses a layernorm function that standardizes the standard deviation and variance of the extracted features, a linearization function that changes the number of channels through linearization, and prevents overfitting. It can be composed of a dropout function to do this.
피처 분류 모델Feature classification model
피처 분류 모델(52760)은 피처추출 모델(720)과 중간층(740)을 통해서 얻은 복수의 피처를 피처 분류 모델(52760)의 입력으로 처리하여 수면 정보 추론(52780)을 진행할 수 있다.The feature classification model 52760 may process a plurality of features obtained through the feature extraction model 720 and the middle layer 740 as input to the feature classification model 52760 to proceed with sleep information inference 52780.
본 발명에 따른 일실시예에서, 피처 분류 모델(52760)은 피처에 대응하여 수면 정보를 추론하도록 모델링된 신경망 모델일 수 있다. 예컨대, 피처 분류 모델(52760)은 Fully connected layer를 포함하여 구성될 수 있고, 피처를 수면 정보들 중 적어도 하나로 분류하는 모델일 수 있다. 예를 들어, 피처 분류 모델(52760)은 스펙트로그램에 대응하는 피처를 입력으로 하는 경우, 해당 피처를 렘 수면으로 분류할 수 있다. 예를 들어, 피처 분류 모델(52760)은 스펙트로그램에 대응하는 피처를 입력으로 하는 경우, 해당 피처를 수면 중 무호흡으로 분류할 수 있다.In one embodiment according to the present invention, the feature classification model 52760 may be a neural network model modeled to infer sleep information in response to features. For example, the feature classification model 52760 may be configured to include a fully connected layer and may be a model that classifies a feature as at least one of sleep information. For example, when the feature classification model 52760 inputs a feature corresponding to a spectrogram, it can classify the feature as REM sleep. For example, when the feature classification model 52760 inputs a feature corresponding to a spectrogram, it can classify the feature as apnea during sleep.
도53 룩업테이블 개요도Figure 53 Lookup table outline diagram
도 53은 본 발명의 일 실시예에 따라서, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 방법에 있어서, 룩업테이블에 기초하여 수면 문구를 생성하는 방법을 설명하기 위한 도면이다.FIG. 53 is a diagram illustrating a method of generating a sleep phrase based on a lookup table in a method of providing one or more graphical user interfaces representing an evaluation of a user's sleep, according to an embodiment of the present invention.
본 발명의 일 실시예에 따르면, 도 53에 개시된 룩업테이블에 기초하여 수면 문구를 생성하는 룩업테이블 수면 문구 생성 단계는 사용자의 수면 특성(53800)을 분류하는 단계 및 사용자 수면 특성에 대응되는 룩업테이블에 기초한 수면 평가(53842, 53844, 53846, 53848)를 추출하는 단계를 포함한다.According to one embodiment of the present invention, the lookup table sleep phrase generating step of generating a sleep phrase based on the lookup table shown in FIG. 53 includes classifying the user's sleep characteristics (53800) and a lookup table corresponding to the user's sleep characteristics. It includes the step of extracting sleep evaluations (53842, 53844, 53846, 53848) based on .
예를 들어, 사용자의 수면 특성(53800)은 제1 수면 특성(53822)으로 분류될 수 있고, 제1 수면 특성(53822)는 제1 룩업테이블 내 수면평가(53842)에 대응된다. 이에 따라, 제1 룩업테이블 내 수면평가(53842)를 추출할 수 있다.For example, the user's sleep characteristic 53800 may be classified as a first sleep characteristic 53822, and the first sleep characteristic 53822 corresponds to the sleep evaluation 53842 in the first lookup table. Accordingly, the sleep evaluation (53842) in the first lookup table can be extracted.
도54 대규모 언어 모델 개요도Figure 54 Large-scale language model overview
도 54는 본 발명의 일 실시예에 따라서, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 방법에 있어서, 대규모 언어 모델에 기초하여 수면 문구를 생성하는 방법을 설명하기 위한 도면이다.FIG. 54 is a diagram illustrating a method of generating a sleep phrase based on a large-scale language model in a method of providing one or more graphical user interfaces representing an evaluation of a user's sleep, according to an embodiment of the present invention. .
본 발명의 일 실시예에 따르면, 도 54에 개시된 대규모 언어 모델에 기초하여 수면 문구를 생성하는 대규모 언어 모델 수면 문구 생성 단계는 사용자의 수면 특성(54900)을 분류하는 단계 및 분류된 사용자 수면 특성(54922, 54924, 54926, 54928)을 대규모 언어 모델(54930)의 입력으로 하여 대규모언어모델 수면 평가(54942, 54944, 54946, 54948)를 추출하는 단계를 포함한다.According to one embodiment of the present invention, the large-scale language model sleep phrase generating step of generating a sleep phrase based on the large-scale language model disclosed in Figure 54 includes the step of classifying the user's sleep characteristics (54900) and the classified user sleep characteristics ( It includes the step of extracting the large-scale language model sleep evaluation (54942, 54944, 54946, 54948) by using 54922, 54924, 54926, 54928) as input to the large-scale language model (54930).
예를 들어, 사용자의 수면 특성(54900)은 제1 수면 특성(54922)으로 분류될 수 있고, 제1 수면 특성(54922)는 대규모 언어 모델(54930)에 입력될 수 있다. 제1 대규모 언어 모델 수면평가(54942)는 대규모 언어 모델(54930)에서 출력된다. 이에 따라, 제1 대규모 언어 모델 수면평가(54942)를 추출할 수 있다.For example, the user's sleep characteristic 54900 may be classified into a first sleep characteristic 54922, and the first sleep characteristic 54922 may be input into the large-scale language model 54930. The first large-scale language model sleep evaluation (54942) is output from the large-scale language model (54930). Accordingly, the first large-scale language model sleep evaluation (54942) can be extracted.
도55 힙노그램Figure 55 Hypnogram
도 55는 본 발명의 일 실시예에 따라서, 사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 제공하는 방법에 있어서, 사용자의 수면 기간 내 수면 단게에 대한 그래프를 생성하는 사용자 수면 그래프를 설명하기 위한 도면이다.Figure 55 illustrates a user sleep graph that generates a graph of sleep stages within a user's sleep period in a method of providing one or more graphical user interfaces representing an evaluation of a user's sleep, according to an embodiment of the present invention. This is a drawing for this purpose.
본 발명의 일 실시예에 따라서, 도 55에 개시된 바와 같이 수면 단계에 대한 그래프는 힙노그램(hypnogram)(1000)일 수 있다. 힙노그램(551000)은 일반적으로 뇌파도(ElectroEnceephaloGram,EEGs), 전기안구검사(ElectroOculoGraphy,EOGs), 근전도검사(ElectroMyoGraphy), 수면다원검사(PSG,polysomnography)를 통해서 얻어질 수 있다.According to one embodiment of the present invention, as shown in FIG. 55, the graph for sleep stages may be a hypnogram (1000). Hypnograms (551000) can generally be obtained through electroencephalography (EEGs), electrooculography (EOGs), electromyography (ElectroMyoGraphy), and polysomnography (PSG).
도 55에 개시된 바와 같이 힙노그램(551000)은 수면 단계를 렘 수면과 논-렘(NON-REM)수면으로 구분하여 표현할 수 있다. 예를 들어, 렘 수면, 깊은 잠, 얕은 잠 및 깸 4단계로 표현할 수 있다.'As shown in FIG. 55, the hypnogram 551000 can express sleep stages by dividing them into REM sleep and non-REM sleep. For example, it can be expressed in four stages: REM sleep, deep sleep, light sleep and waking.'
도 56은 본 발명의 일 실시예에 따른 사용자의 수면 기간 내 수면 단계를 표시하는 힙노그램을 설명하기 위한 도면이다.Figure 56 is a diagram for explaining a hypnogram displaying a sleep stage within a user's sleep period according to an embodiment of the present invention.
본 발명의 일 실시예에 따라서, 힙노그램은 사람의 수면 단계를 그래프로서 표현할 수 있다.According to an embodiment of the present invention, a hypnogram can represent a person's sleep stages as a graph.
본 발명의 일 실시예에 따라서, 힙노그램은 일반적으로 뇌파도(ElectroEnceephaloGram,EEGs), 전기안구검사(ElectroOculoGraphy,EOGs), 근전도검사(ElectroMyoGraphy), 수면다원검사(PSG,polysomnography)를 통해서 얻어질 수 있다.According to one embodiment of the present invention, the hypnogram can generally be obtained through electroencephalogram (EEGs), electrooculography (EOGs), electromyography (ElectroMyoGraphy), and polysomnography (PSG). there is.
도 56에 개시된 바와 같이 힙노그램은 수면 단계를 렘 수면과 논-렘(NON-REM)수면으로 구분하여 표현할 수 있다. 예를 들어, 렘 수면, 깊은 잠, 얕은 잠 및 깸 4단계로 표현할 수 있다.As shown in Figure 56, the hypnogram can express sleep stages by dividing them into REM sleep and non-REM sleep. For example, it can be expressed in four stages: REM sleep, deep sleep, light sleep, and waking.
도 57은 본 발명의 일 실시예에 따른 사용자의 수면 기간 내 수면 단계를 표시하는 힙노덴시티 그래프를 설명하기 위한 도면이다.Figure 57 is a diagram for explaining a hypnodensity graph displaying the sleep stage within the user's sleep period according to an embodiment of the present invention.
본 발명의 일 실시예에 따라서, 힙노덴시티 그래프는 confidence 값을 활용하여 수면 단계를 표현할 수 있다. Confidence 값은 각 수면 단계의 신뢰성을 나타내는 지표일 수 있다.According to an embodiment of the present invention, the hypnodensity graph can express sleep stages using confidence values. The confidence value may be an indicator of the reliability of each sleep stage.
본 발명의 일 실시예에 따라서, 힙노덴시티 그래프는 일반적으로 뇌파도(ElectroEnceephaloGram,EEGs), 전기안구검사(ElectroOculoGraphy,EOGs), 근전도검사(ElectroMyoGraphy), 수면다원검사(PSG,polysomnography)를 통해서 얻어질 수 있다.According to one embodiment of the present invention, the hypnodensity graph is generally obtained through electroencephalogram (EEGs), electrooculography (EOGs), electromyography (ElectroMyoGraphy), and polysomnography (PSG). You can lose.
도 56에 개시된 바와 같이 힙노그램은 수면 단계를 렘 수면과 논-렘(NON-REM)수면으로 구분하여 표현할 수 있다. 예를 들어, 렘 수면, 깊은 잠, 얕은 잠 및 깸 4단계로 표현할 수 있다. 또한, 각 단계의 confidence값을 서로 다른 색으로 표현할 수 있다.As shown in Figure 56, the hypnogram can express sleep stages by dividing them into REM sleep and non-REM sleep. For example, it can be expressed in four stages: REM sleep, deep sleep, light sleep, and waking. Additionally, the confidence value of each step can be expressed in different colors.
수면 콘텐츠sleep content
본 발명의 일 실시예에 따르면, 피드백을 수집하기 위해서 사용자에게 수면 콘텐츠 서비스를 제공할 수 있다. 구체적으로, 수면 콘텐츠 서비스는 심상 유도 정보 및 수면 콘텐츠 서비스 중 어느 하나 이상을 제공할 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, a sleep content service may be provided to the user in order to collect feedback. Specifically, the sleep content service may provide one or more of imagery-inducing information and sleep content services, but is not limited thereto.
도 58은 본 발명의 일 실시예에 따른, 피드백을 수집하기 위해서 사용자에게 수면 콘텐츠 서비스를 제공하는 것을 설명하기 위한 도면이다.FIG. 58 is a diagram illustrating providing a sleep content service to a user in order to collect feedback, according to an embodiment of the present invention.
본 발명의 일실시예에 따른 도 58에 도시된 바와 같이, 피드백을 수집하기 위해 사용자에게 제공되는 수면 콘텐츠(58200)는 수면 키워드(58210), 수면 시각 콘텐츠(58220), 수면 텍스트 콘텐츠(58230) 및 수면 음원 콘텐츠(58240) 중 하나 이상을 포함할 수 있다. 또한, 피드백을 수집하기 위해 사용자에게 제공되는 수면 콘텐츠(58200)는 수면 키워드(58210), 수면 시각 콘텐츠(58220), 수면 텍스트 콘텐츠(58230) 및 수면 음원 콘텐츠(58240) 중 하나 이상을 포함하는 이들의 조합일 수 있다.As shown in FIG. 58 according to an embodiment of the present invention, sleep content 58200 provided to the user to collect feedback includes sleep keyword 58210, sleep visual content 58220, and sleep text content 58230. and sleep sound source content 58240. In addition, sleep content 58200 provided to users to collect feedback includes one or more of sleep keywords 58210, sleep visual content 58220, sleep text content 58230, and sleep sound source content 58240. It may be a combination of
본 발명의 일 실시예에 따른 수면 키워드(58210)는 사용자의 수면과 관련된 수면의 키워드 일 수 있다. 예를 들어, 사용자가 수면에 대하여 느낀 심미적 감각에 관련한 키워드로서, “blue, wind, heartbeat, breathing”일 수 있다. 상술한 수면 키워드는 본 발명의 실시예를 설명하기 위한 예시로서, 이에 한정되지 않는다.The sleep keyword 58210 according to an embodiment of the present invention may be a sleep keyword related to the user's sleep. For example, keywords related to the user's aesthetic sense of sleep may be “blue, wind, heartbeat, breathing.” The above-described sleep keywords are examples for explaining embodiments of the present invention, and are not limited thereto.
본 발명의 일 실시예에 따른 수면 시각 콘텐츠(58220)는 사용자의 수면과 관련된 수면 키워드(58210)에 기초하여 생성된 시각적 콘텐츠 일 수 있다. 수면 시각 콘텐츠(58220)는 단일한 이미지 정보일 수 있으며, 또는 이미지를 기반으로 심상 유도 시나리오를 가진 이미지의 조합, 즉 동영상 정보일 수 있다. 또한, 수면 시각 콘텐츠는 입체감을 가지고 사용자에게 제공되는 시각정보일 수 있다. 예를 들어, 수면 시각 콘텐츠(58220)는, 도 58에 개시된 바와 같이, 2“blue, wind, heartbeat, breathing”이라는 키워드에 기초하여 인공지능을 활용하여 생성되는 이미지일 수 있다. 상술한 수면 시각 콘텐츠는 본 발명의 실시예를 설명하기 위한 예시로서, 이에 한정되지 않는다.Sleep visual content 58220 according to an embodiment of the present invention may be visual content generated based on a sleep keyword 58210 related to the user's sleep. Sleep visual content 58220 may be single image information, or may be a combination of images with an image-inducing scenario based on the image, that is, video information. Additionally, sleep visual content may be visual information provided to the user with a three-dimensional effect. For example, the sleep visual content 58220 may be an image generated using artificial intelligence based on the keyword 2“blue, wind, heartbeat, breathing,” as shown in FIG. 58. The above-described sleep visual content is an example to explain an embodiment of the present invention, and is not limited thereto.
수면 분석 정보Sleep Analysis Information
도 59는 본 발명의 일 실시예에 따른, 피드백을 수집하기 위해서 사용자에게 수면 분석 정보(59300)를 제공하는 것을 설명하기 위한 도면이다.FIG. 59 is a diagram illustrating providing sleep analysis information 59300 to a user to collect feedback, according to an embodiment of the present invention.
본 발명의 일 실시예에 따른, 수면 분석 정보는 주목성이 높은 텍스트인 제1 수면 문구(59310), 사용자의 수면에 관한 평가를 구성하는 텍스트인 제2 수면 문구(59320) 및 사용자의 수면에 대해 나타내는 꿈에 관련된 이미지를 포함할 수 있다.According to an embodiment of the present invention, sleep analysis information includes a first sleep phrase 59310, which is a text with high attention, a second sleep phrase 59320, which is a text constituting an evaluation of the user's sleep, and the user's sleep. It may include images related to dreams that represent the subject.
본 발명의 일 실시예에 따르면, 예를 들어, 제1 수면 문구(59310)는 사용자의 수면에 관하여 사용자의 수면이 부족하다는 평가를 내려야 하는 경우 “더 잤으면 좋을 잠”, “감질 나는 잠” 등 주목성이 높은 텍스트 일 수 있다. 제1 수면 문구(59310)는 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제1 수면 문구(59310)는 대규모 언어 모델을 통해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the first sleep phrase 59310 may be used in cases where an evaluation is made regarding the user's sleep, such as “a sleep that would be good to have more sleep” or “a tantalizing sleep.” It may be a text with high attention, etc. The first sleep phrase 59310 may be text generated by a lookup table, but is not limited thereto. The first sleep phrase 59310 may be a text generated through a large-scale language model, but is not limited to this.
본 발명의 일 실시예에 따르면, 예를 들어, 제2 수면 문구(59320)는 사용자의 수면에 관하여 사용자의 수면이 부족한 경우 “요즘 많이 바쁘신가봐요. 오늘 밤에는 잠을 보충하면 어떨까요?”, “수면이 부족해요. 오늘은 휴식하며 잠을 보충하면 어떨까요?” 등 사용자의 수면에 대한 평가를 구성하는 텍스트 일 수 있다. 제2 수면 문구(59320)은 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제2 수면 문구(59320)는 대규모 언어 모델을 통해서 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the second sleep phrase 59320 may say, “You must be very busy these days.” “How about catching up on sleep tonight?”, “I’m not getting enough sleep. “How about resting today and catching up on sleep?” This may be text that constitutes an evaluation of the user's sleep. The second sleep phrase 59320 may be text generated by a lookup table, but is not limited thereto. The second sleep phrase 59320 may be a text generated through a large-scale language model, but is not limited to this.
수면 환경 조절 서비스Sleep environment control service
도 60은 발명의 일 실시예에 따른, 피드백을 수집하기 위해서 사용자에게 수면 환경 조절 서비스를 제공하는 것을 설명하기 위한 도면이다.FIG. 60 is a diagram illustrating providing a sleep environment adjustment service to a user in order to collect feedback, according to an embodiment of the invention.
본 발명의 일 실시예에 따른, 수면 환경 조절 서비스(60400)는 사용자의 수면 상태에 기초하여 수면 환경을 조절하는 서비스를 포함할 수 있다. 구체적으로, 수면 환경 서비스(60400)는 사용자의 수면 상태에 기초하여 수면의 환경을 조절하는 서비스로서, 에어컨을 통한 수면 환경의 온도를 조절, 수면 용품을 통한 수면 환경의 온도 조절, 수면 환경의 조도 조절, 수면 환경의 향을 조절, 수면 환경의 침구류의 상태를 조절 및 수면 환경의 소음 조절 중 하나 이상을 포함할 수 있다. 상술한 수면 환경 서비스는 본 발명의 실시예를 설명하기 위한 예시로서 이에 한정되지 않는다.According to an embodiment of the present invention, the sleep environment adjustment service 60400 may include a service that adjusts the sleep environment based on the user's sleep state. Specifically, the sleep environment service 60400 is a service that adjusts the sleep environment based on the user's sleep state, controlling the temperature of the sleep environment through an air conditioner, controlling the temperature of the sleep environment through sleep products, and the illuminance of the sleep environment. It may include one or more of adjusting, adjusting the scent of the sleeping environment, adjusting the condition of bedding in the sleeping environment, and controlling noise in the sleeping environment. The above-described sleep environment service is an example to explain an embodiment of the present invention, and is not limited thereto.
예를 들어, 도 60에 개시된 바와 같이, 본 발명의 일 실시예에 따른 수면 환경 서비스(60400)는 수면 환경을 조절할 수 있다. 수면 환경 서비스는 사용자 단말(60410)과 수면 환경 조절 장치(60420)를 포함할 수 있다. 사용자 단말(60410)은 사용자가 위치한 공간에 관련한 음향 정보, 수면 환경 정보, 사용자 생활정보 등을 포함하는 수면에 관련된 사용자의 수면 정보를 획득할 수 있다. 사용자 단말(60410)이 획득한 사용자의 수면 정보에 기초하여, 수면 환경 조절 장치(60420)는 수면 환경을 조절할 수 있다. 예컨대, 사용자의 수면 정보에 수면 환경의 소음이 많다는 정보가 포함된 경우, 수면 환경의 소음을 줄이도록 수면 환경을 조절할 수 있다. 상술한 수면 환경 서비스는 본 발명의 실시예를 설명하기 위한 예시로서 이에 한정되지 않는다.For example, as shown in FIG. 60, the sleep environment service 60400 according to an embodiment of the present invention can adjust the sleep environment. The sleep environment service may include a user terminal 60410 and a sleep environment control device 60420. The user terminal 60410 may acquire the user's sleep information related to sleep, including sound information related to the space where the user is located, sleep environment information, and user life information. Based on the user's sleep information acquired by the user terminal 60410, the sleep environment control device 60420 can adjust the sleep environment. For example, if the user's sleep information includes information that there is a lot of noise in the sleep environment, the sleep environment can be adjusted to reduce the noise in the sleep environment. The above-described sleep environment service is an example to explain an embodiment of the present invention, and is not limited thereto.
사용자 피드백 수집 및 유저 그래픽 디스플레이Collect user feedback and display user graphics
본 발명의 일 실시예에 따른, 사용자 피드백 수집 및 유저 그래픽 디스플레이를 제공하는 방법은, 상술한, 수면 서비스 및 사용자의 수면 정보에 대한 사용자의 피드백을 수집하는 방법으로서, 사용자 인터페이스를 통한 피드백 수집 및 사용자의 동작을 통한 피드백 수집 방법을 포함할 수 있다.According to an embodiment of the present invention, a method of collecting user feedback and providing user graphic display is a method of collecting user feedback on the above-described sleep service and user sleep information, including collecting feedback through a user interface and It may include a method of collecting feedback through the user's actions.
사용자 인터페이스 피드백(User Interface Feedback)User Interface Feedback
본 발명의 일 실시예에 따른, 사용자 피드백 수집 및 유저 그래픽 디스플레이 제공 방법은, 사용자 인터페이스를 통해서 수면 서비스 및 사용자의 수면 정보에 대한 피드백을 수집할 수 있다.The method for collecting user feedback and providing a user graphic display according to an embodiment of the present invention can collect feedback on a sleep service and the user's sleep information through a user interface.
도 61은 본 발명의 일 실시예에 따른, 수면 콘텐츠에 대한 유저의 피드백을 수집하기 위한 유저 그래픽 디스플레이를 설명하기 위한 도면이다.Figure 61 is a diagram for explaining a user graphic display for collecting user feedback on sleep content according to an embodiment of the present invention.
본 발명의 일 실시예에 따른, 도 61에 도시된 바와 같이, 수면 콘텐츠에 대한 유저의 피드백을 수집하기 위한 유저 그래픽 디스플레이(61500)는, 피드백을 수집하기 위해 사용자에게 제공되는 수면 콘텐츠는 수면 키워드(61510), 수면 시각 콘텐츠(61520), 수면 텍스트 콘텐츠(61530), 및 수면 음원 콘텐츠(61540) 중 하나 이상 및 수면 피드백 유저 인터페이스(61550)를 포함할 수 있다. 또한, 피드백을 수집하기 위해 사용자에게 제공되는 수면 콘텐츠(61500)는 수면 키워드(61510), 수면 시각 콘텐츠(61520), 수면 텍스트 콘텐츠(61530) 및 수면 음원 콘텐츠(61540) 중 하나 이상을 포함하는 조합일 수 있다.According to an embodiment of the present invention, as shown in FIG. 61, the user graphic display 61500 for collecting user feedback on sleep content is sleep content provided to the user for collecting feedback using sleep keywords. It may include one or more of (61510), sleep visual content (61520), sleep text content (61530), and sleep sound source content (61540), and a sleep feedback user interface (61550). Additionally, sleep content 61500 provided to users to collect feedback is a combination of one or more of sleep keywords 61510, sleep visual content 61520, sleep text content 61530, and sleep sound source content 61540. It can be.
본 발명의 일 실시예에 따른 수면 키워드(61510)는 사용자의 수면과 관련된 수면의 키워드 일 수 있다. 예를 들어, 사용자가 수면에 대하여 느낀 심미적 감각에 관련한 키워드로서, “blue, wind, heartbeat, breathing”일 수 있다. 상술한 수면 키워드는 본 발명의 실시예를 설명하기 위한 예시로서, 이에 한정되지 않는다.The sleep keyword 61510 according to an embodiment of the present invention may be a sleep keyword related to the user's sleep. For example, keywords related to the user's aesthetic sense of sleep may be “blue, wind, heartbeat, breathing.” The above-described sleep keywords are examples for explaining embodiments of the present invention, and are not limited thereto.
본 발명의 일 실시예에 따른 수면 시각 콘텐츠(61520)는 사용자의 수면과 관련된 수면 키워드(61510)에 기초하여 생성된 시각적 콘텐츠 일 수 있다. 수면 시각 콘텐츠는 단일한 이미지 정보일 수 있으며, 또는 이미지를 기반으로 심상 유도 시나리오를 가진 이미지의 조합, 즉 동영상 정보일 수 있다. 또한, 수면 시각 콘텐츠는 입체감을 가지고 사용자에게 제공되는 시각정보일 수 있다. 예를 들어, 수면 시각 콘텐츠(61520)는, 도 61에 개시된 바와 같이, 2“blue, wind, heartbeat, breathing”이라는 키워드에 기초하여 인공지능을 활용하여 생성되는 이미지일 수 있다. 상술한 수면 시각 콘텐츠는 본 발명의 실시예를 설명하기 위한 예시로서, 이에 한정되지 않는다.Sleep visual content 61520 according to an embodiment of the present invention may be visual content generated based on a sleep keyword 61510 related to the user's sleep. Sleep visual content may be a single image information, or it may be a combination of images with an image-inducing scenario based on the image, that is, video information. Additionally, sleep visual content may be visual information provided to the user with a three-dimensional effect. For example, the sleep visual content 61520 may be an image generated using artificial intelligence based on the keyword 2“blue, wind, heartbeat, breathing,” as shown in FIG. 61. The above-described sleep visual content is an example to explain an embodiment of the present invention, and is not limited thereto.
또한, 본 발명의 일 실시예에 따른 수면 콘텐츠에 대한 유저의 피드백을 수집하기 위한 방법 및 그래픽 유저 인터페이스 제공 방법은, 수면 콘텐츠에 대한 유저의 피드백을 수집하기 위한 유저 피드백 그래픽 유저 인터페이스(61550)를 포함할 수 있다. 구체적으로, 피드백 그래픽 유저 인터페이스를 유저에게 제공하고, 이를 통해서 유저는 피드백을 입력함으로써, 유저의 피드백을 수집할 수 있게 된다. 예를 들어, 도 61에 개시된 바와 같이, 유저는 수면 콘텐츠가 유저의 수면과 일치 또는 긍정하는 경우에는 위쪽으로 엄지가 향하는 손 이미지를 클릭하고, 수면 콘텐츠가 유저의 수면과 불일치 또는 부정하는 경우에는 아래쪽으로 엄지가 향하는 손 이미지를 클릭함으로써 피드백을 입력할 수 있다. 상술한 피드백 그래픽 유저 인터페이스는 본 발명의 실시예를 설명하기 위한 예시에 불과하고, 이에 한정되지 않는다.In addition, the method for collecting user feedback on sleep content and the method for providing a graphical user interface according to an embodiment of the present invention include a user feedback graphical user interface 61550 for collecting user feedback on sleep content. It can be included. Specifically, a feedback graphical user interface is provided to the user, through which the user inputs feedback, thereby allowing the user's feedback to be collected. For example, as shown in Figure 61, the user clicks on the image of a hand with the thumb pointing upward when the sleep content matches or is positive with the user's sleep, and when the sleep content does not match or is negative with the user's sleep, the user clicks on the image. You can enter feedback by clicking on the image of a hand with the thumb pointing downward. The above-described feedback graphic user interface is only an example to explain an embodiment of the present invention, and is not limited thereto.
도 62는 본 발명의 일 실시예에 따른, 수면 분석 정보에 대한 유저의 피드백을 수집하기 위한 유저 그래픽 디스플레이를 설명하기 위한 도면이다. Figure 62 is a diagram for explaining a user graphic display for collecting user feedback on sleep analysis information, according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 도 62에 개시된 바와 같이, 수면 분석 정보(62600)는 주목성이 높은 텍스트인 제1 수면 문구(62610), 사용자의 수면에 관한 평가를 구성하는 텍스트인 제2 수면 문구(62620) 및 사용자의 수면에 대해 나타내는 꿈에 관련된 이미지를 포함할 수 있다.As shown in FIG. 62 according to an embodiment of the present invention, sleep analysis information 62600 includes a first sleep phrase 62610, which is a text with high attention, and a second sleep phrase, which is a text constituting an evaluation of the user's sleep. It may include a phrase 62620 and an image related to a dream representing the user's sleep.
본 발명의 일 실시예에 따르면, 예를 들어, 제1 수면 문구(62610)는 사용자의 수면에 관하여 사용자의 수면이 부족하다는 평가를 내려야 하는 경우 “더 잤으면 좋을 잠”, “감질 나는 잠” 등 주목성이 높은 텍스트 일 수 있다. 제1 수면 문구(62610)는 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제1 수면 문구(62610)는 대규모 언어 모델을 통해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the first sleep phrase 62610 may be used to describe the user's sleep, such as “a sleep that would be good to sleep more” or “a tantalizing sleep” when evaluating whether the user's sleep is insufficient. It may be a text with high attention, etc. The first sleep phrase 62610 may be text generated by a lookup table, but is not limited thereto. The first sleep phrase 62610 may be text generated through a large-scale language model, but is not limited to this.
본 발명의 일 실시예에 따르면, 예를 들어, 제2 수면 문구(62620)는 사용자의 수면에 관하여 사용자의 수면이 부족한 경우 “요즘 많이 바쁘신가봐요. 오늘 밤에는 잠을 보충하면 어떨까요?”, “수면이 부족해요. 오늘은 휴식하며 잠을 보충하면 어떨까요?” 등 사용자의 수면에 대한 평가를 구성하는 텍스트 일 수 있다. 제2 수면 문구(62620)는 룩업테이블에 의해 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다. 제2 수면 문구(62620)는 대규모 언어 모델을 통해서 생성된 텍스트 일 수 있으나, 이에 한정되지 않는다.According to one embodiment of the present invention, for example, the second sleep phrase 62620 may say, “You must be very busy these days.” When the user lacks sleep, the second sleep phrase 62620 may be used. “How about catching up on sleep tonight?”, “I’m not getting enough sleep. “How about resting today and catching up on sleep?” This may be text that constitutes an evaluation of the user's sleep. The second sleep phrase 62620 may be text generated by a lookup table, but is not limited thereto. The second sleep phrase 62620 may be a text generated through a large-scale language model, but is not limited to this.
또한, 본 발명의 일 실시예에 따른 수면 분석정보에 대한 유저의 피드백을 수집하기 위한 방법 및 그래픽 유저 인터페이스 제공 방법은, 수면 수면 분석 정보에 대한 유저의 피드백을 수집하기 위한 유저 피드백 그래픽 유저 인터페이스(62630)를 포함할 수 있다. 구체적으로, 피드백 그래픽 유저 인터페이스를 유저에게 제공하고, 이를 통해서 유저는 피드백을 입력함으로써, 유저의 피드백을 수집할 수 있게 된다. 예를 들어, 도 62에 개시된 바와 같이, 유저는 수면 분석 정보가 유저의 수면과 일치 또는 긍정하는 경우에는 위쪽으로 엄지가 향하는 손 이미지를 클릭하고, 수면 분석 정보가 유저의 수면과 불일치 또는 부정하는 경우에는 아래쪽으로 엄지가 향하는 손 이미지를 클릭함으로써 피드백을 입력할 수 있다. 상술한 피드백 그래픽 유저 인터페이스는 본 발명의 실시예를 설명하기 위한 예시에 불과하고, 이에 한정되지 않는다.In addition, a method for collecting user feedback on sleep analysis information and a method for providing a graphical user interface according to an embodiment of the present invention include a user feedback graphical user interface (GUI) for collecting user feedback on sleep analysis information. 62630). Specifically, a feedback graphical user interface is provided to the user, through which the user inputs feedback, thereby allowing the user's feedback to be collected. For example, as shown in Figure 62, the user clicks on the image of a hand with the thumb pointing upward if the sleep analysis information matches or is positive with the user's sleep, and if the sleep analysis information does not match or is negative with the user's sleep, the user clicks the image. In this case, feedback can be entered by clicking on the image of a hand with the thumb pointing downward. The above-described feedback graphic user interface is only an example to explain an embodiment of the present invention, and is not limited thereto.
도 63은 본 발명의 일 실시예에 따른, 수면 서비스에 대한 유저의 피드백을 수집하기 위한 유저 그래픽 디스플레이를 설명하기 위한 도면이다.FIG. 63 is a diagram illustrating a user graphic display for collecting user feedback on a sleep service according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 수면 서비스에 대한 유저의 피드백을 수집하기 위한 방법 및 그래픽 유저 인터페이스 제공 방법(63700)은, 수면 서비스 정보에 대한 유저의 피드백을 수집하기 위한 유저 피드백 그래픽 유저 인터페이스(63710)를 포함할 수 있다. 구체적으로, 피드백 그래픽 유저 인터페이스를 유저에게 제공하고, 이를 통해서 유저는 피드백을 입력함으로써, 유저의 피드백을 수집할 수 있게 된다. 예를 들어, 도 63에 개시된 바와 같이, 유저는 서비스가 만족스러운 경우 제공된 피드백 유저 인터페이스의 슬라이드를 오른쪽으로 밀고, 서비스가 불만족스러운 경우 제공된 피드백 유저 인터페이스의 슬라이드를 왼쪽으로 밈으로써 피드백을 입력할 수 있다. 또한, 만족과 불만족의 주관적인 정도는 슬라이드를 왼쪽 또는 오른쪽으로 민 정도를 측정하여 피드백을 입력할 수 있다. 상술한 피드백 그래픽 유저 인터페이스는 본 발명의 실시예를 설명하기 위한 예시에 불과하고, 이에 한정되지 않는다.A method for collecting user feedback on sleep services and a method for providing a graphical user interface (63700) according to an embodiment of the present invention includes a user feedback graphical user interface (63710) for collecting user feedback on sleep service information. ) may include. Specifically, a feedback graphical user interface is provided to the user, through which the user inputs feedback, thereby allowing the user's feedback to be collected. For example, as shown in Figure 63, the user can enter feedback by sliding the slide of the provided feedback user interface to the right when the service is satisfactory, and by sliding the slide of the provided feedback user interface to the left when the service is unsatisfactory. there is. Additionally, the subjective degree of satisfaction and dissatisfaction can be provided as feedback by measuring the degree to which the slide is pushed left or right. The above-described feedback graphic user interface is only an example to explain an embodiment of the present invention, and is not limited thereto.
사용자 동작 피드백(User action Feedback) User action feedback
본 발명의 일 실시예에 따른, 사용자 피드백 수집 및 유저 그래픽 디스플레이 제공 방법은, 사용자 동작을 통해서 수면 서비스 및 사용자의 수면 정보에 대한 피드백을 수집할 수 있다.The method for collecting user feedback and providing a user graphic display according to an embodiment of the present invention can collect feedback on the sleep service and the user's sleep information through user actions.
본 발명의 일 실시예에 따르면, 사용자의 동작을 통해서 수면 서비스 및 사용자의 수면 정보에 대한 피드백을 수집하는 방법은 음성 동작 피드백, 물리 동작 피드백 및 사용자 수면 상태 정보 피드백 중 하나 이상을 포함할 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment of the present invention, the method of collecting feedback on the sleep service and the user's sleep information through the user's motion may include one or more of voice motion feedback, physical motion feedback, and user sleep state information feedback. , but is not limited to this.
도 64는 본 발명의 일 실시예에 따른, 수면 환경 조절 서비스에 대한 유저의 피드백을 수집하기 위한 유저 동작 피드백 설명하기 위한 도면이다.Figure 64 is a diagram for explaining user action feedback for collecting user feedback on a sleep environment control service according to an embodiment of the present invention.
본 발명의 일 실시예에 따른, 수면 환경 조절 서비스에 대한 유저의 피드백을 수집하는 방법은, 수면 환경 조절 피드백을 수집할 수 있다. 수면 환경 조절 피드백을 수집하는 방법에 대한 상세한 예시는 도면을 참고하여 후술하도록 한다.A method of collecting user feedback on a sleep environment control service according to an embodiment of the present invention may collect sleep environment control feedback. A detailed example of how to collect sleep environment control feedback will be described later with reference to the drawings.
본 발명의 일 실시예에 따른 도 64을 참조하면, 수면 환경 조절 서비스에 대한 유저의 피드백을 수집하는 방법(64800)은, 수면 환경 조절 서비스에 대한 유저의 동작에 기초하여 피드백을 수집할 수 있다. 사용자 단말(64810)은 사용자가 위치한 공간에 관련한 음향 정보, 수면 환경 정보, 사용자 생활정보 등을 포함하는 수면에 관련된 사용자의 수면 정보를 획득할 수 있다. 사용자 단말(64810)이 획득한 사용자의 수면 정보에 기초하여, 수면 환경 조절 장치(64820)는 수면 환경을 조절할 수 있다. 또한, 사용자 단말(64810), 수면 환경 조절 장치(64820), 또는 별도의 사용자 동작 피드백 수집 장치(64830)는 수면 환경 조절 서비스에 대한 사용자의 동작 피드백을 수집할 수 있다. 예를 들어, 수면 환경 조절 서비스는 수면 환경의 온도를 조절하는 서비스인 경우, 수면 환경 조절 장치가 조절한 수면 환경 온도에 대해서 사용자가 온도를 변경하면 사용자 단말(64810), 수면 환경 조절 장치(64820), 또는 별도의 사용자 동작 피드백 수집 장치(64830)는 부정적인 피드백을 수집할 수 있다. 상술한 사용자 동작 피드백 수집 방법은 본 발명의 실시예를 설명하기 위한 예시에 불과하고, 이에 한정되지 않는다.Referring to FIG. 64 according to an embodiment of the present invention, the method 64800 for collecting user feedback on the sleep environment control service may collect feedback based on the user's actions on the sleep environment control service. . The user terminal 64810 can acquire the user's sleep information related to sleep, including sound information related to the space where the user is located, sleep environment information, and user life information. Based on the user's sleep information acquired by the user terminal 64810, the sleep environment control device 64820 can adjust the sleep environment. Additionally, the user terminal 64810, the sleep environment control device 64820, or a separate user motion feedback collection device 64830 may collect the user's motion feedback for the sleep environment control service. For example, if the sleep environment control service is a service that controls the temperature of the sleep environment, when the user changes the temperature of the sleep environment adjusted by the sleep environment control device, the user terminal (64810), the sleep environment control device (64820) ), or a separate user operation feedback collection device 64830 may collect negative feedback. The above-described method of collecting user motion feedback is merely an example to explain an embodiment of the present invention, and is not limited thereto.
도 65는 본 발명의 일 실시예에 따른, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하기 위한 유저 물리 동작 피드백을 설명하기 위한 도면이다.FIG. 65 is a diagram illustrating user physical motion feedback for collecting user feedback on sleep services or sleep information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 도 65를 참조하면, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하는 방법(65900)은, 유저의 동작에 기초하여 피드백을 수집할 수 있다. 구체적으로, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하는 방법은 유저의 물리 동작 피드백에 기초하여 피드백을 수집할 수 있다.Referring to FIG. 65 according to an embodiment of the present invention, a method 65900 for collecting user feedback on a sleep service or sleep information may collect feedback based on the user's actions. Specifically, a method of collecting user feedback on a sleep service or sleep information may collect feedback based on the user's physical motion feedback.
본 발명의 일 실시예에 따르면, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하는 방법(65900)은, 사용자 단말(65910)과 사용자 단말(65910)을 통한 사용자 물리 동작 피드백(65920)을 통해서 피드백을 수집할 수 있다. 예를 들어서, 사용자 단말(65910)은 수면 서비스 또는 수면 정보에 대한 사용자의 물리 동작 피드백을 수집할 수 있다. 또한, 사용자 단말(65910)은 사용자의 물리 동작 피드백을 통해 피드백을 수집하기 위해서 자이로 센서, 가속도계 센서 및 터치 센서를 포함할 수 있으나, 여기에 한정되지 않는다.According to one embodiment of the present invention, the method 65900 of collecting user feedback on sleep service or sleep information is through the user terminal 65910 and the user physical motion feedback 65920 through the user terminal 65910. Feedback can be collected. For example, the user terminal 65910 may collect the user's physical motion feedback regarding sleep services or sleep information. Additionally, the user terminal 65910 may include a gyro sensor, an accelerometer sensor, and a touch sensor to collect feedback through the user's physical motion feedback, but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자 물리 동작 피드백(65920)은 사용자의 물리적인 동작을 감지하는 것 일 수 있다. 예를 들어, 사용자는 수면 서비스 또는 수면 정보가 마음에 드는 경우, 사용자 단말(65910)을 좌우로 흔듦으로써, 사용자 단말(65910)에 내장된 가속도 센서가 물리 동작을 감지하고, 사용자에게 제공된 수면 서비스 또는 수면 정보가 사용자가 긍정적으로 판단하였다는 피드백을 수집할 수 있다.According to one embodiment of the present invention, the user physical motion feedback 65920 may detect the user's physical motion. For example, if the user likes a sleep service or sleep information, the user shakes the user terminal 65910 left and right, so that the acceleration sensor built into the user terminal 65910 detects physical motion, and the sleep service provided to the user Alternatively, feedback indicating that the sleep information was judged positively by the user may be collected.
상술한 사용자 동작 피드백 수집 방법은 본 발명의 실시예를 설명하기 위한 예시에 불과하고, 이에 한정되지 않는다.The above-described method of collecting user motion feedback is only an example to explain an embodiment of the present invention, and is not limited thereto.
도 66은 본 발명의 일 실시예에 따른, 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 유저 음성 동작 피드백을 설명하기 위한 도면이다.FIG. 66 is a diagram illustrating user voice motion feedback for collecting user feedback on sleep services or information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 도 66을 참조하면, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하는 방법(661000)은, 유저의 동작에 기초하여 피드백을 수집할 수 있다. 구체적으로, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하는 방법은 유저의 음성 동작 피드백에 기초하여 피드백을 수집할 수 있다.Referring to FIG. 66 according to an embodiment of the present invention, a method 661000 of collecting user feedback on sleep service or sleep information may collect feedback based on user actions. Specifically, a method of collecting user feedback on a sleep service or sleep information may collect feedback based on the user's voice motion feedback.
본 발명의 일 실시예에 따르면, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하는 방법(661000)은, 사용자 단말과 사용자 단말을 통한 사용자 음성 동작 피드백(661010)을 통해서 피드백을 수집할 수 있다. 예를 들어서, 사용자 단말은 수면 서비스 또는 수면 정보에 대한 사용자의 음성 동작 피드백(661010)을 수집할 수 있다. 또한, 사용자 단말은 사용자의 음성 동작 피드백(661010)을 통해 피드백을 수집하기 위해서 음성 센서를 포함할 수 있으나, 여기에 한정되지 않는다.According to an embodiment of the present invention, the method (661000) for collecting user feedback on sleep services or sleep information can collect feedback through a user terminal and user voice motion feedback (661010) through the user terminal. . For example, the user terminal may collect the user's voice motion feedback (661010) regarding sleep service or sleep information. Additionally, the user terminal may include a voice sensor to collect feedback through the user's voice motion feedback (661010), but is not limited thereto.
본 발명의 일 실시예에 따르면, 사용자 음성 동작 피드백(661010)은 사용자의 음성 동작을 감지하는 것 일 수 있다. 예를 들어, 사용자는 수면 서비스 또는 수면 정보가 마음에 드는 경우, 사용자 단말에 “오늘 수면은 좋았어.”라고 사용자 단말에 음성을 인식시킬 수 있다. 이 때, 내장된 음성 센서가 음성 동작을 감지하고, 사용자에게 제공된 수면 서비스 또는 수면 정보가 사용자가 긍정적으로 판단하였다는 피드백을 수집할 수 있다.According to one embodiment of the present invention, the user voice motion feedback 661010 may detect the user's voice motion. For example, if the user likes the sleep service or sleep information, the user can have the user terminal recognize a voice saying, “I had a good sleep today.” At this time, the built-in voice sensor can detect voice movements and collect feedback indicating that the user has positively judged the sleep service or sleep information provided to the user.
상술한 사용자 동작 피드백 수집 방법은 본 발명의 실시예를 설명하기 위한 예시에 불과하고, 이에 한정되지 않는다.The above-described method of collecting user motion feedback is only an example to explain an embodiment of the present invention, and is not limited thereto.
사용자 수면 상태 정보 피드백(User Sleep State information Feedback)User Sleep State information Feedback
도 67은 본 발명의 일 실시예에 따른, 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 수면 상태 정보 피드백을 설명하기 위한 도면이다.FIG. 67 is a diagram illustrating sleep state information feedback for collecting user feedback on sleep services or information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 도 67을 참조하면, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하는 방법(671100)은, 유저의 수면 상태에 기초하여 피드백을 수집할 수 있다. 구체적으로, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하는 방법은 수면 상태 정보(671120)에 기초하여 피드백을 수집할 수 있다.Referring to FIG. 67 according to an embodiment of the present invention, a method 671100 of collecting user feedback on sleep service or sleep information may collect feedback based on the user's sleep state. Specifically, a method of collecting user feedback on a sleep service or sleep information may collect feedback based on sleep state information (671120).
본 발명의 일 실시예에 따른 도 67을 참조하면, 수면 서비스 또는 수면 정보에 대한 유저의 피드백을 수집하는 방법(671100)은, 수면 서비스 및 수면 정보(671110)가 사용자에게 제공되었을 때에 사용자 수면 상태 정보(671120)에 기초하여 피드백을 수집할 수 있다. Referring to FIG. 67 according to an embodiment of the present invention, a method (671100) for collecting user feedback on sleep services or sleep information includes determining the user's sleep state when the sleep service and sleep information (671110) are provided to the user. Feedback can be collected based on information 671120.
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 사용자의 수면의 상태와 관련한 정보일 수 있다. 예를 들어, 사용자 수면 상태 정보(671120)는 무호흡증에 관한 정보, 입면 지연시간에 관한 정보, 자다 깸에 관한 정보, 높은 피로를 나타내는 것에 관한 짧은 REM 수면의 지연 시간 정보, 정신적 회복을 나타내는 것에 관한 REM 수면의 비율 정보, 신체적 회복을 나타낼 수 있는 것에 관한 깊은 수면의 비율 정보, 전반기 수면의 질을 나타낼 수 있는 것에 관한 첫 번째 수면 사이클의 깊은 수면의 비율 정보, 수면 중 깸 횟수 정보, 수면의 총량 정보를 포함할 수 있다.According to an embodiment of the present invention, user sleep state information 671120 may be information related to the user's sleep state. For example, user sleep state information 671120 may include information about apnea, information about sleep latency, information about waking up, latency information of short REM sleep about representing high fatigue, and information about mental recovery. Information on the proportion of REM sleep, information on the proportion of deep sleep, which may be indicative of physical recovery, information on the proportion of deep sleep in the first sleep cycle, which may be indicative of sleep quality in the first half of the year, information on the number of awakenings during sleep, and total amount of sleep. May contain information.
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 무호흡증에 관한 정보일 수 있다. 예를 들어서, 수면 서비스 및 수면 정보(671110)가 제공되고 사용자 수면 상태 정보(671120)가 무호흡증 정보인 경우, 무호흡증에 관한 지수 정보가 낮다는 정보가 획득될 수 있다. 이 경우, 무호흡증에 관한 지수 정보가 낮을수록 사용자가 제공된 수면 서비스 및 수면 정보(671110)에 의해 좋은 수면을 취했다는 피드백을 수집할 수 있다.According to an embodiment of the present invention, user sleep state information 671120 may be information about apnea. For example, if sleep service and sleep information 671110 are provided and user sleep state information 671120 is apnea information, information that index information regarding apnea is low may be obtained. In this case, the lower the index information about apnea, the more feedback can be collected that the user had a good sleep through the provided sleep service and sleep information (671110).
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 입면지연시간에 관한 정보일 수 있다. 예를 들어서, 수면 서비스 및 수면 정보(671110)가 제공되고 사용자 수면 상태 정보(671120)가 입면 지연 시간 정보인 경우, 입면 지연 시간이 짧다는 정보가 획득될 수 있다. 입면 지연 시간이 짧다는 정보가 수집된 경우, 사용자가 제공된 수면 서비스 및 수면 정보(671110)에 의해 좋은 수면을 취했다는 피드백을 수집할 수 있다.According to an embodiment of the present invention, the user sleep state information 671120 may be information about the sleep delay time. For example, when sleep service and sleep information 671110 are provided and user sleep state information 671120 is elevation delay time information, information that the elevation delay time is short may be obtained. When information that the sleep delay time is short is collected, feedback that the user had a good sleep through the provided sleep service and sleep information (671110) can be collected.
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 수면 중 깸에 관련한 자다 깸에 관한 정보일 수 있다. 예를 들어서, 수면 서비스 및 수면 정보(1110)가 제공되고 사용자 수면 상태 정보(671120)가 자다 깸 정보인 경우, 자다 깸의 횟수가 적다는 정보가 획득될 수 있다. 자다 깸의 횟수가 적다는 정보가 수집된 경우, 사용자가 제공된 수면 서비스 및 수면 정보에(671110)에 의해 좋은 수면을 취했다는 피드백을 수집할 수 있다.According to an embodiment of the present invention, the user sleep state information 671120 may be information about waking up during sleep. For example, when the sleep service and sleep information 1110 are provided and the user sleep state information 671120 is sleep-wake information, information that the number of sleep-wakeups is small can be obtained. When information is collected that the number of awakenings is small, feedback that the user had a good sleep can be collected based on the provided sleep service and sleep information (671110).
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 높은 피로를 나타내는 것에 관한 짧은 REM수면의 지연 시간 정보일 수 있다. 예를 들어서, 수면 서비스 및 수면 정보(671110)가 제공되고 사용자 수면 상태 정보(671120)가 높은 피로를 나타내는 것에 관한 짧은 REM수면의 지연 시간 정보인 경우, REM수면의 지연시간이 임계점보다 짧다는 정보가 획득될 수 있다. REM수면의 지연시간이 임계점보다 짧다는 정보가 수집된 경우, 사용자가 제공된 수면 서비스 및 수면 정보(671110)에 의해 좋지 않은 수면을 취했다는 피드백을 수집할 수 있다.According to one embodiment of the present invention, user sleep state information 671120 may be delay time information of short REM sleep, which indicates high fatigue. For example, if the sleep service and sleep information 671110 are provided and the user sleep state information 671120 is short REM sleep latency information indicating high fatigue, information that the REM sleep latency is shorter than the threshold. can be obtained. If information is collected that the delay time of REM sleep is shorter than the threshold, feedback that the user had poor sleep can be collected based on the provided sleep service and sleep information (671110).
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 정신적 회복을 나타내는 것에 관한 REM 수면의 비율 정보일 수 있다. 예를 들어서, 수면 서비스 및 수면 정보(671110)가 제공되고 사용자 수면 상태 정보(671120)가 정신적 회복을 나타내는 것에 관한 REM 수면의 비율 정보인 경우, REM 수면의 비율이 정신적 회복을 위한 적절한 범위 내외인지 여부의 정보가 획득될 수 있다. 정신적 회복을 위한 적절한 범위 내의 REM 수면 비율이라는 정보가 수집된 경우, 사용자가 제공된 수면 서비스 및 수면 정보(671110)에 의해 좋은 수면을 취했다는 피드백을 수집할 수 있다.According to one embodiment of the present invention, user sleep state information 671120 may be information about the ratio of REM sleep, which indicates mental recovery. For example, if sleep service and sleep information 671110 are provided and user sleep state information 671120 is information about the proportion of REM sleep regarding what represents mental recovery, is the proportion of REM sleep within an appropriate range for mental recovery? Information on whether or not can be obtained. If information on the REM sleep ratio within an appropriate range for mental recovery is collected, feedback that the user has had good sleep through the provided sleep service and sleep information (671110) can be collected.
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 신체적 회복을 나타낼 수 있는 것에 관한 깊은 수면의 비율 정보일 수 있다. 예를 들어서, 수면 서비스 및 수면 정보(671110)가 제공되고 사용자 수면 상태 정보(671120)가 신체적 회복을 나타낼 수 있는 것에 관한 깊은 수면의 비율 정보인 경우, 깊은 수면의 비율이 임계점 보다 높다는 정보가 획득될 수 있다. 신체적 회복을 충분히 할 수 있는 임계점 보다 높은 깊은 수면의 비율 정보가 수집된 경우, 사용자가 제공된 수면 서비스 및 수면 정보(671110)에 의해 좋은 수면을 취했다는 피드백을 수집할 수 있다.According to one embodiment of the present invention, user sleep state information 671120 may be information on the ratio of deep sleep to that which may indicate physical recovery. For example, if sleep service and sleep information 671110 are provided and user sleep state information 671120 is deep sleep rate information that may indicate physical recovery, information is obtained that the deep sleep rate is above the threshold. It can be. If information on the rate of deep sleep that is higher than the threshold for sufficient physical recovery is collected, feedback that the user has had good sleep based on the provided sleep service and sleep information (671110) can be collected.
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 전반기 수면의 질을 나타낼 수 있는 것에 관한 첫 번째 수면 사이클의 깊은 수면의 비율 정보일 수 있다. 예를 들어서, 수면 서비스 및 수면 정보(671110)가 제공되고 사용자 수면 상태 정보(671120)가 전반기 수면의 질을 나타낼 수 있는 것에 관한 첫 번째 수면 사이클의 깊은 수면의 비율 정보인 경우, 첫 번째 수면 사이클의 깊은 수면의 비율과 깸 상태의 비율 정보가 포함된 수면 상태 정보가 획득될 수 있다. 첫 번째 수면 사이클의 깊은 수면의 비율이 임계점보다 높고, 깸 상태의 비율이 임계점 보다 낮다는 정보가 수집된 경우, 사용자가 제공된 수면 서비스 및 수면 정보(671110)에 의해 좋은 수면을 취했다는 피드백을 수집할 수 있다.According to one embodiment of the present invention, user sleep state information 671120 may be information on the ratio of deep sleep in the first sleep cycle, which may indicate the quality of sleep in the first half of the year. For example, if sleep service and sleep information 671110 are provided and user sleep state information 671120 is information on the percentage of deep sleep in the first sleep cycle, which may indicate the quality of sleep in the first half of the sleep cycle, Sleep state information including the rate of deep sleep and the rate of waking state can be obtained. If information is collected that the proportion of deep sleep in the first sleep cycle is higher than the threshold and the proportion of waking states is lower than the threshold, feedback is collected that the user had a good sleep by the provided sleep service and sleep information (671110) can do.
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 수면 중 깸 횟수 정보일 수 있다. 예를 들어서, 수면 서비스 및 수면 정보(671110)가 제공되고 사용자 수면 상태 정보(671120)가 수면 중 깸 횟수 정보인 경우, 수면 중 깸 횟수에 대한 정보가 획득될 수 있다. 전체 수면 중 깸 횟수가 임계점 이하인 경우, 사용자가 제공된 수면 서비스 및 수면 정보(671110)에 의해 좋은 수면을 취했다는 피드백을 수집할 수 있다.According to an embodiment of the present invention, user sleep state information 671120 may be information on the number of times the user wakes up during sleep. For example, if sleep service and sleep information 671110 are provided and user sleep state information 671120 is information on the number of awakenings during sleep, information on the number of awakenings during sleep may be obtained. If the number of awakenings during total sleep is below the threshold, feedback that the user had a good sleep can be collected based on the provided sleep service and sleep information (671110).
본 발명의 일 실시예에 따르면, 사용자 수면 상태 정보(671120)는 수면의 총량 정보일 수 있다. 예를 들어서, 수면 서비스 및 수면 정보(671110)가 제공되고 사용자 수면 상태 정보(671120)가 총 수면의 시간에 대한 수면의 총량 정보인 경우, 총 수면의 시간에 대한 수면 총량 정보가 획득될 수 있다. 예를 들어, 수면의 총량이 7시간 내지 8시간인 경우, 사용자가 제공된 수면 서비스 및 수면 정보(671110)에 의해 좋은 수면을 취했다는 피드백을 수집할 수 있다.According to an embodiment of the present invention, user sleep state information 671120 may be total amount of sleep information. For example, if the sleep service and sleep information 671110 are provided and the user sleep state information 671120 is the total sleep amount information for the total sleep time, the total sleep amount information for the total sleep time can be obtained. . For example, if the total amount of sleep is 7 to 8 hours, feedback that the user had a good sleep can be collected based on the provided sleep service and sleep information (671110).
상술한 사용자 수면 상태 정보 피드백 수집 방법은 본 발명의 실시예를 설명하기 위한 예시에 불과하고, 이에 한정되지 않는다. The above-described method of collecting user sleep state information feedback is only an example to explain an embodiment of the present invention, and is not limited thereto.
유저의 피드백을 수집하기 위한 방법Methods for collecting user feedback
도 68은 본 발명의 일 실시예에 따른, 사용자 인터페이스 피드백을 활용한 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 방법을 설명하기 위한 흐름도이다. Figure 68 is a flowchart illustrating a method for collecting user feedback on sleep services or information using user interface feedback, according to an embodiment of the present invention.
본 발명의 일 실시예에 따른, 사용자 인터페이스 피드백을 활용한 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 방법은 수면 정보 습득 단계(S68100), 수면 정보에 기초하여 수면 상태 정보를 획득하는 단계(S68110), 습득된 수면 정보 또는 획득된 수면 상태 정보에 기초하여 수면 서비스를 제공하는 단계(S68120) 및 제공된 수면 서비스에 대한 사용자 피드백을 획득하기 위하여 피드백 사용자 그래픽 유저 인터페이스를 디스플레이 하는 단계(S68130)을 포함할 수 있다.According to an embodiment of the present invention, a method for collecting user feedback on sleep services or information using user interface feedback includes a sleep information acquisition step (S68100), and acquiring sleep state information based on the sleep information. (S68110), providing a sleep service based on the acquired sleep information or acquired sleep state information (S68120), and displaying a feedback user graphical user interface to obtain user feedback on the provided sleep service (S68130). may include.
본 발명의 일 실시예에 따른, 수면 정보 습득 단계(S68100)의 수면 정보는 상술한 수면 환경 정보, 수면 음향 정보 또는 수면 생활 정보 중 적어도 하나 이상을 포함할 수 있다.According to an embodiment of the present invention, the sleep information in the sleep information acquisition step (S68100) may include at least one of the above-described sleep environment information, sleep sound information, or sleep life information.
본 발명의 일 실시예에 따르면, 수면 서비스 제공 단계(S68120)는 상술한 수면 콘텐츠, 수면 분석 정보 및 수면 환경 조절 서비스 중 적어도 하나 이상을 포함할 수 있다.According to an embodiment of the present invention, the sleep service provision step (S68120) may include at least one of the above-described sleep content, sleep analysis information, and sleep environment control service.
본 발명의 일 실시예에 따르면, 사용자 피드백 그래픽 유저 인터페이스를 디스플레이 하는 단계(S68130)는 디스플레이 된 사용자 그래픽 유저 인터페이스를 통해서 제공된 수면 서비스에 대한 유저의 반응을 수집하는 단계 및 수집된 유저의 반응을 저장하는 단계를 포함할 수 있다. 예를 들어서, 사용자 피드백 그래픽 유저 인터페이스가 디스플레이 된 후, 그래픽 유저 인터페이스를 활용하여 사용자가 피드백을 입력하고, 입력된 피드백을 사용자 단말 또는 서버로 전송하여 저장할 수 있다.According to one embodiment of the present invention, the step of displaying the user feedback graphical user interface (S68130) includes collecting the user's response to the sleep service provided through the displayed user graphical user interface and storing the collected user's response. It may include steps. For example, after the user feedback graphical user interface is displayed, the user can input feedback using the graphical user interface, and the inputted feedback can be transmitted to the user terminal or server and stored.
도 69는 본 발명의 일 실시예에 따른, 사용자 동작 피드백을 활용한 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 방법을 설명하기 위한 흐름도이다. Figure 69 is a flowchart illustrating a method for collecting user feedback on sleep services or information using user motion feedback, according to an embodiment of the present invention.
본 발명의 일 실시예에 따른, 사용자 인터페이스 피드백을 활용한 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 방법은 수면 정보 습득 단계(S69200), 수면 정보에 기초하여 수면 상태 정보를 획득하는 단계(S69210), 습득된 수면 정보 또는 획득된 수면 상태 정보에 기초하여 수면 서비스를 제공하는 단계(S69220) 및 제공된 수면 서비스에 대한 사용자 피드백을 획득하기 위하여 사용자 동작 피드백을 감지하는 단계(S69230)을 포함할 수 있다.According to an embodiment of the present invention, a method for collecting user feedback on sleep services or information using user interface feedback includes a sleep information acquisition step (S69200), and acquiring sleep state information based on the sleep information. (S69210), providing a sleep service based on acquired sleep information or acquired sleep state information (S69220), and detecting user motion feedback to obtain user feedback on the provided sleep service (S69230). can do.
본 발명의 일 실시예에 따른, 수면 정보 습득 단계(S69200)의 수면 정보는 상술한 수면 환경 정보, 수면 음향 정보 또는 수면 생활 정보 중 적어도 하나 이상을 포함할 수 있다.According to an embodiment of the present invention, the sleep information in the sleep information acquisition step (S69200) may include at least one of the above-described sleep environment information, sleep sound information, or sleep life information.
본 발명의 일 실시예에 따르면, 수면 서비스 제공 단계(S69220)은 상술한 수면 콘텐츠, 수면 분석 정보 및 수면 환경 조절 서비스 중 적어도 하나 이상을 포함할 수 있다.According to an embodiment of the present invention, the sleep service provision step (S69220) may include at least one of the above-described sleep content, sleep analysis information, and sleep environment control service.
본 발명의 일 실시예에 따르면, 사용자 동작 피드백 감지 단계(S69230)는 제공된 수면 서비스에 대한 유저의 동작을 감지하는 단계 및 감지된 유저의 동작을 피드백에 대한 정보로 변환하는 단계를 포함할 수 있다. 예를 들어, 유저의 동작을 감지하고, 감지된 유저의 동작이 기 설정된 값에 기초하여 부정적인 수면을 의미하는 경우 수면에 대한 부정적인 피드백 정보로 변환할 수 있다.According to an embodiment of the present invention, the user motion feedback detection step (S69230) may include detecting the user's motion for the provided sleep service and converting the detected user's motion into information about the feedback. . For example, the user's motion can be detected, and if the detected user's motion indicates negative sleep based on a preset value, it can be converted into negative feedback information about sleep.
본 발명의 일 실시예에 따르면, 사용자 동작 피드백 감지 단계(S69230)는 상술한 음성 동작 피드백, 물리 동작 피드백 및 수면 환경 조절 피드백 중 하나 이상을 포함할 수 있다.According to an embodiment of the present invention, the user motion feedback detection step (S69230) may include one or more of the above-described voice motion feedback, physical motion feedback, and sleep environment control feedback.
도 70은 본 발명의 일 실시예에 따른, 사용자 수면 상태 피드백을 활용한 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 방법을 설명하기 위한 흐름도이다. Figure 70 is a flowchart illustrating a method for collecting user feedback on sleep services or information using user sleep state feedback, according to an embodiment of the present invention.
본 발명의 일 실시예에 따른, 사용자 인터페이스 피드백을 활용한 수면 서비스 또는 정보에 대한 유저의 피드백을 수집하기 위한 방법은 수면 정보 습득 단계(S70300), 수면 정보에 기초하여 수면 상태 정보를 획득하는 단계(S70310), 습득된 수면 정보 또는 획득된 수면 상태 정보에 기초하여 수면 서비스를 제공하는 단계(S70320) 및 제공된 수면 서비스에 대한 사용자 피드백을 획득하기 위하여 수면 상태 정보 변화 감지 단계(S70330)를 포함할 수 있다. 또한, 수면 상태 정보 변화에 기초하여 수면 서비스에 관한 수면 상태 정보 피드백을 획득하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, a method for collecting user feedback on sleep services or information using user interface feedback includes a sleep information acquisition step (S70300), and acquiring sleep state information based on the sleep information. (S70310), providing a sleep service based on the acquired sleep information or acquired sleep state information (S70320), and detecting a change in sleep state information to obtain user feedback on the provided sleep service (S70330). You can. Additionally, the method may further include obtaining sleep state information feedback regarding the sleep service based on changes in sleep state information.
본 발명의 일 실시예에 따른, 수면 정보 습득 단계(S70300)의 수면 정보는 상술한 수면 환경 정보, 수면 음향 정보 또는 수면 생활 정보 중 적어도 하나 이상을 포함할 수 있다.According to an embodiment of the present invention, the sleep information in the sleep information acquisition step (S70300) may include at least one of the above-described sleep environment information, sleep sound information, or sleep life information.
본 발명의 일 실시예에 따르면, 수면 서비스 제공 단계(S70320)은 상술한 수면 콘텐츠, 수면 분석 정보 및 수면 환경 조절 서비스 중 적어도 하나 이상을 포함할 수 있다.According to an embodiment of the present invention, the sleep service provision step (S70320) may include at least one of the above-described sleep content, sleep analysis information, and sleep environment control service.
본 발명의 일 실시예에 따르면, 획득된 수면 상태 정보의 변화를 감지하는 단계(S70330)는 획득된 수면 상태 정보 변화와 제공된 수면 서비스의 대응 정보를 획득하는 단계 및 상기 획득된 대응 정보에 기초하여 수면 상태 정보 변화를 피드백으로 수집하는 단계를 포함할 수 있다. 구체적으로, 수면 서비스가 수면 환경 조절 서비스인 경우, 수면 환경이 조절되는 시점과 수면 상태 정보의 대응 정보를 획득할 수 있고, 획득된 대응 정보에 기초해서 수면 상태 정보의 변화를 피드백으로 수집할 수 있다. 예를 들어서, 수면 환경 조절 장치가 수면 환경을 변경하는 시점들에서, 수면 상태 정보가 어떻게 변화했는지에 대한 대응 정보를 획득하고, 획득된 대응 정보에 기초해서 수면 상태가 부정적으로 또는 긍정적으로 변화했는지를 피드백으로 수집할 수 있다.According to an embodiment of the present invention, the step of detecting a change in the acquired sleep state information (S70330) includes obtaining corresponding information between the change in the acquired sleep state information and the provided sleep service, and based on the obtained corresponding information. It may include collecting changes in sleep state information as feedback. Specifically, if the sleep service is a sleep environment control service, it is possible to obtain corresponding information on the time when the sleep environment is adjusted and sleep state information, and based on the obtained corresponding information, changes in sleep state information can be collected as feedback. there is. For example, at times when the sleep environment control device changes the sleep environment, corresponding information on how the sleep state information has changed is obtained, and whether the sleep state has changed negatively or positively based on the obtained response information. can be collected as feedback.
본 발명의 일 실시예에 따르면, 획득된 수면 상태 정보 변화를 감지하는 단계(S70330)는 상기 획득된 수면 상태 정보 변화가 긍정적 수면 기준 범위에 해당 하는지 판단하는 단계 및 긍정적 수면 기준 범위에 해당하는 하는 경우 긍정적인 수면 피드백으로, 상기 긍정적 수면 기준 범위에 해당하지 않는 경우 부정적인 수면 피드백으로 판단하는 단계를 포함할 수 있다. 구체적으로, 긍정적 수면 기준 범위는 상술한 사용자 수면 상태 정보에 기초하여 피드백을 획득하는 방법을 포함할 수 있다. 예를 들어서, 수면 상태 정보가 무호흡증 지수인 경우, 긍정적 수면 기준 범위는 무호흡증 지수가 일정 이하라는 범위일 수 있다. 이 경우, 획득된 수면 상태 정보의 무호흡증 지수가 긍정적 수면 기준 범위 내라면, 긍정적인 수면 피드백으로 판단할 수 있다.According to one embodiment of the present invention, the step of detecting a change in the acquired sleep state information (S70330) includes determining whether the acquired change in the sleep state information falls within a positive sleep reference range and determining whether the change in the acquired sleep state information falls within the positive sleep reference range. In this case, it may be determined as positive sleep feedback, and if it does not fall within the positive sleep standard range, it may be determined as negative sleep feedback. Specifically, the positive sleep reference range may include a method of obtaining feedback based on the user sleep state information described above. For example, if the sleep state information is an apnea index, the positive sleep standard range may be a range in which the apnea index is below a certain level. In this case, if the apnea index of the acquired sleep state information is within the positive sleep standard range, it can be determined as positive sleep feedback.
콘텐츠 생성형 인공지능 - LLM 모델Content Creation Artificial Intelligence - LLM Model
도 71은 대규모 언어 모델(Large Language Model)의 기반이 되는 Transformer모델의 구조를 설명하기 위한 도면이다.Figure 71 is a diagram to explain the structure of the Transformer model, which is the basis of a large language model.
본 발명에 있어서, 콘텐츠 생성형 인공지능은 사용자의 수면에 관한 하나 이상의 데이터 배열에 기초하여 콘텐츠를 생성할 수 있다. 콘텐츠 생성형 인공지능은 대규모 언어 모델(Large Language Model)일 수 있으나, 이에 한정되지 않는다. 예를 들어, 대규모 언어 모델(Large Language Model)은 Transformer모델 기반의 GPT(Generative Pretrained Transformer), BERT(Bidirectional Encoder Representations from Transformers)기반의 대규모 언어 모델일 수 있으나, 이에 한정되지 않는다.In the present invention, content generation artificial intelligence can generate content based on one or more data arrays regarding the user's sleep. Content generation artificial intelligence may be a large language model, but is not limited to this. For example, the large language model may be a large language model based on the Transformer model-based GPT (Generative Pretrained Transformer) or BERT (Bidirectional Encoder Representations from Transformers), but is not limited to these.
본 발명의 일실시예에 있어서, 콘텐츠 생성형 인공지능은 Transformer모델 기반의 생성형 인공지능일 수 있다. 도13에 도시된 바와 같이 Transformer모델은 인코더, 디코더로 구성될 수 있고, 주의(Attention), 자기 주의(Self-Attention), 다중 헤드 주의(Multi-Head Attention) 매커니즘을 이용할 수 있다. In one embodiment of the present invention, the content generation artificial intelligence may be a generative artificial intelligence based on the Transformer model. As shown in Figure 13, the Transformer model can be composed of an encoder and a decoder, and can use Attention, Self-Attention, and Multi-Head Attention mechanisms.
도 18에 도시된 바와 같이, 본 발명의 일실시예에 따른 Trnasformer모델은 인코더를 포함할 수 있다. 구체적으로, 인코더는 6개의 동일한 레이어로 구성될 수 있고, 각 레이어는 두 개의 서브레이어로 구성될 수 있다. 여기서, 첫 번째 서브레이어는, 다중 헤드 자기주의 매커니즘(Multi-Head Self-Attention) 매커니즘 레이어 일 수 있고, 두 번째 서브레이어는 위치별 완전 연결 피드 포워드 네트워크(Position-wise Fully Connected Feed-forward network)일 수 있다. 이를 통해서 입력되는 데이터 배열이 다른 데이터 배열과 상호작용 할 수 있도록 하여, 문장의 구조와 문맥을 더 잘 이해할 수 있다.As shown in Figure 18, the Trnasformer model according to an embodiment of the present invention may include an encoder. Specifically, the encoder may be composed of six identical layers, and each layer may be composed of two sublayers. Here, the first sublayer may be a Multi-Head Self-Attention mechanism layer, and the second sublayer may be a Position-wise Fully Connected Feed-forward network. It can be. This allows the input data array to interact with other data arrays, allowing for a better understanding of the structure and context of the sentence.
도 18에 도시된 바와 같이, 본 발명의 일실시예에 따른 Trnasformer모델은 디코더를 포함할 수 있다. 구체적으로, 디코더는 6개의 동일한 레이어로 구성될 수 있고, 각 레이어는 세 개의 서브레이어로 구성될 수 있다. 여기서, 첫 번째 서브레이어는 다중 헤드 자기주의 매커니즘(Multi-Head Self-Attention)일 수 있고, 두 번째 서브레이어는 위치별 완전 연결 피드포워드 네트워크(Position-wise Fully Connected Feed-forward network)일 수 있으며, 세 번째 서브레이어는 인코더의 출력에 대해 다중 헤드 주의(Multi-Head Attention)일 수 있다. 여기서, 첫 번째 서브레이어는 각 시점에서의 다음 토큰을 예측하기 위해서, 현재 위치 이후의 정보를 참조하지 않기 위해, 현재 위치 이후의 위치에 주의를 기울이지 않도록 하는 마스킹 과정을 거친다.As shown in Figure 18, the Trnasformer model according to an embodiment of the present invention may include a decoder. Specifically, the decoder may be composed of six identical layers, and each layer may be composed of three sublayers. Here, the first sublayer may be a Multi-Head Self-Attention mechanism, and the second sublayer may be a Position-wise Fully Connected Feed-forward network. , The third sublayer may be multi-head attention for the output of the encoder. Here, the first sublayer goes through a masking process to predict the next token at each point, not to refer to information after the current location, and not to pay attention to the location after the current location.
도 18에 도시된 바와 같이, 본 발명의 일실시예에 따른 Trnasformer모델은 주의(Attention) 매커니즘을 포함할 수 있다. 구체적으로, 쿼리와 일련의 키,값 쌍을 출력으로 매핑할 수 있다. 출력은 값의 가중치 합으로 계산되며, 각 값에 할당된 가중치는 쿼리와 해당 키의 호환성 함수에 의해서 계산될 수 있다. 주의 매커니즘은 시퀀스-투-시퀀스(sequence-to-sequnce) 모델에서 중요한 부분에 더 많은 주의를 기울이도록 훈련하는데 사용될 수 있다.As shown in FIG. 18, the Trnasformer model according to an embodiment of the present invention may include an attention mechanism. Specifically, you can map a query and a set of key, value pairs to output. The output is calculated as a weighted sum of values, and the weight assigned to each value can be calculated by the compatibility function of the query and the corresponding key. Attention mechanisms can be used to train sequence-to-sequence models to pay more attention to important parts.
도 18에 도시된 바와 같이, 본 발명의 일실시예에 따른 Transformer모델은 자기주의(Self-Attention) 매커니즘과 다중 헤드 주의(Multi-head Attention)매커니즘을 포함할 수 있다. 구체적으로, 자기주의(Self-Attention)매커니즘은 입력 시퀀스의 다른 위치에 있는 모든 토큰에 주의를 기울이기 위해서, 다른 위치에 있는 토큰들에 각각 다른 가중치를 부여하고 가중치 합을 진행할 수 있다. 구체적으로, 다중 헤드 주의(Multi-Head Attention)매커니즘은 다양한 특징을 동시에 학습하고 고려하기 위해서, 여러 개의 자기주의(Self-Attention)매커니즘 레이어를 병렬로 사용하여 각각 다른 가중치를 사용할 수 있다.As shown in FIG. 18, the Transformer model according to an embodiment of the present invention may include a self-attention mechanism and a multi-head attention mechanism. Specifically, in order to pay attention to all tokens at different positions in the input sequence, the self-attention mechanism can assign different weights to tokens at different positions and perform weight summation. Specifically, the Multi-Head Attention mechanism can use multiple Self-Attention mechanism layers in parallel and use different weights for each in order to learn and consider various features simultaneously.
본 발명의 일실시예에 있어서, 콘텐츠 생성형 인공지능은 대규모 언어 모델일 수 있고, 대규모 언어 모델은 GPT(Generative Pretrained Transformer)기반 모델 일 수 있다. 구체적으로, GPT모델은 Transformer의 더코더 부분을 활용할 수 있다. 예를 들어, 디코더를 활용함으로써, 주어진 문맥에서 다음 단어를 예측하는 방식으로 문장에 대한 학습과 출력을 처리할 수 있는데, 각 단어를 기반으로 다음 단어를 예측할 수 있다.In one embodiment of the present invention, the content generation artificial intelligence may be a large-scale language model, and the large-scale language model may be a GPT (Generative Pretrained Transformer)-based model. Specifically, the GPT model can utilize the Coder part of Transformer. For example, by using a decoder, you can process the learning and output of sentences by predicting the next word in a given context, predicting the next word based on each word.
본 발명의 일실시예에 있어서, 콘텐츠 생성형 인공지능은 대규모 언어모델일 수 있고, 대규모 언어 모델은 BERT(Bidirectional Encoder Representations from Transformers)기반 모델일 수 있다. 구체적으로, BERT모델은 Transformer의 인코더 부분을 활용할 수 있다. 예를 들어, MLM(Masked Language Model)방식으로 학습될 수 있으며, MLM방식은 일부 단어를 가리고 그 단어를 예측하는 방식의 학습방법이다. 이 경우, 문장 전체를 한 번에 처리하므로 문장의 양쪽 방향에서의 정보를 얻을 수 있고, 문장의 모든 부분에서 문맥적인 정보를 동시에 고려할 수 있으며 이를 통해서 문장의 의미를 더 정확하게 이해할 수 있다.In one embodiment of the present invention, the content generation artificial intelligence may be a large-scale language model, and the large-scale language model may be a BERT (Bidirectional Encoder Representations from Transformers)-based model. Specifically, the BERT model can utilize the encoder part of Transformer. For example, it can be learned using the MLM (Masked Language Model) method, which is a learning method that masks some words and predicts those words. In this case, the entire sentence is processed at once, so information from both sides of the sentence can be obtained, and contextual information in all parts of the sentence can be considered simultaneously, which allows for a more accurate understanding of the meaning of the sentence.
콘텐츠 생성형 인공지능 - Diffusion기반 모델Content creation artificial intelligence - diffusion-based model
도 72는 본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능에 있어서, DIFFUSION 모델의 역확산모델(Inverter Model)을 설명하기 위한 도면이다.Figure 72 is a diagram for explaining the inverter model of the DIFFUSION model in content creation artificial intelligence according to an embodiment of the present invention.
본 발명의 일실시예에 따른 콘텐츠 생성형 인공지능은 DIFFUSION 모델 기반의 생성형 인공지능일 수 있다. DIFFUSION 모델은 이미지, 음성, 텍스트 등 다양한 유형의 데이터 생성에 사용될 수 있고, 데이터의 노이즈를 점진적으로 감소시키면서 실제 데이터에 가까운 결과를 생성하도록 학습될 수 있다. 이 경우, 학습된 DIFFUSION 모델은 주어진 데이터 배열을 점진적으로 확산시키는 방식으로 작동할 수 있다.Content generation artificial intelligence according to an embodiment of the present invention may be generative artificial intelligence based on the DIFFUSION model. DIFFUSION models can be used to generate various types of data such as images, voices, and texts, and can be learned to produce results close to actual data while gradually reducing noise in the data. In this case, the learned DIFFUSION model can operate by gradually diffusing a given data array.
본 발명의 일 실시예에 따른 콘텐츠 생성형 인공지능은 DIFFUSION 모델 기반의 생성형 인공지능일 수 있다. DIFFUSION 모델은 노이즈 모델(Nosie Model)과 역확산 모델(Inverter Model)로 구성될 수 있다. 구체적으로, 노이즈 모델(Noise Model)은 초기 데이터에 노이즈를 부가하는 함수이고, 이 함수는 생성자가 시작점으로 사용할 노이즈를 생성하고 시간이 지남에 따라서 노이즈를 감소시킨다. 즉, 노이즈 모델 함수는 초기에는 노이즈가 매우 크지만, 점차적으로 데이터에 미세한 노이즈만 부가하도록 조절될 수 있다.Content generation artificial intelligence according to an embodiment of the present invention may be generative artificial intelligence based on the DIFFUSION model. The DIFFUSION model can be composed of a noise model (Nosie Model) and an inverter model. Specifically, the Noise Model is a function that adds noise to initial data. This function generates noise that the generator uses as a starting point and reduces the noise over time. In other words, the noise model function initially has very large noise, but can be gradually adjusted to add only subtle noise to the data.
본 발명의 일 실시예에 따른 콘텐츠 생성형 인공지능은 DIFFUSION 모델 기반의 생성형 인공지능일 수 있다. DIFFUSION 모델은 노이즈 모델(Nosie Model)과 역확산 모델(Inverter Model)로 구성될 수 있다. 구체적으로, 역확산 모델(Inverter Model)은 생성된 결과를 초기 데이터로 복원하는 함수이고, 이 함수는 생성자가 생성한 결과를 입력으로 하여, 초기 데이터로 되돌리는 노이즈를 제거하는 연산을 진행할 수 있다.Content generation artificial intelligence according to an embodiment of the present invention may be generative artificial intelligence based on the DIFFUSION model. The DIFFUSION model can be composed of a noise model (Nosie Model) and an inverter model. Specifically, the Inverter Model is a function that restores the generated result to the initial data. This function takes the result generated by the generator as input and can perform an operation to remove noise that returns to the initial data. .
본 발명의 일 실시예에 따른 콘텐츠 생성형 인공지능은 DIFFUSION 모델 기반의 생성형 인공지능일 수 있다. DIFFUSION 모델은 노이즈 모델(Nosie Model)과 역확산 모델(Inverter Model)로 구성될 수 있다. 구체적으로, DIFFUSION 모델은 노이즈 모델과 역확산 모델을 번갈아 가며 사용하며, 원하는 출력을 생성하는 과정에서 데이터와 노이즈 부가 및 제거 과정을 개선할 수 있다. 예를 들어서, DIFFUSION 모델에서 사용하는 노이즈는 학습 초기에는 무작위한 노이즈를 사용할 수 있지만, 훈련을 통해서 실제 데이터와 유사한 출력을 생성할 수 있다. DIFFUSION 모델은 노이즈의 부가와 제거의 학습을 통해서 데이터 생성, 이미지 복원, 이미지 편집 등 다양한 분야에서 사용될 수 있다. Content generation artificial intelligence according to an embodiment of the present invention may be generative artificial intelligence based on the DIFFUSION model. The DIFFUSION model can be composed of a noise model (Nosie Model) and an inverter model. Specifically, the DIFFUSION model alternately uses a noise model and a de-diffusion model, and can improve the process of adding and removing data and noise in the process of generating the desired output. For example, the noise used in the DIFFUSION model may be random noise at the beginning of learning, but through training, it can generate output similar to actual data. The DIFFUSION model can be used in various fields such as data generation, image restoration, and image editing through learning to add and remove noise.
콘텐츠 생성형 인공지능 - GAN기반 모델Content creation artificial intelligence - GAN-based model
도 73은 본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능에 있어서, GAN(Generative Adversarial Network)의 생성자(Generator)와 판별자(Discriminator)를 설명하기 위한 도면이다.Figure 73 is a diagram for explaining the generator and discriminator of a GAN (Generative Adversarial Network) in content generation artificial intelligence according to an embodiment of the present invention.
본 발명의 일실시예에 따른 콘텐츠 생성형 인공지능은 GAN(Generative Adversarial Network)모델 기반의 생성형 인공지능일 수 있다. GAN 모델은 생성자(Generator)와 판별자(Discriminator)를 포함할 수 있다. GAN 모델은 이미지, 음성, 텍스트 등 다양한 유형의 데이터 생성에 사용될 수 있고, 실제 데이터와 유사한 출력을 생성할 수 있도록 학습될 수 있다.Content generation artificial intelligence according to an embodiment of the present invention may be generative artificial intelligence based on a GAN (Generative Adversarial Network) model. A GAN model may include a generator and a discriminator. GAN models can be used to generate various types of data such as images, voices, and texts, and can be trained to generate output similar to real data.
본 발명의 일실시예에 따른 콘텐츠 생성형 인공지능은 GAN(Generative Adversarial Network)모델 기반의 생성형 인공지능일 수 있다. GAN 모델은 생성자(Generator)를 포함할 수 있다. 구체적으로, 생성자는 주어진 랜덤 벡터 노이즈를 입력으로 받아 실제 데이터와 유사한 가짜 데이터를 생성할 수 있고, 초기에는 무작위한 출력을 생성하며 훈련 과정에서 실제 데이터와 구분하기 어렵도록 능력을 향상될 수 있다. 구체적으로, 생성자는 판별자를 더 잘 속이도록 학습될 수 있다.Content generation artificial intelligence according to an embodiment of the present invention may be generative artificial intelligence based on a GAN (Generative Adversarial Network) model. A GAN model may include a generator. Specifically, the generator can receive a given random vector noise as input and generate fake data similar to real data, initially generate random output, and improve its ability to make it difficult to distinguish from real data during the training process. Specifically, the generator can be learned to better fool the discriminator.
본 발명의 일실시예에 따른 콘텐츠 생성형 인공지능은 GAN(Generative Adversarial Network)모델 기반의 생성형 인공지능일 수 있다. GAN 모델은 판별자(Discriminator)를 포함할 수 있다. 구체적으로, 판별자는 생성자로부터 생성된 가짜 데이터와 실제 데이터를 구분하는 분류기 역할을 수행할 수 있다. 구체적으로, 판별자는 생성자로부터 생성된 가짜 데이터와 실제 데이터를 구분하여 정확한 예측을 할 수 있도록 학습될 수 있다. 구체적으로, 판별자는 생성자가 생성한 가짜 데이터를 실제 데이터와 더 잘 구분할 수 있도록 학습될 수 있다.Content generation artificial intelligence according to an embodiment of the present invention may be generative artificial intelligence based on a GAN (Generative Adversarial Network) model. The GAN model may include a discriminator. Specifically, the discriminator can serve as a classifier that distinguishes between fake data generated from a generator and real data. Specifically, the discriminator can be trained to make accurate predictions by distinguishing between fake data generated from the generator and real data. Specifically, the discriminator can be trained to better distinguish fake data generated by the generator from real data.
본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능은 대규모 언어 모델, DIFFUSION 모델 및 GAN 모델 중 하나 이상의 조합일 수 있으나, 이에 한정되지 않는다.The content generation artificial intelligence according to an embodiment of the present invention may be a combination of one or more of a large-scale language model, a DIFFUSION model, and a GAN model, but is not limited thereto.
본 발명에 일실시예에 따른 콘텐츠 생성형 인공지능은 대규모 언어 모델, DIFFUSION 모델 및 GAN 모델 중 하나 이상의 조합에 기반한 생성형 인공지능 일 수 있으나, 이에 한정되지 않는다.Content generation artificial intelligence according to an embodiment of the present invention may be generative artificial intelligence based on a combination of one or more of a large-scale language model, a DIFFUSION model, and a GAN model, but is not limited thereto.
상술한 콘텐츠 생성형 인공지능은 본 발명의 실시예에 따른 생성형 인공지능 모델이며, 이에 한정되지 않는다.The content-generating artificial intelligence described above is a generative artificial intelligence model according to an embodiment of the present invention, and is not limited thereto.

Claims (20)

  1. 사용자의 수면에 관한 평가를 나타내는 그래픽 사용자 인터페이스를 생성하는 방법으로서,A method for creating a graphical user interface representing an evaluation of a user's sleep, comprising:
    하나 이상의 수면 정보 센서 장치로부터 수면 정보를 습득하는 - 상기 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계;Acquiring sleep information from one or more sleep information sensor devices - the sleep information includes sleep sound information of the user - acquiring sleep information;
    상기 습득된 수면 정보에 기초하여 사용자의 수면에 관한 평가를 나타내는 적어도 두 개의 단어를 포함하는 수면 문구를 생성하는 수면 문구 생성 단계; 및A sleep phrase generation step of generating a sleep phrase including at least two words representing an evaluation of the user's sleep based on the acquired sleep information; and
    상기 생성된 문구를 포함하는 그래픽 유저 인터페이스를 디스플레이하는 단계를 포함하고,comprising displaying a graphical user interface including the generated phrase,
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법.A method of creating one or more graphical user interfaces representing an evaluation of a user's sleep.
  2. 제 1 항에 있어서,According to claim 1,
    상기 수면 문구 생성 단계는,The sleep phrase creation step is,
    상기 사용자의 수면에 관한 평가 중 주목성이 높은 텍스트를 생성하는, 제1 수면 문구 생성 단계; 및A first sleep phrase generation step of generating a text of high interest during evaluation of the user's sleep; and
    상기 사용자의 수면에 관한 평가를 구성하는 텍스트를 생성하는, 제2 수면 문구 생성 단계를 포함하는A second sleep phrase generating step of generating text constituting an evaluation of the user's sleep.
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법.A method of creating one or more graphical user interfaces representing an evaluation of a user's sleep.
  3. 제 2 항에 있어서,According to claim 2,
    상기 수면 문구 생성 단계는,The sleep phrase creation step is,
    상기 사용자 수면에 관한 평가에 기초하여 조언 텍스트를 생성하는, 제3 수면 문구 생성 단계를 포함하는,A third sleep phrase generation step, generating advice text based on the evaluation of the user's sleep,
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법.A method of creating one or more graphical user interfaces representing an evaluation of a user's sleep.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3,
    상기 수면 문구 생성 단계는,The sleep phrase creation step is,
    룩업테이블에 기초하여 상기 수면 문구를 추출하는 룩업테이블 수면 문구 추출 단계;a lookup table sleep phrase extraction step of extracting the sleep phrase based on a lookup table;
    를 더 포함하는,Containing more,
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법.A method of creating one or more graphical user interfaces representing an evaluation of a user's sleep.
  5. 제 4 항에 있어서,According to claim 4,
    상기 룩업테이블 수면 문구 추출 단계는,The lookup table sleep phrase extraction step is,
    상기 수면 정보에 기초하여, 사용자의 수면의 특성을 분류하는, 룩업테이블 사용자 수면 특성 분류 단계; 및A lookup table user sleep characteristics classification step of classifying the user's sleep characteristics based on the sleep information; and
    상기 사용자 수면 특성에 대응되는 상기 룩업테이블에 기초한 수면 문구를 추출하는 단계;extracting a sleep phrase based on the lookup table corresponding to the user sleep characteristics;
    를 포함하는,Including,
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법A method for creating one or more graphical user interfaces representing ratings of a user's sleep.
  6. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3,
    상기 수면 문구 생성 단계는,The sleep phrase creation step is,
    대규모 언어 모델에 기초하여 상기 수면 문구를 생성하는, 대규모 언어 모델 수면 문구 생성 단계;a large-scale language model sleep phrase generation step, generating the sleep phrase based on a large-scale language model;
    를 더 포함하는containing more
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법.A method of creating one or more graphical user interfaces representing an evaluation of a user's sleep.
  7. 제 6 항에 있어서,According to claim 6,
    상기 대규모 언어 모델 수면 문구 생성 단계는,The large-scale language model sleep phrase generation step is,
    상기 수면 정보에 기초하여, 사용자의 수면의 특성을 분류하는, 대규모 언어 모델 사용자 수면 특성 분류 단계; 및A large-scale language model user sleep characteristic classification step of classifying the user's sleep characteristics based on the sleep information; and
    상기 사용자 수면 특성을 상기 대규모 언어 모델의 입력으로 하여 수면 문구를 생성하는 단계;generating a sleep phrase by using the user sleep characteristics as input to the large-scale language model;
    를 포함하는,Including,
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법.A method of creating one or more graphical user interfaces representing an evaluation of a user's sleep.
  8. 제 1 항에 있어서,According to claim 1,
    상기 수면 정보 습득 단계는,The sleep information acquisition step is,
    시간 도메인 상의 상기 사용자의 수면 음향 정보를 주파수 도메인상의 정보로 변환하는 수면 정보 변환 단계;A sleep information conversion step of converting the user's sleep sound information in the time domain into information in the frequency domain;
    를 더 포함하는,Containing more,
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법.A method of creating one or more graphical user interfaces representing an evaluation of a user's sleep.
  9. 제 1 항 또는 제 8 항에 있어서,According to claim 1 or 8,
    상기 수면 정보 습득 단계는,The sleep information acquisition step is,
    수면 음향 정보를 수면 정보 추론 딥러닝 모델의 입력으로 하여, 수면에 대한 정보를 추론하는, 수면 정보 추론 단계를 더 포함하는 것을 특징으로 하는,Characterized by further comprising a sleep information inference step in which information about sleep is inferred by using sleep sound information as an input to a sleep information inference deep learning model,
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법.A method of generating one or more graphical user interfaces representing an assessment of a user's sleep.
  10. 제 1 항에 있어서,According to claim 1,
    상기 수면 정보는 수면 환경 정보 또는 사용자의 생활 정보를 포함하는, The sleep information includes sleep environment information or user's life information,
    사용자의 수면에 관한 평가를 나타내는 하나 이상의 그래픽 사용자 인터페이스를 생성하는 방법.A method of creating one or more graphical user interfaces representing an evaluation of a user's sleep.
  11. 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법으로서,A method of providing a graphical user interface representing information about a user's sleep, comprising:
    하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 정보를 습득하는 - 상기 사용자의 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계;Acquiring the user's sleep information from one or more sleep information sensor devices - the user's sleep information includes the user's sleep sound information - a sleep information acquisition step;
    상기 습득된 사용자의 수면 정보에 기초하여 실시간으로 사용자의 수면 상태 정보를 획득하는 - 상기 사용자의 수면 상태 정보는 복수의 수면 단계 정보를 포함한다 - 수면 상태 정보 획득 단계;Acquiring sleep state information of the user in real time based on the acquired sleep information of the user - the sleep state information of the user includes a plurality of sleep stage information - acquiring sleep state information;
    상기 획득된 수면 상태 정보에 기초하여 시간에 따른 사용자의 수면 상태 정보를 나타내는 그래프를 생성하는 수면 상태 정보 그래프 생성 단계; 및A sleep state information graph generating step of generating a graph representing the user's sleep state information over time based on the obtained sleep state information; and
    상기 생성된 그래프를 포함하는 그래픽 사용자 인터페이스를 디스플레이하는 단계;displaying a graphical user interface including the generated graph;
    를 포함하는,Including,
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
  12. 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법으로서,A method of providing a graphical user interface representing information about a user's sleep, comprising:
    하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 정보를 습득하는 - 상기 사용자의 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계;Acquiring the user's sleep information from one or more sleep information sensor devices - the user's sleep information includes the user's sleep sound information - a sleep information acquisition step;
    상기 습득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 획득하는 - 상기 사용자의 수면 상태 정보는 복수의 수면 단계 정보를 포함한다 - 수면 상태 정보 획득 단계;Acquiring sleep state information of the user based on the acquired sleep information of the user - the sleep state information of the user includes a plurality of sleep stage information - acquiring sleep state information;
    상기 획득된 수면 상태 정보에 기초하여 시간에 따른 사용자의 수면 상태 정보를 나타내는 그래프를 생성하는 - 상기 그래프는 복수의 직사각형을 포함한다 - 수면 상태 정보 그래프 생성 단계; 및A sleep state information graph generating step of generating a graph representing the user's sleep state information over time based on the obtained sleep state information, the graph including a plurality of rectangles; and
    상기 생성된 그래프를 포함하는 그래픽 사용자 인터페이스를 디스플레이하는 단계;displaying a graphical user interface including the generated graph;
    를 포함하는,Including,
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
  13. 제 12 항에 있어서,According to claim 12,
    상기 수면 상태 정보 그래프는 각각이 상기 복수의 수면 단계 각각에 대응되는 복수의 직사각형을 포함하는,The sleep state information graph includes a plurality of rectangles each corresponding to each of the plurality of sleep stages,
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
  14. 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법으로서,A method of providing a graphical user interface representing information about a user's sleep, comprising:
    하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 정보를 습득하는 - 상기 사용자의 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계;Acquiring the user's sleep information from one or more sleep information sensor devices - the user's sleep information includes the user's sleep sound information - a sleep information acquisition step;
    상기 습득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 획득하는 - 상기 사용자의 수면 상태 정보는 복수의 수면 단계 정보를 포함한다 - 수면 상태 정보 획득 단계;Acquiring sleep state information of the user based on the acquired sleep information of the user - the sleep state information of the user includes a plurality of sleep stage information - acquiring sleep state information;
    상기 획득된 수면 상태 정보에 기초하여 시간에 따른 사용자의 수면 상태 정보를 나타내는 그래프를 생성하는 - 상기 사용자의 수면 상태 정보를 나타내는 그래프는 수면 상태 정보를 이산적으로(discretely) 표현한다 - 수면 상태 정보 그래프 생성 단계; 및Generating a graph representing the user's sleep state information over time based on the obtained sleep state information - The graph representing the user's sleep state information discretely expresses the sleep state information - Sleep state information Graph creation step; and
    상기 생성된 그래프를 포함하는 그래픽 사용자 인터페이스를 디스플레이하는 단계;displaying a graphical user interface including the generated graph;
    를 포함하는,Including,
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
  15. 제 14 항에 있어서,According to claim 14,
    상기 수면 상태 정보 그래프는 각각이 상기 복수의 수면 단계 각각에 대응되며 서로 이산된 복수의 도형을 포함하는,The sleep state information graph each corresponds to each of the plurality of sleep stages and includes a plurality of discrete shapes.
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
  16. 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법으로서,A method of providing a graphical user interface representing information about a user's sleep, comprising:
    하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 정보를 습득하는 - 상기 사용자의 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계;Acquiring the user's sleep information from one or more sleep information sensor devices - the user's sleep information includes the user's sleep sound information - a sleep information acquisition step;
    상기 습득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 획득하는 - 상기 사용자의 수면 상태 정보는 복수의 수면 단계 정보를 포함한다 - 수면 상태 정보 획득 단계;Acquiring sleep state information of the user based on the acquired sleep information of the user - the sleep state information of the user includes a plurality of sleep stage information - acquiring sleep state information;
    상기 획득된 수면 상태 정보에 기초하여 시간에 따른 사용자의 수면 상태 정보를 나타내는 그래프를 생성하는 - 상기 그래프는 복수의 직사각형을 포함한다 - 수면 상태 정보 그래프 생성 단계; 및A sleep state information graph generating step of generating a graph representing the user's sleep state information over time based on the obtained sleep state information, the graph including a plurality of rectangles; and
    상기 생성된 그래프를 포함하는 그래픽 사용자 인터페이스를 디스플레이하는 단계;displaying a graphical user interface including the generated graph;
    를 포함하고,Including,
    상기 수면 상태 정보 그래프는 각각이 상기 복수의 수면 단계 각각에 대응되는 복수의 직사각형을 포함하고,The sleep state information graph includes a plurality of rectangles each corresponding to each of the plurality of sleep stages,
    상기 그래픽 사용자 인터페이스는 각각이 상기 복수의 수면 단계 각각에 할당된 복수의 영역을 포함하고,the graphical user interface includes a plurality of regions each assigned to each of the plurality of sleep stages,
    상기 수면 상태 정보 그래프에 포함되는 상기 복수의 직사각형 각각은 상기 복수의 영역중 대응되는 수면 단계에 할당된 영역에만 표시되는,Each of the plurality of rectangles included in the sleep state information graph is displayed only in an area allocated to a corresponding sleep stage among the plurality of areas,
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
  17. 제 16 항에 있어서,According to claim 16,
    상기 그래픽 사용자 인터페이스에 포함된 복수의 영역 간의 경계 중 적어도 하나 이상이 선으로 구별되도록 표현되는,At least one of the boundaries between a plurality of areas included in the graphical user interface is expressed as a line,
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
  18. 사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법으로서,A method of providing a graphical user interface representing information about a user's sleep, comprising:
    하나 이상의 수면 정보 센서 장치로부터 사용자의 수면 정보를 습득하는 - 상기 사용자의 수면 정보는 사용자의 수면 음향 정보를 포함한다 - 수면 정보 습득 단계;Acquiring the user's sleep information from one or more sleep information sensor devices - the user's sleep information includes the user's sleep sound information - a sleep information acquisition step;
    상기 습득된 사용자의 수면 정보에 기초하여 사용자의 수면 상태 정보를 획득하는 - 상기 사용자의 수면 상태 정보는 복수의 수면 단계 정보를 포함한다 - 수면 상태 정보 획득 단계;Acquiring sleep state information of the user based on the acquired sleep information of the user - the sleep state information of the user includes a plurality of sleep stage information - acquiring sleep state information;
    상기 획득된 수면 상태 정보에 기초하여 시간에 따른 사용자의 수면 상태 정보를 나타내는 그래프를 생성하는 - 상기 그래프는 각각이 복수의 수면 단계에 대응되는 복수의 도형을 포함하되, 상기 복수의 도형 중 적어도 하나의 도형은 나머지 도형들과 분리(isolated)되어 있다 - 수면 상태 정보 그래프 생성 단계; 및Generating a graph representing the user's sleep state information over time based on the obtained sleep state information - the graph includes a plurality of shapes each corresponding to a plurality of sleep stages, and at least one of the plurality of shapes The shape is isolated from the rest of the shapes - Sleep state information graph generation step; and
    상기 생성된 그래프를 포함하는 그래픽 사용자 인터페이스를 디스플레이하는 단계;displaying a graphical user interface including the generated graph;
    를 포함하는,Including,
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
  19. 제 11 항 내지 제 18 항 중 어느 한 항에 있어서,The method according to any one of claims 11 to 18,
    상기 수면 상태 정보 획득 단계;는The step of obtaining sleep state information;
    상기 습득된 수면 정보에 포함된 시간 도메인상의 음향 정보를 주파수 도메인상의 정보로 변환하고,Converting the acoustic information on the time domain included in the acquired sleep information to information on the frequency domain,
    상기 변환된 주파수 도메인상의 정보에 기초하여 사용자의 상기 수면 상태 정보를 획득하는 것을 특징으로 하는,Characterized in obtaining the sleep state information of the user based on the information on the converted frequency domain,
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
  20. 제 19 항에 있어서,According to claim 19,
    상기 수면 상태 정보 획득 단계;에서 상기 변환된 주파수 도메인상의 정보는 스펙트로그램인 것을 특징으로 하는,In the step of obtaining sleep state information, the converted information on the frequency domain is a spectrogram,
    사용자의 수면에 관한 정보를 나타내는 그래픽 사용자 인터페이스를 제공하는 방법.A method of providing a graphical user interface representing information regarding a user's sleep.
PCT/KR2023/016512 2022-11-01 2023-10-23 Method for providing graphical user interface representing information or evaluation of user's sleep WO2024096419A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020237044063A KR20240065214A (en) 2022-11-01 2023-10-23 Method for providing a graphical user interface representing information or evaluation of a sleep of user
KR1020237044152A KR20240065215A (en) 2022-11-01 2023-10-23 Method for providing a graphical user interface representing information or evaluation of a sleep of user
KR1020237041712A KR20240065211A (en) 2022-11-01 2023-10-23 Method for providing a graphical user interface that displays information or evaluation of the user's sleep

Applications Claiming Priority (24)

Application Number Priority Date Filing Date Title
KR10-2022-0143598 2022-11-01
KR20220143598 2022-11-01
KR10-2023-0038894 2023-03-24
KR20230038894 2023-03-24
KR20230063097 2023-05-16
KR10-2023-0063097 2023-05-16
KR10-2023-0068443 2023-05-26
KR20230068443 2023-05-26
KR10-2023-0071935 2023-06-02
KR20230071935 2023-06-02
KR20230073194 2023-06-07
KR10-2023-0073194 2023-06-07
KR10-2023-0081202 2023-06-23
KR20230081202 2023-06-23
KR10-2023-0090108 2023-07-11
KR20230090108 2023-07-11
KR10-2023-0098507 2023-07-27
KR20230098507 2023-07-27
KR10-2023-0103710 2023-08-08
KR20230103710 2023-08-08
KR20230107174 2023-08-16
KR10-2023-0107174 2023-08-16
KR20230141493 2023-10-20
KR10-2023-0141493 2023-10-20

Publications (1)

Publication Number Publication Date
WO2024096419A1 true WO2024096419A1 (en) 2024-05-10

Family

ID=90930908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/016512 WO2024096419A1 (en) 2022-11-01 2023-10-23 Method for providing graphical user interface representing information or evaluation of user's sleep

Country Status (2)

Country Link
KR (1) KR20240065211A (en)
WO (1) WO2024096419A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016042914A (en) * 2014-08-20 2016-04-04 株式会社北電子 Sleep information display control program, sleep information display device, and sleep information display method
KR20180014417A (en) * 2016-07-29 2018-02-08 연세대학교 원주산학협력단 Classification of Sleep/Wakefulness using Nasal Pressure for Patients with Sleep-disordered Breathing
JP2019063200A (en) * 2017-09-29 2019-04-25 特定非営利活動法人睡眠健康研究所 Respiration evaluation system, analysis system, and program
KR102406157B1 (en) * 2015-09-03 2022-06-10 삼성전자주식회사 User equipment and sleep managing method
KR102440214B1 (en) * 2020-09-10 2022-09-05 경상국립대학교산학협력단 Sleep Quality Improvement Method Using Biological Information and System Therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016042914A (en) * 2014-08-20 2016-04-04 株式会社北電子 Sleep information display control program, sleep information display device, and sleep information display method
KR102406157B1 (en) * 2015-09-03 2022-06-10 삼성전자주식회사 User equipment and sleep managing method
KR20180014417A (en) * 2016-07-29 2018-02-08 연세대학교 원주산학협력단 Classification of Sleep/Wakefulness using Nasal Pressure for Patients with Sleep-disordered Breathing
JP2019063200A (en) * 2017-09-29 2019-04-25 特定非営利活動法人睡眠健康研究所 Respiration evaluation system, analysis system, and program
KR102440214B1 (en) * 2020-09-10 2022-09-05 경상국립대학교산학협력단 Sleep Quality Improvement Method Using Biological Information and System Therefor

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HAI HONG TRAN: "Prediction of Sleep Stages Via Deep Learning Using Smartphone Audio Recordings in Home Environments: Model Development and Validation", JOURNAL OF MEDICAL INTERNET RESEARCH, JMIR PUBLICATIONS, CA, vol. 25, 1 June 2023 (2023-06-01), CA , pages e46216, XP093159265, ISSN: 1438-8871, DOI: 10.2196/46216 *
HONG JOONKI, HAI TRAN, JINHWAN JEONG, HYERYUNG JANG, IN-YOUNG YOON, JUNG KYUNG HONG, JEONG-WHUN KIM: "0348 SLEEP STAGING USING END-TO-END DEEP LEARNING MODEL BASED ON NOCTURNAL SOUND FOR SMARTPHONES", SLEEP, vol. 45, no. Suppl 1, 25 May 2022 (2022-05-25), pages A156, XP093131680, DOI: 10.1101/2021.10.13.21264974 *
HONG JUNG KYUNG, LEE TAEYOUNG, DELOS REYES ROBEN DEOCAMPO, HONG JOONKI, TRAN HAI HONG, LEE DONGHEON, JUNG JINHWAN, YOON IN-YOUNG: "Confidence-Based Framework Using Deep Learning for Automated Sleep Stage Scoring", NATURE AND SCIENCE OF SLEEP, DOVE MEDICAL PRESS, vol. Volume 13, 1 January 2021 (2021-01-01), pages 2239 - 2250, XP093131678, ISSN: 1179-1608, DOI: 10.2147/NSS.S333566 *
KIM JONGMOK, KIM DAEWOO, CHO EUNSUNG, TRAN HAI HONG, HONG JOONKI, LEE DONGHEON, HONG JUNGKYUNG, YOON IN-YOUNG, KIM JEONG-WHUN, JAN: "SOUND-BASED SLEEP STAGING BY EXPLOITING REAL-WORLD UNLABELED DATA", ICLR 2023, 2 March 2023 (2023-03-02), pages 1 - 7, XP093131686 *
LE VU LINH, KIM DAEWOO, CHO EUNSUNG, JANG HYERYUNG, REYES ROBEN DELOS, KIM HYUNGGUG, LEE DONGHEON, YOON IN-YOUNG, HONG JOONKI, KIM: "Real-Time Detection of Sleep Apnea Based on Breathing Sounds and Prediction Reinforcement Using Home Noises: Algorithm Development and Validation", JOURNAL OF MEDICAL INTERNET RESEARCH, JMIR PUBLICATIONS, CA, vol. 25, 22 February 2023 (2023-02-22), CA , pages e44818, XP093131684, ISSN: 1438-8871, DOI: 10.2196/44818 *

Also Published As

Publication number Publication date
KR20240065211A (en) 2024-05-14

Similar Documents

Publication Publication Date Title
WO2017146524A1 (en) Aparatus and method for assessing heart failure
WO2023128713A1 (en) Method, computing apparatus, and computer program for analyzing sleeping state of user through sound information
WO2017146515A1 (en) Sensor assisted evaluation of health and rehabilitation
WO2016080804A1 (en) Apparatus for measuring bioelectrical signals
WO2020235696A1 (en) Artificial intelligence apparatus for interconverting text and speech by considering style, and method for same
WO2016200233A1 (en) Method and apparatus for controlling temperature adjustment device
WO2019172667A1 (en) Sleeping environment control device using reinforcement learning
WO2016068581A1 (en) Device and method of managing user information based on image
WO2017171356A1 (en) Method for positioning video, terminal apparatus and cloud server
WO2019027240A1 (en) Electronic device and method for providing search result thereof
WO2020204221A1 (en) Air conditioner
WO2016175607A1 (en) Mobile device and method for changing content display of mobile device
WO2018084576A1 (en) Electronic device and controlling method thereof
Pandey et al. Emotional state recognition with eeg signals using subject independent approach
WO2019240513A1 (en) Method and apparatus for providing biometric information by electronic device
WO2020230933A1 (en) Artificial intelligence device for recognizing voice of user and method for same
WO2018056749A1 (en) Foldable virtual reality device
US11850055B2 (en) Electroencephalographic data analysis system, information processing terminal, electronic device, and method of presenting information for dementia examination
AU2018310111B2 (en) Electronic device and method for providing search result thereof
WO2019031869A1 (en) Learning situation determining method, and apparatus for performing the method
WO2024096419A1 (en) Method for providing graphical user interface representing information or evaluation of user's sleep
WO2020122293A1 (en) Laundry scheduling apparatus
WO2023146271A1 (en) Ai-based non-contact sleep analysis method and real-time sleep environment creation method
WO2024019567A1 (en) Method, apparatus, and computer program for generating sleep analysis model predicting sleep state on the basis of sound information
WO2023075253A1 (en) Electronic device for sleep monitoring and operation method thereof