WO2022005027A1 - 전자 장치와 연결된 히어러블 장치 및 이의 동작 방법 - Google Patents

전자 장치와 연결된 히어러블 장치 및 이의 동작 방법 Download PDF

Info

Publication number
WO2022005027A1
WO2022005027A1 PCT/KR2021/006739 KR2021006739W WO2022005027A1 WO 2022005027 A1 WO2022005027 A1 WO 2022005027A1 KR 2021006739 W KR2021006739 W KR 2021006739W WO 2022005027 A1 WO2022005027 A1 WO 2022005027A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
user
hearable
posture
hearable device
Prior art date
Application number
PCT/KR2021/006739
Other languages
English (en)
French (fr)
Inventor
이원희
진서영
최재혁
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2022005027A1 publication Critical patent/WO2022005027A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C19/00Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones

Definitions

  • Various embodiments of the present document relate to a hearable device connected to an electronic device and an operating method thereof.
  • a posture that continuously stares at the screen for a long time is an inappropriate posture that causes musculoskeletal disorders around the neck.
  • a posture in which the head is forward or bowed down to gaze at a book, a smart device, a monitor, etc. may sharply increase the load applied to the neck.
  • FHP forward head posture
  • turtle neck syndrome text neck syndrome or turtle neck syndrome
  • Judgment of neck musculoskeletal disorders should be measured in a sitting or standing posture for a long time.
  • the user can check the user's cervical spine state by wearing a headset including sensors capable of sensing motion, but there is a limit to measuring the user's posture in the real life of the user in that a separate device must be worn. have.
  • the hearable device while the hearable device is worn by the user, determine whether to check the posture based on the user's state information, and provide information on the user's posture, the hearable device and its operation method can be provided.
  • a hearable device includes at least one sensor and at least one processor, wherein the at least one processor is configured to include the hearable device based on first data obtained through the at least one sensor. check the status information of the user wearing the The information on the posture of the user may be checked based on the third data, and when the information on the posture satisfies the first condition, a notification may be provided.
  • a method of operating a hearable device including at least one sensor includes checking state information of a user wearing the hearable device based on first data acquired through the at least one sensor operation, checking a personalization parameter corresponding to the user based on second data obtained through the at least one sensor, the user based on the personalization parameter and third data obtained through the at least one sensor It may include an operation of confirming information on the posture of , and an operation of providing a notification when the information on the posture satisfies the first condition.
  • an electronic device includes a display, a communication circuit, and at least one processor, wherein the at least one processor is configured to receive from a hearable device having a short-range communication connection with the electronic device through the communication circuit.
  • the stored personalization parameter is transferred to the hearable device through the communication circuit transmit to the device, receive a notification signal confirmed based on the transmitted personalization parameter from the hearable device through the communication circuit, and provide a notification based on receiving the notification signal.
  • a hearable device capable of determining whether to check a posture based on the user's state information and providing information about the user's posture, and an operating method thereof may be provided.
  • an electronic device capable of confirming information on a user's posture and an operating method thereof may be provided. Accordingly, even if the user does not wear a separate device, by wearing the hearable device used by the user in daily life, the user may be provided with information about the posture.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure
  • FIG. 2A is a perspective view of a hearable device according to various embodiments of the present disclosure.
  • FIG. 2B is a block diagram of a hearable device according to various embodiments.
  • 3 is a view for explaining a load applied to the neck according to the posture.
  • FIG. 4 is a flowchart illustrating a method of operating a hearable device according to various embodiments of the present disclosure.
  • FIG. 5 is a flowchart illustrating a method of operating a hearable device according to various embodiments of the present disclosure.
  • FIG. 6 is a flowchart illustrating a method of operating a hearable device according to various embodiments of the present disclosure.
  • FIG. 7 is a view for explaining information on posture according to various embodiments of the present disclosure.
  • FIG. 8 is a diagram for explaining information on posture according to various embodiments of the present disclosure.
  • FIG. 9 is a view for explaining information on posture according to various embodiments of the present disclosure.
  • FIG. 10 is a diagram for explaining information on posture according to various embodiments of the present disclosure.
  • FIG. 11 is a flowchart illustrating a method of operating an electronic device according to various embodiments of the present disclosure
  • FIG. 12 is a diagram for explaining a notification provided by an electronic device according to various embodiments of the present disclosure.
  • FIG. 13 is a view for explaining a stretching image provided by an electronic device according to various embodiments of the present disclosure.
  • FIG. 14 is a diagram for describing a health management program provided by an electronic device according to various embodiments of the present disclosure
  • FIG. 15 is a flowchart illustrating a method of operating a hearable device and an electronic device according to various embodiments of the present disclosure
  • FIG. 16 is a diagram for describing a hearable device and an electronic device that receives and outputs a signal from the hearable device according to various embodiments of the present disclosure
  • FIG. 17 is a flowchart illustrating a method of operating a hearable device according to various embodiments of the present disclosure
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the co-processor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. have.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 , or an external electronic device (eg, a sound output module 155 ) connected directly or wirelessly with the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • the hearable device 200 is a hearable device capable of short-range wireless communication connection with an external electronic device, and includes a housing 201 including a wingtip, and a portion of the housing 201 It may include the disposed touch pad 202 , a microphone 203 , a charging terminal 204 , a sound output module 205 , and a wear detection sensor 206 .
  • the hearable device 200 is not limited as long as it is a device capable of outputting sound.
  • the housing 201 may have a shape that can be worn on a user's ear.
  • the housing 201 may include an ear tip inserted into the user's ear hole, and a wing tip connected to the ear tip and positioned at the pinna.
  • the touch pad 202 may receive an input from a user for manipulating the hearable device 200 and may transmit a signal according to the touch input to a processor (eg, the processor 210 of FIG. 2B ).
  • the microphone 203 may include at least one microphone, may detect a sound such as a user's voice or an external sound, and transmit a signal according to the sensed sound to a processor (eg, the processor 210 of FIG. 2B ).
  • the charging terminal 204 may contact a charging terminal of a case (not shown) of the hearable device 200 to charge the battery of the hearable device 200 .
  • the wear detection sensor 206 may include a proximity sensor. For example, when the user wears the hearable device 200 , it may be detected that the user wears the hearable device 200 by being close to the user's pinna.
  • the proximity sensor may include an optical proximity sensor including a light emitting unit and a light receiving unit or an ultrasonic proximity sensor using ultrasonic waves.
  • the wear detection sensor 206 further includes a motion detection sensor (eg, a gyro sensor) that detects a movement and/or a touch detection sensor (eg, a touch sensor, a touch sensor) that detects a contact,
  • a motion detection sensor eg, a gyro sensor
  • a touch detection sensor eg, a touch sensor, a touch sensor
  • a motion detection sensor and/or a touch detection sensor may be selectively or additionally used to detect the user's wear of the hearable device 200 .
  • the hearable device 200 may detect whether the user actually wears the hearable device 200 using a contact sensor.
  • the hearable device 200 may include a hearable device 200 - 1 and a hearable device 200 - 2 .
  • the hearable device 200 may refer to only one of the hearable device 200-1 and the hearable device 200-2, or the hearable device 200-1. and a pair of the hearable device 200 - 2 .
  • the hearable device 200 may include a processor 210 , a sensor 220 , a communication circuit 230 , a sound output module 240 , a battery 250 , and a memory 260 . have.
  • the processor 210 executes software (eg, a program) to the hearable device 200 connected to the processor 210 (eg, the processor 120 ).
  • software eg, a program
  • the processor 210 may control at least one other component (eg, a hardware or software component) of
  • the processor 210 may check the state information of the user wearing the hearable device 200 based on first data acquired through at least one sensor.
  • the at least one sensor may include, for example, an acceleration sensor.
  • the first data may be data related to the movement of the hearable device 200
  • the user's state information may be information indicating whether the hearable device is in a moving state or a static state.
  • the user's state information may further include information indicating whether the user's posture is a sitting or standing state, an oblique or a lying state.
  • the processor 210 may check whether the user's state information satisfies a specified condition.
  • the processor 210 may determine that a specified condition is satisfied when the user's state is a static state. In addition, when the user's state is a static and sitting or standing state, it can be confirmed that the specified condition is satisfied.
  • the processor 210 eg, the processor 120
  • the processor 210 may check whether the user's state information satisfies a specified condition based on data related to the motion of the hearable device 200 , but there is a limit to the user's state information recognition algorithm. none.
  • the processor 210 acquires data through at least one sensor, and based on the acquired data
  • the operation of checking the user's status information can be repeatedly performed.
  • the processor 210 when it is confirmed that the user's state information satisfies a specified condition, responds to the user based on the second data acquired through at least one sensor. You can check the personalization parameters.
  • the at least one sensor may include an acceleration sensor, and may further include a gyro sensor.
  • the processor 210 eg, the processor 120
  • the accelerometer and the gyro sensor may sense data associated with a moved speed, a rotated degree, and/or a rotational speed about each of at least one axis (eg, an x-axis, a y-axis, and a z-axis).
  • the processor 210 eg, the processor 120 sets a value indicating the degree to which the hearable device 200 is rotated in a state in which the user's posture is in an upright posture, based on data obtained through at least one sensor, as a personalization parameter.
  • the personalization parameter may include a representative value of sensing data corresponding to a reference posture (eg, a straight posture).
  • the representative value of the sensed data corresponding to the reference posture may include a value indicating gravity or a rotation angle against each of at least one axis.
  • the personalization parameter may be a parameter that is a standard in determining the posture of the user.
  • the processor 210 may check information about the user's posture based on the third data and the personalization parameter obtained using at least one sensor.
  • the user's posture may be, for example, a posture associated with the user's neck (or head) capable of sensing a motion as the hearable device 200 is worn by the user.
  • the processor 210 eg, the processor 120
  • the processor 210 may check the degree of rotation of the hearable device 200 based on third data acquired using at least one sensor, and check based on the third data
  • the degree of bending or inclination of the user's neck may be confirmed by comparing the degree of rotation determined based on the degree of rotation and the degree of rotation confirmed based on the personalized parameter.
  • the processor 210 may estimate the user's posture by checking information about the user's posture by acquiring the third data in real time or periodically, but there is no limitation in the posture estimation algorithm.
  • the processor 210 may check whether the information about the user's posture satisfies the first condition.
  • that the information about the user's posture satisfies the first condition may mean that the angle at which the user's neck is bent exceeds a set value compared to the normal posture.
  • a case in which the inclination of the neck in a static state is less than a reference value may be defined as an upright posture.
  • that the information on the posture related to the user's neck satisfies the first condition may mean that the amount of change in the angle at which the user's neck is bent instantaneously exceeds a set value.
  • that the information on the posture related to the user's neck satisfies the first condition may mean that the amount of change in the angle of the user's neck exceeds a set value.
  • the processor 210 may provide a notification when the information on the posture associated with the user's neck satisfies the first condition.
  • the processor 210 eg, the processor 120
  • the sound output module 240 may output a notification sound.
  • the processor may control the communication circuit 230 to transmit a notification signal to the electronic device with which a short-range communication connection is established.
  • the sensor 220 detects an operating state of the hearable device 200 or an external environmental state, and generates an electrical signal or data value corresponding to the sensed state.
  • the sensor 220 may include an acceleration sensor.
  • the acceleration sensor may be mounted inside the hearable device 200 to detect acceleration generated due to a change in speed or a change in momentum of the hearable device 200 .
  • the sensor 220 may further include a gyro sensor.
  • the gyro sensor may be mounted inside the hearable device 200 to detect a change in angle caused by the movement of the hearable device 200 .
  • the sensor 220 may include a wear detection sensor (eg, the wear detection sensor 206 ).
  • the wear detection sensor may detect wearing of the hearable device 200 .
  • the communication circuit 230 (eg, the communication module 190) establishes a wireless communication channel between the hearable device 200 and an external electronic device (eg, the electronic device 101 of FIG. 1); and performing communication through an established communication channel.
  • the communication circuit 230 eg, the communication module 190
  • the sound output module 240 may output a sound signal to the outside of the hearable device 200 .
  • the sound output module 240 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the battery 250 (eg, the battery 189) supplies power to each component of the hearable device 200 that requires power supply, and when charging, a charging terminal (eg, the charging of FIG. 2A )
  • the external power may be input through the terminal 204). Meanwhile, the external power may be input through the case of the hearable device 200 or may be directly input from the external power source.
  • the memory 260 may include various data can be saved.
  • the data may store software (eg, input data, output data, sensor data, or personalization parameters for a program and instructions related thereto).
  • FIG. 3 is a view for explaining a load applied to the neck according to the posture. As the angle at which the neck is bent increases, the magnitude of the force applied to the cervical spine may increase.
  • FIG. 3 for convenience of explanation, a case in which the inclination of the neck is 0 degrees in a stationary state is defined as an upright posture. As shown in Figure 3, when a person whose neck is tilted by 15 degrees when the weight applied to the cervical spine is 10 to 12 lbs when standing upright, the weight applied to the cervical spine can be 27 lbs.
  • the weight applied to the cervical spine When the neck is tilted 30 degrees, the weight applied to the cervical spine The weight to be lost may be 40 lbs, the weight applied to the cervical vertebrae may be 49 lbs when the neck is tilted 45 degrees, and the weight applied to the cervical vertebrae if the neck is tilted 60 degrees may be 60 lbs. As such, as the angle of inclination of the neck increases, the weight applied to the cervical vertebrae increases, thereby increasing the likelihood of occurrence of musculoskeletal disorders around the neck.
  • FIG. 4 is a flowchart illustrating a method of operating an electronic device according to various embodiments of the present disclosure; The order of the operations in FIG. 4 is not limited, and other operations may be further performed between two adjacent operations. In addition, at least some of the operations of FIG. 4 may be omitted, and the above description may be equally applied to other flowcharts of this document.
  • the expression in which the hearable device 200 performs a specific operation indicates that the processor 210 of the hearable device 200 performs the specific operation or that the processor 210 uses other hardware. It may mean controlling to perform a specific operation.
  • the hearable device 200 (eg, the processor 210 ) is a user who wears the hearable device 200 based on first data acquired through at least one sensor. status information can be checked.
  • the hearable device 200 may detect wearing of the hearable device 200 through a wear detection sensor (eg, the wear detection sensor 206 ). After detecting wearing of the hearable device 200 , the hearable device 200 may acquire first data through at least one sensor. For example, the hearable device 200 may check state information indicating whether the user is in a moving state or a static state, based on motion-related data obtained through an acceleration sensor.
  • the hearable device 200 may check state information indicating whether the posture of the user wearing the hearable device 200 is a sitting, standing, oblique, or lying state.
  • the hearable device 200 may check the state information corresponding to the first data by using a mapping table in which data values acquired through a sensor and states corresponding to the respective data values are mapped.
  • operation 401 may be implemented as an algorithm for checking the user's state information.
  • the hearable device 200 may identify a personalization parameter corresponding to the user based on the second data acquired through at least one sensor.
  • At least one sensor may include an acceleration sensor.
  • the at least one second sensor may further include a gyro sensor.
  • the gyro sensor may be activated when the user's state information satisfies a specified condition.
  • the hearable device 200 may determine that a specified condition is satisfied.
  • the specified condition may include when an acceleration value sensed from the acceleration sensor is less than a specified value (eg, 1.5 g).
  • the hearable device 200 may determine that a specified condition is satisfied when the user's state information indicates a static and sitting state or a static and standing state.
  • the at least one sensor may sense data related to a rotation degree and rotation speed based on each of at least one axis (eg, an x-axis, a y-axis, and a z-axis).
  • the hearable device 200 may check, as a personalization parameter, a value indicating the degree of rotation of the hearable device 200 in a state in which the user's posture is a normal posture, based on data obtained through at least one sensor.
  • the stored (or previously verified) personalization parameter may be updated based on data obtained through at least one sensor in operation 403 .
  • the personalized parameter may be used as a parameter corresponding to a reference posture for estimating a posture associated with the user's neck in a real-time posture estimation algorithm.
  • operation 403 when the personalization parameter is received from the electronic device having a short-range communication connection with the hearable device 200 , operation 403 may be omitted. For example, if the hearable device 200 and the electronic device form a short-distance communication connection, a personalization parameter may be received, and if wearing is detected through a wear detection sensor, the personalization parameter may be received.
  • the hearable device 200 may identify information about the user's posture based on a personalization parameter and third data obtained through at least one sensor.
  • the user's posture may mean the degree to which the user's neck is inclined (eg, an angle).
  • the hearable device 200 may check the degree of rotation of the hearable device 200 based on the third data.
  • the third data may include the personalization parameter and at least a part of the same type of sensing data (eg, a value representing the rotated information of the hearable device 200 ).
  • the degree of inclination of the user's neck may be confirmed by comparing the degree of rotation confirmed based on the third data and the degree of rotation confirmed based on the personalization parameter.
  • the hearable device 200 if it is confirmed that the information on the posture does not satisfy the first condition (407-No), the hearable device 200 returns to operation 401 and the user wearing the hearable device 200 returns to operation 401 . status information can be checked. If the posture information does not satisfy the first condition, the user's state information can be monitored in real time by terminating the algorithm for checking the posture associated with the user's neck and returning to the algorithm for checking the user's state information.
  • the hearable device 200 may provide a notification in operation 409 .
  • the hearable device 200 may determine that the second condition is satisfied when the degree of inclination of the user's neck exceeds a set value, based on the information on the user's posture.
  • the hearable device 200 may output a notification sound or transmit a notification signal to the electronic device with which a short-range communication connection is established.
  • operations 405 to 413 may be implemented as an algorithm for confirming the user's posture.
  • FIG. 5 is a flowchart illustrating a method of operating a hearable device according to various embodiments of the present disclosure.
  • the hearable device 200 may drive at least one sensor in operation 501 .
  • At least one sensor may sense an acceleration generated due to a change in speed or a change in the same amount of the hearable device 200 and output sensing data related to the motion of the hearable device 200 .
  • At least one sensor may remove noise using a low pass filter.
  • At least one sensor may be implemented as, for example, an acceleration sensor included in the sensor 220 .
  • the at least one sensor may further include a gyro sensor included in the sensor 200 .
  • the hearable device 200 may analyze the sensed data in operation 503 .
  • the hearable device 200 may determine whether the state information of the user wearing the hearable device 200 satisfies a specified condition.
  • the state information may include information on whether the user wearing the hearable device 200 is in a moving state or a static state.
  • the hearable device 200 may determine that a specified condition is satisfied.
  • an operation of determining whether the hearable device 200 is a left hearable device or a right hearable device may be further performed.
  • the hearable device 200 may perform a phase shift on the Y-axis according to whether the hearable device is for the left or the hearable device for the right.
  • the hearable device 200 may return to operation 503 to analyze the sensed data. For example, in a state in which the user is moving, an operation for checking information about the user's posture may not be performed. If it is confirmed that the user's state satisfies the specified condition (505 - Yes), the hearable device 200 may check information on the posture of the user wearing the hearable device 200 in operation 507 .
  • FIG. 6 is a flowchart illustrating a method of operating a hearable device according to various embodiments of the present disclosure.
  • the operations in FIG. 6 may be operations corresponding to 507 of FIG. 5 , and accordingly, operations performed when the state information satisfies a specified condition.
  • the operations in FIG. 6 may be implemented as an algorithm for checking the posture of the user. The embodiment of FIG. 6 will be described in more detail with reference to FIGS. 7 to 10 .
  • FIG. 7 is a view for explaining information on posture according to various embodiments of the present disclosure
  • 8 is a diagram for explaining information on posture according to various embodiments of the present disclosure
  • 9 is a view for explaining information on posture according to various embodiments of the present disclosure
  • 10 is a diagram for explaining information on posture according to various embodiments of the present disclosure
  • the hearable device 200 may drive at least one sensor in operation 601 .
  • the at least one sensor may include an acceleration sensor included in the sensor 220 and may further include a gyro sensor.
  • the acceleration sensor may detect an acceleration generated due to a change in speed or a change in the same amount of the hearable device 200 , and may output sensing data related to the motion of the hearable device 200 .
  • the acceleration sensor may output data from which noise is removed through a low pass filter.
  • the gyro sensor may detect a change in angle that occurs due to the movement of the hearable device 200 , and may output sensing data related to the movement of the hearable device 200 .
  • the hearable device 200 may activate the gyro sensor when the user's state information satisfies a specified condition.
  • the hearable device 200 may acquire and analyze the first sensed data in operation 603 . Prior to the operation of analyzing the first sensed data, the hearable device 200 may perform an operation of determining whether the hearable device 200 is a left hearable device or a right hearable device. The hearable device 200 may perform a Y-axis phase shift among sensing data according to whether the hearable device 200 is a left hearable device or a right hearable device.
  • the first sensing data may include sensing data of an acceleration sensor and sensing data of a gyro sensor.
  • the hearable device 200 may check the personalization parameter as a result of the analysis.
  • the personalization parameter may be a value indicating a degree to which the hearable apparatus 200 is inclined with respect to the reference axis in a state in which the user's posture is a normal posture.
  • the hearable device 200 may determine whether the user is in a state of being oblique or lying on the basis of data obtained through at least one sensor (eg, a barometric pressure sensor).
  • the hearable device 200 may not perform the operation of checking the personalization parameter when it is confirmed that the user is in an oblique or lying state.
  • the personalization parameter is received from the external electronic device with which the hearable device 200 and the short-range communication connection are established, the operation of checking the personalization parameter may be omitted.
  • the hearable device 200 may store a value corresponding to the personalization parameter as a value corresponding to the user's standing posture. For example, since the degree of inclination of the hearable device 200 may be different depending on the shape of the ear, which is a wearing part of the hearable device 200, the degree of rotation of the hearable device 200 may be different for each user. . Accordingly, the basic posture can be estimated for each user by acquiring a value indicating the information rotated by the hearable device 200 when worn as a personalization parameter.
  • the hearable device 200 may acquire and analyze the second sensing data in operation 607 .
  • the second sensing data may include sensing data of an acceleration sensor and sensing data of a gyro sensor sensed after acquiring the first sensing data.
  • the hearable device 200 may check information about the user's posture as a result of the analysis.
  • the information about the user's posture may be information about the angle at which the user's neck is bent based on the normal posture.
  • the hearable device 200 may determine the angle at which the neck is bent by comparing the value corresponding to the upright posture and the value analyzed by the second sensing data.
  • the sensed data may represent physical changes that occur due to gravity applied to each axis based on the x, y, and z axes and movement of a pendulum.
  • the sensed data may represent physical changes that occur due to gravity applied to each axis based on the x, y, and z axes and movement of a pendulum.
  • FIG. 7 when the user stands in an upright posture ( 701 ), it may be assumed that all gravity is applied in the z-axis direction.
  • gravity is applied in the z-axis direction and the y-axis direction, and the sum of the force applied in the z-axis direction and the force applied in the y-axis direction may be gravity.
  • the hearable device 200 When the user bows his head obliquely to the side, gravity is applied in the z-axis direction, the y-axis direction, and the x-axis direction, and the force applied in the z-axis direction, the force applied in the y-axis direction, and all the forces applied in the x-axis direction
  • the sum of may be gravity. Since the phase shift of the y-axis may be required depending on whether the hearable device 200 is a right-side hearable device or a left-side hearable device, the hearable device 200 is It can also be determined whether it is a device or a hearable device for the left.
  • the state in which gravity is applied only in the z-axis direction in FIG. 7 has been described as a state corresponding to the upright posture
  • the force applied to each axis in the upright posture may be different for each user based on the personalization parameter
  • the force applied to each axis according to the personalization parameter may be used.
  • the hearable device 200 may include a right hearable device 800 - 1 and a left hearable device 800 - 2 .
  • Each of the right hearable device 800 - 1 and the left hearable device 800 - 2 may include at least one sensor.
  • the X axes 801 and 811 of the hearable devices 800-1 and 800-2 may be axes indicating the direction of gravity when the hearable devices 800-1 and 800-2 are worn in an upright posture by the user. .
  • Each of the Y axes 803 and 813 and the Z axes 805 and 815 of the hearable devices 800-1 and 800-2 may be axes that are perpendicular to each other and perpendicular to the X axes 801 and 811 to form a spatial coordinate system. have.
  • the sensor of the right hearable device 800-1 and the sensor of the left hearable device 800-2 may be mounted differently depending on the hardware characteristics of both sides. Accordingly, even if the right hearable device 800-1 and the left hearable device 800-2 simultaneously sense data, the respective sensed data may represent different values. For example, (a) of FIG. 9 is sensing data acquired by the right hearable device 800-1, and FIG.
  • the right-side hearable device 800-1 and the left-side hearable device 800-1 may coincide.
  • the coordinate axis transformation process may be performed in a hearable device set as a master device among the right-side hearable device 800-1 and the left-side hearable device 800-2, or the right-side hearable device 800- 1) and an electronic device in which a short-range communication connection is established with the hearable device 800-2 for the left side.
  • the hearable device 200 may determine whether information about the user's posture satisfies a specified condition. For example, when the angle at which the neck is bent exceeds a set angle based on the information on the user's posture, the hearable device 200 may determine that the information on the user's posture satisfies a specified condition.
  • the hearable device 200 may monitor the angle of the neck according to time by repeating operations 601 to 611 .
  • FIG. 10 shows the angle of the neck according to time, and the angle of the neck may mean an angle at which the neck is tilted compared to a reference posture based on the personalized parameter.
  • the hearable device 200 may determine that the specified condition is satisfied when the neck angle 1001 is out of the set range 1003 . As another example, the hearable device 200 determines that, based on the information on the user's posture, when the change in the angle at which the neck is bent exceeds the set angle, the information on the user's posture satisfies the specified condition. can be checked For example, when the angle at which the neck is bent exceeds a set angle due to an instantaneous change, it can be confirmed that information about the user's posture satisfies a specified condition.
  • the hearable device 200 may provide a notification in operation 613 .
  • the hearable device 200 may output a sound through the sound output module 240 .
  • the hearable device 200 may transmit a notification signal to the electronic device having a short-range wireless communication connection with the hearable device 200 . Accordingly, when the angle at which the user's neck is inclined is out of the set range, a notification may be provided to the user. If it is determined that the information on the user's posture does not satisfy the specified condition (611-No), the hearable device 200 may terminate the algorithm for checking the user's posture without providing a notification.
  • FIG. 11 is a flowchart illustrating a method of operating an electronic device according to various embodiments of the present disclosure.
  • the order of the respective operations in FIG. 11 is not limited, and other operations may be further performed between two adjacent operations.
  • at least some of the operations of FIG. 11 may be omitted, and the above description may be equally applied to other flowcharts of this document.
  • the expression in which the electronic device 101 performs a specific operation indicates that the processor 120 of the electronic device 101 performs a specific operation or causes the processor 120 to cause other hardware to perform a specific operation. It may mean controlling to perform an operation.
  • the expression that the electronic device 101 performs a specific operation may mean that the processor 120 or other hardware performs a specific operation as instructions stored in the memory 130 are executed, and the memory 130 ) may mean that instructions for causing a specific operation to be performed are stored.
  • FIG. 11 will be described in more detail with reference to FIGS. 12 to 14 .
  • 12 is a diagram for explaining a notification provided by an electronic device according to various embodiments of the present disclosure
  • 13 is a view for explaining a stretching image provided by an electronic device according to various embodiments of the present disclosure
  • 14 is a diagram for describing a health management program provided by an electronic device according to various embodiments of the present disclosure
  • the electronic device 101 may receive and store the personalization parameter from the hearable device 200 with which the electronic device 101 and short-range communication connection are established.
  • the personalization parameter may be a value corresponding to the user's standing posture.
  • the personalization parameter may be a value indicating a degree to which the hearable apparatus 200 is tilted in a state in which the user's posture is a normal posture.
  • the electronic device 101 may update the pre-stored personalization parameter based on the received personalization parameter.
  • the electronic device 101 may release the short-range communication connection with the hearable device 200 .
  • the electronic device 101 may re-establish a short-range communication connection with the hearable device 200 and transmit the stored personalization parameter to the hearable device 200 .
  • the electronic device 101 may transmit the personalization parameter based on establishing a short-distance communication connection with the hearable device 200 , or may transmit the personalization parameter based on receiving a wear detection signal from the hearable device 200 .
  • the electronic device 101 may receive, from the hearable device 200 , a notification signal confirmed based on the personalization parameter transmitted in operation 1105 .
  • the electronic device 101 may receive data obtained from the hearable device 200 and directly check information about the user's posture.
  • the electronic device 101 may provide a notification based on receiving the notification signal.
  • the electronic device 101 may display a notification screen through the display.
  • 12 is an example of a notification screen.
  • the notification screen 1200 may include a notification message 1201 such as “Please correct your posture” to notify that the user's posture is incorrect.
  • the notification message 1201 includes the frequency at which a message guiding that the user's posture is not correct is displayed (eg, the frequency of bad posture), and information on the measured posture (eg, the angle of the bent or tilted neck). may further include.
  • the notification screen 1200 may include a cancel icon 1203 , and when the cancel icon 1203 is selected by the user, the notification screen 1200 may not be displayed.
  • the notification screen 1200 may include a notification off icon 1205 , and when the notification off icon 1205 is selected by the user, a notification about the user's posture may not be provided for a set time or any longer.
  • the notification screen 1200 may include a confirmation icon 1207, and when the confirmation icon 1207 is selected by the user, information on the neck and related postures may be further displayed, or a stretching image may be displayed. 13 is an example of a stretching image. As shown in FIG. 13 , upon receiving the notification signal, the electronic device 101 may display at least some of various images for stretching the muscles around the user's neck.
  • images 1303 and 1305 for trapezius stretching 1301 may be displayed together with text 1313 explaining a trapezius stretching method.
  • the images 1303 and 1305 for the trapezius muscle stretching 1301 may be displayed as a video for the stretching.
  • images 1309 and 1311 for the quadriceps muscle stretching 1307 may be displayed together with the text 1315 describing the quadriceps muscle stretching.
  • the electronic device 101 may display a stretching image or a video that is frequently inquired by a user based on a history of searching for a stretching image or video.
  • the electronic device 101 may not display stretching classified as a burden to the user based on information about the user (eg, whether there is a musculoskeletal disorder).
  • 14 is an example of a health management program.
  • the health management program 1401 includes a stress 1403 item representing a stress index, a blood sugar 1405 item representing information about blood sugar, a welstory 1407 item representing information about a diet, and a posture. It may include at least some of the items of improving posture 1409 indicating information on the subject.
  • the electronic device 101 may display detailed information 1411 on the posture of the user. The daily evaluation of the user's posture may be checked and displayed for each designated period (eg, one week). For example, when set in units of one week, days 1413 corresponding to one week are displayed, and icons 1415 indicating whether the user performed stretching (or exercise) on each day of the week are displayed together.
  • the exercise 1419 for strengthening the spine may be displayed together, and the result of the exercise may also be displayed.
  • the result of the exercise information on the exercise time 1421 measured through the sensor of the electronic device 101 (or received from the user), the exercise intensity 1423, and whether the set exercise has all been performed Indicative information 1417 may be included.
  • an image or video guiding a set exercise may be displayed.
  • FIG. 15 is a flowchart illustrating a method of operating a hearable device and an electronic device according to various embodiments of the present disclosure; The embodiment of FIG. 15 will be described in more detail with reference to FIG. 16 .
  • 16 is a diagram for describing a hearable device and an electronic device that receives and outputs a signal from the hearable device according to various embodiments of the present disclosure; For the operations already described in detail among the operations of FIG. 15 , their description will be simplified.
  • the electronic device 1500 may establish a short-range communication connection with the hearable device 200 in operation 1501 .
  • the hearable device 200 may check the state information of the user wearing the hearable device based on data acquired through at least one sensor of the hearable device 200 in operation 1503 . have.
  • the hearable device 200 may identify a personalization parameter corresponding to the user based on data acquired through at least one sensor of the hearable device 200 .
  • the hearable device 200 may check the personalization parameter and information about the user's posture based on data acquired through at least one sensor after identifying the personalized parameter.
  • the hearable device 200 may provide a notification based on the satisfaction of the first condition in the information about the user's posture.
  • the hearable device 200 may transmit a notification signal to the electronic device 1500 based on whether the information on the user's posture satisfies the first condition. Meanwhile, both operations 1509 and 1511 may be performed, or only one of operations 1509 and 1511 may be performed. According to various embodiments, the electronic device 1500 may provide a notification based on a notification signal received from the hearable device 200 . For example, as shown in FIG. 16 , the electronic device 1500 may display a notification screen 1600 . Accordingly, the user wearing the hearable device 200 may check information about the user's posture in real time or for each designated period (eg, 1 minute, 10 minutes).
  • FIG. 17 is a flowchart illustrating a method of operating a hearable device according to various embodiments of the present disclosure.
  • the hearable device 200 may check an angle at which the hearable device 200 is worn in operation 1701 .
  • the hearable device 200 may determine the worn angle of the hearable device 200 by comparing the worn angle in the upright posture and the current inclination angle of the hearable device based on data obtained through the sensor.
  • the hearable device 200 may determine whether an angle at which the hearable device 200 is worn is outside a specified range (eg, 50 degrees to 100 degrees).
  • the designated range may mean that an angle at which the head is bowed or tilted based on the upright posture exceeds a predetermined angle.
  • the hearable device 200 may provide a notification.
  • the hearable device 200 may output a sound by using a sound output module of the hearable device, or may transmit a notification to the electronic device having a short-range communication connection with the hearable device 200 . If the angle at which the hearable device 200 is worn does not deviate from the specified range (1705-No), the hearable device may not provide a notification. Accordingly, the user may be provided with information on the posture without wearing a separate posture measuring device.
  • the hearable device (eg, the hearable device 200) includes at least one sensor (eg, the sensor 220) and at least one processor (eg, the processor 210),
  • the at least one processor (eg, the processor 210 ) may be configured to perform a function of a user wearing the hearable device 200 based on first data acquired through the at least one sensor (eg, the sensor 220 ).
  • the personalization parameter corresponding to the user based on the second data obtained through the at least one sensor (eg, the sensor 220), the personalization parameter and the at least one sensor
  • the information on the posture of the user may be checked based on the third data obtained through the method, and when the information on the posture satisfies the first condition, a notification may be provided.
  • the at least one processor uses the degree of rotation of the hearable device 200 when the user wears the hearable device 200 .
  • the personalization parameter corresponding to the user may be checked.
  • the at least one processor eg, the processor 210 , it can be determined that the information on the posture satisfies the first condition.
  • the at least one sensor includes an acceleration sensor (eg, acceleration sensor), and the first data is obtained through the acceleration sensor (eg, acceleration sensor). It may contain data.
  • acceleration sensor eg, acceleration sensor
  • the first data is obtained through the acceleration sensor (eg, acceleration sensor). It may contain data.
  • the at least one sensor may further include a gyro sensor (eg, gyro sensor), and the at least one processor (eg, processor 210) may include: If the state information of the user satisfies the second condition, the gyro sensor (eg, gyro sensor) is activated, and the second data is transmitted through the acceleration sensor (eg, acceleration sensor) and the gyro sensor (eg, gyro sensor). can be obtained
  • the personalization parameter may be transmitted to the electronic device in which a short-range communication connection with the hearable device 200 is established.
  • it further includes a sound output module (eg, sound output module 240) and a communication circuit (eg, communication circuit 230), wherein the at least one processor (eg, processor 210) includes: , when the information on the posture satisfies the first condition, a warning sound is output through the sound output module (eg, the sound output module 240) or the communication circuit (eg, the communication circuit 230) A notification signal may be transmitted to the electronic device having a short-distance communication connection with the hearable device 200 .
  • a sound output module eg, sound output module 240
  • a communication circuit eg, communication circuit 230
  • a communication circuit eg, communication circuit 230
  • the at least one processor eg, processor 210
  • the communication circuit eg, communication circuit 230
  • the method of operating the hearable device 200 including at least one sensor may include 1 operation of checking the state information of the user wearing the hearable device 200 based on data, An operation of confirming a corresponding personalized parameter, an operation of confirming information on the posture of the user based on the personalization parameter and third data obtained through the at least one sensor, and the information on the posture is a first condition If it is satisfied, it may include an action to provide a notification.
  • 1 operation of checking the state information of the user wearing the hearable device 200 based on data An operation of confirming a corresponding personalized parameter, an operation of confirming information on the posture of the user based on the personalization parameter and third data obtained through the at least one sensor, and the information on the posture is a first condition If it is satisfied, it may include an action to provide a notification.
  • the checking of the personalization parameter may include personalization corresponding to the user using the degree of rotation of the hearable device 200 when the user wears the hearable device 200 . It may include actions to check parameters.
  • the difference between the posture determined based on the third data and the posture determined based on the second data is out of a specific range, it is determined that the information on the posture satisfies the first condition It may further include an operation to
  • the at least one sensor includes an acceleration sensor (eg, acceleration sensor), and the first data is obtained through the acceleration sensor (eg, acceleration sensor). It may contain data.
  • acceleration sensor eg, acceleration sensor
  • the first data is obtained through the acceleration sensor (eg, acceleration sensor). It may contain data.
  • the at least one sensor further includes a gyro sensor (eg, a gyro sensor), and the checking of the personalization parameter may include: If the condition is satisfied, activating the gyro sensor (eg, gyro sensor) to acquire the second data through the acceleration sensor (eg, accelerometer) and the gyro sensor (eg, gyro sensor) can
  • the personalization parameter is transmitted to the electronic device having a short-range communication connection with the hearable device 200 through a communication circuit (eg, communication circuit 230) of the hearable device 200. It may include more actions.
  • the providing of the notification may include outputting a warning sound through the sound output module (eg, the sound output module 240 ) or outputting a warning sound through the sound output module (eg, the sound output module 240) when the information on the posture satisfies the first condition. It may include an operation of transmitting a notification signal to the electronic device having a short-range communication connection with the hearable device 200 through a communication circuit (eg, the communication circuit 230 ).
  • a communication circuit eg, the communication circuit 230
  • the operation of confirming information on the posture in which the user wears the hearable device 200 is performed through a communication circuit (eg, the communication circuit 230 ) of the hearable device 200 .
  • a communication circuit eg, the communication circuit 230
  • receiving sensing data from another hearable device 200 and checking the information on the posture based on the sensing data, the personalization parameter, and the third data.
  • a display eg, the display module 160
  • a communication circuit eg, the communication module 190
  • at least one processor eg: processor 120
  • the at least one processor establishes a short-range communication connection with the electronic device 101 through the communication circuit (eg, communication module 190).
  • the The stored personalization parameter is transmitted to the hearable device 200 through the communication circuit (eg, communication module 190), and through the communication circuit (eg, communication module 190), the hearable device From 200 , a notification signal confirmed based on the transmitted personalization parameter may be received, and a notification may be provided based on receiving the notification signal.
  • the communication circuit eg, communication module 190
  • the hearable device From 200 a notification signal confirmed based on the transmitted personalization parameter may be received, and a notification may be provided based on receiving the notification signal.
  • the at least one processor may display a stretching image through the display (eg, the display module 160 ) based on receiving the notification signal. .
  • the at least one processor receives first data from the first hearable device 200 - 1 having a short-range communication connection with the electronic device 101 and , receive second data from the second hearable device 200 - 2 with which the electronic device 101 and the short-range communication connection are established, and use the first data and the second data to obtain the first hearable device and information on the posture of the user who wears at least one of the second hearable devices.
  • the at least one processor may provide a notification when the information on the user's posture satisfies a specific condition.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided as included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed online (eg download or upload), directly between smartphones (eg smartphones).
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예에 따라서, 히어러블 장치는, 적어도 하나의 센서및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 센서를 통해 획득된 제 1 데이터에 기반하여 상기 히어러블 장치(200)를 착용한 사용자의 상태 정보를 확인하고, 상기 적어도 하나의 센서를 통해 획득된 제 2 데이터에 기반하여 상기 사용자에 대응하는 개인화 파라미터를 확인하고, 상기 개인화 파라미터 및 상기 적어도 하나의 센서를 통해 획득된 제 3 데이터에 기반하여 상기 사용자의 자세에 대한 정보를 확인하고, 상기 자세에 대한 정보가 제 1 조건을 만족하면, 알림을 제공할 수 있다.

Description

전자 장치와 연결된 히어러블 장치 및 이의 동작 방법
본 문서의 다양한 실시예는 전자 장치와 연결된 히어러블 장치 및 이의 동작 방법에 관한 것이다.
최근 스마트 장치가 광범위하게 활용됨으로 인해, 업무 및 일상 생활에서 장시간 스마트 장치를 사용이 일상화되고 있다. 장시간 지속적으로 화면을 응시하는 자세는 목 주변의 근골격계 질환을 유발하는 부적절한 자세이다. 특히, 책, 스마트 장치, 모니터 등을 주시하기 위해 머리가 앞으로 나가거나 아래로 숙여지는 자세는 목에 인가되는 하중을 급격히 증가시킬 수 있다. 이러한 전방머리자세(forward head posture, FHP) 또는 거북목 증후군(text neck syndrome 또는 turtle neck syndrome)의 상태에서는 목에 가해지는 하중과 근육의 불균형이 더욱 증가하고, 이는 다시 척추의 구조에 영향을 미치게 되는 악순환이 발생할 수 있다.
목의 근골격계 질환의 판단은 장시간 앉거나 서 있는 자세에서 측정되어야 한다. 기존의 장치는 움직임을 센싱할 수 있는 센서들을 포함하는 헤드셋을 사용자가 착용하여 사용자의 경추 상태를 확인할 수 있으나, 별도의 장치를 착용하여야 한다는 점에서 사용자의 실생활에서 사용자의 자세를 측정하기에는 한계가 있다.
또한, 기존의 Heads up talking 장비는 실시간으로 몸과 머리의 자세를 관찰하지만 스포츠 선수의 부상을 방지하기 위해 개발된 것으로, 일상 생활 중 중장기적인 자세 변화로 발생하는 목 주변의 근골격계 질환을 예방하고 인식하기에는 한계가 있다.
다양한 실시예는, 히어러블 장치가 사용자에게 착용되어 있는 동안, 사용자의 상태 정보에 기반하여 자세를 확인할지 여부를 판단하고, 사용자의 자세에 대한 정보를 제공할 수 있는, 히어러블 장치 및 그 동작 방법을 제공할 수 있다.
다양한 실시예에 따라서, 히어러블 장치는, 적어도 하나의 센서및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 센서를 통해 획득된 제 1 데이터에 기반하여 상기 히어러블 장치를 착용한 사용자의 상태 정보를 확인하고, 상기 적어도 하나의 센서를 통해 획득된 제 2 데이터에 기반하여 상기 사용자에 대응하는 개인화 파라미터를 확인하고, 상기 개인화 파라미터 및 상기 적어도 하나의 센서를 통해 획득된 제 3 데이터에 기반하여 상기 사용자의 자세에 대한 정보를 확인하고, 상기 자세에 대한 정보가 제 1 조건을 만족하면, 알림을 제공할 수 있다.
다양한 실시예에 따라서, 적어도 하나의 센서를 포함하는 히어러블 장치의 동작 방법은, 상기 적어도 하나의 센서를 통해 획득된 제 1 데이터에 기반하여 상기 히어러블 장치를 착용한 사용자의 상태 정보를 확인하는 동작, 상기 적어도 하나의 센서를 통해 획득된 제 2 데이터에 기반하여 상기 사용자에 대응하는 개인화 파라미터를 확인하는 동작, 상기 개인화 파라미터 및 상기 적어도 하나의 센서를 통해 획득된 제 3 데이터에 기반하여 상기 사용자의 자세에 대한 정보를 확인하는 동작, 및 상기 자세에 대한 정보가 제 1 조건을 만족하면, 알림을 제공하는 동작을 포함 할 수 있다.
다양한 실시예에 따라서, 전자 장치에 있어서, 디스플레이, 통신 회로 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 통신 회로를 통해, 상기 전자 장치와 근거리 통신 연결이 형성된 히어러블 장치로부터 개인화 파라미터를 수신하여 저장하고, 상기 히어러블 장치와 상기 근거리 통신 연결을 해제하고, 상기 히어러블 장치와 근거리 통신 연결을 재형성한 이후, 상기 저장된 개인화 파라미터를, 상기 통신 회로를 통해, 상기 히어러블 장치로 전송하고, 상기 통신 회로를 통해, 상기 히어러블 장치로부터, 상기 전송된 개인화 파라미터에 기반하여 확인된 알림 신호를 수신하고, 상기 알림 신호를 수신함에 기반하여 알림을 제공할 수 있다.
다양한 실시예에 따라서, 사용자의 상태 정보에 기반하여 자세를 확인할지 여부를 판단하고, 사용자의 자세에 대한 정보를 제공할 수 있는, 히어러블 장치 및 그 동작 방법이 제공될 수 있따. 아울러, 다양한 실시예에 따라서, 사용자의 자세에 대한 정보를 확인할 수 있는 전자 장치 및 그 동작 방법이 제공될 수 있다. 이에 따라, 별도의 장치를 착용하지 않더라도, 사용자가 일상 생활에서 사용하는 히어러블 장치를 착용함으로써, 사용자는 자세에 대한 정보를 제공받을 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2a는 다양한 실시예들에 따른 히어러블 장치의 사시도이다.
도 2b는 다양한 실시예들에 따른 히어러블 장치의 블록도이다.
도 3은 자세에 따라 목에 인가되는 하중을 설명하기 위한 도면이다.
도 4는 다양한 실시예에 따른 히어러블 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 5는 다양한 실시예에 따른 히어러블 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 6은 다양한 실시예에 따른 히어러블 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 7은 다양한 실시예에 따른 자세에 대한 정보를 설명하기 위한 도면이다.
도 8은 다양한 실시예에 따른 자세에 대한 정보를 설명하기 위한 도면이다.
도 9는 다양한 실시예에 따른 자세에 대한 정보를 설명하기 위한 도면이다.
도 10은 다양한 실시예에 따른 자세에 대한 정보를 설명하기 위한 도면이다.
도 11은 다양한 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 12는 다양한 실시예에 따른 전자 장치에서 제공하는 알림을 설명하기 위한 도면이다.
도 13은 다양한 실시예에 따른 전자 장치에서 제공하는 스트레칭 영상을 설명하기 위한 도면이다.
도 14는 다양한 실시예에 따른 전자 장치에서 제공하는 건강 관리 프로그램을 설명하기 위한 도면이다.
도 15는 다양한 실시예에 따른 히어러블 장치 및 전자 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 16은 다양한 실시예에 따른 히어러블 장치와 히어러블 장치로부터 신호를 수신하여 출력하는 전자 장치를 설명하기 위한 도면을 도시한다.
도 17 다양한 실시예에 따른 히어러블 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. 다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2a는, 다양한 실시예들에 따른, 히어러블 장치(200)의 사시도이다. 도 2a의 (a)를 참조하면, 히어러블 장치(200)는 외부 전자 장치와 근거리 무선 통신 연결이 가능한 히어러블 장치로, 윙팁을 포함하는 하우징(201)과, 하우징(201)의 일부 영역에 배치되는 터치 패드(202), 마이크(203), 충전 단자(204), 음향 출력 모듈(205) 및 착용 감지 센서(206)를 포함할 수 있다. 히어러블 장치(200)는, 사운드를 출력할 수 있는 장치이면 제한이 없다.
다양한 실시예들에 따르면, 하우징(201)은 사용자의 귀에 착용될 수 있는 형태를 가질 수 있다. 하우징(201)은 사용자의 귓구멍에 삽입되는 이어팁 및 이어팁과 연결되며 귓바퀴 부분에 위치하는 윙팁을 포함하여 구성될 수 있다. 터치 패드(202)는 히어러블 장치(200)의 조작을 위한 사용자로부터 입력을 수신하며, 터치 입력에 따른 신호를 프로세서(예: 도 2b의 프로세서(210))로 전송할 수 있다. 마이크(203)는 적어도 하나의 마이크를 포함할 수 있고, 사용자의 음성 또는 외부 소리와 같은 사운드를 감지할 수 있으며, 감지된 사운드에 따른 신호를 프로세서(예: 도 2b의 프로세서(210))로 전송할 수 있다. 충전 단자(204)는 히어러블 장치(200)의 케이스(미도시)의 충전 단자에 접촉하여 히어러블 장치(200)의 베터리를 충전할 수 있다. 착용 감지 센서(206)은 근접 센서를 포함할 수 있다. 예를 들어, 사용자가 히어러블 장치(200)를 착용 시 사용자의 귓바퀴에 근접함으로써 사용자가 히어러블 장치(200)를 착용하였음을 감지할 수 있다. 예를 들어, 근접 센서는 발광부 및 수광부를 포함하는 광학식 근접 센서 또는 초음파를 이용하는 초음파식 근접 센서를 포함할 수 있다. 다양한 실시예에 따르면, 착용 감지 센서(206)는 움직임을 감지하는 움직임 감지 센서(예: 자이로 센서) 및/또는 접촉을 감지하는 접촉 감지 센서(예: 터치 센서, 접촉 센서)를 더 포함하고, 사용자의 히어러블 장치(200) 착용 감지에 움직임 감지 센서 및/또는 접촉 감지 센서를 선택적 또는 추가적으로 이용할 수 있다. 예를 들어, 히어러블 장치(200)는 접촉 센서를 이용해 사용자가 히어러블 장치(200)를 실제 착용했는지 여부를 감지할 수 있다.
한편, 도 2a의 (b)와 같이, 히어러블 장치(200)는 히어러블 장치(200-1)와 히어러블 장치(200-2)를 포함할 수 있다. 실시예에 따라, 히어러블 장치(200)는 히어러블 장치(200-1)와 히어러블 장치(200-2) 중 어느 하나의 히어러블 장치만을 지칭할 수도 있고, 히어러블 장치(200-1)와 히어러블 장치(200-2)의 쌍을 지칭할 수도 있다.
도 2b는, 다양한 실시예들에 따른, 히어러블 장치(200)의 블록도이다. 도 2b를 참조하면, 히어러블 장치(200)는, 프로세서(210), 센서(220), 통신 회로(230), 음향 출력 모듈(240), 배터리(250) 및 메모리(260)를 포함할 수 있다.
다양한 실시예들에 따른, 프로세서(210)(예: 프로세서(120))는, 소프트웨어(예: 프로그램)를 실행하여 프로세서(210) (예: 프로세서(120))에 연결된 히어러블 장치(200)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다.
다양한 실시예에 따라, 프로세서(210)(예: 프로세서(120))는, 적어도 하나의 센서를 통해 획득된 제1 데이터에 기반하여 히어러블 장치(200)를 착용한 사용자의 상태 정보를 확인할 수 있다. 적어도 하나의 센서는 예를 들어, 가속도 센서를 포함할 수 있다. 제 1 데이터는 히어러블 장치(200)의 움직임과 연관된 데이터일 수 있고, 사용자의 상태 정보는 움직이는 상태인지 또는 정적인 상태인지 나타내는 정보일 수 있다. 또한, 사용자의 상태 정보는, 사용자의 자세가 앉거나 선 상태인지 비스듬하거나 누운 상태인지를 나타내는 정보를 더 포함할 수도 있다. 프로세서(210)(예: 프로세서(120))는, 사용자의 상태 정보가 지정된 조건을 만족하는지 확인할 수 있다. 프로세서(210)(예: 프로세서(120))는 사용자의 상태가 정적인 상태인 경우, 지정된 조건을 만족하는 것으로 확인할 수 있다. 또한, 사용자의 상태가 정적이면서 앉거나 선 상태인 경우, 지정된 조건을 만족하는 것으로 확인할 수 있다. 프로세서(210) (예: 프로세서(120))는 히어러블 장치(200)의 움직임과 연관된 데이터에 기반하여 사용자의 상태 정보가 지정된 조건을 만족하는지 확인할 수 있으나, 사용자의 상태 정보 인식 알고리즘에는 제한이 없다.
다양한 실시예에 따라서, 사용자의 상태 정보가 지정된 조건을 만족하지 않는 것으로 확인되면, 프로세서(210)(예: 프로세서(120))는 적어도 하나의 센서를 통해 데이터를 획득하고, 획득된 데이터에 기반하여 사용자의 상태 정보를 확인하는 동작을 반복하여 수행할 수 있다.
다양한 실시예에 따라서, 사용자의 상태 정보가 지정된 조건을 만족하는 것으로 확인되면, 프로세서(210)(예: 프로세서(120))는 적어도 하나의 센서를 통해 획득된 제 2 데이터에 기반하여 사용자에 대응하는 개인화 파라미터를 확인할 수 있다. 적어도 하나의 센서는 가속도 센서를 포함하고, 자이로 센서를 더 포함할 수 있다. 프로세서(210)(예: 프로세서(120))는 사용자의 상태 정보가 지정된 조건을 만족하는 것으로 확인됨에 따라, 자이로 센서를 활성화할 수 있다. 예를 들어, 가속도 센서 및 자이로 센서는 적어도 하나의 축(예를 들어, x축, y축, z축) 각각을 기준으로 이동한 속도, 회전된 정도 및/또는 회전 속도와 연관된 데이터를 센싱할 수 있다. 프로세서(210)(예: 프로세서(120))는 적어도 하나의 센서를 통해 획득된 데이터에 기반하여, 사용자의 자세가 정자세인 상태에서 히어러블 장치(200)가 회전된 정도를 나타내는 값을 개인화 파라미터로 확인할 수 있다. 예를 들어, 개인화 파라미터는 기준 자세(예를 들어, 정자세)에 대응하는 센싱 데이터의 대표값을 포함할 수 있다. 예를 들어, 기준 자세에 대응하는 센싱 데이터의 대표 값은, 적어도 하나의 축 각각에 대항하는 중력, 또는 회전 각을 나타내는 값을 포함할 수 있다. 개인화 파라미터는 사용자의 자세를 판단함에 있어 기준이 되는 파라미터일 수 있다.
다양한 실시예에 따라서, 프로세서(210)(예: 프로세서(120))는 적어도 하나의 센서를 이용하여 획득된 제 3 데이터 및 개인화 파라미터에 기반하여 사용자의 자세에 대한 정보를 확인할 수 있다. 사용자의 자세는 예를 들어, 히어러블 장치(200)이 사용자에게 착용됨에 따라 움직임을 센싱할 수 있는 사용자의 목(또는, 머리)과 연관된 자세일 수 있다. 프로세서(210)(예: 프로세서(120))는 적어도 하나의 센서를 이용하여 획득된 제 3 데이터에 기반하여 히어러블 장치(200)가 회전된 정도를 확인할 수 있고, 제 3 데이터에 기반하여 확인된 회전 정도와 개인화 파라미터에 기반하여 확인된 회전 정도를 비교하여 사용자의 목이 숙여지거나 또는 기울어진 정도를 확인할 수 있다. 프로세서(210)(예: 프로세서(120))는 실시간으로 또는 주기적으로 제 3 데이터를 획득함으로써 사용자의 자세에 대한 정보를 확인하여 사용자의 자세를 추정할 수 있으나, 자세 추정 알고리즘에는 제한이 없다.
다양한 실시예에 따라서, 프로세서(210)(예: 프로세서(120))는 사용자의 자세에 대한 정보가 제 1 조건을 만족하는지 확인할 수 있다. 예를 들어, 사용자의 자세에 대한 정보가 제 1 조건을 만족한다는 것은, 정자세와 비교하여 사용자의 목이 숙여진 각도가 설정된 값을 초과하는 것을 의미할 수 있다. 본 문서의 다양한 실시예에서는 설명의 편의를 위해 정적인 상태에서 목의 기울기가 기준 값(예: 5 도) 미만인 경우를 정자세로 정의할 수 있다. 예를 들어, 사용자의 목과 연관된 자세에 대한 정보가 제 1 조건을 만족한다는 것은, 순간적으로 사용자의 목이 숙여지는 각도의 변화량이 설정된 값을 초과하는 것을 의미할 수 있다. 예를 들어, 사용자의 목과 연관된 자세에 대한 정보가 제 1 조건을 만족한다는 것은, 사용자의 목의 각도의 변화량이 설정된 값을 초과하는 것을 의미할 수 있다.
다양한 실시예에 따라서, 프로세서(210)(예: 프로세서(120))는 사용자의 목과 연관된 자세에 대한 정보가 제 1 조건을 만족함에 따라 알림을 제공할 수 있다. 예를 들어, 프로세서(210)(예: 프로세서(120))는 알림음을 출력하도록 음향 출력 모듈(240)을 제어할 수 있다. 예를 들어, 프로세서는 근거리 통신 연결이 형성된 전자 장치에게 알림 신호를 전송하도록 통신 회로(230)를 제어할 수 있다.
다양한 실시예에 따라서, 센서(220)(예: 센서 모듈(176))는 히어러블 장치(200)의 작동 상태 또는 외부의 환경 상태를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 다양한 실시예에 따라서, 센서(220)는 가속도 센서를 포함할 수 있다. 예를 들어, 가속도 센서는 히어러블 장치(200)의 내부에 실장되어 히어러블 장치(200)의 속도의 변화나 운동량의 변화로 인해 발생하는 가속도를 감지할 수 있다. 다양한 실시예에 따라서, 센서(220)는 자이로 센서를 더 포함할 수도 있다. 예를 들어, 자이로 센서는 는 히어러블 장치(200)의 내부에 실장되어 히어러블 장치(200)의 움직임으로 인해 발생하는 각도의 변화를 감지할 수 있다. 다양한 실시예에 따라서, 센서(220)는 착용 감지 센서(예: 착용 감지 센서(206))를 포함할 수 있다. 예를 들어, 착용 감지 센서는 히어러블 장치(200)의 착용을 감지할 수 있다.
다양한 실시예에 따라서, 통신 회로(230)(예: 통신 모듈(190))는 히어러블 장치(200)와 외부 전자 장치(예: 도 1 의 전자 장치(101)) 간의 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 일 실시예에 따르면, 통신 회로(230)(예: 통신 모듈(190))는 근거리 무선 통신(예: 블루투스)을 통하여 외부의 전자 장치와 통신할 수 있다.
다양한 실시예에 따라서, 음향 출력 모듈(240)(예: 음향 출력 모듈(155))은 음향 신호를 히어러블 장치(200)의 외부로 출력할 수 있다. 음향 출력 모듈(240)(예: 음향 출력 모듈(155))은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
다양한 실시예에 따라서, 베터리(250)(예: 배터리(189))는 전원 공급이 필요한 히어러블 장치(200)의 각 구성요소에 전원을 공급하며, 충전 시 충전 단자(예: 도 2a의 충전 단자(204))를 통해 외부 전원을 입력 받을 수 있다. 한편, 외부 전원은 히어러블 장치(200)의 케이스를 통해 입력 받거나 직접 외부 전원으로부터 입력 받을 수도 있다.
다양한 실시예에 따라서, 메모리(260)(예: 메모리(130))는, 히어러블 장치(200)의 적어도 하나의 구성요소(예: 프로세서(210) 또는 센서(220))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 소프트웨어(예: 프로그램 및 이와 관련된 명령에 대한 입력 데이터, 출력 데이터, 센서 데이터 또는 개인화 파라미터를 저장할 수 있다.
도 3은, 자세에 따라 목에 인가되는 하중을 설명하기 위한 도면이다. 목이 숙여진 각도가 증가할수록 경추에 가해지는 힘의 크기가 증가할 수 있다. 도 3에서는 설명의 편의를 위해 정지 상태에서 목의 기울기가 0도 인 경우를 정자세로 정의한다. 도 3에서와 같이, 정자세로 서있는 경우에 경추에 가해지는 무게가 10~12lbs인 사람이 목을 15도 기울인 경우, 경추에 가해지는 무게는 27lbs일 수 있고, 목을 30도 기울인 경우 경추에 가해지는 무게는 40lbs일 수 있고, 목을 45도 기울인 경우 경추에 가해지는 무게는 49lbs일 수 있고, 목을 60도 기울인 경우 경추에 가해지는 무게는 60lbs일 수 있다. 이와 같이, 목이 기울어진 각도가 클수록 경추에 가해지는 무게가 증가하여 목 주변의 근골격계 질환이 발생할 가능성이 높아질 수 있다.
도 4는 다양한 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다. 도 4에서의 동작들은 순서가 제한되지 않으며, 인접하는 두 개의 동작 사이에 다른 동작이 더 수행될 수도 있다. 아울러, 도 4의 동작들 중 적어도 일부가 생략될 수 있으며, 상술한 설명은 본 문서의 다른 흐름도에도 동일하게 적용될 수 있다. 본 문서의 다양한 실시예들에서, 히어러블 장치(200)가 특정 동작을 수행하는 표현은, 히어러블 장치(200)의 프로세서(210)가 특정 동작을 수행하거나, 프로세서(210)가 다른 하드웨어로 하여금 특정 동작을 수행하도록 제어함을 의미할 수 있다.
다양한 실시예에 따라서, 히어러블 장치(200)(예: 프로세서(210))는, 401 동작에서, 적어도 하나의 센서를 통해 획득된 제 1 데이터에 기반하여 히어러블 장치(200)를 착용한 사용자의 상태 정보를 확인할 수 있다. 히어러블 장치(200)는 착용 감지 센서(예: 착용 감지 센서(206))를 통해 히어러블 장치(200)의 착용을 감지할 수 있다. 히어러블 장치(200)의 착용을 감지한 이후, 히어러블 장치(200)는 적어도 하나의 센서를 통해 제 1 데이터를 획득할 수 있다. 예를 들어, 히어러블 장치(200)는 가속도 센서를 통해 획득된 움직임과 연관된 데이터에 기반하여, 사용자가 움직이는 상태인지 정적인 상태인지를 나타내는 상태 정보를 확인할 수 있다. 또는, 히어러블 장치(200)는, 히어러블 장치(200)를 착용한 사용자의 자세가 앉거나 선 상태인지 비스듬하거나 누운 상태인지를 나타내는 상태 정보를 확인할 수 있다. 예를 들어, 히어러블 장치(200)는 센서를 통해 획득된 데이터 값들과 각각의 데이터 값들에 대응하는 상태들이 매핑된 매핑 테이블을 이용하여, 제 1 데이터에 대응하는 상태 정보를 확인할 수 있다. 한편, 401 동작은, 사용자의 상태 정보를 확인하는 알고리즘으로 구현될 수 있다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 403 동작에서, 적어도 하나의 센서를 통해 획득된 제 2 데이터에 기반하여 사용자에 대응하는 개인화 파라미터를 확인할 수 있다. 적어도 하나의 센서는 가속도 센서를 포함할 수 있다. 적어도 하나의 제 2 센서는 자이로 센서를 더 포함할 수도 있다. 예를 들어, 자이로 센서는, 사용자의 상태 정보가 지정된 조건을 만족함에 의해 활성화될 수 있다. 예를 들어, 히어러블 장치(200)는 사용자의 상태 정보가 정적인 상태를 나타내는 경우 지정된 조건을 만족하는 것으로 확인할 수 있다. 예를 들어, 지정된 조건은 가속도 센서로부터 센싱된 가속도 값이 지정된 값(예: 1.5g) 미만일 때를 포함할 수 있다. 또는, 히어러블 장치(200)는 사용자의 상태 정보가 정적이고 앉은 상태이거나, 정적이고 선 상태를 나타내는 경우 지정된 조건을 만족하는 것으로 확인할 수 있다. 적어도 하나의 센서는 적어도 하나의 축(예를 들어, x축, y축, z축) 각각을 기준으로 회전된 정도 및 회전 속도와 연관된 데이터를 센싱할 수 있다. 히어러블 장치(200)는 적어도 하나의 센서를 통해 획득된 데이터에 기반하여, 사용자의 자세가 정자세인 상태에서 히어러블 장치(200)가 회전된 정도를 나타내는 값을 개인화 파라미터로 확인할 수 있다. 저장된(또는 이전에 확인된) 개인화 파라미터가 존재하는 경우, 403 동작에서 적어도 하나의 센서를 통해 획득된 데이터에 기반하여, 저장된(또는 이전에 확인된) 개인화 파라미터가 업데이트될 수도 있다. 개인화 파라미터는 실시간 자세 추정 알고리즘에서, 사용자의 목과 연관된 자세를 추정하기 위한 기준 자세에 대응하는 파라미터로 이용될 수 있다. 다양한 실시예에 따라, 히어러블 장치(200)와 근거리 통신 연결이 형성된 전자 장치로부터 개인화 파라미터를 수신하는 경우, 403 동작은 생략될 수 있다. 예를 들어, 히어러블 장치(200)와 전자 장치가 근거리 통신 연결이 형성되면 개인화 파라미터를 수신할 수도 있고, 착용 감지 센서를 통해 착용을 감지하면 개인화 파라미러를 수신할 수도 있다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 405 동작에서, 개인화 파라미터 및 적어도 하나의 센서를 통해 획득된 제 3 데이터에 기반하여 사용자의 자세에 대한 정보를 확인할 수 있다. 예를 들어, 사용자의 자세는 사용자의 목이 기울어진 정도(예: 각도)를 의미할 수 있다. 히어러블 장치(200)는 제 3 데이터에 기반하여 히어러블 장치(200)가 회전된 정도를 확인할 수 있다. 예를 들어, 제 3 데이터는 개인화 파라미터와 적어도 일부가 동일한 종류의 센싱 데이터(예: 히어러블 장치(200)가 회전된 정보를 나타내는 값)를 포함할 수 있다. 제 3 데이터에 기반하여 확인된 회전 정도와 개인화 파라미터에 기반하여 확인된 회전 정도를 비교하여 사용자의 목이 기울어진 정도를 확인할 수 있다.
다양한 실시예에 따라서, 자세에 대한 정보가 제 1 조건을 만족하지 않는 것으로 확인되면(407-아니오), 히어러블 장치(200)는, 401 동작으로 되돌아가 히어러블 장치(200)를 착용한 사용자의 상태 정보를 확인할 수 있다. 자세에 대한 정보가 제 1 조건을 만족하지 않으면, 사용자의 목과 연관된 자세를 확인하는 알고리즘을 종료하고, 사용자의 상태 정보를 확인하는 알고리즘으로 되돌아 감으로써 사용자의 상태 정보를 실시간으로 모니터링할 수 있다.
다양한 실시예에 따라서, 자세에 대한 정보가 제 1 조건을 만족하는 것으로 확인되면(407-예), 히어러블 장치(200)는, 409 동작에서, 알림을 제공할 수 있다. 히어러블 장치(200)는 사용자의 자세에 대한 정보에 기반하여, 사용자의 목이 기울어진 정도가 설정된 값을 초과하는 경우 제 2 조건을 만족하는 것으로 확인할 수 있다. 히어러블 장치(200)는, 자세에 대한 정보가 제 1 조건을 만족하는 것으로 확인됨에 따라, 알림음을 출력하거나 근거리 통신 연결이 형성된 전자 장치에게 알림 신호를 전송할 수 있다. 한편, 405 동작 내지 413 동작은, 사용자의 자세를 확인하는 알고리즘으로 구현될 수 있다.
도 5는 다양한 실시예에 따른 히어러블 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 501 동작에서, 적어도 하나의 센서를 구동할 수 있다. 적어도 하나의 센서는, 히어러블 장치(200)의 속도의 변화나 동량의 변화로 인해 발생하는 가속도를 감지하여, 히어러블 장치(200)의 움직임과 연관된 센싱 데이터를 출력할 수 있다. 적어도 하나의 센서는, 저역 통과 필터(low pass filter)를 이용하여 노이즈를 제거할 수 있다. 적어도 하나의 센서는, 예를 들어, 센서(220)에 포함된 가속도 센서로 구현될 수 있다. 한편, 적어도 하나의 센서는, 센서(200)에 포함된 자이로 센서를 더 포함할 수도 있다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 503 동작에서, 센싱 데이터를 분석할 수 있다. 505 동작에서, 히어러블 장치(200)는 분석 결과, 히어러블 장치(200)를 착용한 사용자의 상태 정보가 지정된 조건을 만족하는지 확인할 수 있다. 예를 들어, 상태 정보는 히어러블 장치(200)를 착용한 사용자가 움직이는 상태인지, 정적인 상태인지에 대한 정보를 포함할 수 있다. 히어러블 장치(200)는 사용자의 상태 정보가 정적인 상태를 나타내는 경우 지정된 조건을 만족하는 것으로 확인할 수 있다.
다양한 실시예에 따라서, 센싱 데이터를 분석하기 이전 동작으로, 히어러블 장치(200)가 좌측용 히어러블 장치인지, 우측용 히어러블 장치인지 판단하는 동작이 더 수행될 수도 있다. 히어러블 장치(200)는 좌측용 히어러블 장치인지, 우측용 히어러블 장치인지에 따라 Y축에 대한 위상 전환을 수행할 수 있다.
다양한 실시예에 따라서, 사용자의 상태가 지정된 조건을 만족하지 않는 것으로 확인되면(505-아니오), 히어러블 장치(200)는, 503 동작으로 되돌아가 센싱 데이터를 분석할 수 있다. 예를 들어, 사용자가 움직이는 상태에서는 사용자의 자세에 대한 정보를 확인하는 동작을 수행하지 않을 수 있다. 사용자의 상태가 지정된 조건을 만족하는 것으로 확인되면(505-예), 히어러블 장치(200)는, 507 동작에서, 히어러블 장치(200)를 착용한 사용자의 자세에 대한 정보를 확인할 수 있다.
도 6은 다양한 실시예에 따른 히어러블 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다. 다양한 실시예에 따라, 도 6에서의 동작들은 도 5의 507에 대응하는 동작들일 수 있으며, 이에 따라, 상태 정보가 지정된 조건을 만족하는 경우 수행되는 동작들일 수 있다. 다양한 실시예에 따라서, 도 6에서의 동작들은 사용자의 자세를 확인하는 알고리즘으로 구현될 수 있다. 도 6의 실시예는 도 7 내지 도 10을 참조하여 더욱 상세하게 설명하도록 한다. 도 7은 다양한 실시예에 따른 자세에 대한 정보를 설명하기 위한 도면이다. 도 8은 다양한 실시예에 따른 자세에 대한 정보를 설명하기 위한 도면이다. 도 9는 다양한 실시예에 따른 자세에 대한 정보를 설명하기 위한 도면이다. 도 10은 다양한 실시예에 따른 자세에 대한 정보를 설명하기 위한 도면이다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 601 동작에서, 적어도 하나의 센서를 구동할 수 있다. 예를 들어, 적어도 하나의 센서는, 센서(220)에 포함된 가속도 센서를 포함하고, 자이로 센서를 더 포함할 수 있다. 가속도 센서는 히어러블 장치(200)의 속도의 변화나 동량의 변화로 인해 발생하는 가속도를 감지하여, 히어러블 장치(200)의 움직임과 연관된 센싱 데이터를 출력할 수 있다. 가속도 센서는 저역 통과 필터(low pass filter)를 통해 노이즈를 제거한 데이터를 출력할 수도 있다. 자이로 센서는 히어러블 장치(200)의 움직임으로 인해 발생하는 각도의 변화를 감지하여, 히어러블 장치(200)의 움직임과 연관된 센싱 데이터를 출력할 수 있다. 히어러블 장치(200)는, 사용자의 상태 정보가 지정된 조건을 만족함에 따라, 자이로 센서를 활성화할 수 있다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 603 동작에서, 제 1 센싱 데이터를 획득하고 분석할 수 있다. 히어러블 장치(200)는 제 1 센싱 데이터를 분석하는 동작에 우선하여, 히어러블 장치(200)가 좌측용 히어러블 장치인지, 우측용 히어러블 장치인지 판단하는 동작을 수행할 수 있다. 히어러블 장치(200)는 히어러블 장치(200)가 좌측용 히어러블 장치인지, 우측용 히어러블 장치인지에 따라, 센싱 데이터 중 Y축의 위상 전환을 수행할 수 있다. 예를 들어, 제 1 센싱 데이터는 가속도 센서의 센싱 데이터와 자이로 센서의 센싱 데이터를 포함할 수 있다. 605 동작에서, 히어어블 장치(200)는 분석 결과, 개인화 파라미터를 확인할 수 있다. 개인화 파라미터는, 사용자의 자세가 정자세인 상태에서 히어러블 장치(200)가 기준 축을 기준으로 기울어진 정도를 나타내는 값일 수 있다. 히어러블 장치(200)는 적어도 하나의 센서(예를 들어, 기압 센서)를 통해 획득된 데이터에 기반하여, 사용자가 비스듬하거나 누운 상태인지를 확인할 수 있다. 히어러블 장치(200)는 사용자가 비스듬하거나 누운 상태로 확인되면, 개인화 파라미터를 확인하는 동작을 수행하지 않을 수 있다. 히어러블 장치(200)와 근거리 통신 연결이 형성된 외부 전자 장치로부터 개인화 파라미터를 수신하는 경우, 개인화 파라미터를 확인하는 동작은 생략될 수도 있다. 히어러블 장치(200)는, 개인화 파라미터에 대응하는 값을 해당 사용자의 정자세에 대응하는 값으로 저장할 수 있다. 예를 들어, 히어러블 장치(200)의 착용 부위인 귀 모양에 따라 히어러블 장치(200)가 기울어진 정도가 상이할 수 있으므로, 사용자 별로 히어러블 장치(200)의 회전 정도가 상이할 수 있다. 이에 따라, 착용 시 히어러블 장치(200)가 회전된 정보를 나타내는 값을 개인화 파라미터로 획득함으로써, 사용자 별로 기본 자세를 추정할 수 있다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 607 동작에서, 제 2 센싱 데이터를 획득하고 분석할 수 있다. 예를 들어, 제 2 센싱 데이터는 제 1 센싱 데이터를 획득한 이후에 센싱된 가속도 센서의 센싱 데이터와 자이로 센서의 센싱 데이터를 포함할 수 있다. 609 동작에서, 히어러블 장치(200)는 분석 결과, 사용자의 자세에 대한 정보를 확인할 수 있다. 예를 들어, 사용자의 자세에 대한 정보는 사용자가 정자세를 기준으로 목이 숙여진 각도에 대한 정보일 수 있다. 히어러블 장치(200)는 정자세에 대응하는 값과 제 2 센싱 데이터를 분석한 값을 비교하여 목이 숙여진 각도를 확인할 수 있다. 예를 들어, 센싱 데이터는 x, y, z 축을 기준으로 각 축에 인가되는 중력과, 추의 움직임으로 인해 발생하는 물리적 변화를 나타낼 수 있다. 예를 들어, 도 7에서와 같이, 사용자가 정자세로 서 있는 경우(701), 중력은 모두 z 축 방향으로 인가되는 것을 가정할 수 있다. 사용자가 고개를 숙이는 경우(703) 중력은 z 축 방향과 y 축 방향으로 인가되며, z축 방향으로 인가되는 힘과 y축 방향으로 인가되는 힘의 합이 중력일 수 있다. 사용자가 옆으로 비스듬히 고개를 숙이는 경우 중력은 z축 방향, y축 방향 및 x축 방향으로 인가되며, z축 방향으로 인가되는 힘, y축 방향으로 인가되는 힘 및 x축 방향으로 인가되는 모든 힘의 합이 중력일 수 있다. 히어러블 장치(200)가 우측용 히어러블 장치인지, 좌측용 히어러블 장치인지에 따라 y축의 위상 전환이 필요할 수 있으므로, 히어러블 장치(200)는, 히어러블 장치(200)가 우측용 히어러블 장치인지, 좌측용 히어러블 장치인지 판단할 수도 있다. 모든 축들의 방향으로 인가되는 힘의 합이 중력이 되는 점을 이용하여, 히어러블 장치(200)는 고개가 숙여진 각도(705)를 계산할 수 있다. 예를 들어, 히어러블 장치(200)는 x축으로 기울어진 각도 ax와, y축으로 기울어진 각도 ay의 값을 이용하여, 고개가 숙여진 각도를 계산할 수 있다. 예를 들어, 고개가 숙여진 각도 θ=tan^-1(ay/ax)로 계산될 수 있다.
한편, 도 7에서는 z축 방향으로만 중력이 인가되는 상태를 정자세에 대응하는 상태로 설명하였으나, 개인화 파라미터에 기반하여 사용자 별로 정자세에서 각 축에 인가되는 힘이 상이할 수 있고, 목이 숙여진 각도를 계산함에 있어 개인화 파라미터에 따른 각 축에 인가되는 힘을 이용할 수 있다.
다양한 실시예에 따라, 도 8에서와 같이, 히어러블 장치(200)는 우측용 히어러블 장치(800-1)와 좌측용 히어러블 장치(800-2)를 포함할 수 있다. 우측용 히어러블 장치(800-1)와 좌측용 히어러블 장치(800-2) 각각은 적어도 하나의 센서를 포함할 수 있다. 히어러블 장치(800-1, 800-2)의 X 축(801, 811)은 히어러블 장치(800-1, 800-2)가 사용자에 의해 정자세로 착용될 경우, 중력 방향을 나타내는 축일 수 있다. 히어러블 장치(800-1, 800-2)의 Y 축(803, 813) 및 Z축(805,815) 각각은 서로 수직하고, X 축(801, 811)과 수직하여 공간좌표계를 형성하는 축들일 수 있다. 도 8에서와 같이, 우측용 히어러블 장치(800-1)의 센서와 좌측용 히어러블 장치(800-2)의 센서는 양측의 하드웨어 특성에 따라 다르게 실장될 수 있다. 이에 따라, 우측용 히어러블 장치(800-1)와 좌측용 히어러블 장치(800-2)가 동시에 데이터를 센싱하더라도, 각각의 센싱 데이터는 상이 값을 나타낼 수 있다. 예를 들어, 도 9의 (a)는 우측용 히어러블 장치(800-1)에서 획득한 센싱 데이터이고, 도 9의 (b)는 좌측용 히어러블 장치(800-2)에서 획득한 센싱 데이터일 수 있다. 우측용 히어러블 장치(800-1)의 센서가 실장된 실장 축과 좌측용 히어러블 장치(800-2)의 센서가 실장된 실장 축에 기반하여, 각각의 히어러블 장치(800-1, 800-2)에서 획득한 센싱 데이터를 좌표축 변환할 수 있다. 예를 들어, 도 8과 같이, 우측용 히어러블 장치(800-1)의 X축(801)과 좌측용 히어러블 장치(800-2)의 X 축(811)이 대칭으로 실장된 경우, 우측용 히어러블 장치(800-1)와 좌측용 히어러블 장치(800-2) 중 어느 하나의 히어러블 장치의 X 축을 180도 위상 변환시킴으로써 우측용 히어러블 장치(800-1)와 좌측용 히어러블 장치(800-2)의 좌표축을 일치시킬 수 있다. 한편, 좌표축 변환 과정은, 우측용 히어러블 장치(800-1)와 좌측용 히어러블 장치(800-2) 중 마스터 장치로 설정된 히어러블 장치에서 수행될 수도 있고, 우측용 히어러블 장치(800-1) 및 좌측용 히어러블 장치(800-2)와 근거리 통신 연결이 형성된 전자 장치에서 수행될 수도 있다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 611 동작에서, 사용자의 자세에 대한 정보가 지정된 조건을 만족하는지 확인할 수 있다. 예를 들어, 히어러블 장치(200)는 사용자의 자세에 대한 정보에 기반하여, 목이 숙여진 각도가 설정된 각도를 초과하는 경우, 사용자의 자세에 대한 정보가 지정된 조건을 만족하는 것으로 확인할 수 있다. 히어러블 장치(200)는 601 내지 611 동작을 반복함으로써 시간에 따른 목의 각도를 모니터링할 수 있다. 예를 들어, 도 10은 시간에 따른 목의 각도를 나타내며, 목의 각도는 개인화 파라미터를 기반으로 하는 기준 자세와 비교하여 목이 기울어진 각도를 의미할 수 있다. 히어러블 장치(200)는 목의 각도(1001)가 설정된 범위(1003)를 벗어나는 경우 지정된 조건을 만족하는 것으로 확인할 수 있다. 또 다른 예를 들어, 히어러블 장치(200)는, 사용자의 자세에 대한 정보에 기반하여, 목이 숙여진 각도의 변화가 설정된 각도를 초과하는 경우, 사용자의 자세에 대한 정보가 지정된 조건을 만족하는 것으로 확인할 수 있다. 예를 들어, 목이 숙여진 각도가 순간적인 변화에 의해, 설정된 각도를 초과하는 경우 사용자의 자세에 대한 정보가 지정된 조건을 만족하는 것으로 확인할 수 있다.
다양한 실시예에 따라서, 사용자의 자세에 대한 정보가 지정된 조건을 만족하는 것으로 확인되면(611-예), 히어러블 장치(200)는, 613 동작에서, 알림을 제공할 수 있다. 히어러블 장치(200)는 음향 출력 모듈(240)을 통해 소리를 출력할 수 있다. 히어러블 장치(200)는 히어러블 장치(200)와 근거리 무선 통신 연결이 형성된 전자 장치에게 알림 신호를 전송할 수 있다. 이에 따라, 사용자의 목이 기울어진 각도가 설정된 범위를 벗어나는 경우 사용자에게 알림을 제공할 수 있다. 사용자의 자세에 대한 정보가 지정된 조건을 만족하지 않는 것으로 확인되면(611-아니오), 히어러블 장치(200)는 알림을 제공하지 않고, 사용자의 자세를 확인하는 알고리즘을 종료할 수 있다.
도 11은 다양한 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다. 도 11에서의 각 동작들은 순서가 제한되지는 않으며, 인접하는 두 개의 동작 사이에 다른 동작이 더 수행될 수도 있다. 아울러, 도 11의 동작들 중 적어도 일부가 생략될 수도 있으며, 상술한 설명은 본 문서의 다른 흐름도에도 동일하게 적용될 수 있다. 본 문서의 다양한 실시예들에서, 전자 장치(101)가 특정 동작을 수행하는 표현은, 전자 장치(101)의 프로세서(120)가 특정 동작을 수행하거나, 프로세서(120)가 다른 하드웨어로 하여금 특정 동작을 수행하도록 제어함을 의미할 수 있다. 또는, 전자 장치(101)가 특정 동작을 수행하는 표현은, 메모리(130)에 저장된 인스트럭션들이 실행됨에 따라, 프로세서(120) 또는, 다른 하드웨어가 특정 동작을 수행함을 의미할 수 있으며, 메모리(130)에 특정 동작 수행을 야기하도록 하는 인스트럭션들이 저장됨을 의미할 수도 있다. 도 11의 실시예는, 도 12 내지 도 14를 참조하여 더욱 상세하게 설명하도록 한다. 도 12는 다양한 실시예에 따른 전자 장치에서 제공하는 알림을 설명하기 위한 도면이다. 도 13은 다양한 실시예에 따른 전자 장치에서 제공하는 스트레칭 영상을 설명하기 위한 도면이다. 도 14는 다양한 실시예에 따른 전자 장치에서 제공하는 건강 관리 프로그램을 설명하기 위한 도면이다.
다양한 실시예에 따라서, 전자 장치(101)(예: 프로세서(120))는, 1101 동작에서, 전자 장치(101)와 근거리 통신 연결이 형성된 히어러블 장치(200)로부터 개인화 파라미터를 수신하여 저장할 수 있다. 예를 들어, 개인화 파라미터는 사용자의 정자세에 대응하는 값일 수 있다. 개인화 파라미터는 사용자의 자세가 정자세인 상태에서 히어러블 장치(200)가 기울어진 정도를 나타내는 값일 수 있다. 미리 저장된 개인화 파라미터가 존재하는 경우, 전자 장치(101)는 수신된 개인화 파라미터에 기반하여 미리 저장된 개인화 파라미터를 업데이트할 수 있다. 1103 동작에서, 전자 장치(101)는 히어러블 장치(200)와 근거리 통신 연결을 해제할 수 있다. 1105 동작에서, 전자 장치(101)는 히어러블 장치(200)와 근거리 통신 연결을 재형성하고, 저장된 개인화 파라미터를, 히어러블 장치(200)로 전송할 수 있다. 전자 장치(101)는 히어러블 장치(200)와의 근거리 통신 연결을 형성함에 기반하여 개인화 파라미터를 전송할 수도 있고, 히어러블 장치(200)로부터 착용 감지 신호를 수신함에 기반하여 개인화 파라미터를 전송할 수도 있다.
다양한 실시예에 따라서, 전자 장치(101)는, 1107 동작에서, 히어러블 장치(200)로부터, 1105 동작에서 전송한 개인화 파라미터에 기반하여 확인된 알림 신호를 수신할 수 있다. 다른 실시예에 따라서, 전자 장치(101)는 히어러블 장치(200)에서 획득된 데이터를 수신하여 사용자의 자세에 대한 정보를 직접 확인할 수도 있다.
다양한 실시예에 따라서, 전자 장치(101)는, 1109 동작에서, 알림 신호를 수신함에 기반하여 알림을 제공할 수 있다. 예를 들어, 전자 장치(101)는 디스플레이를 통해, 알림 화면을 표시할 수 있다. 도 12는 알림 화면의 예이다. 도 12 에서와 같이, 알림 화면(1200)은 "자세를 바르게 해 주세요"와 같은 알림 메시지(1201)를 포함하여 사용자의 자세가 바르지 않음을 알릴 수 있다. 알림 메시지(1201)는 사용자의 자세가 바르지 않음을 안내하는 메시지가 표시되는 빈도(예를 들어, 자세가 안좋은 빈도), 측정된 자세에 대한 정보(예를 들어, 숙여지거나 기울어진 목의 각도)를 더 포함할 수 있다. 알림 화면(1200)은 취소 아이콘(1203)을 포함할 수 있고, 사용자에 의해 취소 아이콘(1203)이 선택되면 알림 화면(1200)을 표시하지 않을 수 있다. 알림 화면(1200)은 알림 끄기 아이콘(1205)을 포함할 수 있고, 사용자에 의해 알림 끄기 아이콘(1205)이 선택되면 설정된 시간 동안 또는 더이상 사용자의 자세에 대한 알림을 제공하지 않을 수 있다. 알림 화면(1200)은 확인 아이콘(1207)을 포함할 수 있고, 사용자에 의해 확인 아이콘(1207)이 선택되면 목과 연관 자세에 대한 정보를 더 표시하거나, 스트레칭 영상을 표시할 수 있다. 도 13은 스트레칭 영상의 예이다. 도 13에서와 같이, 전자 장치(101)는 알림 신호를 수신함에 따라, 사용자의 목 주변 근육을 스트레칭할 수 있는 다양한 영상 중 적어도 일부를 표시할 수 있다. 예를 들어, 승모근 스트레칭(1301)에 대한 이미지(1303, 1305)를 승모근 스트레칭 방법을 설명하는 글(1313)과 함께 표시할 수 있다. 승모근 스트레칭(1301)에 대한 이미지(1303, 1305)는 스트레칭에 대한 동영상으로 표시될 수도 있다. 예를 들어, 사각근 스트레칭(1307)에 대한 이미지(1309, 1311)를 사각근 스트레칭을 설명하는 글(1315)과 함께 표시할 수 있다. 예를 들어, 전자 장치(101)는 스트레칭 이미지 또는 동영상을 조회한 이력에 기반하여, 사용자가 조회한 빈도가 높은 스트레칭 이미지 또는 동영상을 표시할 수 있다. 전자 장치(101)는, 사용자에 대한 정보(예를 들어, 근골격계 질환 여부)에 기반하여 사용자에게 무리가 되는 것으로 분류되는 스트레칭은 표시하지 않을 수도 있다. 도 14는 건강 관리 프로그램의 예이다. 도 14에서와 같이, 건강 관리 프로그램(1401)은, 스트레스 지수를 나타내는 스트레스(1403) 항목, 혈당에 대한 정보를 나타내는 혈당(1405) 항목, 식단에 대한 정보를 나타내는 welstory(1407) 항목 및 자세에 대한 정보를 나타내는 자세 개선하기(1409) 항목 중 적어도 일부를 포함할 수 있다. 사용자가 자세 개선하기(1409) 항목을 선택하면, 전자 장치(101)는 사용자의 자세에 대한 상세 정보(1411)를 표시할 수 있다. 지정된 주기(예를 들어, 1주일) 별로 사용자의 자세에 대한 데일리 평가를 확인하여 표시할 수 있다. 예를 들어, 1주일 단위로 설정된 경우, 1주일에 해당하는 요일들(1413)을 표시하고, 사용자가 각각의 요일들에서 스트레칭(또는 운동)을 수행하였는지 나타내는 아이콘들(1415)을 함께 표시할 수 있다. 그리고, 사용자의 자세에 대한 평가에 대응하여 척추 강화를 위한 운동(1419)을 함께 표시할 수도 있고, 운동의 수행 결과도 함께 표시할 수도 있다. 예를 들어, 운동의 수행 결과는 전자 장치(101)의 센서를 통해 측정한(또는 사용자로부터 입력받은) 운동 시간(1421), 운동 강도(1423)에 대한 정보 및 설정된 운동을 모두 수행하였는지 여부를 나타내는 정보(1417)를 포함할 수 있다. 예를 들어, "안한 운동 재도전"(1425)을 선택하는 사용자 입력에 기반하여, 설정된 운동을 안내하는 이미지 또는 동영상을 표시할 수도 있다.
도 15는 다양한 실시예에 따른 히어러블 장치 및 전자 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다. 도 15의 실시예는 도 16을 참조하여 더욱 상세하게 설명하도록 한다. 도 16은 다양한 실시예에 따른 히어러블 장치와 히어러블 장치로부터 신호를 수신하여 출력하는 전자 장치를 설명하기 위한 도면을 도시한다. 도 15의 동작들 중 이미 상세하게 설명된 동작들에 대하여는, 그 설명을 간략히 하도록 한다.
다양한 실시예에 따라서, 전자 장치(1500)(예: 전자 장치(101))는, 1501 동작에서, 히어러블 장치(200) 와 근거리 통신 연결을 형성할 수 있다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 1503 동작에서, 히어러블 장치(200)의 적어도 하나의 센서를 통해 획득된 데이터에 기반하여 히어러블 장치를 착용한 사용자의 상태 정보를 확인할 수 있다. 히어러블 장치(200)는, 1505 동작에서, 히어러블 장치(200)의 적어도 하나의 센서를 통해 획득된 데이터에 기반하여 사용자에 대응하는 개인화 파라미터를 확인할 수 있다. 히어러블 장치(200)는, 1507 동작에서, 개인화 파라미터와, 개인화 파라미터를 확인한 이후 적어도 하나의 센서를 통해 획득된 데이터에 기반하여 사용자의 자세에 대한 정보를 확인할 수 있다. 히어러블 장치(200)는, 1509 동작에서, 사용자의 자세에 대한 정보가 제 1 조건을 만족하는 것에 기반하여, 알림을 제공할 수 있다. 히어러블 장치(200)는, 1511 동작에서, 사용자의 자세에 대한 정보가 제 1 조건을 만족하는 것에 기반하여, 전자 장치(1500)에게 알림 신호를 전송할 수 있다. 한편, 1509 동작과1511 동작은 모두 수행될 수도 있고, 1509 동작과1511 동작 중 어느 하나의 동작만 수행될 수도 있다. 다양한 실시예에 따라서, 전자 장치(1500)는, 히어러블 장치(200)로부터 수신된 알림 신호에 기반하여, 알림을 제공할 수 있다. 예를 들어, 도 16에서와 같이, 전자 장치(1500)는 알림 화면(1600)을 표시할 수 있다. 이에 따라, 히어러블 장치(200)를 착용한 사용자는 실시간으로 또는 지정된 주기 별로(예: 1분, 10분) 사용자의 자세에 대한 정보를 확인할 수 있다.
도 17은 다양한 실시예에 따른 히어러블 장치의 동작 방법을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 1701 동작에서, 히어러블 장치(200)가 착용된 각도를 확인할 수 있다. 히어러블 장치(200)는 센서를 통해 획득된 데이터에 기반하여 정자세에서 착용된 각도와 현재 히어러블 장치가 기울어진 각도를 비교하여, 히어러블 장치(200)가 착용된 각도를 확인할 수 있다.
다양한 실시예에 따라서, 히어러블 장치(200)는, 1703 동작에서, 히어러블 장치(200)가 착용된 각도가 지정된 범위(예: 50도 내지 100도)를 벗어나는지 확인할 수 있다. 예를 들어, 지정된 범위는 정자세를 기준으로 고개가 숙여지거나 젖혀진 각도가 정해진 각도를 초과하는 것을 의미할 수 있다.
다양한 실시예에 따라서, 히어러블 장치(200)가 착용된 각도가 지정된 범위를 벗어나는 경우(1703-예), 히어러블 장치(200)는 알림을 제공할 수 있다. 히어러블 장치(200)는 히어러블 장치의 음향 출력 모듈을 이용하여 소리를 출력할 수도 있고, 히어러블 장치(200)와 근거리 통신 연결이 형성된 전자 장치에게 알림을 전송할 수도 있다. 히어러블 장치(200)가 착용된 각도가 지정된 범위를 벗어나지 않는 경우(1705-아니오), 히어러블 장치는 알림을 제공하지 않을 수 있다. 이에 따라, 사용자는 별도의 자세 측정 장치를 착용하지 않고도 자세에 대한 정보를 제공받을 수 있다.
다양한 실시예에 따라서, 히어러블 장치(예: 히어러블 장치(200))는, 적어도 하나의 센서(예: 센서(220)) 및 적어도 하나의 프로세서(예: 프로세서(210))를 포함하고, 상기 적어도 하나의 프로세서(예: 프로세서(210))는, 상기 적어도 하나의 센서(예: 센서(220))를 통해 획득된 제 1 데이터에 기반하여 상기 히어러블 장치(200)를 착용한 사용자의 상태 정보를 확인하고, 상기 적어도 하나의 센서(예: 센서(220))를 통해 획득된 제 2 데이터에 기반하여 상기 사용자에 대응하는 개인화 파라미터를 확인하고, 상기 개인화 파라미터 및 상기 적어도 하나의 센서를 통해 획득된 제 3 데이터에 기반하여 상기 사용자의 자세에 대한 정보를 확인하고, 상기 자세에 대한 정보가 제 1 조건을 만족하면, 알림을 제공할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(210))는, 상기 사용자가 상기 히어러블 장치(200)를 착용한 시점에 상기 히어러블 장치(200)가 회전된 정도를 이용하여 상기 사용자에 대응하는 개인화 파라미터를 확인할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(210))는, 상기 제 3 데이터에 기반하여 판단된 자세와 상기 제 2 데이터에 기반하여 판단된 자세의 차이가 특정 범위를 벗어나는 경우, 상기 자세에 대한 정보가 제 1 조건을 만족하는 것으로 판단 할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 센서(예: 센서(220))는 가속도 센서(예: 가속도 센서)를 포함하고, 상기 제 1 데이터는 상기 가속도 센서(예: 가속도 센서)를 통해 획득된 데이터를 포함 할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 센서(예: 센서(220))는 자이로 센서(예: 자이로 센서)를 더 포함하고, 상기 적어도 하나의 프로세서(예: 프로세서(210))는, 상기 사용자의 상태 정보가 제 2 조건을 만족하면, 상기 자이로 센서(예: 자이로 센서)를 활성화하여, 상기 가속도 센서(예: 가속도 센서) 및 상기 자이로 센서(예: 자이로 센서)를 통하여 상기 제 2 데이터를 획득 할 수 있다.
다양한 실시예에 따라서, 통신 회로(예: 통신 회로(230))를 더 포함하고, 상기 적어도 하나의 프로세서(예: 프로세서(210))는, 상기 통신 회로(예: 통신 회로(230))를 통해 상기 히어러블 장치(200)와 근거리 통신 연결이 형성된 전자 장치에게, 상기 개인화 파라미터를 전송 할 수 있다.
다양한 실시예에 따라서, 음향 출력 모듈(예: 음향 출력 모듈(240)) 및 통신 회로(예: 통신 회로(230))를 더 포함하고, 상기 적어도 하나의 프로세서(예: 프로세서(210))는, 상기 자세에 대한 정보가 상기 제 1 조건을 만족하면, 상기 음향 출력 모듈(예: 음향 출력 모듈(240))을 통해 경고음을 출력하거나, 상기 통신 회로(예: 통신 회로(230))를 통해 상기 히어러블 장치(200)와 근거리 통신 연결이 형성된 전자 장치에게 알림 신호를 전송 할 수 있다.
다양한 실시예에 따라서, 통신 회로(예: 통신 회로(230))를 더 포함하고, 상기 적어도 하나의 프로세서(예: 프로세서(210))는, 상기 통신 회로(예: 통신 회로(230))를 통해, 다른 히어러블 장치(200)로부터 센싱 데이터를 수신하고, 상기 센싱 데이터, 상기 개인화 파라미터 및 상기 제 3 데이터에 기반하여 상기 자세에 대한 정보를 확인 할 수 있다.
다양한 실시예에 따라서, 적어도 하나의 센서(예: 센서(220))를 포함하는 히어러블 장치(200)의 동작 방법은, 상기 적어도 하나의 센서(예: 센서(220))를 통해 획득된 제 1 데이터에 기반하여 상기 히어러블 장치(200)를 착용한 사용자의 상태 정보를 확인하는 동작, 상기 적어도 하나의 센서(예: 센서(220))를 통해 획득된 제 2 데이터에 기반하여 상기 사용자에 대응하는 개인화 파라미터를 확인하는 동작, 상기 개인화 파라미터 및 상기 적어도 하나의 센서를 통해 획득된 제 3 데이터에 기반하여 상기 사용자의 자세에 대한 정보를 확인하는 동작, 및 상기 자세에 대한 정보가 제 1 조건을 만족하면, 알림을 제공하는 동작을 포함 할 수 있다.
다양한 실시예에 따라서, 상기 개인화 파라미터를 확인하는 동작은, 상기 사용자가 상기 히어러블 장치(200)를 착용한 시점에 상기 히어러블 장치(200)가 회전된 정도를 이용하여 상기 사용자에 대응하는 개인화 파라미터를 확인하는 동작을 포함 할 수 있다.
다양한 실시예에 따라서, 상기 제 3 데이터에 기반하여 판단된 자세와 상기 제 2 데이터에 기반하여 판단된 자세의 차이가 특정 범위를 벗어나는 경우, 상기 자세에 대한 정보가 제 1 조건을 만족하는 것으로 판단하는 동작을 더 포함할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 센서(예: 센서(220))는 가속도 센서(예: 가속도 센서)를 포함하고, 상기 제 1 데이터는 상기 가속도 센서(예: 가속도 센서)를 통해 획득된 데이터를 포함 할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 센서(예: 센서(220))는 자이로 센서(예: 자이로 센서)를 더 포함하고, 상기 개인화 파라미터를 확인하는 동작은, 상기 사용자의 상태 정보가 제 2 조건을 만족하면, 상기 자이로 센서(예: 자이로 센서)를 활성화하여, 상기 가속도 센서(예: 가속도 센서) 및 상기 자이로 센서(예: 자이로 센서)를 통해 상기 제 2 데이터를 획득하는 동작을 포함 할 수 있다.
다양한 실시예에 따라서, 상기 히어러블 장치(200)의 통신 회로(예: 통신 회로(230))를 통해 상기 히어러블 장치(200)와 근거리 통신 연결이 형성된 전자 장치에게, 상기 개인화 파라미터를 전송하는 동작을 더 포함 할 수 있다.
다양한 실시예에 따라서, 상기 알림을 제공하는 동작은, 상기 자세에 대한 정보가 상기 제 1 조건을 만족하면, 상기 음향 출력 모듈(예: 음향 출력 모듈(240))을 통해 경고음을 출력하거나, 상기 통신 회로(예: 통신 회로(230))를 통해 상기 히어러블 장치(200)와 근거리 통신 연결이 형성된 전자 장치에게 알림 신호를 전송하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 상기 사용자가 상기 히어러블 장치(200)를 착용한 자세에 대한 정보를 확인하는 동작은, 상기 히어러블 장치(200)의 통신 회로(예: 통신 회로(230))를 통해 다른 히어러블 장치(200)로부터 센싱 데이터를 수신하는 동작; 및 상기 센싱 데이터, 상기 개인화 파라미터 및 상기 제 3 데이터에 기반하여 상기 자세에 대한 정보를 확인하는 동작을 포함 할 수 있다.
다양한 실시예에 따라서, 전자 장치(예: 전자 장치(101))에 있어서, 디스플레이(예: 디스플레이 모듈(160)), 통신 회로(예: 통신 모듈(190)) 및 적어도 하나의 프로세서(예: 프로세서(120))를 포함하고, 상기 적어도 하나의 프로세서(예: 프로세서(120))는, 상기 통신 회로(예: 통신 모듈(190))를 통해, 상기 전자 장치(101)와 근거리 통신 연결이 형성된 히어러블 장치(200)로부터 개인화 파라미터를 수신하여 저장하고, 상기 히어러블 장치(200)와 상기 근거리 통신 연결을 해제하고, 상기 히어러블 장치(200)와 근거리 통신 연결을 재형성한 이후, 상기 저장된 개인화 파라미터를, 상기 통신 회로(예: 통신 모듈(190))를 통해, 상기 히어러블 장치(200)로 전송하고, 상기 통신 회로(예: 통신 모듈(190))를 통해, 상기 히어러블 장치(200)로부터, 상기 전송된 개인화 파라미터에 기반하여 확인된 알림 신호를 수신하고, 상기 알림 신호를 수신함에 기반하여 알림을 제공할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120))는, 상기 알림 신호를 수신함에 기반하여, 상기 디스플레이(예: 디스플레이 모듈(160))를 통해 스트레칭 영상을 표시할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120))는, 상기 전자 장치(101)와 근거리 통신 연결이 형성된 제 1 히어러블 장치(200-1)로부터 제 1 데이터를 수신하고, 상기 전자 장치(101)와 상기 근거리 통신 연결이 형성된 제 2 히어러블 장치(200-2)로부터 제 2 데이터를 수신하고, 상기 제 1 데이터 및 상기 제 2 데이터를 이용하여 상기 제 1 히어러블 장치 및 제 2 히어러블 장치 중 적어도 하나를 착용한 사용자의 자세에 대한 정보를 확인할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120))는, 상기 사용자의 자세에 대한 정보가 특정 조건을 만족하면, 알림을 제공할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 히어러블 장치에 있어서,
    적어도 하나의 센서; 및
    적어도 하나의 프로세서;를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 적어도 하나의 센서를 통해 획득된 제 1 데이터에 기반하여 상기 히어러블 장치를 착용한 사용자의 상태 정보를 확인하고,
    상기 적어도 하나의 센서를 통해 획득된 제 2 데이터에 기반하여 상기 사용자에 대응하는 개인화 파라미터를 확인하고,
    상기 개인화 파라미터 및 상기 적어도 하나의 센서를 통해 획득된 제 3 데이터에 기반하여 상기 사용자의 자세에 대한 정보를 확인하고,
    상기 자세에 대한 정보가 제 1 조건을 만족하면, 알림을 제공하는 히어러블 장치.
  2. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 사용자가 상기 히어러블 장치를 착용한 시점에 상기 히어러블 장치가 회전된 정도를 이용하여 상기 사용자에 대응하는 개인화 파라미터를 확인하는, 히어러블 장치.
  3. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제 3 데이터에 기반하여 판단된 상기 사용자의 자세와 상기 제 2 데이터에 기반하여 판단된 상기 사용자의 자세의 차이가 특정 범위를 벗어나는 경우, 상기 자세에 대한 정보가 제 1 조건을 만족하는 것으로 판단하는 히어러블 장치.
  4. 제1항에 있어서,
    상기 적어도 하나의 센서는 가속도 센서를 포함하고,
    상기 제 1 데이터는 상기 가속도 센서를 통해 획득된 데이터를 포함하는, 히어러블 장치.
  5. 제4항에 있어서,
    상기 적어도 하나의 센서는 자이로 센서를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 사용자의 상태 정보가 제 2 조건을 만족하면, 상기 자이로 센서를 활성화하여, 상기 가속도 센서 및 상기 자이로 센서를 통하여 상기 제 2 데이터를 획득하는, 히어러블 장치.
  6. 제1항에 있어서,
    통신 회로;를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 통신 회로를 통해 상기 히어러블 장치와 근거리 통신 연결이 형성된 전자 장치에게, 상기 개인화 파라미터를 전송하는, 히어러블 장치.
  7. 제1항에 있어서,
    음향 출력 모듈; 및
    통신 회로;를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 자세에 대한 정보가 상기 제 1 조건을 만족하면, 상기 음향 출력 모듈을 통해 경고음을 출력하거나, 상기 통신 회로를 통해 상기 히어러블 장치와 근거리 통신 연결이 형성된 전자 장치에게 알림 신호를 전송하는, 히어러블 장치.
  8. 제1항에 있어서,
    통신 회로;를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 통신 회로를 통해, 다른 히어러블 장치로부터 센싱 데이터를 수신하고,
    상기 센싱 데이터, 상기 개인화 파라미터 및 상기 제 3 데이터에 기반하여 상기 자세에 대한 정보를 확인하는, 히어러블 장치.
  9. 적어도 하나의 센서를 포함하는 히어러블 장치의 동작 방법에 있어서,
    상기 적어도 하나의 센서를 통해 획득된 제 1 데이터에 기반하여 상기 히어러블 장치를 착용한 사용자의 상태 정보를 확인하는 동작;
    상기 적어도 하나의 센서를 통해 획득된 제 2 데이터에 기반하여 상기 사용자에 대응하는 개인화 파라미터를 확인하는 동작;
    상기 개인화 파라미터 및 상기 적어도 하나의 센서를 통해 획득된 제 3 데이터에 기반하여 상기 사용자의 자세에 대한 정보를 확인하는 동작; 및
    상기 자세에 대한 정보가 제 1 조건을 만족하면, 알림을 제공하는 동작;을 포함하는 히어러블 장치의 동작 방법.
  10. 제9항에 있어서,
    상기 개인화 파라미터를 확인하는 동작;은
    상기 사용자가 상기 히어러블 장치를 착용한 시점에 상기 히어러블 장치가 회전된 정도를 이용하여 상기 사용자에 대응하는 개인화 파라미터를 확인하는 동작;을 포함하는 히어러블 장치의 동작 방법.
  11. 제9항에 있어서,
    상기 제 3 데이터에 기반하여 판단된 상기 사용자의 자세와 상기 제 2 데이터에 기반하여 판단된 상기 사용자의 자세의 차이가 특정 범위를 벗어나는 경우, 상기 자세에 대한 정보가 제 1 조건을 만족하는 것으로 판단하는 동작;을 더 포함하는 히어러블 장치의 동작 방법.
  12. 제9항에 있어서,
    상기 적어도 하나의 센서는 가속도 센서를 포함하고,
    상기 제 1 데이터는 상기 가속도 센서를 통해 획득된 데이터를 포함하는, 히어러블 장치의 동작 방법.
  13. 제12항에 있어서,
    상기 적어도 하나의 센서는 자이로 센서를 더 포함하고,
    상기 개인화 파라미터를 확인하는 동작은,
    상기 사용자의 상태 정보가 제 2 조건을 만족하면, 상기 자이로 센서를 활성화하여, 상기 가속도 센서 및 상기 자이로 센서를 통해 상기 제 2 데이터를 획득하는 동작;을 포함하는 히어러블 장치의 동작 방법.
  14. 제9항에 있어서,
    상기 히어러블 장치의 통신 회로를 통해 상기 히어러블 장치와 근거리 통신 연결이 형성된 전자 장치에게, 상기 개인화 파라미터를 전송하는 동작;을 더 포함하는 히어러블 장치의 동작 방법.
  15. 제9항에 있어서,
    상기 알림을 제공하는 동작은,
    상기 자세에 대한 정보가 상기 제 1 조건을 만족하면, 상기 음향 출력 모듈을 통해 경고음을 출력하거나, 상기 통신 회로를 통해 상기 히어러블 장치와 근거리 통신 연결이 형성된 전자 장치에게 알림 신호를 전송하는 동작;을 포함하는 히어러블 장치의 동작 방법.
PCT/KR2021/006739 2020-06-30 2021-05-31 전자 장치와 연결된 히어러블 장치 및 이의 동작 방법 WO2022005027A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200079932A KR20220001666A (ko) 2020-06-30 2020-06-30 전자 장치와 연결된 히어러블 장치 및 이의 동작 방법
KR10-2020-0079932 2020-06-30

Publications (1)

Publication Number Publication Date
WO2022005027A1 true WO2022005027A1 (ko) 2022-01-06

Family

ID=79316430

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/006739 WO2022005027A1 (ko) 2020-06-30 2021-05-31 전자 장치와 연결된 히어러블 장치 및 이의 동작 방법

Country Status (2)

Country Link
KR (1) KR20220001666A (ko)
WO (1) WO2022005027A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240049158A (ko) * 2022-10-07 2024-04-16 삼성전자주식회사 센서를 포함하는 웨어러블 전자 장치 및 이의 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100872845B1 (ko) * 2007-07-20 2008-12-09 한국전자통신연구원 사용자 맞춤형 오디오 서비스가 가능한 헤드셋 및 이를이용한 사용자 맞춤형 오디오 서비스 방법
KR101496661B1 (ko) * 2013-10-08 2015-02-27 유한회사 청텍 다기능 스포츠 헤드셋
KR101831968B1 (ko) * 2016-12-14 2018-04-04 우성배 자세 교정 웨어러블 이어폰 장치
KR101910282B1 (ko) * 2017-07-19 2018-10-19 허진숙 골전도 보청기를 이용한 건강관리 장치
US20190342651A1 (en) * 2016-09-06 2019-11-07 Apple Inc. Wireless Ear Buds

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100872845B1 (ko) * 2007-07-20 2008-12-09 한국전자통신연구원 사용자 맞춤형 오디오 서비스가 가능한 헤드셋 및 이를이용한 사용자 맞춤형 오디오 서비스 방법
KR101496661B1 (ko) * 2013-10-08 2015-02-27 유한회사 청텍 다기능 스포츠 헤드셋
US20190342651A1 (en) * 2016-09-06 2019-11-07 Apple Inc. Wireless Ear Buds
KR101831968B1 (ko) * 2016-12-14 2018-04-04 우성배 자세 교정 웨어러블 이어폰 장치
KR101910282B1 (ko) * 2017-07-19 2018-10-19 허진숙 골전도 보청기를 이용한 건강관리 장치

Also Published As

Publication number Publication date
KR20220001666A (ko) 2022-01-06

Similar Documents

Publication Publication Date Title
WO2022124551A1 (ko) 복수의 전극을 포함하는 웨어러블 전자 장치
WO2022010156A1 (ko) 전자 장치의 지자기 센서 보정 방법 및 그 전자 장치
WO2022005027A1 (ko) 전자 장치와 연결된 히어러블 장치 및 이의 동작 방법
WO2022240107A1 (ko) 생체 정보 측정을 위한 적어도 하나의 전극을 포함하는 웨어러블 장치
WO2022177299A1 (ko) 통화 기능의 제어 방법 및 이를 지원하는 전자 장치
WO2022019442A1 (ko) 터치 입력을 감지하는 전자 장치 및 그 방법
WO2022131534A1 (ko) 웨어러블 디바이스 및 웨어러블 디바이스의 모션 제스처 검출 방법
WO2022071708A1 (ko) 컨텐츠 추천 서비스를 제공하는 전자 장치 및 그 방법
WO2023085724A1 (ko) 이어버드와 형성되는 각도에 기반하여 디스플레이의 휘도를 조절하는 전자 장치, 방법, 비일시적 컴퓨터 판독가능 저장 매체
WO2022019648A1 (ko) 이미지 내 오브젝트의 높이를 확인하는 전자 장치 및 그 동작 방법
WO2022191449A1 (ko) 진동 피드백을 제공하는 전자 장치 및 그 동작 방법
WO2022191444A1 (ko) 전자 장치의 모션 센서 및 gps 모듈을 이용하여 사용자의 보폭 길이를 판단하는 방법 및 그 전자 장치
WO2023163341A1 (ko) 터치 입력의 인식 감도를 조정하는 방법 및 이를 수행하는 전자 장치
WO2023018202A1 (ko) 애니메이션 효과 제공 방법 및 이를 지원하는 전자 장치
WO2024058472A1 (ko) 어플리케이션에 대한 정보를 외부 디스플레이를 통해 제공하는 웨어러블 장치 및 상기 웨어러블 장치의 제어 방법
WO2022220416A1 (ko) 터치 입력 데이터를 처리하는 전자 장치 및 터치 입력 데이터를 처리하는 전자 장치를 제어하는 방법
WO2022010268A1 (ko) 사용자 인증 방법 및 이를 지원하는 전자 장치
WO2023113303A1 (ko) 전자 장치 및 외부 장치에서의 출력 데이터 결정 방법
WO2023080424A1 (ko) 센서 데이터를 획득하는 방법 및 장치
WO2022080769A1 (ko) Uwb 안테나를 포함하는 전자 장치 및 6dof 구현 방법
WO2021235798A1 (ko) 전자 장치 및 전자 장치에서 키보드의 입력을 이용하여 사용자 인증을 수행하는 방법
WO2023277295A1 (ko) 시선 방향 인식 시에 에러를 보정하는 전자 장치 및 전자 장치의 동작 방법
WO2022103108A1 (ko) 전자 장치 및 전자 장치의 터치 입력 감지 방법
WO2022164043A1 (ko) 터치 입력의 가속도 및/또는 각 가속도를 이용하여 예측 알고리즘의 적용 여부를 판단하는 전자 장치 및 그 제어 방법
WO2024090826A1 (ko) 사용자의 제스처를 이용해 인증을 수행하는 전자 장치 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21834085

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21834085

Country of ref document: EP

Kind code of ref document: A1