WO2024075935A1 - 낙상 감지를 수행하기 위한 전자 장치 및 방법 - Google Patents

낙상 감지를 수행하기 위한 전자 장치 및 방법 Download PDF

Info

Publication number
WO2024075935A1
WO2024075935A1 PCT/KR2023/009120 KR2023009120W WO2024075935A1 WO 2024075935 A1 WO2024075935 A1 WO 2024075935A1 KR 2023009120 W KR2023009120 W KR 2023009120W WO 2024075935 A1 WO2024075935 A1 WO 2024075935A1
Authority
WO
WIPO (PCT)
Prior art keywords
processor
electronic device
user
walking
information
Prior art date
Application number
PCT/KR2023/009120
Other languages
English (en)
French (fr)
Inventor
김현성
박정민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220143186A external-priority patent/KR20240049065A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP23734888.3A priority Critical patent/EP4372710A1/en
Publication of WO2024075935A1 publication Critical patent/WO2024075935A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0423Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0446Sensor means for detecting worn on the body to detect changes of posture, e.g. a fall, inclination, acceleration, gait

Definitions

  • the electronic device may use at least one sensor to identify the movement of the user carrying the electronic device.
  • An electronic device can identify various activity states of a user based on the user's movements. For example, the electronic device can identify information about the user's steps.
  • Electronic devices can provide users with various services related to their steps.
  • an electronic device may include at least one sensor, memory, and processor.
  • the processor may be set to obtain first information about the first walking pattern of the user of the electronic device and second information about the user's walking environment using the at least one sensor.
  • the processor may be set to identify a first value indicating a difference between the first walking pattern and the reference walking pattern, based on the first information and third information about the reference walking pattern stored in the memory. there is.
  • the first walking pattern and the second walking pattern It can be set to identify a second value that represents a difference between gait patterns.
  • the processor may be configured to identify a threshold value related to fall detection based on the first value, the second value, and the second information.
  • the processor may be configured to execute the function for detecting a fall based on a comparison between the threshold value and a value obtained through the at least one sensor.
  • the method of the electronic device includes first information about the first walking pattern of the user of the electronic device and second information about the user's walking environment using at least one sensor of the electronic device.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to one embodiment.
  • FIG. 2 is a simplified block diagram of an electronic device, according to an example.
  • Figure 3 shows a simplified block diagram of a processor included in an electronic device, according to one example.
  • FIG. 4 is a flowchart illustrating the operation of an electronic device, according to an example.
  • FIG. 5 is a flowchart illustrating the operation of an electronic device, according to an example.
  • 6A, 6B, and 6C show examples of trends for identifying a user's walking environment, according to one example.
  • 7A, 7B, and 7C show examples of trends for identifying a user's walking environment, according to one example.
  • Figure 8 shows an example of a trend for identifying a user's walking environment, according to one example.
  • Figure 9 shows an example of an operation of an electronic device for learning data according to an example.
  • FIG. 10 is a flowchart illustrating the operation of an electronic device, according to an example.
  • FIG 11 shows an example of an operation of an electronic device according to an example.
  • Figure 12 shows an example of an operation of an electronic device according to an example.
  • FIG. 13 is a flowchart illustrating the operation of an electronic device, according to an example.
  • FIG. 14 shows an example of a designated matrix according to one example.
  • Figure 15 shows an example of a matrix representing a population according to an example.
  • Figure 16 shows an example of a matrix representing information about fitness according to an example.
  • Figure 17 shows an example of a matrix representing at least a portion of the population according to an example.
  • Figure 18 shows an example of a learning result for a walking pattern according to an example.
  • Figure 19 shows an example of an operating mode of a processor according to an example.
  • FIGS. 20A and 20B show an example in which values for a walking pattern according to an example are displayed as three-dimensional coordinates.
  • FIGS. 21A and 21B show an example of a screen for warning of the risk of falling according to an example.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to one embodiment.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a long-distance wireless communication network.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a first side e.g., bottom side
  • a designated high frequency band e.g., mmWave band
  • a plurality of antennas e.g., array antennas
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • an electronic device may provide a notification to the user based on identifying that the user has fallen.
  • the electronic device can learn the user's walking pattern before identifying that a fall has occurred.
  • the electronic device may identify a threshold value related to detecting a fall for the user based on the difference between the learned walking pattern and the walking pattern identified through the sensor.
  • the electronic device may execute a function for fall detection based on the identified threshold.
  • a threshold value related to fall detection is identified for the user, and a function for fall detection is executed based on the identified threshold value.
  • FIG. 2 is a simplified block diagram of an electronic device, according to one example.
  • the electronic device 200 may be configured in various forms.
  • the electronic device 200 may be implemented in various forms that can be carried by the user, such as a smart phone, smart watch, smart band, smart ring, wireless earphone, or smart glasses.
  • electronic device 200 may correspond to electronic device 101 in FIG. 1 .
  • the electronic device 200 may include a processor 210, a sensor 220, a memory 230, and/or a communication circuit 240.
  • the electronic device 200 may include at least one of a processor 210, a sensor 220, a memory 230, and a communication circuit 240.
  • the processor 210, sensor 220, memory 230, and communication circuit 240 may be omitted depending on the embodiment.
  • processor 210 may correspond to processor 120 of FIG. 1 .
  • the processor 210 may be operatively or operably coupled with or connected with the sensor 220, the memory 230, and the communication circuit 240.
  • processor 210 being operatively coupled with another component may mean that processor 210 can control the other component.
  • the processor 210 may control the operation of the sensor 220.
  • Processor 210 may activate or deactivate sensor 220.
  • the processor 210 may process information obtained from the sensor 220.
  • the processor 210 may be comprised of at least one processor.
  • Processor 210 may include at least one processor.
  • processor 210 may include hardware components for processing data based on one or more instructions.
  • Hardware components for processing data may include, for example, an arithmetic and logic unit (ALU), a field programmable gate array (FPGA), and/or a central processing unit (CPU).
  • ALU arithmetic and logic unit
  • FPGA field programmable gate array
  • CPU central processing unit
  • the electronic device 200 may include a sensor 220.
  • Sensor 220 may be composed of at least one sensor.
  • sensor 430 may correspond to sensor module 176 in FIG. 1 .
  • the sensor 220 may include at least one of an acceleration sensor 221, a gyro sensor 222, and an air pressure sensor 223.
  • the acceleration sensor 221 may identify (or measure, detect) the acceleration of the electronic device 200 in three directions: x-axis, y-axis, and z-axis.
  • the gyro sensor 222 may identify (or measure or detect) the angular velocity of the electronic device 200 in three directions: x-axis, y-axis, and z-axis.
  • the electronic device 200 may include an inertial sensor consisting of an acceleration sensor 221 and a gyro sensor 222.
  • the barometric pressure sensor 223 may identify (or measure or sense) the barometric pressure around the electronic device 200.
  • the processor 210 identifies the height (or altitude) at which the electronic device 200 is located above the ground based on data about the air pressure around the electronic device 200 identified using the air pressure sensor 223. can do.
  • the senor 220 may further include a sensor for acquiring (or identifying, measuring, or detecting) various data about the user.
  • sensor 220 may include a body temperature sensor.
  • the processor 210 may measure the skin temperature of a part of the user's body through a body temperature sensor.
  • the processor 210 may obtain the user's body temperature based on the skin temperature of a part of the user's body.
  • sensor 220 may include a heart rate variability (HRV) sensor.
  • HRV heart rate variability
  • the processor 210 may measure the regularity or variability of heart rate through the HRV sensor.
  • the processor 210 may obtain information about the regularity or variability of heart rate through the HRV sensor.
  • the electronic device 200 may include a memory 230.
  • Memory 230 may be used to store information or data.
  • memory 230 may be used to store data obtained from a user.
  • memory 230 may correspond to memory 130 of FIG. 1 .
  • memory 230 may be a volatile memory unit or units.
  • memory 230 may be a non-volatile memory unit or units.
  • memory 230 may be another form of computer-readable medium, such as a magnetic or optical disk.
  • the memory 230 may store data obtained based on an operation performed by the processor 210 (eg, an algorithm execution operation).
  • the memory 230 may store data obtained from the sensor 220 (eg, data regarding the user's walking).
  • the electronic device 200 may include a communication circuit 240.
  • communication circuit 240 may correspond to communication module 190 of FIG. 1 .
  • communication circuitry 240 may be used for various radio access technologies (RATs).
  • RATs radio access technologies
  • the communication circuit 240 may be used to perform Bluetooth (Bluetooth) communication, wireless local area network (WLAN) communication, or ultra wideband (UWB) communication.
  • communications circuitry 240 may be used to perform cellular communications.
  • the electronic device 200 may include various components in addition to the components shown.
  • the electronic device 200 may include a display.
  • the display can be used to display various screens.
  • a display can be used to output content, data, or signals on a screen.
  • the display may correspond to display module 160 in FIG. 1 .
  • the electronic device 200 may further include a global positioning system (GPS) circuit. GPS circuitry may be used to identify the location of the electronic device 200.
  • GPS global positioning system
  • Figure 3 shows a simplified block diagram of a processor included in an electronic device, according to one example.
  • the processor 210 may include at least one of a fall detection circuit 310, a fall risk identification circuit 320, and a fall notification circuit 330.
  • the processor 210 can monitor whether a fall has occurred using the fall detection circuit 310.
  • the processor 210 can predict the user's fall risk by using the fall risk identification circuit 320 to monitor the user's walking and analyze and learn the user's walking pattern before predicting the fall risk.
  • the fall detection circuit 310 may include at least one of a fall motion analysis circuit 311, a fall environment analysis circuit 312, a fall sensitivity adjustment circuit 313, and a fall identification circuit 314. .
  • the processor 210 may use the fall motion analysis circuit 311 of the fall detection circuit 310 to identify the user's movement when detecting a fall.
  • the processor 210 may use the fall environment analysis circuit 312 of the fall detection circuit 310 to identify the environment around the electronic device 200 (or the user) when detecting a fall.
  • the processor 210 may use the fall sensitivity adjustment circuit 314 of the fall detection circuit 310 to change the sensitivity for fall identification when there is a high possibility that a user will fall.
  • the processor 210 may use the fall identification circuit 314 of the fall detection circuit 310 to identify that a fall has occurred in the user based on information about the user's movement.
  • the fall risk identification circuit 320 may include at least one of a walking environment identification circuit 321, a walking pattern learning circuit 322, a walking pattern analysis circuit 323, and a fall risk prediction circuit 324. You can.
  • the processor 210 may use the walking environment identification circuit 321 of the fall risk identification circuit 320 to identify the environment around the electronic device 200 (or the user) when the user is walking.
  • the processor 210 can continuously learn the user's walking pattern when the user walks, using the walking pattern learning circuit 322 of the fall risk identification circuit 320.
  • the processor 210 may use the walking pattern analysis circuit 323 of the fall risk identification circuit 320 to obtain and store information about the user's walking pattern.
  • the processor 210 may use the fall risk prediction circuit 324 of the fall risk identification circuit 320 to identify the probability that a user will fall based on the walking environment and walking pattern.
  • the fall notification circuit 330 may include at least one of a fall occurrence notification circuit 331 and a fall risk notification circuit 332.
  • the processor 210 uses the fall occurrence notification circuit 331 of the fall notification circuit 330 to provide the user or another user with a notification indicating that a fall has occurred when the user falls. You can send a rescue signal through your contacts.
  • the processor 210 may use the fall risk notification circuit 332 of the fall notification circuit 330 to provide a notification indicating that there is a high probability of a fall occurring to the user when the probability of a fall occurring is high.
  • FIG. 4 is a flowchart illustrating the operation of an electronic device, according to an example.
  • the processor 210 selects a first gait pattern (e.g., gait, movement pattern, etc. - the feature should not be understood as limited to walking, but may be a running pattern or other movement pattern).
  • First information about the walking environment and second information about the walking environment e.g., surroundings of the electronic device 200, geographical area surrounding the electronic device 200, walking state, etc.
  • the processor 210 may use the sensor 220 (or at least one sensor) and/or the communication circuit 240 to collect first information about the first walking pattern of the user of the electronic device 200 and the user.
  • Second information about the walking environment can be obtained.
  • the processor 210 may use the sensor 220 to obtain first information about the first walking pattern of the user of the electronic device 200.
  • the processor 210 uses the acceleration sensor 221 to obtain first information about the first walking pattern based on first data acquired during a designated time interval (e.g., a first time interval). can do.
  • the processor 210 may acquire acceleration trends corresponding to each of the three axes during a designated time period.
  • the processor 210 may identify the user's first walking pattern based on a difference value of sliding window summing identified based on the acquired acceleration trends. The operation of the processor 210 to identify the user's first walking pattern will be described later with reference to FIGS. 6A to 8.
  • the processor 210 may obtain second information about the walking environment of the user of the electronic device 200.
  • the processor 210 may, based on second data acquired using at least one of the acceleration sensor 221, the gyro sensor 222, the barometric pressure sensor 223, and the communication circuit 240, Second information about the walking environment can be obtained.
  • the second information includes information about the slope of the movement path of the electronic device 200 (i.e., information about the slope of the path along which the electronic device 200 moves or moves), and the movement of the electronic device 200. It may include information about the state, and information about the weather during a specified time period.
  • the processor 210 may use at least a portion of the second data obtained using at least one of the acceleration sensor 221, the gyro sensor 222, and the barometric pressure sensor 223 as indicated by a plurality of parameters.
  • a designated model e.g., artificial intelligence model and/or machine learning model
  • information about the movement state of the electronic device 200 can be obtained.
  • a plurality of parameters of a designated model may be set based on learning of third data identified according to the user's walking history. An embodiment in which the processor 210 obtains information about the movement state of the electronic device 200 using a designated model will be described later with reference to FIG. 9 .
  • the processor 210 may obtain information about the weather for a designated time period from an external electronic device (eg, a server) using the communication circuit 240.
  • an external electronic device may have weather information surrounding the electronic device 200.
  • the processor 210 may obtain information about the slope of the movement path from an external electronic device (eg, a server) using the communication circuit 240.
  • the external electronic device may be installed in the environment where the electronic device 200 is located so that information about the inclination of the movement path of the electronic device 200 (e.g., information about the inclination of the ground relative to the direction of movement of the electronic device 200) is obtained. Alternatively, you can store data about the topology of the region.
  • processor 210 may identify a first value (or other indication) indicating a difference between the first gait pattern and the reference gait pattern. For example, the processor 210 identifies a first value representing the difference between the first gait pattern and the reference gait pattern based on the first information and third information about the reference gait pattern stored in memory 230. (e.g. identification through comparison or calculation). For example, the processor 210 may identify a first degree of similarity between the first walking pattern and the reference walking pattern based on the first information and the third information.
  • the first value may be a scalar value, a vector value, an array of values, etc.
  • the processor 210 may store third information about the reference walking pattern in the memory 230.
  • the reference walking pattern may mean the walking pattern of general users (e.g., a generalized or averaged walking pattern associated with a plurality of users, a basic walking pattern associated with a general user, etc.).
  • the processor 210 may receive third information about the reference walking pattern from an external electronic device (eg, a server) using the communication circuit 240.
  • the processor 210 may store the received third information in the memory 230.
  • the third information may be obtained based on walking patterns related to a plurality of users stored in an external electronic device (eg, server).
  • the third information about the standard walking pattern may be stored in the memory 230 of the electronic device 200.
  • the processor 210 may identify a first value indicating a difference between the first walking pattern and the reference walking pattern based on the first information and the third information.
  • Processor 210 may identify one or more values related to the first gait pattern.
  • Processor 210 may identify one or more values related to the reference gait pattern.
  • the reference gait pattern may correspond to one or more values associated with the first gait pattern, such as associated with a feature of the same gait pattern that is identified based on the one or more values associated with the first gait pattern.
  • the processor 210 determines the first walking pattern and A first value representing the difference between the reference walking patterns may be identified.
  • the processor 210 may identify a first degree of similarity between the first walking pattern and the reference walking pattern based on the Euclidean distance between the values related to the first walking pattern and the values related to the reference walking pattern. For example, the first value indicating the difference between the first walking pattern and the reference walking pattern and the first similarity may be inversely proportional. The larger the first value representing the difference between the first walking pattern and the reference walking pattern, the smaller the first similarity may be. The smaller the first value indicating the difference between the first walking pattern and the reference walking pattern, the greater the first similarity may be.
  • processor 210 may identify a second value (or other indication) indicating a difference between the first and second gait patterns. For example, the processor 210 may determine the first walking pattern based on the first information and the fourth information regarding the user's second walking pattern, which is stored in the memory 230 and identified based on the user's walking history. and a second value representing the difference between the second walking patterns may be identified. For example, the processor 210 may identify a second similarity between the first walking pattern and the second walking pattern based on the first information and the fourth information.
  • the second value may be a scalar value, a vector value, an array of values, etc.
  • the processor 210 may store fourth information about the second walking pattern in the memory 230.
  • the processor 210 may identify fourth information about the second walking pattern based on the user's walking history. For example, the processor 210 may perform learning about the user's walking pattern based on the user's walking history.
  • the processor 210 may obtain fourth information about the second walking pattern based on learning about the user's walking pattern.
  • the processor 210 may store the obtained fourth information in the memory 230.
  • the fourth information regarding the second walking pattern may be stored in the memory 230 of the electronic device 200.
  • the processor 210 creates a population containing values regarding the walking pattern (e.g., gait, movement pattern) according to the user's plural steps. can be identified.
  • the processor 210 may use the sensor 220 to identify the user's first steps.
  • the processor 210 may identify feature values according to the first steps (eg, feature values to be described later with reference to FIG. 12 ) based on identifying that the number of first steps is more than a specified number.
  • the processor 210 may identify feature values for the user's second steps that occurred before the first steps were identified.
  • Feature values for the second steps may be stored in the memory 230.
  • feature values for the second steps may be values learned according to the user's walking history.
  • the processor 210 may identify values related to the walking pattern according to the first steps, based on the characteristic values according to the first steps.
  • the processor 210 may identify values related to the walking pattern according to the second steps, based on the characteristic values according to the second steps.
  • the processor 210 divides the values related to the walking pattern according to the first steps and the values related to the walking pattern according to the second steps into a population containing values (or other information) related to the walking pattern according to the plurality of steps. It can be configured.
  • the processor 210 may identify at least a portion of the population according to information about fitness according to a plurality of steps, which is obtained based on the identified population.
  • the processor 210 may perform learning about the user's walking pattern based on at least a portion of the population. A specific example of an operation for learning a user's walking pattern will be described later with reference to FIGS. 10 to 18.
  • the processor 210 may identify a second value indicating a difference between the first walking pattern and the second walking pattern based on the first information and the fourth information.
  • Processor 210 may identify one or more values related to the first gait pattern.
  • Processor 210 may identify one or more values related to the second gait pattern. For example, they may correspond to one or more values associated with a first gait pattern by being associated with the same gait pattern characteristics as those identified based on the one or more values associated with the first gait pattern.
  • Processor 210 may identify a second value representing the difference between the first and second walking patterns based on the Euclidean distance between the values for the first walking pattern and the values for the second walking pattern. You can.
  • the processor 210 may identify a second similarity between the first and second walking patterns based on the Euclidean distance between the values for the first walking pattern and the values for the second walking pattern.
  • the second value indicating the difference between the first and second walking patterns and the second similarity may be inversely proportional. The larger the second value representing the difference between the first and second walking patterns, the smaller the second similarity may be. The smaller the second value representing the difference between the first and second walking patterns, the greater the second similarity may be.
  • the processor 210 may identify a threshold value (e.g., a preset value, a predefined indication) related to fall detection. For example, processor 210 may be configured to: Based on at least one), a threshold value associated with fall detection may be identified.
  • a threshold value e.g., a preset value, a predefined indication
  • the processor 210 may execute a function for fall detection.
  • the processor 210 may execute a function for fall detection based on a comparison between an identified threshold value and a value obtained through the sensor 220.
  • a threshold value associated with fall detection may include a reference value (or other indication) for determining whether a fall has occurred to the user.
  • the value obtained through the sensor 220 may include a value related to the amount of impact, a value related to the amount of change in air pressure, and/or a value related to the time when the user's activity was stopped.
  • the processor 210 may identify that a fall has occurred in the user based on identifying that the value for determining the user's fall is greater than or equal to a threshold value.
  • the thresholds associated with fall detection may include a first threshold related to the amount of impact, a second threshold related to the amount of change in barometric pressure, and/or the duration of cessation of activity (or the time at which the activity was interrupted, e.g.
  • a third threshold may be included regarding the time at which movement (such as walking) is interrupted or stopped.
  • the processor 210 identifies (or determines) that a fall has occurred to the user based on identifying (or determining) that the value regarding the amount of impact obtained through the sensor 220 is greater than or equal to the first threshold. ), assume, detect, etc.). For example, the processor 210 may identify that a fall has occurred in the user based on identifying that the value related to the change in air pressure obtained through the sensor 220 is greater than or equal to the second threshold. For example, the processor 210 may identify that a fall occurred in the user based on identifying that the time during which the user's activity was interrupted is greater than or equal to a third threshold.
  • the processor 210 determines that the value related to the amount of impact obtained through the sensor 220 is greater than or equal to the first threshold value, and the value related to the change in air pressure obtained through the sensor 220 is equal to or greater than the second threshold value, Based on identifying that the time when the user's activity was interrupted is more than the third threshold, it can be identified that the user has fallen.
  • the processor 210 may identify a probability value of a user falling based on the first value, the second value, and the second information.
  • the processor 210 may identify the threshold as one of a plurality of candidate threshold values based on the identified probability value. For example, the processor 210 may identify the risk of falling as one of 'low', 'moderate', 'high', and 'very high' based on the probability value of the user falling.
  • the processor 210 may identify one of a plurality of candidate threshold values according to the risk of falling. As a non-limiting example, a plurality of candidate threshold values according to fall risk can be set as shown in Table 1.
  • a plurality of candidate threshold values can be set according to the risk of falling. For example, if the risk of falling is 'low', the first threshold value regarding the amount of impact may be set to 20 [G] (G-force). If the risk of falling is 'low', the second threshold value regarding the amount of change in air pressure may be set to 0.4 [hPa] (hectopascal). If the risk of falling is 'low', the third threshold regarding the time to stop activity can be set to 60 [s](second). For example, if the risk of falling is 'normal', the first threshold value regarding the amount of impact may be set to 20 [G].
  • the second threshold value regarding the amount of change in air pressure may be set to 0.4 [hPa]. If the risk of falling is 'moderate', the third threshold regarding the time to stop activity can be set to 60 [s](second). For example, if the risk of falling is 'high', the first threshold value regarding the amount of impact may be set to 15 [G]. If the risk of falling is 'high', the second threshold value regarding the amount of change in air pressure may be set to 0.32 [hPa]. If the risk of falling is 'high', the third threshold regarding the time to stop activity can be set to 40 [s](second).
  • the processor 210 may set a probability value of a fall occurring to the user. and, based on the identified probability value, the risk of falling can be identified.
  • the processor 210 may change the sensitivity of the fall detection algorithm by changing the threshold value related to fall detection according to the fall risk.
  • the processor 210 can quickly identify that a fall has occurred in the user by changing the threshold values related to fall detection (eg, a first threshold value, a second threshold value, and a third threshold value).
  • the processor 210 is connected to the electronic device 200, based on the identified probability value and the second information, and provides a notification to warn the user of the risk of falling through an external electronic device worn by the user. To do so, a signal for triggering the external electronic device may be transmitted to the external electronic device.
  • FIG. 5 is a flowchart illustrating the operation of an electronic device, according to an example.
  • the processor 210 may identify data regarding the user's walking (or movement in another direction, such as running). For example, the processor 210 may identify data regarding the acceleration of the electronic device 200 using the acceleration sensor 221. For example, the processor 210 may use the gyro sensor 222 to identify data regarding the angular velocity of the electronic device 200. For example, processor 210 may use barometric pressure sensor 223 to identify data regarding barometric pressure (or altitude of electronic device 200).
  • processor 210 may identify the user's gait (or other movement). For example, the processor 210 may identify the user's gait based on data about the user's gait.
  • the processor 210 may identify the user's steps based on data about the user's steps.
  • the processor 210 may identify the user's steps based on data on three-axis acceleration.
  • Processor 210 may identify the user's gait based on identifying that the user's steps are more than a specified number of times.
  • the processor 210 may identify the amount of change in air pressure based on identifying the user's gait. For example, the processor 210 may identify the amount of change in air pressure through data identified using the air pressure sensor 223, based on identifying the user's walking. For example, data identified using the barometric pressure sensor 223 may be used to identify the altitude of the electronic device 200. The processor 210 may identify whether the altitude of the electronic device 200 changes based on data identified using the barometric pressure sensor 223.
  • the processor 210 may identify whether the amount of change in air pressure (i.e., the amount of change in air pressure) is less than the first amount of change in air pressure.
  • the processor 210 may identify whether the amount of change in atmospheric pressure during a designated time period is less than the first amount of change in atmospheric pressure. For example, the processor 210 may check whether the amount of change in atmospheric pressure at the end of the designated time period is smaller than the amount of change in first atmospheric pressure.
  • the processor 210 may identify that the atmospheric pressure decreases during the specified time interval, based on identifying that the amount of change in atmospheric pressure during the specified time interval is less than the first amount of change in atmospheric pressure.
  • the processor 210 may identify that the user is walking uphill.
  • the processor 210 may identify that the user is walking uphill based on identifying that the amount of change in air pressure is less than the first amount of change in air pressure.
  • a negative barometric pressure change (e.g., representing a decrease in barometric pressure between the beginning and end of a specified time interval) may be interpreted as indicating that the user is walking uphill.
  • processor 210 may filter out instances where the user is walking on substantially flat ground with slight undulations where the air pressure decreases slightly over a specified time interval, as opposed to when the user is more typically walking uphill. You can pay it.
  • the processor 210 may identify whether the amount of change in air pressure is greater than or equal to the second amount of change in air pressure. For example, the processor 210 may identify whether the amount of change in air pressure is greater than or equal to the second amount of change in air pressure, based on identifying that the amount of change in air pressure is greater than or equal to the first amount of change in air pressure. For example, the processor 210 may identify whether the amount of change in atmospheric pressure during a designated time period is greater than or equal to the second amount of change in atmospheric pressure.
  • the processor 210 may identify whether the amount of change in atmospheric pressure at the end of a designated time period is greater than the amount of change in second atmospheric pressure.
  • the processor 210 may identify that the atmospheric pressure increases during the specified time interval based on identifying that the amount of change in atmospheric pressure during the specified time section is greater than or equal to the second amount of change in atmospheric pressure.
  • the processor 210 may identify that the user is walking downhill.
  • the processor 210 may identify that the user is walking downhill based on identifying that the amount of change in air pressure is greater than or equal to the second amount of change in air pressure.
  • a positive change in barometric pressure e.g., indicating an increase in barometric pressure between the beginning and end of a specified time interval
  • the amount of air pressure change must be greater than or equal to the second amount of change in air pressure.
  • processor 210 may filter out instances where the user is walking on substantially flat ground with slight undulations where the air pressure increases slightly during a specified time interval, as opposed to when the user is more generally walking downhill. You can.
  • the processor 210 may identify that the user is walking on level ground. For example, processor 210 may identify that the user is walking on level ground based on identifying that the amount of change in air pressure is less than the second amount of change in air pressure. For example, the processor 210 may identify that the user is walking on level ground based on identifying that the amount of change in air pressure is greater than or equal to the first amount of change in air pressure and less than the second amount of change in air pressure during the designated time period.
  • the amount of change in air pressure between the start and end of a designated time interval is greater than the first amount of change in air pressure and less than the second amount of change in air pressure, this may correspond to a case where the user is walking on substantially flat ground with some undulations.
  • 6A to 6C show examples of trends for identifying a user's walking environment, according to one example.
  • 7A to 7C show examples of trends for identifying a user's walking environment, according to one example.
  • Figure 8 shows an example of a trend for identifying a user's walking environment, according to one example.
  • trends 610 to 630 represent changes in acceleration of the electronic device 200 over time.
  • the processor 210 may identify the acceleration of the electronic device 200 in three axes using the acceleration sensor 221.
  • the processor 210 may identify the trend 610 by monitoring acceleration in the first direction (or x-axis direction) over time.
  • the processor 210 may identify the trend 620 by monitoring acceleration in the second direction (or y-axis direction) over time.
  • the processor 210 may identify the trend 630 by monitoring acceleration in the third direction (or z-axis direction) over time.
  • the processor 210 can identify the magnitude of acceleration in three axes.
  • the processor 210 may identify a trend indicating the magnitude of acceleration in three axes. For example, the processor 210 can identify the magnitude of acceleration in three axes using Equation 1.
  • Equation 1 is the magnitude of acceleration in the three axes.
  • x is the magnitude of acceleration in the first direction.
  • y is the magnitude of acceleration in the second direction.
  • z is the magnitude of acceleration in the third direction.
  • the processor 210 may identify a trend indicating the magnitude of acceleration over time based on identifying the magnitude of acceleration in three axes at a specific point in time.
  • the processor 210 may identify a difference value of sliding window summing based on acceleration trends in three axes over time.
  • the processor 210 may identify a trend 640 indicating a change in the difference value of the sum of movement sections over time.
  • the processor 210 may identify the movement section sum using Equation 2.
  • the processor 210 can identify the difference value of the sum of the movement sections using Equation 3.
  • SWS(k) represents the sum of the movement sections for the magnitude of acceleration in three axes.
  • the processor 210 may identify (or obtain) SWS(k) by identifying the sum of the movement sections for the magnitude of acceleration from time point k-N+1 to time k.
  • SWS diff (k) represents the difference value of the sum of the movement sections for the magnitude of acceleration in the three axes.
  • the processor 210 may identify the difference between the sum of the movement sections at time point k-N+1 as the difference value of the sum of the movement sections at time point k.
  • the processor 210 may identify the trend 640 by setting the k and N values so that the trend of the difference value of the movement section sum is configured as a sine waveform.
  • the processor 210 may identify at least one zero-crossing point based on the trend 640.
  • Time point 641, time point 642, and time point 643 may be examples of zero crossing points.
  • the processor 210 may identify a step based on the zero crossing point.
  • the processor 210 divides the time interval into a time interval representing one step between a first zero crossing point (e.g., time point 643) and a second zero crossing point (e.g., time point 642) identified before the first zero crossing point. can be identified.
  • the processor 210 may identify the number of zero crossing points within the trend 640 as the number of steps.
  • the processor 210 may identify that the user is walking or performing another type of step-based movement based on identifying that the number of zero crossing points within a specified time interval is greater than or equal to a specified number.
  • the processor 210 may identify the amount of change in air pressure (eg, difference in air pressure) based on identifying that the user is walking.
  • the processor 210 may identify a trend 650 of barometric pressure over time within a designated time interval.
  • the processor 210 may identify the amount of change in air pressure within a specified time period based on the trend 650.
  • the processor 210 may identify that the amount of change in atmospheric pressure is greater than or equal to the first amount of change in atmospheric pressure and less than the amount of change in second atmospheric pressure within the specified time interval.
  • the processor 210 may identify that the user is walking on level ground based on identifying that the amount of change in air pressure is greater than or equal to the first amount of change in air pressure and less than the second amount of change in air pressure within the designated time interval. For example, processor 210 may identify that the user is walking on level ground based on identifying that the barometric pressure is maintained (or substantially maintained, such as maintained within a certain range) within a specified time period.
  • trends 710 to 730 represent changes in acceleration of the electronic device 200 over time.
  • Trend 710 may correspond to trend 610 in FIG. 6A.
  • Trend 720 may correspond to trend 620 in FIG. 6A.
  • Trend 730 may correspond to trend 630 in FIG. 6A.
  • the processor 210 can identify the trend 740 indicating a change in the difference value of the sum of the movement sections over time by identifying the magnitude of acceleration in the three axes based on the trends 710 to 730.
  • Trend 740 may correspond to trend 640 in FIG. 6B.
  • the processor 210 may identify at least one zero crossing point based on the trend 740.
  • the processor 210 may identify the number of zero crossing points within the trend 740 as the number of steps.
  • the processor 210 may identify that the user is walking based on identifying that the number of zero crossing points within a specified time interval is greater than or equal to a specified number.
  • processor 210 may identify the amount of change in air pressure based on identifying that the user is walking.
  • the processor 210 may identify a trend 750 of barometric pressure over time within a designated time interval.
  • Trend 750 may correspond to trend 650 of FIG. 6C in the sense that it measures, for example, a change in barometric pressure over time.
  • the processor 210 may identify that the amount of change in air pressure within the specified time period is greater than or equal to the second amount of change in air pressure.
  • the processor 210 may identify that the user is walking downhill based on identifying that the amount of change in air pressure within a specified time interval is greater than or equal to the second amount of change in air pressure.
  • processor 210 may identify that the user is walking downhill based on identifying an increase in barometric pressure within a specified time period.
  • the processor 210 may identify that the amount of change in atmospheric pressure is less than the first amount of change in atmospheric pressure within the specified time interval.
  • the processor 210 may identify that the user is walking uphill based on identifying that the amount of change in air pressure is less than the first amount of change in air pressure within the specified time interval. For example, processor 210 may identify that the user is walking uphill based on identifying a decrease in barometric pressure within a specified time period.
  • the processor 210 can identify a trend 810 indicating a change in the difference value of the sum of the movement sections over time by identifying the magnitude of acceleration in three axes.
  • Trend 810 may correspond to trend 640 in FIG. 6B or trend 740 in FIG. 7B.
  • the processor 210 may identify at least one zero crossing point based on the trend 810.
  • Processor 210 may identify the time interval between zero crossing points. For example, processor 210 may identify time interval 811, time interval 812, and time interval 813.
  • the processor 210 may identify a plurality of time sections including a time section 811, a time section 812, and a time section 813.
  • the processor 210 may identify the walking frequency based on a plurality of time sections.
  • the processor 210 may identify the walking frequency based on a representative value (eg, average value or median value) of a plurality of time intervals.
  • the processor 210 may identify a representative value of a plurality of time sections as the time section 811.
  • the processor 210 may identify the walking frequency based on the time interval 811.
  • the processor 210 may identify the walking frequency using Equation 4.
  • f is the walking frequency.
  • te is a representative value of a plurality of time intervals.
  • the processor 210 may identify the user's walking speed by identifying the walking frequency using representative values of a plurality of time sections.
  • Figure 9 shows an example of an operation of an electronic device according to an example.
  • the processor 210 may obtain second data.
  • the processor 210 may acquire second data using at least one of the sensor 220 and/or the communication circuit 240.
  • the processor 210 may acquire second data using at least one of the acceleration sensor 221, the gyro sensor 222, the barometric pressure sensor 223, and the communication circuit 240.
  • the processor 210 may obtain second data and/or third data based on preprocessing data acquired through the sensor 220.
  • the second data and third data may include at least one of a change in posture for hand motion, frequency characteristics, magnitude (e.g., size, range, etc.), and/or direction of movement for hand motion. there is.
  • hand motion may mean a state in which the user holds (or grips) the electronic device 200.
  • the processor 210 identifies movement while the user is holding the electronic device 200, thereby determining changes in posture for hand motion (e.g., changes in the way the user holds the electronic device), frequency characteristics, and hand motion. At least one of the size and/or direction of movement can be identified.
  • the second data and the third data are data about the acceleration of the electronic device 200 acquired through the acceleration sensor 221, and data about the angular velocity of the electronic device 200 obtained through the gyro sensor 222. It may include at least one of data, data about the air pressure around the electronic device 200 obtained through the air pressure sensor 223, and information about the weather obtained from an external electronic device through the communication circuit 240.
  • the second data may refer to data acquired at a second time point.
  • Third data may refer to data acquired at a first time point earlier than the second time point.
  • the processor 210 may learn second data and/or third data.
  • the processor 210 may set a plurality of parameters of the designated model 940 based on learning the second data and/or the third data.
  • designated model 940 may include an artificial intelligence model.
  • the designated model 940 is configured based on machine learning, such as decision trees (DTs), support vector machines (SVMs), k-nearest neighbors (KNNs), and/or multi-layer perceptrons (MLPs). or designed).
  • DTs decision trees
  • SVMs support vector machines
  • KNNs k-nearest neighbors
  • MLPs multi-layer perceptrons
  • the third data may be obtained according to the user's walking history.
  • the processor 210 may obtain third data based on the user's walking history.
  • the first time point at which the third data is acquired may be different from the second time point at which the second data is acquired.
  • the first time point at which the third data is acquired may be earlier than the second time point at which the second data is acquired.
  • the processor 210 may set (or change or update) the designated model 940 by learning third data acquired at the first time point.
  • the processor 210 may set (or change or update) a plurality of parameters of the designated model 940 using the third data acquired at the first time point.
  • the processor 210 may set the designated model 940 by learning the second data acquired at the second time point.
  • the processor 210 may set (or change, or update) a plurality of parameters of the designated model 940 using the second data acquired at the second time point.
  • the processor 210 may use at least part or all of the second data for training the designated model 940.
  • the processor 210 may set at least part or all of the second data as input data of the designated model 940.
  • the processor 210 may learn the second data while the operation mode of the designated model 940 is a learning mode (or training phase).
  • the processor 210 may set the second data as input data of the designated model 940 while the operation mode of the designated model 940 is an identification mode (or recognition phase).
  • the processor 210 may obtain information about the movement state of the electronic device 200.
  • the processor 210 may obtain information about the movement state of the electronic device 200 based on setting at least part or all of the second data as input data of the designated model 940.
  • information about the movement state of the electronic device 200 may include information about the posture in which the user carries the electronic device 200.
  • the method may follow operations 910, 940, and 950, wherein the obtained second data is used as input data to a designated model 940 for obtaining information about the movement state;
  • a method may follow operations 910, 920, 930, and 940, wherein acquired second data and/or third data are learned, and parameters of a specified model are learned using the second data and/or third data.
  • the designated model 940 can be set based on the parameters (also, operation 950 can also be performed with second data used as input data for the designated model 940).
  • the processor 210 may set at least part or all of the second data as input data of the designated model 940 when the user holds the electronic device 200 using the user's hand. can be identified.
  • the processor 210 may identify that the user is carrying the electronic device 200 using a pocket, based on setting at least some or all of the second data to the input data of the designated model 940. You can.
  • the processor 210 determines that the user swings his arm while holding the electronic device 200. It can be identified that it exists.
  • FIG. 10 is a flowchart illustrating the operation of an electronic device, according to an example.
  • the processor 210 may identify (or detect, determine, obtain, etc.) the user's first steps (eg, a first plurality of steps). For example, the processor 210 may use the acceleration sensor 221 to identify the user's first steps based on the magnitude of acceleration in three axes. For example, the processor 210 creates a trend (e.g., trend 640 in FIG. 6B, trend 740 in FIG. 7B) indicating a change in the difference value of the sum of movement sections over time, based on the magnitude of acceleration in the three axes. )) can be identified. The processor 210 may identify the user's first steps based on at least one zero crossing point related to the identified trend.
  • a trend e.g., trend 640 in FIG. 6B, trend 740 in FIG. 7B
  • the processor 210 may identify the user's first steps based on at least one zero crossing point related to the identified trend.
  • the processor 210 may identify the first steps by excluding steps identified as outliers among the user's steps. For example, the processor 210 may identify the first steps by excluding outliers among the user's steps based on the z-score.
  • the processor 210 may identify (or determine, detect, calculate, etc.) whether the number of first steps is greater than or equal to a specified number. For example, the processor 210 may identify whether the number of first steps is more than a specified number (eg, 12 times) to identify a valid walking section. The processor 210 identifies whether the user's steps occur continuously more than a specified number of times, based on a trend indicating a change in the difference value of the sum of movement sections over time, which is identified based on the magnitude of acceleration in three axes. can do. Depending on the embodiment, the processor 210 may identify the number of first steps as at least one valid walking section according to a designated number of steps.
  • a specified number eg, 12 times
  • processor 210 may perform (e.g., repeat) operation 1010 based on identifying (within operation 1020) that the number of first steps is not more than a specified number. For example, processor 210 may re-identify the user's first steps (identified in performing act 1010) based on identifying that the number of first steps is not more than a specified number.
  • the processor 210 may identify (or obtain, determine, detect, etc.) feature values according to the first steps. For example, the processor 210 may identify feature values according to the first steps based on identifying that the number of the first steps is a specified number or more.
  • the feature values may include values for indicating a walking pattern or walking stability.
  • the feature values may include values for the magnitude of acceleration in three axes.
  • feature values include minimum value, maximum value, average value, standard deviation, root mean squared (RMS) value, peak-to-peak (P2P) value, peak count value, signal magnitude area (SMA) value, and MAD ( It may include at least one of a mean amplitude deviation) value and a COV (coefficient of variance) value.
  • processor 210 may identify (or obtain, determine, detect, etc.) a population. For example, the processor 210 may identify a population based on feature values according to the first steps. According to one example, the population may be composed of values related to a walking pattern according to a plurality of steps of the user. For example, the processor 210 may determine feature values according to the first steps and those that occurred before the first steps were identified (e.g., before identifying the first steps in operation 1010, e.g., FIG. 10 (the second steps were identified through previous performance of the method), feature values according to the second steps (e.g., a plurality of second steps) can be identified.
  • the processor 210 may determine feature values according to the first steps and those that occurred before the first steps were identified (e.g., before identifying the first steps in operation 1010, e.g., FIG. 10 (the second steps were identified through previous performance of the method), feature values according to the second steps (e.g., a plurality of second steps) can be identified.
  • the processor 210 may identify values related to the walking pattern according to the first steps, based on the characteristic values according to the first steps.
  • the processor 210 may identify values related to the walking pattern according to the second steps, based on the characteristic values according to the second steps.
  • the processor 210 stores values related to the walking pattern according to the first steps and values related to the walking pattern according to the second steps in a population (e.g., a population containing values related to the walking pattern according to a plurality of steps, A population can be composed of two sets of values/characteristic values.
  • the processor 210 may perform learning about the user's walking pattern based on the population. For example, the processor 210 may perform feature scaling by normalizing the population.
  • the processor 210 may perform learning about the user's walking pattern based on feature-scaled data.
  • FIG 11 shows an example of an operation of an electronic device according to an example.
  • Figure 12 shows an example of an operation of an electronic device according to an example.
  • the processor 210 may use the acceleration sensor 221 to identify trends indicating acceleration in three axes. For example, the processor 210 may identify a trend 1110 indicating acceleration in the first direction (or x-axis direction). The processor 210 may identify a trend 1120 indicating acceleration in the second direction (or y-axis direction). The processor 210 may identify a trend 1130 indicating acceleration in the third direction (or z-axis direction). The processor 210 may identify a trend 1140 indicating a change in the difference value of the sum of movement sections based on the trends 1110 to 1130.
  • the processor 210 may identify at least one zero crossing point based on the trend 1140.
  • Processor 210 may identify the user's steps based on identifying at least one zero crossing point.
  • the processor 210 may identify a valid walking section based on the user's steps.
  • the processor 210 may identify a valid walking section every designated number of times (eg, 10 times). For example, the processor 210 may identify a valid walking section 1151, a valid walking section 1152, and a valid walking section 1153. The processor 210 may identify a valid walking section every designated number of times, based on identifying that the number of steps of the user is greater than or equal to a designated number of times.
  • the processor 210 may identify first steps among the steps constituting the effective walking section 1151, excluding the step 1141 identified as an outlier.
  • the processor 210 may identify feature values according to the first steps.
  • the processor 210 may identify characteristic values of steps constituting the effective walking section 1152 and the effective walking section 1153.
  • the processor 210 can identify 10 feature values per step.
  • the processor 210 may configure 10 feature values according to the first steps consisting of 10 steps into a matrix 1210.
  • Matrix 1210 may be composed of 10x10 (10 by 10) (i.e., 10 columns and 10 rows).
  • the feature values constituting the matrix 1210 are illustrative and may be changed.
  • the processor 210 may identify feature values based on the trend 1140.
  • the processor 210 may identify feature values using differential values of the sum of movement sections constituting one step. For example, the processor 210 may divide a trend indicating a change in the difference value of the sum of movement sections constituting one step into discrete values (eg, n) according to unit time intervals.
  • the processor 210 may identify feature values using the separated values.
  • the first column may mean the minimum value (min).
  • the processor 210 may identify the minimum value of the difference values of the sum of the movement sections constituting one step as the value of the first column.
  • the second column may mean the maximum value (max).
  • the processor 210 may identify the maximum value of the difference values of the sum of the movement sections constituting one step as the value of the second column.
  • the third column may mean the average value.
  • the processor 210 may identify the average value of the difference values of the sum of the movement sections constituting one step as the value of the third column.
  • the fourth column may mean standard deviation.
  • the processor 210 may identify the standard deviation of the difference values of the sum of movement sections constituting one step as the value in the fourth column.
  • the fifth column may mean the root mean squared (RMS) value.
  • the processor 210 may identify the RMS value of the difference values of the sum of the movement sections constituting one step as the value in the fifth column.
  • the sixth column may mean a P2P (peak-to-peak) value.
  • the processor 210 may identify the difference between the peak values of the trend representing the difference values of the sum of the movement sections constituting one step as the value in the sixth column.
  • the 7th column may mean the peak count value.
  • the processor 210 may identify the number of peak values of the trend representing the difference values of the sum of the movement sections constituting one step as the value in the seventh column.
  • the 8th column may mean a signal magnitude area (SMA) value.
  • the processor 210 may identify the SMA value of the trend representing the difference values of the sum of the movement sections constituting one step as the value in the eighth column.
  • the 9th column may refer to the mean amplitude deviation (MAD) value.
  • the processor 210 may identify the MAD value of the trend representing the difference values of the sum of the movement sections constituting one step as the value in the ninth column.
  • the 10th column may indicate a coefficient of variance (COV) value.
  • the processor 210 may identify the coefficient of variance (COV) value of the difference values of the sum of movement sections constituting one step as the value in the tenth column.
  • FIG. 13 is a flowchart illustrating the operation of an electronic device, according to an example.
  • the processor 210 may identify values related to the walking pattern according to the first steps. For example, the processor 210 may identify values related to a walking pattern according to the first steps, based on feature values according to the first steps. For example, the processor 210 may multiply a matrix constructed based on feature values according to the first steps by a designated matrix to identify a first matrix composed of values related to the walking pattern according to the first steps.
  • the processor 210 may identify values related to the walking pattern according to the second steps. For example, the processor 210 may identify values related to a walking pattern according to the second steps, based on feature values according to the second steps. For example, the processor 210 may multiply a matrix constructed based on feature values according to the second steps by a designated matrix to identify a second matrix composed of values related to the walking pattern according to the second steps. For example, values related to the walking pattern according to the second steps may be values learned according to the user's walking history.
  • the processor 210 can reduce the dimensionality of the walking pattern by identifying various feature values as feature values according to the walking pattern.
  • processor 210 may construct the population. For example, the processor 210 divides the values related to the walking pattern according to the first steps and the values related to the walking pattern according to the second steps into a population containing the values related to the walking pattern according to the plurality of steps. It can be configured.
  • the processor 210 may identify values related to the walking pattern according to the first steps and values related to the walking pattern according to the second steps as values related to the walking pattern according to the plurality of steps.
  • the processor 210 may express a population including values related to walking patterns according to a plurality of steps as a third matrix.
  • the processor 210 may identify at least a portion of the population based on information about fitness according to a plurality of steps. For example, the processor 210 may identify at least a portion of the population based on information about fitness according to a plurality of steps, which is obtained based on the population.
  • the processor 210 may obtain information about the fitness of a plurality of steps based on the population. For example, the processor 210 may identify a representative value of each column among the population represented by the third matrix. As an example, the processor 210 may identify the mean value of each column among the population represented by the third matrix as a representative value. The processor 210 may obtain information about the degree of fitness according to a plurality of steps based on identifying the average value of each column as a representative value among the population represented by the third matrix. Information about fitness according to a plurality of steps can be expressed as a fourth matrix.
  • fitness information can be viewed as providing a general indicator of the fitness level of the subject/user according to the recorded/determined/identified characteristic values, and/or a high level of fitness for the subject/user. May allow identification of fitness and/or low fitness (e.g. if walking is more or less intensive than average).
  • the processor 210 may identify at least a portion of the population based on information about fitness according to a plurality of steps.
  • the processor 210 may identify at least a portion of the population in descending order of suitability according to a plurality of steps. For example, high fitness may indicate feature values that are higher than the average value (i.e., higher than information about fitness).
  • the processor 210 may perform learning about the walking pattern. For example, the processor 210 may perform learning about the user's walking pattern based on at least a portion of the population.
  • the processor 210 may update the walking pattern by repeating learning about the walking pattern.
  • the processor 210 may identify that the walking pattern has been sufficiently learned based on identifying that the amount of change in the walking pattern resulting from learning the walking pattern is within a reference range.
  • Processor 210 may stop learning the gait pattern based on identifying that the gait pattern has been sufficiently learned.
  • FIG. 14 shows an example of a designated matrix according to one example.
  • Figure 15 shows an example of a matrix representing a population according to an example.
  • Figure 16 shows an example of a matrix representing information about fitness according to an example.
  • Figure 17 shows an example of a matrix representing at least a portion of the population according to an example.
  • Figure 18 shows an example of a learning result for a walking pattern according to an example.
  • the processor 210 may identify the matrix 1410.
  • the matrix 1410 may be stored in the memory 230.
  • the matrix 1410 may be modeled in advance.
  • the processor 210 may receive the matrix 1410 from an external electronic device (eg, a server) connected to the electronic device 200.
  • an external electronic device eg, a server
  • matrix 1410 may be used to identify values related to the walking pattern according to the first steps.
  • Matrix 1410 may be used to identify values related to the walking pattern according to the second steps.
  • the processor 210 multiplies a matrix representing feature values for the first steps (e.g., the matrix 1210 of FIG. 12) by the matrix 1410, thereby creating a walking pattern according to the first steps. Values related to can be identified. For example, the processor 210 may multiply (e.g., by matrix multiplication) matrix 1410 by a matrix (e.g., matrix 1210) representing feature values for the first steps to determine the first step. Values related to walking patterns can be identified. The processor 210 may represent values related to the walking pattern according to the first steps as a matrix 1512 (or part of a larger matrix 1510). For example, the number of first steps may be 10. Matrix 1512 may be organized as 10x3 (i.e., 10 rows and 3 columns).
  • the processor 210 may identify values related to the walking pattern according to the second steps by multiplying the matrix 1410 by the matrix representing the feature values for the second steps. For example, processor 210 multiplies matrix 1410 by a matrix representing characteristic values for the second steps (e.g., through matrix multiplication) to produce a value related to the gait pattern according to the second steps. You can check it.
  • the processor 210 may represent values related to the walking pattern according to the second steps as a matrix 1511 (or part of a larger matrix 1510). For example, the number of second steps may be 10.
  • Matrix 1511 may be composed of 10X3.
  • the second steps may occur before the first steps are identified.
  • the second steps may be steps learned in advance before the first steps are identified.
  • the processor 210 may configure a population.
  • the processor 210 may configure values related to the walking pattern according to the first steps and values related to the walking pattern according to the second steps into a population including values related to the walking pattern according to a plurality of steps.
  • the processor 210 combines a matrix 1512 containing values related to a walking pattern according to first steps and a matrix 1511 containing values related to a walking pattern according to second steps, Matrix 1510 can be identified.
  • the matrix 1510 may be composed of values related to a walking pattern according to a plurality of steps.
  • a row of the matrix 1510 may represent a plurality of steps.
  • the multiple steps may be 20.
  • Matrix 1510 may be configured as 20x3 (i.e., 20 rows and 3 columns).
  • the processor 210 can represent each row in the matrix 1510 in a three-dimensional coordinate system.
  • Column 1 of the matrix 1510 may represent the coordinate value of the x-axis.
  • Column 2 of the matrix 1510 may mean coordinate values of the y-axis.
  • Column 3 of the matrix 1510 may represent coordinate values of the z-axis.
  • row 1 of matrix 1510 may correspond to the first coordinate.
  • Row 2 of matrix 1510 may correspond to the second coordinate.
  • the processor 210 may identify first to twentieth coordinates based on the matrix 1510.
  • the processor 210 may identify the average coordinate of the first to twentieth coordinates.
  • the processor 210 may identify the Euclidean distance between each of the first to twentieth coordinates and the average coordinate.
  • the processor 210 may identify information about the degree of fitness according to a plurality of steps by identifying the Euclidean distance between each coordinate from the first coordinate to the twentieth coordinate and the average coordinate.
  • the processor 210 may represent information about fitness according to a plurality of steps as a matrix 1610.
  • each row of the matrix 1610 may mean fitness for each step.
  • row 1 of the matrix 1610 may mean the degree of fitness for the first step of the second steps.
  • goodness of fit can be used to identify values in a matrix that well represent the user's walking pattern.
  • the processor 210 may identify at least a portion of the population based on information about fitness according to a plurality of steps. For example, the processor 210 may identify at least a portion of the population by identifying the top 10 steps with high fitness. The processor 210 may represent values related to walking patterns according to the top 10 steps with high suitability (or indicating high suitability) as a matrix 1710.
  • the processor 210 may learn about the user's walking pattern by performing the operations according to FIGS. 14 to 17.
  • the processor 210 may identify 10 first coordinates 1810 corresponding to the matrix 1710.
  • the processor 210 can identify the second coordinates 1820 by performing learning on the walking pattern using the values related to the walking pattern included in the matrix 1710 and the newly acquired walking pattern values. there is.
  • the processor 210 may identify the Euclidean distance between the representative value of the first coordinates 1810 and the second coordinates 1820.
  • the processor 210 may identify the Euclidean distance between the representative value of the first coordinates 1810 and the second coordinates 1820 as the amount of change in the walking pattern according to learning.
  • the processor 210 may identify whether the amount of change in the walking pattern due to learning is within a reference range.
  • the processor 210 may perform learning on the walking pattern whenever a valid walking section is identified.
  • the processor 210 can evolutionary learn the user's walking pattern. For example, the processor 210 may repeat learning of the walking pattern based on identifying that the amount of change in the walking pattern resulting from learning is outside the reference range.
  • the processor 210 may identify third coordinates 1830 according to learning about the walking pattern.
  • the processor 210 may identify the Euclidean distance between the representative values of the second coordinates 1820 and the representative values of the third coordinates 1830 as the amount of change in the walking pattern due to learning.
  • the processor 210 may identify that the amount of change in the walking pattern due to learning is outside the reference range.
  • the processor 210 may identify fourth coordinates according to learning about the walking pattern.
  • the processor 210 learns the Euclidean distance between the representative values of the third coordinates 1830 and the representative values of the fourth coordinates 1840 (third coordinates 1830 and fourth coordinates ( 1840) can be identified by the amount of change in walking pattern.
  • the processor 210 may identify that the amount of change in the walking pattern due to learning is within the reference range.
  • the processor 210 may identify that the walking pattern has been sufficiently learned based on identifying that the amount of change in the walking pattern due to learning is within the reference range.
  • Processor 210 may stop learning the gait pattern based on identifying that the gait pattern has been sufficiently learned.
  • Figure 19 shows an example of an operating mode of a processor according to an example.
  • the processor 210 may operate in one of a first mode 1910, a second mode 1920, a third mode 1930, and a fourth mode 1940.
  • the processor 210 may learn a walking pattern based on the operation mode.
  • the processor 210 may initialize the fourth information about the user's walking history and the second walking pattern stored in the memory 230 based on the first mode 1910.
  • the second walking pattern may be identified based on the user's walking history.
  • the second walking pattern may mean a learned walking pattern.
  • the processor 210 may operate without learning the walking pattern.
  • the first mode 1910 may be referred to as an idle mode (or idle state).
  • the processor 210 may obtain data about the user's walking pattern using the sensor 220 based on the second mode 1920. For example, the processor 210 may acquire data about the user's walking pattern in the second mode 1920 to learn the walking pattern. For example, in the second mode 1920, the processor 210 may identify a valid walking section. The processor 210 may obtain data about the walking pattern by identifying characteristic values related to steps within the effective walking section.
  • the processor 210 may learn data about the user's walking pattern based on the third mode 1930. For example, in the third mode 1930, the processor 210 may learn data about the walking pattern acquired while operating in the second mode 1920. When sufficient data about the walking pattern is acquired for learning, the processor 210 may learn the acquired data about the walking pattern in the third mode 1930. For example, the processor 210 may update the walking pattern by learning the user's normal walking pattern. The processor 210 may identify the learned walking pattern as the second walking pattern.
  • the processor 210 may stop learning data about the user's walking pattern based on the fourth mode 1940. For example, the processor 210 may stop the operation of learning data about the user's walking pattern based on identifying that the amount of change in the walking pattern due to learning is within the reference range.
  • the processor 210 may set the operation mode of the processor 210 to the first mode 1910 based on identifying that the user of the electronic device 200 has changed.
  • the processor 210 may initialize fourth information about the second walking pattern, which is the walking pattern learned in the first mode 1910.
  • the processor 210 may identify that the user has changed based on identifying that at least one of the user's gender and name has changed.
  • the processor 210 while operating in the first mode 1910, changes the operating mode of the processor 210 from the first mode 1910 to the second mode ( 1920).
  • processor 210 while operating in second mode 1920, may change the operating mode of processor 210 to second mode 1920 in response to identifying that sufficient data regarding the gait pattern has been obtained to learn. You can change from (1920) to the third mode (1930).
  • the processor 210 while operating in the third mode 1930, changes the operating mode of the processor 210 from the third mode 1930 to the second mode in response to the learning of the gait pattern being completed. (1920). According to one example, while the processor 210 is operating in the third mode 1930, the operation mode of the processor 210 is changed from the third mode 1930 to the second mode 1920 based on a learning result of the walking pattern. ) can be changed to . For example, the processor 210 may change the operation mode of the processor 210 from the third mode 1930 to the second mode 1920 based on identifying that the amount of change in the walking pattern is within the reference range. For example, the processor 210 changes the operation mode of the processor 210 from the third mode 1930 to the second mode ( 1920). For example, the processor 210 may change the operating mode of the processor 210 from the third mode 1930 to the second mode 1920 based on identifying that the time at which the gait pattern was learned is more than the reference time. there is.
  • the operating mode of the processor 210 is based on identifying that the user's body profile has changed (e.g., the user has changed). can be changed from the fourth mode (1940) to the first mode (1910).
  • the processor 210 changes the operation mode of the processor 210 to the fourth mode 1940, based on identifying that the amount of change in the walking pattern is outside the reference range. You can change to the second mode (1920).
  • FIGS. 20A and 20B show an example in which values for a walking pattern according to an example are displayed as three-dimensional coordinates.
  • the processor 210 determines the probability that a fall will occur even if the user's walking pattern is different from the reference walking pattern (e.g., the walking pattern of a general user) because each user has a different walking pattern (or walking habit). You may not judge this to be high.
  • the processor 210 may change the probability of a fall occurring depending on the user's walking environment.
  • the processor 210 may generate a first value representing a difference between the user's first walking pattern and the reference walking pattern, the user's first walking pattern and the user's second walking pattern (e.g., a learned walking pattern). Based on the second value representing the difference between the two values and the second information about the user's walking environment, the probability value that a fall (i.e., the user's fall) will occur may be identified.
  • a fall i.e., the user's fall
  • the processor 210 may identify the first similarity based on a first value indicating the difference between the first walking pattern and the reference walking pattern.
  • the processor 210 may identify the second similarity based on a second value indicating the difference between the first and second walking patterns.
  • the processor 210 may identify a probability value of a fall occurring in the user based on the first similarity, the second similarity, and second information about the user's walking environment.
  • the processor 210 can use Equation 5 to identify the probability that a user will fall.
  • S is the probability value that a fall will occur in the user.
  • S’ can be set based on “S 1 ”.
  • S 1 is the degree of similarity between the second walking pattern and the reference walking pattern. If “S 1 ” is greater than or equal to the threshold (thrd in Equation 5), “S’” may be set to 0. If “ S 1 " is below the threshold, “S'” may be set to " S 2 ".
  • S 2 is the first degree of similarity between the first walking pattern and the reference walking pattern.
  • S 3 is the second similarity between the first and second walking patterns.
  • E is a value for the walking environment identified based on the second information.
  • the processor 210 may identify a value (E) for the walking environment based on the second information.
  • Processor 210 may identify a value (E) for the walking environment based on weather, incline, walking frequency (or walking speed), and/or movement state of electronic device 200.
  • a processor (210) can identify the value (E) for the walking environment based on a fuzzy set.
  • the fuzzy set can be configured as shown in Table 2.
  • the processor 210 may configure one or more fuzzy sets.
  • the set W may contain elements for weather.
  • the set S may contain elements for gradients.
  • the set F may contain an element for walking frequency.
  • the set P may contain elements for movement states.
  • the processor 210 may identify at least some of the elements of the set W, the set S, the set F, and the set P based on fuzzy inference according to the fuzzy membership function.
  • the processor 210 may identify a value (E) for the walking environment based on the identified element. Referring to FIG. 20A, the processor 210 may determine a value (E) for the walking environment according to the values related to the first walking pattern, which is the current walking pattern.
  • First coordinates 2010 can be identified. For example, the current walking pattern may be obtained in a normal walking state.
  • the processor 210 may identify second coordinates 2020 according to values related to the second walking pattern, which is a reference walking pattern.
  • the processor 210 determines the similarity based on the Euclidean distance between the representative value (e.g., average value) of the first coordinates 2010 and the representative value (e.g., average value) of the second coordinates 2020. can be identified. For example, the shorter the Euclidean distance, the closer the similarity may be to 1.
  • the processor 210 may identify the similarity as a value close to 1 based on the Euclidean distance between the representative values of the first coordinates 2010 and the representative values of the second coordinates 2020.
  • the processor 210 may identify third coordinates 2030 according to values related to the first walking pattern, which is the current walking pattern.
  • the current walking pattern may be obtained in an abnormal walking state.
  • the current gait pattern may be obtained when the user has an injury on one leg or is limping.
  • the processor 210 may identify second coordinates 2020 according to values related to the second walking pattern, which is a reference walking pattern.
  • the processor 210 may identify the degree of similarity based on the Euclidean distance between the representative values of the third coordinates 2030 and the representative values of the second coordinates 2020.
  • the processor 210 is based on the Euclidean distance between the representative value (e.g., average value) of the third coordinates 2030 and the representative value (e.g., average value) of the second coordinates 2020. Therefore, the similarity can be identified as a value close to 0.
  • FIGS. 21A and 21B show an example of a screen for warning of the risk of falling according to an example.
  • the processor 210 may provide a notification to warn in advance of the risk of falling through an external electronic device 2100 connected to the electronic device 200.
  • the processor 210 may transmit a signal to the external electronic device 2100 to cause the external electronic device 2100 to provide a notification to warn of a risk of falling.
  • the processor 210 may identify a probability value of a fall occurring for a user.
  • the processor 210 may identify the threshold as one of a plurality of candidate threshold values based on the identified probability value. For example, the processor 210 may identify the risk of falling as one of 'low', 'moderate', 'high', and 'very high' based on the probability value of the user falling.
  • the processor 210 may identify one of a plurality of candidate threshold values according to the risk of falling. For example, a plurality of candidate threshold values according to fall risk can be set as shown in Table 1 above.
  • the processor 210 may provide a notification to warn the user of the risk of falling in advance based on the probability value of a fall occurring satisfying a specified condition.
  • the processor 210 may use the display of the electronic device 200 to display a notification to warn the user of the risk of falling.
  • the processor 210 may display a screen 2110 using the display of the external electronic device 2100.
  • the screen 2110 may include text 2111 indicating the risk of falling and text 2112 indicating a warning about the walking environment.
  • text 2112 may be configured to indicate information about the walking environment and information about risk factors. Text 2112 may be displayed to inform of the risk of rain.
  • a wearable device is shown as the external electronic device 2100 in FIG. 21A, the external electronic device is not limited to this and may be implemented as another type of electronic device.
  • the processor 210 may display a screen 2120 using the display of the external electronic device 2100.
  • the screen 2120 may include text 2121 indicating the risk of falling and text 2122 indicating a warning about the walking environment.
  • text 2122 may be configured to indicate information about the walking environment and information about risk factors. Text 2122 may be displayed to guide the user's actions on a snowy day.
  • the electronic device 200 may include at least one sensor 220, a memory 230, and a processor 210.
  • the processor 210 obtains first information about the first walking pattern of the user of the electronic device 200 and second information about the user's walking environment using the at least one sensor 220. It can be set to do so.
  • the processor 210 generates a first value indicating the difference between the first walking pattern and the reference walking pattern, based on the first information and third information about the reference walking pattern stored in the memory 230. Can be set to identify.
  • the processor 210 based on the first information and fourth information about the user's second walking pattern, which is stored in the memory 230 and identified based on the user's walking history, It may be set to identify a second value indicating the difference between the first walking pattern and the second walking pattern.
  • the processor 210 may be set to identify a threshold value related to fall detection based on the first value, the second value, and the second information.
  • the processor 210 may be set to execute the function for detecting a fall based on a comparison between the threshold value and a value obtained through the at least one sensor 220.
  • the at least one sensor 220 may further include an acceleration sensor 221, a gyro sensor 222, and an air pressure sensor 223.
  • the processor 210 may be set to obtain the first information about the first walking pattern based on first data acquired during a designated time period using the acceleration sensor 221.
  • the processor 210 is based on second data acquired using at least one of the acceleration sensor 221, the gyro sensor 222, the barometric pressure sensor 223, and the communication circuit 240. , may be set to obtain the second information about the user's walking environment.
  • the processor 210 may be set to acquire acceleration trends corresponding to each of the three axes during the designated time period.
  • the processor 210 may be set to identify the first walking pattern of the user based on a difference value of the sum of the movement sections identified based on the acceleration trends.
  • the second information about the user's walking environment includes information about the slope of the movement path of the electronic device 200, information about the movement state of the electronic device 200, and the designated time. It may include at least one piece of information about the weather during the section.
  • the processor 210 sets at least part of the second data as input data of a designated model stored in the memory 230 and indicated by a plurality of parameters, thereby setting the electronic device It can be set to obtain the above information about the movement state of 200.
  • the plurality of parameters of the designated model may be set based on learning of third data obtained according to the user's walking history.
  • the electronic device 200 may include a communication circuit 240.
  • the processor 210 may be set to receive the third information about the reference walking pattern from a server connected to the electronic device 200 using the communication circuit 240.
  • the processor 210 may be set to store the third information in the memory 230.
  • the third information may be obtained based on a plurality of walking patterns related to a plurality of users stored in the server.
  • the processor 210 may be set to identify the first value based on a Euclidean distance between values related to the first walking pattern and values related to the reference walking pattern.
  • the processor 210 may be configured to identify the second value based on a Euclidean distance between values for the first walking pattern and values for the second walking pattern.
  • the processor 210 may be set to perform learning about the user's walking pattern based on the user's walking history.
  • the processor 210 may be set to obtain the fourth information about the second walking pattern based on learning about the user's walking pattern.
  • the processor 210 may be set to store the fourth information in the memory 230.
  • the processor 210 may be set to identify a population containing values related to walking patterns according to a plurality of steps of the user, based on the user's walking history. You can.
  • the processor 210 may be set to identify at least a portion of the population based on information about fitness according to the plurality of steps, which is obtained based on the population.
  • the processor 210 may be set to perform learning about the user's walking pattern based on at least a portion of the population.
  • the processor 210 may be set to identify the user's first steps using the at least one sensor 220.
  • the processor 210 may be set to identify feature values according to the first steps based on identifying that the number of the first steps is a specified number or more.
  • the processor 210 may be set to configure the population based on feature values according to the first steps.
  • the processor 210 may be set to identify values related to a walking pattern according to the first steps, based on characteristic values according to the first steps.
  • the processor 210 based on feature values according to the user's second steps, which are stored in the memory 230 and occurred before the first steps are identified, walks according to the second steps. It can be set to identify values related to the pattern.
  • the processor 210 includes values related to the walking pattern according to the plurality of steps, based on the values related to the walking pattern according to the first steps and the values related to the walking pattern according to the second steps. It can be set to configure the population.
  • the processor 210 may be set to operate in one of the first to fourth modes.
  • the processor 210 may be set to initialize the fourth information about the user's walking history and the second walking pattern, which are stored in the memory 230, based on the first mode.
  • the processor 210 may be set to obtain data about the user's walking pattern using the at least one sensor 220 based on the second mode.
  • the processor 210 may be set to learn data about the user's walking pattern based on the third mode.
  • the processor 210 may be set to stop learning data about the user's walking pattern based on the fourth mode.
  • the processor 210 may be set to identify a probability value of a fall occurring in the user based on the first value, the second value, and the second information.
  • the processor 210 may be configured to identify the threshold as one of a plurality of candidate threshold values based on the probability value.
  • the electronic device 200 may include a communication circuit 240. Based on the probability value and the second information, the processor 210 is connected to the electronic device 200 and detects a fall hazard through an external electronic device 2100 worn by the user. It may be set to transmit a signal to the external electronic device 2100 to cause the external electronic device 2100 to provide a notification for warning.
  • the method of the electronic device 200 uses at least one sensor 220 of the electronic device 200 to obtain first information about the first walking pattern of the user of the electronic device 200. And it may include an operation of acquiring second information about the user's walking environment.
  • the method identifies a first value indicating a difference between the first walking pattern and the reference walking pattern, based on the first information and third information about the reference walking pattern stored in the memory 230.
  • the method is based on the first information and fourth information about the second walking pattern of the user, which is stored in the memory 230 and identified based on the walking history of the user, the first walking pattern and identifying a second value indicating a difference between the second walking patterns.
  • the method may include identifying a threshold value related to fall detection based on the first value, the second value, and the second information.
  • the method may include executing the function for detecting a fall based on a comparison between the threshold value and a value obtained through the at least one sensor 220.
  • the method uses the acceleration sensor 221 of the electronic device 200 to generate the first information about the first walking pattern based on first data acquired during a designated time period. It may include acquisition operations.
  • the method includes the acceleration sensor 221, the gyro sensor 222 of the electronic device 200, the barometric pressure sensor 223 of the electronic device 200, and the communication circuit 240 of the electronic device 200.
  • the method may include acquiring acceleration trends corresponding to each of the three axes during the designated time period.
  • the method may include identifying the first walking pattern of the user based on a difference value of the sum of movement sections identified based on the acceleration trends.
  • the second information about the user's walking environment includes information about the slope of the movement path of the electronic device 200, information about the movement state of the electronic device 200, and the designated time. It may include at least one piece of information about the weather during the section.
  • the method may include identifying the first value based on a Euclidean distance between values related to the first walking pattern and values related to the reference walking pattern.
  • the method may include identifying the second value based on a Euclidean distance between values for the first walking pattern and values for the second walking pattern.
  • the method may include learning about the user's walking pattern based on the user's walking history.
  • the method may include acquiring the fourth information about the second walking pattern based on learning about the user's walking pattern.
  • the method may include storing the fourth information in the memory 230.
  • the processor 210 may identify the risk of falling before a fall accident occurs to the user.
  • the processor 210 may provide a notification to warn the user of the risk of falling based on the risk of falling.
  • the processor 210 may change the sensitivity of the fall detection algorithm when the risk of falling is high.
  • processor 210 may adaptively change (or adjust) a threshold value associated with fall detection.
  • Electronic devices according to various embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • An electronic device (200) including at least one sensor (220), a memory (230), and a processor (210);
  • the processor 210 uses the at least one sensor 220 to obtain (or detect, identify, etc.) first information about the first walking pattern of the user of the electronic device 200, and the user may be set to obtain (or detect, identify, etc.) second information about the walking environment of;
  • the processor 210 generates a first value indicating the difference between the first walking pattern and the reference walking pattern, based on the first information and third information about the reference walking pattern stored in the memory 230.
  • the processor 210 can be set to identify;
  • the processor 210 based on the first information and fourth information about the user's second walking pattern, which is stored in the memory 230 and identified based on the user's walking history, may be set to identify a second value indicating a difference between a first walking pattern and the second walking pattern;
  • the processor 210 may be configured to identify a threshold value related to fall detection based on the first value, the second value, and the second information; and the processor 210 may be set to execute the function for detecting a fall based on a comparison between the threshold value and a value obtained through the at least one sensor 220;
  • Paragraph 2 In the electronic device 200 of paragraph 1, the third information regarding the user's second walking pattern is identified based on the user's walking history.
  • Paragraph 3 The electronic device 200 of paragraph 2, where the electronic device 200 may include communication circuitry;
  • the at least one sensor 220 may include an acceleration sensor 221, a gyro sensor 222, and an air pressure sensor 223;
  • the processor 210 may be set to obtain the first information about the first walking pattern based on first data acquired during a designated time period using the acceleration sensor 221; and/or the processor 210, second data acquired using at least one of the acceleration sensor 221, the gyro sensor 222, the barometric pressure sensor 223, and the communication circuit 240. Based on this, it may be set to obtain the second information about the user's walking environment.
  • the processor 210 may be configured to receive third information related to the reference gait pattern from a server connected to the electronic device 200 using the communication circuit 240;
  • the processor 210 may be further configured to store third information in the memory 230, and the third information may be obtained based on a plurality of walking patterns associated with a plurality of users stored in the server.
  • the processor 210 may be set to acquire acceleration trends corresponding to each of the three axes during the designated time period; And the processor 210 may be set to identify the first walking pattern of the user based on the difference value of the sum of the movement sections identified based on the acceleration trends.
  • the second information about the user's walking environment includes information about the slope of the path or road along which the electronic device 200 moves, It may include at least one of information about the movement state of the electronic device 200 and information about the weather during the designated time period.
  • Paragraph 6 In the electronic device 200 of paragraph 5, the processor 210 stores at least a portion of the second data in the memory 230 and inputs a specified model indicated by a plurality of parameters. By setting it as data, it can be set to obtain the information about the movement state of the electronic device 200; And the plurality of parameters of the designated model may be set based on learning of third data obtained according to the user's walking history.
  • Paragraph 7 The electronic device 200 of either paragraph 1 or paragraph 2, where the electronic device 200 may include a communication circuit 240; The processor 210 may be set to receive the third information about the reference walking pattern from a server connected to the electronic device 200 using the communication circuit 240; The processor 210 may be set to store the third information in the memory 230; And the third information may be obtained based on a plurality of walking patterns related to a plurality of users stored in the server.
  • Paragraph 8 In the electronic device 200 of any one of paragraphs 1 to 7, the processor 210 determines the Euclidean distance between the values for the first walking pattern and the values for the reference walking pattern. Thus, it can be set to identify the first value; And the processor 210 may be set to identify the second value based on a Euclidean distance between values related to the first walking pattern and values related to the second walking pattern.
  • the processor 210 may be set to perform learning about the user's walking pattern based on the user's walking history; The processor 210 may be set to obtain the fourth information about the second walking pattern based on learning about the user's walking pattern; And the processor 210 may be set to store the fourth information in the memory 230.
  • the processor 210 based on the user's walking history, includes a population containing values about a walking pattern according to a plurality of steps of the user. Can be set to identify (population); The processor 210 may be set to identify at least a portion of the population based on information about fitness according to the plurality of steps, which is obtained based on the population. And the processor 210 may be set to perform learning about the user's walking pattern based on at least a portion of the population.
  • the processor 210 is configured to identify first steps of the user using the at least one sensor 220. can; The processor 210 may be configured to identify feature values according to the first steps based on identifying that the number of the first steps is greater than or equal to a specified number of steps; And the processor 210 may be set to configure the population based on feature values according to the first steps.
  • the processor 210 is configured to identify values related to a walking pattern according to the first steps, based on feature values according to the first steps. can; The processor 210, based on feature values according to the user's second steps, which are stored in the memory 230 and occurred before the first steps are identified, walks according to the second steps. Can be set to identify values related to a pattern; And the processor 210 generates values related to the walking pattern according to the plurality of steps based on the values related to the walking pattern according to the first steps and the values related to the walking pattern according to the second steps. It can be set to configure the population containing.
  • the processor 210 may be set to operate in one of the first to fourth modes;
  • the processor 210 may be set to initialize the fourth information about the user's walking history and the second walking pattern, which are stored in the memory 230, based on the first mode;
  • the processor 210 may be set to obtain data about the user's walking pattern using the at least one sensor 220, based on the second mode;
  • the processor 210 may be set to learn data about the user's walking pattern based on the third mode;
  • the processor 210 may be set to stop learning data about the user's walking pattern based on the fourth mode.
  • Paragraph 14 In the electronic device 200 of any one of paragraphs 1 to 13, the processor 210 determines that the user has a fall, based on the first value, the second value, and the second information. Can be set to identify a probability value of occurrence; And the processor 210 may be set to identify the threshold as one of a plurality of candidate threshold values based on the probability value.
  • Paragraph 15 In the electronic device 200 of paragraph 14, the processor 210 is connected to the electronic device 200 based on the probability value and the second information and is connected to an external electronic device worn by the user. Via 2100, a signal is transmitted to the external electronic device 2100 to cause the external electronic device 2100 to provide a notification to warn of a fall hazard (e.g., including the electronic device 200). It can be set to transmit through the communication circuit 240.
  • a fall hazard e.g., including the electronic device 200. It can be set to transmit through the communication circuit 240.
  • a method of the electronic device 200 using at least one sensor 220 of the electronic device 200 to obtain first information about a first walking pattern of a user of the electronic device 200 and obtaining second information about the user's walking environment; Based on the first information and third information about the reference walking pattern stored in the memory 230 of the electronic device 200, a first value indicating the difference between the first walking pattern and the reference walking pattern is generated.
  • the act of identifying Based on the first information and fourth information about the user's second walking pattern stored in the memory 230, identifying a second value indicating the difference between the first walking pattern and the second walking pattern. movement; identifying a threshold value related to fall detection based on the first value, the second value, and the second information; and executing the function for detecting a fall based on a comparison between the threshold value and a value obtained through the at least one sensor 220.
  • Paragraph 17 The method of paragraph 16, wherein the third information about the second walking pattern of the user is identified based on the walking history of the user.
  • Paragraph 18 The method of paragraph 17, wherein the method uses the acceleration sensor 221 of the electronic device 200 to determine the first information about the first walking pattern based on first data acquired during a specified time period. 1 Further includes the operation of obtaining information; The method includes the acceleration sensor 221, the gyro sensor 222 of the electronic device 200, the barometric pressure sensor 223 of the electronic device 200, and the communication circuit 240 of the electronic device 200. An operation of acquiring the second information about the user's walking environment based on second data obtained using at least one of
  • Paragraph 19 The method of paragraph 18, wherein the method includes acquiring acceleration trends corresponding to each of the three axes during the specified time period; And the method includes an operation of identifying the first walking pattern of the user based on a difference value of the sum of the movement sections identified based on the acceleration trends.
  • the second information about the user's walking environment includes information about a gradient of a movement path of the electronic device 200, the electronic device 200 It includes at least one of information about the movement status of and information about the weather during the specified time period.
  • Paragraph 21 The method of any of paragraphs 16 to 20, wherein the method determines the first value based on a Euclidean distance between the values for the first gait pattern and the values for the reference gait pattern. Includes the act of identifying; and the method includes identifying the second value based on a Euclidean distance between the values for the first walking pattern and the values for the second walking pattern.
  • the disclosure also provides that one or more described operations may be omitted or rearranged. It's possible.
  • the present invention includes versions of each method that include only one of the actions shown in each method, and versions of each method that include any combination of two or more of the actions shown in each method.
  • module used may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
  • a processor e.g., processor 120
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • a computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store), or on two user devices (e.g. : Smartphones) can be distributed (e.g. downloaded or uploaded) directly or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play Store
  • two user devices e.g. : Smartphones
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Dentistry (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physiology (AREA)
  • Computing Systems (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Telephone Function (AREA)

Abstract

일 예에 따르면, 전자 장치는, 적어도 하나의 센서, 메모리, 및 프로세서를 포함한다. 상기 프로세서는, 상기 전자 장치의 사용자의 제1 보행 패턴에 관한 제1 정보 및 상기 사용자의 보행 환경에 관한 제2 정보를 획득하도록 설정된다. 상기 프로세서는, 상기 제1 정보 및 상기 메모리에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 상기 제1 보행 패턴 및 상기 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별하도록 설정된다. 상기 프로세서는 상기 제1 보행 패턴 및 상기 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별하도록 설정된다. 상기 프로세서는, 상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 낙상 검출과 관련된 임계 값을 식별하도록 설정된다. 상기 프로세서는, 상기 낙상 검출을 위한 기능을 실행하도록 설정된다.

Description

낙상 감지를 수행하기 위한 전자 장치 및 방법
아래의 설명들은, 낙상 감지를 수행하기 위한 전자 장치 및 방법에 관한 것이다.
기술의 발달에 따라, 전자 장치를 통해 다양한 서비스가 제공되고 있다. 전자 장치는 적어도 하나의 센서를 이용하여, 전자 장치를 소지하는 사용자의 움직임을 식별할 수 있다. 전자 장치는 사용자의 움직임에 기반하여, 사용자의 다양한 활동 상태를 식별할 수 있다. 예를 들어, 전자 장치는 사용자의 걸음들(steps)에 대한 정보를 식별할 수 있다. 전자 장치는 사용자의 걸음들과 관련된 다양한 서비스를 사용자에게 제공할 수 있다.
상술한 정보는 본 개시에 대한 이해를 돕기 위한 목적으로 하는 배경 기술(related art)로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련된 종래 기술(prior art)로서 적용될 수 있는지에 대하여 어떠한 주장이나 결정이 제기되지 않는다.
일 예에 따르면, 전자 장치는, 적어도 하나의 센서, 메모리, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 적어도 하나의 센서를 이용하여, 상기 전자 장치의 사용자의 제1 보행 패턴에 관한 제1 정보 및 상기 사용자의 보행 환경에 관한 제2 정보를 획득하도록 설정될 수 있다. 상기 프로세서는, 상기 제1 정보 및 상기 메모리에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 상기 제1 보행 패턴 및 상기 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별하도록 설정될 수 있다. 상기 프로세서는 상기 제1 정보 및 상기 메모리에 저장되고, 상기 사용자의 보행 이력에 기반하여 식별된, 상기 사용자의 제2 보행 패턴에 관한 제4 정보에 기반하여, 상기 제1 보행 패턴 및 상기 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별하도록 설정될 수 있다. 상기 프로세서는, 상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 낙상 검출과 관련된 임계 값을 식별하도록 설정될 수 있다. 상기 프로세서는, 상기 임계 값과 상기 적어도 하나의 센서를 통해 획득되는 값 사이의 비교에 기반하여, 상기 낙상 검출을 위한 기능을 실행하도록 설정될 수 있다.
일 예에 따르면, 전자 장치의 방법은, 상기 전자 장치의 적어도 하나의 센서를 이용하여, 상기 전자 장치의 사용자의 제1 보행 패턴에 관한 제1 정보 및 상기 사용자의 보행 환경에 관한 제2 정보를 획득하는 동작, 상기 제1 정보 및 상기 메모리에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 상기 제1 보행 패턴 및 상기 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별하는 동작, 상기 제1 정보 및 상기 메모리에 저장되고, 상기 사용자의 보행 이력에 기반하여 식별된, 상기 사용자의 제2 보행 패턴에 관한 제4 정보에 기반하여, 상기 제1 보행 패턴 및 상기 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별하는 동작, 상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 낙상 검출과 관련된 임계 값을 식별하는 동작, 및 상기 임계 값과 상기 적어도 하나의 센서를 통해 획득되는 값 사이의 비교에 기반하여, 상기 낙상 검출을 위한 기능을 실행하는 동작을 포함할 수 있다.
도 1은 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 일 예에 따른, 전자 장치의 간소화된 블록도(simplified block diagram)이다.
도 3은 일 예에 따른, 전자 장치에 포함된 프로세서의 간소화된 블록도를 도시한다.
도 4는 일 예에 따른, 전자 장치의 동작을 도시하는 흐름도이다.
도 5는 일 예에 따른, 전자 장치의 동작을 도시하는 흐름도이다.
도 6a, 도 6b, 및 도 6c는 일 예에 따른, 사용자의 보행 환경을 식별하기 위한 트랜드들의 예를 도시한다.
도 7a, 도 7b, 및 도 7c는 일 예에 따른, 사용자의 보행 환경을 식별하기 위한 트랜드들의 예를 도시한다.
도 8은 일 예에 따른, 사용자의 보행 환경을 식별하기 위한 트랜드의 예를 도시한다.
도 9는 일 예에 따른 데이터를 학습하기 위한 전자 장치의 동작의 예를 도시한다.
도 10은 일 예에 따른, 전자 장치의 동작을 도시하는 흐름도이다.
도 11은 일 예에 따른 전자 장치의 동작의 예를 도시한다.
도 12는 일 예에 따른 전자 장치의 동작의 예를 도시한다.
도 13은 일 예에 따른, 전자 장치의 동작을 도시하는 흐름도이다.
도 14는 일 예에 따른 지정된 행렬의 예를 도시한다.
도 15는 일 예에 따른 모집단을 나타내는 행렬의 예를 도시한다.
도 16은 일 예에 따른 적합도에 대한 정보를 나타내는 행렬의 예를 도시한다.
도 17은 일 예에 따른 모집단의 적어도 일부를 나타내는 행렬의 예를 도시한다.
도 18은 일 예에 따른 보행 패턴에 대한 학습 결과의 예를 도시한다.
도 19는 일 예에 따른 프로세서의 동작 모드의 예를 도시한다.
도 20a 및 도 20b는 일 예에 따른 보행 패턴에 대한 값들이 3차원의 좌표들로 표시되는 예를 도시한다.
도 21a 및 도 21b는 일 예에 따른 낙상 위험을 경고하기 위한 화면의 예를 도시한다.
도 1은 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나 와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
일 예에 따르면, 전자 장치(예: 도 1의 전자 장치(101))는 사용자에게 낙상이 발생하는 것을 식별하는 것에 기반하여, 사용자에게 알림을 제공할 수 있다. 전자 장치는 낙상이 발생하는 것을 식별하기 전, 사용자의 보행 패턴을 학습할 수 있다. 전자 장치는 학습된 보행 패턴 및 센서를 통해 식별된 보행 패턴 사이의 차이에 기반하여, 사용자에게 낙상 검출과 관련된 임계 값을 식별할 수 있다. 전자 장치는 식별된 임계 값에 기반하여, 낙상 검출(fall detection)을 위한 기능을 실행할 수 있다.
이하 명세서에서는, 학습된 보행 패턴 및 센서를 통해 식별된 보행 패턴 사이의 차이에 기반하여, 사용자에게 낙상 검출과 관련된 임계 값을 식별하고, 식별된 임계 값에 기반하여, 낙상 검출을 위한 기능을 실행하기 위한 실시 예가 설명될 수 있다.
도 2는 일 예에 따른, 전자 장치의 간소화된 블록도(simplified block diagram)이다.
도 2를 참조하면, 전자 장치(200)는 다양한 형태로 구성될 수 있다. 전자 장치(200)는 스마트 폰, 스마트 워치, 스마트 밴드, 스마트 링, 무선 이어폰, 또는 스마트 글라스와 같이 사용자에게 소지 가능한 다양한 형태로 구현될 수 있다. 예를 들어, 전자 장치(200)는 도 1의 전자 장치(101)에 상응할 수 있다.
일 예에 따르면, 전자 장치(200)는 프로세서(210), 센서(220), 메모리(230), 및/또는 통신 회로(240)를 포함할 수 있다. 실시 예에 따라, 전자 장치(200)는 프로세서(210), 센서(220), 메모리(230), 및 통신 회로(240) 중 적어도 하나를 포함할 수 있다. 예를 들어, 프로세서(210), 센서(220), 메모리(230), 및 통신 회로(240) 중 적어도 일부는 실시 예에 따라 생략될 수 있다.
일 예에 따르면, 프로세서(210)는 도 1의 프로세서(120)에 상응할 수 있다. 프로세서(210)는 센서(220), 메모리(230), 및 통신 회로(240)와 작동적으로(operatively 또는 operably) 결합하거나(coupled with), 연결될(connect with) 수 있다. 예를 들어, 프로세서(210)가 다른 컴포넌트와 작동적으로 결합한다는 것은, 프로세서(210)가 다른 컴포넌트를 제어할 수 있음을 의미할 수 있다. 예를 들어, 프로세서(210)는 센서(220)의 동작을 제어할 수 있다. 프로세서(210)는 센서(220)를 활성화 또는 비활성화할 수 있다. 프로세서(210)는 센서(220)로부터 획득된 정보를 처리할 수 있다.
일 예에 따르면, 프로세서(210)는 적어도 하나의 프로세서로 구성될 수 있다. 프로세서(210)는 적어도 하나의 프로세서를 포함할 수 있다. 일 예에 따르면, 프로세서(210)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPGA(field programmable gate array) 및/또는 CPU(central processing unit)를 포함할 수 있다.
일 예에 따르면, 전자 장치(200)는 센서(220)를 포함할 수 있다. 센서(220)는 적어도 하나의 센서로 구성될 수 있다. 예를 들어, 센서(430)는 도 1의 센서 모듈(176)에 상응할 수 있다. 예를 들어, 센서(220)는 가속도 센서(221), 자이로 센서(222), 및 기압 센서(223) 중 적어도 하나를 포함할 수 있다.
예를 들어, 가속도 센서(221)는 x축, y축, 및 z축의 3 방향으로 전자 장치(200)의 가속도를 식별(또는 측정(measure), 감지(detect))할 수 있다. 예를 들어, 자이로 센서(222)는 x축, y축, 및 z축의 3 방향으로 전자 장치(200)의 각속도를 식별(또는 측정, 감지)할 수 있다. 실시 예에 따라, 전자 장치(200)는 가속도 센서(221) 및 자이로 센서(222)로 구성된 관성 센서를 포함할 수 있다.
예를 들어, 기압 센서(223)는 전자 장치(200) 주변의 기압을 식별(또는 측정, 감지)할 수 있다. 프로세서(210)는 기압 센서(223)를 이용하여 식별된 전자 장치(200) 주변의 기압에 관한 데이터에 기반하여, 전자 장치(200)가 지면으로부터 위치된 높이(또는 고도(altitude))를 식별할 수 있다.
도시하지는 않았으나, 센서(220)는 사용자에 관한 다양한 데이터를 획득(또는 식별, 측정, 감지)하기 위한 센서를 더 포함할 수 있다.
예를 들어, 센서(220)는 체온 센서를 포함할 수 있다. 프로세서(210)는 체온 센서를 통해, 사용자의 신체의 일부의 피부 온도를 측정할 수 있다. 프로세서(210)는 사용자의 신체의 일부의 피부 온도에 기반하여, 사용자의 체온을 획득할 수 있다.
예를 들어, 센서(220)는 HRV(heart rate variability) 센서를 포함할 수 있다. 프로세서(210)는 HRV 센서를 통해, 심박의 규칙성 또는 변이도를 측정할 수 있다. 프로세서(210)는 HRV 센서를 통해, 심박의 규칙성 또는 변이도에 관한 정보를 획득할 수 있다.
일 예에 따르면, 전자 장치(200)는 메모리(230)를 포함할 수 있다. 메모리(230)는 정보 또는 데이터를 저장하기 위해 사용될 수 있다. 예를 들어, 메모리(230)는 사용자로부터 획득된 데이터를 저장하기 위해 사용될 수 있다. 예를 들어, 메모리(230)는 도 1의 메모리(130)에 상응할 수 있다. 예를 들어, 메모리(230)는 휘발성 메모리 유닛 또는 유닛들일 수 있다. 예를 들어, 메모리(230)는 비휘발성 메모리 유닛 또는 유닛들일 수 있다. 예를 들어, 메모리(230)는 자기 또는 광학 디스크와 같이, 다른 형태의 컴퓨터 판독가능 매체일 수 있다. 예를 들어, 메모리(230)는 프로세서(210)에서 수행되는 동작(예를 들어, 알고리즘 수행 동작)에 기반하여 획득된 데이터를 저장할 수 있다. 예를 들어, 메모리(230)는 센서(220)에서 획득된 데이터(예를 들어, 사용자의 보행에 관한 데이터)를 저장할 수 있다.
일 예에 따르면, 전자 장치(200)는 통신 회로(240)를 포함할 수 있다. 예를 들어, 통신 회로(240)는 도 1의 통신 모듈(190)에 상응할 수 있다.
예를 들어, 통신 회로(240)는 다양한 RAT(radio access technology)을 위해 사용될 수 있다. 예를 들어, 통신 회로(240)는 블루투스(bluetooth) 통신, 무선 랜(wireless local area network, WLAN) 통신, 또는 UWB(ultra wideband) 통신을 수행하기 위해 사용될 수 있다. 예를 들어, 통신 회로(240)는 셀룰러 통신을 수행하기 위해 사용될 수 있다.
일 예에 따르면, 전자 장치(200)는 도시된 컴포넌트들 외에도 다양한 컴포넌트를 포함할 수 있다. 예를 들어, 전자 장치(200)는 디스플레이를 포함할 수 있다. 디스플레이는 다양한 화면을 표시하기 위해 사용될 수 있다. 예를 들어, 디스플레이는 콘텐트, 데이터, 또는 신호를 화면을 통해 출력하기 위해 사용될 수 있다. 예를 들어, 디스플레이는 도 1의 디스플레이 모듈(160)에 상응할 수 있다. 예를 들어, 전자 장치(200)는 GPS(global positioning system) 회로를 더 포함할 수 있다. GPS 회로는 전자 장치(200)의 위치를 식별하기 위해 사용될 수 있다.
도 3은 일 예에 따른, 전자 장치에 포함된 프로세서의 간소화된 블록도를 도시한다.
도 3을 참조하면, 프로세서(210)는 낙상 감지 회로(310), 낙상 위험 식별 회로(320), 및 낙상 알림 회로(330) 중 적어도 하나를 포함할 수 있다. 프로세서(210)는 낙상 감지 회로(310)를 이용하여 낙상 발생 여부를 모니터링할 수 있다. 프로세서(210)는 낙상 위험 식별 회로(320)를 이용하여, 사용자의 보행을 모니터링하고, 낙상 위험을 예측하기 전까지, 사용자의 보행 패턴을 분석 및 학습함으로써, 사용자의 낙상 위험을 예측할 수 있다.
예를 들어, 낙상 감지 회로(310)는 낙상 모션 분석 회로(311), 낙상 환경 분석 회로(312), 낙상 민감도 조정 회로(313), 및 낙상 식별 회로(314) 중 적어도 하나를 포함할 수 있다. 프로세서(210)는 낙상 감지 회로(310)의 낙상 모션 분석 회로(311)를 이용하여, 낙상 검출 시, 사용자의 움직임을 식별할 수 있다. 프로세서(210)는 낙상 감지 회로(310)의 낙상 환경 분석 회로(312)를 이용하여, 낙상 검출 시, 전자 장치(200)(또는 사용자) 주변의 환경을 식별할 수 있다. 프로세서(210)는 낙상 감지 회로(310)의 낙상 민감도 조정 회로(314)를 이용하여, 사용자에게 낙상이 발생될 가능성이 높은 상황인 경우, 낙상 식별을 위한 민감도를 변경할 수 있다. 프로세서(210)는 낙상 감지 회로(310)의 낙상 식별 회로(314)를 이용하여, 사용자의 움직임에 대한 정보에 기반하여, 사용자에게 낙상이 발생하였음을 식별할 수 있다.
예를 들어, 낙상 위험 식별 회로(320)는 보행 환경 식별 회로(321), 보행 패턴 학습 회로(322), 보행 패턴 분석 회로(323), 및 낙상 위험 예측 회로(324) 중 적어도 하나를 포함할 수 있다. 프로세서(210)는 낙상 위험 식별 회로(320)의 보행 환경 식별 회로(321)를 이용하여, 사용자가 보행 시, 전자 장치(200)(또는 사용자) 주변의 환경을 식별할 수 있다. 프로세서(210)는 낙상 위험 식별 회로(320)의 보행 패턴 학습 회로(322)를 이용하여, 사용자가 보행 시, 사용자의 보행 패턴을 지속적으로 학습할 수 있다. 프로세서(210)는 낙상 위험 식별 회로(320)의 보행 패턴 분석 회로(323)를 이용하여, 사용자의 보행 패턴에 대한 정보를 획득하고, 저장할 수 있다. 프로세서(210)는 낙상 위험 식별 회로(320)의 낙상 위험 예측 회로(324)를 이용하여, 보행 환경 및 보행 패턴에 기반하여, 사용자에게 낙상이 발생될 확률을 식별할 수 있다.
예를 들어, 낙상 알림 회로(330)는 낙상 발생 알림 회로(331) 및 낙상 위험 알림 회로(332) 중 적어도 하나를 포함할 수 있다. 프로세서(210)는 낙상 알림 회로(330)의 낙상 발생 알림 회로(331)를 이용하여, 사용자에게 낙상이 발생될 시, 사용자에게 낙상이 발생되었음을 나타내는 알림을, 사용자 또는 다른 사용자에게 제공하고, 긴급 연락처를 통해 구조 신호를 송신할 수 있다. 프로세서(210)는 낙상 알림 회로(330)의 낙상 위험 알림 회로(332)를 이용하여, 사용자에게 낙상이 발생할 확률이 높은 경우, 사용자에게 낙상 발생 가능성이 높음을 나타내는 알림을 제공할 수 있다.
도 4는 일 예에 따른, 전자 장치의 동작을 도시하는 흐름도이다.
도 4를 참조하면, 동작 410에서, 프로세서(210)는 제1 보행 패턴(예: 걸음걸이(gait), 움직임 패턴 등 - 특징은 걷기에 국한된 것으로 이해되서는 안되며, 달리는 패턴 또는 다른 움직임 패턴일 수 있다.)에 관한 제1 정보 및 보행 환경(예: 전자 장치(200)의 주변, 전자 장치(200)의 주변의 지리적 영역, 보행 상태 등)에 관한 제2 정보를 획득할 수 있다. 예를 들어, 프로세서(210)는 센서(220)(또는 적어도 하나의 센서) 및/또는 통신 회로(240)를 이용하여 전자 장치(200)의 사용자의 제1 보행 패턴에 관한 제1 정보 및 사용자의 보행 환경에 관한 제2 정보를 획득할 수 있다.
일 예에 따르면, 프로세서(210)는 센서(220)를 이용하여, 전자 장치(200)의 사용자의 제1 보행 패턴에 관한 제1 정보를 획득할 수 있다. 예를 들어, 프로세서(210)는 가속도 센서(221)를 이용하여, 지정된 시간 구간(예: 제1 시간 구간) 동안 획득된 제1 데이터에 기반하여, 제1 보행 패턴에 관한 제1 정보를 획득할 수 있다. 프로세서(210)는 지정된 시간 구간 동안, 3 축 방향에 각각 대응하는 가속도 트랜드들을 획득할 수 있다. 프로세서(210)는 획득된 가속도 트랜드들에 기반하여 식별된 이동 구간 합(sliding window summing)의 차분 값(difference)에 기반하여, 사용자의 제1 보행 패턴을 식별할 수 있다. 프로세서(210)가 사용자의 제1 보행 패턴을 식별하는 동작은 도 6a 내지 도 8을 통해 후술될 것이다.
일 예에 따르면, 프로세서(210)는 전자 장치(200)의 사용자의 보행 환경에 관한 제2 정보를 획득할 수 있다. 예를 들어, 프로세서(210)는 가속도 센서(221), 자이로 센서(222), 기압 센서(223), 및 통신 회로(240) 중 적어도 하나를 이용하여 획득된 제2 데이터에 기반하여, 사용자의 보행 환경에 관한 제2 정보를 획득할 수 있다. 예를 들어, 제2 정보는, 전자 장치(200)의 이동 경로의 경사도에 대한 정보(즉, 전자 장치(200)가 이동하거나 이동하는 경로의 경사도에 대한 정보), 전자 장치(200)의 이동 상태에 대한 정보, 및 지정된 시간 구간 동안의 날씨에 대한 정보를 포함할 수 있다.
예를 들어, 프로세서(210)는 가속도 센서(221), 자이로 센서(222), 및 기압 센서(223) 중 적어도 하나를 이용하여 획득된 제2 데이터의 적어도 일부를 복수의 파라미터들에 의해 지시되는 지정된 모델(예: 인공지능 모델 및/또는 기계학습 모델)의 입력 데이터로 설정함으로써, 전자 장치(200)의 이동 상태에 대한 정보를 획득할 수 있다. 일 예로, 지정된 모델의 복수의 파라미터들은, 사용자의 보행 이력에 따라 식별된 제3 데이터의 학습에 기반하여 설정될 수 있다. 프로세서(210)가 지정된 모델을 이용하여, 전자 장치(200)의 이동 상태에 대한 정보를 획득하는 실시 예가 도 9에서 후술될 것이다.
예를 들어, 프로세서(210)는 통신 회로(240)를 이용하여, 외부 전자 장치(예: 서버)로부터 지정된 시간 구간 동안의 날씨에 대한 정보를 획득할 수 있다. 예를 들어, 외부 전자 장치는 전자 장치(200)의 주변의 날씨 정보를 가지고 있을 수 있다. 일 예로, 프로세서(210)는 통신 회로(240)를 이용하여, 외부 전자 장치(예: 서버)로부터 이동 경로의 경사도에 대한 정보를 획득할 수 있다. 일 예로, 외부 전자 장치는 전자 장치(200)의 이동 경로의 기울기에 대한 정보(예: 전자 장치(200)의 이동 방향에 대한 지면의 기울기 정보)가 획득되도록, 전자 장치(200)가 위치한 환경 또는 지역의 토폴로지에 대한 데이터를 저장할 수 있다.
동작 420에서, 프로세서(210)는 제1 보행 패턴 및 기준 보행 패턴 사이의 차이를 나타내는 제1 값(또는 다른 표시)을 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 정보 및 메모리(230)에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 제1 보행 패턴 및 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별(예: 비교 또는 계산을 통해 식별)할 수 있다. 예를 들어, 프로세서(210)는 제1 정보 및 제3 정보에 기반하여, 제1 보행 패턴 및 기준 보행 패턴 사이의 제1 유사도를 식별할 수 있다. 예를 들어, 제1 값은 스칼라 값, 벡터 값, 값의 배열 등일 수 있다.
일 예에 따르면, 프로세서(210)는 기준 보행 패턴에 관한 제3 정보를 메모리(230)에 저장할 수 있다. 예를 들어, 기준 보행 패턴은, 일반 사용자들의 보행 패턴(예: 복수의 사용자와 연관된 일반화되거나 평균화된 보행 패턴, 일반 적인 사용자와 연관된 기본 보행 패턴 등)을 의미할 수 있다. 일 예로, 프로세서(210)는 통신 회로(240)를 이용하여, 외부 전자 장치(예: 서버)로부터 기준 보행 패턴에 관한 제3 정보를 수신할 수 있다. 프로세서(210)는 수신된 제3 정보를 메모리(230)에 저장할 수 있다. 제3 정보는 외부 전자 장치(예: 서버)에 저장된 복수의 사용자들과 관련된 보행 패턴들에 기반하여 획득될 수 있다. 일 예로, 기준 보행 패턴에 관한 제3 정보는 전자 장치(200)의 메모리(230)에 저장된 상태일 수 있다.
일 예에 따르면, 프로세서(210)는 제1 정보 및 제3 정보에 기반하여, 제1 보행 패턴 및 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별할 수 있다. 프로세서(210)는 제1 보행 패턴에 관한 하나 이상의 값들을 식별할 수 있다. 프로세서(210)는 기준 보행 패턴에 관한 하나 이상의 값들을 식별할 수 있다. 예를 들어, 기준 보행 패턴은 제1 보행 패턴과 관련된 하나 이상의 값에 기반하여 식별되는 것과 동일한 보행 패턴의 특징과 관련된 것과 같이 제1 보행 패턴과 관련된 하나 이상의 값들에 대응할 수 있다.
프로세서(210)는 제1 보행 패턴에 관한 값들(예: 대표 값) 및 기준 보행 패턴에 관한 값들(예: 대표 값) 사이의 유클리디안 거리(euclidean distance)에 기반하여, 제1 보행 패턴 및 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별할 수 있다. 프로세서(210)는 제1 보행 패턴에 관한 값들 및 기준 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 제1 보행 패턴 및 기준 보행 패턴 사이의 제1 유사도를 식별할 수 있다. 예를 들어, 제1 보행 패턴 및 기준 보행 패턴 사이의 차이를 나타내는 제1 값 및 제1 유사도는 반비례할 수 있다. 제1 보행 패턴 및 기준 보행 패턴 사이의 차이를 나타내는 제1 값이 클수록 제1 유사도가 작을 수 있다. 제1 보행 패턴 및 기준 보행 패턴 사이의 차이를 나타내는 제1 값이 작을수록 제1 유사도가 클 수 있다.
동작 430에서, 프로세서(210)는 제1 보행 패턴 및 제2 보행 패턴 사이의 차이를 나타내는 제2 값(또는 다른 표시)을 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 정보 및 메모리(230)에 저장되고, 사용자의 보행 이력에 기반하여 식별된, 사용자의 제2 보행 패턴에 관한 제4 정보에 기반하여, 제1 보행 패턴 및 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 정보 및 제4 정보에 기반하여, 제1 보행 패턴 및 제2 보행 패턴 사이의 제2 유사도를 식별할 수 있다. 예를 들어, 제2 값은 스칼라 값, 벡터 값, 값의 배열 등일 수 있다.
일 예에 따르면, 프로세서(210)는 제2 보행 패턴에 관한 제4 정보를 메모리(230)에 저장할 수 있다. 프로세서(210)는 사용자의 보행 이력에 기반하여, 제2 보행 패턴에 관한 제4 정보를 식별할 수 있다. 예를 들어, 프로세서(210)는 사용자의 보행 이력에 기반하여, 사용자의 보행 패턴에 대한 학습을 수행할 수 있다. 프로세서(210)는 사용자의 보행 패턴에 대한 학습을 수행하는 것에 기반하여, 제2 보행 패턴에 관한 제4 정보를 획득할 수 있다. 프로세서(210)는 획득된 제4 정보를 메모리(230)에 저장할 수 있다. 예를 들어, 제2 보행 패턴에 관한 제4 정보는 전자 장치(200)의 메모리(230)에 저장된 상태일 수 있다.
예를 들어, 프로세서(210)는 사용자의 보행 이력에 기반하여, 사용자의 복수의 걸음들에 따른 보행 패턴(예: 걸음걸이(gait), 움직임 패턴)에 관한 값들을 포함하는 모집단(population)을 식별할 수 있다. 일 예로, 프로세서(210)는 센서(220)를 이용하여, 사용자의 제1 걸음들을 식별할 수 있다. 프로세서(210)는 제1 걸음들의 수가 지정된 횟수 이상임을 식별하는 것에 기반하여, 제1 걸음들에 따른 특징 값들(예: 도 12에서 후술될 특징 값들)을 식별할 수 있다. 프로세서(210)는 제1 걸음들이 식별되기 전 발생된, 사용자의 제2 걸음들에 대한 특징 값들을 식별할 수 있다. 제2 걸음들에 대한 특징 값들은 메모리(230)에 저장될 수 있다. 예를 들어, 제2 걸음들에 대한 특징 값들은 사용자의 보행 이력에 따라 학습된 값일 수 있다.
프로세서(210)는 제1 걸음들에 따른 특징 값들에 기반하여, 제1 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 프로세서(210)는 제2 걸음들에 따른 특징 값들에 기반하여, 제2 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 프로세서(210)는 제1 걸음들에 따른 보행 패턴에 관한 값들 및 제2 걸음들에 따른 보행 패턴에 관한 값들을 복수의 걸음들에 따른 보행 패턴에 관한 값들(또는 다른 정보)을 포함하는 모집단으로 구성할 수 있다.
예를 들어, 프로세서(210)는 식별된 모집단에 기반하여 획득된, 복수의 걸음들에 따른 적합도에 대한 정보에 따라, 모집단 중 적어도 일부를 식별할 수 있다. 프로세서(210)는 모집단 중 적어도 일부에 기반하여, 사용자의 보행 패턴에 대한 학습을 수행할 수 있다. 사용자의 보행 패턴에 대한 학습을 수행하는 동작의 구체적인 예가 도 10 내지 도 18에서 후술될 것이다.
일 예에 따르면, 프로세서(210)는 제1 정보 및 제4 정보에 기반하여, 제1 보행 패턴 및 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별할 수 있다. 프로세서(210)는 제1 보행 패턴에 관한 하나 이상의 값들을 식별할 수 있다. 프로세서(210)는 제2 보행 패턴에 관한 하나 이상의 값들을 식별할 수 있다. 예를 들어, 이들은 제1 보행 패턴과 관련된 하나 이상의 값이 다음에 기초하여 식별되는 것들과 동일한 보행 패턴 특징과 관련됨으로써 제1 보행 패턴과 관련된 하나 이상의 값에 대응할 수 있다. 프로세서(210)는 제1 보행 패턴에 관한 값들 및 제2 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 제1 보행 패턴 및 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별할 수 있다. 프로세서(210)는 제1 보행 패턴에 관한 값들 및 제2 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 제1 보행 패턴 및 제2 보행 패턴 사이의 제2 유사도를 식별할 수 있다. 예를 들어, 제1 보행 패턴 및 제2 보행 패턴 사이의 차이를 나타내는 제2 값 및 제2 유사도는 반비례할 수 있다. 제1 보행 패턴 및 제2 보행 패턴 사이의 차이를 나타내는 제2 값이 클수록 제2 유사도가 작을 수 있다. 제1 보행 패턴 및 제2 보행 패턴 사이의 차이를 나타내는 제2 값이 작을수록 제2 유사도가 클 수 있다.
동작 440에서, 프로세서(210)는 낙상 검출과 관련된 임계 값(예: 프리셋 값(preset value), 미리 정의된 표시(predefined indication))을 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 값, 제2 값, 및 제2 정보에 기반하여(또는 제2 값 및 제2 정보에 기반하는 것과 같이 제1 값, 제2 값 및 제2 정보 중 적어도 하나에 기반하여), 낙상 검출과 관련된 임계 값을 식별할 수 있다.
동작 450에서, 프로세서(210)는, 낙상 검출을 위한 기능을 실행할 수 있다. 예를 들어, 프로세서(210)는 식별된 임계 값과 센서(220)를 통해 획득되는 값 사이의 비교에 기반하여, 낙상 검출을 위한 기능을 실행할 수 있다.
예를 들어, 낙상 검출과 관련된 임계 값은, 사용자에게 낙상이 발생되었는지 여부를 판단하기 위한 기준 값(또는 다른 표시)을 포함할 수 있다. 센서(220)를 통해 획득되는 값은, 충격량에 관한 값, 기압 변화량에 관한 값, 및/또는 사용자의 활동이 중단된 시간에 관한 값을 포함할 수 있다. 일 예로, 프로세서(210)는 사용자의 낙상을 판단하기 위한 값이 임계 값 이상임을 식별하는 것에 기반하여, 사용자에게 낙상이 발생하였음을 식별할 수 있다. 예를 들어, 낙상 검출과 관련된 임계 값은 충격량에 관한 제1 임계 값, 기압 변화량에 관한 제2 임계 값, 및/또는 활동 중단 유지 시간(또는 활동이 중단된 시간, 예를 들어 활동(예: 걷기와 같은 움직임)이 중단되거나 중단되는 시간)에 관한 제3 임계 값을 포함할 수 있다.
예를 들어, 프로세서(210)는 센서(220)를 통해 획득된 충격량에 관한 값이 제1 임계 값 이상임을 식별(또는 결정)하는 것에 기반하여, 사용자에게 낙상이 발생되었음을 식별(또는 결정(determine), 가정(assume), 감지(detect) 등)할 수 있다. 예를 들어, 프로세서(210)는 센서(220)를 통해 획득된 기압 변화량에 관한 값이 제2 임계 값 이상임을 식별하는 것에 기반하여, 사용자에게 낙상이 발생되었음을 식별할 수 있다. 예를 들어, 프로세서(210)는 사용자의 활동이 중단된 시간이 제3 임계 값 이상임을 식별하는 것에 기반하여, 사용자에게 낙상이 발생되었음을 식별할 수 있다.
예를 들어, 프로세서(210)는 센서(220)를 통해 획득된 충격량에 관한 값이 제1 임계 값 이상이고, 센서(220)를 통해 획득된 기압 변화량에 관한 값이 제2 임계 값 이상이고, 사용자의 활동이 중단된 시간이 제3 임계 값 이상임을 식별하는 것에 기반하여, 사용자에게 낙상이 발생되었음을 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 제1 값, 제2 값, 및 제2 정보에 기반하여, 사용자에게 낙상이 발생할 확률 값을 식별할 수 있다. 프로세서(210)는 식별된 확률 값에 기반하여, 임계 값을 복수의 후보 임계 값들 중 하나로 식별할 수 있다. 예를 들어, 프로세서(210)는 사용자에게 낙상이 발상할 확률 값에 기반하여, 낙상 위험도를 '낮음', '보통', '높음', 및 '아주 높음' 중 하나로 식별할 수 있다. 프로세서(210)는 낙상 위험도에 따른 복수의 후보 임계 값들 중 하나를 식별할 수 있다. 제한되지 않은 예에서, 낙상 위험도에 따른 복수의 후보 임계 값들은 표 1과 같이 설정될 수 있다.
Figure PCTKR2023009120-appb-img-000001
표 1을 참조하면, 낙상 위험도에 따라 복수의 후보 임계 값들이 설정될 수 있다. 예를 들어, 낙상 위험도가 '낮음'인 경우, 충격량에 관한 제1 임계 값은 20 [G](G-force)로 설정될 수 있다. 낙상 위험도가 '낮음'인 경우, 기압 변화량에 관한 제2 임계 값은 0.4 [hPa](hectopascal)로 설정될 수 있다. 낙상 위험도가 '낮음'인 경우, 활동 중단 시간에 관한 제3 임계 값은 60 [s](second)로 설정될 수 있다. 예를 들어, 낙상 위험도가 '보통'인 경우, 충격량에 관한 제1 임계 값은 20 [G]로 설정될 수 있다. 낙상 위험도가 '보통'인 경우, 기압 변화량에 관한 제2 임계 값은 0.4 [hPa]로 설정될 수 있다. 낙상 위험도가 '보통'인 경우, 활동 중단 시간에 관한 제3 임계 값은 60 [s](second)로 설정될 수 있다. 예를 들어, 낙상 위험도가 '높음'인 경우, 충격량에 관한 제1 임계 값은 15 [G]로 설정될 수 있다. 낙상 위험도가 '높음'인 경우, 기압 변화량에 관한 제2 임계 값은 0.32 [hPa]로 설정될 수 있다. 낙상 위험도가 '높음'인 경우, 활동 중단 시간에 관한 제3 임계 값은 40 [s](second)로 설정될 수 있다. 예를 들어, 낙상 위험도가 '매우 높음'인 경우, 충격량에 관한 제1 임계 값은 10 [G]로 설정될 수 있다. 낙상 위험도가 '매우 높음'인 경우, 기압 변화량에 관한 제2 임계 값은 0.32 [hPa]로 설정될 수 있다. 낙상 위험도가 '매우 높음'인 경우, 활동 중단 시간에 관한 제3 임계 값은 40 [s](second)로 설정될 수 있다.일 예에 따르면, 프로세서(210)는 사용자에게 낙상이 발생할 확률 값을 식별하고, 식별된 확률 값에 기반하여, 낙상 위험도를 식별할 수 있다. 프로세서(210)는 낙상 위험도에 따라 낙상 검출과 관련된 임계 값을 변경함으로써, 낙상 감지 알고리즘의 민감도를 변경할 수 있다. 프로세서(210)는 낙상 검출과 관련된 임계 값(예: 제1 임계 값, 제2 임계 값, 및 제3 임계 값)을 변경함으로써, 사용자에게 낙상이 발생되었음을 빠르게 식별할 수 있다.
예를 들어, 프로세서(210)는, 식별된 확률 값 및 제2 정보에 기반하여, 전자 장치(200)와 연결되고, 사용자에게 착용된 외부 전자 장치를 통해, 낙상 위험을 경고하기 위한 알림을 제공하도록, 외부 전자 장치를 야기하기 위한 신호를, 외부 전자 장치에게 송신할 수 있다.
도 5는 일 예에 따른, 전자 장치의 동작을 도시하는 흐름도이다.
도 5를 참조하면, 동작 510에서, 프로세서(210)는 사용자의 보행(또는 달리기 등과 같은 다른 방향의 움직임)에 관한 데이터를 식별할 수 있다. 예를 들어, 프로세서(210)는 가속도 센서(221)를 이용하여, 전자 장치(200)의 가속도에 관한 데이터를 식별할 수 있다. 예를 들어, 프로세서(210)는 자이로 센서(222)를 이용하여, 전자 장치(200)의 각속도에 관한 데이터를 식별할 수 있다. 예를 들어, 프로세서(210)는 기압 센서(223)를 이용하여, 기압(또는 전자 장치(200)의 고도)에 관한 데이터를 식별할 수 있다
동작 520에서, 프로세서(210)는 사용자의 보행(또는 다른 움직임)을 식별할 수 있다. 예를 들어, 프로세서(210)는 사용자의 보행에 관한 데이터에 기반하여 사용자의 보행을 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 사용자의 보행에 관한 데이터에 기반하여, 사용자의 걸음들을 식별할 수 있다. 프로세서(210)는 3축 가속도에 대한 데이터에 기반하여, 사용자의 걸음들을 식별할 수 있다. 프로세서(210)는 사용자의 걸음들이 지정된 횟수 이상임을 식별하는 것에 기반하여, 사용자의 보행을 식별할 수 있다.
동작 530에서, 프로세서(210)는 사용자의 보행을 식별하는 것에 기반하여, 기압 변화량을 식별할 수 있다. 예를 들어, 프로세서(210)는 사용자의 보행을 식별하는 것에 기반하여, 기압 센서(223)를 이용하여 식별된 데이터를 통해 기압 변화량을 식별할 수 있다. 예를 들어, 기압 센서(223)를 이용하여 식별된 데이터는 전자 장치(200)의 고도를 식별하기 위해 사용될 수 있다. 프로세서(210)는 기압 센서(223)를 이용하여 식별된 데이터에 기반하여, 전자 장치(200)의 고도가 변경되는지 여부를 식별할 수 있다.
동작 540에서, 프로세서(210)는 기압 변화량(즉, 기압이 변화된 크기)이 제1 기압 변화량 미만인지 여부를 식별할 수 있다. 프로세서(210)는 지정된 시간 구간 동안의 기압 변화량이 제1 기압 변화량 미만인지 여부를 식별할 수 있다. 예를 들어, 프로세서(210)는 지정된 시간 구간 종료 시의 기압 변화량이 제1 기압 변화량보다 작은지 여부를 확인할 수 있다. 프로세서(210)는 지정된 시간 구간 동안의 기압 변화량이 제1 기압 변화량 미만임을 식별하는 것에 기반하여, 지정된 시간 구간동안 기압이 감소함을 식별할 수 있다.
동작 550에서, 기압 변화량이 제1 기압 변화량 미만인 경우, 프로세서(210)는 사용자가 오르막 길을 걷고 있음을 식별할 수 있다. 프로세서(210)는 기압 변화량이 제1 기압 변화량 미만임을 식별하는 것에 기반하여, 사용자가 오르막 길을 걷고 있음을 식별할 수 있다. 일부 예에서, 음의 값인 기압 변화량(예를 들어, 지정된 시간 간격의 시작과 지정된 시간 간격의 종료 사이의 기압 감소를 나타냄)은 사용자가 오르막길로 걷고 있음을 나타내는 것으로 해석될 수 있다. 다른 예로, 사용자가 오르막길을 걷고 있는 것으로 해석되기 위해서는 기압 변화량이 제1 기압 변화량보다 작아야 하므로(그 자체가 음의 값일 수 있음) 기압 변화량이 단순히 0 미만이 아니라 최소한 지정된 크기를 가져야 한다. 상술한 예에 따르면, 프로세서(210)는 사용자가 더 일반적으로 오르막길을 걷고 있을 때와 반대로 지정된 시간 간격에 걸쳐 기압이 약간 감소하는 약간의 기복이 있는 실질적으로 평평한 땅을 사용자가 걷고 있는 경우를 걸러낼 수 있습니다.
동작 560에서, 기압 변화량이 제1 기압 변화량 이상인 경우, 프로세서(210)는 기압 변화량이 제2 기압 변화량 이상인지 여부를 식별할 수 있다. 예를 들어, 프로세서(210)는 기압 변화량이 제1 기압 변화량 이상임을 식별하는 것에 기반하여, 기압 변화량이 제2 기압 변화량 이상인지 여부를 식별할 수 있다. 예를 들어, 프로세서(210)는 지정된 시간 구간 동안의 기압 변화량이 제2 기압 변화량 이상인지 여부를 식별할 수 있다. 예를 들어, 프로세서(210)는 지정된 시간 구간 종료 시의 기압 변화량이 제2 기압 변화량보다 큰지 여부를 식별할 수 있다. 프로세서(210)는 지정된 시간 구간 동안의 기압 변화량이 제2 기압 변화량 이상임을 식별하는 것에 기반하여, 지정된 시간 구간동안 기압이 증가함을 식별할 수 있다.
동작 570에서, 기압 변화량이 제2 기압 변화량 이상인 경우, 프로세서(210)는 사용자가 내리막 길을 걷고 있음을 식별할 수 있다. 프로세서(210)는 기압 변화량이 제2 기압 변화량 이상임을 식별하는 것에 기반하여, 사용자가 내리막 길을 걷고 있음을 식별할 수 있다. 일부 예에서, 양의 값인 기압 변화량(예를 들어, 지정된 시간 간격의 시작과 지정된 시간 간격의 종료 사이의 기압의 증가를 나타냄)은 사용자가 내리막길을 걷고 있음을 나타내는 것으로 해석될 수 있다. 다른 예로, 사용자가 내리막길을 걷고 있는 것으로 해석되기 위해서는 기압 변화량이 제2 기압 변화량 이상이어야 하므로 반대로 기압 변화량이 기압 변화량이 단순히 0을 초과하는 것이 아니라 최소한 지정된 크기를 가져야 한다. 상술한 예에 따르면, 프로세서(210)는 사용자가 보다 일반적으로 내리막 길을 걷고 있을 때와 반대로 지정된 시간 간격 동안 기압이 약간 증가하는 약간의 기복이 있는 실질적으로 평평한 땅을 사용자가 걷고 있는 경우를 필터링할 수 있습니다.
동작 580에서, 기압 변화량이 제2 기압 변화량 미만인 경우, 프로세서(210)는 사용자가 평지를 걷고 있음을 식별할 수 있다. 예를 들어, 프로세서(210)는 기압 변화량이 제2 기압 변화량 미만임을 식별하는 것에 기반하여, 사용자가 평지를 걷고 있음을 식별할 수 있다. 예를 들어, 프로세서(210)는 지정된 시간 구간 동안 기압 변화량이 제1 기압 변화량 이상이고, 제2 기압 변화량 미만임을 식별하는 것에 기반하여, 사용자가 평지를 걷고 있음을 식별할 수 있다. 예를 들어, 지정된 시간 구간의 시작과 끝 사이의 기압 변화량이 제1 기압 변화량 이상이고 제2 기압 변화량보다 작은 경우는, 사용자가 일부 기복이 있는 실질적으로 평평한 땅을 걷는 경우에 해당할 수 있다.
도 6a 내지 도 6c는 일 예에 따른, 사용자의 보행 환경을 식별하기 위한 트랜드들의 예를 도시한다.
도 7a 내지 도 7c는 일 예에 따른, 사용자의 보행 환경을 식별하기 위한 트랜드들의 예를 도시한다.
도 8은 일 예에 따른, 사용자의 보행 환경을 식별하기 위한 트랜드의 예를 도시한다.
도 6a 내지 도 6c를 참조하면, 트랜드(610) 내지 트랜드(630)는 시간에 따른 전자 장치(200)의 가속도의 변화를 나타낸다. 프로세서(210)는 가속도 센서(221)를 이용하여 3 축에 대한 전자 장치(200)의 가속도를 식별할 수 있다. 프로세서(210)는 시간에 따른, 제1 방향(또는 x축 방향)의 가속도를 모니터링함으로써, 트랜드(610)를 식별할 수 있다. 프로세서(210)는 시간에 따른, 제2 방향(또는 y축 방향)의 가속도를 모니터링함으로써, 트랜드(620)를 식별할 수 있다. 프로세서(210)는 시간에 따른, 제3 방향(또는 z축 방향)의 가속도를 모니터링함으로써, 트랜드(630)를 식별할 수 있다. 프로세서(210)는 3축 방향의 가속도의 크기(magnitude)를 식별할 수 있다. 프로세서(210)는 3축 방향의 가속도의 크기를 나타내는 트랜드를 식별할 수 있다. 예를 들어, 프로세서(210)는 3축 방향의 가속도의 크기를 수학식 1을 이용하여 식별할 수 있다.
Figure PCTKR2023009120-appb-img-000002
수학식 1을 참조하면,
Figure PCTKR2023009120-appb-img-000003
은 3축 방향의 가속도의 크기이다. x는 제1 방향의 가속도의 크기이다. y는 제2 방향의 가속도의 크기이다. z는 제3 방향의 가속도의 크기이다. 프로세서(210)는 특정 시점에서의 3축 방향의 가속도의 크기를 식별하는 것에 기반하여, 시간에 따른 가속도의 크기를 나타내는 트랜드를 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 시간에 따른 3축 방향의 가속도의 트랜드들에 기반하여, 이동 구간 합(sliding window summing)의 차분 값(difference)을 식별할 수 있다. 프로세서(210)는 시간에 따른 이동 구간 합의 차분 값의 변화를 나타내는 트랜드(640)를 식별할 수 있다. 예를 들어, 프로세서(210)는 이동 구간 합을 수학식 2를 이용하여 식별할 수 있다. 프로세서(210)는 이동 구간 합의 차분 값을 수학식 3을 이용하여 식별할 수 있다.
Figure PCTKR2023009120-appb-img-000004
수학식 2를 참조하면, SWS(k)는 3축 방향의 가속도의 크기에 대한 이동 구간 합을 나타낸다. 프로세서(210)는 시점 k-N+1부터 시점 k까지의 가속도의 크기에 대한 이동 구간 합을 식별함으로써, SWS(k)를 식별(또는 획득)할 수 있다.
Figure PCTKR2023009120-appb-img-000005
수학식 3을 참조하면, SWSdiff(k)는 3축 방향의 가속도의 크기에 대한 이동 구간 합의 차분 값을 나타낸다. 프로세서(210)는 시점 k-N+1의 이동 구간 합에서 시점 k의 이동 구간 합의 차이를 시점 k에서 이동 구간 합의 차분 값으로 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 이동 구간 합의 차분 값의 트랜드가 사인(sine) 파형으로 구성되도록 k 및 N 값을 설정함으로써, 트랜드(640)를 식별할 수 있다. 프로세서(210)는 트랜드(640)에 기반하여, 적어도 하나의 제로 크로싱 포인트(zero-crossing point)를 식별할 수 있다. 시점(641), 시점(642), 및 시점(643)은 제로 크로싱 포인트들의 일 예일 수 있다.
예를 들어, 프로세서(210)는 제로 크로싱 포인트에 기반하여, 한 걸음(step)을 식별할 수 있다. 프로세서(210)는 제1 제로 크로싱 포인트(예: 시점(643)) 및 제1 제로 크로싱 포인트 이전에 식별된 제2 제로 크로싱 포인트(예: 시점(642)) 사이를 한 걸음을 나타내는 시간 구간으로 식별할 수 있다. 프로세서(210)는 트랜드(640) 내에서, 제로 크로싱 포인트들의 개수를 걸음 수로 식별할 수 있다. 프로세서(210)는 지정된 시간 구간 내에서 제로 크로싱 포인트들의 개수가 지정된 개수 이상임을 식별하는 것에 기반하여, 사용자가 보행 중이거나 다른 형태의 걸음 기반의 이동 중임을 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 사용자가 보행 중임을 식별하는 것에 기반하여, 기압 변화량(예: 기압의 차이)을 식별할 수 있다. 프로세서(210)는 지정된 시간 구간 내에서, 시간에 따른 기압의 트랜드(650)를 식별할 수 있다. 프로세서(210)는 트랜드(650)에 기반하여, 지정된 시간 구간 내에서 기압 변화량을 식별할 수 있다. 프로세서(210)는, 트랜드(650)에 기반하여, 지정된 시간 구간 내에서 기압 변화량이 제1 기압 변화량 이상이고, 제2 기압 변화량 미만임을 식별할 수 있다. 프로세서(210)는 지정된 시간 구간 내에서 기압 변화량이 제1 기압 변화량 이상이고, 제2 기압 변화량 미만임을 식별하는 것에 기반하여, 사용자가 평지를 걷고 있음을 식별할 수 있다. 예를 들어, 프로세서(210)는 지정된 시간 구간 내에서 기압이 유지됨(또는 일정 범위 내에서 유지되는 것과 같이 실질적으로 유지됨)을 식별하는 것에 기반하여, 사용자가 평지를 걷고 있음을 식별할 수 있다.
도 7a 내지 도 7c를 참조하면, 트랜드(710) 내지 트랜드(730)는 시간에 따른 전자 장치(200)의 가속도의 변화를 나타낸다. 트랜드(710)는 도 6a의 트랜드(610)에 상응할 수 있다. 트랜드(720)는 도 6a의 트랜드(620)에 상응할 수 있다. 트랜드(730)는 도 6a의 트랜드(630)에 상응할 수 있다. 프로세서(210)는 트랜드(710) 내지 트랜드(730)에 기반하여 3축 방향의 가속도의 크기를 식별함으로써, 시간에 따른 이동 구간 합의 차분 값의 변화를 나타내는 트랜드(740)를 식별할 수 있다. 트랜드(740)는 도 6b의 트랜드(640)에 상응할 수 있다.
일 예에 따르면, 프로세서(210)는 트랜드(740)에 기반하여, 적어도 하나의 제로 크로싱 포인트를 식별할 수 있다. 프로세서(210)는 트랜드(740) 내에서, 제로 크로싱 포인트들의 개수를 걸음 수로 식별할 수 있다. 프로세서(210)는 지정된 시간 구간 내에서 제로 크로싱 포인트들의 개수가 지정된 개수 이상임을 식별하는 것에 기반하여, 사용자가 보행 중임을 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 사용자가 보행 중임을 식별하는 것에 기반하여, 기압 변화량을 식별할 수 있다. 프로세서(210)는 지정된 시간 구간 내에서, 시간에 따른 기압의 트랜드(750)를 식별할 수 있다. 트랜드(750)는, 예를 들어, 시간 경과에 따른 기압 변화를 측정한다는 의미에서, 도 6c의 트랜드(650)에 상응할 수 있다. 프로세서(210)는, 트랜드(750)에 기반하여, 지정된 시간 구간 내에서 기압 변화량이 제2 기압 변화량 이상임을 식별할 수 있다. 프로세서(210)는 지정된 시간 구간 내에서 기압 변화량이 제2 기압 변화량 이상임을 식별하는 것에 기반하여, 사용자가 내리막길을 걷고 있음을 식별할 수 있다. 예를 들어, 프로세서(210)는 지정된 시간 구간 내에서 기압이 증가함을 식별하는 것에 기반하여, 사용자가 내리막길을 걷고 있음을 식별할 수 있다.
도시하지는 않았으나, 프로세서(210)는 지정된 시간 구간 내에서 기압 변화량이 제1 기압 변화량 미만임을 식별할 수 있다. 프로세서(210)는 지정된 시간 구간 내에서 기압 변화량이 제1 기압 변화량 미만임을 식별하는 것에 기반하여, 사용자가 오르막길을 걷고 있음을 식별할 수 있다. 예를 들어, 프로세서(210)는 지정된 시간 구간 내에서 기압이 감소함을 식별하는 것에 기반하여, 사용자가 오르막길을 걷고 있음을 식별할 수 있다.
도 8을 참조하면, 프로세서(210)는 3축 방향의 가속도의 크기를 식별함으로써, 시간에 따른 이동 구간 합의 차분 값의 변화를 나타내는 트랜드(810)를 식별할 수 있다. 트랜드(810)는 도 6b의 트랜드(640) 또는 도 7b의 트랜드(740)에 상응할 수 있다.
일 예에 따르면, 프로세서(210)는 트랜드(810)에 기반하여, 적어도 하나의 제로 크로싱 포인트를 식별할 수 있다. 프로세서(210)는 제로 크로싱 포인트 사이의 시간 구간을 식별할 수 있다. 예를 들어, 프로세서(210)는 시간 구간(811), 시간 구간(812), 및 시간 구간(813)을 식별할 수 있다. 프로세서(210)는 시간 구간(811), 시간 구간(812), 및 시간 구간(813)을 포함하는 복수의 시간 구간들을 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 복수의 시간 구간들에 기반하여, 걸음 주파수를 식별할 수 있다. 프로세서(210)는 복수의 시간 구간들의 대푯값(예: 평균 값 또는 중간 값)에 기반하여, 걸음 주파수를 식별할 수 있다. 예를 들어, 프로세서(210)는 복수의 시간 구간들의 대푯값을 시간 구간(811)으로 식별할 수 있다. 프로세서(210)는 시간 구간(811)에 기반하여, 걸음 주파수를 식별할 수 있다. 예를 들어, 프로세서(210)는 수학식 4를 이용하여 걸음 주파수를 식별할 수 있다.
Figure PCTKR2023009120-appb-img-000006
수학식 4를 참조하면, f는 걸음 주파수이다. te는 복수의 시간 구간들의 대푯값이다. 프로세서(210)는 복수의 시간 구간들의 대푯값을 이용하여, 걸음 주파수를 식별함으로써, 사용자의 보행 속력을 식별할 수 있다.
도 9는 일 예에 따른 전자 장치의 동작의 예를 도시한다.
도 9를 참조하면, 동작 910에서, 프로세서(210)는 제2 데이터를 획득할 수 있다. 예를 들어, 프로세서(210)는 센서(220) 및/또는 통신 회로(240) 중 적어도 하나를 이용하여 제2 데이터를 획득할 수 있다. 예를 들어, 프로세서(210)는 가속도 센서(221), 자이로 센서(222), 기압 센서(223), 및 통신 회로(240) 중 적어도 하나를 이용하여 제2 데이터를 획득할 수 있다. 예를 들어, 프로세서(210)는 센서(220)를 통해 획득된 데이터를 전처리하는 것에 기반하여, 제2 데이터 및/또는 제3 데이터를 획득할 수 있다. 예를 들어, 제2 데이터 및 제3 데이터는, 핸드 모션에 대한 자세 변화, 주파수 특성, 핸드 모션에 대한 움직임의 크기(예: 크기, 범위 등), 및/또는 방향 중 적어도 하나를 포함할 수 있다. 일 예로, 핸드 모션은 사용자가 전자 장치(200)를 소지(또는 그립)한 상태를 의미할 수 있다. 프로세서(210)는 사용자가 전자 장치(200)를 소지한 상태에서의 움직임을 식별함으로써, 핸드 모션에 대한 자세 변화(예: 사용자가 전자 장치를 잡는 방법의 변경), 주파수 특성, 핸드 모션에 대한 움직임의 크기, 및/또는 방향 중 적어도 하나를 식별할 수 있다.
예를 들어, 제2 데이터 및 제3 데이터는 가속도 센서(221)를 통해 획득된 전자 장치(200)의 가속도에 관한 데이터, 자이로 센서(222)를 통해 획득된 전자 장치(200)의 각속도에 관한 데이터, 기압 센서(223)를 통해 획득된 전자 장치(200) 주변의 기압에 관한 데이터, 및 통신 회로(240)를 통해 외부 전자 장치로부터 획득된 날씨에 대한 정보 중 적어도 하나를 포함할 수 있다.
제2 데이터는 제2 시점에 획득된 데이터를 의미할 수 있다. 제3 데이터는 제2 시점보다 빠른 제1 시점에 획득된 데이터를 의미할 수 있다.
동작 920 및 동작 930에서, 프로세서(210)는 제2 데이터 및/또는 제3 데이터를 학습할 수 있다. 프로세서(210)는 제2 데이터 및/또는 제3 데이터를 학습하는 것에 기반하여, 지정된 모델(940)의 복수의 파라미터들을 설정할 수 있다. 예를 들어, 지정된 모델(940)은 인공지능 모델을 포함할 수 있다. 예를 들어, 지정된 모델(940)은 DTs(decision trees), SVM(support vector machine), KNN(k-nearest neighbor), 및/또는 MLP(multi-layer perceptron) 등의 머신러닝에 기반하여 구성(또는 설계)될 수 있다.
예를 들어, 제3 데이터는 사용자의 보행 이력에 따라 획득될 수 있다. 프로세서(210)는 사용자의 보행 이력에 기반하여, 제3 데이터를 획득할 수 있다. 제3 데이터가 획득된 제1 시점은 제2 데이터가 획득된 제2 시점과 상이할 수 있다. 제3 데이터가 획득된 제1 시점은 제2 데이터가 획득된 제2 시점보다 빠를 수 있다. 예를 들어, 프로세서(210)는 제1 시점에서 획득된 제3 데이터를 학습함으로써, 지정된 모델(940)을 설정(또는 변경, 업데이트)할 수 있다. 프로세서(210)는 제1 시점에 획득된 제3 데이터를 이용하여 지정된 모델(940)의 복수의 파라미터들을 설정(또는 변경, 업데이트)할 수 있다. 프로세서(210)는 제2 시점에 획득된 제2 데이터를 학습함으로써, 지정된 모델(940)을 설정할 수 있다. 프로세서(210)는 제2 시점에 획득된 제2 데이터를 이용하여 지정된 모델(940)의 복수의 파라미터들을 설정(또는 변경, 업데이트)할 수 있다.
일 예에 따르면, 프로세서(210)는 제2 데이터의 적어도 일부 또는 전부를 지정된 모델(940)의 학습에 사용할 수 있다. 프로세서(210)는 제2 데이터의 적어도 일부 또는 전부를 지정된 모델(940)의 입력 데이터로 설정할 수 있다. 예를 들어, 프로세서(210)는 지정된 모델(940)의 동작 모드가 학습 모드(또는 training phase)인 동안, 제2 데이터를 학습할 수 있다. 예를 들어, 프로세서(210)는 지정된 모델(940)의 동작 모드가 식별 모드(또는 recognition phase)인 동안, 제2 데이터를 지정된 모델(940)의 입력 데이터로 설정할 수 있다.
동작 950에서, 프로세서(210)는 전자 장치(200)의 이동 상태에 대한 정보를 획득할 수 있다. 예를 들어, 프로세서(210)는 제2 데이터의 적어도 일부 또는 전부를 지정된 모델(940)의 입력 데이터로 설정하는 것에 기반하여, 전자 장치(200)의 이동 상태에 대한 정보를 획득할 수 있다. 예를 들어, 전자 장치(200)의 이동 상태에 대한 정보는 사용자가 전자 장치(200)를 지니고(carry) 있는 자세에 대한 정보를 포함할 수 있다. 따라서, 다양한 예들에서 방법은 동작 910, 940 및 950을 따를 수 있고, 획득된 제2 데이터는 이동 상태에 대한 정보 획득을 위한 지정 모델(940)의 입력 데이터로 사용되며; 다른 예에서 방법은 동작 910, 920, 930 및 940을 따를 수 있으며, 획득된 제2 데이터 및/또는 제3 데이터가 학습되고, 지정된 모델의 파라미터가 제2 데이터 및/또는 제3 데이터를 사용하여 설정되고, 지정된 모델(940)은 파라미터에 기초하여 설정될 수 있다(또한, 동작 950은 또한 지정된 모델(940)에 대한 입력 데이터로 사용되는 제2 데이터로 수행될 수 있다).
예를 들어, 프로세서(210)는 제2 데이터의 적어도 일부 또는 전부를 지정된 모델(940)의 입력 데이터로 설정하는 것에 기반하여, 사용자가 상기 사용자의 손을 이용하여 전자 장치(200)를 지니고 있음을 식별할 수 있다.
예를 들어, 프로세서(210)는 제2 데이터의 적어도 일부 또는 전부를 지정된 모델(940)의 입력 데이터로 설정하는 것에 기반하여, 사용자가 주머니를 이용하여 전자 장치(200)를 지니고 있음을 식별할 수 있다.
예를 들어, 프로세서(210)는 제2 데이터의 적어도 일부 또는 전부를 지정된 모델(940)의 입력 데이터로 설정하는 것에 기반하여, 사용자가 전자 장치(200)를 쥔 상태에서 팔을 흔들고(swing) 있음을 식별할 수 있다.
도 10은 일 예에 따른, 전자 장치의 동작을 도시하는 흐름도이다.
도 10을 참조하면, 동작 1010에서, 프로세서(210)는 사용자의 제1 걸음들(예: 제1 복수의 걸음들)을 식별(또는 검출, 결정, 획득 등)할 수 있다. 예를 들어, 프로세서(210)는 가속도 센서(221)를 이용하여 3축 방향의 가속도의 크기에 기반하여, 사용자의 제1 걸음들을 식별할 수 있다. 예를 들어, 프로세서(210)는 3축 방향의 가속도의 크기에 기반하여, 시간에 따른 이동 구간 합의 차분 값의 변화를 나타내는 트랜드(예: 도 6b의 트랜드(640), 도 7b의 트랜드(740))를 식별할 수 있다. 프로세서(210)는 식별된 트랜드에 관한 적어도 하나의 제로 크로싱 포인트에 기반하여, 사용자의 제1 걸음들을 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 사용자의 걸음들 중, 특이 값(outlier)으로 식별되는 걸음을 제외하여 제1 걸음들을 식별할 수 있다. 예를 들어, 프로세서(210)는 z 점수(z-score)에 기반하여, 사용자의 걸음들 중 특이 값(outlier)을 제외하여, 제1 걸음들을 식별할 수 있다.
동작 1020에서, 프로세서(210)는 제1 걸음들의 수가 지정된 횟수 이상인지 여부를 식별(또는 결정, 검출, 계산 등)할 수 있다. 예를 들어, 프로세서(210)는 유효 보행 구간을 식별하기 위해, 제1 걸음들의 수가 지정된 횟수(예: 12회) 이상인지 여부를 식별할 수 있다. 프로세서(210)는 3축 방향의 가속도의 크기에 기반하여 식별된, 시간에 따른 이동 구간 합의 차분 값의 변화를 나타내는 트랜드에 기반하여, 사용자의 걸음이 지정된 횟수 이상으로 연속적으로 발생되는지 여부를 식별할 수 있다. 실시 예에 따라, 프로세서(210)는 제1 걸음들의 수를 지정된 횟수에 따라 적어도 하나의 유효 보행 구간으로 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 제1 걸음들의 수가 지정된 횟수 이상이 아님을 (동작 1020 내에서) 식별하는 것에 기반하여, 동작 1010을 수행(예: 반복)할 수 있다. 예를 들어, 프로세서(210)는 제1 걸음들의 수가 지정된 횟수 이상이 아님을 식별하는 것에 기반하여, 사용자의 제1 걸음들(동작 1010 수행에서 식별됨)을 다시 식별할 수 있다.
동작 1030에서, 프로세서(210)는 제1 걸음들에 따른 특징 값들을 식별(또는 획득, 결정, 검출 등)할 수 있다. 예를 들어, 프로세서(210)는 제1 걸음들의 수가 지정된 횟수 이상임을 식별하는 것에 기반하여, 제1 걸음들에 따른 특징 값들을 식별할 수 있다.
일 예에 따르면, 특징 값들은 보행 패턴 또는 보행 안정성을 나타내기 위한 값들을 포함할 수 있다. 예를 들어, 특징 값들은 3축 방향의 가속도의 크기에 대한 값들을 포함할 수 있다. 예를 들어, 특징 값들은, 최소값, 최대값, 평균값, 표준편차, RMS(root mean squared) 값, P2P(peak-to-peak) 값, Peak count 값, SMA(signal magnitude area) 값, MAD(mean amplitude deviation) 값 및 COV(coefficient of variance) 값 중 적어도 하나를 포함할 수 있다.
동작 1040에서, 프로세서(210)는 모집단을 식별(또는 획득, 결정, 검출 등)할 수 있다. 예를 들어, 프로세서(210)는 제1 걸음들에 따른 특징 값들에 기반하여, 모집단을 식별할 수 있다. 일 예에 따르면, 모집단은 사용자의 복수의 걸음들에 따른 보행 패턴에 관한 값들로 구성될 수 있다. 예를 들어, 프로세서(210)는 제1 걸음들에 따른 특징 값들 및 제1 걸음들이 식별되기 전 발생된(예를 들어, 동작(1010)에서 제1 걸음들을 식별하기 전에, 예를 들어 도 10의 방법의 이전 수행을 통해 제2 걸음들이 식별되었다), 제2 걸음들(예: 복수의 제2 걸음들)에 따른 특징 값들을 식별할 수 있다. 프로세서(210)는 제1 걸음들에 따른 특징 값들에 기반하여, 제1 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 프로세서(210)는 제2 걸음들에 따른 특징 값들에 기반하여, 제2 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 프로세서(210)는 제1 걸음들에 따른 보행 패턴에 관한 값들 및 제2 걸음들에 따른 보행 패턴에 관한 값들을, 복수의 걸음들에 따른 보행 패턴에 관한 값들을 포함하는 모집단(예를 들어, 모집단은 값/특성 값의 두 세트들을 포함함)으로 구성할 수 있다. 프로세서(210)는 모집단에 기반하여, 사용자의 보행 패턴에 관한 학습을 수행할 수 있다. 예를 들어, 프로세서(210)는 모집단을 정규화하여 피처 스케일링(feature scaling)을 수행할 수 있다. 프로세서(210)는 피처 스케일링된 데이터에 기반하여, 사용자의 보행 패턴에 관한 학습을 수행할 수 있다.
이하에서는, 동작 1010 내지 동작 1040에 따른 프로세서(210)의 동작의 구체적인 예가 후술될 것이다.
도 11은 일 예에 따른 전자 장치의 동작의 예를 도시한다.
도 12는 일 예에 따른 전자 장치의 동작의 예를 도시한다.
도 11을 참조하면, 프로세서(210)는 가속도 센서(221)를 이용하여, 3축 방향의 가속도를 나타내는 트랜드들을 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 방향(또는 x축 방향)의 가속도를 나타내는 트랜드(1110)를 식별할 수 있다. 프로세서(210)는 제2 방향(또는 y축 방향)의 가속도를 나타내는 트랜드(1120)를 식별할 수 있다. 프로세서(210)는 제3 방향(또는 z축 방향)의 가속도를 나타내는 트랜드(1130)를 식별할 수 있다. 프로세서(210)는 트랜드(1110) 내지 트랜드(1130)에 기반하여, 이동 구간 합의 차분 값의 변화를 나타내는 트랜드(1140)를 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 트랜드(1140)에 기반하여, 적어도 하나의 제로 크로싱 포인트를 식별할 수 있다. 프로세서(210)는 적어도 하나의 제로 크로싱 포인트를 식별하는 것에 기반하여, 사용자의 걸음들을 식별할 수 있다. 프로세서(210)는 사용자의 걸음들에 기반하여, 유효 보행 구간을 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 지정된 횟수(예: 10 회) 마다 유효 보행 구간을 식별할 수 있다. 예를 들어, 프로세서(210)는 유효 보행 구간(1151), 유효 보행 구간(1152), 및 유효 보행 구간(1153)을 식별할 수 있다. 프로세서(210)는 사용자의 걸음들의 수가 지정된 횟수 이상임을 식별하는 것에 기반하여, 지정된 횟수 마다 유효 보행 구간을 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 유효 보행 구간(1151)을 구성하는 걸음들 중, 특이 값(outlier)으로 식별된 걸음(1141)을 제외하고, 제1 걸음들을 식별할 수 있다. 프로세서(210)는 제1 걸음들에 따른 특징 값들을 식별할 수 있다. 프로세서(210)는 유효 보행 구간(1152) 및 유효 보행 구간(1153)을 구성하는 걸음들의 특징 값을 식별할 수 있다.
도 12를 참조하면, 프로세서(210)는 걸음당 10개의 특징 값들을 식별할 수 있다. 프로세서(210)는 10 회의 걸음들로 구성된 제1 걸음들에 따른 10 개의 특징 값들을 행렬(1210)로 구성할 수 있다. 행렬(1210)은 10x10(10 by 10)(즉, 10 개의 열들 및 10 개의 행들)으로 구성될 수 있다. 행렬(1210)을 구성하는 특징 값들은 예시적인 것이며, 변경될 수 있다.
일 예에 따르면, 프로세서(210)는 트랜드(1140)에 기반하여, 특징 값들을 식별할 수 있다. 프로세서(210)는 한 걸음(one step)을 구성하는 이동 구간 합의 차분 값들을 이용하여, 특징 값들을 식별할 수 있다. 예를 들어, 프로세서(210)는 한 걸음(one step)을 구성하는 이동 구간 합의 차분 값의 변화를 나타내는 트랜드를 단위 시간 간격에 따라 이산적인 값들(예: n 개)로 구분할 수 있다. 프로세서(210)는 구분된 값들을 이용하여, 특징 값들을 식별할 수 있다. 이제 특징 값의 많은 예가 뒤따르며, 이러한 유형의 특징 값 중 임의의 하나 이상이 본 명세서에 개시된 예에서 구현될 수 있음을 이해할 것이다.
도 12에서 도시된 값들은 예시적인 값들로, 이하에서 설명되는 예들에 따라 기재되지 않을 수 있다.
예를 들어, 제1 열은, 최소값(min)을 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들의 최소값을 제1 열의 값으로 식별할 수 있다.
예를 들어, 제2 열은, 최대값(max)을 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들의 최대값을 제2 열의 값으로 식별할 수 있다.
예를 들어, 제3 열은, 평균값(mean)을 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들의 평균값을 제3 열의 값으로 식별할 수 있다.
예를 들어, 제4 열은, 표준편차(standard deviation)를 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들의 표준편차를 제4 열의 값으로 식별할 수 있다.
예를 들어, 제5 열은, RMS(root mean squared) 값을 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들의 RMS 값을 제5 열의 값으로 식별할 수 있다.
예를 들어, 제6 열은, P2P(peak-to-peak) 값을 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들을 나타내는 트랜드의 peak 값들의 차이를 제6 열의 값으로 식별할 수 있다.
예를 들어, 제7 열은, peak count 값을 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들을 나타내는 트랜드의 peak 값의 개수를 제7 열의 값으로 식별할 수 있다.
예를 들어, 제8 열은, SMA(signal magnitude area) 값을 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들을 나타내는 트랜드의 SMA 값을 제8 열의 값으로 식별할 수 있다.
예를 들어, 제9 열은, MAD(mean amplitude deviation) 값을 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들을 나타내는 트랜드의 MAD 값을 제9 열의 값으로 식별할 수 있다.
예를 들어, 제10 열은, COV(coefficient of variance) 값을 의미할 수 있다. 프로세서(210)는 한 걸음을 구성하는 이동 구간 합의 차분 값들의 COV(coefficient of variance) 값을 제10 열의 값으로 식별할 수 있다.
도 13은 일 예에 따른, 전자 장치의 동작을 도시하는 흐름도이다.
도 13을 참조하면, 동작 1310에서, 프로세서(210)는 제1 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 걸음들에 따른 특징 값들에 기반하여, 제1 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 걸음들에 따른 특징 값들에 기반하여 구성된 행렬에 지정된 행렬을 곱하여, 제1 걸음들에 따른 보행 패턴에 관한 값들로 구성된 제1 행렬을 식별할 수 있다.
동작 1320에서, 프로세서(210)는 제2 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 예를 들어, 프로세서(210)는 제2 걸음들에 따른 특징 값들에 기반하여, 제2 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 예를 들어, 프로세서(210)는 제2 걸음들에 따른 특징 값들에 기반하여 구성된 행렬에 지정된 행렬을 곱하여, 제2 걸음들에 따른 보행 패턴에 관한 값들로 구성된 제2 행렬을 식별할 수 있다. 예를 들어, 제2 걸음들에 따른 보행 패턴에 관한 값들은 사용자의 보행 이력에 따라 학습된 값일 수 있다.
일 예에 따르면, 제1 걸음들의 특징 값들 및 제2 걸음들의 특징 값들이 많을수록 연산량이 증가하고, 지정된 모델의 학습 효과가 떨어질 수 있다. 따라서, 프로세서(210)는 다양한 특징 값들을 보행 패턴에 따른 특징 값들로 식별하여 보행 패턴의 차원을 감소시킬 수 있다.
동작 1330에서, 프로세서(210)는 모집단을 구성할 수 있다. 예를 들어, 프로세서(210)는 제1 걸음들에 따른 보행 패턴에 관한 값들 및 제2 걸음들에 따른 보행 패턴에 관한 값들을, 복수의 걸음들에 따른 보행 패턴에 관한 값들을 포함하는 모집단으로 구성할 수 있다.
예를 들어, 프로세서(210)는 제1 걸음들에 따른 보행 패턴에 관한 값들 및 제2 걸음들에 따른 보행 패턴에 관한 값들을 복수의 걸음들에 따른 보행 패턴에 관한 값들로 식별할 수 있다. 프로세서(210)는 복수의 걸음들에 따른 보행 패턴에 관한 값들을 포함하는 모집단을 제3 행렬로 표현할 수 있다.
동작 1340에서, 프로세서(210)는 복수의 걸음들에 따른 적합도에 대한 정보에 기반하여, 모집단 중 적어도 일부를 식별할 수 있다. 예를 들어, 프로세서(210)는 모집단에 기반하여 획득된, 복수의 걸음들에 따른 적합도에 대한 정보에 기반하여, 모집단 중 적어도 일부를 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 모집단에 기반하여, 복수의 걸음들에 따른 적합도에 대한 정보를 획득할 수 있다. 예를 들어, 프로세서(210)는 제3 행렬로 표현된 모집단 중 각 열의 대표 값을 식별할 수 있다. 일 예로, 프로세서(210)는 제3 행렬로 표현된 모집단 중 각 열의 평균(mean) 값을 대표 값으로 식별할 수 있다. 프로세서(210)는 제3 행렬로 표현된 모집단 중 각 열의 평균 값을 대표 값으로 식별하는 것에 기반하여, 복수의 걸음들에 따른 적합도에 대한 정보를 획득할 수 있다. 복수의 걸음들에 따른 적합도에 대한 정보는 제4 행렬로 표현될 수 있다. 예를 들어, 각 열의 평균값으로 형성된다는 점에서 피트니스 정보는 기록/결정/식별된 특징값에 따른 주체/사용자의 피트니스 수준에 대한 일반적인 지표를 제공한다고 볼 수 있으며, /또는 대상/사용자에 대한 높은 피트니스 및/또는 낮은 피트니스의 식별을 허용할 수 있다(예: 걷기가 평균보다 더 많거나 덜 집중적인 경우).
일 예에 따르면, 프로세서(210)는, 복수의 걸음들에 따른 적합도에 대한 정보에 기반하여, 모집단 중 적어도 일부를 식별할 수 있다. 프로세서(210)는 복수의 걸음들에 따른 적합도가 높은 순으로, 모집단 중 적어도 일부를 식별할 수 있다. 예를 들어, 높은 적합도는 평균 값보다 높은(즉, 적합도에 대한 정보보다 높은) 특징 값을 나타낼 수 있다.
동작 1350에서, 프로세서(210)는 보행 패턴에 대한 학습을 수행할 수 있다. 예를 들어, 프로세서(210)는 모집단 중 적어도 일부에 기반하여, 사용자의 보행 패턴에 대한 학습을 수행할 수 있다.
일 예에 따르면, 프로세서(210)는 보행 패턴에 대한 학습을 반복함으로써, 보행 패턴을 업데이트할 수 있다. 프로세서(210)는 보행 패턴에 대한 학습에 따른 보행 패턴의 변화량이 기준 범위 내임을 식별하는 것에 기반하여, 보행 패턴이 충분히 학습되었음을 식별할 수 있다. 프로세서(210)는 보행 패턴이 충분히 학습되었음을 식별하는 것에 기반하여, 보행 패턴에 대한 학습을 중단할 수 있다.
동작 1310 내지 동작 1350에 따른 동작의 구체적인 예가 도 14 내지 도 18에서 후술될 것이다.
도 14는 일 예에 따른 지정된 행렬의 예를 도시한다.
도 15는 일 예에 따른 모집단을 나타내는 행렬의 예를 도시한다.
도 16은 일 예에 따른 적합도에 대한 정보를 나타내는 행렬의 예를 도시한다.
도 17은 일 예에 따른 모집단의 적어도 일부를 나타내는 행렬의 예를 도시한다.
도 18은 일 예에 따른 보행 패턴에 대한 학습 결과의 예를 도시한다.
도 14를 참조하면, 프로세서(210)는 행렬(1410)을 식별할 수 있다. 예를 들어, 행렬(1410)은 메모리(230)에 저장된 상태일 수 있다. 예를 들어, 행렬(1410)은 미리 모델링 된 상태일 수 있다. 실시 예에 따라, 프로세서(210)는 행렬(1410)을 전자 장치(200)와 연결된 외부 전자 장치(예: 서버)로부터 수신할 수 있다.
일 예에 따르면, 행렬(1410)은 제1 걸음들에 따른 보행 패턴에 관한 값들을 식별하기 위해 사용될 수 있다. 행렬(1410)은 제2 걸음들에 따른 보행 패턴에 관한 값들을 식별하기 위해 사용될 수 있다.
도 15를 참조하면, 프로세서(210)는 제1 걸음들에 대한 특징 값들을 나타내는 행렬(예: 도 12의 행렬(1210))에 행렬(1410)을 곱함으로써, 제1 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 예를 들어, 프로세서(210)는 행렬(1410)에 제1 걸음들에 대한 특징 값들을 나타내는 행렬(예를 들어, 행렬(1210))을 곱하여(예를 들어, 행렬 곱셈에 의해) 제1 걸음들에 따른 보행 패턴과 관련된 값을 식별할 수 있다. 프로세서(210)는 제1 걸음들에 따른 보행 패턴에 관한 값들을 행렬(1512)(또는 더 큰 행렬(1510)의 일부)로 나타낼 수 있다. 예를 들어, 제1 걸음들의 수는 10회 일 수 있다. 행렬(1512)은 10x3(즉, 10 개의 행들과 3 개의 열들)으로 구성될 수 있다.
프로세서(210)는 제2 걸음들에 대한 특징 값들을 나타내는 행렬에 행렬(1410)을 곱함으로써, 제2 걸음들에 따른 보행 패턴에 관한 값들을 식별할 수 있다. 예를 ㄷ르어, 프로세서(210)는 행렬(1410)에 제2 걸음들에 대한 특징 값을 나타내는 행렬을 곱하여(예를 들어, 행렬 곱셈을 통해) 제2 걸음들에 따른 보행 패턴과 관련된 값을 확인할 수 있다. 프로세서(210)는 제2 걸음들에 따른 보행 패턴에 관한 값들을 행렬(1511)(또는 더 큰 행렬(1510)의 일부)로 나타낼 수 있다. 예를 들어, 제2 걸음들의 수는 10회 일 수 있다. 행렬(1511)은 10X3으로 구성될 수 있다. 예를 들어, 제2 걸음들은, 제1 걸음들이 식별되기 전 발생될 수 있다. 예를 들어, 제2 걸음들은, 제1 걸음들이 식별되기 전 미리 학습된 걸음들일 수 있다.
일 예에 따르면, 프로세서(210)는 모집단을 구성할 수 있다. 프로세서(210)는 제1 걸음들에 따른 보행 패턴에 관한 값들 및 제2 걸음들에 따른 보행 패턴에 관한 값들을 복수의 걸음들에 따른 보행 패턴에 관한 값들을 포함하는 모집단으로 구성할 수 있다. 예를 들어, 프로세서(210)는 제1 걸음들에 따른 보행 패턴에 관한 값들을 포함하는 행렬(1512) 및 제2 걸음들에 따른 보행 패턴에 관한 값들을 포함하는 행렬(1511)을 결합함으로써, 행렬(1510)을 식별할 수 있다.
일 예에 따르면, 행렬(1510)은 복수의 걸음들에 따른 보행 패턴에 관한 값들로 구성될 수 있다. 행렬(1510)의 행은 복수의 걸음들을 의미할 수 있다. 복수의 걸음들은 20회일 수 있다. 행렬(1510)은 20x3(즉, 20 개의 행들과 3 개의 열들)으로 구성될 수 있다.
도 16을 참조하면, 프로세서(210)는 행렬(1510)에서 각 행을 3 차원 좌표계로 나타낼 수 있다. 행렬(1510)의 1 열은 x 축의 좌표 값을 의미할 수 있다. 행렬(1510)의 2 열은 y 축의 좌표 값을 의미할 수 있다. 행렬(1510)의 3 열은 z 축의 좌표 값을 의미할 수 있다. 예를 들어, 행렬(1510)의 1 행은 제1 좌표에 대응할 수 있다. 행렬(1510)의 2 행은 제2 좌표에 대응할 수 있다. 프로세서(210)는 행렬(1510)에 기반하여, 제1 좌표 내지 제20 좌표를 식별할 수 있다. 프로세서(210)는 제1 좌표 내지 제20 좌표의 평균 좌표를 식별할 수 있다. 프로세서(210)는 제1 좌표 내지 제20 좌표 각각과 평균 좌표 사이의 유클리디안 거리를 식별할 수 있다. 프로세서(210)는 제1 좌표부터 제20 좌표까지의 각각의 좌표와 평균 좌표 사이의 유클리디안 거리를 식별함으로써, 복수의 걸음들에 따른 적합도에 대한 정보를 식별할 수 있다. 프로세서(210)는 복수의 걸음들에 따른 적합도에 대한 정보를 행렬(1610)으로 나타낼 수 있다. 예를 들어, 행렬(1610)의 각 행은 각각의 걸음에 대한 적합도를 의미할 수 있다. 일 예로, 행렬(1610)의 1 행은 제2 걸음들의 첫번째 걸음에 대한 적합도를 의미할 수 있다. 예를 들어, 적합도는 사용자의 보행 패턴을 잘 나타내는 행렬의 값들을 식별하기 위해 사용될 수 있다.
도 17을 참조하면, 프로세서(210)는 복수의 걸음들에 따른 적합도에 대한 정보에 기반하여, 모집단 중 적어도 일부를 식별할 수 있다. 예를 들어, 프로세서(210)는 적합도가 높은 상위 10 개의 걸음들을 식별함으로써, 모집단 중 적어도 일부를 식별할 수 있다. 프로세서(210)는 적합도가 높은(또는 높은 적합도를 나타내는) 상위 10 개의 걸음들에 따른 보행 패턴에 관한 값들을 행렬(1710)으로 나타낼 수 있다.
도 18을 참조하면, 프로세서(210)는 도 14 내지 도 17에 따른 동작을 수행함으로써, 사용자의 보행 패턴에 대한 학습을 수행할 수 있다.
일 예에 따르면, 프로세서(210)는 행렬(1710)에 대응하는 10 개의 제1 좌표들(1810)을 식별할 수 있다. 프로세서(210)는 행렬(1710)에 포함된 보행 패턴에 관한 값들 및 새롭게 획득된 보행 패턴에 관한 값들을 이용하여, 보행 패턴에 대한 학습을 수행함으로써, 제2 좌표들(1820)을 식별할 수 있다. 프로세서(210)는 제1 좌표들(1810)의 대표 값 및 제2 좌표들(1820) 사이의 유클리디안 거리를 식별할 수 있다. 프로세서(210)는 제1 좌표들(1810)의 대표 값 및 제2 좌표들(1820) 사이의 유클리디안 거리를 학습에 따른 보행 패턴의 변화량으로 식별할 수 있다. 프로세서(210)는 학습에 따른 보행 패턴의 변화량이 기준 범위 내인지 여부를 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 유효 보행 구간이 식별될 때마다, 보행 패턴에 대한 학습을 수행할 수 있다. 프로세서(210)는 사용자의 보행 패턴을 진화적으로 학습할 수 있다. 예를 들어, 프로세서(210)는 학습에 따른 보행 패턴의 변화량이 기준 범위 밖임을 식별하는 것에 기반하여, 보행 패턴에 대한 학습을 반복할 수 있다.
예를 들어, 프로세서(210)는 보행 패턴에 대한 학습에 따라 제3 좌표들(1830)을 식별할 수 있다. 프로세서(210)는 제2 좌표들(1820)의 대표 값 및 제3 좌표들(1830)의 대표 값 사이의 유클리디안 거리를 학습에 따른 보행 패턴의 변화량으로 식별할 수 있다. 프로세서(210)는 학습에 따른 보행 패턴의 변화량이 기준 범위 밖임을 식별할 수 있다. 프로세서(210)는 보행 패턴에 대한 학습에 따라 제4 좌표들을 식별할 수 있다. 프로세서(210)는 제3 좌표들(1830)의 대표 값 및 제4 좌표들(1840)의 대표 값 사이의 유클리디안 거리를 학습에 따른 (제3 좌표들(1830) 및 제4 좌표들(1840)과 관련된) 보행 패턴의 변화량으로 식별할 수 있다. 프로세서(210)는 학습에 따른 보행 패턴의 변화량이 기준 범위 내임을 식별할 수 있다. 프로세서(210)는 학습에 따른 보행 패턴의 변화량이 기준 범위 내임을 식별하는 것에 기반하여, 보행 패턴이 충분히 학습되었음을 식별할 수 있다. 프로세서(210)는 보행 패턴이 충분히 학습되었음을 식별하는 것에 기반하여, 보행 패턴에 대한 학습을 중단할 수 있다.
도 19는 일 예에 따른 프로세서의 동작 모드의 예를 도시한다.
도 19를 참조하면, 프로세서(210)는 제1 모드(1910), 제2 모드(1920), 제3 모드(1930), 및 제4 모드(1940) 중 하나로 동작할 수 있다. 예를 들어, 프로세서(210)는 동작 모드에 기반하여, 보행 패턴을 학습할 수 있다.
일 예에 따르면, 프로세서(210)는, 제1 모드(1910)에 기반하여, 메모리(230)에 저장된, 사용자의 보행 이력 및 제2 보행 패턴에 관한 제4 정보를 초기화할 수 있다. 예를 들어, 제2 보행 패턴은 사용자의 보행 이력에 기반하여 식별될 수 있다. 제2 보행 패턴은 학습된 보행 패턴을 의미할 수 있다. 예를 들어, 제1 모드(1910)에서, 프로세서(210)는 보행 패턴을 학습하지 않은 상태로 동작할 수 있다. 예를 들어, 제1 모드(1910)는 idle 모드(또는 idle 상태)로 참조될 수 있다.
일 예에 따르면, 프로세서(210)는 제2 모드(1920)에 기반하여, 센서(220)를 이용하여 사용자의 보행 패턴에 관한 데이터를 획득할 수 있다. 예를 들어, 프로세서(210)는 제2 모드(1920)에서, 보행 패턴을 학습하기 위해, 사용자의 보행 패턴에 관한 데이터를 획득할 수 있다. 예를 들어, 제2 모드(1920)에서, 프로세서(210)는 유효 보행 구간을 식별할 수 있다. 프로세서(210)는 유효 보행 구간 내의 걸음들에 관한 특징 값들을 식별함으로써, 보행 패턴에 관한 데이터를 획득할 수 있다.
일 예에 따르면, 프로세서(210)는 제3 모드(1930)에 기반하여, 사용자의 보행 패턴에 관한 데이터를 학습할 수 있다. 예를 들어, 제3 모드(1930)에서, 프로세서(210)는 제2 모드(1920)로 동작하는 동안 획득된 보행 패턴에 관한 데이터를 학습할 수 있다. 프로세서(210)는 보행 패턴에 관한 데이터가 학습하기 위해 충분히 획득된 경우, 프로세서(210)는 제3 모드(1930)에서, 획득된 보행 패턴에 관한 데이터를 학습할 수 있다. 예를 들어, 프로세서(210)는 사용자의 평상 시 보행 패턴을 학습함으로써, 보행 패턴을 업데이트할 수 있다. 프로세서(210)는 학습된 보행 패턴을 제2 보행 패턴으로 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 제4 모드(1940)에 기반하여, 사용자의 보행 패턴에 관한 데이터를 학습하는 동작을 중단할 수 있다. 예를 들어, 프로세서(210)는 학습에 따른 보행 패턴의 변화량이 기준 범위 내임을 식별하는 것에 기반하여, 사용자의 보행 패턴에 관한 데이터를 학습하는 동작을 중단할 수 있다.
일 예에 따르면, 프로세서(210)는, 전자 장치(200)의 사용자가 변경됨을 식별하는 것에 기반하여, 프로세서(210)의 동작 모드를 제1 모드(1910)로 설정할 수 있다. 프로세서(210)는 제1 모드(1910)에서 학습된 보행 패턴인 제2 보행 패턴에 관한 제4 정보를 초기화할 수 있다. 일 예로, 프로세서(210)는, 제1 모드에서, 사용자의 성별 및 성명 중 적어도 하나가 변경됨을 식별하는 것에 기반하여, 사용자가 변경됨을 식별할 수 있다.
일 예에 따르면, 프로세서(210)는 제1 모드(1910)로 동작하는 동안, 유효 보행 구간을 식별하는 것에 응답하여, 프로세서(210)의 동작 모드를 제1 모드(1910)로부터 제2 모드(1920)로 변경할 수 있다.
일 예에 따르면, 프로세서(210)는 제2 모드(1920)로 동작하는 동안, 보행 패턴에 관한 데이터가 학습하기 위해 충분히 획득되었음을 식별하는 것에 응답하여, 프로세서(210)의 동작 모드를 제2 모드(1920)로부터 제3 모드(1930)로 변경할 수 있다.
일 예에 따르면, 프로세서(210)는 제3 모드(1930)로 동작하는 동안, 보행 패턴의 학습이 완료되는 것에 응답하여, 프로세서(210)의 동작 모드를 제3 모드(1930)로부터 제2 모드(1920)로 변경할 수 있다. 일 예에 따르면, 프로세서(210)는 제3 모드(1930)로 동작하는 동안, 보행 패턴의 학습 결과에 기반하여, 프로세서(210)의 동작 모드를 제3 모드(1930)로부터 제2 모드(1920)로 변경할 수 있다. 예를 들어, 프로세서(210)는 보행 패턴의 변화량이 기준 범위 내임을 식별하는 것에 기반하여, 프로세서(210)의 동작 모드를 제3 모드(1930)로부터 제2 모드(1920)로 변경할 수 있다. 예를 들어, 프로세서(210)는 보행 패턴이 학습(또는 진화 학습)된 횟수가 기준 횟수 이상임을 식별하는 것에 기반하여, 프로세서(210)의 동작 모드를 제3 모드(1930)로부터 제2 모드(1920)로 변경할 수 있다. 예를 들어, 프로세서(210)는 보행 패턴이 학습된 시간이 기준 시간 이상임을 식별하는 것에 기반하여, 프로세서(210)의 동작 모드를 제3 모드(1930)로부터 제2 모드(1920)로 변경할 수 있다.
일 예에 따르면, 프로세서(210)는 제4 모드(1940)로 동작하는 동안, 사용자의 신체 프로필이 변경되었음(예: 사용자가 변경되었음)을 식별하는 것에 기반하여, 프로세서(210)의 동작 모드를 제4 모드(1940)로부터 제1 모드(1910)로 변경할 수 있다. 일 예에 따르면, 프로세서(210)는 제4 모드(1940)로 동작하는 동안, 보행 패턴의 변화량이 기준 범위 밖임을 식별하는 것에 기반하여, 프로세서(210)의 동작 모드를 제4 모드(1940)로부터 제2 모드(1920)로 변경할 수 있다.
도 20a 및 도 20b는 일 예에 따른 보행 패턴에 대한 값들이 3차원의 좌표들로 표시되는 예를 도시한다.
일 예에 따르면, 프로세서(210)는 사용자마다 보행 패턴(또는 보행 습관)이 상이하기 때문에, 사용자의 보행 패턴이 기준 보행 패턴(예: 일반 사용자의 보행 패턴)과 상이한 경우에도, 낙상이 발생할 확률이 높다고 판단하지 않을 수 있다. 프로세서(210)는 사용자의 보행 환경에 따라 낙상이 발생할 확률을 변경할 수 있다.
일 예에 따르면, 프로세서(210)는 사용자의 제1 보행 패턴 및 기준 보행 패턴 사이의 차이를 나타내는 제1 값, 사용자의 제1 보행 패턴 및 사용자의 제2 보행 패턴(예: 학습된 보행 패턴) 사이의 차이를 나타내는 제2 값, 및 사용자의 보행 환경에 관한 제2 정보에 기반하여, 낙상(즉, 사용자의 넘어짐)이 발생할 확률 값을 식별할 수 있다.
예를 들어, 프로세서(210)는 제1 보행 패턴 및 기준 보행 패턴 사이의 차이를 나타내는 제1 값에 기반하여, 제1 유사도를 식별할 수 있다. 프로세서(210)는 제1 보행 패턴 및 제2 보행 패턴 사이의 차이를 나타내는 제2 값에 기반하여, 제2 유사도를 식별할 수 있다. 프로세서(210)는 제1 유사도, 제2 유사도, 및 사용자의 보행 환경에 관한 제2 정보에 기반하여, 사용자에게 낙상이 발생할 확률 값을 식별할 수 있다.
예를 들어, 프로세서(210)는 수학식 5를 이용하여, 사용자에게 낙상이 발생할 확률 값을 식별할 수 있다.
Figure PCTKR2023009120-appb-img-000007
수학식 5를 참조하면, " S "는 사용자에게 낙상이 발생할 확률 값이다. " S' "은 " S1 "에 기반하여 설정될 수 있다. " S1 "은 제2 보행 패턴 및 기준 보행 패턴 사이의 유사도이다. " S1 "이 임계 값(threshold, 수학식 5의 thrd) 이상인 경우, " S' "은 0으로 설정될 수 있다. " S1 "이 임계 값 미만인 경우, " S' "은 "S2 "로 설정될 수 있다. " S2 "는 제1 보행 패턴 및 기준 보행 패턴 사이의 제1 유사도이다. " S3 "는 제1 보행 패턴 및 제2 보행 패턴 사이의 제2 유사도이다. " E "는 제2 정보 기반하여 식별된 보행 환경에 대한 값이다. " α "(alpha), "
Figure PCTKR2023009120-appb-img-000008
"(beta), 및 " γ "(gamma)는 계수(coefficient)이다. 예를 들어, 프로세서(210)는 제2 정보에 기반하여, 보행 환경에 대한 값(E)을 식별할 수 있다. 프로세서(210)는 날씨, 경사도, 보행 주파수(또는 보행 속력), 및/또는 전자 장치(200)의 이동 상태에 기반하여, 보행 환경에 대한 값(E)을 식별할 수 있다. 예를 들어, 프로세서(210)는 퍼지 집합에 기반하여 보행 환경에 대한 값(E)을 식별할 수 있다. 예를 들어, 퍼지 집합은 표 2와 같이 구성될 수 있다.
Figure PCTKR2023009120-appb-img-000009
표 2를 참조하면, 프로세서(210)는 하나 이상의 퍼지 집합들을 구성할 수 있다. 집합 W는 날씨에 대한 원소를 포함할 수 있다. 집합 S는 경사도에 대한 원소를 포함할 수 있다. 집합 F는 보행 주파수에 대한 원소를 포함할 수 있다. 집합 P는 이동 상태에 대한 원소를 포함할 수 있다. 프로세서(210)는 퍼지 멤버십 함수에 따른 퍼지 추론에 기반하여, 집합 W, 집합 S, 집합 F, 및 집합 P의 원소 중 적어도 일부를 식별할 수 있다. 프로세서(210)는 식별된 원소에 기반하여, 보행 환경에 대한 값(E)을 식별할 수 있다.도 20a를 참조하면, 프로세서(210)는 현재 보행 패턴인 제1 보행 패턴에 관한 값들에 따른 제1 좌표들(2010)을 식별할 수 있다. 예를 들어, 현재 보행 패턴은 정상 보행 상태에서 획득될 수 있다. 프로세서(210)는 기준 보행 패턴인 제2 보행 패턴에 관한 값들에 따른 제2 좌표들(2020)을 식별할 수 있다. 프로세서(210)는 제1 좌표들(2010)의 대표 값(예: 평균 값) 및 제2 좌표들(2020)의 대표 값(예: 평균 값) 사이의 유클리디안 거리에 기반하여, 유사도를 식별할 수 있다. 예를 들어, 유클리디안 거리가 짧을수록 유사도가 1에 가까운 값으로 식별될 수 있다. 프로세서(210)는 제1 좌표들(2010)의 대표 값 및 제2 좌표들(2020)의 대표 값 사이의 유클리디안 거리에 기반하여, 유사도를 1에 가까운 값으로 식별할 수 있다.
도 20b를 참조하면, 프로세서(210)는 현재 보행 패턴인 제1 보행 패턴에 관한 값들에 따른 제3 좌표들(2030)을 식별할 수 있다. 예를 들어, 현재 보행 패턴은 비정상 보행 상태에서 획득될 수 있다. 일 예로, 현재 보행 패턴은 사용자가 한쪽 다리가 부상을 입거나 절뚝거리는 상태서 획득될 수 있다. 프로세서(210)는 기준 보행 패턴인 제2 보행 패턴에 관한 값들에 따른 제2 좌표들(2020)을 식별할 수 있다. 프로세서(210)는 제3 좌표들(2030)의 대표 값 및 제2 좌표들(2020)의 대표 값 사이의 유클리디안 거리에 기반하여, 유사도를 식별할 수 있다. 예를 들어, 프로세서(210)는 제3 좌표들(2030)의 대표 값(예: 평균 값) 및 제2 좌표들(2020)의 대표 값(예: 평균 값) 사이의 유클리디안 거리에 기반하여, 유사도를 0에 가까운 값으로 식별할 수 있다.
도 21a 및 도 21b는 일 예에 따른 낙상 위험을 경고하기 위한 화면의 예를 도시한다.
도 21a 및 도 21b를 참조하면, 프로세서(210)는 전자 장치(200)와 연결된 외부 전자 장치(2100)를 통해 낙상 위험을 미리 경고하기 위한 알림을 제공할 수 있다. 예를 들어, 프로세서(210)는 낙상 위험을 경고하기 위한 알림을 제공하도록 외부 전자 장치(2100)를 야기하기 위한 신호를 외부 전자 장치(2100)에게 송신할 수 있다.
일 예에 따르면, 프로세서(210)는 사용자에게 낙상이 발생할 확률 값을 식별할 수 있다. 프로세서(210)는 식별된 확률 값에 기반하여, 임계 값을 복수의 후보 임계 값들 중 하나로 식별할 수 있다. 예를 들어, 프로세서(210)는 사용자에게 낙상이 발상할 확률 값에 기반하여, 낙상 위험도를 '낮음', '보통', '높음', 및 '아주 높음' 중 하나로 식별할 수 있다. 프로세서(210)는 낙상 위험도에 따른 복수의 후보 임계 값들 중 하나를 식별할 수 있다. 예를 들어, 낙상 위험도에 따른 복수의 후보 임계 값들은 상술한 표 1과 같이 설정될 수 있다.
일 예에 따르면, 프로세서(210)는 사용자에게 낙상이 발생될 확률 값이 지정된 조건을 만족하는 것에 기반하여, 사용자에게 낙상 위험을 미리 경고하기 위한 알림을 제공할 수 있다. 실시 예에 따라, 프로세서(210)는 전자 장치(200)의 디스플레이를 이용하여 사용자에게 낙상 위험을 경고하기 위한 알림을 표시할 수 있다.
도 21a를 참조하면, 프로세서(210)는 외부 전자 장치(2100)의 디스플레이를 이용하여, 화면(2110)을 표시할 수 있다. 화면(2110)은 낙상 위험도를 나타내는 텍스트(2111) 및 보행 환경에 관한 경고를 나타내는 텍스트(2112)를 포함할 수 있다. 예를 들어, 텍스트(2112)는 보행 환경에 대한 정보 및 위험 요소에 대한 정보를 나타내도록 구성될 수 있다. 텍스트(2112)는 빗길에 대한 위험을 알리기 위해 표시될 수 있다. 도 21a에서는 외부 전자 장치(2100)로 웨어러블 장치를 도시하였으나, 외부 전자 장치는 이에 한정되지 않고 다른 형태의 전자 장치로 구현될 수 있다.
도 21b를 참조하면, 프로세서(210)는 외부 전자 장치(2100)의 디스플레이를 이용하여, 화면(2120)을 표시할 수 있다. 화면(2120)은 낙상 위험도를 나타내는 텍스트(2121) 및 보행 환경에 관한 경고를 나타내는 텍스트(2122)를 포함할 수 있다. 예를 들어, 텍스트(2122)는 보행 환경에 대한 정보 및 위험 요소에 대한 정보를 나타내도록 구성될 수 있다. 텍스트(2122)는 눈이 오는 날 사용자의 행동을 가이드하기 위해 표시될 수 있다.
일 예에 따르면, 전자 장치(200)는, 적어도 하나의 센서(220), 메모리(230), 및 프로세서(210)를 포함할 수 있다. 상기 프로세서(210)는, 상기 적어도 하나의 센서(220)를 이용하여, 상기 전자 장치(200)의 사용자의 제1 보행 패턴에 관한 제1 정보 및 상기 사용자의 보행 환경에 관한 제2 정보를 획득하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제1 정보 및 상기 메모리(230)에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 상기 제1 보행 패턴 및 상기 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제1 정보 및 상기 메모리(230)에 저장되고, 상기 사용자의 보행 이력에 기반하여 식별된, 상기 사용자의 제2 보행 패턴에 관한 제4 정보에 기반하여, 상기 제1 보행 패턴 및 상기 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 낙상 검출과 관련된 임계 값을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 임계 값과 상기 적어도 하나의 센서(220)를 통해 획득되는 값 사이의 비교에 기반하여, 상기 낙상 검출을 위한 기능을 실행하도록 설정될 수 있다.
일 예에 따르면, 상기 적어도 하나의 센서(220)는, 가속도 센서(221), 자이로 센서(222), 및 기압 센서(223)를 더 포함할 수 있다. 상기 프로세서(210)는, 상기 가속도 센서(221)를 이용하여, 지정된 시간 구간 동안 획득된 제1 데이터에 기반하여, 상기 제1 보행 패턴에 관한 상기 제1 정보를 획득하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 가속도 센서(221), 상기 자이로 센서(222), 및 상기 기압 센서(223), 및 상기 통신 회로(240) 중 적어도 하나를 이용하여 획득된 제2 데이터에 기반하여, 상기 사용자의 보행 환경에 관한 상기 제2 정보를 획득하도록 설정될 수 있다.
일 예에 따르면, 상기 프로세서(210)는, 상기 지정된 시간 구간 동안, 3축 방향에 각각 대응하는 가속도 트랜드들을 획득하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 가속도 트랜드들에 기반하여 식별된 이동 구간 합의 차분 값에 기반하여, 상기 사용자의 상기 제1 보행 패턴을 식별하도록 설정될 수 있다.
일 예에 따르면, 상기 사용자의 보행 환경에 관한 상기 제2 정보는, 상기 전자 장치(200)의 이동 경로의 경사도에 대한 정보, 상기 전자 장치(200)의 이동 상태에 대한 정보, 및 상기 지정된 시간 구간 동안의 날씨에 대한 정보 중 적어도 하나를 포함할 수 있다.
일 예에 따르면, 상기 프로세서(210)는, 상기 제2 데이터의 적어도 일부를, 상기 메모리(230)에 저장되고, 복수의 파라미터들에 의해 지시되는 지정된 모델의 입력 데이터로 설정함으로써, 상기 전자 장치(200)의 이동 상태에 대한 상기 정보를 획득하도록 설정될 수 있다. 상기 지정된 모델의 상기 복수의 파라미터들은, 상기 사용자의 보행 이력에 따라 획득된 제3 데이터의 학습에 기반하여 설정될 수 있다.
일 예에 따르면, 전자 장치(200)는 통신 회로(240)를 포함할 수 있다. 상기 프로세서(210)는, 상기 통신 회로(240)를 이용하여, 상기 전자 장치(200)와 연결된 서버로부터 상기 기준 보행 패턴에 관한 상기 제3 정보를 수신하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제3 정보를 상기 메모리(230)에 저장하도록 설정될 수 있다. 상기 제3 정보는, 상기 서버에 저장된 복수의 사용자들과 관련된 복수의 보행 패턴들에 기반하여 획득될 수 있다.
일 예에 따르면, 상기 프로세서(210)는, 상기 제1 보행 패턴에 관한 값들 및 상기 기준 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제1 값을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제1 보행 패턴에 관한 값들 및 상기 제2 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제2 값을 식별하도록 설정될 수 있다.
일 예에 따르면, 상기 프로세서(210)는, 상기 사용자의 보행 이력에 기반하여, 상기 사용자의 보행 패턴에 대한 학습을 수행하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 사용자의 보행 패턴에 대한 학습을 수행하는 것에 기반하여, 상기 제2 보행 패턴에 관한 상기 제4 정보를 획득하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제4 정보를 상기 메모리(230)에 저장하도록 설정될 수 있다.
일 예에 따르면, 상기 프로세서(210)는, 상기 사용자의 보행 이력에 기반하여, 상기 사용자의 복수의 걸음(step)들에 따른 보행 패턴에 관한 값들을 포함하는 모집단(population)을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 모집단에 기반하여 획득된, 상기 복수의 걸음들에 따른 적합도(fitness)에 대한 정보에 기반하여, 상기 모집단 중 적어도 일부를 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 모집단 중 적어도 일부에 기반하여, 상기 사용자의 보행 패턴에 대한 학습을 수행하도록 설정될 수 있다.
일 예에 따르면, 상기 프로세서(210)는, 상기 적어도 하나의 센서(220)를 이용하여, 상기 사용자의 제1 걸음들(steps of the user)을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제1 걸음들 수가 지정된 횟수 이상임을 식별하는 것에 기반하여, 상기 제1 걸음들에 따른 특징 값들을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제1 걸음들에 따른 특징 값들에 기반하여, 상기 모집단을 구성하도록 설정될 수 있다.
일 예에 따르면, 상기 프로세서(210)는, 상기 제1 걸음들에 따른 특징 값들에 기반하여, 상기 제1 걸음들에 따른 보행 패턴에 관한 값들을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 메모리(230)에 저장되고, 상기 제1 걸음들이 식별되기 전 발생된, 상기 사용자의 제2 걸음들에 따른 특징 값들에 기반하여, 상기 제2 걸음들에 따른 보행 패턴에 관한 값들을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제1 걸음들에 따른 보행 패턴에 관한 값들 및 상기 제2 걸음들에 따른 보행 패턴에 관한 값들에 기반하여, 상기 복수의 걸음들에 따른 보행 패턴에 관한 값들을 포함하는 상기 모집단을 구성하도록 설정될 수 있다.
일 예에 따르면, 상기 프로세서(210)는, 제1 모드 내지 제4 모드 중 하나로 동작하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제1 모드에 기반하여, 상기 메모리(230)에 저장된, 상기 사용자의 보행 이력 및 상기 제2 보행 패턴에 관한 상기 제4 정보를 초기화하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제2 모드에 기반하여, 상기 적어도 하나의 센서(220)를 이용하여, 상기 사용자의 보행 패턴에 관한 데이터를 획득하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제3 모드에 기반하여, 상기 사용자의 보행 패턴에 관한 데이터를 학습하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 제4 모드에 기반하여, 상기 사용자의 보행 패턴에 관한 데이터를 학습하는 동작을 중단하도록 설정될 수 있다.
일 예에 따르면, 상기 프로세서(210)는, 상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 상기 사용자에게 낙상이 발생할 확률 값을 식별하도록 설정될 수 있다. 상기 프로세서(210)는, 상기 확률 값에 기반하여, 상기 임계 값을 복수의 후보 임계 값들 중 하나로 식별하도록 설정될 수 있다.
일 예에 따르면, 전자 장치(200)는, 통신 회로(240)를 포함할 수 있다. 상기 프로세서(210)는, 상기 확률 값 및 상기 제2 정보에 기반하여, 상기 전자 장치(200)와 연결되고, 상기 사용자에게 착용된 외부 전자 장치(2100)를 통해, 낙상 위험(fall hazard)을 경고하기 위한 알림을 제공하도록 상기 외부 전자 장치(2100)를 야기하기 위한 신호를 상기 외부 전자 장치(2100)에게 송신하도록 설정될 수 있다.
일 예에 따르면, 전자 장치(200)의 방법은, 상기 전자 장치(200)의 적어도 하나의 센서(220)를 이용하여, 상기 전자 장치(200)의 사용자의 제1 보행 패턴에 관한 제1 정보 및 상기 사용자의 보행 환경에 관한 제2 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 정보 및 상기 메모리(230)에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 상기 제1 보행 패턴 및 상기 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 정보 및 상기 메모리(230)에 저장되고, 상기 사용자의 보행 이력에 기반하여 식별된, 상기 사용자의 제2 보행 패턴에 관한 제4 정보에 기반하여, 상기 제1 보행 패턴 및 상기 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 낙상 검출과 관련된 임계 값을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 임계 값과 상기 적어도 하나의 센서(220)를 통해 획득되는 값 사이의 비교에 기반하여, 상기 낙상 검출을 위한 기능을 실행하는 동작을 포함할 수 있다.
일 예에 따르면, 상기 방법은, 상기 전자 장치(200)의 가속도 센서(221)를 이용하여, 지정된 시간 구간 동안 획득된 제1 데이터에 기반하여, 상기 제1 보행 패턴에 관한 상기 제1 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 가속도 센서(221), 상기 전자 장치(200)의 자이로 센서(222), 및 상기 전자 장치(200)의 기압 센서(223), 및 상기 전자 장치(200)의 통신 회로(240) 중 적어도 하나를 이용하여 획득된 제2 데이터에 기반하여, 상기 사용자의 보행 환경에 관한 상기 제2 정보를 획득하는 동작을 포함할 수 있다.
일 예에 따르면, 상기 방법은, 상기 지정된 시간 구간 동안, 3축 방향에 각각 대응하는 가속도 트랜드들을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 가속도 트랜드들에 기반하여 식별된 이동 구간 합의 차분 값에 기반하여, 상기 사용자의 상기 제1 보행 패턴을 식별하는 동작을 포함할 수 있다.
일 예에 따르면, 상기 사용자의 보행 환경에 관한 상기 제2 정보는, 상기 전자 장치(200)의 이동 경로의 경사도에 대한 정보, 상기 전자 장치(200)의 이동 상태에 대한 정보, 및 상기 지정된 시간 구간 동안의 날씨에 대한 정보 중 적어도 하나를 포함할 수 있다.
일 예에 따르면, 상기 방법은, 상기 제1 보행 패턴에 관한 값들 및 상기 기준 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제1 값을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 보행 패턴에 관한 값들 및 상기 제2 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제2 값을 식별하는 동작을 포함할 수 있다.
일 예에 따르면, 상기 방법은, 상기 사용자의 보행 이력에 기반하여, 상기 사용자의 보행 패턴에 대한 학습을 수행하는 동작을 포함할 수 있다. 상기 방법은, 상기 사용자의 보행 패턴에 대한 학습을 수행하는 것에 기반하여, 상기 제2 보행 패턴에 관한 상기 제4 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제4 정보를 상기 메모리(230)에 저장하는 동작을 포함할 수 있다.
일 예에 따르면, 프로세서(210)는 사용자에게 낙상 사고가 발생하기 전에, 낙상 위험도를 식별할 수 있다. 프로세서(210)는 낙상 위험도에 기반하여, 사용자에게 낙상 위험을 경고하기 위한 알림을 제공할 수 있다. 프로세서(210)는 낙상 위험도가 높은 경우, 낙상 감지 알고리즘의 민감도를 변경할 수 있다. 예를 들어, 프로세서(210)는 낙상 검출과 관련된 임계 값을 적응적으로 변경(또는 조정)할 수 있다. 본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 개시는 또한 다음의 번호가 매겨진 단락에 따른 예, 실시예, 양태 등을 포함함을 이해할 것이다(이 단락에서 주어진 도면과 관련된 숫자는 예시를 위한 것이며 제한하는 것으로 간주되어서는 안된다.):
단락 1. 적어도 하나의 센서(220), 메모리(230), 및 프로세서(210)를 포함하는 전자 장치(200)가 제공된다; 상기 프로세서(210)는, 상기 적어도 하나의 센서(220)를 이용하여, 상기 전자 장치(200)의 사용자의 제1 보행 패턴에 관한 제1 정보를 획득(또는 검출, 식별 등)하고, 상기 사용자의 보행 환경에 관한 제2 정보를 획득(또는 검출, 식별 등)하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 제1 정보 및 상기 메모리(230)에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 상기 제1 보행 패턴 및 상기 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 제1 정보 및 상기 메모리(230)에 저장되고, 상기 사용자의 보행 이력에 기반하여 식별된, 상기 사용자의 제2 보행 패턴에 관한 제4 정보에 기반하여, 상기 제1 보행 패턴 및 상기 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 낙상 검출과 관련된 임계 값을 식별하도록 설정될 수 있다; 및 상기 프로세서(210)는, 상기 임계 값과 상기 적어도 하나의 센서(220)를 통해 획득되는 값 사이의 비교에 기반하여, 상기 낙상 검출을 위한 기능을 실행하도록 설정될 수 있다;
단락 2. 단락 1의 전자 장치(200)에서, 상기 사용자의 제2 보행 패턴에 관한 상기 제3 정보는, 상기 사용자의 보행 이력에 기반하여 식별된다.
단락 3. 단락 2의 전자 장치(200)에서, 전자 장치(200)는 통신 회로를 포함할 수 있다; 상기 적어도 하나의 센서(220)는, 가속도 센서(221), 자이로 센서(222), 및 기압 센서(223)를 포함할 수 있다; 상기 프로세서(210)는, 상기 가속도 센서(221)를 이용하여, 지정된 시간 구간 동안 획득된 제1 데이터에 기반하여, 상기 제1 보행 패턴에 관한 상기 제1 정보를 획득하도록 설정될 수 있다; 및/또는 상기 프로세서(210)는, 상기 가속도 센서(221), 상기 자이로 센서(222), 및 상기 기압 센서(223), 및 상기 통신 회로(240) 중 적어도 하나를 이용하여 획득된 제2 데이터에 기반하여, 상기 사용자의 보행 환경에 관한 상기 제2 정보를 획득하도록 설정될 수 있다. 선택적으로, 프로세서(210)는 통신 회로(240)를 이용하여 전자 장치(200)에 연결된 서버로부터 기준 보행 패턴과 관련된 제3 정보를 수신하도록 구성될 수 있고; 프로세서(210)는 메모리(230)에 제3 정보를 저장하도록 더 구성될 수 있고, 제3 정보는 서버에 저장된 복수의 사용자와 관련된 복수의 보행 패턴에 기초하여 획득될 수 있다.
단락 4. 단락 3의 전자 장치(200)에서, , 상기 프로세서(210)는, 상기 지정된 시간 구간 동안, 3축 방향에 각각 대응하는 가속도 트랜드들을 획득하도록 설정될 수 있다; 및 상기 프로세서(210)는, 상기 가속도 트랜드들에 기반하여 식별된 이동 구간 합의 차분 값에 기반하여, 상기 사용자의 상기 제1 보행 패턴을 식별하도록 설정될 수 있다.
단락 5. 단락 3 또는 단락 4 중 어느 하나의 전자 장치(200)에서, 상기 사용자의 보행 환경에 관한 상기 제2 정보는, 상기 전자 장치(200)가 이동하는 경로 또는 길의 경사도에 대한 정보, 상기 전자 장치(200)의 이동 상태에 대한 정보, 및 상기 지정된 시간 구간 동안의 날씨에 대한 정보 중 적어도 하나를 포함할 수 있다.
단락 6. 단락 5의 전자 장치(200)에서, 상기 프로세서(210)는, 상기 제2 데이터의 적어도 일부를, 상기 메모리(230)에 저장되고, 복수의 파라미터들에 의해 지시되는 지정된 모델의 입력 데이터로 설정함으로써, 상기 전자 장치(200)의 이동 상태에 대한 상기 정보를 획득하도록 설정될 수 있다; 및 상기 지정된 모델의 상기 복수의 파라미터들은, 상기 사용자의 보행 이력에 따라 획득된 제3 데이터의 학습에 기반하여 설정될 수 있다.
단락 7. 단락 1 또는 단락 2 중 어느 하나의 전자 장치(200)에서, 전자 장치(200)는 통신 회로(240)를 포함할 수 있다; 상기 프로세서(210)는, 상기 통신 회로(240)를 이용하여, 상기 전자 장치(200)와 연결된 서버로부터 상기 기준 보행 패턴에 관한 상기 제3 정보를 수신하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 제3 정보를 상기 메모리(230)에 저장하도록 설정될 수 있다; 및 상기 제3 정보는, 상기 서버에 저장된 복수의 사용자들과 관련된 복수의 보행 패턴들에 기반하여 획득될 수 있다.
단락 8. 단락 1 내지 단락 7 중 어느 하나의 전자 장치(200)에서, 상기 프로세서(210)는, 상기 제1 보행 패턴에 관한 값들 및 상기 기준 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제1 값을 식별하도록 설정될 수 있다; 및 상기 프로세서(210)는, 상기 제1 보행 패턴에 관한 값들 및 상기 제2 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제2 값을 식별하도록 설정될 수 있다.
단락 9. 단락 2의 전자 장치(200)에서, 상기 프로세서(210)는, 상기 사용자의 보행 이력에 기반하여, 상기 사용자의 보행 패턴에 대한 학습을 수행하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 사용자의 보행 패턴에 대한 학습을 수행하는 것에 기반하여, 상기 제2 보행 패턴에 관한 상기 제4 정보를 획득하도록 설정될 수 있다; 및 상기 프로세서(210)는, 상기 제4 정보를 상기 메모리(230)에 저장하도록 설정될 수 있다.
단락 10. 단락 9의 전자 장치(200)에서, 상기 프로세서(210)는, 상기 사용자의 보행 이력에 기반하여, 상기 사용자의 복수의 걸음(step)들에 따른 보행 패턴에 관한 값들을 포함하는 모집단(population)을 식별하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 모집단에 기반하여 획득된, 상기 복수의 걸음들에 따른 적합도(fitness)에 대한 정보에 기반하여, 상기 모집단 중 적어도 일부를 식별하도록 설정될 수 있다; 및 상기 프로세서(210)는, 상기 모집단 중 적어도 일부에 기반하여, 상기 사용자의 보행 패턴에 대한 학습을 수행하도록 설정될 수 있다.
단락 11. 단락 10의 전자 장치(200)에서, 상기 프로세서(210)는, 상기 적어도 하나의 센서(220)를 이용하여, 상기 사용자의 제1 걸음들(steps of the user)을 식별하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 제1 걸음들 수가 지정된 횟수 이상임을 식별하는 것에 기반하여, 상기 제1 걸음들에 따른 특징 값들을 식별하도록 설정될 수 있다; 및 상기 프로세서(210)는, 상기 제1 걸음들에 따른 특징 값들에 기반하여, 상기 모집단을 구성하도록 설정될 수 있다.
단락 12. 단락 11의 전자 장치(200)에서, 상기 프로세서(210)는, 상기 제1 걸음들에 따른 특징 값들에 기반하여, 상기 제1 걸음들에 따른 보행 패턴에 관한 값들을 식별하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 메모리(230)에 저장되고, 상기 제1 걸음들이 식별되기 전 발생된, 상기 사용자의 제2 걸음들에 따른 특징 값들에 기반하여, 상기 제2 걸음들에 따른 보행 패턴에 관한 값들을 식별하도록 설정될 수 있다; 및 상기 프로세서(210)는, 상기 제1 걸음들에 따른 보행 패턴에 관한 값들 및 상기 제2 걸음들에 따른 보행 패턴에 관한 값들에 기반하여, 상기 복수의 걸음들에 따른 보행 패턴에 관한 값들을 포함하는 상기 모집단을 구성하도록 설정될 수 있다.
단락 13. 단락 1 내지 단락 12 중 어느 하나의 전자 장치(200)에서, 상기 프로세서(210)는, 제1 모드 내지 제4 모드 중 하나로 동작하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 제1 모드에 기반하여, 상기 메모리(230)에 저장된, 상기 사용자의 보행 이력 및 상기 제2 보행 패턴에 관한 상기 제4 정보를 초기화하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 제2 모드에 기반하여, 상기 적어도 하나의 센서(220)를 이용하여, 상기 사용자의 보행 패턴에 관한 데이터를 획득하도록 설정될 수 있다; 상기 프로세서(210)는, 상기 제3 모드에 기반하여, 상기 사용자의 보행 패턴에 관한 데이터를 학습하도록 설정될 수 있다; 및 상기 프로세서(210)는, 상기 제4 모드에 기반하여, 상기 사용자의 보행 패턴에 관한 데이터를 학습하는 동작을 중단하도록 설정될 수 있다.
단락 14. 단락 1 내지 단락 13 중 어느 하나의 전자 장치(200)에서, 상기 프로세서(210)는, 상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 상기 사용자에게 낙상이 발생할 확률 값을 식별하도록 설정될 수 있다; 및 상기 프로세서(210)는, 상기 확률 값에 기반하여, 상기 임계 값을 복수의 후보 임계 값들 중 하나로 식별하도록 설정될 수 있다.
단락 15. 단락 14의 전자 장치(200)에서, 상기 프로세서(210)는, 상기 확률 값 및 상기 제2 정보에 기반하여, 상기 전자 장치(200)와 연결되고, 상기 사용자에게 착용된 외부 전자 장치(2100)를 통해, 낙상 위험(fall hazard)을 경고하기 위한 알림을 제공하도록 상기 외부 전자 장치(2100)를 야기하기 위한 신호를 상기 외부 전자 장치(2100)에게 송신(예: 전자 장치 200애 포함된 통신 회로(240)을 통해 송신)하도록 설정될 수 있다.
단락 16. 전자 장치(200)의 방법은, 상기 전자 장치(200)의 적어도 하나의 센서(220)를 이용하여, 상기 전자 장치(200)의 사용자의 제1 보행 패턴에 관한 제1 정보를 획득하고, 상기 사용자의 보행 환경에 관한 제2 정보를 획득하는 동작; 상기 제1 정보 및 상기 전자 장치(200)의 메모리(230)에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 상기 제1 보행 패턴 및 상기 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별하는 동작; 상기 제1 정보 및 상기 메모리(230)에 저장된 상기 사용자의 제2 보행 패턴에 관한 제4 정보에 기반하여, 상기 제1 보행 패턴 및 상기 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별하는 동작; 상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 낙상 검출과 관련된 임계 값을 식별하는 동작; 및 상기 임계 값과 상기 적어도 하나의 센서(220)를 통해 획득되는 값 사이의 비교에 기반하여, 상기 낙상 검출을 위한 기능을 실행하는 동작을 포함할 수 잇다.
단락 17. 단락 16의 방법에서, 상기 사용자의 제2 보행 패턴에 관한 상기 제3 정보는, 상기 사용자의 보행 이력에 기반하여 식별된다.
단락 18. 단락 17의 방법에서, 상기 방법은 상기 전자 장치(200)의 가속도 센서(221)를 이용하여, 지정된 시간 구간 동안 획득된 제1 데이터에 기반하여, 상기 제1 보행 패턴에 관한 상기 제1 정보를 획득하는 동작을 더 포함한다; 상기 방법은 상기 가속도 센서(221), 상기 전자 장치(200)의 자이로 센서(222), 및 상기 전자 장치(200)의 기압 센서(223), 및 상기 전자 장치(200)의 통신 회로(240) 중 적어도 하나를 이용하여 획득된 제2 데이터에 기반하여, 상기 사용자의 보행 환경에 관한 상기 제2 정보를 획득하는 동작을 포함한다
단락 19. 단락 18의 방법에서, 상기 방법은 상기 지정된 시간 구간 동안, 3축 방향에 각각 대응하는 가속도 트랜드들을 획득하는 동작을 포함한다; 및 상기 방법은 상기 가속도 트랜드들에 기반하여 식별된 이동 구간 합의 차분 값에 기반하여, 상기 사용자의 상기 제1 보행 패턴을 식별하는 동작을 포함한다.
단락 20. 단락 18 또는 단락 19의 방법에서, 상기 방법은, 상기 사용자의 보행 환경에 관한 상기 제2 정보는, 상기 전자 장치(200)의 이동 경로의 경사도에 대한 정보, 상기 전자 장치(200)의 이동 상태에 대한 정보, 및 상기 지정된 시간 구간 동안의 날씨에 대한 정보 중 적어도 하나를 포함한다.
단락 21. 단락 16 내지 단락 20 중 어느 하나의 방법에서, 상기 방법은, 상기 제1 보행 패턴에 관한 값들 및 상기 기준 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제1 값을 식별하는 동작을 포함한다; 및 상기 방법은 상기 제1 보행 패턴에 관한 값들 및 상기 제2 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제2 값을 식별하는 동작을 포함한다.
상기 전체에 걸쳐 개시된 예, 실시예, 양태 등을 포함하는 것에 더하여, 본 개시내용은 또한 상기 전체에 걸쳐 개시된 예들, 실시예, 양태 등의 각각 및 모든 조합을 구상하고 포함한다는 것이 이해될 것이다. 예를 들어, 본 명세서에 개시된 2 이상의 예의 각각의 조합은 본 개시에 포함되는 것으로 간주되어야 한다. 또한, 본 발명은 상기 개별적인 특징이 동일하거나 상이한 예, 실시예, 양태 등에 속하는지에 관계없이 본 명세서에 개시된 다양한 개별 특징의 각각 및 모든 조합을 포함하는 예를 포함하는 것으로 보아야 한다. 예를 들어, 대응하는 문자적 개시가 없더라도, 본 개시는 도 5와 조합하여 개시된 임의의 하나 이상의 개별 특징이 도 7과 조합하여 개시된 임의의 하나 이상의 개별 특징과 조합되는 예를 포함하는 것으로 보아야 한다.
또한, 본 명세서에 기술된 모든 방법(예를 들어, 도 4, 5, 9, 10 및 13과 함께 도시된 것을 포함)에 대해, 본 개시내용은 또한 하나 또는 더 많은 설명된 작업이 생략되거나 재정렬됩니다. 예를 들어, 본 발명은 각 방법에 도시된 임의의 동작 중 하나만을 포함하는 각 방법의 버전 및 각 방법에 도시된 동작 중 2개 이상의 임의의 조합을 포함하는 각 방법의 버전을 포함한다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 및/또는 B", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", "A, B 및/또는 C" 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시 예들에서, 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: CD-ROM(compact disc read only memory))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치(200)에 있어서,
    적어도 하나의 센서(220);
    메모리(230); 및
    프로세서(210)를 포함하고, 상기 프로세서(210)는,
    상기 적어도 하나의 센서(220)를 이용하여, 상기 전자 장치(200)의 사용자의 제1 보행 패턴에 관한 제1 정보를 획득하고, 상기 사용자의 보행 환경에 관한 제2 정보를 획득하고,
    상기 제1 정보 및 상기 메모리(230)에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 상기 제1 보행 패턴 및 상기 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별하고,
    상기 제1 정보 및 상기 메모리(230)에 저장된 상기 사용자의 제2 보행 패턴에 관한 제4 정보에 기반하여, 상기 제1 보행 패턴 및 상기 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별하고,
    상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 낙상 검출과 관련된 임계 값을 식별하고,
    상기 임계 값과 상기 적어도 하나의 센서(220)를 통해 획득되는 값 사이의 비교에 기반하여, 상기 낙상 검출을 위한 기능을 실행하도록 설정된
    전자 장치(200).
  2. 제1 항에 있어서, 상기 사용자의 제2 보행 패턴에 관한 상기 제3 정보는,
    상기 사용자의 보행 이력에 기반하여 식별되는
    전자 장치(200).
  3. 제2 항에 있어서,
    통신 회로(240)을 더 포함하고,
    상기 적어도 하나의 센서(220)는,
    가속도 센서(221);
    자이로 센서(222); 및
    기압 센서(223)를 더 포함하고,
    상기 프로세서(210)는,
    상기 가속도 센서(221)를 이용하여, 지정된 시간 구간 동안 획득된 제1 데이터에 기반하여, 상기 제1 보행 패턴에 관한 상기 제1 정보를 획득하고,
    상기 가속도 센서(221), 상기 자이로 센서(222), 및 상기 기압 센서(223), 및 상기 통신 회로(240) 중 적어도 하나를 이용하여 획득된 제2 데이터에 기반하여, 상기 사용자의 보행 환경에 관한 상기 제2 정보를 획득하도록 더 설정된
    전자 장치(200).
  4. 제3 항에 있어서, 상기 프로세서(210)는,
    상기 지정된 시간 구간 동안, 3축 방향에 각각 대응하는 가속도 트랜드들을 획득하고,
    상기 가속도 트랜드들에 기반하여 식별된 이동 구간 합의 차분 값에 기반하여, 상기 사용자의 상기 제1 보행 패턴을 식별하도록 더 설정된
    전자 장치(200).
  5. 제3 항 내지 제4 항 중 어느 한 항에 있어서, 상기 사용자의 보행 환경에 관한 상기 제2 정보는,
    상기 전자 장치(200)의 이동 경로의 경사도에 대한 정보, 상기 전자 장치(200)의 이동 상태에 대한 정보, 및 상기 지정된 시간 구간 동안의 날씨에 대한 정보 중 적어도 하나를 포함하는
    전자 장치(200).
  6. 제5 항에 있어서, 상기 프로세서(210)는,
    상기 제2 데이터의 적어도 일부를, 상기 메모리(230)에 저장되고, 복수의 파라미터들에 의해 지시되는 지정된 모델의 입력 데이터로 설정함으로써, 상기 전자 장치(200)의 이동 상태에 대한 상기 정보를 획득하도록 더 설정되고,
    상기 지정된 모델의 상기 복수의 파라미터들은,
    상기 사용자의 보행 이력에 따라 획득된 제3 데이터의 학습에 기반하여 설정된
    전자 장치(200).
  7. 제1 항 내지 제2 항 중 어느 한 항에 있어서,
    통신 회로(240)를 더 포함하고,
    상기 프로세서(210)는,
    상기 통신 회로(240)를 이용하여, 상기 전자 장치(200)와 연결된 서버로부터 상기 기준 보행 패턴에 관한 상기 제3 정보를 수신하고,
    상기 제3 정보를 상기 메모리(230)에 저장하도록 더 설정되고,
    상기 제3 정보는,
    상기 서버에 저장된 복수의 사용자들과 관련된 복수의 보행 패턴들에 기반하여 획득된
    전자 장치(200).
  8. 제1 항 내지 제6 항 중 어느 한 항에 있어서, 상기 프로세서(210)는,
    상기 제1 보행 패턴에 관한 값들 및 상기 기준 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제1 값을 식별하고,
    상기 제1 보행 패턴에 관한 값들 및 상기 제2 보행 패턴에 관한 값들 사이의 유클리디안 거리에 기반하여, 상기 제2 값을 식별하도록 더 설정된
    전자 장치(200).
  9. 제2 항에 있어서, 상기 프로세서(210)는,
    상기 사용자의 보행 이력에 기반하여, 상기 사용자의 보행 패턴에 대한 학습을 수행하고,
    상기 사용자의 보행 패턴에 대한 학습을 수행하는 것에 기반하여, 상기 제2 보행 패턴에 관한 상기 제4 정보를 획득하고,
    상기 제4 정보를 상기 메모리(230)에 저장하도록 더 설정된
    전자 장치(200).
  10. 제9 항에 있어서, 상기 프로세서(210)는,
    상기 사용자의 보행 이력에 기반하여, 상기 사용자의 복수의 걸음(step)들에 따른 보행 패턴에 관한 값들을 포함하는 모집단(population)을 식별하고,
    상기 모집단에 기반하여 획득된, 상기 복수의 걸음들에 따른 적합도(fitness)에 대한 정보에 기반하여, 상기 모집단 중 적어도 일부를 식별하고,
    상기 모집단 중 적어도 일부에 기반하여, 상기 사용자의 보행 패턴에 대한 학습을 수행하도록 설정된
    전자 장치(200).
  11. 제10 항에 있어서, 상기 프로세서(210)는,
    상기 적어도 하나의 센서(220)를 이용하여, 상기 사용자의 제1 걸음들(steps of the user)을 식별하고,
    상기 제1 걸음들의 수가 지정된 횟수 이상임을 식별하는 것에 기반하여, 상기 제1 걸음들에 따른 특징 값들을 식별하고,
    상기 제1 걸음들에 따른 특징 값들에 기반하여, 상기 모집단을 구성하도록 더 설정된
    전자 장치(200).
  12. 제11 항에 있어서, 상기 프로세서(210)는,
    상기 제1 걸음들에 따른 특징 값들에 기반하여, 상기 제1 걸음들에 따른 보행 패턴에 관한 값들을 식별하고,
    상기 메모리(230)에 저장되고, 상기 제1 걸음들이 식별되기 전 발생된, 상기 사용자의 제2 걸음들에 따른 특징 값들에 기반하여, 상기 제2 걸음들에 따른 보행 패턴에 관한 값들을 식별하고,
    상기 제1 걸음들에 따른 보행 패턴에 관한 값들 및 상기 제2 걸음들에 따른 보행 패턴에 관한 값들에 기반하여, 상기 복수의 걸음들에 따른 보행 패턴에 관한 값들을 포함하는 상기 모집단을 구성하도록 설정된
    전자 장치(200).
  13. 제1 항 내지 제12 항 중 어느 한 항에 있어서, 상기 프로세서(210)는,
    상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 상기 사용자에게 낙상이 발생할 확률 값을 식별하고,
    상기 확률 값에 기반하여, 상기 임계 값을 복수의 후보 임계 값들 중 하나로 식별하도록 설정된
    전자 장치(200).
  14. 제13 항에 있어서,
    통신 회로(240)를 더 포함하고,
    상기 프로세서(210)는,
    상기 확률 값 및 상기 제2 정보에 기반하여, 상기 전자 장치(200)와 연결되고, 상기 사용자에게 착용된 외부 전자 장치(2100)를 통해, 낙상 위험(fall hazard)을 경고하기 위한 알림을 제공하도록 상기 외부 전자 장치(2100)를 야기하기 위한 신호를 상기 외부 전자 장치(2100)에게 송신하도록 더 설정된
    전자 장치(200).
  15. 전자 장치(200)의 방법에 있어서,
    상기 전자 장치(200)의 적어도 하나의 센서(220)를 이용하여, 상기 전자 장치(200)의 사용자의 제1 보행 패턴에 관한 제1 정보를 획득하고, 상기 사용자의 보행 환경에 관한 제2 정보를 획득하는 동작;
    상기 제1 정보 및 상기 전자 장치(200)의 메모리(230)에 저장된, 기준 보행 패턴에 관한 제3 정보에 기반하여, 상기 제1 보행 패턴 및 상기 기준 보행 패턴 사이의 차이를 나타내는 제1 값을 식별하는 동작;
    상기 제1 정보 및 상기 메모리(230)에 저장된 상기 사용자의 제2 보행 패턴에 관한 제4 정보에 기반하여, 상기 제1 보행 패턴 및 상기 제2 보행 패턴 사이의 차이를 나타내는 제2 값을 식별하는 동작;
    상기 제1 값, 상기 제2 값, 및 상기 제2 정보에 기반하여, 낙상 검출과 관련된 임계 값을 식별하는 동작; 및
    상기 임계 값과 상기 적어도 하나의 센서(220)를 통해 획득되는 값 사이의 비교에 기반하여, 상기 낙상 검출을 위한 기능을 실행하는 동작을 포함하는
    방법.
PCT/KR2023/009120 2022-10-07 2023-06-29 낙상 감지를 수행하기 위한 전자 장치 및 방법 WO2024075935A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP23734888.3A EP4372710A1 (en) 2022-10-07 2023-06-29 Electronic device and method for performing fall detection

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220129024 2022-10-07
KR10-2022-0129024 2022-10-07
KR1020220143186A KR20240049065A (ko) 2022-10-07 2022-10-31 낙상 감지를 수행하기 위한 전자 장치 및 방법
KR10-2022-0143186 2022-10-31

Publications (1)

Publication Number Publication Date
WO2024075935A1 true WO2024075935A1 (ko) 2024-04-11

Family

ID=90608541

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/009120 WO2024075935A1 (ko) 2022-10-07 2023-06-29 낙상 감지를 수행하기 위한 전자 장치 및 방법

Country Status (2)

Country Link
EP (1) EP4372710A1 (ko)
WO (1) WO2024075935A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080050993A (ko) * 2006-12-04 2008-06-10 한국전자통신연구원 낙상 감지 장치 및 그 방법과 그를 이용한 낙상 구조서비스 시스템 및 그 방법
US20130120147A1 (en) * 2011-11-14 2013-05-16 Vital Connect, Inc. Fall detection using sensor fusion
KR20190056132A (ko) * 2017-11-16 2019-05-24 엘지전자 주식회사 웨어러블 기기
KR102374021B1 (ko) * 2020-05-07 2022-03-15 광주과학기술원 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법
KR20220061473A (ko) * 2020-11-06 2022-05-13 주식회사 길온 사용자의 체중을 추정하는 스마트 인솔 장치 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080050993A (ko) * 2006-12-04 2008-06-10 한국전자통신연구원 낙상 감지 장치 및 그 방법과 그를 이용한 낙상 구조서비스 시스템 및 그 방법
US20130120147A1 (en) * 2011-11-14 2013-05-16 Vital Connect, Inc. Fall detection using sensor fusion
KR20190056132A (ko) * 2017-11-16 2019-05-24 엘지전자 주식회사 웨어러블 기기
KR102374021B1 (ko) * 2020-05-07 2022-03-15 광주과학기술원 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법
KR20220061473A (ko) * 2020-11-06 2022-05-13 주식회사 길온 사용자의 체중을 추정하는 스마트 인솔 장치 및 시스템

Also Published As

Publication number Publication date
EP4372710A1 (en) 2024-05-22

Similar Documents

Publication Publication Date Title
WO2020111483A1 (ko) 인공신경망 기반의 수신 빔 선택 방법 및 장치
WO2022108110A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그 운용 방법
WO2022154379A1 (ko) 전자 장치 및 밝기 조절 방법
WO2022139461A1 (en) Three-dimensional angle of arrival capability in electronic devices
WO2024075935A1 (ko) 낙상 감지를 수행하기 위한 전자 장치 및 방법
WO2022124561A1 (ko) 복수의 센서를 이용한 전자 장치의 제어 방법 및 그 전자 장치
WO2022030746A1 (ko) 관성 센서를 이용하여 전자 장치의 착용 상태를 감지하는 전자 장치 및 그 제어 방법
WO2024101674A1 (ko) 이동 방향을 검출하는 시스템, 웨어러블 전자 장치, 및 상기 시스템과 상기 웨어러블 전자 장치에서 이동 방향을 검출하는 방법
WO2023224217A1 (ko) 복수의 전자 장치들에 기반하여 사용자의 활동 상태를 결정하는 방법 및 전자 장치
WO2024090964A1 (ko) 디스플레이 장치를 제어하는 전자 장치와 이의 동작 방법
WO2024096565A1 (ko) 운동 루틴을 생성하기 위한 시스템 및 방법
WO2024106907A1 (ko) 전자 장치 및 사용자의 운동을 감지하는 방법
WO2022030934A1 (ko) 행동 인지(activity recognition, ar)를 이용한 로케이션 히스토리 결정 장치 및 방법
WO2024025176A1 (ko) 운동 카운팅 방법 및 이를 지원하는 전자 장치
WO2022239931A1 (ko) 전자 장치 및 전자 장치에서 이미지 촬영 방법
WO2023229189A1 (ko) 가속도 센서들에 기반하여 움직임을 식별하기 위한 전자 장치 및 그 방법
WO2024091021A1 (ko) 전자 장치 및 이의 동작 방법
WO2024071708A1 (ko) 웨어러블 장치 및 그 장치를 제어하는 방법
WO2022119132A1 (ko) 손 씻는 행동을 검출하는 방법 및 그 전자 장치
WO2023096256A1 (ko) 안테나 및 전극을 포함하는 웨어러블 전자 장치
WO2023249206A1 (ko) 스케줄 관리를 위한 소프트웨어 어플리케이션에 관한 동작을 수행하기 위한 전자 장치 및 방법
WO2022005004A1 (ko) 사용자 모니터링 및 정보 제공 방법 및 그 장치
WO2023140490A1 (ko) 체온 측정을 위한 전자 장치 및 그의 동작 방법
WO2023096134A1 (ko) 전자 장치 내에서 제스처 인식 성능 개선을 위한 러닝 방법
WO2024039046A1 (ko) 외부 전자 장치와 통화 연결을 수립하기 위한 웨어러블 장치 및 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2023734888

Country of ref document: EP

Effective date: 20230707