KR20190099847A - Electronic apparatus and method of correcting posture thereof - Google Patents
Electronic apparatus and method of correcting posture thereof Download PDFInfo
- Publication number
- KR20190099847A KR20190099847A KR1020180019821A KR20180019821A KR20190099847A KR 20190099847 A KR20190099847 A KR 20190099847A KR 1020180019821 A KR1020180019821 A KR 1020180019821A KR 20180019821 A KR20180019821 A KR 20180019821A KR 20190099847 A KR20190099847 A KR 20190099847A
- Authority
- KR
- South Korea
- Prior art keywords
- wearable device
- user
- posture
- data
- sensing data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000004891 communication Methods 0.000 claims abstract description 46
- 238000005286 illumination Methods 0.000 claims description 23
- 238000012937 correction Methods 0.000 claims description 9
- 230000036541 health Effects 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000000758 substrate Substances 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 208000003464 asthenopia Diseases 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 241000270666 Testudines Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 239000002985 plastic film Substances 0.000 description 1
- 229920006255 plastic film Polymers 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
- 230000003867 tiredness Effects 0.000 description 1
- 208000016255 tiredness Diseases 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/10—Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
- G05B23/0205—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
- G05B23/0218—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
- G05B23/0224—Process history based detection method, e.g. whereby history implies the availability of large amounts of data
- G05B23/0227—Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions
- G05B23/0235—Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions based on a comparison with predetermined threshold or range, e.g. "classical methods", carried out during normal operation; threshold adaptation or choice; when or how to compare with the threshold
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/725—Cordless telephones
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- General Health & Medical Sciences (AREA)
- Epidemiology (AREA)
- Health & Medical Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 개시는 전자 장치 및 그의 자세 교정 방법에 관한 것으로서, 보다 상세하게는 사용자의 시력 보호를 위해 사용자가 바라보는 오브젝트와의 거리를 측정하거나, 주변 조도를 측정하여 사용자의 자세를 교정하기 위한 메시지를 출력하거나, 사용자의 머리의 기울기를 측정하여 사용자의 자세를 교정하기 위한 메시지를 출력할 수 있는 전자 장치 및 그의 제어 방법에 관한 것이다.The present disclosure relates to an electronic device and a method for correcting a posture thereof, and more particularly, to measure a distance to an object viewed by a user for protecting eyesight of a user, or to measure a peripheral illumination to correct a posture of a user. The present invention relates to an electronic device and a control method thereof capable of outputting or outputting a message for correcting a posture of a user by measuring a tilt of a user's head.
근래 많은 사람들은 직장에서 컴퓨터를 사용하여 사무 작업을 수행하고 있다. 직장인들은 하루 중 대부분의 시간을 컴퓨터 모니터를 바라보며, 업무 시간 외에도 스마트폰, 영상 시청 등 다양한 컨텐츠를 시청하고 있다. 이에 따라 사람들의 눈의 피로도가 급증하고 있으며, 한 연구에 따르면, 컴퓨터를 사용하는 근로자의 50%~90%는 눈의 피로와 눈과 관련된 불편한 증상들이 발생한다고 한다. 예를 들어, 사람들은 도 1의 오른쪽에 도시된 바와 같은 자세가 올바른 자세라는 사실을 알면서도, 도 1의 왼편에 도시된 바와 같이, 잘못된 자세로 업무를 수행하는 경우가 종종 있다. 많은 사람들이 자신의 자세가 잘못된 자세인지를 인지하지 못하고 장시간 업무를 수행하게 된다.In recent years, many people use computers at work to perform office work. Office workers spend most of their day looking at computer monitors and watching a variety of content, including smartphones and video, in addition to working hours. As a result, eye fatigue is increasing rapidly, and one study found that between 50% and 90% of workers using computers experience eye fatigue and eye-related discomfort. For example, while people know that a posture as shown on the right side of FIG. 1 is a correct posture, people often perform work in an incorrect posture, as shown on the left side of FIG. Many people work long hours without knowing their positions are wrong.
한편, 근래에는 다양한 웨어러블 장치를 통해 사용자의 생활 습관 또는 자세 교정을 안내하기 위한 방법들이 개시되고 있다. 그러나 종래의 웨어러블 장치들은 사용자의 수면 습관, 걷는 자세 교정, 하루 운동량 등을 측정하여 사용자에게 알리는 기능들을 제공하고 있으나, 사용자의 눈의 피로도와 관련된 데이터를 측정하여 제공하고 있지는 않고 있다. Meanwhile, recently, methods for guiding a lifestyle or posture correction of a user through various wearable devices have been disclosed. However, conventional wearable devices provide functions for informing a user by measuring a user's sleep habits, correcting a walking posture, a daily exercise amount, etc., but do not measure and provide data related to eye fatigue of the user.
본 개시는 상술한 문제점을 해결하기 위한 것으로, 사용자의 자세 교정을 도와주는 전자 장치 및 웨어러블 장치에 관한 것이다.The present disclosure is to solve the above-described problem, and relates to an electronic device and a wearable device for helping a user correct posture.
상기 문제를 해결하기 위한 본 개시의 일 실시예에 따른 사용자 자세 교정을 위한 전자 장치는, 통신부, 출력부, 적어도 하나의 명령어를 포함하는 메모리 및 상기 통신부, 상기 출력부 및 상기 메모리와 연결되어 상기 전자 장치를 제어하는 프로세서를 포함하며, 상기 프로세서는, 상기 적어도 하나의 명령어를 실행함으로써, 상기 통신부를 통해 사용자에 의해 착용된 웨어러블 장치와 통신 연결을 수행하며, 상기 통신부틀 통해 상기 웨어러블 장치로부터 상기 웨어러블 장치가 감지한 센싱 데이터를 수신하고, 상기 수신된 센싱 데이터가 기설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 상기 기설정된 조건에 대응되는 메시지를 출력하도록 상기 출력부를 제어한다.An electronic device for correcting a user's posture according to an exemplary embodiment of the present disclosure for solving the problem may include a communication unit, an output unit, a memory including at least one command, and a connection with the communication unit, the output unit, and the memory. And a processor configured to control an electronic device, wherein the processor performs a communication connection with a wearable device worn by a user through the communication unit by executing the at least one instruction, and from the wearable device through the communication booth. The controller may be configured to receive sensing data sensed by the wearable device and to output a message corresponding to the preset condition to guide the user's posture when the received sensing data satisfies a preset condition.
이때, 상기 센싱 데이터는, 상기 웨어러블 장치의 거리 측정 센서에 의해 감지된 상기 외부 장치와 오브젝트 사이의 거리에 대한 데이터, 상기 웨어러블 장치의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 상기 웨어러블 장치의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나를 포함할 수 있다.In this case, the sensing data may include data about a distance between the external device and an object detected by the distance measuring sensor of the wearable device, data about an angle detected by the gyro sensor of the wearable device, and illuminance of the wearable device. It may include at least one of the data on the illumination sensed by the sensor.
이때, 상기 센싱 데이터가 상기 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터인 경우, 상기 프로세서는, 상기 감지된 거리가 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.In this case, when the sensing data is data on the distance between the wearable device and the object detected by the distance measuring sensor, the processor guides the posture of the user when the detected distance is less than or equal to a first threshold. The output unit may be controlled to output information for performing the above operation.
이때, 상기 프로세서는, 상기 감지된 거리를 시간 정보와 매칭하여 상기 메모리에 저장하고, 상기 감지된 거리가 기 설정된 시간동안 상기 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.In this case, the processor may match the detected distance with time information and store it in the memory, and output the information for guiding the posture of the user when the detected distance is less than or equal to the first threshold value for a preset time. In order to control the output unit.
이때, 상기 센싱데이터가 상기 자이로 센서에 의해 감지된 각도에 대한 데이터인 경우, 상기 프로세서는, 상기 감지된 각도가 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.In this case, when the sensing data is data about an angle detected by the gyro sensor, the processor outputs information for guiding the posture of the user when the detected angle is less than or equal to a second threshold. The output can be controlled.
이때, 상기 프로세서는, 상기 감지된 각도를 시간 정보와 매칭하여 상기 메모리에 저장하고, 상기 감지된 각도가 기 설정된 시간동안 상기 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.In this case, the processor matches the detected angle with the time information and stores it in the memory, and outputs information for guiding the posture of the user when the detected angle is less than or equal to the second threshold for a preset time. In order to control the output unit.
이때, 상기 센싱데이터가 상기 조도 센서에 의해 감지된 조도에 대한 데이터인 경우, 상기 프로세서는, 상기 감지된 조도가 제3 임계값 이상인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.In this case, when the sensing data is data on illuminance detected by the illuminance sensor, the processor outputs information for guiding the posture of the user when the sensed illuminance is greater than or equal to a third threshold. The output can be controlled.
이때, 상기 프로세서는, 상기 통신부를 통해 상기 웨어러블 장치 주변의 조도를 감지하기 위한 제1 센서로부터 획득된 제1 센싱 데이터 및 상기 웨어러블 장치를 착용한 사용자가 바라보는 영역의 조도를 감지하기 위한 제2 센서로부터 획득된 제2 센싱 데이터를 수신하고, 상기 제1 센싱 데이터로부터 획득된 제1 조도값과 상기 제2 센싱 데이터로부터 획득된 제2 조도값의 차이가 제4 임계값 이상이면, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.At this time, the processor, the first sensing data obtained from the first sensor for detecting the illumination around the wearable device through the communication unit and a second for sensing the illumination of the area viewed by the user wearing the wearable device When the second sensing data obtained from the sensor is received and the difference between the first illuminance value obtained from the first sensing data and the second illuminance value obtained from the second sensing data is greater than or equal to a fourth threshold value, The output unit may be controlled to output information for guiding a posture.
한편, 상술한 문제를 해결하기 위한 본 개시의 또 다른 실시예에 따른 사용자 자세 교정을 위한 전자 장치의 제어 방법은, 사용자에 의해 착용된 웨어러블 장치와 통신 연결을 수행하는 단계, 상기 웨어러블 장치로부터 상기 웨어러블 장치가 감지한 센싱 데이터를 수신하는 단계, 상기 수신된 센싱 데이터가 기설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 상기 기설정된 조건에 대응되는 메시지를 출력하는 단계를 포함한다.On the other hand, the control method of the electronic device for correcting the user posture according to another embodiment of the present disclosure for solving the above-described problem, the step of performing a communication connection with the wearable device worn by the user, from the wearable device Receiving sensing data sensed by the wearable device and outputting a message corresponding to the preset condition to guide the posture of the user when the received sensing data satisfies a preset condition.
이때, 상기 센싱 데이터는, 상기 웨어러블 장치의 거리 측정 센서에 의해 감지된 상기 외부 장치와 오브젝트 사이의 거리에 대한 데이터, 상기 웨어러블 장치의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 상기 웨어러블 장치의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나를 포함할 수 있다.In this case, the sensing data may include data about a distance between the external device and an object detected by the distance measuring sensor of the wearable device, data about an angle detected by the gyro sensor of the wearable device, and illuminance of the wearable device. It may include at least one of the data on the illumination sensed by the sensor.
이때, 상기 출력하는 단계는, 상기 센싱 데이터가 상기 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터이고, 상기 감지된 거리가 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력할 수 있다.In this case, the outputting of the sensing data may include data about a distance between the wearable device and an object detected by the distance measuring sensor, and when the detected distance is less than or equal to a first threshold value, the posture of the user. Information for guiding can be output.
이때, 상기 출력하는 단계는, 상기 감지된 거리를 시간 정보와 매칭하는 단계 및 상기 감지된 거리가 기 설정된 시간동안 상기 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하는 단계를 포함할 수 있다.In this case, the outputting may include matching the detected distance with time information and outputting information for guiding the posture of the user when the detected distance is less than or equal to the first threshold value for a preset time. It may include.
이때, 상기 출력하는 단계는, 상기 센싱데이터가 상기 자이로 센서에 의해 감지된 각도에 대한 데이터이고, 상기 감지된 각도가 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력할 수 있다.In this case, the outputting may include outputting information for guiding the posture of the user when the sensing data is data about an angle detected by the gyro sensor and the detected angle is less than or equal to a second threshold. have.
이때, 상기 출력하는 단계는, 상기 감지된 각도를 시간 정보와 매칭하는 단계 및 상기 감지된 각도가 기 설정된 시간 동안 상기 제2 임계값 이하인 경우, 사용자의 자세를 가이드 하기 위한 정보를 출력하는 단계를 포함할 수 있다.The outputting may include matching the detected angle with time information and outputting information for guiding a user's posture when the detected angle is less than or equal to the second threshold for a preset time. It may include.
이때, 상기 출력하는 단계는, 상기 센싱데이터가 상기 조도 센서에 의해 감지된 조도에 대한 데이터이고, 상기 감지된 조도가 제3 임계값 이상인 경우, 사용자의 자세를 가이드 하기 위한 정보를 출력할 수 있다.In this case, the outputting may include outputting information for guiding a user's posture when the sensing data is data on illuminance detected by the illuminance sensor and the detected illuminance is greater than or equal to a third threshold value. .
이때, 상기 수신하는 단계는, 상기 통신부를 통해 상기 웨어러블 장치 주변의 조도를 감지하기 위한 제1 센서로부터 획득된 제1 센싱 데이터 및 상기 웨어러블 장치를 착용한 사용자가 바라보는 영역의 조도를 감지하기 위한 제2 센서로부터 획득된 제2 센싱 데이터를 수신하는 단계를 포함하고, 상기 출력하는 단계는, 상기 제1 센싱 데이터로부터 획득된 제1 조도값과 상기 제2 센싱 데이터로부터 획득된 제2 조도값의 차이가 제4 임계값 이상이면, 사용자의 자세를 가이드 하기 위한 정보를 출력할 수 있다.In this case, the receiving of the first sensing data obtained from the first sensor for detecting the illumination around the wearable device and the illumination of the area viewed by the user wearing the wearable device through the communication unit. And receiving second sensing data obtained from a second sensor, and outputting the first illuminance value obtained from the first sensing data and the second illuminance value obtained from the second sensing data. If the difference is greater than or equal to the fourth threshold value, information for guiding the posture of the user may be output.
상술한 본 개시의 다양한 실시예에 따라, 전자 장치는 사용자가 바라보는 오브젝트, 주변 조도, 사용자의 목의 기울기 중 적어도 하나를 측정하여 사용자의 자세를 교정하기 위한 메시지를 출력할 수 있다.According to various embodiments of the present disclosure, the electronic device may output a message for correcting the posture of the user by measuring at least one of an object viewed by the user, an ambient illuminance, and a tilt of the neck of the user.
도 1은 종래 사람들의 잘못된 자세 및 올바른 자세를 설명하기 위한 예시도이다.
도 2a 및 도 2b는 본 개시의 일 실시예에 따른 자세 교정 시스템을 설명하기 위한 예시도이다.
도 3a는 본 개시의 일 실시예에 다른 전자 장치(100)의 구성을 설명하기 위한 블록도이다.
도 3b는 본 개시의 일 실시예에 따른 전자 장치(100)의 구성을 상세히 설명하기 위한 블록도이다.
도 4는 본 개시의 일 실시예에 따른 웨어러블 장치의 구성을 설명하기 위한 블록도이다.
도 5a 내지 도 5c는 본 개시의 일 실시예에 따른 사용자와 오브젝트 사이의 거리를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.
도 6a 내지 도 6e는 본 개시의 일 실시예에 따른, 사용자 목의 기울기를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.
도 7a 내지 도 7d는 본 개시의 일 실시예에 따른, 사용자 주변의 조도를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.
도 8은 본 개시의 일 실시예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.1 is an exemplary view for explaining the wrong posture and correct posture of the conventional people.
2A and 2B are exemplary views illustrating a posture correcting system according to an embodiment of the present disclosure.
3A is a block diagram illustrating a configuration of an
3B is a block diagram illustrating in detail the configuration of the
4 is a block diagram illustrating a configuration of a wearable device according to an embodiment of the present disclosure.
5A to 5C are exemplary views for describing a method of determining a distance between a user and an object and outputting a message for guiding a posture of the user according to the determined result according to an embodiment of the present disclosure.
6A to 6E are exemplary views for describing a method of determining a tilt of a user's neck and outputting a message for guiding a posture of a user according to the determined result, according to an exemplary embodiment.
7A to 7D are exemplary views for describing a method of determining illuminance around a user and outputting a message for guiding a posture of the user according to the determined result, according to an embodiment of the present disclosure.
8 is a flowchart illustrating a control method of an electronic device according to an embodiment of the present disclosure.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. Terms used herein will be briefly described, and the present disclosure will be described in detail.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present disclosure selected general terms widely used as far as possible in consideration of functions in the present disclosure, but may vary according to the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. . In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present disclosure should be defined based on the meanings of the terms and the contents throughout the present disclosure, rather than simply the names of the terms.
본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Embodiments of the present disclosure may be variously modified and have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the scope to the specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the scope of the disclosed spirit and technology. In describing the embodiments, when it is determined that the detailed description of the related known technology may obscure the gist, the detailed description thereof will be omitted.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "consist" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and one or more other It is to be understood that the present invention does not exclude the possibility of the presence or the addition of features, numbers, steps, operations, components, parts, or a combination thereof.
본 개시의 실시 예에서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의'모듈' 혹은 복수의'부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In an embodiment of the present disclosure, the 'module' or 'unit' performs at least one function or operation, and may be implemented in hardware or software or in a combination of hardware and software. In addition, the plurality of modules or the plurality of units may be integrated into at least one module except for the modules or units that need to be implemented with specific hardware, and are implemented as at least one processor (not shown). Can be.
본 개시의 실시 예에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In an embodiment of the present disclosure, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" with another element in between. Also includes. In addition, when a part is said to "include" a certain component, which means that it may further include other components, except to exclude other components unless otherwise stated.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present disclosure. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted for simplicity of explanation, and like reference numerals designate like parts throughout the specification.
또한, 본 개시의 실시 예에서, "어플리케이션"은 특정한 업무를 수행하기 위해 고안된 일련의 컴퓨터 프로그램 집합을 말한다. 본 개시의 실시 예에서, 어플리케이션은 다양할 수 있다. 예를 들어, 게임 애플리케이션, 동영상 재생 애플리케이션, 지도 애플리케이션, 메모 애플리케이션, 캘린더 애플리케이션, 폰 북 애플리케이션, 방송 애플리케이션, 운동 지원 애플리케이션, 결제 애플리케이션, 사진 폴더 애플리케이션, 의료 기기 제어 어플리케이션, 다수의 의료 기기의 사용자 인터페이스 제공 어플리케이션 등이 있을 수 있으나, 이에 한정되는 것은 아니다.In addition, in an embodiment of the present disclosure, an "application" refers to a series of computer program sets designed to perform a specific task. In an embodiment of the present disclosure, the application may vary. For example, game applications, video playback applications, map applications, memo applications, calendar applications, phone book applications, broadcast applications, workout support applications, payment applications, photo folder applications, medical device control applications, user interface of many medical devices. There may be a providing application, but is not limited thereto.
도 2a는 본 개시의 일 실시예에 따른 자세 교정 시스템을 설명하기 위한 예시도이다.2A is an exemplary diagram for describing a posture correction system according to an embodiment of the present disclosure.
도 2a에 개시된 바와 같이, 자세 교정 시스템(100)은 전자 장치(100) 및 웨어러블 장치(200)으로 구성될 수 있다.As described in FIG. 2A, the
전자 장치(100)는 웨어러블 장치(200)로부터 수신한 센싱 데이터를 바탕으로, 사용자의 자세가 잘못되었는지 여부를 판단하고, 올바른 자세로 교정하기 위한 메시지를 출력하기 위한 구성이다.The
이때, 전자 장치(100)는 스마트 폰으로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어 중 적어도 하나를 포함할 수 있다.In this case, the
또 다른 실시 예로, 전자 장치(100)는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD 플레이어(Digital Video Disk player), 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.In another embodiment, the
웨어러블 장치(200)는 센싱 데이터를 수집하기 위한 구성이다. 이때, 웨어러블 장치(200)는 엑세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘텍트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 이어 폰, 헤드 폰, 직물 또는 의류 일체 형(예: 전자 의복), 신체 부착 형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식 형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다. The
또 다른 실시예로, 웨어러블 장치(200)는 독립된 장치일 수 있다. 구체적으로, 도 2b에 도시된 바와 같이, 웨어러블 장치는 센싱 데이터를 수집할 수 있는 구성을 포함하는 독립된 장치로, 각종 외부 장치에 부착될 수 있는 구성일 수 있다. 예를 들어, 웨어러블 장치(200)는 안경, 이어폰, 머리띠, 헤드폰 등 사용자의 머리에 착용되는 다양한 엑세서리에 부착될 수 있는 형태로 구성될 수 있다. 본 개시에서는 웨어러블 장치(200)가 사용자의 머리에 착용되는 장치 또는 사용자의 머리에 착용되는 장치에 부착되는 장치인 것으로 설명하지만 이에 한정되는 것은 아니고, 다양한 위치에 착용되거나, 부착될 수 있음은 물론이다.In another embodiment, the
도 3a는 본 개시의 일 실시예에 다른 전자 장치(100)의 구성을 설명하기 위한 블록도이다. 도 3a에 도시된 바와 같이, 전자 장치(100)는 통신부(110), 출력부(120), 메모리(130) 및 프로세서(140)를 포함한다.3A is a block diagram illustrating a configuration of an
통신부(110)는 외부 장치와의 통신을 수행하기 위한 구성이다. 구체적으로, 전자 장치(100)는 웨어러블 장치(200)와 통신부(110)를 통해 연결될 수 있다. 나아가, 전자 장치(100)는 통신부(110)을 통해 다른 외부 장치로 다양한 데이터를 송수신할 수 있음은 물론이다.The
출력부(120)는 전자 장치(100)의 다양한 데이터를 출력하기 위한 구성이다. 구체적으로, 전자 장치(100)는 출력부(120)를 통해 사용자의 자세를 교정하기 위한 메시지를 출력할 수 있다. 이때 출력부(120)를 통해 출력되는 메시지는 자세 교정과 관련된 UI 화면 또는 자세 교정과 관련된 오디오 신호일 수 있다.The
메모리(130)는 전자 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(130)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 구체적으로, 메모리(130)는 적어도 하나의 명령어를 포함할 수 있으며, 프로세서(140)에 의해 적어도 하나의 명령어를 실행될 수 있다.The
프로세서(140)는 전자 장치(100)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(140)는 웨어러블 장치(200)와 통신 연결을 수행하고, 웨어러블 장치(200)로부터 센싱 데이터를 수신하도록 통신부(110)를 제어할 수 있다. 수신한 센싱 테이터가 기 설정된 조건을 만족하는 경우, 프로세서(140)는 사용자의 자세를 가이드 하기 위하여 기 설정된 조건에 대응되는 메시지를 출력하도록 출력부(120)를 제어할 수 있다.The
이때, 센싱 데이터는 웨어러블 장치(200)에 포함된 거리 감지 센서, 자이로 센서, 조도 센서 등에 의해 감지된 데이터일 수 있다. 구체적으로, 센싱 데이터는 웨어러블 장치(200)에서 오브젝트까지의 거리 데이터, 웨어러블 장치(200)의 기울기 데이터 및 주변 조도 데이터 중 적어도 하나를 포함할 수 있다.In this case, the sensing data may be data detected by a distance sensor, a gyro sensor, an illumination sensor, or the like included in the
한편, 기 설정된 조건은 센싱 데이터의 종류에 따라 달라질 수 있다. 구체적으로, 센싱 데이터가 웨어러블 장치(200)의 거리 측정 센서에 의해 감지된 웨어러블 장치(200)와 오브젝트 사이의 거리에 대한 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값 이상인지, 이하인지에 대한 조건을 수 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값 이하인 상태를 유지하는 시간과 관련된 조건일 수도 있다. 기 설정된 조건은 웨어러블 장치(200)와 오브젝트 사이의 거리의 평균 값이 제1 임계값 이하인지 여부에 대한 조건일 수 있다.The preset condition may vary depending on the type of sensing data. Specifically, when the sensing data is data on the distance between the
또 다른 실시예로, 센싱 데이터가 웨어러블 장치(200)의 자이로 센서에 의해 감지된 기울기 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200)의 기울기가 제2 임계값 이상인지, 이하인지에 대한 조건을 수 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)의 기울기가 제2 임계값 이하인 상태를 유지하는 시간과 관련된 조건일 수도 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)의 평균 기울기 값이 제2 임계값 이하인지 여부에 대한 조건일 수 있다.In another embodiment, when the sensing data is tilt data detected by the gyro sensor of the
또 다른 실시예로, 센싱 데이터가 웨어러블 장치(200)의 조도 센서에 의해 감지된 조도 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200) 주변의 조도가 제3 임계값 이상인지, 이하인지에 대한 조건을 수 있다. 또는, 기 설정된 조건은 웨어러블 장치(200) 주변의 조도가 제3 임계값 이하인 상태를 유지하는 시간과 관련된 조건일 수도 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)주변의 조도값과 오브젝트 영역의 조도값의 차이가 제4 임계값 이상인지, 이하인지에 대한 조건일 수 있다. 상술한 기 설정된 조건은 후술하는 다양한 실시예에서 자세히 설명한다.In another embodiment, when the sensing data is illuminance data detected by the illuminance sensor of the
도 3b는 본 개시의 일 실시예에 따른 전자 장치(100)의 구성을 상세히 설명하기 위한 블록도이다. 도 3b에 도시된 바와 같이, 전자 장치(100)는 통신부(110), 출력부(120), 메모리(130), 프로세서(140) 외에 입력부(150), 오디오 처리부(160) 등을 더 포함할 수 있다. 다만, 상술한 구성에 한정되는 것은 아니고, 필요에 따라 일부 구성이 추가되거나 생략될 수 있음은 물론이다.3B is a block diagram illustrating in detail the configuration of the
통신부(110)는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부(110)는 와이파이 칩(111), 블루투스 칩(112), 무선 통신 칩(113), NFC칩(114) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩(111), 블루투스 칩(112), NFC 칩(114)은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩(111)이나 블루투스칩(112)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩(113)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. The
출력부(120)는 전자 장치(100)의 다양한 데이터를 출력하기 위한 구성이다. 구체적으로, 출력부(120)는 디스플레이(121) 및 오디오 출력부(122)를 포함할 수 있다.The
디스플레이(121)는 상술한 바와 같이, 다양한 화면을 표시할 수 있다. 이때, 디스플레이(121)는 다양한 형태의 디스플레이 패널로 구현될 수 있다. 예로, 디스플레이 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), AM-OLED(Active-Matrix Organic Light-Emitting Diode), LcoS(Liquid Crystal on Silicon) 또는 DLP(Digital Light Processing) 등과 같은 다양한 디스플레이 기술로 구현될 수 있다.The display 121 may display various screens as described above. In this case, the display 121 may be implemented as various types of display panels. For example, the display panel may be a liquid crystal display (LCD), organic light emitting diodes (OLED), active-matrix organic light-emitting diode (AM-OLED), liquid crystal on silicon (LcoS), or digital light processing (DLP). It can be implemented with various display technologies.
또한, 디스플레이(121)는 플렉서블 디스플레이(flexible display)의 형태로 전자 장치(100)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다. 플렉서블 디스플레이는 종이처럼 얇고 유연한 기판을 통해 손상 없이 휘거나 구부리거나 말 수 있는 것을 특징으로 할 수 있다. 이러한 플렉서블 디스플레이는 일반적으로 사용되는 유리 기판뿐 아니라 플라스틱 기판을 사용하여 제조될 수도 있다. 플라스틱 기판을 사용하는 경우, 기판의 손상을 방지하기 위해서 기존의 제조 프로세서를 사용하지 않고 저온 제조 프로세서를 사용하여 형성될 수 있다. 또한, 플렉서블 액정을 싸고 있는 유리 기판을 플라스틱 필름으로 대체하여, 접고 펼 수 있는 유연성을 부여할 수 있다. 이러한 플렉서블 디스플레이는 얇고 가벼울 뿐만 아니라 충격에도 강하며, 또한 휘거나 굽힐 수 있고 다양한 형태로 제작이 가능하다는 장점을 갖고 있다.In addition, the display 121 may be coupled to at least one of a front region, a side region, and a rear region of the
오디오 출력부(122)는 오디오 처리부(160)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 출력하는 구성이다. 구체적으로, 오디오 처리부(160)는 오디오 데이터에 대한 처리를 수행하는 구성 요소다. 오디오 처리부(160)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 오디오 처리부(160)에서 처리된 오디오 데이터는 오디오 출력부(160)로 출력될 수 있다. 특히, 오디오 출력부(122)는 스피커로 구현될 수 있으나, 이는 일 실시 예에 불과할 뿐, 오디오 데이터를 출력할 수 있는 출력 단자로 구현될 수 있다.The
입력부(150)는 다양한 입력을 수신하기 위하여 터치 패널(151), 펜센서(152), 키(153) 및 마이크(154)를 포함할 수 있다. 터치 패널(151)은 디스플레이(121) 및 터치 센서(미도시)가 결합되어 구성될 수 있으며, 터치 센서는 정전식, 감압식, 적외선 방식, 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 터치 패널은 디스플레이 기능뿐만 아니라 터치 입력 위치, 터치된 면적뿐만 아니라 터치 입력 압력까지도 검출하는 기능을 가질 수 있고, 또한 실질적인 터치(real-touch)뿐만 아니라 근접 터치(proximity touch)도 검출하는 기능을 가질 수 있다. 펜 센서(152)는 터치 패널(151)의 일부로 구현될 수 있으며 또는 별도의 인식용 시트를 포함할 수 있다. 키(153)는 물리적 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 마이크(154)는 내장형 마이크 또는 외장형 마이크 중 적어도 하나를 포함할 수 있다.The
특히, 입력부(150)는 상술한 다양한 구성들로부터 외부 명령을 수신하여 프로세서(140)로 전달할 수 있다. 프로세서(140)는 수신한 입력에 대응되는 제어 신호를 생성하여 전자 장치(100)를 제어할 수 있다.In particular, the
프로세서(140)는 메모리(130)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어할 수 있다.The
프로세서(140)는 RAM(141), ROM(142), 그래픽 처리부(143), 메인 CPU(144), 제1 내지 n 인터페이스(145-1 ~ 145-n) 및 버스(146)로 구성될 수 있다. 이때, RAM(141), ROM(142), 그래픽 처리부(143), 메인 CPU(144), 제1 내지 n 인터페이스(145-1 ~ 145-n) 등은 버스(146)를 통해 서로 연결될 수 있다. The
RAM(141)은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 전자 장치(100)가 부팅되면 O/S가 RAM(141)에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM(141)에 저장될 수 있다. The
ROM(142)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU(144)는 ROM(142)에 저장된 명령어에 따라 메모리(110)에 저장된 O/S를 RAM(141)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(144)는 메모리(130)에 저장된 각종 어플리케이션 프로그램을 RAM(141)에 복사하고, RAM(141)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The
그래픽 처리부(143)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 여기서, 연산부는 입력부(150)로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하는 구성일 수 있다. 그리고, 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성하는 구성이 일 수 있다. 이러한 렌더링부에서 생성된 화면은 디스플레이(121)의 디스플레이 영역 내에 표시될 수 있다. The
메인 CPU(144)는 메모리(130)에 액세스하여, 메모리(130)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(144)는 메모리(130)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The
제1 내지 n 인터페이스(145-1 내지 145-n)는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스(145-1 내지 145-n) 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces 145-1 to 145-n are connected to the various components described above. One of the first to n-th interfaces 145-1 to 145-n may be a network interface connected to an external device through a network.
도 4는 본 개시의 일 실시예에 따른 웨어러블 장치의 구성을 설명하기 위한 블록도이다. 도 4에 도시된 바와 같이, 웨어러블 장치(200)는 통신부(210), 센서(220), 및 프로세서(230)를 포함한다. 4 is a block diagram illustrating a configuration of a wearable device according to an embodiment of the present disclosure. As shown in FIG. 4, the
통신부(210)는 외부 장치와 통신을 수행하기 위한 구성으로, 상술한 바와 같이, 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩등과 같은 다양한 통신 칩을 포함할 수 있다. 통신부(210)는 센서(220)에 의해 감지된 다양한 센싱 데이터를 전자 장치(100)로 전송할 수 있다.The
센서(220)는 다양한 센싱 데이터를 감지하기 위한 구성이다. 도 4에 도시된 바와 같이, 센서(220)는 거리 측정 센서, 조도 센서, 소음 감지 센서, 자이로 센서 등을 포함할 수 있다. The
거리 측정 센서는 웨어러블 장치(200)와 오브젝트 사이의 거리를 측정하기 위한 센서이다. 이때, 거리 센서는 광센서로 구성될 수 있으나, 이에 한정되는 것은 아니고, 필요에 따라, 적외선 센서, 초음파 센서 등으로 구성될 수 있음은 물론이다.The distance measuring sensor is a sensor for measuring the distance between the
조도 센서는 주변 조도를 측정하기 위한 구성이다. 이때, 조도 센서는 두개 이상으로 구성될 수 있다. 구체적으로, 조도 센서가 제1 조도 센서 및 제2 조도 센서로 구성되는 경우, 제1 조도 센서는 웨어러블 장치(200) 주변의 조도를 감지하고, 제2 조도 센서는 오브젝트가 위치한 영역 근처의 조도를 감지할 수 있다.The illuminance sensor is a configuration for measuring the ambient illuminance. At this time, the illuminance sensor may be composed of two or more. In detail, when the illuminance sensor includes a first illuminance sensor and a second illuminance sensor, the first illuminance sensor detects the illuminance around the
소음 측정 센서는 주변 소음을 측정하기 위한 구성이며, 자이로 센서는 기존의 가속도 센서에 각각 회전을 넣어 6축 방향을 인식하여 하여 좀더 세밀하고 정밀한 동작을 인식할 수 있도록 도와주는 센서로, 웨어러블 장치(200)의 위치를 감지하기 위한 구성이다.The noise measuring sensor is a component for measuring ambient noise, and the gyro sensor is a sensor that recognizes more detailed and precise motion by inserting rotations into the existing acceleration sensor and recognizes 6-axis directions, and is a wearable device ( 200 is a configuration for detecting the position.
센서(220)는 상기 구성들 이외에도 가속도 센서, 근접 센서, 충격 센서, 중력 센서, 지자기 센서 등 다양한 종류의 센서를 포함할 수 있음은 물론이다.The
프로세서(230)은 웨어러블 장치(200)를 제어하기 위한 구성으로, 센서(220)에 의해 감지된 다양한 정보를 전자 장치(100)로 전송하기 위하여 통신부(210)을 제어할 수 있다.The
한편, 웨어러블 장치(200)는 상술한 구성 외에도 필요에 따라 추가 구성을 더 포함할 수 있다. 예를 들어, 웨어러블 장치(200)가 이어폰으로 구현되는 경우, 웨어러블 장치(200)는 오디오 출력부를 더 포함할 수 있다. 이 경우, 웨어러블 장치(200)는 전자 장치(100)로부터 자세 교정과 관련된 오디오 메시지에 대한 데이터를 수신하여 출력할 수 있다. 또는, 웨어러블 장치(200)가 헤드 마운티드 디스플레이(HMD)로 구현되는 경우, 웨어러블 장치(200)는 디스플레이를 더 포함할 수 있다. 이 경우, 웨어러블 장치(200)는 전자 장치(100)로부터 자세 교정과 관련된 UI 메시지에 대한 데이터를 수신하여 출력할 수 있다. 이 외에도 웨어러블 장치(200)가 어떤 장치로 구현되는지에 따라 다양한 구성이 추가될 수 있음은 물론이다.Meanwhile, the
이하에서는 도 5a 내지 도 7c를 이용하여 다양한 자세 교정 방법에 대하여 살펴본다.Hereinafter, various posture correction methods will be described with reference to FIGS. 5A to 7C.
도 5a 내지 도 5c는 본 개시의 일 실시예에 따른 사용자와 오브젝트 사이의 거리를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.5A to 5C are exemplary views for describing a method of determining a distance between a user and an object and outputting a message for guiding a posture of the user according to the determined result according to an embodiment of the present disclosure.
사용자가 오브젝트를 너무 가까이 응시하거나, 동일 거리의 오브젝트를 장시간 응시하는 것은 난시 또는 근시 등의 질병을 가져올 수 있다. 따라서, 전자 장치(100)는 사용자가 응시하는 오브젝트와의 거리 및 오브젝트 응시 시간을 측정하여 사용자의 자세를 가이드 할 필요가 있다.Staring at an object too close or staring at an object of the same distance for a long time may cause diseases such as astigmatism or myopia. Therefore, the
도 5a에 도시된 바와 같이, 웨어러블 장치(200)의 거리 측정 센서(221)는 웨어러블 장치(200)와 오브젝트(500) 사이의 거리 w를 측정하여 전자 장치(100)로 전송할 수 있다. 이때, 웨어러블 장치(200)는 거리 데이터를 기 설정된 시간 간격(예를 들어, 10초 간격)으로 측정하여 전자 장치(100)로 전송할 수 있다. 이때, 거리 w의 전송 방법은 다양할 수 있다. 예를 들어, 웨어러블 장치(100)는 거리 w에 대한 데이터를 획득할 때마다 거리 데이터를 전자 장치(100)로 전송할 수도 있으며, 일정 시간 간격으로 전송할 수도 있다. As illustrated in FIG. 5A, the distance measuring sensor 221 of the
전자 장치(100)는 웨어러블 장치(200)으로부터 수신한 거리 데이터를 분석하여 사용자의 자세를 판단할 수 있다. 예를 들어, 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값(예를 들어 0.4m) 이하인 경우, 전자 장치(100)는 사용자의 자세 교정이 필요하다고 판단할 수 있다. 임계값을 정하는 방법에 대하여는 후술한다.The
이때, 전자 장치(100)는 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값(예를 들어 0.4m) 이하가 되면, 사용자의 자세를 가이드하는 메시지를 출력할 수 있다. 예를 들어, 도 5b에 도시된 바와 같이, 전자 장치(100)는 "전방의 물체와의 거리가 너무 가깝습니다. 눈 건강을 위해 적정 거리를 유지해 주시기 바랍니다."와 같은 메시지 UI를 출력할 수 있다. 이때, 전자 장치(100)는 메시지 UI가 출력됨을 알리기 위해, 메시지 UI가 표시될 때, 전자 장치(100)를 진동시키거나, 알람음을 출력할 수 있다. 이때, 상기 메시지 UI에 대한 데이터는 웨어러블 장치(200)로 전송되어 웨어러블 장치(200)가 표시할 수도 있다. 즉, 웨어러블 장치(200)가 헤드 마운티드 디스플레이 장치인 경우, 메시지 UI는 웨어러블 장치(200)에서 출력될 수 있다. In this case, when the distance between the
또 다른 실시예로, 상기 메시지 UI는 오디오 데이터의 형태로 출력될 수도 있다. 상술한 바와 같이, 전자 장치(100) 또는 웨어러블 장치(200)의 종류에 따라, "전방의 물체와의 거리가 너무 가깝습니다. 눈 건강을 위해 적정 거리를 유지해 주시기 바랍니다."라는 오디오 데이터는 전자 장치(100) 또는 웨어러블 장치(200)에서 출력될 수 있다.In another embodiment, the message UI may be output in the form of audio data. As described above, depending on the type of the
한편, 도 5c에 도시된 바와 같이, 전자 장치(100)는 수신한 거리 데이터를 시간 정보와 매칭하여 저장할 수 있다. 전자 장치(100)는 시간 정보와 매칭된 거리 데이터를 바탕으로, 사용자가 오브젝트를 응시하는 평균 응시 거리를 획득할 수 있다. 획득된 평균 응시 거리가 제1 임계값(예를 들어 0.4m) 이하인 경우, 전자 장치(100)는 사용자의 자세를 가이드하는 메시지를 출력할 수 있다.As illustrated in FIG. 5C, the
또 다른 실시예로, 전자 장치(100)는 시간에 따른 거리 데이터의 변화를 측정할 수 있다. 기 설정된 시간 동안, 거리 데이터가 변하지 않는 경우, 전자 장치(100)는 사용자의 자세를 가이드하는 메시지를 출력할 수 있다. 예를 들어, 전자 장치(100)는 "동일 거리의 물체를 너무 오래 응시하고 있습니다. 눈 건강을 위해 먼 거리르 쳐다보세요." 와 같은 메시지를 출력할 수 있다.In another embodiment, the
결론적으로, 전자 장치(100)는 거리 데이터를 이용하여, 1)사용자가 응시하는 오브젝트가 가까운지 여부, 2) 사용자가 응시하는 오브젝트의 평균 거리가 가까운지 여부 및 3) 사용자가 동일 오브젝트(동일한 거리에 위치한 오브젝트)를 얼마나 오랫동안 응시하고 있는지를 판단하여 사용자의 자세를 가이드 하는 메시지를 출력할 수 있다.In conclusion, the
도 6a 내지 도 6e는 본 개시의 일 실시예에 따른, 사용자 목의 기울기를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.6A to 6E are exemplary views for describing a method of determining a tilt of a user's neck and outputting a message for guiding a posture of a user according to the determined result, according to an exemplary embodiment.
머리의 자세가 잘못되면, 목의 긴장, 피곤함, 거북목 증후군, 두통등의 질명이 발생할 수 있다. 따라서, 전자 장치(100)는 도 6a에 도시된 바와 같이, 사용자의 머리의 자세 및 목의 기울기를 측정하여 사용자의 자세를 가이드 할 필요가 있다.Incorrect head posture can lead to vaginal tension, tiredness, turtle neck syndrome, and headaches. Therefore, as shown in FIG. 6A, the
구체적으로, 전자 장치(100)는 자이로 센서, 중력 센서, 지자기 센서 등을 이용하여 사용자의 목의 기울기를 측정할 수 있다. 도 6b에 도시된 바와 같이, 전자 장치(100)는 웨어러블 장치(200)로부터 중력 방향을 기준으로, 웨어러블 장치(200)가 기울어진 기울기에 대한 각도 데이터를 수신할 수 있다. 수신한 각도 데이터가 제2 임계값(예를 들어 30도) 이상인 경우, 전자 장치(100)는 사용자의 자세를 가이드 하기 위한 메시지를 출력할 수 있다. 예를 들어, 도 6c에 도시된 바와 같이, 전자 장치(100)는 "목 건강을 위해 올바른 자세를 유지하여 주시기 바랍니다."와 같은 메시지 UI를 출력할 수 있다. 이때, 전자 장치(100)는 메시지 UI가 출력됨을 알리기 위해, 메시지 UI가 표시될 때, 전자 장치(100)를 진동시키거나, 알람음을 출력할 수 있다. 이때, 상기 메시지 UI에 대한 데이터는 웨어러블 장치(200)로 전송되어 웨어러블 장치(200)가 표시할 수도 있다. 즉, 웨어러블 장치(200)가 헤드 마운티드 디스플레이 장치인 경우, 메시지 UI는 웨어러블 장치(200)에서 출력될 수 있다. In detail, the
또 다른 실시예로, 상기 메시지 UI는 오디오 데이터의 형태로 출력될 수도 있다. 상술한 바와 같이, 전자 장치(100) 또는 웨어러블 장치(200)의 종류에 따라, "목 건강을 위해 올바른 자세를 유지하여 주시기 바랍니다."라는 오디오 데이터는 전자 장치(100) 또는 웨어러블 장치(200)에서 출력될 수 있다.In another embodiment, the message UI may be output in the form of audio data. As described above, according to the type of the
한편, 정확한 각도 데이터를 획득하기 위하여는, 웨어러블 장치(200)를 올바르게 착용할 필요가 있다. 즉, 사용자는 올바른 자세에서 센서에 의해 측정되는 기울기가 0이 되도록 웨어러블 장치(200)를 착용해야, 전자 장치(100) 사용자의 자세를 정확히 판단할 수 있다. 이를 위해 전자 장치(100)는 웨어러블 장치의 착용을 가이드 하기 위한 메시지를 출력할 수 있다.On the other hand, in order to obtain accurate angle data, it is necessary to wear the
구체적으로, 도 6d에 도시된 바와 같이, 전자 장치(100)는 사용자가 올바르게 웨어러블 장치(200)를 착용할 것을 안내하는 메시지 UI를 표시할 수 있다. 예를 들어, 전자 장치(100)는 "웨어러블 장치를 착용하여 주시기 바랍니다. 확인을 누르시면, 웨어러블 장치의 위치 조정을 위한 단계로 넘어갑니다" 와 같은 메시지 UI를 출력할 수 있다. In detail, as illustrated in FIG. 6D, the
메시지 UI를 통해 확인 명령이 입력되면, 전자 장치(100)는 도 6e에 도시된 바와 같이, 웨어러블 장치(200)의 위치를 조정하기 위한 UI를 표시할 수 있다. 센서에 의해 측정되는 각도가 0이 되도록 웨어러블 장치(200)의 위치가 조정된 후 확인 명령이 입력되면, 전자 장치(100)는 웨어러블 장치(200)의 착용이 완료된 것으로 판단하고, 센싱 데이터를 이용하여 사용자의 자세를 판단할 수 있다.When the confirmation command is input through the message UI, the
한편, 도 5a 내지 도 5c의 경우와 마찬가지로, 전자 장치(100)는 각도 데이터를 시간 정보와 매칭할 수 있다. 전자 장치(100)는 시간 정보와 매칭된 각도 데이터를 바탕으로, 사용자의 머리가 기울어진 평균 시간을 획득할 수 있다. 획득된 평균 시간이 제2 임계값(예를 들어 0.4m) 이상인 경우, 전자 장치(100)는 사용자의 자세를 가이드하는 메시지를 출력할 수 있다.Meanwhile, as in the case of FIGS. 5A to 5C, the
또 다른 실시예로, 전자 장치(100)는 시간에 따른 각도 데이터의 변화를 측정할 수 있다. 기 설정된 시간 동안, 각도 데이터가 변하지 않는 경우, 전자 장치(100)는 사용자의 자세를 가이드하는 메시지를 출력할 수 있다. 예를 들어, 전자 장치(100)는 "동일 자세를 오랜 시간 유지하고 있습니다. 목 건강을 위해 스트레칭해주세요." 와 같은 메시지를 출력할 수 있다.In another embodiment, the
도 7a 내지 도 7d는 본 개시의 일 실시예에 따른, 사용자 주변의 조도를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.7A to 7D are exemplary views for describing a method of determining illuminance around a user and outputting a message for guiding a posture of the user according to the determined result, according to an embodiment of the present disclosure.
주변 조도 값은 사용자의 시력에 영향을 미칠 수 있다. 따라서, 전자 장치(100)는 주변 조도 및 오브젝트 영역의 조도를 판단하여, 주변 조도 값을 가이드할 필요가 있다.Ambient illuminance values may affect the user's vision. Therefore, the
구체적으로, 전자 장치(100)는 웨어러블 장치(200)로부터 주변 조도 데이터를 수신할 수 있다. 수신한 주변 조도가 제3 임계값(에를 들어 500lux) 이상(또는 이하)인 경우, 전자 장치(100)는 도 7b에 도시된 바와 같이, "주변이 너무 밝습니다. 눈 건강을 위해 조도를 낮춰 주세요" 또는 "주변이 너무 어둡습니다. 눈 건강을 위해 조도를 높여 주세요" 와 같은 메시지 UI를 출력할 수 있다. 상술한 바와 같이 메시지는 오디오로 출력될 수도 있으며, 웨어러블 장치(200)에서 출력될 수 있음은 물론이다.In detail, the
한편, 도 7c에 도시된 바와 같이, 오브젝트가 빛을 내는 광원일 경우가 있다. 이 경우, 전자 장치(100)는 주변 조도 및 오브젝트가 발산하는 빛의 세기를 판단하여, 사용자의 건강 상태를 판단할 수 있다. 예를 들어, 주변 조도값과, 오브젝트 영역의 조도 값의 차이가 제4 임계값 이상인 경우, 전자 장치(100)는 도 7d에 도시된 바와 같이 "모니터의 밝기가 너무 밝습니다. 모니터의 밝기를 줄여주세요" 와 같은 메시지 UI를 출력할 수 있다. 다만, 필요에 따라 전자 장치(100)는 "모니터의 밝기가 너무 어둡습니다. 모니터를 밝게 해주세요", "주변이 너무 밝습니다. 눈 건강을 위해 조도를 낮춰 주세요" 또는 "주변이 너무 어둡습니다. 눈 건강을 위해 조도를 높여 주세요"와 같은 UI를 출력할 수 있음은 물론이다.On the other hand, as shown in Figure 7c, the object may be a light source that emits light. In this case, the
이하에서는 상술한 다양한 임계 값(웨어러블 장치(200)와 오브젝트 사이의 거리, 웨어러블 장치(200)의 기울기, 주변 조도 및 오브젝트 영역의 조도와 관련된 임계값)을 결정하는 방법에 대하여 살펴본다. 상술한 다양한 임계값은 전자 장치(100)에 의해 결정될 수도 있으나, 외부 서버에서 결정될 수도 있다. 이하에서는 외부 서버가 임계값을 결정하는 것으로 설명한다.Hereinafter, a method of determining the above-described various threshold values (threshold values related to the distance between the
먼저, 외부 서버는 의학적으로 승인된 원시 데이터를 수집할 수 있다. 이때 주어진 시간 동안 모든 센서로부터 획득된 원시 데이터는 변수 벡터 Vi로 표시될 수 있다. 수집된 데이터는 다양한 전문가들에 의해 분류 될 수 있다. 이때, 전문가들은 원시 데이터에 바이너리 마크를 부가할 수 있다. 즉, 원시 데이터는 0(예를 들어 나쁜 자세) 또는 1(예를 들어 올바른 자세) 중 하나의 바이너리 마크가 부가될 수 있다. First, the external server can collect medically approved raw data. At this time, the raw data obtained from all the sensors for a given time may be represented by the variable vector Vi. Collected data can be classified by various experts. Experts can then add binary marks to the raw data. That is, the raw data can be appended with a binary mark of either 0 (e.g. bad posture) or 1 (e.g. correct posture).
외부 서버는 바이너리 마크가 부가된 원시 데이터를 다양한 방법으로 분류할 수 있다. 예를 들어, 외부 서버는 PCA(Programmable Counter Array)에 의해 주요 선분을 자동으로 선택하도록 훈련된 분류기를 훈련 시킬 수 있다. 이때, 분류기는 Naive Bayes Classifier로 구현될 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 원시 데이터는 지도 학습(supervised learning)을 통해 분류될 수 있다. 또는, 원시 데이터는 별다른 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 분류 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 원시 데이터를 분류 할 수 있다. The external server can classify the raw data with the binary mark added in various ways. For example, an external server can train a classifier trained to automatically select key segments by a programmable counter array (PCA). In this case, the classifier may be implemented as a Naive Bayes Classifier, but is not limited thereto. For example, raw data may be classified through supervised learning. Alternatively, the raw data may be self-learned using the training data without any guidance, and thus, the raw data may be classified through unsupervised learning that discovers a classification criterion.
또는 원시 데이터 분류 모델은 신경망(Neural Network)모델을 기반으로 이루어 질 수 있다. 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있다. 신경망 모델은 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다. 나아가 원시 데이터 분류 모델은 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 깊이(또는, 레이어)에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다.Alternatively, the raw data classification model may be based on a neural network model. Neural network models can be designed to simulate the human brain structure on a computer. The neural network model may include a plurality of weighted network nodes that simulate the neurons of a human neural network. The plurality of network nodes may form a connection relationship so that neurons simulate synaptic activity through which signals are sent and received through synapses. Furthermore, the raw data classification model may include a neural network model or a deep learning model developed from the neural network model. In the deep learning model, a plurality of network nodes may be located at different depths (or layers) and exchange data according to a convolutional connection relationship.
예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 분류 모델로서 사용될 수 있으나, 이에 한정되지 않는다. 상술한 다양한 모델은, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 학습될 수 있다.For example, a model such as a deep neural network (DNN), a recurrent neural network (RNN), and a bidirectional recurrent deep neural network (BRDNN) may be used as the classification model, but is not limited thereto. The various models described above may be trained using learning algorithms including error back-propagation or gradient descent.
전자 장치(100)는 상술한 다양한 임계값에 대한 정보를 외부 서버로부터 수신하고, 웨어러블 장치(200)로부터 수신한 센싱 데이터와 외부 서버로부터 수신한 임계값을 비교하여 사용자의 자세를 판단할 수 있다. 이때, 전자 장치(100)는 임계값에 대한 정보는 기 설정된 주기로 외부 서버로부터 수신할 수 있다. 또는 외부 서버에서 판단된 임계값이 변경되는 경우, 전자 장치(100)는 변경된 임계값에 대한 정보를 수신할 수 있다.The
한편, 상술한 실시예에서는 전자 장치(100)가 외부 서버로부터 임계값에 대한 정보를 수신한다고 설명하였으나, 전자 장치(100)가 상술한 방법을 통해 임계값을 획득할 수 있음은 물론이다.Meanwhile, in the above-described embodiment, the
도 8은 본 개시의 일 실시예에 따른 전자 장치(100)의 제어 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a control method of the
전자 장치(100)는 웨어러블 장치(200)와 통신 연결을 수행할 수 있다(S810).The
전자 장치(100)는 통신 연결된 웨어러블 장치(200)로부터 웨어러블 장치(200)가 감지한 센싱 데이터를 수신할 수 있다(S820). 상술한 바와 같이, 전자 장치(100)가 수신하는 센싱 데이터는 웨어러블 장치(200)의 거리 측정 센서에 의해 감지된 웨어러블 장치(200) 오브젝트 사이의 거리에 대한 데이터, 웨어러블 장치(200)의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 웨어러블 장치(200)의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나일 수 있다.The
전자 장치(100)는 수신한 센싱 데이터가 기 설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 기 설정된 조건에 대응되는 메시지를 출력할 수 있다(S830). 이때, 기 설정된 조건은 센싱 데이터와 센싱 데이터에 대응되는 임계값에 대한 조건을 수 있다. 구체적으로, 센싱 데이터가 웨어러블 장치(200)와 오브젝트 사이의 거리 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값 이하인지에 대한 조건일 수 있다. 또는, 기 설정된 조건은, 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값 이하인 상태로 기 설정된 시간(예를 들어 5분) 이상을 유지 하였는지에 대한 조건일 수 있다. 또 다른 실시예로, 센싱 데이터가 자이로 센서에 의해 감지된 각도 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200)의 각도가 제2 임계값 이하인지에 대한 조건일 수 있다. 또는, 기 설정된 조건은, 웨어러블 장치(200)의 각도가 제2 임계값 이하인 상태로 기 설정된 시간(예를 들어 5분) 이상을 유지 하였는지에 대한 조건일 수 있다. 또 다른 실시예로, 센싱 데이터가 조도 센서에 의해 감지된 조도 데이터인 경우, 기 설정된 조건은 주변 조도가 제3 임계값 이하인지에 대한 조건일 수 있다. 또는, 기 설정된 조건은, 주변 조도가 제3 임계값 이하인 상태로 기 설정된 시간(예를 들어 5분) 이상을 유지 하였는지에 대한 조건일 수 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)의 제1 조도 센서로부터 획득된 주변 조도 및 웨어러블 장치(200)의 제2 조도 센서로부터 획득된 사용자가 바라보는 영역의 조도의 차이가 제 4 임계값 이상인지에 대한 조건일 수 있다.When the received sensing data satisfies a preset condition, the
상기에서 설명된 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기의 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The methods described above may be embodied in the form of program instructions that may be executed by various computer means and may be recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 개시는 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 개시는 상기의 실시 예에 한정되는 것은 아니며, 본 개시가 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the present disclosure has been described with reference to the limited embodiments and the drawings, the present disclosure is not limited to the above embodiments, and those skilled in the art to which the present disclosure pertains may make various modifications and variations from such descriptions. This is possible. Therefore, the scope of the present disclosure should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.
100: 전자 장치
110: 통신부
120: 출력부
130: 메모리
140: 프로세서
200: 웨어러블 장치100: electronic device 110: communication unit
120: output unit 130: memory
140: processor 200: wearable device
Claims (16)
통신부;
출력부;
적어도 하나의 명령어를 포함하는 메모리;및
상기 통신부, 상기 출력부 및 상기 메모리와 연결되어 상기 전자 장치를 제어하는 프로세서;를 포함하며,
상기 프로세서는, 상기 적어도 하나의 명령어를 실행함으로써,
상기 통신부를 통해 사용자에 의해 착용된 웨어러블 장치와 통신 연결을 수행하며,
상기 통신부틀 통해 상기 웨어러블 장치로부터 상기 웨어러블 장치가 감지한 센싱 데이터를 수신하고,
상기 수신된 센싱 데이터가 기설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 상기 기설정된 조건에 대응되는 메시지를 출력하도록 상기 출력부를 제어하는 전자 장치.
An electronic device for correcting a user's posture,
Communication unit;
An output unit;
A memory containing at least one instruction; and
And a processor connected to the communication unit, the output unit, and the memory to control the electronic device.
The processor executes the at least one instruction,
Performs a communication connection with the wearable device worn by the user through the communication unit,
Receive sensing data sensed by the wearable device from the wearable device through the communication booth,
And when the received sensing data satisfies a preset condition, controlling the output unit to output a message corresponding to the preset condition to guide the posture of the user.
상기 센싱 데이터는, 상기 웨어러블 장치의 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터, 상기 웨어러블 장치의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 상기 웨어러블 장치의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
The method of claim 1,
The sensing data may include data about a distance between the wearable device and an object detected by the distance measuring sensor of the wearable device, data about an angle detected by the gyro sensor of the wearable device, and an illumination sensor of the wearable device. And at least one of data on illuminance sensed by the electronic device.
상기 센싱 데이터가 상기 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터인 경우,
상기 프로세서는, 상기 감지된 거리가 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
The method of claim 2,
When the sensing data is data about the distance between the wearable device and the object detected by the distance measuring sensor,
And the processor controls the output unit to output information for guiding the posture of the user when the sensed distance is equal to or less than a first threshold value.
상기 프로세서는,
상기 감지된 거리를 시간 정보와 매칭하여 상기 메모리에 저장하고, 상기 감지된 거리가 기 설정된 시간동안 상기 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
The method of claim 3,
The processor,
Control the output unit to output the information for guiding the user's posture when the detected distance is matched with time information and stored in the memory and the detected distance is equal to or less than the first threshold value for a preset time. An electronic device, characterized in that.
상기 센싱데이터가 상기 자이로 센서에 의해 감지된 각도에 대한 데이터인 경우,
상기 프로세서는, 상기 감지된 각도가 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
The method of claim 2,
When the sensing data is data on the angle detected by the gyro sensor,
And the processor controls the output unit to output information for guiding the posture of the user when the sensed angle is equal to or less than a second threshold value.
상기 프로세서는,
상기 감지된 각도를 시간 정보와 매칭하여 상기 메모리에 저장하고, 상기 감지된 각도가 기 설정된 시간동안 상기 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
The method of claim 5,
The processor,
The output unit is controlled to match the time information with the time information and store it in the memory, and to output information for guiding the posture of the user when the detected angle is less than or equal to the second threshold value for a preset time. An electronic device, characterized in that.
상기 센싱데이터가 상기 조도 센서에 의해 감지된 조도에 대한 데이터인경우,
상기 프로세서는, 상기 감지된 조도가 제3 임계값 이상인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
The method of claim 2,
When the sensing data is data on the illuminance detected by the illuminance sensor,
The processor may control the output unit to output information for guiding the posture of the user when the sensed illuminance is greater than or equal to a third threshold value.
상기 프로세서는,
상기 통신부를 통해 상기 웨어러블 장치 주변의 조도를 감지하기 위한 제1 센서로부터 획득된 제1 센싱 데이터 및 상기 웨어러블 장치를 착용한 사용자가 바라보는 영역의 조도를 감지하기 위한 제2 센서로부터 획득된 제2 센싱 데이터를 수신하고,
상기 제1 센싱 데이터로부터 획득된 제1 조도값과 상기 제2 센싱 데이터로부터 획득된 제2 조도값의 차이가 제4 임계값 이상이면, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 전자 장치.
The method of claim 7, wherein
The processor,
First sensing data acquired from a first sensor for detecting illuminance around the wearable device through the communication unit, and a second sensor obtained from a second sensor for detecting illuminance of an area viewed by a user wearing the wearable device. Receive sensing data,
The output to output information for guiding the user's posture when a difference between a first illuminance value obtained from the first sensing data and a second illuminance value obtained from the second sensing data is greater than or equal to a fourth threshold value; Electronic device that controls wealth.
사용자에 의해 착용된 웨어러블 장치와 통신 연결을 수행하는 단계;
상기 웨어러블 장치로부터 상기 웨어러블 장치가 감지한 센싱 데이터를 수신하는 단계;
상기 수신된 센싱 데이터가 기설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 상기 기설정된 조건에 대응되는 메시지를 출력하는 단계; 를 포함하는 제어 방법.
In the control method of the electronic device for the user posture correction,
Performing a communication connection with a wearable device worn by a user;
Receiving sensing data sensed by the wearable device from the wearable device;
Outputting a message corresponding to the preset condition to guide the posture of the user when the received sensing data satisfies the preset condition; Control method comprising a.
상기 센싱 데이터는, 상기 웨어러블 장치의 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터, 상기 웨어러블 장치의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 상기 웨어러블 장치의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 제어 방법.
The method of claim 9,
The sensing data may include data about a distance between the wearable device and an object detected by the distance measuring sensor of the wearable device, data about an angle detected by the gyro sensor of the wearable device, and an illumination sensor of the wearable device. And at least one of the data on the illuminance sensed by the control method.
상기 출력하는 단계는,
상기 센싱 데이터가 상기 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터이고, 상기 감지된 거리가 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하는 제어 방법.
The method of claim 10,
The outputting step,
And outputting information for guiding the user's posture when the sensing data is data about a distance between the wearable device and the object detected by the distance measuring sensor and the detected distance is equal to or less than a first threshold value. Way.
상기 출력하는 단계는, 상기 감지된 거리를 시간 정보와 매칭하는 단계; 및
상기 감지된 거리가 기 설정된 시간동안 상기 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하는 단계; 를 포함하는 제어 방법.
The method of claim 11,
The outputting may include: matching the sensed distance with time information; And
Outputting information for guiding the posture of the user when the detected distance is less than or equal to the first threshold value for a preset time; Control method comprising a.
상기 출력하는 단계는,
상기 센싱데이터가 상기 자이로 센서에 의해 감지된 각도에 대한 데이터이고, 상기 감지된 각도가 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하는 제어 방법.
The method of claim 10,
The outputting step,
And the sensing data is data about an angle detected by the gyro sensor, and outputs information for guiding the user's posture when the detected angle is less than or equal to a second threshold.
상기 출력하는 단계는,
상기 감지된 각도를 시간 정보와 매칭하는 단계; 및
상기 감지된 각도가 기 설정된 시간 동안 상기 제2 임계값 이하인 경우, 사용자의 자세를 가이드 하기 위한 정보를 출력하는 단계; 를 포함하는 제어 방법.
The method of claim 13,
The outputting step,
Matching the sensed angle with time information; And
Outputting information for guiding a user's posture when the detected angle is less than or equal to the second threshold value for a preset time; Control method comprising a.
상기 출력하는 단계는,
상기 센싱데이터가 상기 조도 센서에 의해 감지된 조도에 대한 데이터이고, 상기 감지된 조도가 제3 임계값 이상인 경우, 사용자의 자세를 가이드 하기 위한 정보를 출력하는 제어 방법.
The method of claim 10,
The outputting step,
And if the sensing data is data about illuminance detected by the illuminance sensor and the detected illuminance is greater than or equal to a third threshold value, outputting information for guiding a user's posture.
상기 수신하는 단계는,
상기 통신부를 통해 상기 웨어러블 장치 주변의 조도를 감지하기 위한 제1 센서로부터 획득된 제1 센싱 데이터 및 상기 웨어러블 장치를 착용한 사용자가 바라보는 영역의 조도를 감지하기 위한 제2 센서로부터 획득된 제2 센싱 데이터를 수신하는 단계; 를 포함하고,
상기 출력하는 단계는,
상기 제1 센싱 데이터로부터 획득된 제1 조도값과 상기 제2 센싱 데이터로부터 획득된 제2 조도값의 차이가 제4 임계값 이상이면, 사용자의 자세를 가이드 하기 위한 정보를 출력하는 제어 방법.
The method of claim 15,
The receiving step,
First sensing data acquired from a first sensor for detecting illuminance around the wearable device through the communication unit, and a second sensor obtained from a second sensor for detecting illuminance of an area viewed by a user wearing the wearable device. Receiving sensing data; Including,
The outputting step,
And outputting information for guiding a user's posture when a difference between a first illuminance value obtained from the first sensing data and a second illuminance value obtained from the second sensing data is greater than or equal to a fourth threshold value.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180019821A KR102620967B1 (en) | 2018-02-20 | 2018-02-20 | Electronic apparatus and method of correcting posture thereof |
PCT/KR2019/001166 WO2019164145A1 (en) | 2018-02-20 | 2019-01-28 | Electronic device and posture correction method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180019821A KR102620967B1 (en) | 2018-02-20 | 2018-02-20 | Electronic apparatus and method of correcting posture thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190099847A true KR20190099847A (en) | 2019-08-28 |
KR102620967B1 KR102620967B1 (en) | 2024-01-05 |
Family
ID=67687791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180019821A KR102620967B1 (en) | 2018-02-20 | 2018-02-20 | Electronic apparatus and method of correcting posture thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102620967B1 (en) |
WO (1) | WO2019164145A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102130761B1 (en) * | 2019-09-02 | 2020-07-08 | 트레스테크(주) | Speaker assembly |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112333500A (en) * | 2019-11-26 | 2021-02-05 | 河南水滴智能技术有限公司 | Eyesight protection technology and method for children watching TV |
CN113297876A (en) * | 2020-02-21 | 2021-08-24 | 佛山市云米电器科技有限公司 | Motion posture correction method based on intelligent refrigerator, intelligent refrigerator and storage medium |
CN114724232A (en) * | 2020-12-18 | 2022-07-08 | 华为技术有限公司 | Posture recognition and correction method, device and system and electronic equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11133937A (en) * | 1997-11-04 | 1999-05-21 | Sony Corp | Eyesight weakening preventing device and method |
WO2010147281A1 (en) * | 2009-06-16 | 2010-12-23 | (주)엘지전자 | Viewing range notification method and tv receiver for implementing the same |
JP2013127548A (en) * | 2011-12-19 | 2013-06-27 | Nikon Corp | Display device and display control program |
KR20140076666A (en) * | 2012-12-12 | 2014-06-23 | 엘지전자 주식회사 | image outputting device and method for operating thereof |
KR20150115519A (en) * | 2014-04-04 | 2015-10-14 | 엘지전자 주식회사 | Lighting system and the operating method |
KR20160062521A (en) * | 2014-11-25 | 2016-06-02 | 인제대학교 산학협력단 | System and method for preventing neck disc |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060005239A (en) * | 2004-07-12 | 2006-01-17 | 엘지전자 주식회사 | (an) image display device for having function of protection sight and method of controlling the same |
KR20170092232A (en) * | 2016-02-03 | 2017-08-11 | 경북대학교 산학협력단 | Apparatus and method for eyesight protection, recording medium for performing the method |
-
2018
- 2018-02-20 KR KR1020180019821A patent/KR102620967B1/en active IP Right Grant
-
2019
- 2019-01-28 WO PCT/KR2019/001166 patent/WO2019164145A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11133937A (en) * | 1997-11-04 | 1999-05-21 | Sony Corp | Eyesight weakening preventing device and method |
WO2010147281A1 (en) * | 2009-06-16 | 2010-12-23 | (주)엘지전자 | Viewing range notification method and tv receiver for implementing the same |
JP2013127548A (en) * | 2011-12-19 | 2013-06-27 | Nikon Corp | Display device and display control program |
KR20140076666A (en) * | 2012-12-12 | 2014-06-23 | 엘지전자 주식회사 | image outputting device and method for operating thereof |
KR20150115519A (en) * | 2014-04-04 | 2015-10-14 | 엘지전자 주식회사 | Lighting system and the operating method |
KR20160062521A (en) * | 2014-11-25 | 2016-06-02 | 인제대학교 산학협력단 | System and method for preventing neck disc |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102130761B1 (en) * | 2019-09-02 | 2020-07-08 | 트레스테크(주) | Speaker assembly |
Also Published As
Publication number | Publication date |
---|---|
KR102620967B1 (en) | 2024-01-05 |
WO2019164145A1 (en) | 2019-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10791954B2 (en) | Portable apparatus and method of changing screen of content thereof | |
KR102620967B1 (en) | Electronic apparatus and method of correcting posture thereof | |
US10952667B2 (en) | Device and method of controlling wearable device | |
US20170185276A1 (en) | Method for electronic device to control object and electronic device | |
TWI567587B (en) | Techniques for improved wearable computing device gesture based interactions | |
CN110968189B (en) | Pupil modulation as cognitive control signal | |
KR102616850B1 (en) | An external device capable of being combined with an electronic device, and a display method thereof. | |
US20150355815A1 (en) | Dynamic icons | |
EP3891585A1 (en) | Biofeedback method of modulating digital content to invoke greater pupil radius response | |
US20210394369A1 (en) | Healthcare robot and control method therefor | |
US20230229246A1 (en) | Optimization on an input sensor based on sensor data | |
US11521424B2 (en) | Electronic device and control method therefor | |
US20230376107A1 (en) | Detecting unexpected user interface behavior using physiological data | |
US20200066041A1 (en) | Presentation of content based on attention center of user | |
US20240211040A1 (en) | Methods, systems, and related aspects for determining a cognitive load of a sensorized device user | |
US20230418372A1 (en) | Gaze behavior detection | |
US20240319789A1 (en) | User interactions and eye tracking with text embedded elements | |
Srinivas et al. | A survey report on mobile eye-based Human-Computer Interaction | |
Bleicher | Beyond words | |
WO2023049065A1 (en) | Eye reflections using ir light sources on a transparent substrate | |
TW202122970A (en) | Behavior-based configuration method and behavior-based configuration system | |
CN117590934A (en) | Method and system for activating user interface interaction by using multi-stage gestures | |
EP4388398A1 (en) | Interaction events based on physiological response to illumination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |