KR102330328B1 - Monitoring Method for the Old and the Weak Care - Google Patents
Monitoring Method for the Old and the Weak Care Download PDFInfo
- Publication number
- KR102330328B1 KR102330328B1 KR1020190050129A KR20190050129A KR102330328B1 KR 102330328 B1 KR102330328 B1 KR 102330328B1 KR 1020190050129 A KR1020190050129 A KR 1020190050129A KR 20190050129 A KR20190050129 A KR 20190050129A KR 102330328 B1 KR102330328 B1 KR 102330328B1
- Authority
- KR
- South Korea
- Prior art keywords
- location information
- signal
- reflected wave
- weight
- learning
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012544 monitoring process Methods 0.000 title claims abstract description 40
- 238000004458 analytical method Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 20
- 238000000926 separation method Methods 0.000 claims description 18
- 230000033001 locomotion Effects 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 8
- 230000036541 health Effects 0.000 claims description 8
- 230000003111 delayed effect Effects 0.000 claims description 5
- 230000002093 peripheral effect Effects 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 description 37
- 238000012545 processing Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 17
- 238000003062 neural network model Methods 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000013136 deep learning model Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000000470 constituent Substances 0.000 description 4
- 230000009545 invasion Effects 0.000 description 4
- 230000003862 health status Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000414 obstructive effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005802 health problem Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Theoretical Computer Science (AREA)
- Child & Adolescent Psychology (AREA)
- Heart & Thoracic Surgery (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physiology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Dentistry (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Electromagnetism (AREA)
- Alarm Systems (AREA)
Abstract
본 발명에 의한 노약자 케어를 위한 모니터링 방법은 객체로부터 반사되는 무선신호의 반사파를 검출하여 객체의 위치정보를 획득하는 단계, 위치정보의 변화량을 모니터링하여 시간에 따른 객체의 이동을 파악하는 단계, 및 위치정보에 따라 다르게 설정되는 위치정보 가중치에 비례하는 임계시간 동안, 객체가 이동하지 않을 때 이벤트를 생성하는 단계를 포함한다.A monitoring method for the care of the elderly according to the present invention includes the steps of: detecting a reflected wave of a radio signal reflected from an object to obtain location information of the object; and generating an event when the object does not move during a threshold time proportional to the location information weight set differently according to location information.
Description
본 발명은 노약자 케어를 위한 모니터링 방법에 관한 것으로, 특히 노약자의 건강 이상 상태를 모니터링 할 수 있는 방법에 관한 것이다.The present invention relates to a monitoring method for the care of the elderly, and more particularly, to a method capable of monitoring the health abnormality of the elderly.
가족의 규모가 작아지고, 고령화 사회에 접어들면서 보호자 없이 혼자서 생활하는 노약자들이 증가하고 있다. 혼자서 생활하는 노약자들은 건강 이상 및 위급 상황에 취약한 상태에 방치되기 때문에, 이에 대한 대책이 강구되고 있다. As the size of the family decreases and the aging society enters, the number of elderly and infirm living alone without a guardian is increasing. Since the elderly living alone are left vulnerable to health problems and emergencies, countermeasures are being taken.
폐쇄회로 텔레비전(Closed Circuit Television; 이하, CCTV)이 발전하고 보급화되면서, 노약자들의 건강 상태를 모니터링하기 위해서 거주 공간에 설치된 CCTV를 이용하는 방법이 제안된 바 있다. CCTV와 같이 영상을 바탕으로 노약자를 모니터링하는 방법은 모니터링 대상의 사생활을 상당히 침해하게 된다. 그리고, 영상 촬영을 이용한 모니터링 방법은 장애물로 인한 음영지역이 발생하기 때문에 모니터링 대상 영역에 한계를 갖는다. 또한 주변 조도나 빛 반사로 인해서 영상 촬영이 불가능한 상황이 발생할 수 있기 때문에, 영상 촬영을 이용한 모니터링 방법은 지속적으로 대상을 모니터링 할 수 없는 단점을 갖는다.As Closed Circuit Television (hereinafter referred to as CCTV) develops and spreads, a method of using CCTV installed in a living space to monitor the health status of the elderly has been proposed. A method of monitoring the elderly based on video, such as CCTV, significantly infringes on the privacy of the monitoring target. In addition, the monitoring method using image capturing has a limit in the monitoring target area because a shadow area is generated due to an obstacle. In addition, since a situation may occur in which image capturing is impossible due to ambient illuminance or light reflection, the monitoring method using image capturing has a disadvantage in that it cannot continuously monitor an object.
영상 촬영 이외에 음성 신호를 이용하여 노약자를 모니터링하는 방법이 제안되었지만, 음성 신호를 이용할 경우에도 모니터링 대상자의 사생활 침해 문제는 여전히 해결되지 않는다. 또한 음성 신호를 이용한 방법은 주변 소음으로 인해서 심한 노이즈를 갖기 때문에 정확도가 낮을 뿐만 아니라, 모니터링 대상자가 소리없이 쓰러진 경우에는 대처가 불가능한 문제점을 갖는다.A method of monitoring the elderly using a voice signal other than video recording has been proposed, but even when using a voice signal, the problem of invasion of privacy of the monitored person is still not solved. In addition, the method using the voice signal has a problem in that accuracy is low because it has severe noise due to ambient noise, and it is impossible to cope with the case where the subject to be monitored falls silently.
근래에는 스마트폰 및 신체 부착형 단말기(wearable device)와 같은 휴대용 장치를 이용하여 노약자의 건강 상태를 모니터링하는 방법이 제안되기도 한다. 휴대용 장치는 모니터링 대상자에게 불편함을 줄 수 있고, 모니터링 대상자는 지속적으로 휴대용 장치에 전원 공급을 해야하는 단점을 갖는다.Recently, a method of monitoring the health status of the elderly and weak using portable devices such as smart phones and wearable devices has been proposed. The portable device may cause inconvenience to the monitoring target, and the monitoring target has a disadvantage in that the portable device needs to be continuously supplied with power.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다. SUMMARY OF THE INVENTION The present invention aims to solve the above and other problems.
본 발명은 모니터링 대상자의 사생활 침해를 최소화할 수 있는 노약자 케어를 위한 모니터링 방법을 제공하기 위한 것이다.An object of the present invention is to provide a monitoring method for the care of the elderly that can minimize the invasion of privacy of the subject to be monitored.
또한, 본 발명은 음영지역을 없애면서, 지속적으로 정확하게 노약자의 건강 상태를 모니터링 할 수 있는 방법을 제공하기 위한 것이다.Another object of the present invention is to provide a method for continuously and accurately monitoring the health status of the elderly and infirm while eliminating the shadow area.
또한, 본 발명을 실시하기 위해서 모니터링 대상자의 불편함을 줄일 수 있는 노약자 케어를 위한 모니터링 방법을 제공하기 위한 것이다. In addition, in order to practice the present invention, it is to provide a monitoring method for the care of the elderly that can reduce the discomfort of the subject to be monitored.
상기 기술적 과제를 달성하기 위해, 본 발명에 의한 노약자 케어를 위한 모니터링 방법은 객체로부터 반사되는 무선신호의 반사파를 검출하여 객체의 위치정보를 획득하는 단계, 위치정보의 변화량을 모니터링하여 시간에 따른 객체의 이동을 파악하는 단계, 및 위치정보에 따라 다르게 설정되는 위치정보 가중치에 비례하는 임계시간 동안, 객체가 이동하지 않을 때 이벤트를 생성하는 단계를 포함한다.In order to achieve the above technical problem, the monitoring method for the care of the elderly according to the present invention includes the steps of detecting a reflected wave of a radio signal reflected from an object to obtain location information of the object, and monitoring the amount of change in location information to determine the object over time and generating an event when the object does not move for a critical time proportional to a weight of location information set differently according to location information.
본 발명은 객체를 모니터링 하는 과정에서 영상 촬영이나 음성 신호를 이용하지 않기 때문에, 객체의 사생활 침해를 최소화할 수 있다. Since the present invention does not use image capture or audio signals in the process of monitoring the object, it is possible to minimize the invasion of privacy of the object.
또한, 본 발명은 영상 촬영을 이용하지 않기 때문에, 모니터링 대상의 주변 조도 및 빛 반사로 인해서 객체의 상태를 모니터링하기 곤란한 문제점을 해소할 수 있다. 본 발명은 음성 신호를 이용하지 않기 때문에, 주변의 소음으로 인해서 객체의 상태를 모니터링 하기 곤란한 문제점을 해소할 수 있다. 또한, 처프 레이더 방식을 이용하기 때문에 장애물 영향을 받지않고 객체를 모니터링 할 수 있다. 결과적으로, 본 발명은 방해 요소의 영향을 받지 않고, 음영지역 없이 객체를 모니터링 할 수 있다. In addition, since the present invention does not use image capturing, it is possible to solve the problem of difficult to monitor the state of the object due to the ambient illuminance and light reflection of the monitoring target. Since the present invention does not use a voice signal, it is possible to solve the problem that it is difficult to monitor the state of the object due to the surrounding noise. In addition, because the chirp radar method is used, the object can be monitored without being affected by obstacles. As a result, the present invention can monitor an object without being affected by an obstructive element and without a shadow area.
또한, 본 발명을 실시하기 위해서 객체는 추가적인 장치를 신체에 부착시키거나 보유할 필요가 없기 때문에, 객체는 불편함을 느끼지 않을 수 있다.In addition, since the object does not need to attach or hold an additional device to the body in order to practice the present invention, the object may not feel discomfort.
도 1은 본 발명에 의한 헬스 케어를 위한 모니터링 시스템을 나타내는 도면이다.
도 2는 본 발명에 의한 노약자 케어를 위한 모니터링 방법을 나타내는 도면이다.
도 3은 제1 송신부가 송출하는 Tx1 신호의 실시 예를 나타내는 도면이다.
도 4는 Tx1 신호 및 Rx1 신호들을 나타내는 도면이다.
도 5는 시간에 따른 제1 이격거리 변화의 일례를 나타내는 도면이다.
도 6 및 도 7은 위치정보 산출부가 위치정보를 산출하는 실시 예를 설명하기 위한 도면이다.
도 8은 이벤트 결정부에 속한 인공지능 장치의 구성을 나타내는 도면이다.
도 9는 생체정보 해석부가 생체정보를 해석하는 실시 예를 나타내는 도면이다.1 is a view showing a monitoring system for health care according to the present invention.
2 is a view showing a monitoring method for care for the elderly according to the present invention.
3 is a diagram illustrating an embodiment of a Tx1 signal transmitted by a first transmitter.
4 is a diagram illustrating a Tx1 signal and an Rx1 signal.
5 is a diagram illustrating an example of a change in a first separation distance according to time.
6 and 7 are diagrams for explaining an embodiment in which the location information calculating unit calculates location information.
8 is a diagram illustrating the configuration of an artificial intelligence device belonging to an event determining unit.
9 is a diagram illustrating an embodiment in which a biometric information analysis unit analyzes biometric information.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technology to be described below may have various changes and may have various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, and it should be understood to include all changes, equivalents, or substitutes included in the spirit and scope of the technology described below.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components are not limited by the above terms, and only for the purpose of distinguishing one component from other components. used only as For example, a first component may be named as a second component, and similarly, a second component may also be referred to as a first component without departing from the scope of the technology to be described below. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms of the terms used herein, the singular expression should be understood to include a plural expression unless the context clearly dictates otherwise, and terms such as "comprises" refer to the described feature, number, step, operation, and element. , parts or combinations thereof are to be understood, but not to exclude the possibility of the presence or addition of one or more other features or numbers, step operation components, parts or combinations thereof.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to a detailed description of the drawings, it is intended to clarify that the classification of the constituent parts in the present specification is merely a division according to the main function that each constituent unit is responsible for. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of other constituent units in addition to the main function it is responsible for. Of course, it may be carried out by being dedicated to it.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in performing the method or the method of operation, each process constituting the method may occur differently from the specified order unless a specific order is clearly described in context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
헬스 케어를 위한 모니터링 시스템Monitoring system for healthcare
도 1은 본 발명에 의한 헬스 케어를 위한 모니터링 시스템을 나타내는 도면이다. 1 is a view showing a monitoring system for health care according to the present invention.
도 1을 참조하면, 본 발명에 의한 헬스 케어를 위한 모니터링 시스템은 제1 및 제2 무선신호 송수신기들(110,120) 및 신호 해석부(200)를 포함한다. Referring to FIG. 1 , the monitoring system for health care according to the present invention includes first and second
제1 무선신호 송수신기(110)는 제1 송신부(111) 및 제1 수신부(112)를 포함하고, 제2 무선신호 송수신기(120)는 제2 송신부(121) 및 제2 수신부(122)를 포함한다. 제1 송신부(111)는 Tx1 신호를 송출하고, 제1 수신부(112)는 Tx1 신호가 객체(10)로부터 반사되는 Rx1 신호를 수신한다. 이와 유사하게, 제2 송신부(121)는 Tx2 신호를 송출하고, 제2 수신부(122)는 Tx2 신호가 객체(10)로부터 반사되는 Rx2 신호를 수신한다.The first
Tx(Transmission)는 전송 신호를 나타내고, Rx(Reception)는 수신 신호를 나타낸다.Tx (Transmission) represents a transmission signal, and Rx (Reception) represents a received signal.
즉, Tx 1 신호 및 Tx 2 신호는 각각 전송 신호 1, 전송 신호 2를 나타내고, Rx 1 및 Rx 2는 각각 수신 신호 1, 수신 신호 2를 나타낸다.That is, the Tx 1 signal and the Tx 2 signal respectively indicate the transmission signal 1 and the transmission signal 2, and Rx 1 and Rx 2 indicate the reception signal 1 and the reception signal 2, respectively.
신호 해석부(200)는 신호 처리부(210), 위치정보 산출부(220), 이벤트 결정부(230) 및 생체정보 해석부(240)를 포함한다.The
신호 처리부(210)는 Tx 신호들(Tx1,Tx2) 및 Rx 신호들(Rx1,Rx2)을 증폭하는 증폭부(Amplifier) 및 증폭부에서 증폭된 신호들 중에서 유효 신호를 추출하는 디지털 신호 처리부(Digital Signal Process)를 포함할 수 있다. 증폭부는 저잡음 증폭기(Low Noise Amplifier; LNA)를 이용할 수 있다.The
위치정보 산출부(220)는 신호 처리부(210)로부터의 Tx1 신호 및 Rx1 신호를 바탕으로 제1 무선신호 송수신기(110)와 객체(10) 간의 이격거리를 산출하고, Tx2 신호 및 Rx2 신호를 바탕으로 제2 무선신호 송수신기(120)와 객체(10) 간의 이격거리를 산출한다. 본 명세서에서 객체(10)는 자연인을 지칭하고, 특히 모니터링의 대상이 되는 노약자를 지칭한다.The location
그리고, 위치정보 산출부(220)는 객체(10)와 제1 및 제2 무선신호 송수신기들(110,120) 간의 이격거리를 바탕으로, 객체(10)의 위치정보(Pxy)를 산출한다. 위치정보(Pxy)는 모니터링 대상 영역 내에서 객체(10)의 위치를 표시하는 2차원 좌표를 지칭한다.In addition, the
이벤트 결정부(230)는 위치정보 산출부(220)로부터 위치정보(Pxy)를 전달받고, 위치정보(Pxy)의 변화량에 따라 이벤트 발생 여부를 결정한다. The event determiner 230 receives the location information Pxy from the
특히, 이벤트 결정부(230)는 위치정보(Pxy) 및 메타정보에 따라 다르게 설정된 가중치를 고려하여 이벤트 발생 여부를 결정한다. 이벤트는 위치정보(Pxy)를 바탕으로 모니터링 한 객체(10)의 위치가 일정 시간 동안 한 곳에 머무를 때에 생성될 수 있다. In particular, the event determiner 230 determines whether an event occurs in consideration of weights set differently according to the location information Pxy and meta information. The event may be generated when the location of the monitored
생체정보 해석부(240)는 이벤트가 발생할 때, 객체(10)의 생체정보를 해석한다. 객체(10)의 생체정보는 Rx 신호들(Rx1,Rx2)의 특정 주파수를 바탕으로 획득하고, 획득한 생체정보의 이상 유무를 해석한다. 이벤트 결정부(230)가 획득하는 생체정보는 심박수 등이 될 수 있다. 생체정보 해석부(240)는 해석한 신체정보에 따라 구호조치를 취할 수 있다. 구호조치는 구호기관에 호출하는 동작을 포함할 수 있으며, 이때, 이벤트 결정부(230)가 획득한 신체정보가 구호기관에 전달될 수도 있다.The biometric
노약자 케어를 위한 모니터링 방법Monitoring methods for the care of the elderly
도 2는 본 발명에 의한 노약자 케어를 위한 모니터링 방법을 나타내는 도면이다. 2 is a view showing a monitoring method for care for the elderly according to the present invention.
도 1 및 도 2를 참조하여, 본 발명에 의한 노약자 케어를 위한 모니터랑 방법을 구체적으로 살펴보면 다음과 같다. With reference to FIGS. 1 and 2 , the monitoring method for the care of the elderly according to the present invention will be described in detail as follows.
제1 단계(S210)에서, 위치정보 산출부(220)는 무선신호의 반사파를 바탕으로 객체(10)의 위치정보(Pxy)를 획득한다. In the first step (S210), the
객체(10)의 위치정보(Pxy)를 획득하기 위해서, 위치정보 산출부(220)는 제1 무선신호 송수신기(110)와 객체(10) 간의 이격거리 및 제2 무선신호 송수신기(120)와 객체(10) 간의 이격거리를 산출한다. In order to obtain the location information (Pxy) of the
먼저, 제1 무선신호 송수신기(110)와 객체(10) 간의 이격거리를 산출하는 방법을 살펴보면 다음과 같다.First, a method of calculating the separation distance between the first
제1 무선신호 송수신기(110)는 객체(10)와의 이격거리를 산출하기 위해서, Tx1 신호를 송출하고, Rx1 신호들을 수신한다. 도 3은 제1 송신부가 송출하는 Tx1 신호의 실시 예를 나타내는 도면이고, 도 4는 Tx1 신호 및 제1 수신부가 수신하는 Rx1 신호들을 나타내는 도면이다. The first
도 3 및 도 4를 참조하면, 제1 송신부(111)는 시간에 따라 주파수가 가변하는 쳐프 신호(Chirp Signal)를 Tx1 신호로 송출할 수 있다. 제1 수신부(112)가 수신하는 Rx1 신호들은 Tx1 신호와 마찬가지로 시간에 따라 주파수가 달라지며, Tx1 신호가 지연된 것과 같다. Tx1 신호는 서로 이격거리가 다른 다양한 물체들에 의해서 반사되기 때문에, 도 4에서와 같이 제1 수신부(112)는 다수의 Rx1 신호들을 수신할 수 있다. Tx1 신호와 Rx1 신호들은 시간에 따라 주파수가 달라지기 때문에, 특정 시점에 수신되는 Rx1 신호의 주파수는 어느 시점의 Tx1 신호가 지연된 것이지 알 수 있다.3 and 4 , the
이와 유사하게, 제2 송신부(121)는 Tx2 신호를 송출하고, 제2 수신부(122)는 Rx2 신호를 수신한다. Similarly, the
신호 처리부(210)는 제1 무선신호 송수신기(110)로부터의 Tx1 신호 및 Rx1 신호들과 함께 제2 무선신호 송수신기(120)로부터의 Tx2 신호 및 Rx2 신호들을 제공받는다. The
신호 처리부(210)는 Tx 신호들(Tx1,Tx2) 및 Rx 신호들(Rx1,Rx2)을 증폭하고, 증폭된 신호들 중에서 유효 신호를 추출한다. The
위치정보 산출부(220)는 신호 처리부(210)를 경유한 Tx 신호들(Tx1,Tx2) 및 Rx 신호들(Rx1,Rx2)을 제공받는다.The location
위치정보 산출부(220)는 다수의 Rx1 신호들 중에서 어느 하나의 신호를 객체(10)로부터 반사되는 반사파로 추정한다. 위치정보 산출부(220)는 Rx1 신호들이 지연되는 변화량을 바탕으로 객체(10)로부터의 반사파를 추정한다. 객체(10)는 자연인이기 때문에 조금씩이라도 지속적으로 움직이고, 객체(10)로부터의 반사파는 지연되는 정도가 지속적으로 달라진다. 따라서, 위치정보 산출부(220)는 지속적으로 지연되는 정도가 달라지는 Rx1 신호가 객체(10)로부터 반사되는 반사파인 것으로 추정한다. 이하, 본 명세서에서 Rx1 신호 및 Rx2 신호는 객체(10)로부터 반사되는 반사파를 지칭하기로 한다.The
위치정보 산출부(220)는 Rx1 신호가 Tx1 신호로부터 지연되는 정도를 바탕으로 제1 무선신호 송수신기(110)와 객체(10) 간의 제1 이격거리를 산출한다. 위치정보 산출부(220)는 도 5에서와 같이, 시간에 따라 제1 이격거리(d1)의 변화를 산출할 수 있다. The
이와 같은 방법으로 위치정보 산출부(220)는 Tx2 신호 및 Rx2 신호를 바탕으로, 제2 무선신호 송수신기(120)와 객체(10) 간의 제2 이격거리를 변화를 산출할 수 있다.In this way, the
위치정보 산출부(220)는 제1 및 제2 이격거리를 바탕으로 객체(10)의 위치정보(Pxy)를 산출한다. 위치정보(Pxy)는 모니터링 대상 영역 내에서 객체(10)의 위치를 표시하는 2차원 좌표에 해당할 수 있다.The
도 6 및 도 7은 위치정보 산출부가 위치정보를 산출하는 실시 예를 설명하기 위한 도면이다. 도 6은 모니터링 대상 영역을 도시하고 있고, 도 7은 모니터링 대상 영역을 2차원 좌표로 변환한 것을 도시하고 있다.6 and 7 are diagrams for explaining an embodiment in which the location information calculating unit calculates location information. 6 illustrates a monitoring target area, and FIG. 7 illustrates a transformation of the monitoring target area into two-dimensional coordinates.
도 6 및 도 7을 참조하면, 제1 무선신호 송수신기(110)의 위치는 좌표상에서 "x1" 좌표로 표시되고, 제2 무선신호 송수신기(120)의 위치는 좌표상에서 "x2" 좌표로 표시된다. x1 좌표 및 x2 좌표 간의 이격거리(ds)는 위치정보 산출부(220)에 미리 저장된다.6 and 7 , the position of the first
위치정보 산출부(220)는 임의의 타이밍에서 제1 이격거리(d1)와 제2 이격거리(d2)를 바탕으로 객체(10)의 위치정보(Pxy)에 해당하는 2차원 좌표를 산출한다. 위치정보 산출부(220)는 임의의 타이밍에서 객체(10)의 위치정보(Pxy)를 산출할 수 있고, 시계열적으로 연속적인 객체(10)의 위치정보(Pxy)를 일정 시간 단위로 산출한다. The location
제2 단계(S220)에서, 이벤트 결정부(230)는 위치정보(Pxy)의 변화량을 바탕으로 객체(10)의 움직임을 모니터링한다. In the second step (S220), the
이벤트 결정부(230)는 2회의 타이밍에서 각각 산출된 위치정보(Pxy)들을 연결하는 벡터를 생성할 수 있고, 벡터의 크기를 위치정보(Pxy)의 변화량으로 결정할 수 있다. 위치정보 산출부(220)는 무선신호를 해석하는 분해능에 따라 1 밀리미터(mm) 내외의 위치정보(Pxy)의 변화량을 파악할 수 있다. 본 발명의 실시 예에서 이벤트는 객체(10)가 이동하는지 여부에 따라 결정되기 때문에, 위치정보(Pxy)의 변화량이 수 센티미터(cm) 이하일 때에는 객체(10)가 이동하지 않는 것으로 간주할 수 있다. 이벤트 결정부(230)는 미리 설정된 이동 임계치를 바탕으로, 위치정보(Pxy)의 변화량이 이동 임계치 이상일 때 객체(10)가 이동한다고 판단한다. The
제3 단계(S230)에서, 이벤트 결정부(230)는 임계시간 동안 객체(10)의 이동이 없는지를 모니터링한다.In the third step (S230), the
제4 단계(S240)에서, 이벤트 결정부(230)는 객체(10)가 이동하지 않는 상태가 임계시간에 도달할 때에 이벤트를 발생시킨다. 즉, 이벤트 결정부(230)는 객체(10)가 특정 장소에서 머무르는 기간이 필요 이상으로 길어질 때, 객체(10)의 신체에 이상이 있다고 판단하여 이벤트를 결정한다.In the fourth step (S240), the
모니터링 대상 영역, 예컨대 주거 공간 내에서 객체(10)의 활동 시간은 상이하다. 예컨대, 침대가 놓여져 있는 방에서는 오랜 시간동안 머무를 수 있고, 화장실이나 현관 앞에서는 상대적으로 머무르는 시간이 짧다. 따라서, 이벤트 결정의 기준이 되는 임계시간은 객체(10)의 위치정보(Pxy)에 따라 달라진다. 즉, 이벤트 결정부(230)는 위치정보(Pxy)에 따라 위치정보 가중치(Wp)를 다르게 하여 임계시간을 설정한다. The active time of the
다음의 표 1은 위치정보에 따라 설정되는 위치정보 가중치의 일례를 나타내는 표이다.Table 1 below is a table showing an example of location information weights set according to location information.
이벤트 결정부(230)는 기준시간(T_ref)과 위치정보 가중치(Wp)의 곱한 결과를 임계시간(T_th)으로 설정할 수 있다. 즉, "T_refХWp"로 연산된 결과를 임계시간(T_th)으로 설정할 수 있다. 기준시간(T_ref)이 100(초)로 설정되면, 화장실에 속하는 좌표에 대한 임계시간은 "600초=10분"에 해당한다. 즉, 이벤트 결정부(230)는 객체(10)의 위치정보(Pxy)가 화장실에 속한 상태에서 10분 동안 이동하지 않는 상태라고 판단할 때, 이벤트를 발생시킨다. The
표 1은 본 발명을 설명하기 위한 개략적인 가중치를 나타낸 것이고, 모니터링 대상 영역은 표 1에 표기된 것보다 세분화 된 영역으로 분류될 수 있다. 예컨대, 객체(10)는 욕실 내에서도 욕조와 세면대를 이용할 때의 시간이 상이할 수 있기 때문에, 욕실내의 영역을 세분화하여 가중치를 부여할 수 있다. 마찬가지로, 침대가 놓인 "방1"의 가중치는 침대가 위치한 영역과 침대 이외의 영역에 대한 가중치가 달라질 수 있다. Table 1 shows schematic weights for explaining the present invention, and the monitoring target area may be classified into a more subdivided area than shown in Table 1. For example, since the time when using the bathtub and the washbasin may be different for the
이벤트 결정부(230)는 임계시간(T_th)을 산출하는 과정에서 메타정보를 고려할 수 있다. 메타정보는 월(month), 일(day), 시간, 날씨, 온도 등을 포함할 수 있다. The
이벤트 결정부(230)는 메타정보들 각각에 대한 메타정보 가중치(Wm)를 부여하고, 메타정보 가중치(Wm)가 고려된 임계시간(T_th)을 산출할 수 있다. 예컨대, 이벤트 결정부(230)는 기준시간(T_ref), 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)에 비례하도록 임계시간(T_th)을 산출할 수 있다. 즉, "T_refХWpХWm"의 연산을 통해서 임계시간(T_th)을 산출할 수 있다. The
임의의 메타정보 가중치(Wm)는 모든 위치정보(Pxy)에 대해서 동일하거나, 각각의 위치정보(Pxy)에 따라 메타정보 가중치(Wm)도 달라질 수 있다. 또는 메타정보 가중치(wm)는 특정 위치정보(Pxy)에 한해서만 고려될 수 있다. 또한, 임의의 위치정보(Pxy)에 따라서 둘 이상의 메타정보들이 반영될 수도 있다.The arbitrary meta information weight Wm may be the same for all location information Pxy, or the meta information weight Wm may vary according to each location information Pxy. Alternatively, the meta information weight wm may be considered only for specific location information Pxy. In addition, two or more meta-information may be reflected according to arbitrary location information Pxy.
다음의 표 2는 시간에 대한 메타정보 가중치의 일례를 나타내는 표이다.Table 2 below is a table showing an example of meta information weights with respect to time.
location information
표 2를 참조하면, 위치정보가 "침대" 영역에 속할 경우, 08시부터 22시 내에서 메타정보 가중치(Wm)는 "0.1"의 크기를 갖는다. 이는 취침 시간 이외에는 객체(10)가 침대 영역에 오랜 시간 머무르지 않는다는 것을 고려하여, 해당 시간 범위에서 임계시간(T_th)을 10% 줄이기 위한 것이다.Referring to Table 2, when the location information belongs to the "bed" area, the meta information weight Wm has a size of "0.1" from 08:00 to 22:00. This is to reduce the critical time (T_th) by 10% in the corresponding time range considering that the
위치정보가 "욕실" 영역에 속할 경우, 08시부터 09시 내에서 메타정보 가중치(Wm)는 "1.5"의 크기를 갖는다. 이는 오전 시간 동안 객체(10)가 욕실 이용하는 시간을 고려하여, 해당 시간 범위에서 임계시간(T_th)을 늘리기 위한 것이다. When the location information belongs to the "bathroom" area, the meta information weight Wm has a size of "1.5" from 08:00 to 09:00. This is to increase the threshold time T_th in the corresponding time range in consideration of the time the
이처럼, 메타정보 가중치(Wm)는 객체(10)가 특정 시간에서 특정 장소 내에 머무르는 시간을 고려하여 임계시간(T_th)을 조절하도록 설정될 수 있다.As such, the meta information weight Wm may be set to adjust the threshold time T_th in consideration of the time the
이와 유사하게 메타정보 가중치(Wm)는 메타정보에 따라 객체(10)가 특정 장소에 머무르는 시간이 달라지는 것을 고려하여 설정될 수 있다. Similarly, the meta-information weight Wm may be set in consideration of a change in the length of time the
상술한 바와 같이, 이벤트 결정부(230)는 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 이용하여 이벤트 발생의 기준이 되는 임계시간(T_th)을 산출한다. 특히, 이벤트 결정부(230)는 인공지능 기반으로 위치정보(Pxy) 및 메타정보들을 학습하고, 이를 바탕으로 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 실시간으로 수정할 수 있다. As described above, the
객체(10)의 생활패턴은 수시로 달라질 수 있고, 모니터링 대상이 되는 공간의 구조 또한 달라질 수 있다. 따라서 객체(10)의 생활패턴 및 모니터링 대상의 공간을 고려하여 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 설정한다고 할지라도, 시간이 지나면서 이벤트 발생을 결정하는 정확도가 저하될 수 있다. The living pattern of the
이벤트 결정부(230)는 시계열적으로 변하는 위치정보(Pxy)를 축적하고, 이를 학습하여 객체(10)의 이동 패턴을 분석할 수 있다. 이벤트 결정부(230)는 이와 같이 인공지능기반으로 학습된 객체(10)의 이동 패턴을 고려하여 위치정보 가중치(Wp)를 수정할 수 있다. The
또한, 이벤트 결정부(230)는 객체(10)의 이동 패턴을 학습하는 동시에 메타정보들의 변화를 학습한다. 그리고 이벤트 결정부(230)는 객체(10)의 이동 패턴에 메타정보들이 관여하는 것을 분석하고, 이를 바탕으로 메타정보 가중치(Wm)를 수정할 수 있다. In addition, the
이벤트 결정부(230)는 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 수정하는 과정에서 다른 객체의 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 고려할 수 있다. 이벤트 결정부(230)는 다른 객체들의 나이, 성별, 생활패턴 등을 고려하여 객체들 간의 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 학습하고, 이를 반영할 수 있다. The
특히, 이벤트 결정부(230)는 이벤트가 발생하였을 때와, 이벤트 발생에 따라 객체(10)의 생체정보를 해석한 결과를 추가로 학습하여 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 수정할 수 있다. In particular, the
상술한 바와 같은 AI 프로세싱을 수행하기 위해서, 본 발명의 이벤트 결정부(230)는 AI 장치를 포함할 수 있다.In order to perform the AI processing as described above, the
본 발명의 실시 예에 따른 AI 장치(20)는 AI 프로세싱을 수행할 수 있는 AI 모듈을 포함하는 전자 기기 또는 AI 모듈을 포함하는 서버 등을 포함할 수 있다. 또한, AI 장치(20)는 이벤트 결정부(230)의 적어도 일부의 구성으로 포함되어 AI 프로세싱 중 적어도 일부를 함께 수행하도록 구비될 수도 있다.The
AI 프로세싱은, 이벤트 결정부(230)의 제어와 관련된 모든 동작들을 포함할 수 있다. 예를 들어, 이벤트 결정부(230)는 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 AI 프로세싱 하여 처리/판단하고, 이벤트 결정을 할 수 있다. AI processing may include all operations related to the control of the
AI 장치(20)는 AI 프로세싱 결과를 직접 이용하는 클라이언트 디바이스이거나, AI 프로세싱 결과를 다른 기기에 제공하는 클라우드 환경의 디바이스일 수도 있다.The
도 8을 참조하면, 본 발명에 따른 AI 장치(20)는 AI 프로세서(21), 메모리(25) 및/또는 통신부(27)를 포함할 수 있다.Referring to FIG. 8 , the
AI 장치(20)는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 서버, 데스크탑 PC, 노트북 PC, 태블릿 PC 등과 같은 다양한 전자 장치로 구현될 수 있다.The
AI 프로세서(21)는 메모리(25)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(21)는 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 인식하기 위한 신경망은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 모드들은 뉴런이 시냅스(synapse)를 통해 신호를 주고 받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고 받을 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.The
한편, 전술한 바와 같은 기능을 수행하는 프로세서는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU)일 수 있다.Meanwhile, the processor performing the above-described function may be a general-purpose processor (eg, CPU), but may be an AI-only processor (eg, GPU) for artificial intelligence learning.
메모리(25)는 AI 장치(20)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(25)는 비 휘발성 메모리, 휘발성 메모리, 플래시 메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SDD) 등으로 구현할 수 있다. 메모리(25)는 AI 프로세서(21)에 의해 액세스되며, AI 프로세서(21)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(25)는 본 발명의 일 실시예에 따른 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥 러닝 모델(26))을 저장할 수 있다.The
한편, AI 프로세서(21)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(22)를 포함할 수 있다. 데이터 학습부(22)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(22)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다. Meanwhile, the
데이터 학습부(22)는 적어도 하나의 하드웨어 칩 형태로 제작되어 AI 장치(20)에 탑재될 수 있다. 예를 들어, 데이터 학습부(22)는 인공지능(AI)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 AI 장치(20)에 탑재될 수도 있다. 또한, 데이터 학습부(22)는 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 애플리케이션에 의해 제공될 수 있다. The
데이터 학습부(22)는 학습 데이터 획득부(23) 및 모델 학습부(24)를 포함할 수 있다. The
학습 데이터 획득부(23)는 데이터를 분류하고 인식하기 위한 신경망 모델에 필요한 학습 데이터를 획득할 수 있다. 예를 들어, 학습 데이터 획득부(23)는 학습 데이터로서, 신경망 모델에 입력하기 위한 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 획득할 수 있다.The training
모델 학습부(24)는 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류할지에 관한 판단 기준을 가지도록 학습할 수 있다. 이 때 모델 학습부(24)는 학습 데이터 중 적어도 일부를 판단 기준으로 이용하는 지도 학습(supervised learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또는 모델 학습부(24)는 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 판단 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 학습에 따른 상황 판단의 결과가 올바른지에 대한 피드백을 이용하여 강화 학습(reinforcement learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다. The
신경망 모델이 학습되면, 모델 학습부(24)는 학습된 신경망 모델을 메모리에 저장할 수 있다. 모델 학습부(24)는 학습된 신경망 모델을 AI 장치(20)와 유선 또는 무선 네트워크로 연결된 서버의 메모리에 저장할 수도 있다.When the neural network model is trained, the
데이터 학습부(22)는 인식 모델의 분석 결과를 향상시키거나, 인식 모델의 생성에 필요한 리소스 또는 시간을 절약하기 위해 학습 데이터 전처리부(미도시) 및 학습 데이터 선택부(미도시)를 더 포함할 수도 있다. The
학습 데이터 전처리부는 획득된 데이터가 상황 판단을 위한 학습에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 예를 들어, 학습 데이터 전처리부는, 모델 학습부(24)가 이미지 인식을 위한 학습을 위하여 획득된 학습 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.The learning data preprocessor may preprocess the acquired data so that the acquired data can be used for learning for situation determination. For example, the training data preprocessor may process the acquired data into a preset format so that the
또한, 학습 데이터 선택부는, 학습 데이터 획득부(23)에서 획득된 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부(24)에 제공될 수 있다. 예를 들어, 학습 데이터 선택부는 위치정보 산출부(220)가 획득한 위치정보 중에서 특정 영역을 중심으로 학습 데이터를 선택할 수도 있다.In addition, the learning data selection unit may select data required for learning from among the learning data acquired by the learning
또한, 데이터 학습부(22)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(미도시)를 더 포함할 수도 있다.In addition, the
모델 평가부는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(22)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 인식 모델을 평가하기 위한 기 정의된 데이터일 수 있다. 일 예로, 모델 평가부는 평가 데이터에 대한 학습된 인식 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정되 임계치를 초과하는 경우, 소정 기준을 만족하지 못한 것으로 평가할 수 있다.The model evaluator may input evaluation data to the neural network model and, when an analysis result output from the evaluation data does not satisfy a predetermined criterion, may cause the
통신부(27)는 외부로부터 메타정보를 수신하고, 또한 AI 프로세싱 결과를 외부로 전송할 수 있다. 예컨대, 통신부(27)는 기상관측서버를 통해서 날씨 등의 메타정보를 수신할 수 있다. 또한, 생체정보 해석부(240)의 결과에 따라, 통신부(27)를 통해서 구호기관에 구호조치가 전달될 수 있다. The
한편, 도 8에 도시된 AI 장치(20)는 AI 프로세서(21)와 메모리(25), 통신부(27) 등으로 기능적으로 구분하여 설명하였지만, 전술한 구성요소들이 하나의 모듈로 통합되어 AI 모듈로 호칭될 수도 있다. 또한, 도 8에 도시된 AI 장치(20)는 하나의 실시 예에 해당하며, AI 프로세싱을 위해서 추가적인 구성이 더해줄 수도 있고, 임의의 구성은 생략될 수도 있다.On the other hand, the
제5 단계(S250)에서, 생체정보 해석부(240)는 이벤트가 발생하였을 때, 객체(10)의 생체정보를 해석한다.In the fifth step (S250), the biometric
생체 정보 해석 방법How to interpret biometric information
도 9는 생체정보 해석부(240)가 생체정보를 해석하는 실시 예를 나타내는 도면이다. 9 is a diagram illustrating an embodiment in which the biometric
도 9를 참조하면, 생체정보 해석부(240)는 반사파를 바탕으로 생체정보를 해석한다. 예컨대, Rx1 신호는 메인 주파수(fm)와 주변 주파수(fs)를 포함할 수 있다. 메인 주파수(fm)는 앞서 설명된 객체(10)의 움직임을 파악하는 데에 이용된다. Rx1 신호는 객체(10)의 움직임 이외에도, 객체(10)의 심박수 또는 호흡 등에 따라서 미세한 주변 주파수(fs)가 혼합된다. 주변 주파수(fs)는 객체(10)의 위치정보(Pxy)를 산출하는 과정에서 노이즈(noise)로 간주되지만, 생체정보 해석부(240)는 주변 주파수(fs)의 특정 주파수 성분을 검출하고, 이를 바탕으로 객체(10)의 심박수 등의 생체정보를 획득할 수 있다. Referring to FIG. 9 , the biometric
생체정보 해석부(240)는 생체정보 변화량이 순간적으로 크게 변할 경우, 객체(10)의 건강 이상이 도래하였다고 판단하고 알람을 생성한다.When the amount of change in the biometric information changes greatly instantaneously, the biometric
생체정보 해석부(240)는 인공지능 기반으로 생체정보를 학습하고, 이를 바탕으로 알람을 생성할 수 있다. 또한, 생체정보 해석부(240)는 생체정보를 학습하는 과정에서, 다른 객체들의 생체정보 학습 결과를 고려할 수 있다.The biometric
제6 단계(S260)에서, 생체정보 해석부(240)로부터 객체(10)의 건강 이상 징후에 대한 알람이 생성되었을 때, 신호 해석부(200)는 구제기간에 호출하는 등의 구호조치를 취한다.In the sixth step (S260), when an alarm about the health abnormality of the
살펴본 바와 같이, 본 발명은 레이더 방식으로 객체(10)의 건강 상태를 모니터링 할 수 있다.As described above, the present invention can monitor the health state of the
본 발명은 영상 촬영이나 음성 신호를 바탕으로 객체(10)를 모니터링 하는 것이 아니기 때문에, 객체(10)의 사생활 침해를 최소화할 수 있다. Since the present invention does not monitor the
또한, 본 발명은 영상 촬영을 이용하지 않기 때문에, 모니터링 대상의 주변 조도 및 빛 반사로 인해서 객체(10)의 상태를 모니터링하기 곤란한 문제점을 해소할 수 있다. 본 발명은 음성 신호를 이용하지 않기 때문에, 주변의 소음으로 인해서 객체(10)의 상태를 모니터링 하기 곤란한 문제점을 해소할 수 있다. 또한, 처프 레이더와 같은 무선신호는 제1 및 제2 무선신호 송수신기들(110,120)과 객체(10) 사이에 장애물 영향을 받지않고 객체(10)를 모니터링 할 수 있다. 이처럼 본 발명은 방해 요소의 영향을 받지 않고, 음영지역 없이 객체(10)를 모니터링 할 수 있다. In addition, since the present invention does not use image capturing, it is possible to solve the problem that it is difficult to monitor the state of the
또한, 본 발명을 실시하기 위해서 객체(10)는 추가적인 장치를 신체에 부착시키거나 보유할 필요가 없기 때문에, 객체(10)는 불편함을 느끼지 않을 수 있다. In addition, since the
본 발명의 실시 예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시 예는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.Embodiments of the present invention and the drawings attached to this specification merely clearly show some of the technical ideas included in the above-described technology, and those skilled in the art can Modifications and specific embodiments that can be easily inferred will be apparent to be included in the scope of the above-described technology.
10: 객체 110, 120: 무선신호 송수신기
200: 신호 해석부 210: 신호 처리부
220: 위치정보 산출부 230: 이벤트 결정부
240: 생체정보 해석부10:
200: signal analysis unit 210: signal processing unit
220: location information calculation unit 230: event determination unit
240: biometric information analysis unit
Claims (6)
제 1 무선신호 송수신기와 객체 간 송수신되는 송수신 신호들을 저잡음 증폭기를 통해 증폭하고, 상기 증폭된 송수신 신호들 중에서 유효 신호를 추출하는 단계;
상기 추출된 유효 신호에서 수신 신호들의 지연되는 변화량에 기초하여 어느 하나의 수신 신호를 상기 객체로부터 반사되는 제 1 반사파로 결정하는 단계;
제 2 무선신호 송수신기와 상기 객체 간 송수신되는 송수신 신호들을 저잡음 증폭기를 통해 증폭하고, 상기 증폭된 송수신 신호들 중에서 유효 신호를 추출하는 단계;
상기 추출된 유효 신호에서 수신 신호들의 지연되는 변화량에 기초하여 어느 하나의 수신 신호를 상기 객체로부터 반사되는 제 2 반사파로 결정하는 단계;
상기 제 1 반사파의 지연 정도에 기초하여 상기 제 1 무선신호 송수신기와 상기 객체 간의 제 1 이격거리를 산출하는 단계;
상기 제 2 반사파의 지연 정도에 기초하여 상기 제 2 무선신호 송수신기와 상기 객체 간의 제 2 이격거리를 산출하는 단계;
상기 제 1 이격거리 및 상기 제 2 이격거리에 기초하여 2차원 좌표로 산출되는 상기 객체의 위치정보를 획득하는 단계;
상기 위치정보의 변화량과 미리 설정된 이동 임계치를 비교하여 상기 객체의 이동 여부를 결정하는 단계; 및
임계시간 동안 상기 객체가 이동하지 않을 때 이벤트를 생성하는 단계를 포함하되,
상기 임계시간은 기준시간, 위치정보 가중치 및 메타정보 가중치의 곱에 기초하여 설정되며,
상기 위치정보 가중치는 상기 위치정보에 따라 다르게 설정되며,
상기 제1 반사파 및 상기 제2 반사파에 기초하여 상기 객체의 생체 정보를 해석하는 단계를 더 포함하되,
상기 제1 반사파 및 상기 제2 반사파는 각각 메인 주파수와 주변 주파수를 포함하며,
상기 생체 정보를 해석하는 단계는,
상기 제1 반사파 및 상기 제2 반사파에서 각각 주변 주파수를 검출하고, 상기 검출된 주변 주파수의 특정 주파수 성분에 기초하여 상기 객체의 심박수를 해석하며,
상기 획득되는 객체의 위치정보는 시계열적으로 연속적인 객체의 위치정보를 소정 시간 단위로 산출하며,
상기 위치정보의 변화량은 2회의 타이밍에서 각각 산출된 위치정보를 연결하는 벡터의 크기로 결정되며,
상기 메타정보 가중치는 메타정보에 따라 객체가 특정 장소에 머무르는 시간에 기초하여 설정되며,
상기 메타정보는 월, 일, 시간, 날씨 또는 온도 중 적어도 하나를 포함하며,
상기 위치정보 가중치는 상기 획득되는 위치정보의 학습을 통해 분석되는 객체의 이동 패턴에 기초하여 수정되며,
상기 메타정보 가중치는 상기 객체의 이동 패턴 및 상기 메타정보의 변화에 대한 학습을 통해 분석된 결과에 기초하여 수정되며,
상기 위치정보 가중치 및 상기 메타정보 가중치는 상기 생성된 이벤트에 따른 객체의 생체정보에 대한 학습한 결과를 바탕으로 수정되는 것을 특징으로 하는 노약자 케어를 위한 모니터링 방법.In a monitoring method for care for the elderly in a monitoring system for health care,
Amplifying the transmission/reception signals transmitted/received between the first wireless signal transceiver and the object through a low noise amplifier, and extracting an effective signal from the amplified transmission/reception signals;
determining any one received signal as a first reflected wave reflected from the object based on a delayed change amount of the received signals in the extracted valid signal;
amplifying the transmission/reception signals transmitted/received between the second wireless signal transceiver and the object through a low noise amplifier, and extracting an effective signal from the amplified transmission/reception signals;
determining any one received signal as a second reflected wave reflected from the object based on a delayed change amount of the received signals in the extracted valid signal;
calculating a first separation distance between the first radio signal transceiver and the object based on the delay degree of the first reflected wave;
calculating a second separation distance between the second wireless signal transceiver and the object based on the delay degree of the second reflected wave;
obtaining location information of the object calculated as two-dimensional coordinates based on the first separation distance and the second separation distance;
determining whether to move the object by comparing the change amount of the location information with a preset movement threshold; and
Including generating an event when the object does not move for a threshold time,
The threshold time is set based on the product of the reference time, the location information weight, and the meta information weight,
The location information weight is set differently according to the location information,
Further comprising the step of analyzing the biometric information of the object based on the first reflected wave and the second reflected wave,
The first reflected wave and the second reflected wave each include a main frequency and a peripheral frequency,
Interpreting the biometric information comprises:
Detecting an ambient frequency from each of the first reflected wave and the second reflected wave, and interpreting the heart rate of the object based on a specific frequency component of the detected ambient frequency,
The obtained location information of the object calculates the location information of the object continuously in time series in a predetermined time unit,
The change amount of the location information is determined by the size of a vector connecting the location information calculated at two timings,
The meta information weight is set based on the time the object stays in a specific place according to the meta information,
The meta information includes at least one of month, day, time, weather, and temperature,
The location information weight is modified based on the movement pattern of the object analyzed through learning of the obtained location information,
The meta information weight is modified based on the analysis result through learning about the movement pattern of the object and the change of the meta information,
The location information weight and the meta information weight is a monitoring method for care for the elderly, characterized in that it is modified based on a result of learning about the biometric information of the object according to the generated event.
상기 위치정보 가중치 및 상기 메타정보 가중치는 다른 객체의 위치정보 가중치 및 메타정보 가중치를 추가적으로 고려하여 수정되는 노약자 케어를 위한 모니터링 방법.The method of claim 1,
The location information weight and the meta information weight are modified by additionally considering the location information weight and the meta information weight of another object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190050129A KR102330328B1 (en) | 2019-04-29 | 2019-04-29 | Monitoring Method for the Old and the Weak Care |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190050129A KR102330328B1 (en) | 2019-04-29 | 2019-04-29 | Monitoring Method for the Old and the Weak Care |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200126300A KR20200126300A (en) | 2020-11-06 |
KR102330328B1 true KR102330328B1 (en) | 2021-11-24 |
Family
ID=73572119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190050129A KR102330328B1 (en) | 2019-04-29 | 2019-04-29 | Monitoring Method for the Old and the Weak Care |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102330328B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100824727B1 (en) * | 2006-12-15 | 2008-04-24 | 티이씨네트웍스 주식회사 | Location information service system and the method which use the lbs |
KR101519907B1 (en) * | 2014-11-12 | 2015-05-18 | 문기영 | System for taking care of alienated people living alone |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101293195B1 (en) * | 2011-12-29 | 2013-08-05 | 세종대학교산학협력단 | Device and method for searching indoor position |
KR101665786B1 (en) * | 2014-12-05 | 2016-10-13 | 현대오트론 주식회사 | Method and apparatus for measuring a distance using ultrasonic waves |
KR20160132744A (en) * | 2015-05-11 | 2016-11-21 | 삼성전자주식회사 | User terminal apparatus and control method thereof |
KR101871052B1 (en) * | 2016-10-18 | 2018-06-25 | 조선대학교산학협력단 | Hybrid indoor positioning system and method thereof |
KR20180110808A (en) * | 2017-03-30 | 2018-10-11 | 씨아이에스포유 주식회사 | Apparatus for determining the emergency situation of the old and the infirm |
-
2019
- 2019-04-29 KR KR1020190050129A patent/KR102330328B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100824727B1 (en) * | 2006-12-15 | 2008-04-24 | 티이씨네트웍스 주식회사 | Location information service system and the method which use the lbs |
KR101519907B1 (en) * | 2014-11-12 | 2015-05-18 | 문기영 | System for taking care of alienated people living alone |
Also Published As
Publication number | Publication date |
---|---|
KR20200126300A (en) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11902857B2 (en) | Handling concept drift in Wi-Fi-based localization | |
Damodaran et al. | Device free human activity and fall recognition using WiFi channel state information (CSI) | |
US9568594B2 (en) | Human posture feature extraction in personal emergency response systems and methods | |
Yu et al. | Noninvasive human activity recognition using millimeter-wave radar | |
US9568595B2 (en) | Ultra-wide band antenna arrays and related methods in personal emergency response systems | |
US20220070633A1 (en) | Proximity-based model for indoor localization using wireless signals | |
Rastogi et al. | A systematic review on machine learning for fall detection system | |
Jung et al. | Sequential pattern profiling based bio-detection for smart health service | |
KR102045741B1 (en) | Device, method and program for providing the health care data of companion animal | |
CN112806975A (en) | Sleep monitoring device, method and medium based on millimeter wave radar | |
Lin et al. | A new method for heart rate prediction based on LSTM-BiLSTM-Att | |
US20230206078A1 (en) | Anatomical position monitoring for bodily pressure ulcers | |
CN113257415A (en) | Health data collection device and system | |
CN111387936A (en) | Sleep stage identification method, device and equipment | |
KR102274581B1 (en) | Method for generating personalized hrtf | |
CN114818788A (en) | Tracking target state identification method and device based on millimeter wave perception | |
Ammae et al. | Unobtrusive detection of body movements during sleep using Wi-Fi received signal strength with model adaptation technique | |
Behmann et al. | Support Vector machine and duration-aware conditional random field for identification of spatio-temporal activity patterns by combined indoor positioning and heart rate sensors | |
Showmik et al. | Human activity recognition from wi-fi csi data using principal component-based wavelet cnn | |
KR102349851B1 (en) | System and method for providing multi-object recognition service using camera for pet | |
KR102330328B1 (en) | Monitoring Method for the Old and the Weak Care | |
KR20190110276A (en) | Multi-sensor based noncontact sleep monitoring method and apparatus using ensemble of deep neural network and random forest | |
Liu et al. | Human behavior sensing: challenges and approaches | |
CN108604399B (en) | Occupancy sensing system and sensing method | |
KR102303633B1 (en) | Smart Home Care System Using Emotional and Status Analysing of Compansion Animal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |