KR102330328B1 - Monitoring Method for the Old and the Weak Care - Google Patents

Monitoring Method for the Old and the Weak Care Download PDF

Info

Publication number
KR102330328B1
KR102330328B1 KR1020190050129A KR20190050129A KR102330328B1 KR 102330328 B1 KR102330328 B1 KR 102330328B1 KR 1020190050129 A KR1020190050129 A KR 1020190050129A KR 20190050129 A KR20190050129 A KR 20190050129A KR 102330328 B1 KR102330328 B1 KR 102330328B1
Authority
KR
South Korea
Prior art keywords
location information
signal
reflected wave
weight
learning
Prior art date
Application number
KR1020190050129A
Other languages
Korean (ko)
Other versions
KR20200126300A (en
Inventor
김동완
Original Assignee
김동완
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김동완 filed Critical 김동완
Priority to KR1020190050129A priority Critical patent/KR102330328B1/en
Publication of KR20200126300A publication Critical patent/KR20200126300A/en
Application granted granted Critical
Publication of KR102330328B1 publication Critical patent/KR102330328B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Dentistry (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Electromagnetism (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명에 의한 노약자 케어를 위한 모니터링 방법은 객체로부터 반사되는 무선신호의 반사파를 검출하여 객체의 위치정보를 획득하는 단계, 위치정보의 변화량을 모니터링하여 시간에 따른 객체의 이동을 파악하는 단계, 및 위치정보에 따라 다르게 설정되는 위치정보 가중치에 비례하는 임계시간 동안, 객체가 이동하지 않을 때 이벤트를 생성하는 단계를 포함한다.A monitoring method for the care of the elderly according to the present invention includes the steps of: detecting a reflected wave of a radio signal reflected from an object to obtain location information of the object; and generating an event when the object does not move during a threshold time proportional to the location information weight set differently according to location information.

Description

노약자 케어를 위한 모니터링 방법{Monitoring Method for the Old and the Weak Care}Monitoring Method for the Old and the Weak Care

본 발명은 노약자 케어를 위한 모니터링 방법에 관한 것으로, 특히 노약자의 건강 이상 상태를 모니터링 할 수 있는 방법에 관한 것이다.The present invention relates to a monitoring method for the care of the elderly, and more particularly, to a method capable of monitoring the health abnormality of the elderly.

가족의 규모가 작아지고, 고령화 사회에 접어들면서 보호자 없이 혼자서 생활하는 노약자들이 증가하고 있다. 혼자서 생활하는 노약자들은 건강 이상 및 위급 상황에 취약한 상태에 방치되기 때문에, 이에 대한 대책이 강구되고 있다. As the size of the family decreases and the aging society enters, the number of elderly and infirm living alone without a guardian is increasing. Since the elderly living alone are left vulnerable to health problems and emergencies, countermeasures are being taken.

폐쇄회로 텔레비전(Closed Circuit Television; 이하, CCTV)이 발전하고 보급화되면서, 노약자들의 건강 상태를 모니터링하기 위해서 거주 공간에 설치된 CCTV를 이용하는 방법이 제안된 바 있다. CCTV와 같이 영상을 바탕으로 노약자를 모니터링하는 방법은 모니터링 대상의 사생활을 상당히 침해하게 된다. 그리고, 영상 촬영을 이용한 모니터링 방법은 장애물로 인한 음영지역이 발생하기 때문에 모니터링 대상 영역에 한계를 갖는다. 또한 주변 조도나 빛 반사로 인해서 영상 촬영이 불가능한 상황이 발생할 수 있기 때문에, 영상 촬영을 이용한 모니터링 방법은 지속적으로 대상을 모니터링 할 수 없는 단점을 갖는다.As Closed Circuit Television (hereinafter referred to as CCTV) develops and spreads, a method of using CCTV installed in a living space to monitor the health status of the elderly has been proposed. A method of monitoring the elderly based on video, such as CCTV, significantly infringes on the privacy of the monitoring target. In addition, the monitoring method using image capturing has a limit in the monitoring target area because a shadow area is generated due to an obstacle. In addition, since a situation may occur in which image capturing is impossible due to ambient illuminance or light reflection, the monitoring method using image capturing has a disadvantage in that it cannot continuously monitor an object.

영상 촬영 이외에 음성 신호를 이용하여 노약자를 모니터링하는 방법이 제안되었지만, 음성 신호를 이용할 경우에도 모니터링 대상자의 사생활 침해 문제는 여전히 해결되지 않는다. 또한 음성 신호를 이용한 방법은 주변 소음으로 인해서 심한 노이즈를 갖기 때문에 정확도가 낮을 뿐만 아니라, 모니터링 대상자가 소리없이 쓰러진 경우에는 대처가 불가능한 문제점을 갖는다.A method of monitoring the elderly using a voice signal other than video recording has been proposed, but even when using a voice signal, the problem of invasion of privacy of the monitored person is still not solved. In addition, the method using the voice signal has a problem in that accuracy is low because it has severe noise due to ambient noise, and it is impossible to cope with the case where the subject to be monitored falls silently.

근래에는 스마트폰 및 신체 부착형 단말기(wearable device)와 같은 휴대용 장치를 이용하여 노약자의 건강 상태를 모니터링하는 방법이 제안되기도 한다. 휴대용 장치는 모니터링 대상자에게 불편함을 줄 수 있고, 모니터링 대상자는 지속적으로 휴대용 장치에 전원 공급을 해야하는 단점을 갖는다.Recently, a method of monitoring the health status of the elderly and weak using portable devices such as smart phones and wearable devices has been proposed. The portable device may cause inconvenience to the monitoring target, and the monitoring target has a disadvantage in that the portable device needs to be continuously supplied with power.

본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다. SUMMARY OF THE INVENTION The present invention aims to solve the above and other problems.

본 발명은 모니터링 대상자의 사생활 침해를 최소화할 수 있는 노약자 케어를 위한 모니터링 방법을 제공하기 위한 것이다.An object of the present invention is to provide a monitoring method for the care of the elderly that can minimize the invasion of privacy of the subject to be monitored.

또한, 본 발명은 음영지역을 없애면서, 지속적으로 정확하게 노약자의 건강 상태를 모니터링 할 수 있는 방법을 제공하기 위한 것이다.Another object of the present invention is to provide a method for continuously and accurately monitoring the health status of the elderly and infirm while eliminating the shadow area.

또한, 본 발명을 실시하기 위해서 모니터링 대상자의 불편함을 줄일 수 있는 노약자 케어를 위한 모니터링 방법을 제공하기 위한 것이다. In addition, in order to practice the present invention, it is to provide a monitoring method for the care of the elderly that can reduce the discomfort of the subject to be monitored.

상기 기술적 과제를 달성하기 위해, 본 발명에 의한 노약자 케어를 위한 모니터링 방법은 객체로부터 반사되는 무선신호의 반사파를 검출하여 객체의 위치정보를 획득하는 단계, 위치정보의 변화량을 모니터링하여 시간에 따른 객체의 이동을 파악하는 단계, 및 위치정보에 따라 다르게 설정되는 위치정보 가중치에 비례하는 임계시간 동안, 객체가 이동하지 않을 때 이벤트를 생성하는 단계를 포함한다.In order to achieve the above technical problem, the monitoring method for the care of the elderly according to the present invention includes the steps of detecting a reflected wave of a radio signal reflected from an object to obtain location information of the object, and monitoring the amount of change in location information to determine the object over time and generating an event when the object does not move for a critical time proportional to a weight of location information set differently according to location information.

본 발명은 객체를 모니터링 하는 과정에서 영상 촬영이나 음성 신호를 이용하지 않기 때문에, 객체의 사생활 침해를 최소화할 수 있다. Since the present invention does not use image capture or audio signals in the process of monitoring the object, it is possible to minimize the invasion of privacy of the object.

또한, 본 발명은 영상 촬영을 이용하지 않기 때문에, 모니터링 대상의 주변 조도 및 빛 반사로 인해서 객체의 상태를 모니터링하기 곤란한 문제점을 해소할 수 있다. 본 발명은 음성 신호를 이용하지 않기 때문에, 주변의 소음으로 인해서 객체의 상태를 모니터링 하기 곤란한 문제점을 해소할 수 있다. 또한, 처프 레이더 방식을 이용하기 때문에 장애물 영향을 받지않고 객체를 모니터링 할 수 있다. 결과적으로, 본 발명은 방해 요소의 영향을 받지 않고, 음영지역 없이 객체를 모니터링 할 수 있다. In addition, since the present invention does not use image capturing, it is possible to solve the problem of difficult to monitor the state of the object due to the ambient illuminance and light reflection of the monitoring target. Since the present invention does not use a voice signal, it is possible to solve the problem that it is difficult to monitor the state of the object due to the surrounding noise. In addition, because the chirp radar method is used, the object can be monitored without being affected by obstacles. As a result, the present invention can monitor an object without being affected by an obstructive element and without a shadow area.

또한, 본 발명을 실시하기 위해서 객체는 추가적인 장치를 신체에 부착시키거나 보유할 필요가 없기 때문에, 객체는 불편함을 느끼지 않을 수 있다.In addition, since the object does not need to attach or hold an additional device to the body in order to practice the present invention, the object may not feel discomfort.

도 1은 본 발명에 의한 헬스 케어를 위한 모니터링 시스템을 나타내는 도면이다.
도 2는 본 발명에 의한 노약자 케어를 위한 모니터링 방법을 나타내는 도면이다.
도 3은 제1 송신부가 송출하는 Tx1 신호의 실시 예를 나타내는 도면이다.
도 4는 Tx1 신호 및 Rx1 신호들을 나타내는 도면이다.
도 5는 시간에 따른 제1 이격거리 변화의 일례를 나타내는 도면이다.
도 6 및 도 7은 위치정보 산출부가 위치정보를 산출하는 실시 예를 설명하기 위한 도면이다.
도 8은 이벤트 결정부에 속한 인공지능 장치의 구성을 나타내는 도면이다.
도 9는 생체정보 해석부가 생체정보를 해석하는 실시 예를 나타내는 도면이다.
1 is a view showing a monitoring system for health care according to the present invention.
2 is a view showing a monitoring method for care for the elderly according to the present invention.
3 is a diagram illustrating an embodiment of a Tx1 signal transmitted by a first transmitter.
4 is a diagram illustrating a Tx1 signal and an Rx1 signal.
5 is a diagram illustrating an example of a change in a first separation distance according to time.
6 and 7 are diagrams for explaining an embodiment in which the location information calculating unit calculates location information.
8 is a diagram illustrating the configuration of an artificial intelligence device belonging to an event determining unit.
9 is a diagram illustrating an embodiment in which a biometric information analysis unit analyzes biometric information.

이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technology to be described below may have various changes and may have various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, and it should be understood to include all changes, equivalents, or substitutes included in the spirit and scope of the technology described below.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components are not limited by the above terms, and only for the purpose of distinguishing one component from other components. used only as For example, a first component may be named as a second component, and similarly, a second component may also be referred to as a first component without departing from the scope of the technology to be described below. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms of the terms used herein, the singular expression should be understood to include a plural expression unless the context clearly dictates otherwise, and terms such as "comprises" refer to the described feature, number, step, operation, and element. , parts or combinations thereof are to be understood, but not to exclude the possibility of the presence or addition of one or more other features or numbers, step operation components, parts or combinations thereof.

도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to a detailed description of the drawings, it is intended to clarify that the classification of the constituent parts in the present specification is merely a division according to the main function that each constituent unit is responsible for. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of other constituent units in addition to the main function it is responsible for. Of course, it may be carried out by being dedicated to it.

또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in performing the method or the method of operation, each process constituting the method may occur differently from the specified order unless a specific order is clearly described in context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

헬스 케어를 위한 모니터링 시스템Monitoring system for healthcare

도 1은 본 발명에 의한 헬스 케어를 위한 모니터링 시스템을 나타내는 도면이다. 1 is a view showing a monitoring system for health care according to the present invention.

도 1을 참조하면, 본 발명에 의한 헬스 케어를 위한 모니터링 시스템은 제1 및 제2 무선신호 송수신기들(110,120) 및 신호 해석부(200)를 포함한다. Referring to FIG. 1 , the monitoring system for health care according to the present invention includes first and second wireless signal transceivers 110 and 120 and a signal analysis unit 200 .

제1 무선신호 송수신기(110)는 제1 송신부(111) 및 제1 수신부(112)를 포함하고, 제2 무선신호 송수신기(120)는 제2 송신부(121) 및 제2 수신부(122)를 포함한다. 제1 송신부(111)는 Tx1 신호를 송출하고, 제1 수신부(112)는 Tx1 신호가 객체(10)로부터 반사되는 Rx1 신호를 수신한다. 이와 유사하게, 제2 송신부(121)는 Tx2 신호를 송출하고, 제2 수신부(122)는 Tx2 신호가 객체(10)로부터 반사되는 Rx2 신호를 수신한다.The first radio signal transceiver 110 includes a first transmitter 111 and a first receiver 112 , and the second radio signal transceiver 120 includes a second transmitter 121 and a second receiver 122 . do. The first transmitter 111 transmits a Tx1 signal, and the first receiver 112 receives an Rx1 signal in which the Tx1 signal is reflected from the object 10 . Similarly, the second transmitter 121 transmits a Tx2 signal, and the second receiver 122 receives an Rx2 signal in which the Tx2 signal is reflected from the object 10 .

Tx(Transmission)는 전송 신호를 나타내고, Rx(Reception)는 수신 신호를 나타낸다.Tx (Transmission) represents a transmission signal, and Rx (Reception) represents a received signal.

즉, Tx 1 신호 및 Tx 2 신호는 각각 전송 신호 1, 전송 신호 2를 나타내고, Rx 1 및 Rx 2는 각각 수신 신호 1, 수신 신호 2를 나타낸다.That is, the Tx 1 signal and the Tx 2 signal respectively indicate the transmission signal 1 and the transmission signal 2, and Rx 1 and Rx 2 indicate the reception signal 1 and the reception signal 2, respectively.

신호 해석부(200)는 신호 처리부(210), 위치정보 산출부(220), 이벤트 결정부(230) 및 생체정보 해석부(240)를 포함한다.The signal analysis unit 200 includes a signal processing unit 210 , a location information calculation unit 220 , an event determination unit 230 , and a biometric information analysis unit 240 .

신호 처리부(210)는 Tx 신호들(Tx1,Tx2) 및 Rx 신호들(Rx1,Rx2)을 증폭하는 증폭부(Amplifier) 및 증폭부에서 증폭된 신호들 중에서 유효 신호를 추출하는 디지털 신호 처리부(Digital Signal Process)를 포함할 수 있다. 증폭부는 저잡음 증폭기(Low Noise Amplifier; LNA)를 이용할 수 있다.The signal processing unit 210 includes an amplifier for amplifying the Tx signals Tx1 and Tx2 and the Rx signals Rx1 and Rx2 and a digital signal processing unit for extracting an effective signal from the signals amplified by the amplifying unit. signal process). The amplifying unit may use a low noise amplifier (LNA).

위치정보 산출부(220)는 신호 처리부(210)로부터의 Tx1 신호 및 Rx1 신호를 바탕으로 제1 무선신호 송수신기(110)와 객체(10) 간의 이격거리를 산출하고, Tx2 신호 및 Rx2 신호를 바탕으로 제2 무선신호 송수신기(120)와 객체(10) 간의 이격거리를 산출한다. 본 명세서에서 객체(10)는 자연인을 지칭하고, 특히 모니터링의 대상이 되는 노약자를 지칭한다.The location information calculating unit 220 calculates the separation distance between the first wireless signal transceiver 110 and the object 10 based on the Tx1 signal and the Rx1 signal from the signal processing unit 210, and based on the Tx2 signal and the Rx2 signal to calculate the separation distance between the second wireless signal transceiver 120 and the object 10 . In the present specification, the object 10 refers to a natural person, and in particular refers to an elderly person subject to monitoring.

그리고, 위치정보 산출부(220)는 객체(10)와 제1 및 제2 무선신호 송수신기들(110,120) 간의 이격거리를 바탕으로, 객체(10)의 위치정보(Pxy)를 산출한다. 위치정보(Pxy)는 모니터링 대상 영역 내에서 객체(10)의 위치를 표시하는 2차원 좌표를 지칭한다.In addition, the location information calculator 220 calculates location information Pxy of the object 10 based on the separation distance between the object 10 and the first and second wireless signal transceivers 110 and 120 . The location information Pxy refers to two-dimensional coordinates indicating the location of the object 10 within the monitoring target area.

이벤트 결정부(230)는 위치정보 산출부(220)로부터 위치정보(Pxy)를 전달받고, 위치정보(Pxy)의 변화량에 따라 이벤트 발생 여부를 결정한다. The event determiner 230 receives the location information Pxy from the location information calculator 220 and determines whether an event occurs according to the amount of change in the location information Pxy.

특히, 이벤트 결정부(230)는 위치정보(Pxy) 및 메타정보에 따라 다르게 설정된 가중치를 고려하여 이벤트 발생 여부를 결정한다. 이벤트는 위치정보(Pxy)를 바탕으로 모니터링 한 객체(10)의 위치가 일정 시간 동안 한 곳에 머무를 때에 생성될 수 있다. In particular, the event determiner 230 determines whether an event occurs in consideration of weights set differently according to the location information Pxy and meta information. The event may be generated when the location of the monitored object 10 based on the location information Pxy stays in one place for a predetermined time.

생체정보 해석부(240)는 이벤트가 발생할 때, 객체(10)의 생체정보를 해석한다. 객체(10)의 생체정보는 Rx 신호들(Rx1,Rx2)의 특정 주파수를 바탕으로 획득하고, 획득한 생체정보의 이상 유무를 해석한다. 이벤트 결정부(230)가 획득하는 생체정보는 심박수 등이 될 수 있다. 생체정보 해석부(240)는 해석한 신체정보에 따라 구호조치를 취할 수 있다. 구호조치는 구호기관에 호출하는 동작을 포함할 수 있으며, 이때, 이벤트 결정부(230)가 획득한 신체정보가 구호기관에 전달될 수도 있다.The biometric information analysis unit 240 interprets the biometric information of the object 10 when an event occurs. The biometric information of the object 10 is acquired based on specific frequencies of the Rx signals Rx1 and Rx2, and the presence or absence of abnormalities in the acquired biometric information is analyzed. The biometric information acquired by the event determiner 230 may be a heart rate or the like. The biometric information analysis unit 240 may take a relief action according to the analyzed body information. Relief measures may include an operation of calling a relief organization, and in this case, the body information obtained by the event determining unit 230 may be transmitted to the relief organization.

노약자 케어를 위한 모니터링 방법Monitoring methods for the care of the elderly

도 2는 본 발명에 의한 노약자 케어를 위한 모니터링 방법을 나타내는 도면이다. 2 is a view showing a monitoring method for care for the elderly according to the present invention.

도 1 및 도 2를 참조하여, 본 발명에 의한 노약자 케어를 위한 모니터랑 방법을 구체적으로 살펴보면 다음과 같다. With reference to FIGS. 1 and 2 , the monitoring method for the care of the elderly according to the present invention will be described in detail as follows.

제1 단계(S210)에서, 위치정보 산출부(220)는 무선신호의 반사파를 바탕으로 객체(10)의 위치정보(Pxy)를 획득한다. In the first step (S210), the location information calculator 220 acquires the location information (Pxy) of the object 10 based on the reflected wave of the radio signal.

객체(10)의 위치정보(Pxy)를 획득하기 위해서, 위치정보 산출부(220)는 제1 무선신호 송수신기(110)와 객체(10) 간의 이격거리 및 제2 무선신호 송수신기(120)와 객체(10) 간의 이격거리를 산출한다. In order to obtain the location information (Pxy) of the object 10, the location information calculating unit 220 is a separation distance between the first wireless signal transceiver 110 and the object 10 and the second wireless signal transceiver 120 and the object (10) Calculate the distance between them.

먼저, 제1 무선신호 송수신기(110)와 객체(10) 간의 이격거리를 산출하는 방법을 살펴보면 다음과 같다.First, a method of calculating the separation distance between the first wireless signal transceiver 110 and the object 10 will be described as follows.

제1 무선신호 송수신기(110)는 객체(10)와의 이격거리를 산출하기 위해서, Tx1 신호를 송출하고, Rx1 신호들을 수신한다. 도 3은 제1 송신부가 송출하는 Tx1 신호의 실시 예를 나타내는 도면이고, 도 4는 Tx1 신호 및 제1 수신부가 수신하는 Rx1 신호들을 나타내는 도면이다. The first radio signal transceiver 110 transmits a Tx1 signal and receives Rx1 signals in order to calculate a separation distance from the object 10 . 3 is a diagram illustrating an embodiment of a Tx1 signal transmitted by a first transmitter, and FIG. 4 is a diagram illustrating a Tx1 signal and Rx1 signals received by the first receiver.

도 3 및 도 4를 참조하면, 제1 송신부(111)는 시간에 따라 주파수가 가변하는 쳐프 신호(Chirp Signal)를 Tx1 신호로 송출할 수 있다. 제1 수신부(112)가 수신하는 Rx1 신호들은 Tx1 신호와 마찬가지로 시간에 따라 주파수가 달라지며, Tx1 신호가 지연된 것과 같다. Tx1 신호는 서로 이격거리가 다른 다양한 물체들에 의해서 반사되기 때문에, 도 4에서와 같이 제1 수신부(112)는 다수의 Rx1 신호들을 수신할 수 있다. Tx1 신호와 Rx1 신호들은 시간에 따라 주파수가 달라지기 때문에, 특정 시점에 수신되는 Rx1 신호의 주파수는 어느 시점의 Tx1 신호가 지연된 것이지 알 수 있다.3 and 4 , the first transmitter 111 may transmit a chirp signal whose frequency varies according to time as a Tx1 signal. Like the Tx1 signal, the Rx1 signals received by the first receiver 112 have different frequencies according to time, which is the same as the delayed Tx1 signal. Since the Tx1 signal is reflected by various objects having different distances from each other, the first receiver 112 may receive a plurality of Rx1 signals as shown in FIG. 4 . Since the frequency of the Tx1 signal and the Rx1 signal varies according to time, the frequency of the Rx1 signal received at a specific point in time can be determined at which point in time the Tx1 signal is delayed.

이와 유사하게, 제2 송신부(121)는 Tx2 신호를 송출하고, 제2 수신부(122)는 Rx2 신호를 수신한다. Similarly, the second transmitter 121 transmits the Tx2 signal, and the second receiver 122 receives the Rx2 signal.

신호 처리부(210)는 제1 무선신호 송수신기(110)로부터의 Tx1 신호 및 Rx1 신호들과 함께 제2 무선신호 송수신기(120)로부터의 Tx2 신호 및 Rx2 신호들을 제공받는다. The signal processing unit 210 receives the Tx2 signal and Rx2 signals from the second wireless signal transceiver 120 together with the Tx1 signal and Rx1 signals from the first wireless signal transceiver 110 .

신호 처리부(210)는 Tx 신호들(Tx1,Tx2) 및 Rx 신호들(Rx1,Rx2)을 증폭하고, 증폭된 신호들 중에서 유효 신호를 추출한다. The signal processing unit 210 amplifies the Tx signals Tx1 and Tx2 and the Rx signals Rx1 and Rx2 and extracts an effective signal from among the amplified signals.

위치정보 산출부(220)는 신호 처리부(210)를 경유한 Tx 신호들(Tx1,Tx2) 및 Rx 신호들(Rx1,Rx2)을 제공받는다.The location information calculating unit 220 receives the Tx signals Tx1 and Tx2 and the Rx signals Rx1 and Rx2 passed through the signal processing unit 210 .

위치정보 산출부(220)는 다수의 Rx1 신호들 중에서 어느 하나의 신호를 객체(10)로부터 반사되는 반사파로 추정한다. 위치정보 산출부(220)는 Rx1 신호들이 지연되는 변화량을 바탕으로 객체(10)로부터의 반사파를 추정한다. 객체(10)는 자연인이기 때문에 조금씩이라도 지속적으로 움직이고, 객체(10)로부터의 반사파는 지연되는 정도가 지속적으로 달라진다. 따라서, 위치정보 산출부(220)는 지속적으로 지연되는 정도가 달라지는 Rx1 신호가 객체(10)로부터 반사되는 반사파인 것으로 추정한다. 이하, 본 명세서에서 Rx1 신호 및 Rx2 신호는 객체(10)로부터 반사되는 반사파를 지칭하기로 한다.The location information calculator 220 estimates any one of the plurality of Rx1 signals as a reflected wave reflected from the object 10 . The location information calculator 220 estimates the reflected wave from the object 10 based on the amount of change in which the Rx1 signals are delayed. Since the object 10 is a natural person, it continuously moves even a little bit, and the delay degree of the reflected wave from the object 10 is continuously changed. Accordingly, the location information calculating unit 220 estimates that the Rx1 signal with a continuously varying degree of delay is a reflected wave reflected from the object 10 . Hereinafter, in the present specification, the Rx1 signal and the Rx2 signal refer to a reflected wave reflected from the object 10 .

위치정보 산출부(220)는 Rx1 신호가 Tx1 신호로부터 지연되는 정도를 바탕으로 제1 무선신호 송수신기(110)와 객체(10) 간의 제1 이격거리를 산출한다. 위치정보 산출부(220)는 도 5에서와 같이, 시간에 따라 제1 이격거리(d1)의 변화를 산출할 수 있다. The location information calculator 220 calculates a first separation distance between the first radio signal transceiver 110 and the object 10 based on the degree of delay of the Rx1 signal from the Tx1 signal. As shown in FIG. 5 , the location information calculator 220 may calculate a change in the first separation distance d1 according to time.

이와 같은 방법으로 위치정보 산출부(220)는 Tx2 신호 및 Rx2 신호를 바탕으로, 제2 무선신호 송수신기(120)와 객체(10) 간의 제2 이격거리를 변화를 산출할 수 있다.In this way, the location information calculator 220 may calculate a change in the second separation distance between the second wireless signal transceiver 120 and the object 10 based on the Tx2 signal and the Rx2 signal.

위치정보 산출부(220)는 제1 및 제2 이격거리를 바탕으로 객체(10)의 위치정보(Pxy)를 산출한다. 위치정보(Pxy)는 모니터링 대상 영역 내에서 객체(10)의 위치를 표시하는 2차원 좌표에 해당할 수 있다.The location information calculator 220 calculates location information Pxy of the object 10 based on the first and second separation distances. The location information Pxy may correspond to two-dimensional coordinates indicating the location of the object 10 in the monitoring target area.

도 6 및 도 7은 위치정보 산출부가 위치정보를 산출하는 실시 예를 설명하기 위한 도면이다. 도 6은 모니터링 대상 영역을 도시하고 있고, 도 7은 모니터링 대상 영역을 2차원 좌표로 변환한 것을 도시하고 있다.6 and 7 are diagrams for explaining an embodiment in which the location information calculating unit calculates location information. 6 illustrates a monitoring target area, and FIG. 7 illustrates a transformation of the monitoring target area into two-dimensional coordinates.

도 6 및 도 7을 참조하면, 제1 무선신호 송수신기(110)의 위치는 좌표상에서 "x1" 좌표로 표시되고, 제2 무선신호 송수신기(120)의 위치는 좌표상에서 "x2" 좌표로 표시된다. x1 좌표 및 x2 좌표 간의 이격거리(ds)는 위치정보 산출부(220)에 미리 저장된다.6 and 7 , the position of the first radio signal transceiver 110 is indicated by "x1" coordinates on the coordinates, and the position of the second radio signal transceiver 120 is indicated by "x2" coordinates on the coordinates. . The separation distance ds between the x1 coordinates and the x2 coordinates is stored in advance in the location information calculating unit 220 .

위치정보 산출부(220)는 임의의 타이밍에서 제1 이격거리(d1)와 제2 이격거리(d2)를 바탕으로 객체(10)의 위치정보(Pxy)에 해당하는 2차원 좌표를 산출한다. 위치정보 산출부(220)는 임의의 타이밍에서 객체(10)의 위치정보(Pxy)를 산출할 수 있고, 시계열적으로 연속적인 객체(10)의 위치정보(Pxy)를 일정 시간 단위로 산출한다. The location information calculating unit 220 calculates two-dimensional coordinates corresponding to the location information Pxy of the object 10 based on the first separation distance d1 and the second separation distance d2 at an arbitrary timing. The location information calculator 220 may calculate the location information Pxy of the object 10 at an arbitrary timing, and calculates the location information Pxy of the object 10 that is time-series continuous in a predetermined time unit. .

제2 단계(S220)에서, 이벤트 결정부(230)는 위치정보(Pxy)의 변화량을 바탕으로 객체(10)의 움직임을 모니터링한다. In the second step (S220), the event determiner 230 monitors the movement of the object 10 based on the change amount of the location information (Pxy).

이벤트 결정부(230)는 2회의 타이밍에서 각각 산출된 위치정보(Pxy)들을 연결하는 벡터를 생성할 수 있고, 벡터의 크기를 위치정보(Pxy)의 변화량으로 결정할 수 있다. 위치정보 산출부(220)는 무선신호를 해석하는 분해능에 따라 1 밀리미터(mm) 내외의 위치정보(Pxy)의 변화량을 파악할 수 있다. 본 발명의 실시 예에서 이벤트는 객체(10)가 이동하는지 여부에 따라 결정되기 때문에, 위치정보(Pxy)의 변화량이 수 센티미터(cm) 이하일 때에는 객체(10)가 이동하지 않는 것으로 간주할 수 있다. 이벤트 결정부(230)는 미리 설정된 이동 임계치를 바탕으로, 위치정보(Pxy)의 변화량이 이동 임계치 이상일 때 객체(10)가 이동한다고 판단한다. The event determiner 230 may generate a vector connecting the calculated position information Pxy at two timings, and may determine the size of the vector as a change amount of the position information Pxy. The location information calculator 220 may determine the amount of change of the location information Pxy within 1 millimeter (mm) according to the resolution of analyzing the radio signal. In an embodiment of the present invention, since the event is determined depending on whether the object 10 moves, when the amount of change in the location information Pxy is several centimeters (cm) or less, it can be considered that the object 10 does not move. . The event determiner 230 determines that the object 10 moves when the amount of change in the location information Pxy is greater than or equal to the movement threshold based on the preset movement threshold.

제3 단계(S230)에서, 이벤트 결정부(230)는 임계시간 동안 객체(10)의 이동이 없는지를 모니터링한다.In the third step (S230), the event determination unit 230 monitors whether there is no movement of the object 10 for a critical time.

제4 단계(S240)에서, 이벤트 결정부(230)는 객체(10)가 이동하지 않는 상태가 임계시간에 도달할 때에 이벤트를 발생시킨다. 즉, 이벤트 결정부(230)는 객체(10)가 특정 장소에서 머무르는 기간이 필요 이상으로 길어질 때, 객체(10)의 신체에 이상이 있다고 판단하여 이벤트를 결정한다.In the fourth step (S240), the event determination unit 230 generates an event when the state in which the object 10 does not move reaches a threshold time. That is, when the period for which the object 10 stays in a specific place becomes longer than necessary, the event determiner 230 determines an event by determining that there is an abnormality in the body of the object 10 .

모니터링 대상 영역, 예컨대 주거 공간 내에서 객체(10)의 활동 시간은 상이하다. 예컨대, 침대가 놓여져 있는 방에서는 오랜 시간동안 머무를 수 있고, 화장실이나 현관 앞에서는 상대적으로 머무르는 시간이 짧다. 따라서, 이벤트 결정의 기준이 되는 임계시간은 객체(10)의 위치정보(Pxy)에 따라 달라진다. 즉, 이벤트 결정부(230)는 위치정보(Pxy)에 따라 위치정보 가중치(Wp)를 다르게 하여 임계시간을 설정한다. The active time of the object 10 is different in the monitoring target area, for example, in the residential space. For example, you can stay for a long time in a room where a bed is placed, and you can stay for a relatively short time in a bathroom or in front of the entrance. Accordingly, the threshold time, which is a criterion for event determination, varies according to the location information Pxy of the object 10 . That is, the event determiner 230 sets the threshold time by varying the location information weight Wp according to the location information Pxy.

다음의 표 1은 위치정보에 따라 설정되는 위치정보 가중치의 일례를 나타내는 표이다.Table 1 below is a table showing an example of location information weights set according to location information.

위치정보location information 위치정보 가중치(Wp)Location information weight (Wp) 방1(침대)Room 1 (Bed) 200200 방2room 2 7272 거실living room 3636 욕실bathroom 66

이벤트 결정부(230)는 기준시간(T_ref)과 위치정보 가중치(Wp)의 곱한 결과를 임계시간(T_th)으로 설정할 수 있다. 즉, "T_refХWp"로 연산된 결과를 임계시간(T_th)으로 설정할 수 있다. 기준시간(T_ref)이 100(초)로 설정되면, 화장실에 속하는 좌표에 대한 임계시간은 "600초=10분"에 해당한다. 즉, 이벤트 결정부(230)는 객체(10)의 위치정보(Pxy)가 화장실에 속한 상태에서 10분 동안 이동하지 않는 상태라고 판단할 때, 이벤트를 발생시킨다. The event determiner 230 may set a result of multiplying the reference time T_ref and the location information weight Wp as the threshold time T_th. That is, the result calculated by "T_refХWp" may be set as the threshold time T_th. If the reference time (T_ref) is set to 100 (seconds), the critical time for the coordinates belonging to the toilet corresponds to "600 seconds = 10 minutes". That is, the event determiner 230 generates an event when it is determined that the location information Pxy of the object 10 is in a state of not moving for 10 minutes in a state belonging to the toilet.

표 1은 본 발명을 설명하기 위한 개략적인 가중치를 나타낸 것이고, 모니터링 대상 영역은 표 1에 표기된 것보다 세분화 된 영역으로 분류될 수 있다. 예컨대, 객체(10)는 욕실 내에서도 욕조와 세면대를 이용할 때의 시간이 상이할 수 있기 때문에, 욕실내의 영역을 세분화하여 가중치를 부여할 수 있다. 마찬가지로, 침대가 놓인 "방1"의 가중치는 침대가 위치한 영역과 침대 이외의 영역에 대한 가중치가 달라질 수 있다. Table 1 shows schematic weights for explaining the present invention, and the monitoring target area may be classified into a more subdivided area than shown in Table 1. For example, since the time when using the bathtub and the washbasin may be different for the object 10 even in the bathroom, it is possible to subdivide the area in the bathroom and give weight to the object 10 . Similarly, the weight of "Room 1" in which the bed is placed may have different weights for the area where the bed is located and for areas other than the bed.

이벤트 결정부(230)는 임계시간(T_th)을 산출하는 과정에서 메타정보를 고려할 수 있다. 메타정보는 월(month), 일(day), 시간, 날씨, 온도 등을 포함할 수 있다. The event determiner 230 may consider meta information in the process of calculating the threshold time T_th. The meta information may include month, day, time, weather, temperature, and the like.

이벤트 결정부(230)는 메타정보들 각각에 대한 메타정보 가중치(Wm)를 부여하고, 메타정보 가중치(Wm)가 고려된 임계시간(T_th)을 산출할 수 있다. 예컨대, 이벤트 결정부(230)는 기준시간(T_ref), 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)에 비례하도록 임계시간(T_th)을 산출할 수 있다. 즉, "T_refХWpХWm"의 연산을 통해서 임계시간(T_th)을 산출할 수 있다. The event determiner 230 may assign a meta information weight Wm to each piece of meta information, and calculate a threshold time T_th in which the meta information weight Wm is considered. For example, the event determiner 230 may calculate the threshold time T_th to be proportional to the reference time T_ref, the location information weight Wp, and the meta information weight Wm. That is, the threshold time T_th can be calculated through the operation of "T_refХWpХWm".

임의의 메타정보 가중치(Wm)는 모든 위치정보(Pxy)에 대해서 동일하거나, 각각의 위치정보(Pxy)에 따라 메타정보 가중치(Wm)도 달라질 수 있다. 또는 메타정보 가중치(wm)는 특정 위치정보(Pxy)에 한해서만 고려될 수 있다. 또한, 임의의 위치정보(Pxy)에 따라서 둘 이상의 메타정보들이 반영될 수도 있다.The arbitrary meta information weight Wm may be the same for all location information Pxy, or the meta information weight Wm may vary according to each location information Pxy. Alternatively, the meta information weight wm may be considered only for specific location information Pxy. In addition, two or more meta-information may be reflected according to arbitrary location information Pxy.

다음의 표 2는 시간에 대한 메타정보 가중치의 일례를 나타내는 표이다.Table 2 below is a table showing an example of meta information weights with respect to time.

위치정보
location information
메타정보 가중치(Wm)Meta information weight (Wm)
08:00~22:0008:00~22:00 08:00~09:0008:00~09:00 방1(침대)Room 1 (Bed) 0.10.1 ...... 방2room 2 ...... ...... 거실living room ...... ...... 욕실bathroom ...... 1.51.5

표 2를 참조하면, 위치정보가 "침대" 영역에 속할 경우, 08시부터 22시 내에서 메타정보 가중치(Wm)는 "0.1"의 크기를 갖는다. 이는 취침 시간 이외에는 객체(10)가 침대 영역에 오랜 시간 머무르지 않는다는 것을 고려하여, 해당 시간 범위에서 임계시간(T_th)을 10% 줄이기 위한 것이다.Referring to Table 2, when the location information belongs to the "bed" area, the meta information weight Wm has a size of "0.1" from 08:00 to 22:00. This is to reduce the critical time (T_th) by 10% in the corresponding time range considering that the object 10 does not stay in the bed area for a long time other than the bedtime.

위치정보가 "욕실" 영역에 속할 경우, 08시부터 09시 내에서 메타정보 가중치(Wm)는 "1.5"의 크기를 갖는다. 이는 오전 시간 동안 객체(10)가 욕실 이용하는 시간을 고려하여, 해당 시간 범위에서 임계시간(T_th)을 늘리기 위한 것이다. When the location information belongs to the "bathroom" area, the meta information weight Wm has a size of "1.5" from 08:00 to 09:00. This is to increase the threshold time T_th in the corresponding time range in consideration of the time the object 10 uses the bathroom during the morning time.

이처럼, 메타정보 가중치(Wm)는 객체(10)가 특정 시간에서 특정 장소 내에 머무르는 시간을 고려하여 임계시간(T_th)을 조절하도록 설정될 수 있다.As such, the meta information weight Wm may be set to adjust the threshold time T_th in consideration of the time the object 10 stays in a specific place at a specific time.

이와 유사하게 메타정보 가중치(Wm)는 메타정보에 따라 객체(10)가 특정 장소에 머무르는 시간이 달라지는 것을 고려하여 설정될 수 있다. Similarly, the meta-information weight Wm may be set in consideration of a change in the length of time the object 10 stays in a specific place according to meta-information.

상술한 바와 같이, 이벤트 결정부(230)는 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 이용하여 이벤트 발생의 기준이 되는 임계시간(T_th)을 산출한다. 특히, 이벤트 결정부(230)는 인공지능 기반으로 위치정보(Pxy) 및 메타정보들을 학습하고, 이를 바탕으로 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 실시간으로 수정할 수 있다. As described above, the event determination unit 230 calculates a threshold time (T_th), which is a criterion for generating an event, by using the location information weight (Wp) and the meta information weight (Wm). In particular, the event determiner 230 may learn the location information (Pxy) and meta information based on artificial intelligence, and correct the location information weight (Wp) and the meta information weight (Wm) in real time based on this.

객체(10)의 생활패턴은 수시로 달라질 수 있고, 모니터링 대상이 되는 공간의 구조 또한 달라질 수 있다. 따라서 객체(10)의 생활패턴 및 모니터링 대상의 공간을 고려하여 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 설정한다고 할지라도, 시간이 지나면서 이벤트 발생을 결정하는 정확도가 저하될 수 있다. The living pattern of the object 10 may change from time to time, and the structure of the space to be monitored may also vary. Therefore, even if the location information weight (Wp) and the meta information weight (Wm) are set in consideration of the living pattern of the object 10 and the space of the monitoring target, the accuracy of determining the occurrence of an event over time may decrease. .

이벤트 결정부(230)는 시계열적으로 변하는 위치정보(Pxy)를 축적하고, 이를 학습하여 객체(10)의 이동 패턴을 분석할 수 있다. 이벤트 결정부(230)는 이와 같이 인공지능기반으로 학습된 객체(10)의 이동 패턴을 고려하여 위치정보 가중치(Wp)를 수정할 수 있다. The event determiner 230 may analyze the movement pattern of the object 10 by accumulating the location information Pxy that changes in time series and learning it. The event determiner 230 may modify the location information weight Wp in consideration of the movement pattern of the object 10 learned based on artificial intelligence as described above.

또한, 이벤트 결정부(230)는 객체(10)의 이동 패턴을 학습하는 동시에 메타정보들의 변화를 학습한다. 그리고 이벤트 결정부(230)는 객체(10)의 이동 패턴에 메타정보들이 관여하는 것을 분석하고, 이를 바탕으로 메타정보 가중치(Wm)를 수정할 수 있다. In addition, the event determiner 230 learns the movement pattern of the object 10 and at the same time learns the change of meta information. In addition, the event determiner 230 may analyze the involvement of meta information in the movement pattern of the object 10 and correct the meta information weight Wm based on this.

이벤트 결정부(230)는 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 수정하는 과정에서 다른 객체의 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 고려할 수 있다. 이벤트 결정부(230)는 다른 객체들의 나이, 성별, 생활패턴 등을 고려하여 객체들 간의 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 학습하고, 이를 반영할 수 있다. The event determiner 230 may consider the location information weight Wp and the meta information weight Wm of other objects in the process of correcting the location information weight Wp and the meta information weight Wm. The event determiner 230 may learn location information weights Wp and meta information weights Wm between objects in consideration of the age, gender, and life patterns of other objects, and may reflect them.

특히, 이벤트 결정부(230)는 이벤트가 발생하였을 때와, 이벤트 발생에 따라 객체(10)의 생체정보를 해석한 결과를 추가로 학습하여 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 수정할 수 있다. In particular, the event determination unit 230 additionally learns when an event occurs and the result of analyzing the biometric information of the object 10 according to the occurrence of the event to obtain a location information weight (Wp) and a meta information weight (Wm) Can be modified.

상술한 바와 같은 AI 프로세싱을 수행하기 위해서, 본 발명의 이벤트 결정부(230)는 AI 장치를 포함할 수 있다.In order to perform the AI processing as described above, the event determiner 230 of the present invention may include an AI device.

본 발명의 실시 예에 따른 AI 장치(20)는 AI 프로세싱을 수행할 수 있는 AI 모듈을 포함하는 전자 기기 또는 AI 모듈을 포함하는 서버 등을 포함할 수 있다. 또한, AI 장치(20)는 이벤트 결정부(230)의 적어도 일부의 구성으로 포함되어 AI 프로세싱 중 적어도 일부를 함께 수행하도록 구비될 수도 있다.The AI device 20 according to an embodiment of the present invention may include an electronic device including an AI module capable of performing AI processing, or a server including an AI module. In addition, the AI device 20 may be included as a component of at least a part of the event determiner 230 to perform at least a part of AI processing together.

AI 프로세싱은, 이벤트 결정부(230)의 제어와 관련된 모든 동작들을 포함할 수 있다. 예를 들어, 이벤트 결정부(230)는 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 AI 프로세싱 하여 처리/판단하고, 이벤트 결정을 할 수 있다. AI processing may include all operations related to the control of the event determiner 230 . For example, the event determiner 230 may process/determine the location information weight (Wp) and the meta information weight (Wm) by AI-processing and determine the event.

AI 장치(20)는 AI 프로세싱 결과를 직접 이용하는 클라이언트 디바이스이거나, AI 프로세싱 결과를 다른 기기에 제공하는 클라우드 환경의 디바이스일 수도 있다.The AI apparatus 20 may be a client device that directly uses the AI processing result or a device in a cloud environment that provides the AI processing result to other devices.

도 8을 참조하면, 본 발명에 따른 AI 장치(20)는 AI 프로세서(21), 메모리(25) 및/또는 통신부(27)를 포함할 수 있다.Referring to FIG. 8 , the AI device 20 according to the present invention may include an AI processor 21 , a memory 25 and/or a communication unit 27 .

AI 장치(20)는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 서버, 데스크탑 PC, 노트북 PC, 태블릿 PC 등과 같은 다양한 전자 장치로 구현될 수 있다.The AI device 20 is a computing device capable of learning a neural network, and may be implemented in various electronic devices such as a server, a desktop PC, a notebook PC, and a tablet PC.

AI 프로세서(21)는 메모리(25)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(21)는 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 인식하기 위한 신경망은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 모드들은 뉴런이 시냅스(synapse)를 통해 신호를 주고 받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고 받을 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.The AI processor 21 may learn the neural network using a program stored in the memory 25 . In particular, the AI processor 21 may learn a neural network for recognizing the location information weight (Wp) and the meta information weight (Wm). Here, the neural network for recognizing the location information weight (Wp) and the meta information weight (Wm) may be designed to simulate the human brain structure on a computer, and a plurality of network nodes that simulate the neurons of the human neural network may include The plurality of network modes may transmit and receive data according to a connection relationship, respectively, so as to simulate a synaptic activity of a neuron in which a neuron sends and receives a signal through a synapse. Here, the neural network may include a deep learning model developed from a neural network model. In a deep learning model, a plurality of network nodes may exchange data according to a convolutional connection relationship while being located in different layers. Examples of neural network models include deep neural networks (DNN), convolutional deep neural networks (CNN), Recurrent Boltzmann Machine (RNN), Restricted Boltzmann Machine (RBM), deep trust It includes various deep learning techniques such as neural networks (DBN, deep belief networks) and deep Q-networks, and can be applied to fields such as computer vision, speech recognition, natural language processing, and voice/signal processing.

한편, 전술한 바와 같은 기능을 수행하는 프로세서는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU)일 수 있다.Meanwhile, the processor performing the above-described function may be a general-purpose processor (eg, CPU), but may be an AI-only processor (eg, GPU) for artificial intelligence learning.

메모리(25)는 AI 장치(20)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(25)는 비 휘발성 메모리, 휘발성 메모리, 플래시 메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SDD) 등으로 구현할 수 있다. 메모리(25)는 AI 프로세서(21)에 의해 액세스되며, AI 프로세서(21)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(25)는 본 발명의 일 실시예에 따른 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥 러닝 모델(26))을 저장할 수 있다.The memory 25 may store various programs and data necessary for the operation of the AI device 20 . The memory 25 may be implemented as a non-volatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), or a solid state drive (SDD). The memory 25 is accessed by the AI processor 21 , and reading/writing/modification/deletion/update of data by the AI processor 21 may be performed. Also, the memory 25 may store a neural network model (eg, the deep learning model 26 ) generated through a learning algorithm for data classification/recognition according to an embodiment of the present invention.

한편, AI 프로세서(21)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(22)를 포함할 수 있다. 데이터 학습부(22)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(22)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다. Meanwhile, the AI processor 21 may include a data learning unit 22 that learns a neural network for data classification/recognition. The data learning unit 22 may learn a criterion regarding which training data to use to determine data classification/recognition and how to classify and recognize data using the training data. The data learning unit 22 may learn the deep learning model by acquiring learning data to be used for learning and applying the acquired learning data to the deep learning model.

데이터 학습부(22)는 적어도 하나의 하드웨어 칩 형태로 제작되어 AI 장치(20)에 탑재될 수 있다. 예를 들어, 데이터 학습부(22)는 인공지능(AI)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 AI 장치(20)에 탑재될 수도 있다. 또한, 데이터 학습부(22)는 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 애플리케이션에 의해 제공될 수 있다. The data learning unit 22 may be manufactured in the form of at least one hardware chip and mounted on the AI device 20 . For example, the data learning unit 22 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or may be manufactured as a part of a general-purpose processor (CPU) or a graphics-only processor (GPU) to the AI device 20 . may be mounted. Also, the data learning unit 22 may be implemented as a software module. When implemented as a software module (or a program module including instructions), the software module may be stored in a computer-readable non-transitory computer readable medium. In this case, the at least one software module may be provided by an operating system (OS) or may be provided by an application.

데이터 학습부(22)는 학습 데이터 획득부(23) 및 모델 학습부(24)를 포함할 수 있다. The data learning unit 22 may include a training data acquiring unit 23 and a model learning unit 24 .

학습 데이터 획득부(23)는 데이터를 분류하고 인식하기 위한 신경망 모델에 필요한 학습 데이터를 획득할 수 있다. 예를 들어, 학습 데이터 획득부(23)는 학습 데이터로서, 신경망 모델에 입력하기 위한 위치정보 가중치(Wp) 및 메타정보 가중치(Wm)를 획득할 수 있다.The training data acquisition unit 23 may acquire training data required for a neural network model for classifying and recognizing data. For example, the training data acquisition unit 23 may acquire, as training data, a position information weight Wp and a meta information weight Wm to be input to the neural network model.

모델 학습부(24)는 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류할지에 관한 판단 기준을 가지도록 학습할 수 있다. 이 때 모델 학습부(24)는 학습 데이터 중 적어도 일부를 판단 기준으로 이용하는 지도 학습(supervised learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또는 모델 학습부(24)는 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 판단 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 학습에 따른 상황 판단의 결과가 올바른지에 대한 피드백을 이용하여 강화 학습(reinforcement learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다. The model learning unit 24 may use the acquired training data to learn so that the neural network model has a criterion for determining how to classify predetermined data. In this case, the model learning unit 24 may train the neural network model through supervised learning using at least a portion of the training data as a criterion for determination. Alternatively, the model learning unit 24 may learn the neural network model through unsupervised learning for discovering a judgment criterion by self-learning using learning data without guidance. Also, the model learning unit 24 may train the neural network model through reinforcement learning using feedback on whether the result of the situation determination according to the learning is correct. Also, the model learning unit 24 may train the neural network model by using a learning algorithm including an error back-propagation method or a gradient decent method.

신경망 모델이 학습되면, 모델 학습부(24)는 학습된 신경망 모델을 메모리에 저장할 수 있다. 모델 학습부(24)는 학습된 신경망 모델을 AI 장치(20)와 유선 또는 무선 네트워크로 연결된 서버의 메모리에 저장할 수도 있다.When the neural network model is trained, the model learning unit 24 may store the learned neural network model in a memory. The model learning unit 24 may store the learned neural network model in the memory of the server connected to the AI device 20 through a wired or wireless network.

데이터 학습부(22)는 인식 모델의 분석 결과를 향상시키거나, 인식 모델의 생성에 필요한 리소스 또는 시간을 절약하기 위해 학습 데이터 전처리부(미도시) 및 학습 데이터 선택부(미도시)를 더 포함할 수도 있다. The data learning unit 22 further includes a training data preprocessing unit (not shown) and a training data selection unit (not shown) to improve the analysis result of the recognition model or to save resources or time required for generating the recognition model You may.

학습 데이터 전처리부는 획득된 데이터가 상황 판단을 위한 학습에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 예를 들어, 학습 데이터 전처리부는, 모델 학습부(24)가 이미지 인식을 위한 학습을 위하여 획득된 학습 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.The learning data preprocessor may preprocess the acquired data so that the acquired data can be used for learning for situation determination. For example, the training data preprocessor may process the acquired data into a preset format so that the model learning unit 24 may use the acquired training data for image recognition learning.

또한, 학습 데이터 선택부는, 학습 데이터 획득부(23)에서 획득된 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부(24)에 제공될 수 있다. 예를 들어, 학습 데이터 선택부는 위치정보 산출부(220)가 획득한 위치정보 중에서 특정 영역을 중심으로 학습 데이터를 선택할 수도 있다.In addition, the learning data selection unit may select data required for learning from among the learning data acquired by the learning data acquiring unit 23 or the training data preprocessed by the preprocessing unit. The selected training data may be provided to the model learning unit 24 . For example, the training data selection unit may select the training data centering on a specific area from the location information obtained by the location information calculating unit 220 .

또한, 데이터 학습부(22)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(미도시)를 더 포함할 수도 있다.In addition, the data learning unit 22 may further include a model evaluation unit (not shown) in order to improve the analysis result of the neural network model.

모델 평가부는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(22)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 인식 모델을 평가하기 위한 기 정의된 데이터일 수 있다. 일 예로, 모델 평가부는 평가 데이터에 대한 학습된 인식 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정되 임계치를 초과하는 경우, 소정 기준을 만족하지 못한 것으로 평가할 수 있다.The model evaluator may input evaluation data to the neural network model and, when an analysis result output from the evaluation data does not satisfy a predetermined criterion, may cause the model learning unit 22 to learn again. In this case, the evaluation data may be predefined data for evaluating the recognition model. As an example, the model evaluator may evaluate as not satisfying a predetermined criterion when, among the analysis results of the learned recognition model for the evaluation data, the number or ratio of evaluation data for which the analysis result is not accurate exceeds a preset threshold. have.

통신부(27)는 외부로부터 메타정보를 수신하고, 또한 AI 프로세싱 결과를 외부로 전송할 수 있다. 예컨대, 통신부(27)는 기상관측서버를 통해서 날씨 등의 메타정보를 수신할 수 있다. 또한, 생체정보 해석부(240)의 결과에 따라, 통신부(27)를 통해서 구호기관에 구호조치가 전달될 수 있다. The communication unit 27 may receive meta information from the outside and also transmit the AI processing result to the outside. For example, the communication unit 27 may receive meta information such as weather through a weather observation server. In addition, according to the result of the biometric information analysis unit 240 , a relief action may be transmitted to a relief organization through the communication unit 27 .

한편, 도 8에 도시된 AI 장치(20)는 AI 프로세서(21)와 메모리(25), 통신부(27) 등으로 기능적으로 구분하여 설명하였지만, 전술한 구성요소들이 하나의 모듈로 통합되어 AI 모듈로 호칭될 수도 있다. 또한, 도 8에 도시된 AI 장치(20)는 하나의 실시 예에 해당하며, AI 프로세싱을 위해서 추가적인 구성이 더해줄 수도 있고, 임의의 구성은 생략될 수도 있다.On the other hand, the AI device 20 shown in FIG. 8 has been described as functionally divided into the AI processor 21, the memory 25, the communication unit 27, and the like, but the above-described components are integrated into one module and the AI module may be called as In addition, the AI device 20 shown in FIG. 8 corresponds to one embodiment, and an additional configuration may be added for AI processing, or an arbitrary configuration may be omitted.

제5 단계(S250)에서, 생체정보 해석부(240)는 이벤트가 발생하였을 때, 객체(10)의 생체정보를 해석한다.In the fifth step (S250), the biometric information analysis unit 240 interprets the biometric information of the object 10 when an event occurs.

생체 정보 해석 방법How to interpret biometric information

도 9는 생체정보 해석부(240)가 생체정보를 해석하는 실시 예를 나타내는 도면이다. 9 is a diagram illustrating an embodiment in which the biometric information analysis unit 240 analyzes biometric information.

도 9를 참조하면, 생체정보 해석부(240)는 반사파를 바탕으로 생체정보를 해석한다. 예컨대, Rx1 신호는 메인 주파수(fm)와 주변 주파수(fs)를 포함할 수 있다. 메인 주파수(fm)는 앞서 설명된 객체(10)의 움직임을 파악하는 데에 이용된다. Rx1 신호는 객체(10)의 움직임 이외에도, 객체(10)의 심박수 또는 호흡 등에 따라서 미세한 주변 주파수(fs)가 혼합된다. 주변 주파수(fs)는 객체(10)의 위치정보(Pxy)를 산출하는 과정에서 노이즈(noise)로 간주되지만, 생체정보 해석부(240)는 주변 주파수(fs)의 특정 주파수 성분을 검출하고, 이를 바탕으로 객체(10)의 심박수 등의 생체정보를 획득할 수 있다. Referring to FIG. 9 , the biometric information analysis unit 240 analyzes the biometric information based on the reflected wave. For example, the Rx1 signal may include a main frequency fm and a peripheral frequency fs. The main frequency fm is used to detect the motion of the object 10 described above. In addition to the movement of the object 10 , the Rx1 signal is mixed with a fine peripheral frequency fs according to the heart rate or respiration of the object 10 . The peripheral frequency fs is considered noise in the process of calculating the location information Pxy of the object 10, but the biometric information analysis unit 240 detects a specific frequency component of the peripheral frequency fs, Based on this, biometric information such as a heart rate of the object 10 may be acquired.

생체정보 해석부(240)는 생체정보 변화량이 순간적으로 크게 변할 경우, 객체(10)의 건강 이상이 도래하였다고 판단하고 알람을 생성한다.When the amount of change in the biometric information changes greatly instantaneously, the biometric information analysis unit 240 determines that a health abnormality of the object 10 has arrived and generates an alarm.

생체정보 해석부(240)는 인공지능 기반으로 생체정보를 학습하고, 이를 바탕으로 알람을 생성할 수 있다. 또한, 생체정보 해석부(240)는 생체정보를 학습하는 과정에서, 다른 객체들의 생체정보 학습 결과를 고려할 수 있다.The biometric information analysis unit 240 may learn biometric information based on artificial intelligence and generate an alarm based on this. In addition, in the process of learning the biometric information, the biometric information analysis unit 240 may consider the biometric information learning results of other objects.

제6 단계(S260)에서, 생체정보 해석부(240)로부터 객체(10)의 건강 이상 징후에 대한 알람이 생성되었을 때, 신호 해석부(200)는 구제기간에 호출하는 등의 구호조치를 취한다.In the sixth step (S260), when an alarm about the health abnormality of the object 10 is generated from the biometric information analysis unit 240, the signal analysis unit 200 takes relief measures such as calling in the relief period do.

살펴본 바와 같이, 본 발명은 레이더 방식으로 객체(10)의 건강 상태를 모니터링 할 수 있다.As described above, the present invention can monitor the health state of the object 10 by a radar method.

본 발명은 영상 촬영이나 음성 신호를 바탕으로 객체(10)를 모니터링 하는 것이 아니기 때문에, 객체(10)의 사생활 침해를 최소화할 수 있다. Since the present invention does not monitor the object 10 based on image capture or an audio signal, the invasion of privacy of the object 10 can be minimized.

또한, 본 발명은 영상 촬영을 이용하지 않기 때문에, 모니터링 대상의 주변 조도 및 빛 반사로 인해서 객체(10)의 상태를 모니터링하기 곤란한 문제점을 해소할 수 있다. 본 발명은 음성 신호를 이용하지 않기 때문에, 주변의 소음으로 인해서 객체(10)의 상태를 모니터링 하기 곤란한 문제점을 해소할 수 있다. 또한, 처프 레이더와 같은 무선신호는 제1 및 제2 무선신호 송수신기들(110,120)과 객체(10) 사이에 장애물 영향을 받지않고 객체(10)를 모니터링 할 수 있다. 이처럼 본 발명은 방해 요소의 영향을 받지 않고, 음영지역 없이 객체(10)를 모니터링 할 수 있다. In addition, since the present invention does not use image capturing, it is possible to solve the problem that it is difficult to monitor the state of the object 10 due to the ambient illuminance and light reflection of the monitoring target. Since the present invention does not use a voice signal, it is possible to solve the problem that it is difficult to monitor the state of the object 10 due to the surrounding noise. In addition, a radio signal such as a chirped radar may monitor the object 10 without being affected by an obstacle between the first and second radio signal transceivers 110 and 120 and the object 10 . As such, according to the present invention, the object 10 can be monitored without being affected by an obstructive element and without a shadow area.

또한, 본 발명을 실시하기 위해서 객체(10)는 추가적인 장치를 신체에 부착시키거나 보유할 필요가 없기 때문에, 객체(10)는 불편함을 느끼지 않을 수 있다. In addition, since the object 10 does not need to attach or hold an additional device to the body in order to practice the present invention, the object 10 may not feel discomfort.

본 발명의 실시 예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시 예는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.Embodiments of the present invention and the drawings attached to this specification merely clearly show some of the technical ideas included in the above-described technology, and those skilled in the art can Modifications and specific embodiments that can be easily inferred will be apparent to be included in the scope of the above-described technology.

10: 객체 110, 120: 무선신호 송수신기
200: 신호 해석부 210: 신호 처리부
220: 위치정보 산출부 230: 이벤트 결정부
240: 생체정보 해석부
10: object 110, 120: radio signal transceiver
200: signal analysis unit 210: signal processing unit
220: location information calculation unit 230: event determination unit
240: biometric information analysis unit

Claims (6)

헬스 케어를 위한 모니터링 시스템에서 노약자 케어를 위한 모니터링 방법에 있어서,
제 1 무선신호 송수신기와 객체 간 송수신되는 송수신 신호들을 저잡음 증폭기를 통해 증폭하고, 상기 증폭된 송수신 신호들 중에서 유효 신호를 추출하는 단계;
상기 추출된 유효 신호에서 수신 신호들의 지연되는 변화량에 기초하여 어느 하나의 수신 신호를 상기 객체로부터 반사되는 제 1 반사파로 결정하는 단계;
제 2 무선신호 송수신기와 상기 객체 간 송수신되는 송수신 신호들을 저잡음 증폭기를 통해 증폭하고, 상기 증폭된 송수신 신호들 중에서 유효 신호를 추출하는 단계;
상기 추출된 유효 신호에서 수신 신호들의 지연되는 변화량에 기초하여 어느 하나의 수신 신호를 상기 객체로부터 반사되는 제 2 반사파로 결정하는 단계;
상기 제 1 반사파의 지연 정도에 기초하여 상기 제 1 무선신호 송수신기와 상기 객체 간의 제 1 이격거리를 산출하는 단계;
상기 제 2 반사파의 지연 정도에 기초하여 상기 제 2 무선신호 송수신기와 상기 객체 간의 제 2 이격거리를 산출하는 단계;
상기 제 1 이격거리 및 상기 제 2 이격거리에 기초하여 2차원 좌표로 산출되는 상기 객체의 위치정보를 획득하는 단계;
상기 위치정보의 변화량과 미리 설정된 이동 임계치를 비교하여 상기 객체의 이동 여부를 결정하는 단계; 및
임계시간 동안 상기 객체가 이동하지 않을 때 이벤트를 생성하는 단계를 포함하되,
상기 임계시간은 기준시간, 위치정보 가중치 및 메타정보 가중치의 곱에 기초하여 설정되며,
상기 위치정보 가중치는 상기 위치정보에 따라 다르게 설정되며,
상기 제1 반사파 및 상기 제2 반사파에 기초하여 상기 객체의 생체 정보를 해석하는 단계를 더 포함하되,
상기 제1 반사파 및 상기 제2 반사파는 각각 메인 주파수와 주변 주파수를 포함하며,
상기 생체 정보를 해석하는 단계는,
상기 제1 반사파 및 상기 제2 반사파에서 각각 주변 주파수를 검출하고, 상기 검출된 주변 주파수의 특정 주파수 성분에 기초하여 상기 객체의 심박수를 해석하며,
상기 획득되는 객체의 위치정보는 시계열적으로 연속적인 객체의 위치정보를 소정 시간 단위로 산출하며,
상기 위치정보의 변화량은 2회의 타이밍에서 각각 산출된 위치정보를 연결하는 벡터의 크기로 결정되며,
상기 메타정보 가중치는 메타정보에 따라 객체가 특정 장소에 머무르는 시간에 기초하여 설정되며,
상기 메타정보는 월, 일, 시간, 날씨 또는 온도 중 적어도 하나를 포함하며,
상기 위치정보 가중치는 상기 획득되는 위치정보의 학습을 통해 분석되는 객체의 이동 패턴에 기초하여 수정되며,
상기 메타정보 가중치는 상기 객체의 이동 패턴 및 상기 메타정보의 변화에 대한 학습을 통해 분석된 결과에 기초하여 수정되며,
상기 위치정보 가중치 및 상기 메타정보 가중치는 상기 생성된 이벤트에 따른 객체의 생체정보에 대한 학습한 결과를 바탕으로 수정되는 것을 특징으로 하는 노약자 케어를 위한 모니터링 방법.
In a monitoring method for care for the elderly in a monitoring system for health care,
Amplifying the transmission/reception signals transmitted/received between the first wireless signal transceiver and the object through a low noise amplifier, and extracting an effective signal from the amplified transmission/reception signals;
determining any one received signal as a first reflected wave reflected from the object based on a delayed change amount of the received signals in the extracted valid signal;
amplifying the transmission/reception signals transmitted/received between the second wireless signal transceiver and the object through a low noise amplifier, and extracting an effective signal from the amplified transmission/reception signals;
determining any one received signal as a second reflected wave reflected from the object based on a delayed change amount of the received signals in the extracted valid signal;
calculating a first separation distance between the first radio signal transceiver and the object based on the delay degree of the first reflected wave;
calculating a second separation distance between the second wireless signal transceiver and the object based on the delay degree of the second reflected wave;
obtaining location information of the object calculated as two-dimensional coordinates based on the first separation distance and the second separation distance;
determining whether to move the object by comparing the change amount of the location information with a preset movement threshold; and
Including generating an event when the object does not move for a threshold time,
The threshold time is set based on the product of the reference time, the location information weight, and the meta information weight,
The location information weight is set differently according to the location information,
Further comprising the step of analyzing the biometric information of the object based on the first reflected wave and the second reflected wave,
The first reflected wave and the second reflected wave each include a main frequency and a peripheral frequency,
Interpreting the biometric information comprises:
Detecting an ambient frequency from each of the first reflected wave and the second reflected wave, and interpreting the heart rate of the object based on a specific frequency component of the detected ambient frequency,
The obtained location information of the object calculates the location information of the object continuously in time series in a predetermined time unit,
The change amount of the location information is determined by the size of a vector connecting the location information calculated at two timings,
The meta information weight is set based on the time the object stays in a specific place according to the meta information,
The meta information includes at least one of month, day, time, weather, and temperature,
The location information weight is modified based on the movement pattern of the object analyzed through learning of the obtained location information,
The meta information weight is modified based on the analysis result through learning about the movement pattern of the object and the change of the meta information,
The location information weight and the meta information weight is a monitoring method for care for the elderly, characterized in that it is modified based on a result of learning about the biometric information of the object according to the generated event.
삭제delete 삭제delete 제 1 항에 있어서,
상기 위치정보 가중치 및 상기 메타정보 가중치는 다른 객체의 위치정보 가중치 및 메타정보 가중치를 추가적으로 고려하여 수정되는 노약자 케어를 위한 모니터링 방법.
The method of claim 1,
The location information weight and the meta information weight are modified by additionally considering the location information weight and the meta information weight of another object.
삭제delete 삭제delete
KR1020190050129A 2019-04-29 2019-04-29 Monitoring Method for the Old and the Weak Care KR102330328B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190050129A KR102330328B1 (en) 2019-04-29 2019-04-29 Monitoring Method for the Old and the Weak Care

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190050129A KR102330328B1 (en) 2019-04-29 2019-04-29 Monitoring Method for the Old and the Weak Care

Publications (2)

Publication Number Publication Date
KR20200126300A KR20200126300A (en) 2020-11-06
KR102330328B1 true KR102330328B1 (en) 2021-11-24

Family

ID=73572119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190050129A KR102330328B1 (en) 2019-04-29 2019-04-29 Monitoring Method for the Old and the Weak Care

Country Status (1)

Country Link
KR (1) KR102330328B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100824727B1 (en) * 2006-12-15 2008-04-24 티이씨네트웍스 주식회사 Location information service system and the method which use the lbs
KR101519907B1 (en) * 2014-11-12 2015-05-18 문기영 System for taking care of alienated people living alone

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101293195B1 (en) * 2011-12-29 2013-08-05 세종대학교산학협력단 Device and method for searching indoor position
KR101665786B1 (en) * 2014-12-05 2016-10-13 현대오트론 주식회사 Method and apparatus for measuring a distance using ultrasonic waves
KR20160132744A (en) * 2015-05-11 2016-11-21 삼성전자주식회사 User terminal apparatus and control method thereof
KR101871052B1 (en) * 2016-10-18 2018-06-25 조선대학교산학협력단 Hybrid indoor positioning system and method thereof
KR20180110808A (en) * 2017-03-30 2018-10-11 씨아이에스포유 주식회사 Apparatus for determining the emergency situation of the old and the infirm

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100824727B1 (en) * 2006-12-15 2008-04-24 티이씨네트웍스 주식회사 Location information service system and the method which use the lbs
KR101519907B1 (en) * 2014-11-12 2015-05-18 문기영 System for taking care of alienated people living alone

Also Published As

Publication number Publication date
KR20200126300A (en) 2020-11-06

Similar Documents

Publication Publication Date Title
US11902857B2 (en) Handling concept drift in Wi-Fi-based localization
Damodaran et al. Device free human activity and fall recognition using WiFi channel state information (CSI)
US9568594B2 (en) Human posture feature extraction in personal emergency response systems and methods
Yu et al. Noninvasive human activity recognition using millimeter-wave radar
US9568595B2 (en) Ultra-wide band antenna arrays and related methods in personal emergency response systems
US20220070633A1 (en) Proximity-based model for indoor localization using wireless signals
Rastogi et al. A systematic review on machine learning for fall detection system
Jung et al. Sequential pattern profiling based bio-detection for smart health service
KR102045741B1 (en) Device, method and program for providing the health care data of companion animal
CN112806975A (en) Sleep monitoring device, method and medium based on millimeter wave radar
Lin et al. A new method for heart rate prediction based on LSTM-BiLSTM-Att
US20230206078A1 (en) Anatomical position monitoring for bodily pressure ulcers
CN113257415A (en) Health data collection device and system
CN111387936A (en) Sleep stage identification method, device and equipment
KR102274581B1 (en) Method for generating personalized hrtf
CN114818788A (en) Tracking target state identification method and device based on millimeter wave perception
Ammae et al. Unobtrusive detection of body movements during sleep using Wi-Fi received signal strength with model adaptation technique
Behmann et al. Support Vector machine and duration-aware conditional random field for identification of spatio-temporal activity patterns by combined indoor positioning and heart rate sensors
Showmik et al. Human activity recognition from wi-fi csi data using principal component-based wavelet cnn
KR102349851B1 (en) System and method for providing multi-object recognition service using camera for pet
KR102330328B1 (en) Monitoring Method for the Old and the Weak Care
KR20190110276A (en) Multi-sensor based noncontact sleep monitoring method and apparatus using ensemble of deep neural network and random forest
Liu et al. Human behavior sensing: challenges and approaches
CN108604399B (en) Occupancy sensing system and sensing method
KR102303633B1 (en) Smart Home Care System Using Emotional and Status Analysing of Compansion Animal

Legal Events

Date Code Title Description
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant