KR20210116318A - Systen for preventing indoor human casualties - Google Patents

Systen for preventing indoor human casualties Download PDF

Info

Publication number
KR20210116318A
KR20210116318A KR1020210032587A KR20210032587A KR20210116318A KR 20210116318 A KR20210116318 A KR 20210116318A KR 1020210032587 A KR1020210032587 A KR 1020210032587A KR 20210032587 A KR20210032587 A KR 20210032587A KR 20210116318 A KR20210116318 A KR 20210116318A
Authority
KR
South Korea
Prior art keywords
posture
unit
information
image
monitoring
Prior art date
Application number
KR1020210032587A
Other languages
Korean (ko)
Other versions
KR102412270B1 (en
Inventor
유광석
김태연
Original Assignee
(주)아이센
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이센 filed Critical (주)아이센
Publication of KR20210116318A publication Critical patent/KR20210116318A/en
Application granted granted Critical
Publication of KR102412270B1 publication Critical patent/KR102412270B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • H04N5/369

Abstract

The present invention relates to a system for preventing indoor life accidents, which detects only dynamic movement of a human body through a low-resolution image-based human body sensor installed indoors to generate an accident risk signal when the dynamic movement does not occur for a set time or more, or is different from usual, so that a guardian is notified of the situation in real-time, thereby enabling the guardian to automatically check the health status of a single person from a distance. According to the present invention, the system comprises: a sensor module installed indoors to photograph a subject; an image monitoring module monitoring activity of the subject by analyzing the image captured by the sensor module; and a health care module inferring the subject's health state through inference based on an activity monitoring result transmitted from the image monitoring module to generate care information and notify a guardian of the care information on the subject.

Description

실내 인명사고 감지 시스템{SYSTEN FOR PREVENTING INDOOR HUMAN CASUALTIES}Indoor accident detection system {SYSTEN FOR PREVENTING INDOOR HUMAN CASUALTIES}

본 발명은 실내 인명사고 감지 시스템에 관한 것으로, 보다 상세하게는 실내에 설치되는 저화질 이미지 기반의 인체 감지 센서를 통해 인체의 동적 움직임만을 감지하여 동적 움직임이 설정된 시간 이상 발생하지 않거나 평상시와 다를 경우 사고위험 신호를 발생시켜 보호자에게 실시간으로 상황 통보가 되도록 해 독거인의 건강 상태를 보호자가 원거리에서 자동 체크할 수 있도록 하는 실내 인명사고 감지 시스템에 관한 것이다. The present invention relates to an indoor human accident detection system, and more particularly, by detecting only the dynamic movement of the human body through a low-resolution image-based human body detection sensor installed indoors, an accident when the dynamic movement does not occur for more than a set time or is different from usual It relates to an indoor fatal accident detection system that generates a danger signal and notifies the guardian in real time, so that the guardian can automatically check the health status of a person living alone from a distance.

최근 핵가족화 및 노령화 현상이 가속화됨에 따라 도움을 줄 수 있는 부양 의무자 없이 홀로 생활하는 독거노인이 늘어나고 있는 추세이다. With the recent acceleration of nuclear family and aging, the number of senior citizens living alone without a supporter who can help is increasing.

독거노인의 경우 어느 날 갑자기 건강이 위독해 지거나, 위급상황이 발생하더라도 긴급 구조 요청을 적시에 하지 못하여 귀중한 생명을 잃게 되거나 더욱 심하게는 사망 후 장기간 방치되는 이른바 독거노인 고독사 문제가 사회적 이슈로 떠오르고 있다.In the case of the elderly living alone, even if their health suddenly becomes critical or an emergency occurs one day, the so-called death of the elderly living alone is a social issue, in which precious lives are lost due to failure to timely request for emergency rescue, or, worse, left alone for a long time after death. have.

종래 이러한 독거노인 고독사 문제의 해결을 위해 정부기관, 지방자치단체 및 민간 보안업체 등은 대상자의 신체상태 변화를 측정하기 위한 센서기반의 기기설치를 통해 대상자의 활동량, 가스위험, 방범, 화재 감시 등 안전관리 전반에 대한 시스템을 구축하고 대상자의 위급상황 발생시 119 등 구조기관 등과 연계한 서비스를 제공하고 있다.In order to solve the problem of loneliness for the elderly living alone, government agencies, local governments and private security companies installed sensor-based devices to measure changes in the subject's physical condition to monitor the subject's activity level, gas risk, crime prevention, and fire. We have established a system for overall safety management, such as emergency services, and provide services in connection with rescue organizations such as 119 in case of emergency.

그러나, 이러한 센서기반의 기기설치를 통해 제공되는 서비스는 가정 내 센서 및 카메라 부착으로 인해 대상자로 하여금 감시/통제에 대한 거부감을 야기할 수 있다는 점, 센서 설치비는 물론 기기 고장 등으로 인한 교체에 대한 유지보수 비용, 서비스 모니터링에 대한 인건비 등이 지속적으로 발생하여 서비스 비용에 대한 부담이 크게 발생한다는 점에 비추어 실제 도움이 절실한 저소득층의 독거노인에게는 효과적인/실용적인 서비스를 제공할 수 없다는 문제가 있다.However, the service provided through such sensor-based device installation may cause the target object to resist monitoring/control due to the attachment of sensors and cameras in the home. In light of the fact that maintenance costs and labor costs for service monitoring continue to occur, which greatly increases the burden of service costs, there is a problem that effective/practical services cannot be provided to the low-income seniors living alone in need of real help.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 그 목적은 실내에 설치되는 저화질 이미지 기반의 인체 감지 센서를 통해 인체의 동적 움직임만을 감지하여 동적 움직임이 설정된 시간 이상 발생하지 않거나 평상시와 다를 경우 사고위험 신호를 발생시켜 보호자에게 실시간으로 상황 통보가 되도록 해 독거인의 건강 상태를 보호자가 원거리에서 자동 체크할 수 있도록 하는 실내 인명사고 감지 시스템을 제공하는 것이다. The present invention has been devised to solve the above problems, and its purpose is to detect only the dynamic movement of the human body through a low-resolution image-based human body detection sensor installed indoors, so that the dynamic movement does not occur for more than a set time or is different from usual. In this case, it is to provide an indoor human accident detection system that can automatically check the health status of a person living alone from a distance by generating an accident risk signal to notify the guardian in real time.

본 발명에 따르면, 실내에 설치되어 대상자를 촬영하는 센서 모듈; 상기 센서 모듈에서 촬영된 영상을 분석하여 대상자의 활동을 모니터링하는 영상 모니터링 모듈; 및 상기 영상 모니터링 모듈로부터 전달되는 활동 모니터링 결과를 근거로 대상자의 건강 상태를 추론을 통해 유추함으로써 대상자에 대한 케어 정보를 생성해 통지하는 건강 케어 모듈; 을 포함하는 것을 특징으로 하는 실내 인명사고 감지 시스템을 제공한다. According to the present invention, a sensor module installed indoors to photograph a subject; an image monitoring module for monitoring the activity of the subject by analyzing the image captured by the sensor module; and a health care module for generating and notifying care information for a subject by inferring the subject's health state through inference based on the activity monitoring result transmitted from the image monitoring module. It provides an indoor human accident detection system comprising a.

바람직하게는, 상기 센서 모듈은, 지정된 관심구역을 촬영하여 관심구역에 대한 영상 데이터를 획득하는 이미지 센서; 및 상기 이미지 센서로부터 전달되는 영상 데이터를 영상 모니터링 모듈로 송신하는 통신부; 를 포함하며, 상기 이미지 센서에서 촬영된 영상 데이터는 정지 영상과 같이 하나의 영상프레임 단위로 촬영되거나 동영상과 같이 다수 개의 영상 프레임 단위로 촬영되는 것을 특징으로 한다. Preferably, the sensor module comprises: an image sensor that captures a designated region of interest to obtain image data for the region of interest; and a communication unit transmitting the image data transmitted from the image sensor to the image monitoring module. It includes, wherein the image data captured by the image sensor is photographed in units of one image frame, such as a still image, or is photographed in units of a plurality of image frames, such as a moving image.

바람직하게는, 상기 영상 모니터링 모듈은, 상기 센서 모듈로부터 실시간으로 전달되는 영상 데이터를 수신해 영상 분석을 수행하여 영상에서 대상자의 활동에 대한 모니터링 판별 정보를 출력하는 영상 모니터링 분석부; 상기 영상 모니터링 분석부의 모니터링 판별을 위한 판별기준 정보를 저장관리하는 판별기준 설정부; 및 상기 센서 모듈로부터 전달되는 영상 데이터를 수신하여 영상 모니터링 분석부로 전달하며 상기 영상 모니터링 분석부로부터 전달되는 모니터링 판별 정보를 건강 케어 모듈로 송신하는 통신부; 를 포함하는 것을 특징으로 한다. Preferably, the image monitoring module includes: an image monitoring analysis unit for receiving image data transmitted in real time from the sensor module, performing image analysis, and outputting monitoring determination information on the subject's activity in the image; a determination standard setting unit for storing and managing determination reference information for monitoring determination of the image monitoring and analysis unit; and a communication unit that receives the image data transmitted from the sensor module, transmits the image data to the image monitoring analysis unit, and transmits the monitoring determination information transmitted from the image monitoring analysis unit to the health care module. It is characterized in that it includes.

바람직하게는, 상기 영상 모니터링 분석부는, 대상자가 포함된 영상에서 대상자가 현재 취하고 있는 자세를 식별하고 식별된 자세의 유지시간을 카운팅함으로써 모니터링 판별 정보로서 자세식별값 및 그 유지시간 정보를 생성하는 것을 특징으로 한다. Preferably, the image monitoring analysis unit identifies the posture the subject is currently taking in the image including the subject and counts the maintenance time of the identified posture to generate the posture identification value and the holding time information as monitoring determination information. characterized.

바람직하게는, 상기 영상 모니터링 분석부는, 센서 모듈로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자인 인물을 검출하는 인물 검출부; 상기 인물 검출부에서 검출된 인물이 현재 취하고 있는 몸의 자세를 식별하는 자세 식별부; 상기 자세 식별부에서 식별된 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하는 자세 모니터링부; 및 상기 자세 식별부의 자세식별값과 상기 자세 모니터링부의 자세 유지시간 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하는 추론정보 생성부; 를 포함하는 것을 특징으로 한다. Preferably, the image monitoring and analysis unit includes: a person detection unit for detecting a person who is a subject from an image including the subject transmitted in real time from the sensor module; a posture identification unit for identifying a body posture currently taken by the person detected by the person detecting unit; Posture monitoring unit for calculating the posture holding time by counting the time that the posture identified by the posture identification unit is maintained; and an inference information generation unit for outputting the posture identification value of the posture identification unit and the posture maintenance time information of the posture monitoring unit as monitoring determination information capable of inferring a health state; It is characterized in that it includes.

바람직하게는, 상기 판별기준 설정부에는 인물 검출부에서 검출된 인물의 인물영역에서 도출될 수 있는 장축과 단축의 방향을 이용한 식별기준인 제 1 자세식별 정보를 관리하며, 상기 제 1 자세식별 기준정보는 인물영역의 장축이 영상의 수직축과 대응되면 해당 인물의 자세를 선 자세로 식별하도록 하는 기준정보와 인물영역의 장축이 영상의 수평축과 대응되면 해당 인물의 자세를 누운 자세로 식별하도록 하는 기준정보를 포함하는 것을 특징으로 한다. Preferably, the determination criterion setting unit manages first posture identification information, which is an identification criterion using the direction of the major axis and the minor axis that can be derived from the person area of the person detected by the person detection unit, and the first posture identification reference information is reference information for identifying the person's posture as a standing posture when the long axis of the person area corresponds to the vertical axis of the image, and reference information for identifying the person's posture as a lying posture when the long axis of the person area corresponds to the horizontal axis of the image It is characterized in that it includes.

바람직하게는, 상기 자세 식별부는 상기 판별기준 설정부에서 관리되는 제 1 자세식별 기준정보를 참고하여 인물영역의 장축과 단축을 식별하고, 이 인물영역의 장축이 영상의 수직축과 ±44°의 각도 내에서 대응되면 현재 인물의 자세를 선 자세로 식별하고, 자세 모니터링부에서는 식별된 선 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하며, 또는 이 인물영역의 장축이 영상의 수평축과 ±44°의 각도 내에서 대응되면 현재 인물의 자세를 누운 자세로 식별하고, 자세 모니터링부에서는 식별된 누운 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하는 것을 특징으로 한다. Preferably, the posture identification unit identifies a major axis and a minor axis of the person area with reference to the first posture identification reference information managed by the determination standard setting unit, and the long axis of the person area is an angle of ±44° with the vertical axis of the image If the position of the person is matched within the range, the current person's posture is identified as a standing posture, and the posture monitoring unit calculates the posture maintenance time by counting the time the identified standing posture is maintained, or the long axis of this person area is ±44 from the horizontal axis of the image. If it corresponds within the angle of °, the current posture of the person is identified as a supine posture, and the posture monitoring unit counts the time the identified supine posture is maintained to calculate the posture maintenance time.

바람직하게는, 상기 판별기준 설정부에는 인물 검출부에서 검출된 인물의 인물영역에서 도출될 수 있는 장축과 단축의 길이 비율을 이용한 식별기준인 제 2 자세식별 정보를 관리하며, 상기 제 2 자세식별 기준정보는 상기 제 1 자세식별 기준정보에 따라 누운 자세로 식별된 자세에 대해 장축의 길이가 단축의 길이에 비해 3배를 넘지 못할 경우 해당 누운 인물의 자세를 웅크린 자세로 식별하도록 하는 기준정보를 포함하는 것을 특징으로 한다. Preferably, the determination criterion setting unit manages second posture identification information, which is an identification criterion using a ratio of a length of a major axis to a minor axis that can be derived from the person region of the person detected by the person detection unit, and the second posture identification standard The information includes reference information for identifying the posture of the person lying down as a crouched posture when the length of the major axis does not exceed three times the length of the minor axis for the posture identified as the lying posture according to the first posture identification reference information characterized in that

바람직하게는, 누운 자세의 판별 후, 상기 자세 식별부는 상기 판별기준 설정부에서 관리되는 제 2 자세식별 기준정보를 참고하여 인물영역의 장축 길이와 단축 길이를 식별하고, 누운 자세로 식별된 자세에 대해 장축의 길이가 단축의 길이에 비해 3배를 넘지 못할 경우 해당 누운 인물의 자세를 웅크린 자세로 식별하고, 자세 모니터링부에서는 식별된 웅크린 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하는 것을 특징으로 한다. Preferably, after determining the supine posture, the posture identification unit identifies the major axis length and the minor axis length of the person area with reference to the second posture identification reference information managed by the determination criterion setting unit, and determines the posture identified as the lying posture. In contrast, if the length of the major axis does not exceed three times the length of the minor axis, the posture of the person lying down is identified as a crouched posture, and the posture monitoring unit counts the time the identified crouching posture is maintained to calculate the posture maintenance time. characterized.

바람직하게는, 상기 영상 모니터링 분석부는, 대상자가 포함된 영상에서 대상자의 착용의상을 식별하고 식별된 의상의 착용기간을 카운팅함으로써 모니터링 판별 정보로서 의상식별값 및 그 착용기간 정보를 생성하는 것을 특징으로 한다. Preferably, the image monitoring analysis unit identifies the subject's wearing clothes in the image including the subject and generates the clothes identification value and the wearing period information as monitoring discrimination information by counting the wearing period of the identified clothes. do.

바람직하게는, 상기 영상 모니터링 분석부는, 센서 모듈로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자인 인물을 검출하는 인물 검출부; 상기 인물 검출부에서 검출된 인물의 현재 착용의상을 식별하는 착용의상 식별부; 상기 착용의상 식별부에서 식별된 의상의 착용기간을 카운팅해 착용기간을 산출하는 의상 모니터링부; 및 상기 착용의상 식별부의 의상식별값과 상기 의상 모니터링부의 착용기간 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하는 추론정보 생성부; 를 포함하는 것을 특징으로 한다. Preferably, the image monitoring and analysis unit includes: a person detection unit for detecting a person who is a subject from an image including the subject transmitted in real time from the sensor module; a clothing identification unit for identifying the currently worn clothing of the person detected by the person detection unit; a clothes monitoring unit calculating a wearing period by counting the wearing period of the clothes identified by the wearing clothes identification unit; and an inference information generating unit for outputting the clothing identification value of the wearing clothes identification unit and the wearing period information of the clothes monitoring unit as monitoring identification information capable of inferring a health state; It is characterized in that it includes.

바람직하게는, 상기 착용의상 식별부는 판별기준 설정부에서 관리되는 의상색상 및 의상형태 정보를 통해 대상자의 착용의상을 식별하는 것을 특징으로 한다. Preferably, the wearing clothes identification unit is characterized in that the wearable clothes of the subject are identified through the clothes color and clothes shape information managed by the discrimination criterion setting unit.

바람직하게는, 상기 영상 모니터링 분석부는, 대상자가 포함된 영상에서 대상자의 이동움직임을 식별하고 식별된 이동움직임의 이동방향과 이동속도를 산출함으로써 모니터링 판별 정보로서 이동경로 및 이동속도 정보를 생성하는 것을 특징으로 한다. Preferably, the image monitoring analysis unit identifies the movement movement of the subject in the image containing the subject and calculates the movement direction and movement speed of the identified movement movement to generate movement path and movement speed information as monitoring determination information. characterized.

바람직하게는, 상기 영상 모니터링 분석부는, 센서 모듈로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자인 인물과 대상자의 이동목적지인 목적물을 검출하는 인물 및 목적물 검출부; 상기 인물 및 목적물 검출부에서 검출된 인물의 목적물까지의 이동움직임을 인식하는 이동 식별부; 상기 이동 식별부에서 식별된 이동움직임에 대해 대상자의 이동경로와 이동속도를 산출하는 이동 모니터링부; 및 상기 이동 모니터링부의 이동경로 및 이동속도 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하는 추론정보 생성부; 를 포함하는 것을 특징으로 한다. Preferably, the image monitoring and analysis unit includes: a person and a target detection unit for detecting a person who is a subject and a target that is a moving destination of the subject from an image including the subject transmitted in real time from the sensor module; a movement identification unit for recognizing the movement of the person to the object detected by the person and the object detection unit; a movement monitoring unit for calculating the movement path and movement speed of the subject for the movement movement identified by the movement identification unit; and an inference information generator for outputting the movement path and movement speed information of the movement monitoring unit as monitoring determination information capable of inferring a health state; It is characterized in that it includes.

바람직하게는, 상기 이동 식별부는 상기 판별기준 설정부에서 관리되는 일상적 목적물과 비일상적 목적물에 대한 이동움직임을 구분해 인식하는 것을 특징으로 한다. Preferably, the movement identification unit is characterized in that it distinguishes and recognizes the movement movement of the everyday object and the non-routine object managed by the determination criterion setting unit.

바람직하게는, 상기 건강 케어 모듈은, 상기 영상 모니터링 모듈로부터 실시간으로 전달되는 모니터링 판별 정보를 수신하고 대상자별 모니터링 판별 정보를 해당 대상자에 대해 미리 설정된 케어기준 정보와 비교해 대상자의 건강 상태를 추론을 통해 유추함으로써 대상자에 대한 케어 정보를 생성하는 케어 정보 처리부; 상기 케어 정보 처리부의 건강 상태 추론을 위한 케어기준 정보를 저장관리하는 케어기준 설정부; 및 상기 영상 모니터링 모듈로부터 전달되는 모니터링 판별 정보를 수신하여 케어 정보 처리부로 전달하며 상기 케어 정보 처리부로부터 전달되는 케어 정보를 미리 설정된 보호자의 통신단말로 통지하는 통신부; 를 포함하는 것을 특징으로 한다. Preferably, the health care module receives the monitoring determination information transmitted in real time from the image monitoring module and compares the monitoring determination information for each subject with the care standard information set in advance for the subject through inferencing the subject's health status a care information processing unit generating care information for a subject by analogy; a care standard setting unit for storing and managing care reference information for inferring a health state of the care information processing unit; and a communication unit that receives the monitoring determination information transmitted from the image monitoring module, transmits it to a care information processing unit, and notifies the care information transmitted from the care information processing unit to a communication terminal of a preset guardian; It is characterized in that it includes.

바람직하게는, 상기 케어기준 설정부의 케어기준 정보는 누운 자세의 기준 지속시간 및 그에 따른 필요케어 정보, 웅크린 자세의 기준 지속시간 및 그에 따른 필요케어 정보, 선 자세의 기준 지속시간 및 그에 따른 필요케어 정보, 식별의상별 기준 지속시간 및 그에 따른 필요케어 정보, 이동경로 및 그에 따른 필요케어 정보, 이동속도 및 그에 따른 필요케어 정보 중 적어도 하나 이상이 포함되는 것을 특징으로 한다. Preferably, the care standard information of the care standard setting unit includes the reference duration of the lying posture and the necessary care information accordingly, the reference duration of the squatting posture and the necessary care information accordingly, the standard duration of the standing posture and the necessary care accordingly. It is characterized in that at least one or more of information, reference duration for each identification garment and necessary care information, movement route and corresponding necessary care information, movement speed, and necessary care information accordingly are included.

본 발명에 따르면, 실내에 설치되는 저화질 이미지 기반의 인체 감지 센서를 통해 인체의 동적 움직임만을 감지하여 동적 움직임이 설정된 시간 이상 발생하지 않거나 평상시와 다를 경우 사고위험 신호를 발생시켜 보호자에게 실시간으로 상황 통보가 되도록 해 독거인의 건강 상태를 보호자가 원거리에서 자동 체크할 수 있도록 하는 효과가 있다. According to the present invention, only the dynamic movement of the human body is detected through a low-resolution image-based human body detection sensor installed indoors, and when the dynamic movement does not occur for more than a set time or is different from usual, an accident risk signal is generated and the situation is notified to the guardian in real time This has the effect of allowing the guardian to automatically check the health status of a single person from a distance.

특히, 사람의 화상을 정확히 촬영하는 방식이 아닌 인체의 동적 움직임만을 저화질 이미지로 감지하는 방식이기 때문에 대상자로 하여금 감시/통제에 대한 거부감을 덜어 줄 수 있다는 장점도 가지고 있다. In particular, since it is a method that detects only the dynamic movement of the human body as a low-quality image, rather than a method of accurately capturing an image of a person, it also has the advantage of reducing the objection to monitoring/controlling the subject.

또한, 가정 내 별도의 센서기반 기기설비의 설치 및 유지, 보수에 따르는 비용부담 없이 간소한 저화질 이미지 센서의 설치만으로 운영이 가능해 최소 비용으로 고독사 방지라는 소기의 목적에 부합하는 최적의 효과 창출이 가능하다. In addition, it can be operated only by installing a simple low-quality image sensor without the cost burden of installing, maintaining, and repairing separate sensor-based equipment in the home, so it is possible to create an optimal effect that meets the intended purpose of preventing loneliness at a minimum cost. possible.

또한, 영상에서 대상자가 현재 취하고 있는 자세, 대상자의 착용의상, 대상자의 이동움직임 등의 활동 모니터링 결과를 근거로 대상자의 건강 상태를 추론을 통해 유추함으로써 보다 보호자를 위해 보다 정확하고 합리적인 독거인의 건강 상태 체크가 가능하게 되는 효과도 가지고 있다. In addition, by inferring the subject's health status through inference based on the results of monitoring activities such as the subject's current posture, the subject's clothing, and the subject's movement in the video, it is more accurate and reasonable for the health of the person living alone. It also has the effect of enabling status check.

도 1은 본 발명의 제 1 실시예에 따른 실내 인명사고 감지 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 제 1 실시예에 따른 인체 감지 센서의 내부 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 제 1 실시예에 따른 이미지 센서의 회로 구성을 설명하기 위한 도면이다.
도 4는 본 발명의 제 1 실시예에 따른 이미지 센서의 다른 회로 구성을 설명하기 위한 도면이다.
도 5는 본 발명의 제 1 실시예에 따른 제어 단말기의 내부 구성을 설명하기 위한 도면이다.
도 6은 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템을 설명하기 위한 도면이다.
도 7은 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 다양한 구성예를 설명하기 위한 도면이다.
도 8은 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 첫번째 추론 방식에 따른 영상 모니터링 분석부를 설명하기 위한 도면이다.
도 9는 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 첫번째 추론 방식의 구동원리를 설명하기 위한 도면이다.
도 10은 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 두번째 추론 방식에 따른 영상 모니터링 분석부를 설명하기 위한 도면이다.
도 11은 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 두번째 추론 방식의 구동원리를 설명하기 위한 도면이다.
도 12는 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 세번째 추론 방식에 따른 영상 모니터링 분석부를 설명하기 위한 도면이다.
도 13은 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 세번째 추론 방식의 구동원리를 설명하기 위한 도면이다.
도 14는 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 구동방법을 설명하기 위한 도면이다.
1 is a view for explaining an indoor human accident detection system according to a first embodiment of the present invention.
2 is a view for explaining the internal configuration of the human body detection sensor according to the first embodiment of the present invention.
3 is a diagram for explaining the circuit configuration of the image sensor according to the first embodiment of the present invention.
4 is a diagram for explaining another circuit configuration of the image sensor according to the first embodiment of the present invention.
5 is a diagram for explaining the internal configuration of the control terminal according to the first embodiment of the present invention.
6 is a view for explaining an indoor human accident detection system according to a second embodiment of the present invention.
7 is a view for explaining various configuration examples of the indoor human accident detection system according to the second embodiment of the present invention.
8 is a view for explaining an image monitoring analysis unit according to the first reasoning method of the indoor human accident detection system according to the second embodiment of the present invention.
9 is a view for explaining the driving principle of the first reasoning method of the indoor human accident detection system according to the second embodiment of the present invention.
10 is a view for explaining an image monitoring analysis unit according to the second reasoning method of the indoor human accident detection system according to the second embodiment of the present invention.
11 is a view for explaining the driving principle of the second reasoning method of the indoor human accident detection system according to the second embodiment of the present invention.
12 is a view for explaining an image monitoring analysis unit according to the third reasoning method of the indoor human accident detection system according to the second embodiment of the present invention.
13 is a view for explaining the driving principle of the third reasoning method of the indoor human accident detection system according to the second embodiment of the present invention.
14 is a view for explaining a driving method of an indoor human accident detection system according to a second embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 제 1 실시예에 따른 실내 인명사고 감지 시스템을 설명하기 위한 도면이다. 1 is a view for explaining an indoor human accident detection system according to a first embodiment of the present invention.

본 발명의 제 1 실시예에 따른 실내 인명사고 감지 시스템은 실내에 설치되어 실내 대상자의 동적 움직임만을 감지해 활동 감지 신호 또는 비활동 감지 신호를 발생시키는 인체 감지 센서(100), 상기 인체 감지 센서(100)와 유선 또는 무선으로 연결되어 감지 신호를 중계하는 게이트웨이(200), 상기 게이트웨이(200)를 통해 감지 신호를 전달받아 사고 위험 여부를 판단하는 제어 단말기(300) 및 상기 제어 단말기(300)로부터 사고 위험 여부에 대한 판단 결과를 전달받게 되면 설정된 보호자의 클라이언트 단말기(500)로 실시간으로 상황 통보를 수행하는 통신사 서버(400)를 포함하여 이루어질 수 있다. The indoor human accident detection system according to the first embodiment of the present invention is a human body detection sensor 100, the human body detection sensor ( 100) connected by wire or wirelessly to the gateway 200 that relays the detection signal, the control terminal 300 that receives the detection signal through the gateway 200 to determine whether there is an accident risk, and the control terminal 300 When the result of determining whether there is an accident risk is received, the communication company server 400 may be included to notify the situation in real time to the set guardian's client terminal 500 .

상기 인체 감지 센서(100)는 대상자가 활동하는 실내 공간의 다양한 위치에 다수개가 설치될 수 있으며, 각각은 설정된 범위를 촬영하여 작동 구역에 대한 영상 데이터를 획득하고 영상분석하여 대상자의 동적 움직임만을 감지하게 된다. A plurality of the human body detection sensor 100 may be installed at various locations in the indoor space where the subject is active, each of which captures a set range to acquire image data for the operation area and analyzes the image to detect only the subject's dynamic movement will do

도 2는 본 발명의 제 1 실시예에 따른 인체 감지 센서의 내부 구성을 설명하기 위한 도면이다. 2 is a view for explaining the internal configuration of the human body detection sensor according to the first embodiment of the present invention.

상기 인체 감지 센서(100)는 설정된 범위를 촬영하여 작동 구역에 대한 영상 데이터를 획득하는 이미지 센서(110)와, 상기 이미지 센서(110)로부터 촬영된 영상 데이터를 수신하며 수신된 영상 데이터를 영상분석하여 대상자의 인체 영상을 추출하고 이를 기초로 작동 구역 내에서 인체에 동적 움직임이 있는지 여부를 인식하여 활동 감지 신호 또는 비활동 감지 신호를 출력하는 인체 인식부(130)와, 상기 인체 인식부(130)로부터 전달되는 감지 신호를 주기적으로 게이트웨이(200)로 송신하는 모듈 제어부(140)를 포함하여 이루어질 수 있다. The human body detection sensor 100 includes an image sensor 110 that acquires image data for an operating area by photographing a set range, and an image sensor 110 that receives image data captured from the image sensor 110 and analyzes the received image data. a human body recognition unit 130 that extracts an image of the subject's human body, recognizes whether there is a dynamic movement of the human body within the operation zone based on this, and outputs an activity detection signal or an inactivity detection signal; and the human body recognition unit 130 ) may include a module control unit 140 that periodically transmits a detection signal transmitted from the gateway 200 to the gateway 200 .

상기 이미지 센서(110)에서 촬영된 영상 데이터는 정지 영상과 같이 하나의 영상프레임 단위로 촬영될 수 있으며, 경우에 따라 동영상과 같이 다수 개의 영상 프레임 단위로 촬영될 수도 있다. 또한, 상기 이미지 센서(110)의 각 화소에서 촬영되어 획득된 영상 데이터는 별도의 메모리부(도시 않음)로 전송되어 저장되며, 저장된 영상 데이터는 상기 인체 인식부(130)의 인체 감지를 위한 영상분석의 기초데이터로 이용된다.The image data photographed by the image sensor 110 may be photographed in units of one image frame, such as a still image, or in some cases, may be photographed in units of a plurality of image frames, such as a moving image. In addition, image data captured by each pixel of the image sensor 110 is transmitted to and stored in a separate memory unit (not shown), and the stored image data is an image for human body detection by the human body recognition unit 130 . It is used as basic data for analysis.

상기 인체 인식부(130)는 상기 메모리부에 저장된 영상 데이터를 영상분석하여 작동 구역 내에 위치한 대상자의 인체를 감시객체로서 추출한다. 여기서, 감시객체를 추출함에 있어서 상기 영상 데이터의 시계열적 순서에 따른 매 영상프레임을 비교하여 RGB값 혹은 Black/White값의 변화에 따라 객체를 추출할 수 있으며, 객체의 크기와 형태를 한정하여 낙엽, 동물, 빗방울, 커텐 등의 이상물체가 감지되는 것을 필터링함으로써 감지하고자 하는 인체를 대상으로만 감지하여 추출할 수 있다.The human body recognition unit 130 analyzes the image data stored in the memory unit and extracts the human body of the subject located in the operation area as a monitoring object. Here, in extracting the monitoring object, the object can be extracted according to the change of the RGB value or the Black/White value by comparing every image frame according to the time series sequence of the image data, and the size and shape of the object are limited , animals, raindrops, curtains, etc. can be detected and extracted by filtering only the human body to be detected by filtering the detected objects.

또한, 상기 인체 인식부(130)는 인체를 대상으로 하는 감시객체의 추출여부에 따라 상기 작동 구역 내에 존재하는 대상자의 동적 움직임 여부만을 판단하여 판단된 결과에 따라 활동 감지 신호 또는 비활동 감지 신호를 출력하게 된다. In addition, the human body recognition unit 130 determines whether or not the subject is dynamic in the operation area according to whether or not a monitoring object for the human body is extracted, and generates an activity detection signal or an inactivity detection signal according to the determined result. will output

상기 모듈 제어부(140)는 상기 인체 인식부(130)로부터 전달되는 활동 감지 신호 또는 비활동 감지 신호를 포함하는 감지 신호를 주기적으로 게이트웨이(200)로 송신해 실시간 상태 신호의 누적을 가능하게 한다. The module control unit 140 periodically transmits a detection signal including an activity detection signal or an inactivity detection signal transmitted from the human body recognition unit 130 to the gateway 200 to enable accumulation of real-time status signals.

이제 도 3 및 도 4을 참조하여 본 발명의 제 1 실시예에 따른 이미지 센서(110)에 대해 상세히 설명한다. An image sensor 110 according to a first embodiment of the present invention will now be described in detail with reference to FIGS. 3 and 4 .

도 3은 본 발명의 제 1 실시예에 따른 이미지 센서의 회로 구성을 설명하기 위한 도면이고, 도 4는 본 발명의 제 1 실시예에 따른 이미지 센서의 다른 회로 구성을 설명하기 위한 도면이다. 3 is a diagram for explaining a circuit configuration of the image sensor according to the first embodiment of the present invention, and FIG. 4 is a diagram for explaining another circuit configuration of the image sensor according to the first embodiment of the present invention.

도 3을 참조하면, 본 발명의 제 1 실시예에 따른 이미지 센서는 광 신호를 전기 신호로 변환하는 제 1 및 제 2 포토 다이오드(111a, 111b)를 포함하는 광 센서부(111)와, 상기 광 센서부(111)로부터 변환된 각각의 전기 신호를 증폭시는 증폭부(112)와, 상기 증폭부(112)로부터 증폭된 각각의 전기 신호를 비교하여 그 차를 증폭하는 비교부(113)와, 상기 비교부(113)로부터 출력되는 전기 신호를 디지털 신호로 변환하는 신호 변환부(114)를 포함하여 구성될 수 있다. Referring to FIG. 3 , the image sensor according to the first embodiment of the present invention includes an optical sensor unit 111 including first and second photodiodes 111a and 111b for converting an optical signal into an electrical signal; When amplifying each electrical signal converted from the optical sensor unit 111, the amplifying unit 112 and the comparing unit 113 comparing the respective electrical signals amplified from the amplifying unit 112 and amplifying the difference and a signal converter 114 for converting the electrical signal output from the comparator 113 into a digital signal.

상기 광 센서부(111)는 제 1 및 제 2 포토 다이오드(111a, 111b)로 구성될 수 있다. 상기 제 1 포토 다이오드(111a)는 일반적인 포토 다이오드로 광 신호(빛)가 입사되면 전기 신호가 검출된다. 반면 상기 제 2 포토 다이오드(111b)는 외부에 가시광선이나 적외선을 차단하는 광 필터(optical filter)가 형성되어 광 신호가 입사되어도 전기 신호가 검출되지 않는다. The optical sensor unit 111 may include first and second photodiodes 111a and 111b. The first photodiode 111a is a general photodiode, and when an optical signal (light) is incident, an electrical signal is detected. On the other hand, the second photodiode 111b has an external optical filter that blocks visible light or infrared light, so that even when an optical signal is incident, no electrical signal is detected.

여기에서 상기 광 필터는 가시광선이나 적외선을 차단할 수 있는 금속막이나 폴리실리콘 혹은 이들에 준하는 광 차단기능을 갖춘 기타 물질로 이루어질 수 있으며, 가시광선 차단을 위해서는 집적회로 제작공정에서 사용하는 메탈라인(metal line)을 그대로 사용하여 메탈라인인 알루미늄(aluminium)을 포토 다이오드의 표면에 증착(deposit)하여 제 2 포토 다이오드(111b)로 입사되는 가시광선이 차단되도록 할 수 있다. Here, the optical filter may be made of a metal film or polysilicon capable of blocking visible or infrared rays, or other materials having an equivalent light blocking function, and a metal line ( A metal line) may be used as it is, and aluminum as a metal line may be deposited on the surface of the photodiode to block visible light incident to the second photodiode 111b.

이때 상술한 예에서는 알루미늄이 제 2 포토 다이오드(111b)에 증착되어 광 필터로 작용하는 형태에 대해 설명하였으나, 본 발명이 이에 제한되는 것은 아닌 바 알루미늄 외에 다른 광 차단제를 제 2 포토 다이오드(111b)에 형성시켜 광 필터로서 작용하도록 하는 것도 가능하다. In this case, in the above-described example, a form in which aluminum is deposited on the second photodiode 111b and acts as a light filter has been described, but the present invention is not limited thereto. It is also possible to form it to act as an optical filter.

상기 증폭부(112)는 제 1 AMP(112a)와 제 2 AMP(112b)로 구성될 수 있다. 상기 제 1 AMP(112a)는 상기 제 1 포토 다이오드(111a)로부터 입력되는 신호를 증폭하거나 버퍼링하기 위한 구성이고, 상기 제 2 AMP(112b)는 상기 제 2 포토 다이오드(111b)로부터 입력되는 신호를 증폭하거나 버퍼링하기 위한 구성이다. The amplifying unit 112 may include a first AMP 112a and a second AMP 112b. The first AMP 112a is configured to amplify or buffer the signal input from the first photodiode 111a, and the second AMP 112b receives the signal input from the second photodiode 111b. A configuration for amplifying or buffering.

상기 비교부(113)는 상기 제 1 AMP(112a)의 출력값과 상기 제 2 AMP(112b)의 출력값을 비교하게 된다. 이 같은 비교부(113)는 이득(gain)이 높으며 가변 가능한 차동 증폭기로 구성될 수 있다. 여기에서 차동 증폭기의 이득을 높게 하는 이유는 초저도의 환경에서도 잘 동작할 수 있도록 하기 위함이며, 또한 이를 포함하는 전체 모듈 및 장치가 저전력으로 구동될 수 있도록 하기 위함이다. The comparison unit 113 compares the output value of the first AMP 112a with the output value of the second AMP 112b. The comparator 113 has a high gain and may be configured as a variable differential amplifier. Here, the reason for increasing the gain of the differential amplifier is to operate well in an ultra-low environment, and also to enable the entire module and device including the same to be driven with low power.

기본적으로 제 1 및 제 2 포토 다이오드(111a, 111b)는 포토 다이오드라는 특성상 각 화소 고유의 값을 갖고 시간적으로 변화하지 않는 고정패턴 노이즈를 갖는다. 이 고정패턴 노이즈는 화소 내의 AMP와 관련한 불균일에서 발생하는 노이즈로 보통은 미리 보정되게 되지만 장시간 노출을 하면 노이즈가 되어 나타난다. Basically, the first and second photodiodes 111a and 111b have a value unique to each pixel and have fixed pattern noise that does not change with time due to the characteristics of the photodiodes. This fixed pattern noise is noise generated from non-uniformity related to the AMP in the pixel, and is usually corrected in advance, but appears as noise when exposed for a long time.

본 발명에서는 이 같은 고정패턴 노이즈의 영향을 제거하기 위해 광 센서부(111)를 구성하는 제 2 포토 다이오드(111b)에 광 필터를 형성시키게 된다. In the present invention, an optical filter is formed in the second photodiode 111b constituting the optical sensor unit 111 in order to remove the influence of the fixed pattern noise.

상기 제 1 AMP(112a)는 제 1 포토 다이오드(111a)와 연결되어 있기 때문에 광 신호에 따른 전기 신호와 함께 다이오드의 리키지(leakage)성 고정패턴 노이즈를 함께 가지게 되지만, 상기 제 2 AMP(112b)와 연결된 제 2 포토 다이오드(111b)에는 광 필터가 형성되어 있기 때문에 제 2 AMP(112b)에는 광 신호에 따른 전기 신호를 가지지 못하고 고정패턴 노이즈만을 가지게 된다. Since the first AMP 112a is connected to the first photodiode 111a, it has the leakage fixed pattern noise of the diode together with the electrical signal according to the optical signal, but the second AMP 112b ) and connected to the second photodiode 111b, since an optical filter is formed, the second AMP 112b does not have an electrical signal according to the optical signal, but has only fixed pattern noise.

따라서 비교부(113)에서 상기 제 1 AMP(112a)의 출력값과 상기 제 2 AMP(112b)의 출력값을 비교하는 과정에서 제 1 포토 다이오드(111a)측의 순수한 광 신호에 따른 전기 신호만이 검출되게 될 것이며, 이 과정에서 제 1 포토 다이오드(111a)의 고정패턴 노이즈 역시 함께 제거되는 것이다. Therefore, in the process of comparing the output value of the first AMP 112a and the output value of the second AMP 112b in the comparator 113, only an electric signal according to the pure optical signal of the first photodiode 111a is detected. In this process, the fixed pattern noise of the first photodiode 111a is also removed.

그리고 상기 신호 변환부(114)는 상기 비교부(113)의 2 개의 출력을 디지털 신호로 변환하여 인체 인식부(130)에 전달함으로써 인체 인식부(130)가 각 화소별 영상 데이터를 영상분석하여 작동 구역 내에 위치한 대상자의 인체를 감시객체로서 추출하도록 한다. In addition, the signal conversion unit 114 converts the two outputs of the comparison unit 113 into digital signals and transmits them to the human body recognition unit 130 so that the human body recognition unit 130 analyzes the image data for each pixel. The human body of the subject located within the operation area is to be extracted as a monitoring object.

한편, 본 발명에서는 저조도 환경에서도 이미지 센서의 피사체 인식이 가능하도록 저조도 환경에서 별도의 보조 광원부(도시 않음)를 점등하게 된다. 이때 보조 광원의 조명 점등에 거부감이 있는 상황을 대비하고 조명 비용의 절감하기 위해 보조 광원부가 저조도 IR LED로 이루어지고, 상기 제 2 포토 다이오드(111b)에 가시광선만을 차단하는 광 필터가 형성될 경우 제 2 포토 다이오드(111b)는 외부에 가시광선만을 차단하는 광 필터가 형성되어 있기 때문에 IR LED에 그대로 반응하여 동작하고 결과적으로 제 1 포토 다이오드(111a)와 같은 전기 신호를 출력하게 됨으로써 상술한 고정패턴 노이즈의 제거가 불가능해 진다. Meanwhile, in the present invention, a separate auxiliary light source unit (not shown) is turned on in a low-illuminance environment so that the image sensor can recognize a subject even in a low-illuminance environment. In this case, in order to prepare for a situation in which the auxiliary light source is reluctant to turn on the lighting and to reduce the lighting cost, the auxiliary light source unit is made of a low-illuminance IR LED, and an optical filter that blocks only visible light is formed in the second photodiode 111b Since the second photodiode 111b has an external optical filter that blocks only visible light, it operates in response to the IR LED as it is, and as a result, outputs the same electrical signal as the first photodiode 111a. It becomes impossible to remove the pattern noise.

물론 이 같은 문제를 해결하기 위해 IR을 차단하는 광 필터를 제 2 포토 다이오드(111b)에 형성시킬 수도 있다. Of course, in order to solve this problem, an optical filter for blocking IR may be formed on the second photodiode 111b.

하지만 보다 근본적으로 그리고 확실하게 이 문제를 해결하기 위해 본 발명에서는 저조도 환경에서 스위칭되어 제 2 포토 다이오드(111b) 대신 동작하는 보상부(117)를 부가하게 된다. However, in order to more fundamentally and surely solve this problem, in the present invention, a compensation unit 117 that is switched in a low-illuminance environment and operates instead of the second photodiode 111b is added.

도 4를 참조하면, 본 발명의 제 1 실시예에 따른 다른 이미지 센서는 광 센서부(111), 증폭부(112), 비교부(113) 및 신호 변환부(114)의 구성에 더하여, 상기 광 센서부(111)에서 제 2 포토 다이오드(111b)가 저조도 환경에서 상기 보조 광원부의 보조 광원에 의해 동작하지 않도록 스위칭하는 스위치부(116)와, 상기 스위치부(116)에 의해 저조도 환경에서 상기 광 센서부(111)의 제 2 포토 다이오드(111b)를 대체하여 동작하는 보상부(117)를 포함하여 구성될 수 있다. Referring to FIG. 4 , another image sensor according to the first embodiment of the present invention includes, in addition to the configuration of the optical sensor unit 111 , the amplifier 112 , the comparator 113 , and the signal conversion unit 114 , the In the optical sensor unit 111, a switch unit 116 for switching so that the second photodiode 111b is not operated by the auxiliary light source of the auxiliary light source unit in a low light environment, and the switch unit 116 in a low light environment It may be configured to include a compensating unit 117 operating in place of the second photodiode 111b of the optical sensor unit 111 .

상기 보상부(117)는 상기 제 2 포토 다이오드(111b)와 같거나 유사한 캐패시턴스(capacitance)를 가지는 전기용량 소자(capacitive component)로 구성된다. 바람직하게는 상기 전기용량 소자는 IR이나 가시광에 반응하지 않는 보상 캐패시터(117a)로 구성될 수 있다. The compensator 117 includes a capacitive component having the same or similar capacitance as the second photodiode 111b. Preferably, the capacitive element may be composed of a compensation capacitor 117a that does not respond to IR or visible light.

스위치부(116)는 주변 조도에 따라 상기 보조 광원부를 점등되는 상황에 따라 상태를 절환하여 제 2 포토 다이오드(111b) 또는 보상 캐패시터(117a)를 상기 제 2 AMP(112b)에 연결시키게 된다. The switch unit 116 connects the second photodiode 111b or the compensation capacitor 117a to the second AMP 112b by switching the state according to a situation in which the auxiliary light source is turned on according to ambient illuminance.

즉 보조 광원부가 소등되는 평상 조도 환경에서는 장치 제어부(200)가 스위치부(116)를 제어하여 제 2 포토 다이오드(111b)가 제 2 AMP(112b)에 연결되게 한다. 이 경우 상술한 바와 같이 제 2 AMP(112b)는 제 2 포토 다이오드(111b)에 광 필터가 형성되어 있기 때문에 고정패턴 노이즈만을 가지게 되고 그 결과 비교부(113)에서는 고정패턴 노이즈가 제거된 영상 데이터를 얻게 될 것이다. That is, in a normal illuminance environment in which the auxiliary light source is turned off, the device controller 200 controls the switch 116 to connect the second photodiode 111b to the second AMP 112b. In this case, as described above, the second AMP 112b has only fixed pattern noise because the optical filter is formed on the second photodiode 111b. As a result, the comparison unit 113 removes the fixed pattern noise from image data. will get

또한 보조 광원부가 점등되는 저조도 환경에서는 보조 광원부를 점등시키는 제어부가 스위치부(116)를 제어하여 보상부(117)의 보상 캐패시터(117a)가 제 2 AMP(112b)에 연결되게 한다. 이 경우 보상부(117)의 보상 캐패시터(117a)는 당연히 보조 광원부의 점등에 반응하지 않으며, 비교부(113)에서는 제 1 포토 다이오드(111a)의 영상 데이터만을 얻게 되는 것이다. Also, in a low-illuminance environment in which the auxiliary light source is turned on, the control unit that turns on the auxiliary light source controls the switch unit 116 so that the compensation capacitor 117a of the compensation unit 117 is connected to the second AMP 112b. In this case, the compensation capacitor 117a of the compensator 117 does not naturally respond to the lighting of the auxiliary light source, and the comparator 113 obtains only the image data of the first photodiode 111a.

여기에서 상기 게이트웨이(200)는 인체 감지 센서(100)로부터 주기적으로 전송되는 감지 신호를 수집해 제어 단말기(300)로 전송하게 된다. Here, the gateway 200 collects a detection signal periodically transmitted from the human body detection sensor 100 and transmits it to the control terminal 300 .

도 5는 본 발명의 제 1 실시예에 따른 제어 단말기의 내부 구성을 설명하기 위한 도면이다. 5 is a diagram for explaining the internal configuration of the control terminal according to the first embodiment of the present invention.

상기 제어 단말기(300)는 상기 게이트웨이(200)를 통해 인체 감지 센서(100)의 감지 신호를 전달받아 누적시키고 이를 통해 사고 위험 여부를 판단하게 된다. The control terminal 300 receives and accumulates the detection signals of the human body detection sensor 100 through the gateway 200 to determine whether there is an accident risk.

이 같은 제어 단말기(300)는 대상자의 동적 움직임에 관한 허용 범위를 설정하는 설정부(350), 대상자의 재실 여부를 탐지하여 재실 신호 또는 외출 신호를 출력하는 재실 탐지부(340), 상기 게이트웨이(200)를 통해 인체 감지 센서(100)의 활동 감지 신호 또는 비활동 감지 신호를 포함하는 감지 신호를 주기적으로 수신하는 수신부(320), 상기 재실 탐지부(340)로부터 재실 신호를 수신한 상태에서 상기 활동 감지 신호 또는 비활동 감지 신호를 포함하는 감지 신호의 누적분을 상기 설정부(350)의 허용 범위를 참조해 분석하여 사고 위험 여부를 판단하는 사고 위험 신호 또는 사고 안전 신호를 포함하는 대상자 상태 신호를 출력하는 사고 판단부(360), 상기 사고 판단부(360)의 대상자 상태 신호를 상기 통신사 서버(400)로 송신하는 송신부(330) 및 상기 각 부 구성을 제어하기 위한 제어부(310)를 포함하여 구성될 수 있다. The control terminal 300 includes a setting unit 350 for setting an allowable range for the dynamic movement of a subject, an occupancy detection unit 340 for detecting whether the subject is present and outputting an occupancy signal or an outing signal, and the gateway ( 200) through the receiving unit 320 for periodically receiving a detection signal including an activity detection signal or an inactivity detection signal of the human body detection sensor 100, the presence signal from the occupancy detection unit 340 is received in the state A target state signal including an accident risk signal or an accident safety signal to determine whether there is an accident risk by analyzing the accumulation of detection signals including the activity detection signal or inactivity detection signal with reference to the allowable range of the setting unit 350 An accident determination unit 360 that outputs can be configured.

상기 설정부(350)는 대상자의 동적 움직임에 관한 허용 범위가 설정되어 저장되게 된다. 이 같은 허용 범위는 허용 시간과 허용 장소에 대한 범위로 설정될 수 있다. The setting unit 350 sets and stores the allowable range for the subject's dynamic movement. Such an allowable range may be set as a range for an allowable time and an allowable place.

예컨데, 대상자의 동적 움직임에 관한 허용 범위는 허용 시간으로써 24시간으로 설정될 수 있다. 즉 인체 감지 센서(100)로부터 수집되는 대상자의 비활동 감지 신호가 24시간 이상 지속되는 경우를 사고 위험 케이스로 설정할 수 있다. For example, the allowable range for the subject's dynamic movement may be set to 24 hours as the allowable time. That is, a case in which the inactivity detection signal of the subject collected from the human body detection sensor 100 continues for 24 hours or more may be set as an accident risk case.

또한 대상자의 동적 움직임에 관한 허용 범위는 허용 장소로써 특정 구역과 허용 시간의 조합으로 설정될 수 있다. 즉 인체 감지 센서(100)로부터 수집되는 대상자의 비활동 감지 신호가 특정 구역(예컨데 부엌)에서 24 시간 이상 지속되는 경우를 사고 위험 케이스로 설정할 수 있다. In addition, the allowable range for the subject's dynamic movement may be set as a combination of a specific area and allowable time as an allowable place. That is, a case in which a target's inactivity detection signal collected from the human body detection sensor 100 continues for 24 hours or more in a specific area (eg, a kitchen) may be set as an accident risk case.

이때 이 같은 인체 감지 센서(100)는 재질 공간의 여러 위치에 분산되어 설치될 수 있으며, 상기 제어 단말기(300)는 이들 각각의 인체 감지 센서(100)로부터 활동 감지 신호 또는 비활동 감지 신호를 포함하는 감지 신호를 주기적으로 수신하여 통합하게 된다. 따라서 상기 설정부(350)의 허용 범위가 허용 시간만으로 설정된 경우, 설치되는 인체 감지 센서(100)들의 모든 감지 신호를 조합한 상태에 대하여 대상자의 동적 움직임을 분석하게 될 것이다. In this case, the human body detection sensor 100 may be installed dispersedly in various locations in the material space, and the control terminal 300 includes an activity detection signal or an inactivity detection signal from each of the human body detection sensors 100 . The sensing signal is periodically received and integrated. Therefore, when the allowable range of the setting unit 350 is set only for the allowable time, the dynamic movement of the subject will be analyzed with respect to a state in which all detection signals of the installed human body detection sensors 100 are combined.

상기 재실 탐지부(340)는 대상자의 재실 여부를 탐지하여 재실 신호 또는 외출 신호를 포함하는 위치인지 신호를 출력하게 된다. 실제 이 같은 실내 인명사고 감지 시스템은 대상자의 재실 상황에서만 기능하게 되며 대상자가 외출 중일 경우 동작하지 않아야 한다. The occupancy detection unit 340 detects whether the subject is occupant and outputs a signal indicating whether the position includes an occupancy signal or an outing signal. In fact, such an indoor fatal accident detection system functions only in the occupancy situation of the subject and should not operate when the subject is out.

따라서 상기 재실 탐지부(340)는 통신사 서버(400)로부터 실시간 또는 소정 주기 단위로 대상자의 통신단말장치 위치정보를 수집할 수 있으며, 수집되는 위치정보를 통해 대상자의 재실 여부를 확인할 수 있게 된다. Therefore, the presence detection unit 340 can collect the communication terminal device location information of the subject from the communication company server 400 in real time or in units of a predetermined period, and it is possible to check whether the subject is present through the collected location information.

상기 사고 판단부(360)는 상기 재실 탐지부(340)의 재실 신호 또는 외출 신호를 포함하는 위치확인 신호와, 상기 수신부(320)로부터 전달되는 인체 감지 센서(100)의 활동 감지 신호 또는 비활동 감지 신호를 포함하는 감지 신호를 상기 설정부(350)의 대상자의 동적 움직임에 관한 허용 범위와 비교해 분석함으로써 최종적으로 사고 위험 신호 또는 사고 안전 신호를 포함하는 대상자 상태 신호를 출력하게 된다. The accident determination unit 360 includes a positioning signal including an occupancy signal or an outing signal of the occupancy detection unit 340 and an activity detection signal or inactivity of the human body detection sensor 100 transmitted from the receiving unit 320 . By comparing and analyzing the detection signal including the detection signal with the allowable range for the subject's dynamic movement of the setting unit 350, the subject state signal including the accident risk signal or the accident safety signal is finally output.

즉 대상자에 대한 사고 발생 여부는 대상자의 재실이 확인된 상태에서 비활동 감지 신호가 허용 범위 이상 감지되는지 여부를 기준으로 판단되게 될 것이다. That is, whether or not an accident has occurred for the subject will be determined based on whether the inactivity detection signal is detected over an allowable range while the presence of the subject is confirmed.

이와 같이 제어 단말기(300)에서 분석되어 출력되는 사고 위험 신호 또는 사고 안전 신호를 포함하는 대상자 상태 신호는 통신사 서버(400)에 수집되며, 통신사 서버(400)에서는 주기적으로 해당 대상자에 대해 설정된 보호자들의 클라이언트 단말기(500)로 실시간 상황 통보(대상자 사고 휘험, 대상자 안전)를 하게 된다. 따라서 독거인의 보호자들은 독거인의 건강 상태를 원거리에서 자동 체크할 수 있게 될 것이다. In this way, the target state signal including the accident risk signal or the accident safety signal analyzed and output from the control terminal 300 is collected in the communication company server 400, and the communication company server 400 periodically includes the guardians set for the target. Real-time situation notification (subject accident risk, subject safety) is made to the client terminal 500 . Therefore, the guardians of the single person will be able to automatically check the health status of the single person from a distance.

한편, 상술한 실시예에서는 실내 대상자의 동적 움직임을 감지해 작동 구역 내에서 인체에 동적 움직임이 있는지 여부를 인식하여 시스템이 사고 위험 여부를 판단하는 것을 바람직한 실시예로 하여 설명하였으나 본 발명이 이에 제한되지는 않는다. 실제 동적 움직임의 여부만으로 대상자의 상태를 판별하는 방식에는 오류의 가능성이 존재하고 판별할 수 있는 대상자의 상태들 역시 그 수가 굉장히 제한적이다. On the other hand, in the above-described embodiment, it has been described as a preferred embodiment that the system determines whether there is an accident risk by detecting the dynamic movement of an indoor subject and recognizing whether there is a dynamic movement of the human body within the operation zone, but the present invention is limited thereto it doesn't happen There is a possibility of error in the method of determining the state of the subject only with the presence of actual dynamic movement, and the number of states that can be determined is also very limited.

따라서 본 발명에서는 상술한 동적 움직임 여부를 통한 대상자의 현재 상태 도출에 그치지 않고, 인체 감지 센서(100)에서 전달되는 실내 대상자의 움직임 정보를 데이터화하고 이를 대상자별로 기계학습시켜 보다 다양하고 정확한 상태 도출이 가능하도록 할 수 있다. Therefore, in the present invention, the present invention does not stop at deriving the subject's current state through the above-described dynamic movement, but also converts the movement information of the indoor subject transmitted from the human body sensor 100 into data and machine-learns it for each subject to derive more diverse and accurate states. can make it possible

예컨데, 실내 대상자의 움직임 정보 중 움직임 진행속도를 기존에 있었던 동일 움직임 진행속도와 비교하여 별도의 대상자 건강 상태를 도출할 수 있을 것이다. For example, it will be possible to derive a separate subject's health state by comparing the movement progress speed among the movement information of the indoor subject with the existing same movement progress speed.

또한 실내 대상자의 움직임 정보 중 특정 행동(기상 등)의 발생 시간을 기존에 있었던 동일 행동의 발생 시간과 비교하여 별도의 대상자 건강 상태를 도출할 수 있을 것이다. In addition, it will be possible to derive a separate subject's health status by comparing the occurrence time of a specific action (wake up, etc.) among the movement information of the indoor subject with the occurrence time of the same behavior.

또한 실내 대상자의 움직임 정보 중 특정 행동의 세부 동작을 기존에 있었던 동일 행동의 세부 동작과 비교하여 별도의 대상자 건강 상태를 도출할 수 있을 것이다. In addition, it will be possible to derive a separate subject's health state by comparing the detailed motion of a specific action among the motion information of the indoor subject with the detailed motion of the same action.

이를 위해 상기 제어 단말기(300) 혹은 별도의 서버에 영상의 기계학습을 위한 알고리즘이 탑재될 수 있으며, 여기에서 분석되어 출력되는 세부적인 건강 상태가 통신사 서버(400)에 수집되어 설정된 보호자들의 클라이언트 단말기(500)로 실시간 상황 통보되도록 할 수 있다. For this purpose, the control terminal 300 or a separate server may be equipped with an algorithm for machine learning of images, and detailed health conditions analyzed and output here are collected and set in the communication company server 400, client terminals of guardians. (500) can be made to be notified of the real-time situation.

다음으로 도 6 내지 도 14를 참조해 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템 및 그 구동방법을 상세히 설명한다. Next, an indoor human accident detection system and a driving method thereof according to a second embodiment of the present invention will be described in detail with reference to FIGS. 6 to 14 .

먼저 도 6은 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템을 설명하기 위한 도면이다. First, FIG. 6 is a view for explaining an indoor human accident detection system according to a second embodiment of the present invention.

도 6을 참조하면, 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템은 실내에 설치되어 대상자를 촬영하는 센서 모듈(600)과, 상기 센서 모듈(600)에서 촬영된 영상을 분석하여 대상자의 활동을 모니터링하는 영상 모니터링 모듈(700)과, 상기 영상 모니터링 모듈(700)로부터 전달되는 활동 모니터링 결과를 근거로 대상자의 건강 상태를 추론을 통해 유추함으로써 대상자에 대한 케어 정보를 생성해 통지하는 건강 케어 모듈(800)을 포함하여 구성될 수 있다. Referring to FIG. 6 , the indoor human accident detection system according to the second embodiment of the present invention includes a sensor module 600 installed indoors to photograph a subject, and a subject by analyzing the image captured by the sensor module 600 . Health to generate and notify care information for a subject by inferring the subject's health status based on the image monitoring module 700 for monitoring the activity of the subject and the activity monitoring result transmitted from the image monitoring module 700 The care module 800 may be included.

본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템은 저해상도 이미지센서로 구성되고 간소화된 통신 기능만을 가진 센서 모듈(600)을 실내 관심구역에 간편하게 설치하여 해당 관심구역 내에서 모니터링 대상자의 저해상도 영상을 촬영하도록 하고, 이 영상을 영상 모니터링 모듈(700)에서 분석하여 인물의 자세, 인물의 착용의상 또는 인물의 움직임 속도(평균속력, 운동방향)에 대한 모니터링값을 도출하도록 하며, 이 같은 모니터링값을 근거로 모니터링 대상자의 건강 상태를 추론을 통해 유추해 적절한 케어 정보를 지정된 보호자에게 통지하도록 하는 데 그 특징이 있다. The indoor human accident detection system according to the second embodiment of the present invention is composed of a low-resolution image sensor and a sensor module 600 having only a simplified communication function is easily installed in an indoor area of interest, and a low-resolution image of a subject to be monitored within the area of interest. is taken, and the image is analyzed by the image monitoring module 700 to derive monitoring values for the posture of the person, the person's clothes, or the movement speed (average speed, movement direction) of the person, such monitoring values It is characterized by inferring the health status of the subject to be monitored through inference based on the information and notifying the designated caregiver of appropriate care information.

도 7은 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 다양한 구성예를 설명하기 위한 도면이다. 7 is a view for explaining various configuration examples of the indoor human accident detection system according to the second embodiment of the present invention.

실제 실내 인명사고 감지 시스템의 제공이 필요한 대상자들은 일정 수준 이하의 운동능력과 좁은 활동범위를 가지는 신체적 특성이 뚜렷히 나타나며, 거기에 더해 전자기기에 대한 이해도와 활용도가 부족하다는 문제는 이 같은 실내 모니터링 장비의 설치 및 운영에 큰 걸림돌이 되고 있다. 따라서 본 발명에서는 실내에 설치되어 대상자를 촬영하는 센서 모듈(600)을 저해상도 이미지센서로 구성하고 간소화된 통신 기능만을 가지는 소형 모듈로 구성하여 전자기기를 잘 다루지 못하는 노령층이라도 쉽고 빠르게 설치 및 가동시킬 수 있도록 하는데 그 특징이 있다. Subjects who need the provision of an actual indoor human accident detection system clearly show physical characteristics with a lower than a certain level of exercise ability and a narrow range of activity, and in addition, the problem of lack of understanding and utilization of electronic devices is a problem with such indoor monitoring equipment. It is a major obstacle to the installation and operation of Therefore, in the present invention, the sensor module 600 installed indoors to photograph a subject is composed of a low-resolution image sensor and a small module having only a simplified communication function, so that even the elderly who cannot handle electronic devices can be installed and operated quickly and easily. It has its characteristics to make it happen.

예컨데 도 7의 (a)에서와 같이 집 안에는 간소화된 구성의 센서 모듈(600)만이 설치되고, 이와 네트워크로 연결되는 영상 모니터링 모듈(700)과 건강 케어 모듈(800)은 실외 또는 외부 집중 센터에서 설치 운영되도록 함으로써 노령층을 대상으로 한 서비스의 설치자 설치 난이도와 유지보수 부담을 줄이도록 할 수 있다. For example, only the sensor module 600 of a simplified configuration is installed in the house as shown in FIG. By installing and operating the service, it is possible to reduce the installation difficulty and maintenance burden of the installer of the service for the elderly.

여기에서 더 나아가, 도 7의 (b)에서와 같이 집 안에는 간소화된 구성의 센서 모듈(600)과 해당 모듈에서 전달되는 영상을 분석하여 대상자의 활동을 모니터링하는 영상 모니터링 모듈(700)만이 설치되고, 이와 네트워크로 연결되는 건강 케어 모듈(800)은 실외 또는 외부 집중 센터에서 설치 운영되도록 할 수도 있다. 이 경우 촬영된 영상을 직접 네트워크를 통해 실시간으로 외부 전송하지 않고 모니터링값만이 네트워크를 통해 전송되기 때문에 통신부하를 줄여 고속 통신 방식 적용에 따른 비용 상승을 피할 수 있게 될 것이다. Further, as in Fig. 7 (b), in the house, only the sensor module 600 of a simplified configuration and the image monitoring module 700 for monitoring the activity of the subject by analyzing the image transmitted from the module are installed and , the health care module 800 connected to the network may be installed and operated outdoors or in an external concentration center. In this case, since only the monitoring value is transmitted through the network instead of directly transmitting the captured image to the outside in real time through the network, it will be possible to reduce the communication load and avoid the cost increase due to the application of the high-speed communication method.

또한 도 7의 (c)에서와 같이 집 안에 센서 모듈(600), 영상 모니터링 모듈(700) 및 건강 케어 모듈(800)을 모두 설치하는 구성도 가능하다. 이 경우 보다 빠르고 정확한 케어 정보의 보호자 통지가 가능하게 될 것이다. Also, it is possible to install all of the sensor module 600 , the image monitoring module 700 , and the health care module 800 in the house as shown in FIG. 7C . In this case, faster and more accurate parental notification of care information will be possible.

여기에서 상기 센서 모듈(600), 영상 모니터링 모듈(700) 및 건강 케어 모듈(800)은 유무선 통신 네트워크로 연결될 수 있다. Here, the sensor module 600 , the image monitoring module 700 , and the health care module 800 may be connected through a wired/wireless communication network.

또한 상기 센서 모듈(600)은 대상자가 활동하는 실내 공간의 다양한 위치에 다수개가 설치될 수 있으며, 각각은 지정된 관심구역을 촬영하게 될 것이다. In addition, a plurality of the sensor modules 600 may be installed at various locations in the indoor space in which the subject is active, and each of the sensor modules 600 will photograph a designated area of interest.

특히 상기 센서 모듈(600)은 별도의 외부 전원 없이 배터리로 동작할 수 있으며, 이 같은 자체 전원 방식으로 인해 센서 모듈(600)의 설치위치에 물리적 제한이 줄어들게 되며 설치 편의성 역시 향상될 수 있게 될 것이다. In particular, the sensor module 600 can operate with a battery without a separate external power source, and due to such a self-powered method, physical restrictions on the installation location of the sensor module 600 are reduced, and installation convenience can also be improved. .

다시 도 6을 참조하면, 상기 센서 모듈(600)은 지정된 관심구역을 촬영하여 관심구역에 대한 영상 데이터를 획득하는 이미지 센서(610)와 상기 이미지 센서(610)로부터 전달되는 영상 데이터를 영상 모니터링 모듈(700)로 송신하는 통신부(620)를 포함하여 이루어질 수 있다. Referring back to FIG. 6 , the sensor module 600 includes an image sensor 610 that acquires image data for a region of interest by photographing a designated region of interest, and an image monitoring module for image data transmitted from the image sensor 610 . The communication unit 620 for transmitting to 700 may be included.

상기 이미지 센서(610)에서 촬영된 영상 데이터는 정지 영상과 같이 하나의 영상프레임 단위로 촬영될 수 있으나, 동영상과 같이 다수 개의 영상 프레임 단위로 촬영되는 것이 바람직하다. 또한, 상기 이미지 센서(610)의 각 화소에서 촬영되어 획득된 영상 데이터는 별도의 메모리부(도시 않음)로 전송되어 저장될 수도 있으며, 촬영된 영상 데이터는 상기 통신부(620)를 통해 영상 모니터링 모듈(700)로 실시간 전송되어 영상 모니터링 모듈(700)의 대상자 활동 모니터링을 위한 영상분석의 기초데이터로 이용된다.The image data captured by the image sensor 610 may be photographed in units of one image frame, such as a still image, but is preferably photographed in units of a plurality of image frames, such as moving images. In addition, image data obtained by photographing each pixel of the image sensor 610 may be transmitted to and stored in a separate memory unit (not shown), and the photographed image data may be transmitted to an image monitoring module through the communication unit 620 . It is transmitted in real time to 700 and used as basic data of image analysis for monitoring target activity of the image monitoring module 700 .

이 같은 이미지 센서(610)의 상세한 회로 구성은 전술한 도 3 및 도 4를 통해 상세히 설명되었으므로 생략한다. Since the detailed circuit configuration of the image sensor 610 has been described in detail with reference to FIGS. 3 and 4 above, it will be omitted.

한편 상기 영상 모니터링 모듈(700)은 상기 센서 모듈(600)로부터 실시간으로 전달되는 영상 데이터를 수신해 영상 분석을 수행하여 영상에서 대상자의 활동에 대한 모니터링 판별 정보를 출력하는 영상 모니터링 분석부(710)와, 상기 영상 모니터링 분석부(710)의 모니터링 판별을 위한 판별기준 정보를 저장관리하는 판별기준 설정부(720) 및 상기 센서 모듈(600)로부터 전달되는 영상 데이터를 수신하여 영상 모니터링 분석부(710)로 전달하며 상기 영상 모니터링 분석부(710)로부터 전달되는 모니터링 판별 정보를 건강 케어 모듈(800)로 송신하는 통신부(730)를 포함하여 이루어질 수 있다. On the other hand, the image monitoring module 700 receives the image data transmitted in real time from the sensor module 600, performs image analysis, and an image monitoring analysis unit 710 that outputs monitoring determination information on the activity of the subject in the image. And, the image monitoring analysis unit 710 by receiving the image data transmitted from the determination criterion setting unit 720 and the sensor module 600 for storing and managing the determination criterion information for the monitoring determination of the image monitoring and analysis unit 710 . ) and may include a communication unit 730 that transmits monitoring determination information transmitted from the image monitoring and analysis unit 710 to the health care module 800 .

상기 영상 모니터링 분석부(710)는 상기 센서 모듈(600)로부터 촬영된 실시간 영상 데이터를 분석해 대상자의 활동에서 대상자의 건강 상태와 관련된 정황추론 영상을 추출하고 이 정황추론 영상에 대해 판별기준을 근거로 모니터링 판별 정보를 생성하게 된다. The image monitoring and analysis unit 710 analyzes real-time image data captured from the sensor module 600 to extract a context inference image related to the subject's health status from the subject's activity, and based on the criterion for determining the context inference image Monitoring identification information is generated.

상기 정황추론 영상은 대상자가 포함된 영상에서 대상자의 건강 상태를 추론할 수 있는 영상이며, 이 정황추론 영상에서 영상 모니터링 분석부(710)는 미리 정해진 판별기준에 따라 모니터링 판별 정보를 생성하게 된다. The context inference image is an image capable of inferring the health status of the subject from the image including the subject, and in this context inference image, the image monitoring and analysis unit 710 generates monitoring discrimination information according to a predetermined criterion.

본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템에서 상기 영상 모니터링 모듈(700)은 다음의 세가지 방식 중 하나의 방식을 통해 정황추론을 실시하고 여기에서 대상자의 건강 상태를 체크할 수 있는 유의미한 모니터링 판별 정보를 만들어내게 될 것이다. In the indoor human accident detection system according to the second embodiment of the present invention, the image monitoring module 700 performs circumstantial inference through one of the following three methods, and can check the health status of the subject here. It will produce monitoring identification information.

첫번째 방식에 따른 정황추론은, 대상자가 포함된 영상에서 대상자가 현재 취하고 있는 자세(pose)를 식별하고 식별된 자세의 유지시간을 카운팅함으로써 모니터링 판별 정보로서 자세식별값 및 그 유지시간 정보를 생성하게 될 것이다. Context inference according to the first method identifies the posture the subject is currently taking in the image containing the subject and counts the holding time of the identified posture to generate the posture identification value and the holding time information as monitoring determination information. will be

최근 핵가족화 및 노령화 현상이 가속화됨에 따라 도움을 줄 수 있는 부양 의무자 없이 홀로 생활하는 독거노인이 늘어나고 있는 추세이며, 독거노인의 경우 어느 날 갑자기 건강이 위독해 지거나, 위급상황이 발생하더라도 긴급 구조 요청을 적시에 하지 못하여 귀중한 생명을 잃게 되거나 더욱 심하게는 사망 후 장기간 방치되는 이른바 독거노인 고독사 문제가 사회적 이슈로 떠오르고 있다.With the recent acceleration of nuclear family and aging, the number of elderly living alone living alone without a person obligated to provide assistance is increasing. The so-called loneliness problem for the elderly living alone, in which precious lives are lost or, worse, left unattended for a long time after death, is emerging as a social issue.

보편적으로 육체적이나 정신적으로 건강 상태에 문제가 있는 노인은 선 자세나 앉은 자세 보다 누운 자세나 웅크린 자세를 보다 많이 취하게 되는데, 이 같이 누운 자세나 웅크린 자세가 기준 이상으로 길어진다면 이를 건강위험 상황이라 판별하는데 큰 무리가 없을 것이며, 이 같은 건강위험 상황을 적시에 외부 보호자에게 알리는 것은 보호자가 곁에 없는 노인의 건강 케어에 큰 도움이 될 것이다. In general, the elderly with physical or mental health problems tend to take more lying or squatting postures than standing or sitting positions. There will be no difficulty in determining, and timely notification of such a health risk situation to external guardians will be of great help in health care for the elderly who are not present.

이에 따라 첫번째 방식에 따른 정황추론에서 상기 영상 모니터링 분석부(710)는 센서 모듈(600)로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자가 현재 취하고 있는 몸의 자세를 식별하고 식별된 자세의 유지시간을 카운팅함으로써 모니터링 판별 정보로서 자세식별값 및 그 유지시간 정보를 생성하게 될 것이다. 이때 자세 식별을 위한 자세식별 기준정보는 판별기준 정보로서 상기 판별기준 설정부(720)에서 관리될 것이다. Accordingly, in the context inference according to the first method, the image monitoring and analysis unit 710 identifies the body posture that the subject is currently taking in the image including the subject transmitted in real time from the sensor module 600 and maintains the identified posture. By counting the time, the posture identification value and its holding time information will be generated as monitoring determination information. At this time, the posture identification reference information for posture identification will be managed by the determination criterion setting unit 720 as determination reference information.

도 8을 참조하면, 첫번째 방식에 따른 정황추론에서 영상 모니터링 분석부(710)는 센서 모듈(600)로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자인 인물을 검출하는 인물 검출부(711a)와, 상기 인물 검출부(711a)에서 검출된 인물이 현재 취하고 있는 몸의 자세를 식별하는 자세 식별부(711b)와, 상기 자세 식별부(711b)에서 식별된 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하는 자세 모니터링부(711c)와, 상기 자세 식별부(711b)의 자세식별값과 상기 자세 모니터링부(711c)의 자세 유지시간 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하는 추론정보 생성부(711d)를 포함하여 구성될 수 있다. 8, in the context inference according to the first method, the image monitoring analysis unit 710 includes a person detection unit 711a that detects a person who is a subject from an image including the subject transmitted in real time from the sensor module 600, and; The posture identification unit 711b that identifies the body posture that the person detected by the person detection unit 711a is currently taking, and the time that the posture identified by the posture identification unit 711b is maintained is counted to determine the posture maintenance time Inference information for outputting the calculated posture monitoring unit 711c, the posture identification value of the posture identification unit 711b, and the posture maintenance time information of the posture monitoring unit 711c as monitoring determination information capable of inferring a health state It may be configured to include a generator 711d.

여기에서 상기 자세 식별부(711b)는 판별기준 설정부(720)에서 관리되는 제 1 자세식별 기준정보와 제 2 자세식별 기준정보를 통해 대상자가 현재 취하고 있는 자세를 식별할 수 있게 될 것이다. Here, the posture identification unit 711b will be able to identify the posture that the subject is currently taking through the first posture identification reference information and the second posture identification reference information managed by the determination criterion setting unit 720 .

상기 제 1 자세식별 기준정보는 인물 검출부(711a)에서 검출된 인물의 인물영역(인물이 영상에서 차지하는 영역)에서 도출될 수 있는 장축과 단축의 방향을 이용한 식별기준이다. The first posture identification reference information is an identification criterion using the direction of the major axis and the minor axis that can be derived from the person area (area occupied by the person in the image) detected by the person detection unit 711a.

보다 상세하게는 제 1 자세식별 기준정보는 인물영역의 장축이 영상의 수직축과 대응되면 해당 인물의 자세를 선 자세(stand)로 식별하도록 하는 기준정보를 포함한다. 또한 제 1 자세식별 기준정보는 인물영역의 장축이 영상의 수평축과 대응되면 해당 인물의 자세를 누운 자세(lie)로 식별하도록 하는 기준정보를 포함한다. In more detail, the first posture identification reference information includes reference information for identifying the posture of the person as a stand when the long axis of the person area corresponds to the vertical axis of the image. In addition, the first posture identification reference information includes reference information for identifying the posture of the person as a lying posture when the long axis of the person area corresponds to the horizontal axis of the image.

통상 대상자를 촬영하는 센서 모듈(600)이 지면이 영상의 수평축이 되도록 설치되어 촬영되게 되므로, 이 같이 인물영역의 장축이 수직축과 대응될 경우 이를 선 자세로 판단하고, 인물영역의 장축이 수평축과 대응될 경우 이를 누운 자세로 판단하는데에 큰 무리나 식별오류는 발생하지 않을 것이다. Usually, the sensor module 600 for photographing a subject is installed so that the ground becomes the horizontal axis of the image, and thus, if the long axis of the person area corresponds to the vertical axis, it is determined as a standing posture, and the long axis of the person area is the horizontal axis and the horizontal axis. If it is matched, there will be no big crowd or identification error in judging it as a lying position.

여기에서 인물이 영상의 수직축과 평행하게 항상 꼿꼿하게 선 자세를 유지하지는 않고 누운 자세 역시 삐딱하게 영상의 수평축과 어긋날 수 있으므로 상기 제 1 자세식별 기준정보는 보다 정교하게 보완될 수 있다. 즉 제 1 자세식별 기준정보는 인물영역의 장축이 영상의 수직축과 ±44°의 각도 내에서 대응되면 해당 인물의 자세를 선 자세(stand)로 식별하도록 하는 기준정보를 포함할 수 있다. 또한 제 1 자세식별 기준정보는 인물영역의 장축이 영상의 수평축과 ±44°의 각도 내에서 대응되면 해당 인물의 자세를 누운 자세(lie)로 식별하도록 하는 기준정보를 포함할 수 있다. Here, since the person does not always maintain an upright posture parallel to the vertical axis of the image, and the lying posture may also be skewed from the horizontal axis of the image, the first posture identification reference information can be supplemented more precisely. That is, the first posture identification reference information may include reference information for identifying the posture of the person as a stand when the long axis of the person area corresponds to the vertical axis of the image within an angle of ±44°. In addition, the first posture identification reference information may include reference information for identifying the posture of the person as a lying posture when the long axis of the person area corresponds to the horizontal axis of the image within an angle of ±44°.

한편 상기 제 2 자세식별 기준정보는 인물 검출부(711a)에서 검출된 인물의 인물영역(인물이 영상에서 차지하는 영역)에서 도출될 수 있는 장축과 단축의 길이 비율을 이용한 식별기준이다. Meanwhile, the second posture identification reference information is an identification criterion using a ratio of the length of the major axis to the minor axis that can be derived from the person area (area occupied by the person in the image) detected by the person detection unit 711a.

보다 상세하게는 제 2 자세식별 기준정보는 상기 제 1 자세식별 기준정보에 따라 누운 자세로 식별된 자세에 대해 장축의 길이와 단축의 길이 비율이 3:1 이하 즉 장축의 길이가 단축의 길이에 비해 3배를 넘지 못할 경우 이를 웅크린 자세(crouch)로 식별하도록 하는 기준정보를 포함한다. 통상적으로 사람이 곧게 누운 자세에서 인물의 장축 길이는 단축 길이에 비해 3배를 넘기기 때문에 이 같이 장축의 길이와 단축의 길이 비율이 3:1 이하 즉 장축의 길이가 단축의 길이에 비해 3배를 넘지 못할 경우 이를 웅크린 자세로 판단하는데에 큰 무리나 식별오류는 발생하지 않을 것이다. In more detail, in the second posture identification reference information, the ratio of the length of the major axis to the length of the minor axis is 3:1 or less, that is, the length of the major axis is the length of the minor axis with respect to the posture identified as the lying posture according to the first posture identification reference information. It includes reference information to identify it as a crouched posture if it does not exceed 3 times the comparison. In general, the length of the major axis of a person is more than three times the length of the minor axis when a person is lying upright. As such, the ratio of the length of the major axis to the length of the minor axis is 3:1 or less, that is, the length of the major axis is three times the length of the minor axis. If it cannot be crossed, there will be no big crowd or identification error in judging it as a crouched posture.

도 9를 함께 참조하면, 도 9의 (a)와 (b) 그리고 (c)는 센서 모듈(600)로부터 실시간으로 전달되는 대상자가 포함된 영상이며, 대상자가 포함된 영상에서 상기 인물 검출부(711a)는 도 9의 (a)와 (b) 그리고 (c)에 도시된 바와 같이 대상자인 인물을 검출하게 된다. Referring to FIG. 9 together, (a), (b) and (c) of FIG. 9 are images including a subject transmitted in real time from the sensor module 600, and the person detecting unit 711a in the image including the subject ) as shown in (a), (b) and (c) of FIG. 9 detects a person who is a subject.

여기에서 도 9의 (a)는 인물이 선 자세를 취하고 있으며, (b)는 누운 자세를 취하고 있고, (c)는 웅크린 자세를 취하고 있다. Here, in Fig. 9 (a), the person is taking a standing posture, (b) is taking a lying posture, (c) is taking a crouching posture.

대상자인 인물이 검출된 영상에서 상기 자세 식별부(711b)는 먼저 판별기준 설정부(720)에서 관리되는 제 1 자세식별 기준정보를 참고하여 도 9의 (a)와 같이 인물영역의 장축(L)과 단축(S)을 식별하고 이 인물영역의 장축(L)이 영상의 수직축(V)과 대응되면(보다 정확하게는 영상의 수직축과 ±44°의 각도 내에서 대응되면) 현재 인물의 자세를 선 자세로 식별하고, 이에 따라 자세 모니터링부(711c)에서는 식별된 선 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하게 된다. In the image in which the subject person is detected, the posture identification unit 711b first refers to the first posture identification reference information managed by the determination criterion setting unit 720, and as shown in FIG. 9(a), the long axis L of the person area. ) and the minor axis (S), and if the major axis (L) of this person area corresponds to the vertical axis (V) of the image (more precisely, if it corresponds within an angle of ±44° with the vertical axis of the image), the current person’s posture is determined. The standing posture is identified, and accordingly, the posture monitoring unit 711c counts the time the identified standing posture is maintained to calculate the posture holding time.

이와 달리 대상자인 인물이 검출된 영상에서 상기 자세 식별부(711b)는 판별기준 설정부(720)에서 관리되는 제 1 자세식별 기준정보를 참고하여 도 9의 (b)와 같이 인물영역의 장축(L)과 단축(S)을 식별하고 이 인물영역의 장축(L)이 영상의 수평축(H)과 대응되면(보다 정확하게는 영상의 수평축과 ±44°의 각도 내에서 대응되면) 현재 인물의 자세를 누운 자세로 식별하고, 이에 따라 자세 모니터링부(711c)에서는 식별된 누운 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하게 된다. On the other hand, in the image in which the subject, the person, is detected, the posture identification unit 711b refers to the first posture identification reference information managed by the determination criterion setting unit 720, and as shown in FIG. 9(b), the long axis ( L) and minor axis (S) are identified, and if the major axis (L) of this person area corresponds to the horizontal axis (H) of the image (more precisely, if it corresponds within an angle of ±44° with the horizontal axis of the image), the current person’s posture is identified as a supine posture, and accordingly, the posture monitoring unit 711c counts the time the identified supine posture is maintained to calculate the posture maintenance time.

누운 자세의 판별 후, 상기 자세 식별부(711b)는 판별기준 설정부(720)에서 관리되는 제 2 자세식별 기준정보를 참고하여 도 9의 (c)와 같이 인물영역의 장축(L) 길이와 단축(S) 길이를 식별하고 누운 자세로 식별된 자세에 대해 장축의 길이와 단축의 길이 비율이 3:1 이하 즉 장축의 길이가 단축의 길이에 비해 3배를 넘지 못할 경우 이를 웅크린 자세로 식별하며, 이에 따라 자세 모니터링부(711c)에서는 식별된 웅크린 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하게 된다. After the determination of the lying posture, the posture identification unit 711b refers to the second posture identification reference information managed by the determination criterion setting unit 720, as shown in FIG. When the length of the minor axis (S) is identified and the ratio of the length of the major axis to the length of the minor axis is 3:1 or less for the posture identified as lying down, that is, when the length of the major axis does not exceed 3 times the length of the minor axis, it is identified as a crouched posture Accordingly, the posture monitoring unit 711c calculates the posture holding time by counting the time the identified crouching posture is maintained.

이로써 추론정보 생성부(711d)는 상기 자세 식별부(711b)의 자세식별값과 상기 자세 모니터링부(711c)의 자세 유지시간 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하게 되며, 이 같은 모니터링 판별 정보는 건강 케어 모듈(800)로 전달될 것이다. Accordingly, the inference information generating unit 711d outputs the posture identification value of the posture identification unit 711b and the posture maintenance time information of the posture monitoring unit 711c as monitoring determination information that can infer a health state, and this The same monitoring determination information will be transmitted to the health care module 800 .

한편 두번째 방식에 따른 정황추론은, 대상자가 포함된 영상에서 대상자의 착용의상(clothes)을 식별하고 식별된 의상의 착용기간을 카운팅함으로써 모니터링 판별 정보로서 의상식별값 및 그 착용기간 정보를 생성하게 될 것이다. Meanwhile, the situational inference according to the second method identifies the subject's clothes in the image containing the subject and counts the wearing period of the identified clothes, thereby generating the clothing identification value and the wearing period information as monitoring discrimination information. will be.

보편적으로 육체적이나 정신적으로 건강 상태에 문제가 있는 노인은 옷을 갈아입는 행위 자체에 큰 부담을 가지게 되며, 이에 따라 건강이 안좋고 거동이 불편한 노인들일수록 옷을 갈아입는 횟수가 급격히 줄어들게 되는데, 이 같이 옷을 갈아입지 않고 한 가지 옷을 기준 이상으로 오래 입고 있는다면 이를 건강위험 상황이라 판별하는데 큰 무리가 없을 것이며, 이 같은 건강위험 상황을 적시에 외부 보호자에게 알리는 것은 보호자가 곁에 없는 노인의 건강 케어에 큰 도움이 될 것이다. In general, the elderly who have physical or mental health problems have a great burden on the act of changing clothes, and accordingly, the number of times of changing clothes rapidly decreases as the elderly with poor health and mobility are poor. If you wear one piece of clothing for a long time without changing clothes, it will not be too difficult to determine that it is a health risk situation. will be of great help to

이에 따라 두번째 방식에 따른 정황추론에서 상기 영상 모니터링 분석부(710)는 센서 모듈(600)로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자가 현재 입고 있는 착용의상을 식별하고 식별된 의상의 유지시간(착용시간)을 카운팅함으로써 모니터링 판별 정보로서 의상식별값 및 그 착용기간 정보를 생성하게 될 것이다. 이때 의상 식별을 위한 의상 형태 및 의상 색상 정보는 판별기준 정보로서 상기 판별기준 설정부(720)에서 관리될 것이다. Accordingly, in the context inference according to the second method, the image monitoring and analysis unit 710 identifies the clothes currently worn by the subject in the image including the subject transmitted in real time from the sensor module 600, and maintains the identified clothes. By counting (wearing time), the clothing identification value and the wearing period information will be generated as monitoring identification information. At this time, information on the shape of clothes and the color of clothes for identification of clothes will be managed by the discrimination criteria setting unit 720 as discrimination criteria information.

도 10을 참조하면, 두번째 방식에 따른 정황추론에서 영상 모니터링 분석부(710)는 센서 모듈(600)로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자인 인물을 검출하는 인물 검출부(712a)와, 상기 인물 검출부(712a)에서 검출된 인물의 현재 착용의상을 식별하는 착용의상 식별부(712b)와, 상기 착용의상 식별부(712b)에서 식별된 의상의 착용기간을 카운팅해 착용기간을 산출하는 의상 모니터링부(712c)와, 상기 착용의상 식별부(712b)의 의상식별값과 상기 의상 모니터링부(712c)의 착용기간 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하는 추론정보 생성부(712d)를 포함하여 구성될 수 있다. 10, in the context inference according to the second method, the image monitoring analysis unit 710 includes a person detection unit 712a that detects a person who is a subject from an image including the subject transmitted in real time from the sensor module 600, and; Clothes for calculating the wearing period by counting the wearing period of the clothes identified by the wearing clothes identification unit 712b for identifying the currently worn clothes of the person detected by the person detecting unit 712a, and the wearing clothes identification unit 712b A monitoring unit 712c, an inference information generating unit that outputs the clothing identification value of the wearing clothes identification unit 712b and the wearing period information of the clothes monitoring unit 712c as monitoring determination information capable of inferring a health condition ( 712d) may be included.

여기에서 상기 착용의상 식별부(712b)는 판별기준 설정부(720)에서 관리되는 의상색상 및 의상형태 정보를 통해 대상자의 착용의상을 식별할 수 있게 될 것이며, 이 같은 판별기준 설정부(720)의 의상색상 및 의상형태 정보는 일반적인 의상 구분규칙에 의해 작성될 수 있지만 대상자의 실제 착용의상에 맞춰 보호자 등에 의해 맞춤형 의상 구분규칙으로 작성될 수 있다. Here, the worn clothes identification unit 712b will be able to identify the subject's wearing clothes through the clothing color and clothing shape information managed by the determination criterion setting unit 720, and the determination criterion setting unit 720 Information on the color and shape of clothes can be written according to the general clothes classification rules, but can be written as customized clothes classification rules by the guardian according to the actual clothes worn by the subject.

도 11을 함께 참조하면, 도 11의 (a)는 센서 모듈(600)로부터 실시간으로 전달되는 대상자가 포함된 영상이다. Referring to FIG. 11 together, (a) of FIG. 11 is an image including a subject transmitted in real time from the sensor module 600 .

이 같이 대상자가 포함된 영상에서 상기 인물 검출부(712a)는 도 11의 (b)에 도시된 바와 같이 대상자인 인물을 검출하게 된다. In the image including the subject as described above, the person detection unit 712a detects the person who is the subject as shown in FIG. 11( b ).

또한 대상자인 인물이 검출된 영상에서 상기 착용의상 식별부(712b)는 도 11의 (c)에 도시된 바와 같이 인물의 현재 착용의상을 식별하게 된다. 여기에서 의상은 상의 및 하의가 구분되어 식별되거나 상하의가 함께 식별될 수 있다. In addition, from the image in which the person, the subject, is detected, the clothes identification unit 712b identifies the currently worn clothes of the person as shown in FIG. 11C . Here, the upper and lower garments may be identified separately, or the upper and lower garments may be identified together.

이때 의상 식별을 위한 의상 형태 및 의상 색상 정보는 판별기준 정보로서 상기 판별기준 설정부(720)에서 관리되어 제공될 것이다. At this time, information on the shape of clothes and the color of clothes for identification of clothes will be managed and provided by the discrimination criterion setting unit 720 as discrimination criterion information.

이에 따라 상기 의상 모니터링부(712c)는 식별된 의상의 식별 유지기간 즉 식별된 의상의 착용기간을 카운팅함으로써 대상자의 의상 착용기간을 산출할 수 있게 될 것이다. Accordingly, the clothes monitoring unit 712c will be able to calculate the subject's clothes wearing period by counting the identification maintenance period of the identified clothes, that is, the wearing period of the identified clothes.

이로써 추론정보 생성부(712d)는 상기 착용의상 식별부(712b)의 의상식별값과 상기 의상 모니터링부(712c)의 착용기간 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하게 되며, 이 같은 모니터링 판별 정보는 건강 케어 모듈(800)로 전달될 것이다. As a result, the inference information generating unit 712d outputs the clothing identification value of the worn clothes identification unit 712b and the wearing period information of the clothes monitoring unit 712c as monitoring determination information that can infer the health condition, The same monitoring determination information will be transmitted to the health care module 800 .

한편 세번째 방식에 따른 정황추론은, 대상자가 포함된 영상에서 대상자의 이동움직임(movement)을 식별하고 식별된 이동움직임의 이동방향과 이동속도를 산출함으로써 모니터링 판별 정보로서 이동경로 및 이동속도 정보를 생성하게 될 것이다. On the other hand, context inference according to the third method identifies the movement of the subject in the image containing the subject and calculates the movement direction and speed of the identified movement, thereby generating movement path and movement speed information as monitoring determination information. will do

보편적으로 육체적이나 정신적으로 건강 상태에 문제가 있는 노인은 평소와 다른 비일상적인 경로로 이동하는 경우가 많고 또한 일상적인 경우와 비교해 그 이동움직임의 속도에 큰 차이가 나게 되는데, 이 같이 비일상적인 이동움직임이 이루어지거나 비일상적인 이동움직임 속도가 나타난다면 이를 건강위험 상황이라 판별하는데 큰 무리가 없을 것이며, 이 같은 건강위험 상황을 적시에 외부 보호자에게 알리는 것은 보호자가 곁에 없는 노인의 건강 케어에 큰 도움이 될 것이다. In general, the elderly who have physical or mental health problems often move to a different non-routine route than usual, and there is a big difference in the speed of their movement compared to the normal case. If this occurs or an unusual movement speed appears, it will not be too difficult to determine that it is a health risk situation. will be.

이에 따라 세번째 방식에 따른 정황추론에서 상기 영상 모니터링 분석부(710)는 센서 모듈(600)로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자의 이동경로와 이동속도를 산출함으로써 모니터링 판별 정보로서 이동경로 및 이동속도 정보를 생성하게 될 것이다. 이때 이동경로와 이동속도의 산출을 위한 이미지내 경로산출식과 이미지내 속도산출식 정보는 판별기준 정보로서 상기 판별기준 설정부(720)에서 관리될 것이다. Accordingly, in the context inference according to the third method, the image monitoring and analysis unit 710 calculates the movement path and movement speed of the subject from the image including the subject transmitted in real time from the sensor module 600, thereby determining the movement path as monitoring determination information. and movement speed information. In this case, the information on the intra-image path calculation formula and the intra-image speed calculation formula for calculating the moving path and the moving speed will be managed by the discrimination criterion setting unit 720 as discrimination criterion information.

도 12를 참조하면, 세번째 방식에 따른 정황추론에서 영상 모니터링 분석부(710)는 센서 모듈(600)로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자인 인물과 대상자의 이동목적지인 목적물을 검출하는 인물 및 목적물 검출부(713a)와, 상기 인물 및 목적물 검출부(713a)에서 검출된 인물의 목적물까지의 이동움직임을 인식하는 이동 식별부(713b)와, 상기 이동 식별부(713b)에서 식별된 이동움직임에 대해 대상자의 이동경로와 이동속도를 산출하는 이동 모니터링부(713c)와, 상기 이동 모니터링부(713c)의 이동경로 및 이동속도 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하는 추론정보 생성부(713d)를 포함하여 구성될 수 있다. 12, in the context inference according to the third method, the image monitoring and analysis unit 710 detects a person who is a subject and an object that is a moving destination of the subject from the image including the subject transmitted in real time from the sensor module 600 A person and object detection unit 713a, a movement identification unit 713b for recognizing a movement movement of a person detected by the person and object detection unit 713a to a target, and a movement movement identified by the movement identification unit 713b Inference information for outputting the movement monitoring unit 713c for calculating the movement path and movement speed of the subject, and the movement path and movement speed information of the movement monitoring unit 713c as monitoring determination information capable of inferring the health condition It may be configured to include a generator 713d.

이때 목적물은 일상적 목적물과 비일상적 목적물로 구분될 것이다. 일상적 목적물은 영상 내에 존재하며 대상자가 일상적으로 접근하는 물건(예컨데, 쇼파 등)일 수 있다. 또한 비일상적 목적물은 영상 내에 존재하며 대상자가 일상적으로 접근하지 않는 물건(예컨데, 세탁기 등)일 수 있다. In this case, the target will be divided into an ordinary target and an non-routine target. The everyday object exists in the image and may be an object (eg, a sofa, etc.) that the subject accesses on a daily basis. In addition, the non-routine object may be an object (eg, washing machine, etc.) that exists in the image and is not accessed by the subject on a daily basis.

여기에서 영상 내에 존재하는 일상적 목적물과 비일상적 목적물에 대한 정보는 판별기준 정보로서 상기 판별기준 설정부(720)에서 관리될 것이다. Here, the information on the everyday object and the non-routine object existing in the image will be managed by the determination standard setting unit 720 as the determination standard information.

도 13을 함께 참조하면, 도 13의 (a)는 센서 모듈(600)로부터 실시간으로 전달되는 대상자가 포함된 영상이다. Referring to FIG. 13 together, (a) of FIG. 13 is an image including a subject transmitted in real time from the sensor module 600 .

이 같이 대상자가 포함된 영상에서 상기 인물 및 목적물 검출부(713a)는 도 13의 (b)에 도시된 바와 같이 대상자인 인물과 대상자의 이동목적지인 목적물(예컨데, 의자와 세탁기)을 검출하게 된다. 여기에서 이동목적지인 목적물은 일상적 목적물(예컨데, 의자)과 비일상적 목적물(예컨데, 세탁기) 중 적어도 하나 이상을 포함할 것이다. As shown in (b) of FIG. 13 , in the image including the subject, the person and object detection unit 713a detects a person who is a subject and an object (eg, a chair and a washing machine) that is a moving destination of the subject. Here, the object as the moving destination may include at least one or more of an everyday object (eg, a chair) and a non-routine object (eg, a washing machine).

영상 내에 존재하는 일상적 목적물과 비일상적 목적물에 대한 정보는 판별기준 정보로서 상기 판별기준 설정부(720)에서 관리될 것이다. The information on the everyday object and the non-routine object existing in the image will be managed by the determination standard setting unit 720 as the determination standard information.

또한 대상자인 인물과 그 이동목적지인 목적물이 검출된 영상에서 상기 이동 식별부(713b)는 도 13의 (c)나 (d)에 도시된 바와 같이 검출된 인물의 목적물까지의 이동움직임을 인식하게 된다. In addition, the movement identification unit 713b recognizes the movement of the detected person to the target as shown in (c) or (d) of FIG. do.

이에 따라 상기 이동 모니터링부(713c)는 식별된 이동움직임에 대해 대상자의 이동경로와 이동속도를 산출하게 될 것이다. Accordingly, the movement monitoring unit 713c will calculate the movement path and movement speed of the subject for the identified movement movement.

이로써 추론정보 생성부(713d)는 상기 이동 모니터링부(713c)의 이동경로 및 이동속도 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하게 되며, 이 같은 모니터링 판별 정보는 건강 케어 모듈(800)로 전달될 것이다. Accordingly, the inference information generation unit 713d outputs the movement path and movement speed information of the movement monitoring unit 713c as monitoring determination information capable of inferring a health state, and such monitoring determination information is transmitted to the health care module 800 ) will be transferred.

한편 상기 건강 케어 모듈(800)은 상기 영상 모니터링 모듈(700)에서 전달되는 모니터링 판별 정보를 수신하고 이 모니터링 판별 정보를 근거로 대상자의 건강 상태를 추론을 통해 유추함으로써 대상자에 대한 케어 정보를 생성해 보호자에게 통지하게 된다. On the other hand, the health care module 800 receives the monitoring determination information transmitted from the image monitoring module 700, and generates care information for the subject by inferring the subject's health state through inference based on the monitoring determination information. Parents will be notified.

이 같은 건강 케어 모듈(800)은 상기 영상 모니터링 모듈(700)로부터 실시간으로 전달되는 모니터링 판별 정보를 수신하고 대상자별 모니터링 판별 정보를 해당 대상자에 대해 미리 설정된 케어기준 정보와 비교해 대상자의 건강 상태를 추론을 통해 유추함으로써 대상자에 대한 케어 정보를 생성하는 케어 정보 처리부(810)과, 상기 케어 정보 처리부(810)의 건강 상태 추론을 위한 케어기준 정보를 저장관리하는 케어기준 설정부(820) 및 상기 영상 모니터링 모듈(700)로부터 전달되는 모니터링 판별 정보를 수신하여 케어 정보 처리부(810)로 전달하며 상기 케어 정보 처리부(810)로부터 전달되는 케어 정보를 미리 설정된 보호자의 통신단말(예컨데, 스마트폰)로 통지하는 통신부(830)를 포함하여 이루어질 수 있다. The health care module 800 receives the monitoring determination information transmitted in real time from the image monitoring module 700 and compares the monitoring determination information for each subject with the care reference information set in advance for the subject to infer the subject's health status. A care information processing unit 810 that generates care information for a subject by inferring through Receives monitoring determination information transmitted from the monitoring module 700 and delivers it to the care information processing unit 810 , and notifies the care information transmitted from the care information processing unit 810 to a preset communication terminal (eg, a smartphone) of the guardian The communication unit 830 may be included.

상기 케어 정보 처리부(810)는 상기 영상 모니터링 모듈(700)로부터 전달되는 모니터링 판별 정보를 가지고 대상자들의 개인별 기준에 따라 대상자의 건강 상태를 추론해 맞춤화된 케어 정보를 생성하게 된다. The care information processing unit 810 generates customized care information by inferring the health status of the subject according to the individual criteria of the subject with the monitoring determination information transmitted from the image monitoring module 700 .

또한 상기 케어기준 설정부(820)는 상기 케어 정보 처리부(810)에서 대상자의 건강 상태를 추론할 수 있도록 추론 기준이 되는 케어기준 정보를 제공하게 된다. In addition, the care standard setting unit 820 provides care reference information serving as an inference criterion so that the care information processing unit 810 can infer the health status of the subject.

상기 케어기준 정보는 상술한 본 발명의 제 2 실시예에 따른 세가지 정황추론 방식에 맞춰 설정될 수 있다. The care reference information may be set according to the three context inference methods according to the second embodiment of the present invention.

첫번째 방식에 따른 정황추론에서 영상 모니터링 모듈(700)은 대상자가 포함된 영상에서 대상자가 현재 취하고 있는 자세를 식별하고 식별된 자세의 유지시간을 카운팅함으로써 모니터링 판별 정보로서 자세식별값 및 그 유지시간 정보를 생성하여 건강 케어 모듈(800)로 전달하게 될 것이다. In the context inference according to the first method, the image monitoring module 700 identifies the posture the subject is currently taking in the image containing the subject and counts the maintenance time of the identified posture as monitoring determination information, the posture identification value and the holding time information will be generated and delivered to the health care module 800 .

이에 따라 케어기준 설정부(820)의 케어기준 정보는 해당 대상자의 나이, 성별, 병력, 생활공간, 평소 자세습관 등의 다양한 요소들을 감안하여 보호자에 의해 개별적으로 설정될 수 있으며, 누운 자세의 기준 지속시간 및 그에 따른 필요케어 정보, 웅크린 자세의 기준 지속시간 및 그에 따른 필요케어 정보, 선 자세의 기준 지속시간 및 그에 따른 필요케어 정보가 포함될 수 있다. Accordingly, the care standard information of the care standard setting unit 820 may be individually set by the guardian in consideration of various factors such as the subject's age, gender, medical history, living space, and usual posture habits, and the standard of the lying posture The duration and corresponding necessary care information, the reference duration of the crouched posture and necessary care information accordingly, the standard duration of the standing posture and necessary care information accordingly may be included.

이를 바탕으로 상기 케어 정보 처리부(820)는 영상 모니터링 모듈(700)로부터 자세식별값 및 그 유지시간 정보를 포함하는 모니터링 판별 정보를 전달받고 해당 자세의 유지시간을 통해 상기 케어기준 설정부(820)의 케어기준 정보에 포함된 자세별 기준 지속시간을 선택한 후 그에 따른 필요케어 정보를 추출해 낼 수 있게 될 것이다. Based on this, the care information processing unit 820 receives monitoring determination information including the posture identification value and the holding time information from the image monitoring module 700, and the care standard setting unit 820 through the holding time of the posture. After selecting the standard duration for each posture included in the care standard information of

그리고 상기 케어 정보 처리부(820)는 추출된 필요케어 정보를 포함하는 케어 정보를 통신부(830)를 통해 미리 설정된 보호자의 통신단말로 통지하여 자세를 통해 파악된 대상자에 현재 건강 상태에 대한 맞춤형 케어 정보를 보호자에게 실시간으로 전달할 수 있게 될 것이다. And the care information processing unit 820 notifies the care information including the extracted necessary care information to the communication terminal of the guardian set in advance through the communication unit 830, and customized care information for the current health status of the subject identified through the posture will be able to be communicated to the guardian in real time.

또한 두번째 방식에 따른 정황추론에서 영상 모니터링 모듈(700)은 대상자가 포함된 영상에서 대상자의 착용의상을 식별하고 식별된 의상의 착용기간을 카운팅함으로써 모니터링 판별 정보로서 의상식별값 및 그 착용기간 정보를 생성하여 건강 케어 모듈(800)로 전달하게 될 것이다. In addition, in the context inference according to the second method, the image monitoring module 700 identifies the subject's wearing clothes in the image including the subject and counts the wearing period of the identified clothes. generated and delivered to the health care module 800 .

이에 따라 케어기준 설정부(820)의 케어기준 정보는 해당 대상자의 나이, 성별, 병력, 생활공간, 평소 자세습관 등의 다양한 요소들을 감안하여 보호자에 의해 개별적으로 설정될 수 있으며, 식별의상별 기준 지속시간 및 그에 따른 필요케어 정보가 포함될 수 있다. Accordingly, the care standard information of the care standard setting unit 820 may be individually set by the guardian in consideration of various factors such as the subject's age, gender, medical history, living space, and usual posture and habits, and the criteria for identification clothes Duration and consequent care needs information may be included.

이를 바탕으로 상기 케어 정보 처리부(820)는 영상 모니터링 모듈(700)로부터 의상식별값 및 그 착용기간 정보를 포함하는 모니터링 판별 정보를 전달받고 해당 의상의 유지시간을 통해 상기 케어기준 설정부(820)의 케어기준 정보에 포함된 식별의상별 기준 지속시간을 선택한 후 그에 따른 필요케어 정보를 추출해 낼 수 있게 될 것이다. Based on this, the care information processing unit 820 receives the monitoring determination information including the clothing identification value and the wearing period information from the image monitoring module 700, and the care standard setting unit 820 through the maintenance time of the corresponding clothing. After selecting the standard duration for each identification garment included in the care standard information, it will be possible to extract necessary care information.

그리고 상기 케어 정보 처리부(820)는 추출된 필요케어 정보를 포함하는 케어 정보를 통신부(830)를 통해 미리 설정된 보호자의 통신단말로 통지하여 의상을 통해 파악된 대상자에 현재 건강 상태에 대한 맞춤형 케어 정보를 보호자에게 실시간으로 전달할 수 있게 될 것이다. And the care information processing unit 820 notifies the care information including the extracted necessary care information to the communication terminal of the guardian set in advance through the communication unit 830, and customized care information for the current health condition to the subject identified through the clothes. will be able to be communicated to the guardian in real time.

또한 세번째 방식에 따른 정황추론에서 영상 모니터링 모듈(700)은 대상자가 포함된 영상에서 대상자의 이동움직임을 식별하고 식별된 이동움직임의 이동방향과 이동속도를 산출함으로써 모니터링 판별 정보로서 이동경로 및 이동속도 정보를 생성하여 건강 케어 모듈(800)로 전달하게 될 것이다. In addition, in the context inference according to the third method, the image monitoring module 700 identifies the movement of the subject in the image containing the subject, and calculates the movement direction and speed of the identified movement, so that the movement path and movement speed as monitoring determination information. Information will be generated and transmitted to the health care module 800 .

이에 따라 케어기준 설정부(820)의 케어기준 정보는 해당 대상자의 나이, 성별, 병력, 생활공간, 평소 자세습관 등의 다양한 요소들을 감안하여 보호자에 의해 개별적으로 설정될 수 있으며, 이동경로(일상적 목적물과 비일상적 목적물) 및 그에 따른 필요케어 정보, 이동속도 및 그에 따른 필요케어 정보가 포함될 수 있다. Accordingly, the care standard information of the care standard setting unit 820 may be individually set by the guardian in consideration of various factors such as the subject's age, gender, medical history, living space, and usual posture habits, and the movement route (daily routine). target object and non-routine object) and necessary care information, movement speed and necessary care information accordingly.

이를 바탕으로 상기 케어 정보 처리부(820)는 영상 모니터링 모듈(700)로부터 이동경로(일상적 목적물과 비일상적 목적물) 및 이동속도 정보를 포함하는 모니터링 판별 정보를 전달받고 해당 이동경로를 통해 상기 케어기준 설정부(820)의 케어기준 정보에 포함된 이동경로에 따른 필요케어 정보를 추출해 내며 또한 이동속도에 따른 필요케어 정보를 추출해 낼 수 있게 될 것이다. Based on this, the care information processing unit 820 receives the monitoring determination information including the movement path (normal object and non-routine object) and movement speed information from the image monitoring module 700, and sets the care standard through the movement path It will be possible to extract necessary care information according to the movement path included in the care reference information of the unit 820 and to extract necessary care information according to the movement speed.

그리고 상기 케어 정보 처리부(820)는 추출된 필요케어 정보를 포함하는 케어 정보를 통신부(830)를 통해 미리 설정된 보호자의 통신단말로 통지하여 이동움직임을 통해 파악된 대상자에 현재 건강 상태에 대한 맞춤형 케어 정보를 보호자에게 실시간으로 전달할 수 있게 될 것이다. And the care information processing unit 820 notifies the care information including the extracted necessary care information to the communication terminal of the guardian set in advance through the communication unit 830, and customized care for the current health condition to the subject identified through the movement movement Information will be communicated to the caregiver in real time.

이 같은 건강 케어 모듈(800)에 기계학습(Machine Learning)이나 딥러닝(Deep Learning)을 도입하여 상술한 모니터링 판별 정보를 통한 정황추론 및 이에 따른 필요케어 정보 추출의 정확도를 높일 수 있다. 다양하고 방대한 대상자 모니터링 및 케어 정보에 대한 지속적인 학습을 통해 건강 케어 모듈(800)은 대상자의 미세한 거동 변화까지도 정확하게 체크할 수 있게 될 것이며 데이터 해석오류의 빈도를 현격히 줄일 수 있게 될 것이다. By introducing machine learning or deep learning to the health care module 800 , it is possible to increase the accuracy of situational inference through the above-described monitoring identification information and extraction of necessary care information accordingly. Through continuous learning of various and extensive subject monitoring and care information, the health care module 800 will be able to accurately check even minute changes in the subject's behavior, and will be able to significantly reduce the frequency of data interpretation errors.

도 14는 본 발명의 제 2 실시예에 따른 실내 인명사고 감지 시스템의 구동방법을 설명하기 위한 도면이다. 14 is a view for explaining a driving method of an indoor human accident detection system according to a second embodiment of the present invention.

도 14를 참조하면, 먼저 저해상도 이미지센서로 구성되는 상기 센서 모듈(600)은 보호자나 케어 대상자에 의해 실내 관심구역에 간편하게 설치되며, 해당 관심구역 내에서 모니터링 대상자의 저해상도 영상을 촬영하도록 하게 된다(S10). Referring to FIG. 14, first, the sensor module 600 composed of a low-resolution image sensor is easily installed in an indoor area of interest by a guardian or a person to be cared for, and takes a low-resolution image of a subject to be monitored within the area of interest ( S10).

상기 센서 모듈(600)로부터 실시간으로 전달되는 영상 데이터를 수신하는 영상 모니터링 모듈(700)은 영상 분석을 수행하고(S20), 영상에서 대상자의 활동에 대한 모니터링 판별 정보를 생성하게 된다(S30). The image monitoring module 700 that receives the image data transmitted in real time from the sensor module 600 performs image analysis (S20), and generates monitoring determination information on the activity of the subject in the image (S30).

여기에서 상기 모니터링 판별 정보는, 첫번째 방식에 따른 정황추론을 위해 상기 영상 모니터링 모듈(700)에서 대상자가 포함된 영상을 통해 대상자가 현재 취하고 있는 자세를 식별하고 식별된 자세의 유지시간을 카운팅함으로써 생성하는 자세식별값 및 그 유지시간 정보일 수 있다. Here, the monitoring determination information is generated by identifying the posture the subject is currently taking through the image including the subject in the image monitoring module 700 for context inference according to the first method, and counting the maintenance time of the identified posture It may be information about the posture identification value and its holding time.

또한 상기 모니터링 판별 정보는, 두번째 방식에 따른 정황추론을 위해 상기 영상 모니터링 모듈(700)에서 대상자가 포함된 영상을 통해 대상자의 착용의상을 식별하고 식별된 의상의 착용기간을 카운팅함으로써 생성하는 의상식별값 및 그 착용기간 정보일 수 있다. In addition, the monitoring determination information is generated by identifying the subject's wearing clothes through the image including the subject in the image monitoring module 700 for context inference according to the second method and counting the wearing period of the identified clothes. It may be information about a value and its wearing period.

또한 상기 모니터링 판별 정보는, 세번째 방식에 따른 정황추론을 위해 상기 영상 모니터링 모듈(700)에서 대상자가 포함된 영상을 통해 대상자의 이동움직임을 식별하고 식별된 이동움직임의 이동방향과 이동속도를 산출함으로써 생성하는 이동경로 및 이동속도 정보일 수 있다. In addition, the monitoring determination information identifies the movement movement of the subject through the image including the subject in the image monitoring module 700 for context inference according to the third method, and calculates the movement direction and speed of the identified movement movement. It may be generated movement path and movement speed information.

이 같은 모니터링 판별 정보는 건강 케어 모듈(800)로 전달되며, 건강 케어 모듈(800)은 전달되는 모니터링 판별 정보를 근거로 대상자의 건강 상태를 추론을 통해 유추함으로써 대상자에 대한 케어 정보를 생성하고(S40), 생성된 케어 정보를 지정된 보호자에게 통지하게 된다(S50). Such monitoring determination information is transmitted to the health care module 800, and the health care module 800 generates care information for the subject by inferring the subject's health state through inference based on the transmitted monitoring determination information ( S40), the generated care information is notified to the designated guardian (S50).

이상과 같이 도면과 명세서에서 최적 실시 예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, the best embodiment has been disclosed in the drawings and the specification. Although specific terms are used herein, they are used only for the purpose of describing the present invention and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

100 : 인체 감지 센서 200 : 게이트웨이
300 : 제어 단말기 400 : 통신사 서버
500 : 클라이언트 단말기 600 : 센서 모듈
700 : 영상 모니터링 모듈 800 : 건강 케어 모듈
100: human body detection sensor 200: gateway
300: control terminal 400: telecommunication company server
500: client terminal 600: sensor module
700: video monitoring module 800: health care module

Claims (17)

실내에 설치되어 대상자를 촬영하는 센서 모듈;
상기 센서 모듈에서 촬영된 영상을 분석하여 대상자의 활동을 모니터링하는 영상 모니터링 모듈; 및
상기 영상 모니터링 모듈로부터 전달되는 활동 모니터링 결과를 근거로 대상자의 건강 상태를 추론을 통해 유추함으로써 대상자에 대한 케어 정보를 생성해 통지하는 건강 케어 모듈; 을 포함하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
a sensor module installed indoors to photograph a subject;
an image monitoring module for monitoring the activity of the subject by analyzing the image captured by the sensor module; and
a health care module for generating and notifying care information for a subject by inferring the subject's health state through inference based on the activity monitoring result transmitted from the image monitoring module; Indoor fatal accident detection system comprising a.
제 1항에 있어서,
상기 센서 모듈은,
지정된 관심구역을 촬영하여 관심구역에 대한 영상 데이터를 획득하는 이미지 센서; 및
상기 이미지 센서로부터 전달되는 영상 데이터를 영상 모니터링 모듈로 송신하는 통신부; 를 포함하며,
상기 이미지 센서에서 촬영된 영상 데이터는 정지 영상과 같이 하나의 영상프레임 단위로 촬영되거나 동영상과 같이 다수 개의 영상 프레임 단위로 촬영되는 것을 특징으로 하는 실내 인명사고 감지 시스템.
The method of claim 1,
The sensor module is
an image sensor that captures a designated region of interest to acquire image data for the region of interest; and
a communication unit transmitting the image data transmitted from the image sensor to the image monitoring module; includes,
The image data captured by the image sensor is photographed in units of one image frame, such as a still image, or in units of a plurality of image frames, such as a moving image.
제 1항에 있어서,
상기 영상 모니터링 모듈은,
상기 센서 모듈로부터 실시간으로 전달되는 영상 데이터를 수신해 영상 분석을 수행하여 영상에서 대상자의 활동에 대한 모니터링 판별 정보를 출력하는 영상 모니터링 분석부;
상기 영상 모니터링 분석부의 모니터링 판별을 위한 판별기준 정보를 저장관리하는 판별기준 설정부; 및
상기 센서 모듈로부터 전달되는 영상 데이터를 수신하여 영상 모니터링 분석부로 전달하며 상기 영상 모니터링 분석부로부터 전달되는 모니터링 판별 정보를 건강 케어 모듈로 송신하는 통신부; 를 포함하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
The method of claim 1,
The video monitoring module,
an image monitoring analysis unit for receiving image data transmitted in real time from the sensor module, performing image analysis, and outputting monitoring identification information on the subject's activity in the image;
a determination standard setting unit for storing and managing determination reference information for monitoring determination of the image monitoring and analysis unit; and
a communication unit that receives the image data transmitted from the sensor module and transmits the image data to the image monitoring analysis unit and transmits the monitoring determination information transmitted from the image monitoring analysis unit to the health care module; Indoor fatal accident detection system comprising a.
제 3항에 있어서,
상기 영상 모니터링 분석부는,
대상자가 포함된 영상에서 대상자가 현재 취하고 있는 자세를 식별하고 식별된 자세의 유지시간을 카운팅함으로써 모니터링 판별 정보로서 자세식별값 및 그 유지시간 정보를 생성하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
4. The method of claim 3,
The video monitoring analysis unit,
Indoor fatal accident detection system, characterized in that by identifying the posture the subject is currently taking from the image containing the subject and counting the maintenance time of the identified posture, the posture identification value and the holding time information are generated as monitoring discrimination information.
제 4항에 있어서,
상기 영상 모니터링 분석부는,
센서 모듈로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자인 인물을 검출하는 인물 검출부;
상기 인물 검출부에서 검출된 인물이 현재 취하고 있는 몸의 자세를 식별하는 자세 식별부;
상기 자세 식별부에서 식별된 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하는 자세 모니터링부; 및
상기 자세 식별부의 자세식별값과 상기 자세 모니터링부의 자세 유지시간 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하는 추론정보 생성부; 를 포함하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
5. The method of claim 4,
The video monitoring analysis unit,
a person detection unit for detecting a person who is a target in an image including the target transmitted in real time from the sensor module;
a posture identification unit for identifying a body posture currently taken by the person detected by the person detecting unit;
Posture monitoring unit for calculating the posture holding time by counting the time that the posture identified by the posture identification unit is maintained; and
an inference information generation unit for outputting the posture identification value of the posture identification unit and the posture maintenance time information of the posture monitoring unit as monitoring determination information capable of inferring a health state; Indoor fatal accident detection system comprising a.
제 5항에 있어서,
상기 판별기준 설정부에는 인물 검출부에서 검출된 인물의 인물영역에서 도출될 수 있는 장축과 단축의 방향을 이용한 식별기준인 제 1 자세식별 정보를 관리하며,
상기 제 1 자세식별 기준정보는 인물영역의 장축이 영상의 수직축과 대응되면 해당 인물의 자세를 선 자세로 식별하도록 하는 기준정보와 인물영역의 장축이 영상의 수평축과 대응되면 해당 인물의 자세를 누운 자세로 식별하도록 하는 기준정보를 포함하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
6. The method of claim 5,
The determination criterion setting unit manages first posture identification information, which is an identification criterion using the direction of the major axis and the minor axis that can be derived from the person area of the person detected by the person detection unit,
The first posture identification reference information includes reference information for identifying the posture of the person as a standing posture when the long axis of the person area corresponds to the vertical axis of the image, and reference information for identifying the posture of the person as a standing posture when the long axis of the person area corresponds to the horizontal axis of the image. Indoor fatal accident detection system, characterized in that it includes reference information to identify the posture.
제 6항에 있어서,
상기 자세 식별부는 상기 판별기준 설정부에서 관리되는 제 1 자세식별 기준정보를 참고하여 인물영역의 장축과 단축을 식별하고,
이 인물영역의 장축이 영상의 수직축과 ±44°의 각도 내에서 대응되면 현재 인물의 자세를 선 자세로 식별하고, 자세 모니터링부에서는 식별된 선 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하며,
또는 이 인물영역의 장축이 영상의 수평축과 ±44°의 각도 내에서 대응되면 현재 인물의 자세를 누운 자세로 식별하고, 자세 모니터링부에서는 식별된 누운 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
7. The method of claim 6,
The posture identification unit identifies the long axis and the short axis of the person area with reference to the first posture identification reference information managed by the determination criterion setting unit,
If the long axis of this person area corresponds to the vertical axis of the image within an angle of ±44°, the current person's posture is identified as a standing posture, and the posture monitoring unit counts the time the identified standing posture is maintained to calculate the posture maintenance time and
Alternatively, if the long axis of this person area corresponds within an angle of ±44° with the horizontal axis of the image, the current person's posture is identified as a supine posture, and the posture monitoring unit counts the time the identified supine posture is maintained to determine the posture maintenance time. Indoor casualty detection system, characterized in that the calculation.
제 7항에 있어서,
상기 판별기준 설정부에는 인물 검출부에서 검출된 인물의 인물영역에서 도출될 수 있는 장축과 단축의 길이 비율을 이용한 식별기준인 제 2 자세식별 정보를 관리하며,
상기 제 2 자세식별 기준정보는 상기 제 1 자세식별 기준정보에 따라 누운 자세로 식별된 자세에 대해 장축의 길이가 단축의 길이에 비해 3배를 넘지 못할 경우 해당 누운 인물의 자세를 웅크린 자세로 식별하도록 하는 기준정보를 포함하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
8. The method of claim 7,
The discrimination criterion setting unit manages second posture identification information, which is an identification criterion using the ratio of the length of the long axis and the short axis that can be derived from the person area of the person detected by the person detection unit,
The second posture identification reference information identifies the posture of the person lying down as a crouched posture when the length of the major axis does not exceed three times the length of the minor axis with respect to the posture identified as the supine position according to the first posture identification reference information Indoor human accident detection system, characterized in that it includes reference information to be made.
제 8항에 있어서,
누운 자세의 판별 후, 상기 자세 식별부는 상기 판별기준 설정부에서 관리되는 제 2 자세식별 기준정보를 참고하여 인물영역의 장축 길이와 단축 길이를 식별하고,
누운 자세로 식별된 자세에 대해 장축의 길이가 단축의 길이에 비해 3배를 넘지 못할 경우 해당 누운 인물의 자세를 웅크린 자세로 식별하고, 자세 모니터링부에서는 식별된 웅크린 자세가 유지되는 시간을 카운팅해 자세 유지시간을 산출하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
9. The method of claim 8,
After determining the lying posture, the posture identification unit identifies the major axis length and the minor axis length of the person area with reference to the second posture identification reference information managed by the determination criterion setting unit,
If the length of the major axis does not exceed three times the length of the minor axis for the posture identified as lying down, the posture of the person lying down is identified as a crouched posture, and the posture monitoring unit counts the time the identified crouching posture is maintained. Indoor fatal accident detection system, characterized in that calculating the posture maintenance time.
제 3항에 있어서,
상기 영상 모니터링 분석부는,
대상자가 포함된 영상에서 대상자의 착용의상을 식별하고 식별된 의상의 착용기간을 카운팅함으로써 모니터링 판별 정보로서 의상식별값 및 그 착용기간 정보를 생성하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
4. The method of claim 3,
The video monitoring analysis unit,
An indoor human accident detection system, characterized in that the clothes identification value and the wearing period information are generated as monitoring discrimination information by identifying the subject's wearing clothes from the image containing the subject and counting the wearing period of the identified clothes.
제 10항에 있어서,
상기 영상 모니터링 분석부는,
센서 모듈로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자인 인물을 검출하는 인물 검출부;
상기 인물 검출부에서 검출된 인물의 현재 착용의상을 식별하는 착용의상 식별부;
상기 착용의상 식별부에서 식별된 의상의 착용기간을 카운팅해 착용기간을 산출하는 의상 모니터링부; 및
상기 착용의상 식별부의 의상식별값과 상기 의상 모니터링부의 착용기간 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하는 추론정보 생성부; 를 포함하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
11. The method of claim 10,
The video monitoring analysis unit,
a person detection unit for detecting a person who is a target in an image including the target transmitted in real time from the sensor module;
a clothing identification unit for identifying the currently worn clothing of the person detected by the person detection unit;
a clothes monitoring unit calculating a wearing period by counting the wearing period of the clothes identified by the wearing clothes identification unit; and
an inference information generating unit for outputting the clothing identification value of the wearing clothes identification unit and the wearing period information of the clothes monitoring unit as monitoring identification information capable of inferring a health state; Indoor fatal accident detection system comprising a.
제 11항에 있어서,
상기 착용의상 식별부는 판별기준 설정부에서 관리되는 의상색상 및 의상형태 정보를 통해 대상자의 착용의상을 식별하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
12. The method of claim 11,
The indoor casualty detection system, characterized in that the wearing clothes identification unit identifies the subject's wearing clothes through the clothing color and clothing shape information managed by the determination criterion setting unit.
제 3항에 있어서,
상기 영상 모니터링 분석부는,
대상자가 포함된 영상에서 대상자의 이동움직임을 식별하고 식별된 이동움직임의 이동방향과 이동속도를 산출함으로써 모니터링 판별 정보로서 이동경로 및 이동속도 정보를 생성하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
4. The method of claim 3,
The video monitoring analysis unit,
An indoor human accident detection system, characterized in that it generates movement path and movement speed information as monitoring identification information by identifying the movement movement of the object in the image containing the object and calculating the movement direction and movement speed of the identified movement movement.
제 13항에 있어서,
상기 영상 모니터링 분석부는,
센서 모듈로부터 실시간으로 전달되는 대상자가 포함된 영상에서 대상자인 인물과 대상자의 이동목적지인 목적물을 검출하는 인물 및 목적물 검출부;
상기 인물 및 목적물 검출부에서 검출된 인물의 목적물까지의 이동움직임을 인식하는 이동 식별부;
상기 이동 식별부에서 식별된 이동움직임에 대해 대상자의 이동경로와 이동속도를 산출하는 이동 모니터링부; 및
상기 이동 모니터링부의 이동경로 및 이동속도 정보를 건강 상태를 추론할 수 있는 모니터링 판별 정보로서 출력하는 추론정보 생성부; 를 포함하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
14. The method of claim 13,
The video monitoring analysis unit,
a person and object detection unit that detects a person who is a target person and a target that is a moving destination of the target from the image including the target transmitted in real time from the sensor module;
a movement identification unit for recognizing the movement of the person to the object detected by the person and the object detection unit;
a movement monitoring unit for calculating the movement path and movement speed of the subject for the movement movement identified by the movement identification unit; and
an inference information generation unit for outputting the movement path and movement speed information of the movement monitoring unit as monitoring determination information capable of inferring a health state; Indoor fatal accident detection system comprising a.
제 14항에 있어서,
상기 이동 식별부는 상기 판별기준 설정부에서 관리되는 일상적 목적물과 비일상적 목적물에 대한 이동움직임을 구분해 인식하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
15. The method of claim 14,
The movement identification unit is an indoor human accident detection system, characterized in that it recognizes the movement movement for the everyday object and the non-routine object managed by the determination criterion setting unit separately.
제 1항에 있어서,
상기 건강 케어 모듈은,
상기 영상 모니터링 모듈로부터 실시간으로 전달되는 모니터링 판별 정보를 수신하고 대상자별 모니터링 판별 정보를 해당 대상자에 대해 미리 설정된 케어기준 정보와 비교해 대상자의 건강 상태를 추론을 통해 유추함으로써 대상자에 대한 케어 정보를 생성하는 케어 정보 처리부;
상기 케어 정보 처리부의 건강 상태 추론을 위한 케어기준 정보를 저장관리하는 케어기준 설정부; 및
상기 영상 모니터링 모듈로부터 전달되는 모니터링 판별 정보를 수신하여 케어 정보 처리부로 전달하며 상기 케어 정보 처리부로부터 전달되는 케어 정보를 미리 설정된 보호자의 통신단말로 통지하는 통신부; 를 포함하는 것을 특징으로 하는 실내 인명사고 감지 시스템.
The method of claim 1,
The health care module,
Receives monitoring determination information delivered in real time from the image monitoring module and generates care information for a subject by inferring the subject's health status by inferring the subject's health status by comparing the monitoring determination information for each subject with the care standard information set in advance for the subject care information processing unit;
a care standard setting unit for storing and managing care reference information for inferring a health state of the care information processing unit; and
a communication unit for receiving the monitoring determination information transmitted from the image monitoring module and transmitting it to a care information processing unit, and notifying the care information transmitted from the care information processing unit to a communication terminal of a preset guardian; Indoor fatal accident detection system comprising a.
제 16항에 있어서,
상기 케어기준 설정부의 케어기준 정보는 누운 자세의 기준 지속시간 및 그에 따른 필요케어 정보, 웅크린 자세의 기준 지속시간 및 그에 따른 필요케어 정보, 선 자세의 기준 지속시간 및 그에 따른 필요케어 정보, 식별의상별 기준 지속시간 및 그에 따른 필요케어 정보, 이동경로 및 그에 따른 필요케어 정보, 이동속도 및 그에 따른 필요케어 정보 중 적어도 하나 이상이 포함되는 것을 특징으로 하는 실내 인명사고 감지 시스템.
17. The method of claim 16,
The care standard information of the care standard setting unit includes the reference duration of the lying posture and necessary care information accordingly, the reference duration of the squatting posture and necessary care information accordingly, the standard duration of the standing posture and necessary care information accordingly, and identification clothes Indoor fatal accident detection system, characterized in that at least one of a star standard duration and corresponding necessary care information, moving route and corresponding necessary care information, moving speed and corresponding necessary care information are included.
KR1020210032587A 2020-03-13 2021-03-12 Systen for preventing indoor human casualties KR102412270B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200031465 2020-03-13
KR1020200031465 2020-03-13

Publications (2)

Publication Number Publication Date
KR20210116318A true KR20210116318A (en) 2021-09-27
KR102412270B1 KR102412270B1 (en) 2022-06-24

Family

ID=77925903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210032587A KR102412270B1 (en) 2020-03-13 2021-03-12 Systen for preventing indoor human casualties

Country Status (1)

Country Link
KR (1) KR102412270B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102379275B1 (en) * 2021-11-16 2022-03-29 퀀텀테크엔시큐 주식회사 System for remote home care based on image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110137001A (en) * 2010-06-16 2011-12-22 (주)유카이트 Health risk warning system
JP2012212301A (en) * 2011-03-31 2012-11-01 Secom Co Ltd Abnormality detection apparatus
JP6089157B1 (en) * 2016-06-16 2017-03-01 株式会社オプティム Clothing information providing system, clothing information providing method, and program
WO2018061616A1 (en) * 2016-09-28 2018-04-05 株式会社日立国際電気 Monitoring system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110137001A (en) * 2010-06-16 2011-12-22 (주)유카이트 Health risk warning system
JP2012212301A (en) * 2011-03-31 2012-11-01 Secom Co Ltd Abnormality detection apparatus
JP6089157B1 (en) * 2016-06-16 2017-03-01 株式会社オプティム Clothing information providing system, clothing information providing method, and program
WO2018061616A1 (en) * 2016-09-28 2018-04-05 株式会社日立国際電気 Monitoring system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102379275B1 (en) * 2021-11-16 2022-03-29 퀀텀테크엔시큐 주식회사 System for remote home care based on image
WO2023090547A1 (en) * 2021-11-16 2023-05-25 퀀텀테크엔시큐 주식회사 Image-based remote home care system

Also Published As

Publication number Publication date
KR102412270B1 (en) 2022-06-24

Similar Documents

Publication Publication Date Title
Tzeng et al. Design of fall detection system with floor pressure and infrared image
Fu et al. An address-event fall detector for assisted living applications
WO2017148061A1 (en) Monitoring system and method
CN105979220A (en) Household old person monitoring intelligent mobile trolley, monitoring system and monitoring method thereof
KR100822476B1 (en) Remote emergency monitoring system and method
CN109035699A (en) The elderly house overall view monitoring nursing system and method based on artificial intelligence
Wong et al. Home alone faint detection surveillance system using thermal camera
US20150248754A1 (en) Method and Device for Monitoring at Least One Interior Space of a Building, and Assistance System for at Least One Interior Space of a Building
JP6852733B2 (en) Living body monitoring device and living body monitoring method
JP3178027U (en) Safety confirmation system with security function
KR101712191B1 (en) Patient Fall Prevention Monitoring Device
CN113168756A (en) Abnormality detection system
KR102412270B1 (en) Systen for preventing indoor human casualties
JP2004164282A (en) Personal behavior detection system
CN112084813A (en) Abnormal target detection method and device and storage medium
CN105303769A (en) Omnibearing intelligent home-based care method for the aged
WO2016175109A1 (en) Monitoring device, monitoring method, monitoring program, and monitoring system
JP3185531U (en) Support system for disabled facilities
WO2016126481A1 (en) System to determine events in a space
KR20150061745A (en) Infrared depth camera based emergency detection system for elder people
US20180199836A1 (en) Biological information detection device, biological information detection method, and biological information detection system
Chua et al. Intelligent visual based fall detection technique for home surveillance
CN108846996B (en) Tumble detection system and method
KR20230091683A (en) home care AI fall detection system with emergency recognition function
CN108986407B (en) Safety detection system and method for solitary old people

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant