KR102546045B1 - monitering system with LiDAR for a body - Google Patents

monitering system with LiDAR for a body Download PDF

Info

Publication number
KR102546045B1
KR102546045B1 KR1020210005105A KR20210005105A KR102546045B1 KR 102546045 B1 KR102546045 B1 KR 102546045B1 KR 1020210005105 A KR1020210005105 A KR 1020210005105A KR 20210005105 A KR20210005105 A KR 20210005105A KR 102546045 B1 KR102546045 B1 KR 102546045B1
Authority
KR
South Korea
Prior art keywords
lidar
human body
center line
image
emergency
Prior art date
Application number
KR1020210005105A
Other languages
Korean (ko)
Other versions
KR20220102774A (en
Inventor
이재복
Original Assignee
이재복
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이재복 filed Critical 이재복
Priority to KR1020210005105A priority Critical patent/KR102546045B1/en
Publication of KR20220102774A publication Critical patent/KR20220102774A/en
Application granted granted Critical
Publication of KR102546045B1 publication Critical patent/KR102546045B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms

Abstract

본 발명은 라이다 센서를 통하여 수집된 데이터로부터 인체의 경계값이나 인체에 추종되는 선들을 추출하도록 하여 처리 데이터량을 대폭 감소시킴으로써 위급상황을 신속히 검출하도록 하면서도 개인의 사생활을 보호하도록 하기 위한 것으로, 구체적인 특징은 인체를 감지하는 레이져를 방출하고, 반사된 레이져를 수신하는 라이다(LiDAR, Light Detection And Ranging) 센서; 상기 라이다 센서로부터 수집된 반사 레이져 빔의 위치정보를 스캐닝하여 얻어진 3차원 영상정보를 획득하고, 이 영상정보를 가공하여 가공된 영상정보를 기초로 인공지능 방식에 의하여 환자가 도움을 필요로 하는 긴급상황에 빠진 것인지를 판단하고 긴급상황을 외부에 전파하는 감시 콘트롤러; 상기 감시 콘트롤러와 유, 무선 통신망에 의하여 연결되어 유관기관에 상황을 전파하는 관리서버를 포함하는 것이다.The present invention is to extract the boundary value of the human body or the lines following the human body from the data collected through the lidar sensor, thereby significantly reducing the amount of processed data to quickly detect an emergency situation while protecting the privacy of the individual. Specific features include a LiDAR (Light Detection And Ranging) sensor for emitting a laser to detect a human body and receiving a reflected laser; 3D image information obtained by scanning the location information of the reflected laser beam collected from the LIDAR sensor is obtained, and the image information is processed and based on the processed image information, the patient needs help by an artificial intelligence method. a monitoring controller that determines whether an emergency has occurred and propagates the emergency to the outside; It is connected to the monitoring controller through a wired or wireless communication network and includes a management server that propagates the situation to related organizations.

Figure 112021004886788-pat00002
Figure 112021004886788-pat00002

Description

라이다(LiDAR)를 이용한 인체 감시장치{monitering system with LiDAR for a body}Human body monitoring device using LiDAR {monitoring system with LiDAR for a body}

본 발명은 공동 화장실, 공동 목욕탕, 자율자동차의 실내, 노인 환자들의 거주 공간 같이 다수의 사람이 이용하거나 보호가 필요한 사람에게 사생활을 침해하지 않으면서 응급한 상황이 발생하였을 때 빠른 대처가 가능하도록 상기 공간에 라이다(LiDAR: Light Detection and Ranging)를 설치하여 인체를 감시하도록 하는 인체 감시장치에 관한 것이다.The present invention is used by a large number of people, such as a public toilet, a public bathhouse, an interior of an autonomous vehicle, or a living space for elderly patients, so that a quick response is possible when an emergency occurs without invading the privacy of a person in need of protection. It relates to a human body monitoring device that monitors the human body by installing LiDAR (Light Detection and Ranging) in space.

오늘날 수없이 많은 곳에 폐쇄회로 TV, 카메라와 같은 보안장치가 설치되어 사건 사고가 발생하는 지역을 감시 또는 조치를 쉽게 할 수 있도록 하고 있다. 하지만 공동 화장실, 공동 목욕탕, 공동 탈의실 등 다수의 사람들이 사용하고 있으나 사생활 침해로 인하여 폐쇄회로 TV나 카메라 같은 보안장비를 설치할 수 없는 곳에서 발생할 수 있는 폭행, 도난, 낙상 사고, 또는 심근경색이나 뇌졸중과 같은 증상이 있는 보호가 필요한 환자나 노인, 향후 다가올 자율 주행차량에 혼자 타고 있은 사람 등에게 발생할 수 있으면서 사생활 보호와 함께 응급한 상황에 빠른 대처가 필요한 경우가 발생 할 수 있다.Today, security devices such as closed-circuit TVs and cameras are installed in countless places to make it easy to monitor or take action in areas where accidents occur. However, assaults, theft, falls, or myocardial infarction or stroke that can occur in places where security equipment such as closed-circuit TVs or cameras cannot be installed due to invasion of privacy, even though many people use it, such as shared toilets, public baths, and shared changing rooms. It may occur to patients or the elderly who need protection with symptoms such as those, or to those who are riding alone in an upcoming autonomous vehicle, and may require quick response to emergency situations along with privacy protection.

이런 경우 라이다(LiDAR)는 x, y, z 데이터 값을 가지고 있는 점들의 모임(Point Cloud)으로 이를 활용하여 실시간으로 입체 영상으로 모델링할 수 있어, 카메라처럼 사생활을 직접 노출하지 않는 수준에서 즉각적인 상황 파악을 할 수 있다. 하지만 이는 카메라와 같이 눈으로 바로 확인할 수 없고 수많은 데이터를 사람이 직접 확인하기 어려워 이를 빅데이터로하여 인공지능의 딥러닝을 거쳐 특정한 움직임이 감지되었을 경우 본인에게 확인하는 문자나 전화를 하거나, 응급센터에 연락을 하거나 경찰서 등 유관기관에 연락을 하여 조치를 할 수 있도록 하는 방법들이 강구되고 있다.In this case, LiDAR is a collection of points (Point Cloud) that has x, y, z data values, and it can be modeled as a stereoscopic image in real time by using it, so you can get immediate results at a level that does not directly expose privacy like a camera. situation can be grasped. However, it cannot be checked directly with the eyes like a camera, and it is difficult for a person to directly check a lot of data, so when a specific movement is detected through artificial intelligence deep learning using big data, it is possible to send a text message or call to confirm to the person, or to an emergency center. Methods are being devised so that measures can be taken by contacting the police department or other related organizations.

등록번호 10-1956009(발명의 명칭: LiDAR를 이용한 환자의 위치추적 시스템)(이하, ‘종래기술’이라 함)도 라이다를 이용하여 환자의 움직임을 감시하면서도 환자의 사생활을 보호하기 위한 장치이다.Registration No. 10-1956009 (name of invention: patient location tracking system using LiDAR) (hereinafter referred to as 'prior art') is also a device for protecting the privacy of a patient while monitoring the patient's movement using lidar .

도 1은 종래기술의 전체구성을 설명하기 위한 블록도이다.1 is a block diagram for explaining the overall configuration of the prior art.

도 1에 도시된 감시시스템은 하나 이상의 회전하는 라이다 센서(100)를 병원내의 천장에 부착하여 3차원 깊이 정보를 획득한다. 획득된 3차원 깊이 정보를 가지고 이동하는 환자를 추적하고, 환자의 위치 및 현재 상태를 추정하여 모니터상에 표시함으로써, 종래와 같은 카메라를 통한 영상관리 시스템과 달리 환자의 사생활이나 프라이버시를 침해하지 않고서도 환자를 용이하게 관리할 수 있는 특징이 있다.The monitoring system shown in FIG. 1 acquires three-dimensional depth information by attaching one or more rotating LIDAR sensors 100 to a ceiling in a hospital. By tracking a moving patient with the acquired 3D depth information, estimating the patient's position and current condition and displaying them on the monitor, unlike conventional image management systems using cameras, without invading the patient's privacy or privacy. It also has a feature that can easily manage patients.

여기서, 라이다(LIDAR, Light Detection And Ranging)는, 3차원레이저 빛을 이용하여 주변을 3D로 인식하는 것을 말한다. 즉, 라이다 센서는 전파 대신 레이저 빛을 환자의 주변에 조사시켜 환자에 대한 3차원 정보와 정확한 방향과 거리를 인식한다. 이러한 라이다는 음파보다 더욱 정확하고 거울의 회전을 이용하기 때문에 여러 방향을 한꺼번에 스캔할 수 있다.Here, LIDAR (Light Detection And Ranging) refers to recognizing the surroundings in 3D using 3D laser light. That is, the lidar sensor irradiates laser light to the patient's surroundings instead of radio waves to recognize 3D information about the patient and accurate direction and distance. Because these lidars are more accurate than sound waves and use the rotation of mirrors, they can scan in multiple directions at once.

또한 상기 라이다(LiDAR) 센서(100)는, 미러(Mirror)와 이미지 프로세싱(Image Processing)을 이용하는 비접촉식방식이며, 환자에 대해 3차원적인 형상과 치수(Dimension)를 측정하는 수단으로, 임의의 환자에 대한 형상의 좌표를 취득할 수 있으며, 특성에 따라 색상정보(Texture)를 동시에 취득 할 수도 있다. 일반적으로 사용되는 스캐너는 2차원적인 그림이나 문서를 복사하는 기계인 반면에 라이다는 환자의 3차원적인 형상과 치수(Dimension)를 측정할 수 있는 장치를 말한다.In addition, the LiDAR sensor 100 is a non-contact method using a mirror and image processing, and is a means for measuring the three-dimensional shape and dimension of the patient, Coordinates of the shape of the patient can be acquired, and color information (texture) can be simultaneously acquired according to characteristics. While a commonly used scanner is a machine that copies two-dimensional pictures or documents, lidar refers to a device that can measure a patient's three-dimensional shape and dimension.

여기서, 상기 색상정보(Texture)는 텍스쳐 맵핑(Texture Mapping)으로 주로 3D프로그램에서 사용하는 용어이다. 보통 처음에 3D로 모델링을 하면 회색으로 밖에 보이지 않지만 모델링에 색이나 질감을 넣는 것을 말한다. Here, the color information (Texture) is texture mapping (Texture Mapping), which is a term mainly used in 3D programs. Usually, when modeling in 3D at first, it only looks gray, but it refers to adding color or texture to modeling.

스캔 스테이션(Scan Station, 200)은, 상기 라이다 센서(100)를 통해 수신된 환자의 위치 이동에 따른 형상정보를 3차원의 좌표값 데이터로 스캔하여 정합시키는 수단으로, 상기 라이다 센서(100)에서 레이저 빔(Laser beam)을 환자를 향해서 발사하면, 그 빔은 환자에서 반사되어 다시 라이다 센서(100)로 되돌아온다. 라이다 센서(100)는 빔이 발사되어 돌아오는 시간을 계산하여 스캐너와 환자와의 거리를 측정한다. 라이다 센서의 측정되는 영역은 일반적으로 100m 이상이며 측정 속도는 1,000,000 point/sec 이상이다. 또한, 측정에 따른 정확도는 50m 거리에서 3mm 이하, 스캔 각도는 수직 0°이상과 수평 0°360°이다. 그리고 라이다 센서는 1초에 레이저 빔을 약 50,000회 발사하므로 수분이면 환자 표면 전체에 레이저를 발사할 수 있고, 환자의 형상을 3차원 데이터로 얻어낼 수 있다. 단, 레이저는 직진성을 가지므로 보이지 않는 면은 측정할 수 없다. 따라서 사전계획 및 필요에 따라 환자를 여러 방향에서 미러(Mirror)를 통해 스캔하여 전체의 데이터를 취득할 수 있다. 상기 스캔 데이터의 정합(Registration)은 상기 라이다 센서(100)가 설치된 각각의 지점에서 스캔된 데이터를 점군데이터(Point Cloud data)의 형태로 취득한다. 스캔 대상지의 범위에 따라 각각의 취득데이터를 하나로 결합하는 과정이 필요하게 되는데 이 과정이 정합(Registration)이다.The scan station (Scan Station, 200) is a means for scanning and matching the shape information according to the positional movement of the patient received through the lidar sensor 100 into three-dimensional coordinate value data, and the lidar sensor 100 ), when a laser beam is emitted toward the patient, the beam is reflected from the patient and returns to the lidar sensor 100 again. The LiDAR sensor 100 measures the distance between the scanner and the patient by calculating the time when the beam is emitted and returns. The measured area of lidar sensors is generally 100 m or more, and the measurement speed is 1,000,000 point/sec or more. In addition, the accuracy of the measurement is less than 3mm at a distance of 50m, and the scan angle is more than 0° vertically and 0° 360° horizontally. And since the lidar sensor fires laser beams about 50,000 times per second, lasers can be fired on the entire patient's surface in a matter of minutes, and the patient's shape can be obtained as 3D data. However, since the laser has straightness, it cannot measure the invisible surface. Accordingly, the entire data can be obtained by scanning the patient through mirrors in various directions according to prior planning and necessity. In the registration of the scan data, data scanned at each point where the lidar sensor 100 is installed is acquired in the form of point cloud data. Depending on the range of the scanning target, a process of combining each acquired data into one is required, and this process is registration.

또한 필터(300)는, 상기 스캔 스테이션(200)을 통해 스캔된 환자의 위치 이동에 따른 형상정보인 3차원 좌표값에 포함된 간섭과 노이즈를 제거하는 수단이다.In addition, the filter 300 is a means for removing interference and noise included in the three-dimensional coordinate values, which are shape information according to the movement of the patient's position scanned through the scan station 200.

또한 위치 추적 장치(400)는, 상기 필터를 통해 간섭 및 노이즈가 제거된 환자의 위치 이동에 따른 형상정보인 3차원 좌표값에 대해 파장별 반사 신호의 세기 및 측정지점의 3차원 위치 좌표 정보를 결정한다. 또한 객체와 지표를 분류하여 객체를 정밀하게 인식하여 객체의 이동에 따른 정확한 위치를 추적하는 수단이다. 또한, 환자의 위치를 추적한 데이터를 관리센터(500)의 모니터로 전송하게 된다.In addition, the location tracking device 400 obtains the strength of the reflected signal for each wavelength and the 3D location coordinate information of the measurement point for the 3D coordinate value, which is shape information according to the patient's location movement from which interference and noise have been removed through the filter. Decide. In addition, it is a means of accurately recognizing an object by classifying the object and the index, and tracking the exact location according to the movement of the object. In addition, data tracking the location of the patient is transmitted to the monitor of the management center 500 .

이러한 종래기술에 따르면 라이다 센서에 의하여 검출되는 데이터에 의하여 처리된 3D 영상은 카메라의 영상과 같이 실물 영상이라고는 할 수 없지만 매우 실물 영상에 근접되어 있기 때문에 환자의 움직임 뿐만 아니라 환자의 실제 모습이 포착될 뿐만 아니라 환자의 실생활 움직임이 노출되게 되기 때문에 환자의 사생활보호가 매우 미흡하다 할 수 있다.According to this prior art, the 3D image processed by the data detected by the lidar sensor cannot be called a real image like the image of a camera, but because it is very close to the real image, not only the movement of the patient but also the actual appearance of the patient In addition to being captured, the patient's real-life movements are exposed, so it can be said that the patient's privacy is very insufficient.

또한 색상정보를 내포하는 3D 영상에 대한 데이터 처리가 수행되는 종래기술에서 시스템이 처리해야 될 데이터가 많아지게 되어 처리속도가 지연되기 때문에 실시간으로 환자의 감시를 수행하는 데에 문제를 야기 시킬 수 있으며, 고가의 소프트웨어가 설치되어야 하는 문제점이 존재한다.In addition, in the prior art in which data processing for 3D images containing color information is performed, a large amount of data to be processed by the system increases and the processing speed is delayed, which can cause problems in real-time monitoring of patients. However, there is a problem that expensive software must be installed.

본 발명은 이러한 문제점을 감안하여 안출된 것으로, 본 발명의 해결과제는 라이다 센서를 통하여 수집된 데이터로부터 인체의 경계값이나 인체에 추종되는 선들을 추출하도록 하여 처리 데이터량을 대폭 감소시킴으로써 위급상황을 신속히 검출하도록 하면서도 개인의 사생활을 보호하도록 하기 위한 것이다.The present invention has been devised in view of these problems, and the solution of the present invention is to extract the boundary value of the human body or the lines following the human body from the data collected through the LIDAR sensor, thereby significantly reducing the amount of processed data. This is to ensure that the privacy of individuals is protected while promptly detecting them.

상기 해결과제를 해결하기 위한 해결수단은 인체를 정확히 감지하면서도 사생활 보호가 이루어질 수 있도록 하는 라이다(LiDAR)를 이용한 인체 감시장치에 있어서: 인체를 감지하는 라이다 신호를 방출하고, 반사된 라이다 신호를 수신하는 라이다(LiDAR, Light Detection And Ranging) 센서; 상기 라이다 센서로부터 수집된 반사 라이다 빔의 위치정보를 스캐닝하여 얻어진 3차원 영상정보를 획득하고, 이 영상정보를 가공하여 가공된 영상정보를 분석하여, 환자가 도움을 필요로 하는 긴급상황에 빠진 것인지를 판단하고 긴급상황을 외부에 전파하는 감시 콘트롤러; 상기 감시 콘트롤러와 유, 무선 통신망에 의하여 연결되어 유관기관에 상황을 전파하는 관리서버를 포함하고, 상기 감시 콘트롤러는 연결된 제어대상을 제어하고 연산처리를 수행하여 시스템의 O.S(Operating System)를 담당하는 제어모듈; 상기 라이다 센서에 수신되는 방안 내의 각 반사점의 스캐닝 영상을 실시간으로 프레임별로 획득하고, 프레임들의 전, 후 스캐닝 영상을 비교하여 움직이는 객체인 인체 영상부분을 추출하고, 상기 인체 영상부분으로부터 에지 영상을 추출하는 에지영상추출부; 상기 에지영상추출부에서 추출된 에지영상으로부터 인체의 중심라인을 추출하는 중심라인 추출부; 상기 중심라인 추출부에서 추출된 중심라인의 특정 움직임을 기설정된 움직임과 비교하여 응급상황인지를 판단하는 응급상황 판단모듈을 포함하고, 상기 중심라인 추출부는 폭 방향상에서, 에지라인들 사이의 중간을 연결하는 선을 중심라인으로 추출하는 것이다.The solution to solve the above problem is in a human body monitoring device using LiDAR that accurately detects the human body and allows privacy protection: emits a LiDAR signal that detects the human body, and the reflected LiDAR LiDAR (Light Detection And Ranging) sensor for receiving a signal; 3D image information obtained by scanning the positional information of the reflected lidar beam collected from the lidar sensor is acquired, and the processed image information is analyzed by processing the image information to be used in an emergency situation in which the patient needs help. a monitoring controller that determines whether it is missing and propagates an emergency to the outside; It includes a management server connected to the monitoring controller by a wired/wireless communication network and propagating the situation to related organizations, and the monitoring controller controls the connected control target and performs calculation processing to take charge of the OS (Operating System) of the system. control module; The scanning image of each reflection point in the room received by the lidar sensor is acquired frame by frame in real time, and a human body image part as a moving object is extracted by comparing the scanning images before and after the frames, and an edge image is obtained from the human body image part an edge image extraction unit for extraction; a center line extraction unit extracting a center line of the human body from the edge image extracted by the edge image extraction unit; and an emergency determination module for comparing a specific movement of the center line extracted by the center line extraction unit with a preset movement to determine whether it is an emergency situation, wherein the center line extraction unit determines the middle between edge lines in the width direction. The connecting line is extracted as the center line.

삭제delete

삭제delete

삭제delete

상기 과제와 상기 해결수단을 갖는 본 발명에 따르면, 라이다 센서에 의하여 입력된 영상신호를 기초로 인체의 움직임을 판단하는 것으로, 개인의 사생활이 보호되게 되고, 라이다 센서에 의하여 형성되는 스캐닝 영상으로부터 에지라인이 형성되고, 이를 중심라인을 추출하여 최소화된 데이터를 기반으로 인체의 응급상황을 판단하는 것으로 신속한 응급상황판단이 이루어지게 됨으로써, 제작비용과 검출속도가 대폭 향상되게 된다.According to the present invention having the above problem and the above solution, by determining the motion of the human body based on the image signal input by the lidar sensor, the privacy of the individual is protected, and the scanning image formed by the lidar sensor An edge line is formed from the edge line, and the emergency situation of the human body is determined based on the minimized data by extracting the center line, thereby making a quick emergency judgment, so that the production cost and detection speed are greatly improved.

도 1은 종래기술의 전체구성을 설명하기 위한 블록도이다.
도 2는 본 발명의 전체적인 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 레이져 빔에 의하여 스캐닝된 위치 데이터의 3차원 포인트 맵이다.
도 4는 도 3의 에지라인을 추출한 맵이다.
도 5는 도 4의 인체 중앙선을 추출한 맵이다.
1 is a block diagram for explaining the overall configuration of the prior art.
2 is a block diagram for explaining the overall configuration of the present invention.
3 is a three-dimensional point map of location data scanned by the laser beam of the present invention.
FIG. 4 is a map obtained by extracting the edge line of FIG. 3 .
FIG. 5 is a map obtained by extracting the center line of the human body of FIG. 4 .

본 발명은 인체에 대한 다수의 점으로 된 데이터(Point Cloud)를 수집하고 이렇게 수집된 데이터를 빅데이터로 활용하여 인공지능(AI, Artificial Intelligence)으로 싸움, 도난, 사고, 낙상 등의 위급한 상황을 인식하고 라이다 장비와 연결된 스피커와 마이크 등을 통하여 안전을 확인하고 문제가 발생시 이를 경찰서나 본인 가족 응급센타 등에 연락하여 필요한 조치를 취할 수 있도록 하도록 하는 것으로, 다양한 분야에 대하여 활용할 수 있는 것이나, 설명의 편의상 보호를 필요로 하는 환자를 감시를 위하여 적용한 것을 실시예로 설명하기로 하지만, 본 발명의 활용 범위는 이에 국한 되지 않는다.The present invention collects data (Point Cloud) of a number of points on the human body and uses the collected data as big data to prevent emergency situations such as fights, theft, accidents, and falls with AI (Artificial Intelligence). It recognizes and checks safety through speakers and microphones connected to lidar equipment, and when a problem occurs, it is to contact the police station or the family emergency center so that necessary measures can be taken. It can be used in various fields, For convenience of description, application for monitoring a patient requiring protection will be described as an example, but the application scope of the present invention is not limited thereto.

도 2는 본 발명의 전체적인 구성을 설명하기 위한 블록도이고, 도 3은 본 발명의 레이져 빔에 의하여 스캐닝된 위치 데이터의 3차원 포인트 맵이고, 도 4는 도 3의 에지라인을 추출한 맵이고, 도 5는 도 4의 인체 중앙선을 추출한 맵이다.Figure 2 is a block diagram for explaining the overall configuration of the present invention, Figure 3 is a three-dimensional point map of the location data scanned by the laser beam of the present invention, Figure 4 is a map extracted from the edge line of Figure 3, FIG. 5 is a map obtained by extracting the center line of the human body of FIG. 4 .

도 2에 도시된 실시예의 환자 감시시스템은 방안에 레이져 빔을 조사하고, 환자로부터 반사되는 레이져 빔을 수집하는 라이다(LIDAR, Light Detection And Ranging) 센서(11)와, 라이다 센서(11)로부터 수집된 반사 레이져 빔의 위치정보를 스캐닝하여 얻어진 3차원 영상정보를 획득하고, 이 영상정보를 가공하여 가공된 영상정보를 기초로 인공지능 방식에 의하여 환자가 도움을 필요로 하는 긴급상황에 빠진 것인지를 판단하고 긴급상황을 외부에 전파하는 감시 콘트롤러(20)와, 감시 콘트롤러(20)와 유, 무선 통신망에 의하여 연결되어 유관기관에 상황을 전파하는 관리서버(30)로 이루어진다.The patient monitoring system of the embodiment shown in FIG. 2 includes a LIDAR (Light Detection And Ranging) sensor 11 that irradiates a laser beam into a room and collects a laser beam reflected from a patient, and a LIDAR sensor 11 Acquire 3D image information obtained by scanning the location information of the reflected laser beam collected from It consists of a monitoring controller 20 that determines whether or not and propagates an emergency situation to the outside, and a management server 30 that propagates the situation to related organizations by being connected to the monitoring controller 20 and wired or wireless communication networks.

감시 콘트롤러(20)는 연결된 제어대상을 제어하고 연산처리를 수행하여 시스템의 O.S(Operating System)를 담당하는 제어모듈(201)과, 라이다 센서(11)에 수신되는 방안 내의 각 반사점의 스캐닝 영상을 실시간으로 프레임별로 획득하고, 프레임들의 전, 후 스캐닝 영상을 비교하여 움직이는 객체인 그림 3과 같은 인체 영상부분을 추출하고, 사람 영상부분에 대하여 에지 영상을 추출하는 에지영상추출부(202)와, 에지영상추출부(202)에서 추출된 에지영상으로부타 인체의 중심라인을 형성하는 중심라인 추출부(203)와, 중심라인 추출부(203)에서 추출된 중심라인의 특정 움직임이 인공지능 학습모듈에 의하여 응급상황인지를 판단하는 응급상황 판단모듈(204)을 포함하고, 응급상황 판단모듈(204)에서 응급상황이라고 판단되는 경우에는 관리서바(201)를 비롯한 외부환경에 응급상황을 전파한다.The monitoring controller 20 controls the connected control object and performs calculation processing to control the control module 201 in charge of the operating system (OS) of the system, and the scanning image of each reflection point in the room received by the lidar sensor 11 An edge image extraction unit 202 that acquires in real time frame by frame, compares the before and after scanning images of the frames to extract a human body image part as shown in Figure 3, which is a moving object, and extracts an edge image for the human image part. , The center line extractor 203 that forms the center line of the human body from the edge image extracted from the edge image extractor 202, and the specific movement of the center line extracted from the center line extractor 203 is artificial intelligence learning It includes an emergency situation judgment module 204 that determines whether it is an emergency situation by the module, and when it is determined that it is an emergency situation in the emergency situation judgment module 204, the emergency situation is propagated to the external environment including the management server 201. .

에지영상 추출부(202)는 도 3의 영상에 대하여 에지를 검출하기 위하여 일반적으로 사용되는 소벨필터를 적용하여 픽셀의 변화율이 설정된 변화율 이상인 픽셀을 검출하여 도 4와 같은 에지라인을 형성하도록 한다.The edge image extraction unit 202 applies a generally used Sobel filter to detect an edge to the image of FIG. 3 and detects a pixel whose change rate is greater than or equal to a set change rate to form an edge line as shown in FIG. 4 .

또한 중심라인 추출부(203)는 폭 방향상에서, 에지라인들 사이의 중간을 연결하는 선을 중심라인으로 추출한다.Also, the center line extraction unit 203 extracts a line connecting the middle between edge lines as a center line in the width direction.

또한 중심라인 추출부(203)는 빅데이터와 인공지능(A.I) 기법에 의하여 도 4의 에지라인으로부터 인체의 머리(A), 손(B), (C), 발(D), (E)의 위치를 결정하고, 이들을 연결하는 선을 중심라인으로 정의하여 도 5와 같이 도식화할 수 있다.In addition, the center line extraction unit 203 is the head (A), hands (B), (C), feet (D), (E) of the human body from the edge line of FIG. 4 by big data and artificial intelligence (A.I) techniques. It can be schematized as shown in FIG. 5 by determining the location of and defining a line connecting them as a center line.

또한 응급상황판단모듈(204)은 도 5의 인체의 중심라인의 움직임을 검출하고, 움직임의 패턴이 기설정된 응급상황의 패턴에 부합하는지를 판단하여 응급상황을 결정한다.In addition, the emergency situation determination module 204 detects the movement of the central line of the human body in FIG. 5 and determines whether the movement pattern matches a preset emergency situation pattern to determine an emergency situation.

다양한 응급상황이 중심라인의 움직임에 의하여 추출될 수 있지만, 예시적으로 대상객체(환자라고 가정)의 머리(A)와 발(D), (E)가 150cm 이상 높이를 갖도록 서 있는 제1상태에서 머리(A)와 발(D), (E)가 20cm 이하의 누워 있는 제2상태로 변환되는 시간 차이가 기설정된 시간 차 이내에서 발생될 때, 응급상황판단모듈(204)는 환자가 정신을 잃고 넘어지는 것으로 응급상황으로 판단할 수 있다.Although various emergency situations can be extracted by the movement of the center line, illustratively, the first state in which the head (A), feet (D), and (E) of the target object (assumed to be a patient) is standing at a height of 150 cm or more. When the time difference between the head (A), the feet (D), and (E) is converted to the second state in which the head (A), feet (D), and (E) lie down by 20 cm or less occurs within a preset time difference, the emergency judgment module 204 determines that the patient is mentally ill. Losing and falling can be judged as an emergency.

응급상황판단모듈(204)는 이러한 응급상황에서 손(B), (C)의 움직임의 변화율이 정해진 범위를 초과하여 있는 경우에는 경한 응급상황으로, 손(B), (C)의 움직임이 정해진 범위 내에서 움직일 때에는 더 중한 경우로 세분화할 수 있다.The emergency situation determination module 204 determines that the change rate of the movements of the hands (B) and (C) exceeds a predetermined range in this emergency situation, as a mild emergency, and the movements of the hands (B) and (C) are determined. When moving within range, it can be subdivided into more severe cases.

이와 같이 응급상황판단모듈(204)는 설계자의 의도에 따라서 다양하게 설계될 수 있으며, 빅데이터를 이용하여 인공지능으로 학습될 수 있도록 구성하는 것이 바람직하다.In this way, the emergency judgment module 204 can be designed in various ways according to the designer's intention, and it is preferable to configure it so that it can be learned by artificial intelligence using big data.

본 발명의 실시 예는 환자를 모델로 하여 기술하고 있으나, 본 발명은 전술한 바와 같이 공중 화장실 등에서 발생될 수 있는 범죄의 검출이나, 독거노인에 대한 원격감시 등 다양한 분야에 대하여 적용될 수 있음은 당연한 것이며, 본 발명의 보호범위는 후술되는 청구범위에 의하여 결정되어야 한다.Although the embodiments of the present invention are described using a patient as a model, it is natural that the present invention can be applied to various fields such as detection of crimes that may occur in public toilets, etc., or remote monitoring of elderly people living alone, as described above. and the scope of protection of the present invention should be determined by the claims described below.

11: 라이다 센서
20: 감시 콘트롤러
201: 제어모듈
202: 에지영상추출부
203: 중심라인 추출부
204: 응급상황 판단모듈
11: lidar sensor
20: watchdog controller
201: control module
202: edge image extraction unit
203: center line extraction unit
204: emergency judgment module

Claims (4)

인체를 정확히 감지하면서도 사생활 보호가 이루어질 수 있도록 하는 라이다(LiDAR)를 이용한 인체 감시장치에 있어서:
인체를 감지하는 라이다 신호를 방출하고, 반사된 라이다 신호를 수신하는 라이다(LiDAR, Light Detection And Ranging) 센서;
상기 라이다 센서로부터 수집된 반사 라이다 빔의 위치정보를 스캐닝하여 얻어진 3차원 영상정보를 획득하고, 이 영상정보를 가공하여 가공된 영상정보를 분석하여, 환자가 도움을 필요로 하는 긴급상황에 빠진 것인지를 판단하고 긴급상황을 외부에 전파하는 감시 콘트롤러;
상기 감시 콘트롤러와 유, 무선 통신망에 의하여 연결되어 유관기관에 상황을 전파하는 관리서버를 포함하고,
상기 감시 콘트롤러는
연결된 제어대상을 제어하고 연산처리를 수행하여 시스템의 O.S(Operating System)를 담당하는 제어모듈;
상기 라이다 센서에 수신되는 방안 내의 각 반사점의 스캐닝 영상을 실시간으로 프레임별로 획득하고, 프레임들의 전, 후 스캐닝 영상을 비교하여 움직이는 객체인 인체 영상부분을 추출하고, 상기 인체 영상부분으로부터 에지 영상을 추출하는 에지영상추출부;
상기 에지영상추출부에서 추출된 에지영상으로부터 인체의 중심라인을 추출하는 중심라인 추출부;
상기 중심라인 추출부에서 추출된 중심라인의 특정 움직임을 기설정된 움직임과 비교하여 응급상황인지를 판단하는 응급상황 판단모듈을 포함하고,
상기 중심라인 추출부는
폭 방향상에서, 에지라인들 사이의 중간을 연결하는 선을 중심라인으로 추출하는 것을 특징으로 하는 라이다(LiDAR)를 이용한 인체 감시장치.
In the human body monitoring device using LiDAR that accurately detects the human body and enables privacy protection:
A LiDAR (Light Detection And Ranging) sensor for emitting a lidar signal for detecting a human body and receiving a reflected lidar signal;
3D image information obtained by scanning the location information of the reflected lidar beam collected from the lidar sensor is acquired, and the processed image information is analyzed by processing the image information to be used in an emergency situation in which the patient needs help. a monitoring controller that determines whether it is missing and propagates an emergency to the outside;
It includes a management server that is connected to the monitoring controller through a wired and wireless communication network and propagates the situation to related organizations,
The monitoring controller
A control module that controls the connected control object and performs calculation processing to be in charge of the OS (Operating System) of the system;
Acquire the scanning image of each reflection point in the room received by the lidar sensor frame by frame in real time, compare the before and after scanning images of the frames to extract the human body image part, which is a moving object, and obtain an edge image from the human body image part an edge image extraction unit for extraction;
a center line extraction unit extracting a center line of the human body from the edge image extracted by the edge image extraction unit;
An emergency judgment module for comparing the specific motion of the center line extracted from the center line extractor with a preset motion to determine whether it is an emergency situation,
The center line extraction part
In the width direction, a human body monitoring device using LiDAR, characterized in that a line connecting the middle between the edge lines is extracted as a center line.
삭제delete 삭제delete 삭제delete
KR1020210005105A 2021-01-14 2021-01-14 monitering system with LiDAR for a body KR102546045B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210005105A KR102546045B1 (en) 2021-01-14 2021-01-14 monitering system with LiDAR for a body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210005105A KR102546045B1 (en) 2021-01-14 2021-01-14 monitering system with LiDAR for a body

Publications (2)

Publication Number Publication Date
KR20220102774A KR20220102774A (en) 2022-07-21
KR102546045B1 true KR102546045B1 (en) 2023-06-20

Family

ID=82610140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210005105A KR102546045B1 (en) 2021-01-14 2021-01-14 monitering system with LiDAR for a body

Country Status (1)

Country Link
KR (1) KR102546045B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240025905A (en) 2022-08-19 2024-02-27 (주)넥스트파워 Vulnerable layer monitoring system with iot based privacy protection function

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020535862A (en) * 2017-10-06 2020-12-10 テルース ユー ケア インコーポレーションTellus You Care, Inc. Non-contact activity detection network for elderly care

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101956009B1 (en) * 2016-03-25 2019-03-08 가온소프트(주) Location Tracking System of the Patient using LiDAR

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020535862A (en) * 2017-10-06 2020-12-10 テルース ユー ケア インコーポレーションTellus You Care, Inc. Non-contact activity detection network for elderly care

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
박병기 외 2인. 3차원 포인트 클라우드 기반의 동적 3D 모델 생성을 위한 뼈대 추출 기술. 2019년 한국방송·미디어공학회 하계학술대회 1부.*

Also Published As

Publication number Publication date
KR20220102774A (en) 2022-07-21

Similar Documents

Publication Publication Date Title
US10080513B2 (en) Activity analysis, fall detection and risk assessment systems and methods
Diraco et al. An active vision system for fall detection and posture recognition in elderly healthcare
US7106885B2 (en) Method and apparatus for subject physical position and security determination
US7079669B2 (en) Image processing device and elevator mounting it thereon
US8427324B2 (en) Method and system for detecting a fallen person using a range imaging device
JP6155032B2 (en) Shooting system
JP2004280451A (en) Autonomous moving device
WO2012056443A2 (en) Tracking and identification of a moving object from a moving sensor using a 3d model
KR20160011523A (en) Device and method surveiling innormal behavior using 3d image information
US20180089972A1 (en) System and method for surveilling a scene comprising an allowed region and a restricted region
WO2008116288A1 (en) Divergence ratio distance mapping camera
JP6995148B2 (en) Smoke detection method using visual depth
KR101956009B1 (en) Location Tracking System of the Patient using LiDAR
US20240087327A1 (en) Object detection and tracking system
JP2009237993A (en) Image monitoring device
KR20140110484A (en) Risk behavior detection method using image information
CN106937532A (en) System and method for detecting actual user
TW201415415A (en) Target object detection device, method for detecting target object, and program
WO2016042946A1 (en) Monitoring system
KR102546045B1 (en) monitering system with LiDAR for a body
KR20170100892A (en) Position Tracking Apparatus
JPH11257931A (en) Object recognizing device
US11256910B2 (en) Method and system for locating an occupant
JP2011198244A (en) Object recognition system, monitoring system using the same, and watching system
WO2015198284A1 (en) Reality description system and method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant