KR102551644B1 - Safety management system through image-based core framing detection - Google Patents

Safety management system through image-based core framing detection Download PDF

Info

Publication number
KR102551644B1
KR102551644B1 KR1020200160128A KR20200160128A KR102551644B1 KR 102551644 B1 KR102551644 B1 KR 102551644B1 KR 1020200160128 A KR1020200160128 A KR 1020200160128A KR 20200160128 A KR20200160128 A KR 20200160128A KR 102551644 B1 KR102551644 B1 KR 102551644B1
Authority
KR
South Korea
Prior art keywords
image
action recognition
detection
recognition
camera
Prior art date
Application number
KR1020200160128A
Other languages
Korean (ko)
Other versions
KR20220072478A (en
Inventor
박영기
임상일
이국진
박성실
조익현
유태환
Original Assignee
주식회사 싸인텔레콤
한국서부발전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 싸인텔레콤, 한국서부발전 주식회사 filed Critical 주식회사 싸인텔레콤
Priority to KR1020200160128A priority Critical patent/KR102551644B1/en
Priority to PCT/KR2021/004746 priority patent/WO2022114406A1/en
Publication of KR20220072478A publication Critical patent/KR20220072478A/en
Application granted granted Critical
Publication of KR102551644B1 publication Critical patent/KR102551644B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Abstract

본 발명은 3D 카메라 또는 센서가 없는 일반 CCTV 카메라로 촬영하여 입력된 영상을 기반으로 하여, 상기 영상 내 작업자 및 보행자의 행동 인식에 필요한 최소한의 핵심 골격만을 객체 검출 과정에 포함시켜 고사양의 처리시스템 및 추가 장비를 사용하지 않더라도 검출된 객체 간의 위상 관계를 손쉽게 파악하여 사람 행동의 정확도를 향상시킴으로써, 입력된 영상 내 작업자 및 보행자의 위험영역침입, 2인 1조 작업여부 확인, 쓰러짐, 안전모착용, 구조신호 인식등의 위험상황 분석을 신속하게 판단하여 이에 대한 대응 및 응급상황대처가 이루어질 수 있도록 하는 영상기반의 핵심골격검출을 통해 이루어지는 안전관리 시스템에 관한 것이다.The present invention is based on an input image taken by a 3D camera or a general CCTV camera without a sensor, and includes only the minimum core skeleton necessary for recognizing the actions of workers and pedestrians in the image in the object detection process to obtain a high-end processing system and By improving the accuracy of human behavior by easily grasping the phase relationship between detected objects without using additional equipment, workers and pedestrians in the input image enter dangerous areas, check whether two people are working in pairs, fall down, wear hard hats, rescue It relates to a safety management system achieved through image-based core skeleton detection, which enables rapid judgment of risk situation analysis such as signal recognition and response and emergency response.

Description

영상기반의 핵심골격검출을 통한 안전관리 시스템{Safety management system through image-based core framing detection}Safety management system through image-based core framing detection}

본 발명은 3D 카메라 또는 센서가 없는 일반 CCTV 카메라로 촬영하여 입력된 영상을 기반으로 하여, 상기 영상 내 작업자 및 보행자의 행동 인식에 필요한 최소한의 핵심 골격을 객체 검출 과정에 포함시켜 고사양의 처리시스템 및 추가 장비를 사용하지 않더라도 검출된 객체 간의 위상 관계를 손쉽게 파악하여 사람 행동의 정확도를 향상시킴으로써, 입력된 영상 내 작업자 및 보행자의 위험영역침입, 2인 1조 작업여부 확인, 안전모착용여부, 구조신호 인식, 쓰러짐 등의 위험상황 분석을 신속하게 판단하여 이에 대한 대응 및 응급상황대처가 이루어질 수 있도록 하는 영상기반의 핵심골격검출을 통해 이루어지는 안전관리 시스템에 관한 것이다.The present invention is based on an input image taken by a 3D camera or a general CCTV camera without a sensor, and includes the minimum core skeleton necessary for recognizing the actions of workers and pedestrians in the image in the object detection process to obtain a high-end processing system and By improving the accuracy of human behavior by easily grasping the phase relationship between detected objects without using additional equipment, workers and pedestrians entering the danger zone in the input image, checking whether two people are working in pairs, whether they are wearing hard hats, and rescue signals It relates to a safety management system achieved through image-based core skeleton detection that quickly determines risk situation analysis such as recognition and fall, and responds to and responds to emergency situations.

본 발명과 관련하여, 대한민국 공개특허 10-2018-0028886(공개일자 2018년03월19일)의 '3차원 골격정보로부터 동작인식을 위한 기계학습용 특징 추출 방법 및 장치'에서는 '인간의 동작의 실시간 인식을 위하여 3차원 골격정보로부터 학습데이터로서의 특징들을 추출하는 방법으로서, 인체 동작을 나타내는 골격정보(스켈레톤 정보)에 포함된 각 관절에서의 위치 정보와 회전 정보를 이용하여 실시간 동작인식을 위한 프레임 단위로 인체역학적 특징을 추출하는 것을 포함하는, 동작인식을 위한 3차원 골격 정보로부터의 특징 추출 방법.'에 대한 기술이 개시된 바 있다.In relation to the present invention, in the 'feature extraction method and apparatus for machine learning for motion recognition from 3-dimensional skeleton information' of Korean Patent Publication No. 10-2018-0028886 (published on March 19, 2018), 'real-time of human motion As a method of extracting features as learning data from 3D skeletal information for recognition, it is frame-by-frame for real-time motion recognition using position information and rotation information of each joint included in skeletal information (skeleton information) representing human motion. A feature extraction method from 3D skeletal information for motion recognition, including extracting biomechanical features with .' has been disclosed.

상기 공개특허는 3차원 골격에 대한 특징 추출에 대한 방법으로서 3차원 골격을 추출하기 위해서는 3D 카메라 및 센서 등 별도의 장비가 필요하다는 단점이 있다. The published patent is a method for extracting features for a 3D skeleton, and has a disadvantage in that separate equipment such as a 3D camera and a sensor is required to extract the 3D skeleton.

반면, 본 발명에서는 3D 카메라 및 센서 없이도 일반 CCTV 카메라로 인체의 핵심골격을 추출하여 행동을 인식하고 이를 사용한 위험상황 인식을 통하여 예방할 수 있는 방안을 제시한다.On the other hand, in the present invention, without a 3D camera and sensor, a general CCTV camera extracts the core skeleton of the human body to recognize the action and proposes a method for prevention through risk situation recognition using the same.

대한민국 공개특허 10-2018-0096038(공개일자 2018년08월29일)의 '행위 예측을 위한 다중 모션 기반 옴니뷰 기법'에서는 '행동 패턴 기반 범죄 예측 장치로서, 고정형 카메라 및 회전형 카메라 중 적어도 하나의 카메라로부터 전송되어 오는 영상을 수신하기 위한 통신부, 상기 통신부를 통해 수신된 영상 내 모든 인물들의 행동을 분석하여, 범죄를 예측하기 위한 분석 장치와, 상기 분석 장치에 의해 이상 행동을 한 것이라고 판단된 객체를 통보하기 위한 출력부를 포함하고, 상기 분석 장치는 상기 영상 내 모든 인물들 사이의 거리를 인지하기 위한 거리 인지 모듈로서, 상기 거리가 사회적 거리 범위 또는 친밀 거리 범위에 해당하는 경우, 그 거리 범위 내의 인물을 특정하도록 구성된 상기 거리 인지 모듈과, 상기 특정된 인물의 몸 패턴과 팔 패턴을 분석하기 위한 옴니 뷰 패턴 인지 모듈로서, 상기 인물의 골격의 적어도 일부분의 골격의 좌표를 획득하고, 이를 3차원 좌표로서 저장하여, 상기 인물의 몸의 패턴과 팔의 패턴을 분석하며, 분석 결과, 이러한 분석 결과, 상기 인물의 몸과 팔의 패턴이, 정상적인 패턴이라고 미리 정해진 기준 패턴에서 벗어나는 것으로 분석되면, 해당 결과를 결정 모듈에 전송하도록 구성되는, 옴니 뷰 패턴 인지모듈과, 상기 3차원 좌표에 기초하여, 상기 인물의 손을 분석하여, 이상 행동시 일어나는 좌표 변화를 결정 모듈에 전송하는 핸드 패턴 인지 모듈로서, convexhull 알고리즘을 이용하여, 인물의 손가락 갯수를 찾아내어 위험을 예측하도록 구성된 핸드 패턴 인지 모듈과, 각 모듈의 분석 결과를 결합하여 이상 행동을 예측하기 위한 결정 모듈로서, 인물 간의 거리 인지부터 시작하여 몸 패턴, 팔 패턴, 손 패턴까지 순차적으로 파악하고, 각 단계에서 이상 행동이 인지되면, 다음 단계로 넘어가 각 단계에서 이상 행동이 미리 정해진 기준 패턴에서 벗어난다고 파악되면, 그 결과를 출력부를 통해 통보하도록 구성된 결정 모듈을 포함하는 것을 특징으로 하는 행동 패턴 기반 범죄 예측 장치'에 대한 기술이 개시된 바 있다.In Korean Patent Publication No. 10-2018-0096038 (published on August 29, 2018), 'multiple motion-based omni-view technique for behavior prediction', 'a behavior pattern-based crime prediction device, at least one of a fixed camera and a rotating camera A communication unit for receiving an image transmitted from a camera of the communication unit, an analysis device for predicting a crime by analyzing the behavior of all persons in the image received through the communication unit, and An output unit for notifying an object, and the analysis device is a distance recognition module for recognizing a distance between all persons in the image, and if the distance corresponds to a social distance range or an intimacy range, the distance range The distance recognition module configured to specify a person within, and an omni-view pattern recognition module for analyzing a body pattern and an arm pattern of the specified person, obtaining coordinates of at least a part of a skeleton of the person, Stored as dimensional coordinates, analyzing the pattern of the body and arm of the person, and as a result of the analysis, if the pattern of the body and arm of the person is analyzed to deviate from a predetermined standard pattern as a normal pattern, An omni-view pattern recognition module configured to transmit a corresponding result to a determination module, and a hand pattern recognition module configured to analyze a hand of the person based on the three-dimensional coordinates and transmit a coordinate change that occurs when an abnormal behavior occurs to the determination module. As a hand pattern recognition module configured to predict risk by finding the number of fingers of a person using the convexhull algorithm, and a decision module for predicting abnormal behavior by combining the analysis results of each module, starting from recognizing the distance between people The body pattern, arm pattern, and hand pattern are identified sequentially, and when abnormal behavior is recognized at each stage, it moves to the next stage and when it is identified that the abnormal behavior deviates from the predetermined standard pattern at each stage, the result is output through the output unit. A technique for a 'behavioral pattern-based crime prediction device' characterized in that it includes a decision module configured to notify has been disclosed.

상기 공개특허 10-2018-0096038은 영상 내 모든 인물의 행동을 분석하며 인물간의 거리 제한을 통하여 행동 분석의 여부를 결정 일정 거리안에 사람의 해동을 분석하여 서로간의 상호작용에 대한 행동을 분석 옴니뷰(다각도의 영상을 사용) 행동의 방향성을 사용하여 행동패턴을 분석하여 범죄를 예측하기 때문에 행동을 분석하기 위하여 다양한 각도의 카메라가 필요하다는 단점이 있다. 그리고, 몸> 팔> 손 등 전체 영역에서 세부영역으로 단계적으로 분석하여 행동패턴을 인식하기 때문에 고사양의 처리시스템 및 추가 장비를 필요로 한다는 단점이 있다.The Patent Publication No. 10-2018-0096038 analyzes the behavior of all characters in the video and determines whether or not to analyze the behavior by limiting the distance between the characters Analyzing the behavior of the person within a certain distance and analyzing the behavior of the interaction with each other Omniview (Using images from multiple angles) Since crime is predicted by analyzing behavioral patterns using the directionality of behavior, it has the disadvantage of requiring cameras from various angles to analyze behavior. In addition, there is a disadvantage in that a high-end processing system and additional equipment are required because the behavior pattern is recognized by stepwise analysis from the entire area such as the body > arm > hand to detailed areas.

반면, 본 발명은 영상 내 모든 인물의 행동을 분석하는 것은 동일하나 영상 내 인물의 핵심골격검출을 통해 행동인식을 진행하는 차별점이 존재하며, 이는 전체 이미지를 처리하는 것과 일부 이미지를 처리하는 차별점이 존재하면 이는 영상 분석시 연산량을 줄일 수 있다는 장점이 존재한다. 또한 본 발명은 전체 영역의 행동인식을 진행하며 1차와 2차로 구분하여 행동을 인식한다.On the other hand, the present invention is the same as analyzing the behavior of all characters in the image, but there is a difference in that the action recognition is performed through the detection of the core skeleton of the person in the image, which is different from processing the entire image and processing some images If present, this has the advantage of reducing the amount of computation during image analysis. In addition, the present invention proceeds with the action recognition of the entire area and recognizes the action by dividing it into primary and secondary.

즉, 팔을 머리 위로 흔드는 행위등의 구조신호의 경우, 1차 행동인식으로서 손의 위치가 어깨 위로 올라가는 행동을 인식한 후, 2차 행동인식으로서 시간에 따른 변화량을 통한 행동인식이 진행된다. 2차 행동인식의 경우, 시간에 따라 달라지는 골격의 변화량을 통하여 행동인식을 진행하는 차별점이 존재한다.That is, in the case of a rescue signal such as waving the arm above the head, the first action recognition is the recognition of the hand position above the shoulder, and the second action recognition is the action recognition through the amount of change over time. In the case of secondary action recognition, there is a differentiated point of proceeding with action recognition through the amount of change in the skeleton that varies over time.

이와 같이 종래 개시되어 있는 위험 상황 인식 방법은 객체검출, 추적을 통한 사람의 움직임을 기반으로 위험지역침입, 안전지역이탈 등을 인식하고 있으며, 이와 같은 골격 추출 및 인식 등의 사람의 정확한 행동을 사용한 위험 상황 인식 방법은 고사양의 처리시스템 및 추가 장비를 사용해야 하는 단점이 있었다.As such, the conventionally disclosed dangerous situation recognition method recognizes intrusion into a dangerous area, departure from a safe area, etc. based on human movement through object detection and tracking, and uses accurate human behavior such as skeleton extraction and recognition. The risk situation recognition method had the disadvantage of requiring the use of a high-end processing system and additional equipment.

대한민국 공개특허 10-2018-0028886(공개일자 2018년03월19일)Republic of Korea Patent Publication 10-2018-0028886 (published on March 19, 2018) 대한민국 공개특허 10-2018-0096038(공개일자 2018년08월29일)Republic of Korea Patent Publication 10-2018-0096038 (published on August 29, 2018)

본 발명은 3D 카메라 또는 센서가 없는 일반 CCTV 카메라로 촬영하여 입력된 영상을 기반으로 하여, 상기 영상 내 작업자 및 보행자의 행동 인식에 필요한 최소한의 핵심 골격만을 객체 검출 과정에 포함시켜 고사양의 처리시스템 및 추가 장비를 사용하지 않더라도 검출된 객체 간의 위상 관계를 손쉽게 파악하여 사람 행동의 정확도를 향상시킴으로써, 입력된 영상 내 작업자 및 보행자의 위험영역침입, 2인 1조 작업여부 확인, 쓰러짐, 안전모착용, 구조신호 인식등의 위험상황 분석을 신속하게 판단하여 이에 대한 대응 및 응급상황대처가 이루어질 수 있도록 하는 영상기반의 핵심골격검출을 통해 이루어지는 안전관리 시스템을 제공하고자 하는 것을 발명의 목적으로 한다.The present invention is based on an input image taken by a 3D camera or a general CCTV camera without a sensor, and includes only the minimum core skeleton necessary for recognizing the actions of workers and pedestrians in the image in the object detection process to obtain a high-end processing system and By improving the accuracy of human behavior by easily grasping the phase relationship between detected objects without using additional equipment, workers and pedestrians in the input image enter dangerous areas, check whether two people are working in pairs, fall down, wear hard hats, rescue It is an object of the invention to provide a safety management system made through image-based core skeleton detection that enables quick determination of dangerous situation analysis such as signal recognition and response and emergency response.

상기 목적을 달성하기 위하여,In order to achieve the above purpose,

본 발명은 카메라; 상기 카메라를 통해 획득한 영상을 수신하는 통신부와, 상기 통신부를 통해 제공되는 영상을 기반으로 핵심골격을 검출하여 1차 및 2차 행동인식 과정을 거쳐 행동인식 결과를 도출하는 위험상황인식부와, 상기 위험상황인식부를 통해 도출된 행동인식 결과를 관리자에게 송출하는 송출부를 포함하는 안전관리처리부;로 구성된 것으로서,The present invention is a camera; A communication unit for receiving the image acquired through the camera, and a risk situation recognition unit for detecting a core skeleton based on the image provided through the communication unit and deriving an action recognition result through primary and secondary action recognition processes; It consists of a; safety management processing unit including a sending unit for transmitting the action recognition result derived through the risk situation recognition unit to a manager,

센서를 포함하지 않는 상기 카메라를 통해 특정영역의 영상을 획득하는 단계(S10)와Obtaining an image of a specific area through the camera not including a sensor (S10);

상기 카메라를 통해 획득한 영상을 기반으로 머리, 손, 팔 또는 다리를 포함하는 핵심골격을 객체로 하여 검출하고, 이들 객체의 위치를 인식하여 이동 경로를 표시하는 객체검출 및 추적단계(S20)와,An object detection and tracking step (S20) of detecting a core skeleton including a head, hand, arm or leg as an object based on an image obtained through the camera, recognizing the location of these objects and displaying a movement path; ,

상기 객체검출 및 추적단계를 통해 확인된 각 객체 간의 위상 관계를 파악하고, 이를 기반으로 사람의 행동 인식을 진행하는 1차 행동인식 단계(S30)와,A first action recognition step (S30) of identifying the phase relationship between each object identified through the object detection and tracking step, and proceeding with human action recognition based on this;

상기 1차 행동인식 단계를 거친 후 상기 객체 간의 각도 변화량을 통해 구조신호 여부를 인식하는 2차 행동인식 단계(S40)와,After passing through the first action recognition step, a second action recognition step (S40) of recognizing whether or not a distress signal is present through the amount of angle change between the objects;

상기 2차 행동인식 단계를 거쳐 도출된 행동인식 결과를 관리자의 단말기로 송출하는 단계(S50)를 포함하는 것을 특징으로 하는 영상기반의 핵심골격검출을 통한 안전관리 시스템을 제공한다.It provides a safety management system through image-based core skeleton detection, characterized in that it includes a step (S50) of transmitting the action recognition result derived through the second action recognition step to the manager's terminal.

본 발명에 따른 영상기반의 핵심골격검출을 통한 안전관리 시스템은 다음의 효과를 갖는다.The safety management system through image-based core skeleton detection according to the present invention has the following effects.

첫째. 특정 트리거 행동인식을 통해 이루어짐으로써 행동인식을 심플하게 할 수 있다는 장점을 갖는다.first. It has the advantage of being able to simplify the action recognition by performing it through specific trigger action recognition.

둘째. 인체의 핵심골격을 객체 검출 고정에 포함하여 인체의 움직임에 대한 연속적인 변화를 바탕으로 위험 상황 분석과 골격을 사용한 행동 인식이 가능하기 때문에 가볍고 저렴한 비용으로 정확한 이벤트 인식이 가능하다는 장점을 갖는다.second. Since the core skeleton of the human body is included in the object detection fixation, risk situation analysis and action recognition using the skeleton are possible based on the continuous change of the human body movement, it has the advantage of being lightweight and inexpensive, and accurate event recognition is possible.

셋째. 사람에게 센서가 장착되어 있지 않더라도 도로, 발전소 등에서 발생하는 구조신호, 갑자기 쓰러지는 행동 등에 대한 행동인식이 신속하면서도 정확하게 이루어질 수 있다는 장점을 갖는다.third. Even if a person is not equipped with a sensor, it has the advantage that action recognition for rescue signals generated from roads, power plants, etc., and sudden collapse can be quickly and accurately performed.

도 1은 본 발명에 따른, 영상기반의 핵심골격검출을 통해 이루어지는 안전관리 시스템의 전체 구성도.
도 2는 도 1에 도시된 안전관리 시스템을 통해 이루어지는 행동인식과정을 나타낸 도면.
도 3은 종래 사람의 움직임을 통한 위험 상황 분석 방안의 일례를 보인 사진.
도 4는 종래 골격 단위의 세부적인 움직임을 통한 행동 인식 방안의 일례를 보인 사진.
도 5는 본 발명에 따른 핵심 골격 검출을 통한 응급 상황 인식 과정을 예시적으로 나타낸 사진.
도 6은 본 발명에 따른 핵심 골격 검출을 통한 응급 상황 인식 과정을 예시적으로 나타낸 것으로서, 쓰러짐 검출 전 상태를 보인 사진.
도 7은 본 발명에 따른 핵심 골격 검출을 통한 응급 상황 인식 과정을 예시적으로 나타낸 것으로서, 쓰러짐 검출 후 상태를 보인 사진.
1 is an overall configuration diagram of a safety management system made through image-based core skeleton detection according to the present invention.
Figure 2 is a view showing a behavior recognition process made through the safety management system shown in Figure 1;
Figure 3 is a photograph showing an example of a risk situation analysis method through a conventional human movement.
4 is a photograph showing an example of a method for recognizing a behavior through detailed movement of a conventional skeletal unit.
5 is a photograph showing an emergency situation recognition process through core skeleton detection according to the present invention by way of example.
6 is a photograph showing a state before detection of a fall as an example of an emergency situation recognition process through core skeleton detection according to the present invention.
7 is an example of an emergency situation recognition process through core skeleton detection according to the present invention, and a photograph showing a state after a fall is detected.

이하, 본 발명에 따른 영상기반의 핵심골격검출을 통해 이루어지는 안전관리 시스템에 대한 구체적인 기술 내용을 도면과 함께 살펴보도록 한다.Hereinafter, detailed technical contents of the safety management system achieved through image-based core skeleton detection according to the present invention will be reviewed together with drawings.

본 발명에 따른 영상기반의 핵심골격검출을 통해 이루어지는 안전관리 시스템은 도 1 및 도 2에 도시된 바와 같이,As shown in FIGS. 1 and 2, the safety management system achieved through image-based core skeleton detection according to the present invention,

카메라(10); 상기 카메라(10)를 통해 획득한 영상을 수신하는 통신부(21)와, 상기 통신부(21)를 통해 제공되는 영상을 기반으로 핵심골격을 검출하여 1차 및 2차 행동인식 과정을 거쳐 행동인식 결과를 도출하는 위험상황인식부(22)와, 상기 위험상황인식부(22)를 통해 도출된 행동인식 결과를 관리자에게 송출하는 송출부(23)를 포함하는 안전관리처리부(20);로 구성된 것으로서,camera 10; The communication unit 21 for receiving the image obtained through the camera 10 and the core skeleton detected based on the image provided through the communication unit 21, and the behavior recognition result through the first and second action recognition processes. It consists of a risk situation recognition unit 22 that derives and a safety management processing unit 20 including a transmission unit 23 that transmits the action recognition result derived through the risk situation recognition unit 22 to a manager. ,

센서를 포함하지 않는 상기 카메라(10)를 통해 특정영역의 영상을 획득하는 단계(S10)와,Obtaining an image of a specific region through the camera 10 that does not include a sensor (S10);

상기 카메라(10)를 통해 획득한 영상을 기반으로 머리, 손, 팔 또는 다리를 포함하는 핵심골격을 객체로 하여 검출하고, 이들 객체의 위치를 인식하여 이동 경로를 표시하는 객체검출 및 추적단계(S20)와,Object detection and tracking step of detecting the core skeleton including the head, hand, arm or leg as an object based on the image acquired through the camera 10, recognizing the location of these objects and displaying the movement path ( S20) and,

상기 객체검출 및 추적단계를 통해 확인된 각 객체 간의 위상 관계를 파악하고, 이를 기반으로 사람의 행동 인식을 진행하는 1차 행동인식 단계(S30)와,A first action recognition step (S30) of identifying the phase relationship between each object identified through the object detection and tracking step, and proceeding with human action recognition based on this;

상기 1차 행동인식 단계를 거친 후 상기 객체 간의 각도 변화량을 통해 구조신호 여부를 인식하는 2차 행동인식 단계(S40)와,After passing through the first action recognition step, a second action recognition step (S40) of recognizing whether or not a distress signal is present through the amount of angle change between the objects;

상기 2차 행동인식 단계를 거쳐 도출된 행동인식 결과를 관리자의 단말기로 송출하는 단계(S50)를 포함한다.and transmitting the action recognition result derived through the second action recognition step to a manager's terminal (S50).

상기한 바와 같이, 본 발명에 따른 안전관리 시스템은 카메라(10)와, As described above, the safety management system according to the present invention includes a camera 10,

통신부(21), 위험상황인식부(22), 송출부(23)를 포함하는 안전관리처리부(20);로 구성된다. It consists of a communication unit 21, a risk situation recognition unit 22, and a safety management processing unit 20 including a sending unit 23.

이때 상기 위험상황인식부(22)는 객체검출 및 추적; 1차 행동인식; 및 2차 행동인식; 과정을 거쳐 위험영역침입여부, 2인 1조 작업여부, 쓰러짐여부, 안전모착용여부 또는 구조신호인식을 포함하는 위험상황을 분석하고, 이와 같이 분석된 결과를 송출부(23)를 통해 관리자의 단말기로 알림을 제공하는 역할을 한다.At this time, the dangerous situation recognition unit 22 detects and tracks the object; primary action recognition; and secondary action recognition; Through the process, the dangerous situation including whether to intrude into the dangerous area, whether to work in a group of two people, whether to fall down, whether to wear a hard hat, or rescue signal recognition is analyzed, and the analyzed result is transmitted to the manager's terminal through the transmission unit 23 serves to provide notifications.

본 발명에 따른 안전관리 시스템은 인체의 핵심 골격인 머리, 손, 팔 또는 다리를 객체 검출 과정에 포함하여 움직임을 통한 상황 분석과 골격을 사용한 행 동 인식이 가능하도록 함으로써, 기존의 객체를 검출하여 단순한 움직임을 통해서는 사람의 행동을 분석하는데 어려움이 있다는 점(도 3)과, 사람의 골격 단위로 검출하여 세부적인 행동을 분석하는데는 많은 연산량이 필요하다는 점(도 4)을 전체적으로 해결함으로써, 낮은 연산량을 통해서도 위험상황을 신속하면서도 명확하게 파악할 수 있다는데 기술적 특징이 있다.The safety management system according to the present invention includes the head, hand, arm, or leg, which are the core skeletons of the human body, in the object detection process to enable situation analysis through movement and action recognition using the skeleton, thereby detecting existing objects and By resolving the difficulty in analyzing human behavior through simple movements (FIG. 3) and the fact that a large amount of computation is required to analyze detailed behavior by detecting it in units of human skeletons (FIG. 4), Its technical feature is that it can quickly and clearly identify dangerous situations even with a low amount of computation.

상기 객체 검출은 딥러닝 기반으로 이루어진다. 딥러닝은 컴퓨터가 인간의 두뇌를 모방하여 대형 인공신경망을 형성하는 기계 학습이다. 딥러닝은 인공신경망의 모형이 발전한 형태이며 입력층, 은닉층, 출력층의 구조인 인공신경망에서 여러 단계의 은닉층(Hidden layer)으로 이루어진 구조이다.The object detection is based on deep learning. Deep learning is machine learning in which computers mimic the human brain to form large artificial neural networks. Deep learning is an advanced form of an artificial neural network model, and is a structure consisting of several hidden layers in an artificial neural network, which is a structure of an input layer, a hidden layer, and an output layer.

상기 객체 검출은 CNN(Convolutional Neural Netwaork)의 딥러닝 알고리즘을 통한 영상 분석에 기반한다. 상기 합성곱 신경망(Convolutional Neural Netwaork, CNN)은 기계학습 모델중에서 인공신경망(Artifical Neural Network, ANN)의 딥러닝 영역으로 CNN의 기본 구조는 보통 convolutional layer, pooling layer, fully connected layer의 3가지 계층의 신경망을 쌓아 성능을 높인다. The object detection is based on image analysis through a convolutional neural network (CNN) deep learning algorithm. The convolutional neural network (CNN) is a deep learning area of an artificial neural network (ANN) among machine learning models. Build a neural network to improve performance.

상기 Convolution 단계는 필터를 활용하여 특징을 추출하는 과정으로 필터를 적용할 시 건너뛸 픽셀의 수를 Stride라 한다. 상기 Stride가 클수록 연산 속도는 빨라지며 적중률은 낮아진다.The convolution step is a process of extracting features using a filter, and the number of pixels to be skipped when applying the filter is called a stride. The larger the stride, the faster the calculation speed and the lower the hit rate.

상기 Pooling 단계는 Max Pooling 기법을 사용하여 Convolution 단계를 통해 얻은 Feature Map의 크기를 압축시킨다.The pooling step uses the max pooling technique to compress the size of the feature map obtained through the convolution step.

상기 Convolution 단계와 Pooling 단계를 반복 진행하다 Fully Connected 단계의 과정을 수행하게 되면 딥러닝의 출력부와 이어져 입력받은 영상 특징 추출이 가능해진다.When the process of the Fully Connected step is performed after repeating the convolution step and the pooling step, it is possible to extract the input image features connected to the output unit of the deep learning.

본 발명에 따른 영상기반의 핵심골격검출을 통해 이루어지는 안전관리 시스템은 도 5에 도시된 바와 같이,As shown in FIG. 5, the safety management system achieved through image-based core skeleton detection according to the present invention

입력된 영상을 기반으로 사람의 머리, 손, 팔 또는 다리에서 선택되는 핵심 객체를 검출하고, 이와 같이 핵심 객체를 통해 위험상황을 분석하여 응급 상황 여부를 판단하여 알림을 제공한다.Based on the input image, a key object selected from the head, hand, arm, or leg of a person is detected, and a dangerous situation is analyzed through the key object to determine whether or not an emergency is necessary and a notification is provided.

사람의 움직임을 통해 정확한 행동을 판단하기 위해서는 골격추출 및 인식을 통한 위험상황을 인식해야 하기 때문에 고사양의 처리시스템과 추가 장비가 필요하나, 본 발명에서는 사람의 행동인식 판단에 필요한 최소한의 핵심골격만을 검출하고, 이를 기반으로 행동인식이 이루어짐으로써 가볍고 저렴한 비용으로 행동인식이 이루어질 수 있다는 장점을 갖는다.In order to determine accurate behavior through human movement, a high-end processing system and additional equipment are required because a dangerous situation must be recognized through skeleton extraction and recognition. It has the advantage that action recognition can be performed lightly and at low cost by detecting and performing action recognition based on this.

이와 같이 영상기반의 핵심골격검출을 통해 이루어지는 안전관리 시스템은 입력된 영상을 통해 머리, 손, 팔 또는 다리의 핵심골격에 해당하는 핵심 객체를 검출하고, 이와 같은 핵심 객체를 통해 위험상황을 분석한 후 그 분석결과에 대한 알림을 관리자의 단말기에 제공한다.In this way, the safety management system through image-based core skeleton detection detects core objects corresponding to the core skeleton of the head, hand, arm, or leg through the input image, and analyzes the dangerous situation through these core objects. Then, a notification of the analysis result is provided to the manager's terminal.

상기 위험상황 분석 예시로는 위험영역침입, 2인 1조 작업여부 확인, 안전모착용여부, 구조신호 인식, 쓰러짐 등이다.Examples of the dangerous situation analysis include intrusion into a dangerous area, confirmation of a two-person team operation, wearing of a hard hat, rescue signal recognition, and falling.

상기 위험영역침입의 경우, 단계별 위험지역을 지정하여 해당 지역내 사람이 검출될 경우에만 알림을 제공한다.In the case of intrusion into the dangerous area, a risk area is designated for each stage and notification is provided only when a person in the area is detected.

상기 2인 1조 작업여부 확인의 경우, 검지영역 내 사람이 2인 미만일 경우 알림을 제공한다.In the case of checking whether a group of two people is working, a notification is provided if there are less than two people in the detection area.

상기 안전모착용여부는 머리 영역 내 안전모 검출 여부를 확인하여 착용, 미착용을 검지한 후 미착용시 알림을 제공한다.Whether or not the safety helmet is worn is determined by checking whether or not the safety helmet is detected in the head region to detect whether the helmet is worn or not worn, and then a notification is provided when the helmet is not worn.

상기 구조신호 인식과 관련하여 도 5에 예시적으로 사진을 제시하고 있다.In relation to the distress signal recognition, a picture is exemplarily presented in FIG. 5 .

상기 구조신호 인식과정에 대해 좀더 살펴보자면,Looking more closely at the distress signal recognition process,

먼저 인체의 핵심 골격인 핵심 객체를 검출한다.First, a core object, which is the core skeleton of the human body, is detected.

다음으로 객체 간의 위상 관계를 파악한다. 예를 들어, 얼굴 영역의 아래 중심점을 기준으로 양손의 위치가 위에 존재하는지 여부를 확인한다. Next, the topological relationship between objects is identified. For example, based on the lower center point of the face area, it is checked whether the positions of both hands are above.

다음으로 객체 간의 각도 변화량을 통한 구조신호를 인식한다. 예를 들어, 손, 얼굴 영역 아래 중심점, 손 사이의 각도의 변화량이 지정된 시간 임계값 동안 각도의 변화량이 각도 임계값 이상으로 발생한 횟수를 기준으로 판단한다.Next, the rescue signal is recognized through the amount of angle change between objects. For example, it is determined based on the number of times that the change in angle between the hands, the center point under the face area, and the hand exceeds the angle threshold value during a designated time threshold value.

상기 쓰러짐과 관련하여 도 6 및 도 7에 예시적으로 사진을 제시하고 있다.In relation to the fall, pictures are exemplarily presented in FIGS. 6 and 7 .

상기 도 6 및 도 7은 본 발명에 따른 안전관리 시스템을 통한 행동인식에 대한 예시로서, 본 발명의 안전관리 시스템을 통한 쓰러짐 검출 전과 쓰러짐 검출 후의 상태의 인식과정을 도시하고 있다.6 and 7 are examples of behavior recognition through the safety management system according to the present invention, and show the state recognition process before and after the fall detection through the safety management system of the present invention.

위험상황 중 하나인 '쓰러짐'은 사람의 검출 영역이 Y축으로 짧아지고 X축으로 길어지는 경우와 머러 검출 영역의 중심좌표가 빠르게 변화하는 것을 종합적으로 판단하여 행동인식이 이루어진다.In case of 'falling', one of the risk situations, action recognition is made by comprehensively judging the case where the human detection area is shortened along the Y-axis and lengthened along the X-axis, and the center coordinates of the Murray detection area rapidly change.

도 6은 쓰러짐 검출 전으로서 사람 검출 영역 위 빨간원형은 쓰러짐 검출 전을 의미하고, 도 7은 쓰러짐 검출 후로서 사람 검출 영역 위 초록원형은 쓰러짐 검출을 의미한다.6 is before fall detection, the red circle on the person detection area means before fall detection, and FIG. 7 is after fall detection, and the green circle on the person detection area means fall detection.

본 발명에 따른 영상기반 행동인식을 사용한 안전관리 시스템은 특정 트리거 행동인식을 통해 이루어짐으로써 가볍고 저렴한 비용으로 행동인식을 심플하게 할 수 있다는 장점을 갖고, 각 몸의 움직임에 대한 연속적인 변화를 바탕으로 행동인식이 이루어지기 때문에 보다 정확한 이벤트 인식이 가능하다는 장점을 가지며, 사람에게 센서가 장착되어 있지 않더라도 도로, 발전소 등에서 발생하는 구조신호, 갑자기 쓰러지는 행동 등에 대한 행동인식이 가벼우면서도 정확하게 이루어질 수 있다는 장점을 가지므로, 산업상 이용가능성이 크다.The safety management system using image-based action recognition according to the present invention has the advantage of being able to simplify action recognition at low cost and lightly by performing specific trigger action recognition, and based on continuous changes for each body movement, Since action recognition is performed, it has the advantage of being able to recognize more accurate events, and even if a person is not equipped with a sensor, it has the advantage that action recognition can be performed lightly and accurately for rescue signals generated from roads, power plants, etc., and suddenly falling down. Therefore, it has high industrial applicability.

Claims (3)

카메라(10); 상기 카메라(10)를 통해 획득한 영상을 수신하는 통신부(21)와, 상기 통신부(21)를 통해 제공되는 영상을 기반으로 핵심골격을 검출하여 1차 및 2차 행동인식 과정을 거쳐 행동인식 결과를 도출하는 위험상황인식부(22)와, 상기 위험상황인식부(22)를 통해 도출된 행동인식 결과를 관리자에게 송출하는 송출부(23)를 포함하는 안전관리처리부(20);로 구성된 것으로서,
센서를 포함하지 않는 상기 카메라(10)를 통해 특정영역의 영상을 획득하는 단계(S10)와,
상기 카메라(10)를 통해 획득한 영상을 기반으로 핵심골격을 객체로 하여 검출하고, 상기 객체의 위치를 인식하여 이동 경로를 표시하는 객체검출 및 추적단계(S20)와,
상기 객체검출 및 추적단계를 통해 확인된 각 객체 간의 위상 관계를 파악하고, 이를 기반으로 사람의 행동 인식을 진행하는 1차 행동인식 단계(S30)와,
상기 1차 행동인식 단계를 거친 후 상기 객체 간의 각도 변화량을 통해 구조신호 여부를 인식하는 2차 행동인식 단계(S40)와,
상기 2차 행동인식 단계를 거쳐 도출된 행동인식 결과를 관리자의 단말기로 송출하는 단계(S50)를 포함하는 것이고,
상기 구조신호 여부를 인식하는 것은,
인체의 핵심 골격인 핵심 객체를 검출하는 과정과,
얼굴 영역의 아래 중심점을 기준으로 양손의 위치가 위에 존재하는지 여부를 확인하는 객체 간의 위상 관계를 파악하는 과정과,
손, 얼굴 영역 아래 중심점, 손 사이의 각도의 변화량이 지정된 시간 임계값 동안 각도의 변화량이 각도 임계값 이상으로 발생한 횟수를 기준으로 판단하는 객체 간의 각도 변화량을 통한 구조신호를 인식하는 과정으로 이루어지고;,
상기 위험상황인식부(22)는
객체검출 및 추적; 1차 행동인식; 및 2차 행동인식; 과정을 거쳐 위험영역침입여부, 2인 1조 작업여부, 쓰러짐여부, 안전모착용여부 또는 구조신호인식을 포함하는 위험상황을 분석하고, 분석된 결과를 송출부(23)를 통해 관리자의 단말기로 알림을 제공하는 영상기반의 핵심골격검출을 통한 안전관리 시스템에 있어서,

상기 쓰러짐여부는, 사람의 검출 영역이 Y축으로 짧아지고 X축으로 길어지는 경우와 머리 검출 영역의 중심좌표가 빠르게 변화하는 것을 종합적으로 판단하여 행동인식이 이루어지면서 쓰러짐 검출 전에는 사람 검출 영역 위 빨간원형이 표시되도록 하고, 쓰러짐 검출 후에는 사람 검출 영역 위 초록원형이 표시되도록 하여 발전소에서 쓰러짐와 같은 위험상황 분석을 신속하게 판단하여 상기 판단에 대한 대응 및 응급상황대처가 이루어질 수 있는 것을 특징으로 하는 영상기반의 핵심골격검출을 통한 안전관리 시스템.






camera 10; The communication unit 21 for receiving the image obtained through the camera 10 and the core skeleton detected based on the image provided through the communication unit 21, and the behavior recognition result through the first and second action recognition processes. It consists of a risk situation recognition unit 22 that derives and a safety management processing unit 20 including a transmission unit 23 that transmits the action recognition result derived through the risk situation recognition unit 22 to a manager. ,
Obtaining an image of a specific region through the camera 10 that does not include a sensor (S10);
An object detection and tracking step (S20) of detecting the core skeleton as an object based on the image acquired through the camera 10, recognizing the location of the object, and displaying a movement path;
A first action recognition step (S30) of identifying the phase relationship between each object identified through the object detection and tracking step, and proceeding with human action recognition based on this;
After passing through the first action recognition step, a second action recognition step (S40) of recognizing whether or not a distress signal is present through the amount of angle change between the objects;
It includes a step (S50) of transmitting the action recognition result derived through the second action recognition step to a manager's terminal,
Recognizing whether the distress signal is
A process of detecting a core object, which is a core skeleton of the human body;
A process of figuring out a phase relationship between objects to check whether the positions of both hands are above based on the center point below the face area;
It consists of a process of recognizing a rescue signal through the angle change between objects, which is judged based on the number of times that the change in angle between the hands and the center point under the face area and the hand occurs at or above the angle threshold during a specified time threshold. ;,
The dangerous situation recognition unit 22
object detection and tracking; primary action recognition; and secondary action recognition; Through the process, the risk situation including whether to intrude into the dangerous area, whether to work in a group of two people, whether to fall down, whether to wear a helmet, or to recognize a rescue signal is analyzed, and the analyzed result is notified to the manager's terminal through the transmission unit 23 In the safety management system through image-based core skeleton detection that provides,

Whether or not the fall is determined by comprehensively determining the case where the human detection area is shortened in the Y axis and lengthened in the X axis and the center coordinates of the head detection area rapidly change, and the behavior recognition is performed, and before the fall detection, the red color above the person detection area is determined. A circle is displayed, and after detection of a fall, a green circle is displayed above the human detection area so that analysis of a dangerous situation such as a fall at a power plant can be quickly determined to respond to the judgment and respond to an emergency. Image characterized in that Safety management system through core skeleton detection.






삭제delete 삭제delete
KR1020200160128A 2020-11-25 2020-11-25 Safety management system through image-based core framing detection KR102551644B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200160128A KR102551644B1 (en) 2020-11-25 2020-11-25 Safety management system through image-based core framing detection
PCT/KR2021/004746 WO2022114406A1 (en) 2020-11-25 2021-04-15 System for safety management through key skeleton detection based on image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200160128A KR102551644B1 (en) 2020-11-25 2020-11-25 Safety management system through image-based core framing detection

Publications (2)

Publication Number Publication Date
KR20220072478A KR20220072478A (en) 2022-06-02
KR102551644B1 true KR102551644B1 (en) 2023-07-05

Family

ID=81754651

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200160128A KR102551644B1 (en) 2020-11-25 2020-11-25 Safety management system through image-based core framing detection

Country Status (2)

Country Link
KR (1) KR102551644B1 (en)
WO (1) WO2022114406A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052867A (en) * 2018-09-28 2020-04-02 株式会社Axive Posture analysis device, posture analysis method and program
US20200211154A1 (en) * 2018-12-30 2020-07-02 Altumview Systems Inc. Method and system for privacy-preserving fall detection

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012040554A2 (en) * 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system
KR101470315B1 (en) * 2014-08-11 2014-12-09 (주)엔토스정보통신 Closed-circuit television system of sensing risk by moving of object and method thereof
KR20180028886A (en) 2016-09-09 2018-03-19 한국전자통신연구원 Method and apparatus for extracting features for machine learning on gesture recognition from 3D skeleton information
KR101880522B1 (en) * 2016-12-29 2018-07-23 재단법인대구경북과학기술원 Apparatus of detecting treadmill based image analysis and method of detecting emergency using the same
KR20180096038A (en) 2017-02-20 2018-08-29 숙명여자대학교산학협력단 Crime prediction system based on moving behavior pattern
KR101826268B1 (en) * 2017-04-28 2018-02-06 동국대학교 산학협력단 Method and system for predicting action
KR102126498B1 (en) * 2019-11-15 2020-06-25 한국건설기술연구원 Apparatus, system and method for detecting dangerous situation based on image recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052867A (en) * 2018-09-28 2020-04-02 株式会社Axive Posture analysis device, posture analysis method and program
US20200211154A1 (en) * 2018-12-30 2020-07-02 Altumview Systems Inc. Method and system for privacy-preserving fall detection

Also Published As

Publication number Publication date
WO2022114406A1 (en) 2022-06-02
KR20220072478A (en) 2022-06-02

Similar Documents

Publication Publication Date Title
KR102465532B1 (en) Method for recognizing an object and apparatus thereof
CN111898514A (en) Multi-target visual supervision method based on target detection and action recognition
CN112216049A (en) Construction warning area monitoring and early warning system and method based on image recognition
CN109815813B (en) Image processing method and related product
CN111753747B (en) Violent motion detection method based on monocular camera and three-dimensional attitude estimation
CN109830078B (en) Intelligent behavior analysis method and intelligent behavior analysis equipment suitable for narrow space
KR101541272B1 (en) Apparatus and method for detecting terrorism using irregular motion of peoples
CN112396658A (en) Indoor personnel positioning method and positioning system based on video
KR20190046351A (en) Method and Apparatus for Detecting Intruder
KR20110121885A (en) Apparatus and method for traffic accident recognition
WO2019220589A1 (en) Video analysis device, video analysis method, and program
CN112069988A (en) Gun-ball linkage-based driver safe driving behavior detection method
KR20200052418A (en) Automated Violence Detecting System based on Deep Learning
JP5718632B2 (en) Part recognition device, part recognition method, and part recognition program
CN111325133A (en) Image processing system based on artificial intelligence recognition
CN114140745A (en) Method, system, device and medium for detecting personnel attributes of construction site
CN115797856A (en) Intelligent construction scene safety monitoring method based on machine vision
KR101572366B1 (en) Kidnapping event detector for intelligent video surveillance system
JPH07282235A (en) Operation recognition device
KR102551644B1 (en) Safety management system through image-based core framing detection
CN114764895A (en) Abnormal behavior detection device and method
CN112560727A (en) Crane line-crossing safety early warning method and device based on artificial intelligence
CN115171336B (en) Beach control drowning protection system
CN111144260A (en) Detection method, device and system of crossing gate
CN113762164A (en) Fire fighting access barrier identification method and system

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)