KR102136070B1 - Disaster and Accident Prevention Device in Construction site using AI image analysis - Google Patents

Disaster and Accident Prevention Device in Construction site using AI image analysis Download PDF

Info

Publication number
KR102136070B1
KR102136070B1 KR1020200013565A KR20200013565A KR102136070B1 KR 102136070 B1 KR102136070 B1 KR 102136070B1 KR 1020200013565 A KR1020200013565 A KR 1020200013565A KR 20200013565 A KR20200013565 A KR 20200013565A KR 102136070 B1 KR102136070 B1 KR 102136070B1
Authority
KR
South Korea
Prior art keywords
image
camera
worker
construction site
speaker
Prior art date
Application number
KR1020200013565A
Other languages
Korean (ko)
Inventor
안광호
Original Assignee
안광호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안광호 filed Critical 안광호
Priority to KR1020200013565A priority Critical patent/KR102136070B1/en
Application granted granted Critical
Publication of KR102136070B1 publication Critical patent/KR102136070B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06K9/00624
    • G06K9/20
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

The present invention relates to an apparatus for preventing a disaster and an accident in a construction site by using artificial intelligence image analysis, capable of enabling independent installation in a dangerous zone of a construction site and making a warning with proper content by analyzing an image of a worker approaching the dangerous zone. According to the present invention, the apparatus for preventing a disaster and an accident in a construction site by using artificial intelligence image analysis includes: a housing having an internal storage space; a camera installed outside the housing and photographing an image from a predetermined angle range; a control part provided in the storage space and analyzing the image photographed through the camera in real time; and a speaker selectively outputting a warning announcement due to the control of the control part. The control part recognizes dangerous behavior from behavior patterns of a worker by repetitively learning the image photographed through the camera and determining whether safety equipment is used through object recognition.

Description

인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치{Disaster and Accident Prevention Device in Construction site using AI image analysis}Disaster and Accident Prevention Device in Construction site using AI image analysis}

본 발명은 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치에 관한 것으로서, 더욱 상세하게는 작업자의 보호구 착용 여부 및 작업 현장의 위험물 또는 개구부 등의 위험요소에 설치되어 작업자의 접근 여부를 감지하고, 작업자가 위험 범위 내에 있으면 이를 안내(경고)하여 안전사고를 예방할 수 있게 하는 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치에 관한 것이다.The present invention relates to an apparatus for preventing disasters and accidents at a construction site using artificial intelligence image analysis, and more specifically, to detect whether a worker is wearing a protective gear and whether it is installed in a dangerous element such as a dangerous object or opening in a work site. And, if the worker is within the danger range, it guides (warns) and prevents accidents and accidents at the construction site using artificial intelligence image analysis.

건설재해 중 공사비 20억원 미만의 소규모 건설현장에서 발생한 재해자수(2014년)가 전체 건설재해자수의 72%(16,489명)를 차지하고 있을 만큼 소규모현장에 재해가 집중되고 있다.Among construction disasters, disasters are concentrated in small-scale construction sites, as the number of accidents (2014) at small construction sites with construction costs of less than 2 billion won account for 72% (16,489) of total construction accidents.

안전보건공단이 조사한 사망재해 공사종류별 발생현황을 보면 건축공사에서 전체의 73.7%인 73명의 사망사고가 토목공사에서 16.2%인 16명의 사망사고가 발생한 것으로 조사되었다.According to the occurrence status of each type of fatal accident by the Health and Safety Corporation, it was found that 73 deaths, 73.7% of the total in construction, and 16 deaths, 16.2% in civil engineering.

이러한 건설재해로 인해 지난 10여 년간 건설현장에서 매년 2만 여명이 넘는 부상자와 600명을 넘는 사망자가, 발생하여 국가적인 손실이 연간 12조원을 상회할 것으로 추정하고 있다.It is estimated that, due to these construction disasters, more than 20,000 injuries and more than 600 deaths occur every year at construction sites over the past decade, and national losses are expected to exceed 12 trillion won per year.

또한, 건설재해는 직접적인 경제적 손실 외에도 국가 신인도를 저하시키고, 사회적 불안을 가중시켜 국가적인 부담을 주는 요인으로 작용하고 있다.In addition, construction disasters are not only a direct economic loss, but also deteriorating national credibility and aggravating social anxiety.

이에 대해, 수많은 대책이 수립되었음에 불구하고 최근에는 작업자가 이동 중 또는 작업 중에 스마트폰 등을 자주 사용하게 되면서 위험구역을 적시에 인지하지 못하여 많은 추락사고와 안전사고가 발생하고 있고, 따라서 이를 예방하기 위한 다양한 기술이 개발되고 있다.On the other hand, despite numerous countermeasures, many fall accidents and safety accidents have occurred since workers are frequently using smartphones, etc., on the move or during work. Various techniques have been developed to do this.

상기와 같은 종래기술로는 등록특허공보 제1706221호에 감시카메라 및 그 감시카메라의 대상 식별을 통한 알람 제어 방법(이하 '특허문헌'이라 한다)이 개시되어 있다.In the prior art as described above, the registered patent publication No. 1706221 discloses a surveillance camera and an alarm control method (hereinafter referred to as'patent document') through object identification of the surveillance camera.

상기 특허문헌에 개시된 알람 제어방법은, 감시카메라가 입력 영상으로부터 움직임이 발생된 대상을 검출하는 단계; 검출된 상기 움직임이 발생된 대상이 감시대상인지 교란대상인지 식별하는 단계; 및 식별된 상기 대상이 감시대상인 경우 알람을 제어하는 단계를 포함하여 감시카메라의 대상 식별을 통해 부정확한 알람이 생성되는 것을 제거하도록 구성된다.The alarm control method disclosed in the patent document includes the steps of: detecting, by a surveillance camera, an object having a motion from an input image; Identifying whether the detected object where the motion has occurred is an object to be monitored or disturbed; And controlling an alarm when the identified target is a surveillance target, and configured to remove the generation of an incorrect alarm through target identification of the surveillance camera.

그러나 상기 특허문헌에 개시된 알람 제어방법은 감시 카메라에서 촬영된 영상을 통신 채널을 통하여 녹화기기인 디지털 비디오 레코더(DVR)와 통신하면서 비디오 신호 채널(SVID)을 통하여 라이브뷰 영상을 비디오 레코더로 전송하도록 구성됨에 따라 건설현장에 자체 통신망을 구축해야 하는 어려움이 있다.However, the alarm control method disclosed in the patent document transmits a live view image to a video recorder through a video signal channel (SVID) while communicating an image captured by a surveillance camera with a digital video recorder (DVR) as a recording device through a communication channel. As it is constructed, it is difficult to establish its own communication network at the construction site.

즉, 건설현장에 구비된 감시카메라가 입력영상으로부터 움직임이 발생된 대상을 검출하여 통신망을 통해 원격지의 디지털처리신호기로 해당 영상을 전송하고, 디지털처리신호기에서 수신된 영상을 분석하여 알람을 제어하도록 구성됨에 따라 통신장치 등의 부가 구성이 마련되어야 하며, 이에 의해 통신망의 오류가 있는 경우에는 알람 제어가 제대로 수행되지 못하는 문제가 있다.That is, a surveillance camera provided at a construction site detects a target having a movement from an input image and transmits the corresponding image to a digital processing signal at a remote location through a communication network, and analyzes the image received from the digital processing signal to control the alarm. As it is configured, an additional configuration such as a communication device must be provided, whereby there is a problem in that alarm control cannot be properly performed when there is an error in the communication network.

따라서 복잡한 통신망을 구축하지 않고도 위험지역으로 접근하는 작업자에게 적시에 위험을 알릴 수 있는 재난 및 사고 예방장치의 개발이 요구된다.Therefore, it is required to develop a disaster and accident prevention device that can notify a worker in a timely manner and approach a danger area without building a complex communication network.

KR 10-1906221 B1 (2017. 02. 07.)KR 10-1906221 B1 (2017. 02. 07.) KR 10-1951119 B1 (2019. 02. 15.)KR 10-1951119 B1 (February 15, 2019) KR 10-0805563 B1 (2008. 02. 13.)KR 10-0805563 B1 (February 13, 2008) KR 10-1999-0047360 A (1999. 07. 05.)KR 10-1999-0047360 A (July 05, 1999)

본 발명은 상기와 같은 종래의 위험구역 알림장치가 가지는 문제점을 해소하기 위하여 안출된 것으로서, 본 발명에서 해결하고자 하는 과제는 건설현장의 위험구역에 독립 설치될 수 있고, 작업자의 보호구 착용 및 위험구역으로 접근하는 작업자의 영상을 분석하여 적절한 내용의 경고를 안내할 수 있는 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치를 제공하는 것이다.The present invention has been devised to solve the problems of the conventional danger zone notification device as described above, and the problem to be solved in the present invention can be independently installed in the danger zone of the construction site, and the workers wear protective gear and the danger zone It is to provide a disaster prevention and accident prevention device for construction sites using artificial intelligence image analysis that can guide warnings of appropriate contents by analyzing the image of a worker approaching with.

상기의 과제를 해결하기 위하여 본 발명에 따른 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치는, 내부에 수용공간이 구비되는 하우징; 상기 하우징의 외측에 설치되면서 소정 각도 범위의 영상을 촬영하는 카메라; 상기 수용공간에 구비되면서 상기 카메라를 통해 촬영되는 영상을 실시간으로 분석하는 제어부; 및 상기 제어부의 제어에 의해 선택적으로 경고방송이 출력되는 스피커를 포함하고, 상기 제어부는, 상기 카메라를 통해 촬영되는 영상을 반복 학습하여 작업자의 행동 패턴으로부터 위험행동을 인지하고, 객체 인식을 통해 보호장비의 작용여부를 판별하는 것을 특징으로 한다.In order to solve the above problems, a disaster and accident prevention apparatus for a construction site using artificial intelligence image analysis according to the present invention includes a housing provided with an accommodation space therein; A camera that is installed on the outside of the housing and shoots an image in a predetermined angle range; A control unit that is provided in the accommodation space and analyzes an image shot through the camera in real time; And a speaker that selectively outputs a warning broadcast under the control of the control unit, and the control unit repeatedly learns an image photographed through the camera to recognize danger behavior from an operator's behavior pattern and protects it through object recognition. It is characterized by determining whether or not the equipment is operating.

그리고 본 발명은 상기 제어부가 영상을 반복 학습하기 위해 텐서플로우(TensorFlow) 라이브러리가 사용되고, 다층 퍼셉트론이 가능한 케라스(Keras)가 적용되며, 이미지를 인식하기 위해 합성곱신경망(Convolutional Neural Network, CNN)이 사용되는 것을 또 다른 특징으로 한다.And in the present invention, the controller uses a TensorFlow library to repeatedly learn an image, a multi-layer perceptron capable Keras is applied, and a convolutional neural network (CNN) to recognize an image. Another feature is that it is used.

또한, 본 발명은 상기 제어부가 상기 케라스의 이미지 데이터 제너레이터(Image data generator)를 이용하여 일반적인 사람의 전신 이미지를 기초로 초기 학습에 필요한 데이터셋을 생성하는 것을 또 다른 특징으로 한다.In addition, another aspect of the present invention is that the controller generates a data set necessary for initial learning based on a whole body image of a general person using the image data generator of Keras.

이에 더해 본 발명은 상기 제어부가 생성된 데이터셋을 이용하여 입력되는 영상 이미지에 대한 특징을 추출하고, 추출된 특징을 기반으로 뉴럴 네트워크(Neural Network)를 통해 특징에 따라 분류하는 것을 또 다른 특징으로 한다.In addition, according to another aspect of the present invention, the control unit extracts a feature for an input image image using the generated dataset, and classifies according to the feature through a neural network based on the extracted feature. do.

그리고 본 발명은 상기 제어부가 상기 카메라를 통해 입력받은 영상으로부터 작업자를 구분한 다음 보호장비 착용여부를 추가 판단하고, 해당 작업자의 이동 경로와 보호장비의 착용 상태에 맞춰 경고방송이 선택되어 상기 스피커를 통해 출력되도록 하는 것을 또 다른 특징으로 한다.In the present invention, the controller distinguishes an operator from an image input through the camera and then additionally determines whether or not to wear the protective equipment, and the warning broadcast is selected according to the movement path of the worker and the wearing condition of the protective equipment to select the speaker. Another feature is to be output through.

본 발명에 따르면, 건설현장의 위험구역에 독립 설치되어 건설현장의 안전관리자의 제어 없이도 위험구역으로 접근하는 작업자에게 적절한 경고방송을 즉시 출력할 수 있고, 이에 의해 건설현장에서 작업자의 안전을 더욱 담보할 수 있는 장점이 있다.According to the present invention, an appropriate warning broadcast can be immediately output to a worker approaching the danger zone without being installed in the danger zone of the construction site without control of the safety manager at the construction site, thereby further guaranteeing the safety of the worker at the construction site. There is an advantage to do.

또한, 위험구역으로 접근하는 작업자의 이동 방향을 추적하여 위험구역으로의 접근 여부를 정확하게 판단하게 되므로 불필요하게 경고방송이 잘못 출력되는 것을 방지할 수 있다.In addition, since the movement direction of the worker approaching the danger zone is tracked to accurately determine whether or not the user approaches the danger zone, unnecessary warning broadcasts can be prevented from being output unnecessarily.

도 1은 본 발명에 따른 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치의 예를 보인 구성도.
도 2는 본 발명에 따른 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치가 벽면에 설치된 예를 보인 도면.
도 3은 본 발명에 따른 카메라의 촬영 범위를 나타내는 도면.
도 4는 본 발명에 따른 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치가 위험구역에 설치되는 예를 보인 도면.
도 5는 본 발명에 따른 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치를 통해 작업자를 인식하고 선택적으로 경고방송이 출력되도록 하는 예를 보인 순서도.
1 is a block diagram showing an example of an apparatus for preventing disasters and accidents in a construction site using artificial intelligence image analysis according to the present invention.
Figure 2 is a view showing an example of a disaster prevention and accident prevention device installed on the wall of the construction site using artificial intelligence image analysis according to the present invention.
3 is a view showing a shooting range of the camera according to the present invention.
4 is a view showing an example of a disaster prevention and accident prevention device in a construction site using an artificial intelligence image analysis according to the present invention in a hazardous area.
5 is a flowchart showing an example of recognizing workers and selectively outputting a warning broadcast through a disaster and accident prevention device at a construction site using artificial intelligence image analysis according to the present invention.

이하에서는 본 발명의 바람직한 실시예를 도시한 첨부도면에 따라 상세하게 설명한다.Hereinafter will be described in detail according to the accompanying drawings showing a preferred embodiment of the present invention.

본 발명은 건설현장의 위험구역에 독립 설치될 수 있고, 위험구역으로 접근하는 작업자의 영상을 분석하여 적절한 내용의 경고를 안내할 수 있는 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치를 제공하고자 하는 것으로, 이러한 본 발명은 도 1 및 도 2에 도시된 바와 같이 하우징(10), 카메라(20), 제어부(30) 및 스피커(40)를 포함한다.The present invention can be installed independently in the danger zone of the construction site, by analyzing the image of the worker approaching the danger zone to prevent disasters and accidents at the construction site using artificial intelligence image analysis that can guide the warning of the appropriate contents To provide, this invention includes a housing 10, a camera 20, a control unit 30 and a speaker 40, as shown in Figures 1 and 2.

하우징(10)은 후술되는 카메라(20), 제어부(30) 및 스피커(40)가 설치되면서 벽면(1) 등에 고정 설치되는 구성이다.The housing 10 is configured to be fixedly installed on the wall 1 or the like while the camera 20, the controller 30, and the speaker 40, which will be described later, are installed.

이러한 하우징(10)은 도 1에 도시된 바와 같이 사각 박스 모양의 함체로 이루어지면서 내부에 제어부(30)와 스피커(40)가 수용되는 소정 크기의 수용공간(11)을 형성한다.As shown in FIG. 1, the housing 10 is formed of a rectangular box-shaped enclosure and forms an accommodation space 11 of a predetermined size in which the control unit 30 and the speaker 40 are accommodated.

그리고 하우징(10)의 후방 쪽에는 도 1 및 도 2에 도시된 바와 같이 벽면(1)에 앵커 볼트(도면부호 없음) 등의 체결부재를 통해 고정되는 복수 개의 고정브래킷(12)이 설치되고, 전방 쪽에는 전원을 온오프시키는 전원스위치(13) 및 후술되는 제어부(30)의 저장장치(37)에 저장되는 데이터를 외부로 옮기기 위한 USB단자(14) 및 LAN포트(17)가 구비된다.In addition, a plurality of fixing brackets 12 are fixed to the rear side of the housing 10 through fastening members such as anchor bolts (without reference numerals) to the wall surface 1 as shown in FIGS. 1 and 2, The front side is provided with a power switch 13 for turning the power on and off, and a USB terminal 14 and a LAN port 17 for moving data stored in the storage device 37 of the controller 30 to be described later.

또한, 하우징(10)의 전방 쪽 상부에는 전방 쪽을 향하여 소정 폭 돌출되어 전원스위치(13), USB단자(14), LAN포트(17) 및 스피커(40) 쪽으로 빗물 등이 유입되지 않도록 하는 차단부재(15)가 설치된다.In addition, the upper portion of the housing 10 protrudes a predetermined width toward the front side to block the power switch 13, the USB terminal 14, the LAN port 17 and the speaker 40 to prevent rainwater from entering. The member 15 is provided.

이에 더해 하우징(10)의 상면에는 상하 수직 방향으로 소정 길이를 가지는 설치대(16)가 설치되고, 이러한 설치대(16)에 카메라(20), 스피커(40) 및 경고등(50)이 설치된다.In addition, an installation table 16 having a predetermined length in the vertical direction is installed on the upper surface of the housing 10, and a camera 20, a speaker 40, and a warning light 50 are installed on the installation table 16.

이때 설치대(16)는 카메라(20)를 통해 촬영되는 방향을 조절할 수 있도록 구동모터(M) 등을 통해 회전 가능하도록 구성되고, 이러한 설치대(16)의 상부에 카메라(20), 스피커(40) 및 경고등(50)이 설치되면 구동모터(M)의 동작에 의해 설치대(16)가 소정 각도로 회전 동작되면서 카메라(20)를 통해 촬영되는 방향이 적절하게 조절될 수 있다.At this time, the installation stand 16 is configured to be rotatable through a driving motor M or the like so as to be able to adjust the direction taken through the camera 20, and the camera 20 and speaker 40 are mounted on the upper part of the installation stand 16. And when the warning light 50 is installed, the direction of the photographing through the camera 20 can be appropriately adjusted while the installation table 16 is rotated at a predetermined angle by the operation of the driving motor M.

그리고 하우징(10)의 일측에는 카메라(20), 제어부(30), 스피커(40) 및 경고등(50)에 상용 전원을 공급하기 위한 전원케이블(도시하지 않음)이 구비되고, 이에 더해 하우징(10)의 내부에는 정전 등의 이유로 상용 전원이 공급되지 않더라도 연속하여 동작될 수 있도록 내장배터리(도시하지 않음)가 구비된다.In addition, a power cable (not shown) for supplying commercial power to the camera 20, the controller 30, the speaker 40, and the warning light 50 is provided on one side of the housing 10, in addition to the housing 10 ), a built-in battery (not shown) is provided so that it can be operated continuously even if commercial power is not supplied for reasons such as a power failure.

이때 내장배터리는 최소 2시간 이상의 연속 사용이 가능한 배터리로 구성되면서 상용 전원이 인가될 때에는 내장배터리가 충전되도록 구성됨이 바람직하다.At this time, the built-in battery is composed of a battery that can be used continuously for at least 2 hours or more, and is preferably configured to charge the built-in battery when commercial power is applied.

카메라(20)는 하우징(10)의 외측에 설치되어 건설현장의 위험구역을 촬영하는 구성으로, 이러한 카메라(20)는 상하좌우 방향으로 회전 동작되어 도 2 및 도 3에 도시된 바와 같이 소정 각도(A) 범위의 영상이 실시간으로 촬영될 수 있고, 이에 더해 야간에도 위험구역으로 접근하는 작업자를 촬영할 수 있도록 적외선카메라로 구성된다.The camera 20 is installed on the outside of the housing 10 and is configured to photograph a dangerous area of a construction site, and the camera 20 is rotated in the vertical, horizontal, and horizontal directions to set a predetermined angle as shown in FIGS. 2 and 3. (A) The image in the range can be captured in real time, and in addition, it is composed of an infrared camera so that it can photograph workers approaching the danger zone even at night.

한편, 카메라(20), 스피커(40) 및 경고등(50)은 하우징(10)의 외부에 노출된 상태로 설치되므로 빗물 등이 내부로 유입되지 않도록 방수 기능을 더 포함한다.On the other hand, the camera 20, the speaker 40, and the warning light 50 are installed in a state exposed to the outside of the housing 10, and further include a waterproof function to prevent rainwater or the like from entering the inside.

제어부(30)는 카메라(20)에서 촬영된 영상에 근거하여 작업자 여부, 보호장비의 착용 여부 및 위험구역으로의 접근 여부 등을 판단하여 필요시 적절한 내용의 경고방송이 스피커(40)를 통해 출력되도록 하는 구성이다.The control unit 30 determines whether a worker, whether to wear protective equipment, or whether to access a dangerous area based on the image taken by the camera 20, and outputs a warning broadcast of the appropriate content through the speaker 40 if necessary. It is a configuration to be possible.

이러한 제어부(30)는 카메라(20)를 통해 촬영되는 영상을 반복 학습하여 작업자의 행동 패턴으로부터 위험행동을 인지하고, 객체 인식을 통해 보호장비의 작용여부를 판별하는 것으로, 이를 위해 텐서플로우(TensorFlow) 라이브러리를 통해 입력되는 영상이 반복 학습되고, 다층 퍼셉트론(Perceptron)이 가능한 케라스(Keras)가 적용되며, 이미지를 인식하기 위해 다층의 커널 계측에 대한 학습이 가능하여 작업자와 보호장비의 착용여부를 따로 분류하는 데에 용이한 합성곱신경망(Convolutional Neural Network, CNN)이 사용된다. 여기서 퍼셉트론은 뇌의 학습 기능을 모델화한 기계이고, 케라스는 오픈 소스 신경망 라이브러리이다.The control unit 30 recognizes the dangerous behavior from the worker's behavior pattern by repeatedly learning an image captured through the camera 20, and determines whether or not the protective equipment works through object recognition, for this purpose, TensorFlow ) The images input through the library are repeatedly learned, and multi-layer Perceptron-capable Keras is applied, and it is possible to learn multi-layer kernel measurement to recognize images, so whether workers and protective equipment are worn or not. A convolutional neural network (CNN) that is easy to classify is used. Here, Perceptron is a machine modeling the brain's learning function, and Keras is an open source neural network library.

이하에서는 본 발명에 따른 제어부(30)에서 딥러닝을 통해 학습이 진행되는 예에 대하여 설명한다.Hereinafter, an example in which learning is performed through deep learning in the control unit 30 according to the present invention will be described.

먼저, 딥러닝을 위해 케라스의 이미지 데이터 제너레이터(Image data generator)를 이용하여 일반적인 사람의 전신 이미지를 기초로 초기 학습에 필요한 데이터셋을 생성하고, 이후 전신 이미지를 카테고리 별로 나누어 케라스에서 반복 학습시키게 된다.First, for deep learning, using Keras' image data generator, a dataset necessary for initial learning is generated based on a general person's whole body image, and then the whole body image is divided into categories and repeatedly learned in Keras. Is ordered.

이때 전신 이미지는 안전모, 안전조끼 및 안전화 등과 같은 착용 가능한 보호장비의 수와, 이러한 보호장비를 선택 착용한 작업자의 경우의 수만큼 준비된다.At this time, the whole body image is prepared by the number of wearable protective equipment such as a hard hat, a safety vest, and safety shoes, and the number of workers wearing the protective equipment.

이렇게 데이터셋이 생성되고 나면, 이 데이터셋을 기초하여 영상 이미지에 대한 특징(사물, 동물, 작업자 등)을 추출하고, 추출된 특징을 기반으로 뉴럴 네트워크(Neural Network)를 통해 세부 분류하게 된다.After the data set is generated, features (images, animals, workers, etc.) for the video image are extracted based on the data set, and detailed classification is performed through a neural network based on the extracted features.

이때 영상 이미지로부터 특징을 추출하기 위해 컨볼루션 레이어(Convolutional layer)가 사용되는데, 이러한 컨볼루션 레이어는 특징을 추출하는 필터와, 상기 필터의 값을 비선형 값으로 바꾸어주는 액티베이션(Activation) 함수로 이루어진다.At this time, a convolutional layer is used to extract features from the video image. The convolutional layer is composed of a filter for extracting features and an activation function that converts the value of the filter into a nonlinear value.

그리고 컨볼루션 레이어의 필터는 행렬로 구현되므로 입력받은 영상 이미지도 행렬로 변환한 다음, 필터의 행렬 값과 영상 이미지의 행렬 값을 서로 곱한 결과값을 통해 사람인지 여부를 도출하게 된다.In addition, since the filter of the convolution layer is implemented as a matrix, the input video image is also converted to a matrix, and then the result is obtained by multiplying the matrix value of the filter and the matrix value of the video image to derive whether or not it is a person.

이때 사람 얼굴이 아닌 위치의 결과값은 0에 수렴하게 되고, 반대로 사람 얼굴에 해당하는 위치의 결과값은 0보다 큰 결과값으로 나오게 되며, 이를 통해 앞서 준비된 전신 이미지에 필터를 적용하여 특징을 추출하고, 이렇게 특징이 추출된 이미지를 활성맵(Activation map)으로 만든 다음, 만들어진 활성맵에 활성화 함수(Activation function)를 적용시키며, 이렇게 활성화 함수를 적용하여 나오는 정량적인 값을 특징의 유무를 나타내는 비선형 값으로 변환하는 위 과정을 반복하게 된다.At this time, the result value of the position other than the human face converges to 0, and conversely, the result value of the position corresponding to the human face comes out as a result value greater than 0. Through this, a feature is extracted by applying a filter to the previously prepared whole body image Then, this feature extracted image is made into an activation map, and then an activation function is applied to the created activation map, and the quantitative value produced by applying the activation function is non-linear indicating the presence or absence of the feature. The above process of converting to a value is repeated.

여기서 활성화 함수(activation function)로는 ReLu(Rectified Linear Unit)가 사용되고, 4개의 컨볼루션 계층(Convolutional layer), 2개의 완전하게 연결된 계층(Fully connected layer) 및 1개의 드롭아웃 계층(Dropout layer)을 포함한다.Here, as an activation function, a rectified linear unit (ReLu) is used, and includes 4 convolutional layers, 2 fully connected layers, and 1 dropout layer. do.

더욱 정교한 성능 개선을 위해 합성곱신경망(CNN)의 앞 쪽 레이어만을 가져와 통과시켜 추출된 특징을 사용하는데, 먼저 컨볼루션 레이어로 이루어진 앞단만 가져온 다음, 뒷단의 2개의 완전하게 연결된 계층(Fully connected layer)은 배제하고, 그런 다음 이미지 데이터를 이 부분 모델에 넣고 돌려서 마지막 레이어에서 출력되는 병목 특징을 배열에 담는다.For more sophisticated performance improvement, only the front layer of the composite neural network (CNN) is imported and passed through to use the extracted features. ) Is excluded, and then the image data is put into this partial model and turned to contain the bottleneck features output from the last layer in an array.

이때 병목 특징은 모두 수치적인 값으로 이루어져 있으며, 마지막으로 완전하게 연결된 작은 모델(Fully connected model)을 만들어 이 병목 데이터를 학습시킨다. 또한 미리 학습된 기존 네트워크의 일부 상단 레이어에 미세한 가중치 업데이트를 수행하여 데이터 최적화를 수행한다.At this time, all the bottleneck features consist of numerical values, and finally, a completely connected model is created to train this bottleneck data. In addition, data optimization is performed by performing a fine weight update on some upper layers of the previously learned network.

상기와 같은 딥러닝 방법을 통해 학습 엔진을 구현하여 학습이 진행되고 나면, 카메라(20)를 통해 입력되는 영상으로부터 사람(작업자)이 검출될 수 있고, 이렇게 검출된 사람으로부터 보호장비 착용 여부(특성)가 추가로 검출될 수 있으며, 검출된 사람의 이동 경로를 파악하는 것으로 위험구역으로 접근여부를 판단하여 필요시 해당 사람에게 경고방송이나 경고등을 점등 및 점멸 시킬 수 있게 된다.After learning is implemented by implementing a learning engine through the deep learning method as described above, a person (worker) can be detected from an image input through the camera 20, and whether or not protective equipment is worn from the detected person (characteristics) ) May be additionally detected, and it is possible to determine whether or not a person is approaching the danger zone by determining the route of movement of the detected person, so that, if necessary, a warning broadcast or warning light can be turned on and off.

또한, 제어부(30)에는 촬영된 영상이 소정 시간 동안 저장될 수 있도록 하는 소정 용량의 저장장치(31)가 설치되고, 이러한 저장장치(31)에 저장된 데이터는 USB단자(14) 및 LAN포트(17)를 통해 관리자가 따로 복사하여 외부로 옮길 수 있게 된다.In addition, the control unit 30 is provided with a storage device 31 of a predetermined capacity to allow the captured image to be stored for a predetermined time, and the data stored in the storage device 31 includes a USB terminal 14 and a LAN port ( 17) allows the administrator to copy and move them separately.

이때 지정된 관리자만이 저장장치(31)에 저장된 데이터를 옮기거나 삭제할 수 있도록 USB단자(14) 및 LAN포트(17)를 통해 제어부(30)에 접속할 때 미리 설정된 아이디 및 패스워드를 요구하는 로그인 설정이 포함될 수 있고, 이에 의해 불특정 다수가 무분별하게 저장장치(31)에 저장된 데이터를 취득하는 것이 방지된다.At this time, the login setting that requires a preset ID and password when accessing the control unit 30 through the USB terminal 14 and the LAN port 17 so that only the designated administrator can move or delete the data stored in the storage device 31 It can be included, thereby preventing an unspecified number from inadvertently acquiring data stored in the storage device 31.

한편, 제어부(30)의 제어에 의해 스피커(40)를 통해 출력되는 경고방송에 맞추어 경고등(50)이 동작되도록 구성될 수 있는데, 이러한 경고등(50)은 스피커(40)와 동기화되어 작업자 방향으로 광원을 조사하거나, 또는 취약구역을 조사하여 작업자로 하여금 위험을 더욱 쉽게 인지할 수 있도록 구성된다.Meanwhile, the warning light 50 may be configured to operate in accordance with the warning broadcast output through the speaker 40 under the control of the control unit 30. The warning light 50 is synchronized with the speaker 40 in the direction of the operator. It is configured to make it easier for workers to recognize danger by irradiating light sources or irradiating vulnerable areas.

이하에서는 본 발명에 따른 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치가 작업자를 인식하고 경고방송을 실시하는 예에 대하여 설명한다.Hereinafter, an example in which a disaster and accident prevention device at a construction site using an artificial intelligence image analysis according to the present invention recognizes a worker and performs a warning broadcast will be described.

도 4 및 도 5를 참조하여 설명하면, 안전관리자 등의 관리자가 위험구역(1A)에 설치된 재난 및 사고 예방장치(2)의 전원을 켜면, 하우징(10)의 외측에 설치되는 카메라(20)를 통해 소정 각도 범위의 위험구역(1A) 인근의 영상이 실시간으로 촬영되고, 이와 동시에 제어부(30)는 카메라(20)를 통해 촬영된 영상으로부터 움직임을 갖는 객체의 유무를 판단하게 된다.4 and 5, when a manager such as a safety manager turns on the power of the disaster and accident prevention apparatus 2 installed in the danger zone 1A, the camera 20 installed outside the housing 10 Through this, an image in the vicinity of the danger zone 1A in a predetermined angle range is photographed in real time, and at the same time, the controller 30 determines the presence or absence of an object having motion from the image photographed through the camera 20.

여기서 카메라(20)는 위험구역(1A)을 포함하는 소정 범위의 영상이 촬영될 수 있도록 적절한 각도로 촬영 방향이 미리 조절되어 설치된다.Here, the camera 20 is pre-adjusted and installed at an appropriate angle so that a predetermined range of images including the dangerous zone 1A can be captured.

한편, 촬영된 영상 내에 움직임을 갖는 객체가 있는 경우, 제어부(30)는 해당 객체가 작업자인지 여부를 판단하기 위해 객체의 동작 패턴을 분석하게 되는데, 이때 영상 내의 객체가 정지된 상태에서 반복적인 움직임을 갖는 경우와 움직임을 갖는 객체의 범위가 작은 경우에는 작업자가 아닌 사물이나 동물의 움직임 또는 빛의 난반사 및 바람 등으로 인한 움직임으로 판단할 수 있다.On the other hand, when there is an object having a motion in the captured image, the controller 30 analyzes the motion pattern of the object in order to determine whether the object is an operator. If and the range of the object with the movement is small, it can be judged by the movement of the object or the animal or the movement due to the diffuse reflection of light and the wind, not the operator.

이러한 객체의 동작 패턴 분석을 통해 움직임을 갖는 객체가 작업자로 판단되는 경우 해당 객체의 고유 아이디를 부여한 다음, 보호장비 착용여부를 감지하게 된다.When an object having movement is determined to be an operator through analysis of the motion pattern of the object, a unique ID of the object is given, and then whether or not protection equipment is worn is detected.

이렇게 작업자로 판단된 객체에 고유 아이디를 부여하게 되면, 해당 객체가 불규칙한 방향으로 이동하더라도 추적하기가 쉽고, 이에 더해 한번 판단된 객체를 추가로 판단할 필요가 없기 때문에 영상 내에 많은 이동 객체(작업자)가 존재하더라도 객체의 움직임 등을 빠르게 파악하여 신속하게 처리할 수 있게 된다.When a unique ID is assigned to an object determined as an operator in this way, even if the object moves in an irregular direction, it is easy to track, and in addition, many moving objects (workers) in the image because it is not necessary to additionally judge the object once determined. Even if exists, it is possible to quickly grasp the movement of an object and quickly process it.

여기서 객체(작업자)의 보호장비 착용여부는 딥러닝을 통해 학습된 데이터에 기초하여 입력되는 영상내의 특징 검출 여부에 의해 판단되게 된다.Here, whether the object (worker) wears the protective equipment is judged by whether or not the feature in the input image is detected based on the data learned through deep learning.

이 과정에서 작업자가 보호장비를 착용하지 않은 것으로 판단되는 경우에는 해당 보호장비 착용을 권고하는 경고방송이 스피커(40)를 통해 출력되도록 제어되고, 보호장비를 착용한 것으로 판단되는 경우에는 객체의 이동 방향을 추적하게 된다.In this process, if it is determined that the worker does not wear the protective equipment, a warning broadcast recommending the wearing of the protective equipment is controlled to be output through the speaker 40, and when it is determined that the protective equipment is worn, the object is moved. You will be tracking directions.

그리고 추적 중인 객체(작업자)가 위험구역(1A)으로 접근하거나 이동 방향이 위험구역(1A)을 향하는 경우에는 위험구역(1A)의 존재여부와 주의를 요구하는 경고방송이 스피커(40)를 통해 출력되도록 제어되고, 이 상태에서 해당 객체(작업자)가 안전구역으로 이동하는지 여부를 추가로 판단하게 된다.In addition, when the object being tracked (worker) approaches the danger zone 1A or the direction of movement is toward the danger zone 1A, a warning broadcast through the speaker 40 requires warning of the presence and caution of the presence of the danger zone 1A. It is controlled to be output, and in this state, it is further determined whether the object (worker) moves to the safety zone.

이때 작업자가 위험구역(1A) 쪽으로 지속하여 이동하는 경우에는 위험구역(1A)과 이격된 거리가 미터(M) 단위로 상세하게 안내될 수 있고, 이에 더해 이를 통해 작업자가 위험구역(1A)의 위치를 더욱 쉽고 빠르게 인지할 수 있으며, 그 결과 작업자가 안전구역으로 더욱 확실하고 빠르게 이동할 수 있게 된다.At this time, if the worker continues to move toward the danger zone (1A), the distance from the danger zone (1A) can be guided in detail in meters (M), and in addition, through this, the operator of the danger zone (1A) The position can be recognized more easily and quickly, and as a result, the operator can move to the safe area more reliably and quickly.

여기서 해당 객체(작업자)가 안전구역(위험구역(1A)으로부터 소정 거리 이상 이격된 위치 또는 카메라(20)를 통해 촬영되는 영상의 범위 밖)으로 이동하는 것으로 판단되는 경우에는 스피커(40)를 통한 경고방송을 종료함과 동시에 해당 객체의 추적을 종료하게 된다.Here, when it is determined that the corresponding object (worker) moves to a safe zone (a position spaced at a distance greater than a predetermined distance from the danger zone 1A or outside the range of the image captured through the camera 20), the speaker 40 At the same time as the warning broadcast is ended, tracking of the object is ended.

이렇게 추적이 종료된 객체라 하더라도 카메라(20)를 통해 촬영되는 영상의 범위 내(또는 위험구역(1A)으로부터 소정 거리 이내)로 재진입하는 경우에는 새롭게 해당 객체에 대한 아이디를 부여한 다음 위 과정을 재수행하게 된다.Even if the object is tracked as described above, when re-entering within the range of the image captured through the camera 20 (or within a predetermined distance from the dangerous area 1A), a new ID is assigned to the object and then the process is repeated. It is done.

한편, 고유 아이디가 부여되는 객체에는 보호장비의 착용 여부가 함께 기록되어 감시되는데, 이때 보호장비를 착용한 경우에는 1의 값이 저장되고, 보호장비를 착용하지 않은 경우에는 0의 값이 저장되며, 입력값이 0인 경우 해당 데이터에 맞추어 따로 저장된 경고방송이 출력되도록 구성될 수 있다. 이때 보호장비는 안전모, 안전 조끼, 안전화 등 필요에 따라 보호장비 착용 여부 감시 대상을 추가 및 삭제할 수 있도록 구성될 수 있다.On the other hand, the object to which the unique ID is assigned is monitored by recording whether or not the protective equipment is worn. At this time, the value of 1 is stored when the protective equipment is worn, and the value of 0 is stored when the protective equipment is not worn. , When the input value is 0, a warning broadcast separately stored according to the corresponding data may be output. At this time, the protective equipment may be configured to add and delete monitoring targets for wearing or not wearing protective equipment as necessary, such as a hard hat, a safety vest, and safety shoes.

이러한 예로서, 데이터 입력 테이블이 안전모와 안전 조끼의 순서로 저장되도록 구성된 상태에서 해당 객체가 안전모를 착용한 대신 안전 조끼를 착용하지 않은 경우에는, 해당 객체에 1, 0의 값이 차례로 저장되고, 이를 통해 입력값이 0인 안전 조끼의 데이터를 통해 해당 보호장비를 착용하지 않은 것으로 판단할 수 있으며, 그 결과 객체 추적 과정에서 해당 객체가 착용하지 않은 보호장비(안전 조끼)에 맞춘 경고방송이 스피커(40)를 통해 안내될 수 있다.As an example of this, in a state in which the data entry table is configured to be stored in the order of the helmet and the safety vest, if the object does not wear the safety vest instead of wearing the helmet, the values of 1 and 0 are sequentially stored in the object, Through this, it can be judged that the corresponding protective equipment is not worn through the data of the safety vest with the input value 0. As a result, in the object tracking process, the warning broadcast for the protective equipment (safety vest) that the object is not wearing is a speaker. It can be guided through 40.

이와 반대로, 안전모를 착용하지 않은 대신 안전 조끼를 착용한 경우에는, 해당 객체에 0, 1의 값이 차례로 저장되고, 이를 통해 입력값이 0인 안전모의 데이터를 통해 해당 보호장비를 착용하지 않은 것으로 판단할 수 있으며, 그 결과 객체 추적 과정에서 해당 객체가 착용하지 않은 보호장비(안전모)에 맞춘 경고방송이 스피커(40)를 통해 안내될 수 있다.On the contrary, if a safety vest is worn instead of wearing a helmet, values of 0 and 1 are sequentially stored in the corresponding object, and thus, the corresponding protective equipment is not worn through data of the helmet having an input value of 0. As a result, in the process of tracking an object, a warning broadcast tailored to a protective equipment (hard hat) not worn by the object may be guided through the speaker 40.

그리고 감시 영역 내에서 작업자가 경고 방송을 통해 보호장비를 착용하는 경우에는 해당 입력값이 0에서 1로 수정되면서 경고방송이 종료되게 된다.In addition, when the worker wears the protective equipment through the warning broadcast in the surveillance area, the warning broadcast is ended with the corresponding input value being modified from 0 to 1.

따라서 감시 대상의 보호장비의 수가 많더라도 해당 보호장비에 맞춘 경고방송이 스피커(40)를 통해 출력될 수 있고, 이에 의해 작업자에게 해당 보호장비 미착용에 대한 경각심을 더욱 확실하게 인지시킬 수 있게 되면서 보호장비 착용을 더욱 유도할 수 있게 된다.Therefore, even if the number of protection equipments to be monitored is large, a warning broadcast tailored to the protection equipment can be output through the speaker 40, thereby enabling the worker to be more surely aware of the awareness of not wearing the protection equipment. It is possible to further induce equipment wearing.

이상 설명한 바와 같이 본 발명은 건설현장의 위험구역에 독립 설치되어 건설현장의 안전관리자의 제어 없이도 위험구역으로 접근하는 작업자에게 적절한 경고방송을 즉시 출력할 수 있고, 이에 의해 건설현장에서 작업자의 안전을 더욱 담보할 수 있게 된다.As described above, the present invention is independently installed in the danger zone of the construction site, and can immediately output an appropriate warning broadcast to the worker approaching the danger zone without the control of the safety manager at the construction site, thereby improving the safety of the worker at the construction site. You will be able to secure more.

위에서는 설명의 편의를 위해 바람직한 실시예를 도시한 도면과 도면에 나타난 구성에 도면부호와 명칭을 부여하여 설명하였으나, 이는 본 발명에 따른 하나의 실시예로서 도면상에 나타난 형상과 부여된 명칭에 국한되어 그 권리범위가 해석되어서는 안 될 것이며, 발명의 설명으로부터 예측 가능한 다양한 형상으로의 변경과 동일한 작용을 하는 구성으로의 단순 치환은 통상의 기술자가 용이하게 실시하기 위해 변경 가능한 범위 내에 있음은 지극히 자명하다고 볼 것이다.In the above, for convenience of description, the drawings showing the preferred embodiments and the components shown in the drawings have been described with reference numerals and names, but this is an embodiment according to the present invention. It should be construed that the scope of the right should not be interpreted, and the simple substitution from the description of the invention to a configuration that functions the same as the change to various predictable shapes is within the range that can be changed by a person skilled in the art for easy implementation. You will see it as self-evident.

1: 벽면 1A: 위험구역
2: 재난 및 사고 예방장치 10: 하우징
11: 수용부 12: 고정브래킷
13: 전원스위치 14: USB단자
15: 차단부재 16: 설치대
17: LAN포트 20: 카메라
30: 제어부 30A: MCU
31: 저장장치 40: 스피커
50: 경고등 M: 구동모터
1: Wall 1A: Dangerous Zone
2: Disaster and accident prevention device 10: Housing
11: Receptacle 12: Fixing bracket
13: Power switch 14: USB terminal
15: blocking member 16: mounting table
17: LAN port 20: Camera
30: control unit 30A: MCU
31: storage 40: speaker
50: warning light M: drive motor

Claims (5)

내부에 수용공간(11)이 구비되는 하우징(10);
상기 하우징(10)의 외측에 설치되면서 소정 각도(A) 범위의 영상을 촬영하는 카메라(20);
상기 수용공간(11)에 구비되면서 상기 카메라(20)를 통해 촬영되는 영상을 실시간으로 분석하는 제어부(30); 및
상기 제어부(30)의 제어에 의해 선택적으로 경고방송이 출력되는 스피커(40);
를 포함하고,
상기 제어부(30)는,
상기 카메라(20)를 통해 촬영되는 영상을 딥러닝을 통한 학습 알고리즘을 기반으로 객체 인식을 통해 작업자 및 작업자의 보호장비 착용여부를 판별하고, 작업자의 행동 패턴으로부터 위험행동을 인지하며,
영상을 반복 학습하기 위해 텐서플로우(TensorFlow) 라이브러리가 사용되고, 다층 퍼셉트론이 가능한 케라스(Keras)가 적용되며, 이미지를 인식하기 위해 합성곱신경망(Convolutional Neural Network, CNN)이 사용되고,
상기 케라스의 이미지 데이터 제너레이터(Image data generator)를 이용하여 일반적인 사람의 전신 및 보호장비 이미지를 기초로 초기 학습에 필요한 데이터셋을 생성하며,
상기 카메라(20)를 통해 촬영된 영상 내의 움직임을 갖는 객체가 있는 경우에는, 해당 객체가 작업자인지 여부를 판단하기 위해 객체의 동작 패턴을 분석하고, 영상 내의 객체가 정지된 상태에서 반복적인 움직임을 갖거나 움직임의 범위가 작은 경우에는 해당 객체가 작업자가 아닌 사물이나 동물의 움직임 또는 빛의 난반사 및 바람으로 인한 움직임으로 판단하며, 해당 객체가 작업자로 판단되는 경우에는 해당 객체에 고유 아이디를 부여한 다음, 보호장비 착용여부를 감지하고,
고유 아이디가 부여되는 객체가 위험구역(1A) 쪽으로 지속하여 이동하는 경우에는 상기 위험구역(1A)과 이격된 거리가 미터단위로 안내되도록 함과 동시에 보호장비의 착용 여부에 맞춘 경고방송이 상기 스피커(40)를 통해 출력되도록 제어하며,
상기 하우징(10)에는,
상하 수직 방향으로 소정 길이를 가지는 설치대(16); 및
상기 제어부(30)의 제어에 의해 상기 스피커(40)를 통해 출력되는 경고방송에 맞추어 작업자 방향 또는 상기 위험구역(1A) 쪽으로 광원을 조사하는 경고등(50);
이 설치되고,
상기 설치대(16)는,
상기 카메라(20)를 통해 촬영되는 방향을 조절할 수 있도록 구동모터(M)를 통해 회전 가능하도록 구성되며,
상기 설치대(16)에는,
상기 카메라(20), 상기 스피커(40) 및 상기 경고등(50)이 설치되어, 상기 구동모터(M)의 동작에 의해 상기 카메라(20), 상기 스피커(40) 및 상기 경고등(50)의 방향이 조절되는 것을 특징으로 하는 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치.
A housing 10 having an accommodation space 11 therein;
A camera 20 installed on the outside of the housing 10 to photograph an image in a predetermined angle (A) range;
A control unit 30 that is provided in the accommodation space 11 and analyzes images captured through the camera 20 in real time; And
A speaker 40 to which a warning broadcast is selectively output by the control of the control unit 30;
Including,
The control unit 30,
Based on the learning algorithm through deep learning, the image captured through the camera 20 is determined by whether or not the worker and the worker's protective equipment are worn through object recognition, and the danger behavior is recognized from the worker's behavior pattern.
TensorFlow library is used to iteratively learn images, Keras, which is capable of multi-layer perceptron, is applied, and Convolutional Neural Network (CNN) is used to recognize images.
Using the image data generator of the Keras to create a data set necessary for initial learning based on the image of the whole body and protective equipment of a general person,
When there is an object having a motion in an image photographed through the camera 20, the motion pattern of the object is analyzed to determine whether the object is an operator, and repetitive motion is performed while the object in the image is stationary. If it has or the range of movement is small, it is judged that the object is not an operator, but the movement of objects or animals or the movement caused by light reflection and wind, and if the object is determined to be an operator, a unique ID is given to the object. , Detects whether or not to wear protective equipment
When the object to which the unique ID is assigned continues to move toward the danger zone 1A, the distance separated from the danger zone 1A is guided in meters, and at the same time, a warning broadcast tailored to whether or not protection equipment is worn is provided to the speaker. It is controlled to be output through (40),
In the housing 10,
An installation table 16 having a predetermined length in the vertical direction; And
A warning light 50 for irradiating a light source toward the worker or the dangerous zone 1A in accordance with the warning broadcast output through the speaker 40 under the control of the control unit 30;
Is installed,
The mounting table 16,
It is configured to be rotatable through a driving motor (M) so as to adjust the direction taken through the camera 20,
On the mounting table 16,
The camera 20, the speaker 40 and the warning light 50 are installed, and the direction of the camera 20, the speaker 40 and the warning light 50 by the operation of the driving motor M Disaster and accident prevention device at the construction site using artificial intelligence image analysis, characterized in that the adjustment.
삭제delete 삭제delete 청구항 1에 있어서,
상기 제어부(30)는,
생성된 데이터셋을 이용하여 입력되는 이미지에 대한 특징을 추출하고, 추출된 특징을 기반으로 뉴럴 네트워크(Neural Network)를 통해 특징에 따라 분류하는 것을 특징으로 하는 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치.
The method according to claim 1,
The control unit 30,
Disaster in the construction site using artificial intelligence image analysis characterized by extracting features for the input image using the generated dataset and classifying according to features through a neural network based on the extracted features And accident prevention devices.
청구항 1에 있어서,
상기 제어부(30)는,
상기 카메라(20)를 통해 입력받은 영상으로부터 작업자를 구분한 다음 보호장비 착용여부를 추가 판단하고, 해당 작업자의 이동 경로와 보호장비의 착용 상태에 맞춰 경고방송이 선택되어 상기 스피커(40)를 통해 출력되도록 하는 것을 특징으로 하는 인공지능형 영상분석을 이용한 건설현장의 재난 및 사고 예방장치.
The method according to claim 1,
The control unit 30,
After classifying the operator from the image received through the camera 20, additional judgment is made on whether to wear protective equipment, and a warning broadcast is selected according to the movement path of the worker and the wearing condition of the protective equipment, and the speaker 40 is used. Disaster and accident prevention device in construction site using artificial intelligence image analysis, characterized in that to be output.
KR1020200013565A 2020-02-05 2020-02-05 Disaster and Accident Prevention Device in Construction site using AI image analysis KR102136070B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200013565A KR102136070B1 (en) 2020-02-05 2020-02-05 Disaster and Accident Prevention Device in Construction site using AI image analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200013565A KR102136070B1 (en) 2020-02-05 2020-02-05 Disaster and Accident Prevention Device in Construction site using AI image analysis

Publications (1)

Publication Number Publication Date
KR102136070B1 true KR102136070B1 (en) 2020-07-21

Family

ID=71832792

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200013565A KR102136070B1 (en) 2020-02-05 2020-02-05 Disaster and Accident Prevention Device in Construction site using AI image analysis

Country Status (1)

Country Link
KR (1) KR102136070B1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102313479B1 (en) * 2020-12-23 2021-10-18 주식회사 케이씨씨건설 System for providing guide based on safety standard using artificial intelligence model
CN113780137A (en) * 2021-08-31 2021-12-10 江苏立源自动化工程有限公司 Safety warning supervision system for loading field operation personnel
KR20220021193A (en) 2020-08-13 2022-02-22 주식회사 유오케이 A method and apparatus for integrated control through linkage of video collection device and analysis device
KR20220023868A (en) * 2020-08-20 2022-03-03 주식회사 아이티로 Mobile type management device of construction site
KR20230013337A (en) * 2021-07-19 2023-01-26 가톨릭대학교 산학협력단 Method for providing feedback information related to wearing protective gear, apparatus and computer readable recording medium using the method
KR20230108587A (en) 2022-01-11 2023-07-18 중앙대학교 산학협력단 Computer Vision Process to Prevent Fall Accidents in the Construction Sites
KR102578851B1 (en) 2023-06-07 2023-09-14 주식회사 성원 Deep learning-based work safety management method and server for the same
KR102601758B1 (en) 2023-07-12 2023-11-13 주식회사 성원 Device for controlling abnormally operating manufacturing equipment, method and program
KR102601760B1 (en) 2023-07-12 2023-11-13 주식회사 성원 Method and apparatus for providing user interface for safe operation in workplace
KR102601759B1 (en) 2023-07-12 2023-11-14 주식회사 성원 Integrated method between heterogeneous devices for safety management system operation and server therefor
KR20230158352A (en) 2022-05-11 2023-11-20 (주)포소드 System for managing industrial site safety based on artificial intelligence image analysis

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990047360A (en) 1997-12-03 1999-07-05 김헌출 Safety Accident Prevention Method and Automatic Alarming Device in Dangerous Areas in Construction Sites
KR100805563B1 (en) 2007-01-08 2008-10-27 송문석 A voice alarm and a control apparatus for the construction site
KR20100106776A (en) * 2009-03-24 2010-10-04 아주대학교산학협력단 Vision watching system and method for safety hat
KR101671209B1 (en) * 2016-03-17 2016-11-01 주식회사 지에스아이엘 Safety management system for workers of a tunnel under construction
KR101715001B1 (en) * 2015-12-30 2017-03-23 연세대학교 산학협력단 Display system for safety evaluation in construction sites using of wearable device, and thereof method
KR101906221B1 (en) 2015-12-16 2018-12-06 주식회사 에코탑 Multi-functional purification plant island for lake water circulation and controlling Green algae
KR101951119B1 (en) 2017-09-28 2019-02-21 이태훈 Danger warning apparatus of construction site

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990047360A (en) 1997-12-03 1999-07-05 김헌출 Safety Accident Prevention Method and Automatic Alarming Device in Dangerous Areas in Construction Sites
KR100805563B1 (en) 2007-01-08 2008-10-27 송문석 A voice alarm and a control apparatus for the construction site
KR20100106776A (en) * 2009-03-24 2010-10-04 아주대학교산학협력단 Vision watching system and method for safety hat
KR101906221B1 (en) 2015-12-16 2018-12-06 주식회사 에코탑 Multi-functional purification plant island for lake water circulation and controlling Green algae
KR101715001B1 (en) * 2015-12-30 2017-03-23 연세대학교 산학협력단 Display system for safety evaluation in construction sites using of wearable device, and thereof method
KR101671209B1 (en) * 2016-03-17 2016-11-01 주식회사 지에스아이엘 Safety management system for workers of a tunnel under construction
KR101951119B1 (en) 2017-09-28 2019-02-21 이태훈 Danger warning apparatus of construction site

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220021193A (en) 2020-08-13 2022-02-22 주식회사 유오케이 A method and apparatus for integrated control through linkage of video collection device and analysis device
KR102470631B1 (en) * 2020-08-20 2022-11-25 주식회사 아이티로 Mobile type management device of construction site
KR20220023868A (en) * 2020-08-20 2022-03-03 주식회사 아이티로 Mobile type management device of construction site
KR102313479B1 (en) * 2020-12-23 2021-10-18 주식회사 케이씨씨건설 System for providing guide based on safety standard using artificial intelligence model
KR20230069064A (en) * 2021-07-19 2023-05-18 가톨릭대학교 산학협력단 Device for determining wearing state of a plurality of protective equipment by utilizing analysis engine, method
KR20230013337A (en) * 2021-07-19 2023-01-26 가톨릭대학교 산학협력단 Method for providing feedback information related to wearing protective gear, apparatus and computer readable recording medium using the method
WO2023003230A1 (en) * 2021-07-19 2023-01-26 가톨릭대학교 산학협력단 Method for providing feedback information on wearing of protective equipment, device for applying same, and recording medium
KR102530094B1 (en) * 2021-07-19 2023-05-04 가톨릭대학교 산학협력단 Method for providing feedback information related to wearing protective gear, apparatus and computer readable recording medium using the method
KR102600191B1 (en) * 2021-07-19 2023-11-07 가톨릭대학교 산학협력단 Device for determining wearing state of a plurality of protective equipment by utilizing analysis engine, method
CN113780137A (en) * 2021-08-31 2021-12-10 江苏立源自动化工程有限公司 Safety warning supervision system for loading field operation personnel
KR20230108587A (en) 2022-01-11 2023-07-18 중앙대학교 산학협력단 Computer Vision Process to Prevent Fall Accidents in the Construction Sites
KR20230158352A (en) 2022-05-11 2023-11-20 (주)포소드 System for managing industrial site safety based on artificial intelligence image analysis
KR102578851B1 (en) 2023-06-07 2023-09-14 주식회사 성원 Deep learning-based work safety management method and server for the same
KR102601758B1 (en) 2023-07-12 2023-11-13 주식회사 성원 Device for controlling abnormally operating manufacturing equipment, method and program
KR102601760B1 (en) 2023-07-12 2023-11-13 주식회사 성원 Method and apparatus for providing user interface for safe operation in workplace
KR102601759B1 (en) 2023-07-12 2023-11-14 주식회사 성원 Integrated method between heterogeneous devices for safety management system operation and server therefor

Similar Documents

Publication Publication Date Title
KR102136070B1 (en) Disaster and Accident Prevention Device in Construction site using AI image analysis
CN111226178B (en) Monitoring device, industrial system, method for monitoring and computer program
CN111770266B (en) Intelligent visual perception system
EP3112900B1 (en) Safety system and method to detect a risk condition in a region to be monitored placed close to an operating machine, such as a drilling machine or the like
KR101715001B1 (en) Display system for safety evaluation in construction sites using of wearable device, and thereof method
KR101723283B1 (en) Worker Behavior Based Safety Management System and Method
EP1943612B1 (en) Video image track supervision system
KR101036947B1 (en) The automatic guard system to prevent the crime and accident using computer video image analysis technology
CN111753780B (en) Transformer substation violation detection system and violation detection method
CN108227606A (en) A kind of ship security intelligent management system perceived based on multi-source
CN111277748A (en) Construction site fire management system based on video intelligent analysis and implementation method thereof
KR101619307B1 (en) Protection system of guard post for military
KR102499410B1 (en) Smart alarm system for unmanned guard and method thereof
CN112282819A (en) Fully mechanized coal mining face personnel target safety monitoring method and system based on vision
KR102570973B1 (en) Unattended station monitoring system and operation method thereof
KR101210327B1 (en) System of warning for ship
KR101695127B1 (en) Group action analysis method by image
KR20210103172A (en) Security guard system
EP3616858A2 (en) Method and device for documenting a status of an autonomous robot
US20170073069A1 (en) Security system
KR102011225B1 (en) Security management system using drone and method for processing thereof
CN210428162U (en) Intelligent civil air defense monitoring system
WO2017216760A1 (en) System and method for tracing one or more persons following an alarm event
KR20150031059A (en) The Development Of CCTV For Security By Pattern Recognition Technology
KR101516672B1 (en) Method for detecting video that utilize smarter video control center using the same system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant