KR102500474B1 - System for providing smart intelligence safety management service - Google Patents

System for providing smart intelligence safety management service Download PDF

Info

Publication number
KR102500474B1
KR102500474B1 KR1020210111036A KR20210111036A KR102500474B1 KR 102500474 B1 KR102500474 B1 KR 102500474B1 KR 1020210111036 A KR1020210111036 A KR 1020210111036A KR 20210111036 A KR20210111036 A KR 20210111036A KR 102500474 B1 KR102500474 B1 KR 102500474B1
Authority
KR
South Korea
Prior art keywords
management service
safety management
service providing
risk
terminal
Prior art date
Application number
KR1020210111036A
Other languages
Korean (ko)
Inventor
정명훈
Original Assignee
정명훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정명훈 filed Critical 정명훈
Priority to KR1020210111036A priority Critical patent/KR102500474B1/en
Application granted granted Critical
Publication of KR102500474B1 publication Critical patent/KR102500474B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Primary Health Care (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Biology (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Operations Research (AREA)

Abstract

Provided is a system for providing a smart intelligent safety managing service comprising: at least one inputting terminal; at least one outputting terminal; and a server for providing a safety managing service. The at least one inputting terminal photographs an image by using at least one type of camera, and outputs the image in real time. The at least one outputting terminal outputs a risk event analyzed as the image of the at least one inputting terminal. The server for providing a safety managing service includes: a receiving unit which receives the image received from the at least one inputting terminal; an inputting unit which inputs the image as a query to at least one type of artificial intelligence algorithm; and an outputting unit which transmits a risk event to the at least one outputting terminal when the risk event is outputted from the at least one artificial intelligence algorithm. The present invention can prevent industrial accidents in advance.

Description

스마트 지능형 안전관리 서비스 제공 시스템{SYSTEM FOR PROVIDING SMART INTELLIGENCE SAFETY MANAGEMENT SERVICE}Smart intelligent safety management service provision system {SYSTEM FOR PROVIDING SMART INTELLIGENCE SAFETY MANAGEMENT SERVICE}

본 발명은 스마트 지능형 안전관리 서비스 제공 시스템에 관한 것으로, 산업재해를 막기 위하여 작업자, 자재 및 장비의 이동을 예측하고 위험상황을 미리 알려주어 미연에 사고를 방지하기 위한 플랫폼을 제공한다.The present invention relates to a smart intelligent safety management service providing system, and provides a platform for preventing accidents in advance by predicting the movement of workers, materials and equipment and notifying dangerous situations in advance in order to prevent industrial accidents.

2021년 통계청에서 보고한 한국의 지속가능 발전목표 이행보고서 2021에 따르면, 한국의 산업재해 사망사고 발생률이 경제협력개발기구 국가 가운데 네 번째로 높았다. 매년 1,000명 가까이 발생하는 산업재해 사고 사망자를 절반으로 감축하기 위한 국정과제를 제시하고 산업재해 예방과 감독에 주력해왔으나 2020년 산업재해 사망자 수는 882명으로 전년도 855명보다 증가하였다. 이에 정부는 사업주 또는 경영책임자에게 더욱 엄중한 책임을 묻는 중대재해처벌법을 도입하였고, 2022년 1월 27일부터 시행된다. 이처럼 산업재해 발생을 줄이기 위한 노력은 정부와 기업에서 모두 강조되고 있는데, 산업재해 발생을 줄이기 위한 전략적인 관점으로는 크게 두 가지로, 사후 관점에서 근본적인 발생 원인을 분석해서 재발을 방지하는 피드백(Feed-Back) 방법과 미래 시점에 산업재해가 어느 정도 발생할 것인지를 사전에 예측하여 장·단기적으로 산업재해 예방 전략을 수립하여 대응하는 피드포워드(Feed-Forward) 방법이 있다.According to Korea's Sustainable Development Goals Implementation Report 2021 reported by the National Statistical Office in 2021, South Korea's industrial accident death rate was the fourth highest among Organization for Economic Cooperation and Development (OECD) countries. Although the government has presented a national task to reduce the death toll from industrial accidents, which is close to 1,000 each year, by half, and has focused on preventing and supervising industrial accidents, the number of deaths from industrial accidents in 2020 was 882, an increase from 855 in the previous year. In response, the government introduced the Severe Disaster Punishment Act, which asks business owners or management managers to take more responsibility, and will be enforced from January 27, 2022. Efforts to reduce the occurrence of industrial accidents are being emphasized by both the government and companies. There are two major strategic perspectives for reducing the occurrence of industrial accidents. Back) method and the Feed-Forward method, which predicts the extent to which industrial accidents will occur in the future and establishes a long-term or short-term industrial accident prevention strategy to respond to.

이때, 산업재해를 방지하기 위하여 드론, 센서 및 카메라를 이용하여 산업현장을 모니터링하고 위험발생 즉시 작업자 및 관리자에게 안내하는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국공개특허 제2017-0060973호(2017년06월02일 공개) 및 한국등록특허 제10-1265564호(2013년05월20일 공고)에는, 드론이 정상 비행경로에 따라 비행하면서 산업재해관리현장에서 촬영된 영상을 관제서버로 전송하면, 관제서버는 산업재해관리현장이 이상상황인지의 여부를 판단하고 관리자에게 안내하는 구성과, 웨어러블 기기를 작업자가 착용하면 작업자의 주변 상황을 촬영하거나 감지한 후 관제서버로 전송하고, 작업자의 주변 상황에 대하여 안전상태인지의 여부를 추론하며 추론결과에 따라 제어신호를 웨어러블 기기로 제공하는 구성이 각각 개시되어 있다.At this time, in order to prevent industrial accidents, a method of monitoring industrial sites using drones, sensors, and cameras and guiding workers and managers immediately when dangers occur has been researched and developed. In this regard, Korea Patent Publication No. 2017-0060973 (published on June 2, 2017) and Korean Registered Patent No. 10-1265564 (published on May 20, 2013), a drone flies along a normal flight path and transmits images captured at an industrial accident management site to a control server. , the control server judges whether the industrial accident management site is in an abnormal situation and guides the manager, and when the worker wears the wearable device, the worker's surroundings are photographed or detected and transmitted to the control server, A configuration for inferring whether a worker is in a safe state with respect to surrounding conditions and providing a control signal to the wearable device according to the inference result is disclosed.

다만, 전자의 경우에는 드론으로 촬영해야 하므로 기상상황에 영향을 받게 되고 고도를 유지하며 일정한 각도로 촬영을 하는 것이 쉽지 않기 때문에 지속적인 모니터링이 용이하지 않다. 후자의 경우에도 웨어러블 기기는 작업자가 근접한 환경만을 측정할 수 있을 뿐이어서 크레인 사고와 같이 이격되어 있는 거리에서 중기계에 의해 깔려 숨지는 경우를 피할 수 없다. 실제 건설현장 및 산업현장에서는 공기에 공사일정을 맞춰야 하거나 납품기한을 지켜야 하는 상황으로 인하여 작업을 중단하거나 멈춰야 하는 상황에서도 계속하여 진행하거나 안전을 책임져야 하는 인원을 감축시켜 인명피해가 계속되고 있다. 인원을 보충한다고 할지라도 보충된 인력의 개인적인 성향 및 배경지식의 다름으로 인하여 기계적인 객관성을 유지할 수 없고 24시간 감시가 불가하므로 인건비 낭비로 이어질 수 있다. 이에, 피드백 방법으로 인공지능을 이용하여 산업재해상황을 학습하며 피드포워드 방법과 같이 산업재해를 예측하여 미연에 방지할 수 있는 플랫폼의 연구 및 개발이 요구된다.However, in the case of the former, continuous monitoring is not easy because it is affected by weather conditions and it is not easy to maintain an altitude and shoot at a constant angle because it must be filmed with a drone. Even in the latter case, the wearable device can only measure the environment close to the worker, so it is unavoidable to be crushed and killed by heavy machinery at a distance, such as in a crane accident. In actual construction sites and industrial sites, human casualties continue even if work is stopped or stopped due to situations in which construction schedules must be met or delivery deadlines must be met, or the number of people responsible for safety is reduced. Even if personnel are supplemented, mechanical objectivity cannot be maintained and 24-hour monitoring is not possible due to differences in personal inclination and background knowledge of the supplemented personnel, which can lead to waste of labor costs. Therefore, it is required to research and develop a platform that can learn the industrial accident situation using artificial intelligence as a feedback method and predict industrial accidents and prevent them in advance, such as the feed-forward method.

본 발명의 일 실시예는, 적어도 하나의 카메라로부터 수집된 영상을 실시간으로 분석하여 사람, 장비 및 자재와 같은 객체를 식별 및 분류하고, 사람의 경우 기 설정된 안전수칙을 지키고 있는지의 여부를 판단하여 안내 및 경고하며, 산업재해 데이터셋을 수집하여 빅데이터를 구축한 후 학습 및 테스트를 통하여 적어도 하나의 인공지능 알고리즘을 모델링하고, 실시간으로 입력되는 장비 및 자재를 질의(Query)로 입력한 후 산업재해 발생여부를 예측한 결과를 출력하여 각 작업자에게 경고 및 관리자에게 보고함으로써 산업재해 발생을 미연에 방지할 수 있는, 스마트 지능형 안전관리 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment of the present invention analyzes images collected from at least one camera in real time to identify and classify objects such as people, equipment, and materials, and in the case of people, to determine whether or not preset safety rules are followed Guidance and warning, collect industrial accident data set to build big data, model at least one artificial intelligence algorithm through learning and testing, input equipment and materials input in real time as a query, and then enter the industry It is possible to provide a smart intelligent safety management service providing system that can prevent the occurrence of industrial accidents in advance by outputting the result of predicting whether or not an accident will occur, warning each worker and reporting it to the manager. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 적어도 하나의 종류의 카메라를 이용하여 영상을 촬영하고 실시간으로 출력하는 적어도 하나의 입력 단말, 적어도 하나의 입력 단말의 영상으로 분석된 위험 이벤트를 출력하는 적어도 하나의 출력 단말 및 적어도 하나의 입력 단말로부터 수신된 영상을 수신하는 수신부, 영상을 적어도 하나의 종류의 인공지능 알고리즘에 질의(Query)로 입력하는 입력부, 적어도 하나의 인공지능 알고리즘으로부터 위험 이벤트가 출력되는 경우 적어도 하나의 출력 단말로 위험 이벤트를 전송하는 출력부를 포함하는 안전관리 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention uses at least one type of camera to photograph and output at least one input terminal in real time, and an image of the at least one input terminal. At least one output terminal outputting the analyzed risk event and a receiving unit receiving an image received from at least one input terminal, an input unit inputting the image as a query to at least one type of artificial intelligence algorithm, and at least one input unit. and a safety management service providing server including an output unit for transmitting a dangerous event to at least one output terminal when a dangerous event is output from the artificial intelligence algorithm of the above.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 적어도 하나의 카메라로부터 수집된 영상을 실시간으로 분석하여 사람, 장비 및 자재와 같은 객체를 식별 및 분류하고, 사람의 경우 기 설정된 안전수칙을 지키고 있는지의 여부를 판단하여 안내 및 경고하며, 산업재해 데이터셋을 수집하여 빅데이터를 구축한 후 학습 및 테스트를 통하여 적어도 하나의 인공지능 알고리즘을 모델링하고, 실시간으로 입력되는 장비 및 자재의 영상을 질의(Query)로 입력한 후 산업재해 발생여부를 예측한 결과를 출력하여 각 작업자에게 경고 및 관리자에게 보고함으로써 산업재해 발생을 미연에 방지할 수 있다.According to any one of the above-described problem solving means of the present invention, images collected from at least one camera are analyzed in real time to identify and classify objects such as people, equipment, and materials, and in the case of people, a predetermined safety rule is observed. After determining whether or not there is a problem, providing guidance and warning, collecting industrial accident datasets to build big data, modeling at least one artificial intelligence algorithm through learning and testing, and querying images of equipment and materials input in real time. It is possible to prevent the occurrence of industrial accidents in advance by outputting the result of predicting the occurrence of industrial accidents after entering it in (Query), warning each worker and reporting it to the manager.

도 1은 본 발명의 일 실시예에 따른 스마트 지능형 안전관리 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 안전관리 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 스마트 지능형 안전관리 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 스마트 지능형 안전관리 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a diagram for explaining a smart intelligent safety management service providing system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a safety management service providing server included in the system of FIG. 1 .
3 and 4 are diagrams for explaining an embodiment in which a smart intelligent safety management service is implemented according to an embodiment of the present invention.
5 is an operation flowchart for explaining a smart intelligent safety management service providing method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. As used throughout the specification, the terms "about", "substantially", etc., are used at or approximating that value when manufacturing and material tolerances inherent in the stated meaning are given, and do not convey an understanding of the present invention. Accurate or absolute figures are used to help prevent exploitation by unscrupulous infringers of the disclosed disclosure. The term "step of (doing)" or "step of" as used throughout the specification of the present invention does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware. On the other hand, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Thus, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, device, or device may be performed instead by a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is the terminal's identifying data. can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 스마트 지능형 안전관리 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 스마트 지능형 안전관리 서비스 제공 시스템(1)은, 적어도 하나의 입력 단말(100), 안전관리 서비스 제공 서버(300), 적어도 하나의 출력 단말(400)을 포함할 수 있다. 다만, 이러한 도 1의 스마트 지능형 안전관리 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram for explaining a smart intelligent safety management service providing system according to an embodiment of the present invention. Referring to FIG. 1 , the smart intelligent safety management service providing system 1 may include at least one input terminal 100, a safety management service providing server 300, and at least one output terminal 400. However, since the smart intelligent safety management service providing system 1 of FIG. 1 is only one embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1 .

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 입력 단말(100)은 네트워크(200)를 통하여 안전관리 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 안전관리 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 입력 단말(100), 적어도 하나의 출력 단말(400)과 연결될 수 있다. 또한, 적어도 하나의 출력 단말(400)은, 네트워크(200)를 통하여 안전관리 서비스 제공 서버(300)와 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1 , at least one input terminal 100 may be connected to the safety management service providing server 300 through the network 200 . In addition, the safety management service providing server 300 may be connected to at least one input terminal 100 and at least one output terminal 400 through the network 200 . In addition, at least one output terminal 400 may be connected to the safety management service providing server 300 through the network 200 .

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure capable of exchanging information between nodes such as a plurality of terminals and servers, and examples of such networks include a local area network (LAN) and a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communications networks, telephone networks, and wired and wireless television communications networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi , Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( A Near-Field Communication (Near-Field Communication) network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if at least one term does not exist, each component may exist in singular or plural, and may mean singular or plural. It will be self-evident. In addition, the singular or plural number of each component may be changed according to embodiments.

적어도 하나의 입력 단말(100)은, 스마트 지능형 안전관리 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 공사현장, 제조현장 등을 실내외에서 촬영하는 단말일 수 있다. 이때, 입력 단말(100)은 촬영을 할 수 있는 장치라면 그 어느 것이든 가능할 수 있으며, 예를 들어, 스마트글래스, CCTV, 액션캠, 바디캠 등 다양한 장비가 이용될 수 있다. 다만, 나열된 것들로 한정되지 않고 열거되지 않은 이유로 배제되지 않는다.At least one input terminal 100 may be a terminal for taking pictures of a construction site, a manufacturing site, etc. indoors and outdoors using a smart intelligent safety management service related web page, app page, program or application. At this time, the input terminal 100 may be any device capable of taking pictures, and for example, various devices such as smart glasses, CCTVs, action cams, and body cams may be used. However, it is not limited to those listed and is not excluded for reasons not listed.

여기서, 적어도 하나의 입력 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 입력 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 입력 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one input terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one input terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one input terminal 100 is, for example, a wireless communication device that ensures portability and mobility, and includes navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet ) may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

안전관리 서비스 제공 서버(300)는, 스마트 지능형 안전관리 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 안전관리 서비스 제공 서버(300)는, 산업재해 데이터셋을 수집한 후 적어도 하나의 인공지능 알고리즘을 학습하고, 실시간으로 입력되는 영상이 데이터셋과 유사한 경우 미리 경고를 알려주어 사고를 예방할 수 있도록 하는 서버일 수 있다. 또한, 안전관리 서비스 제공 서버(300)는, 사람, 자재 및 장비의 이동방향, 크기, 속도 등을 측정하고 이동방향 및 충돌여부를 예측하여 출력 단말(400)로 출력하는 서버일 수 있다. 그리고, 안전관리 서비스 제공 서버(300)는, 안전법규 및 법령을 위반하는 사람, 자재 및 장비 등을 식별하고 경고를 출력 단말(400)로 전송하는 서버일 수 있다. 또한, 안전관리 서비스 제공 서버(300)는, 위험도를 측정 또는 예측하여 관리자 단말(미도시)로 보고하는 서버일 수 있다. 그리고, 안전관리 서비스 제공 서버(300)는, 동일 사업장 내 위반 횟수 및 위험등급(단계)를 누적하고 기 설정된 횟수 이상인 경우 기 설정된 패널티를 부과하거나 관계 기관 및 부처에 보고하는 서버일 수 있다.The safety management service providing server 300 may be a server that provides a smart intelligent safety management service web page, app page, program or application. In addition, the safety management service providing server 300 collects the industrial accident data set, learns at least one artificial intelligence algorithm, and warns in advance when an image input in real time is similar to the data set to prevent accidents. It may be a server that allows In addition, the safety management service providing server 300 may be a server that measures the moving direction, size, speed, etc. of people, materials and equipment, predicts the moving direction and collision, and outputs the result to the output terminal 400 . In addition, the safety management service providing server 300 may be a server that identifies persons, materials, and equipment violating safety laws and regulations and transmits a warning to the output terminal 400 . In addition, the safety management service providing server 300 may be a server that measures or predicts a risk level and reports it to an administrator terminal (not shown). In addition, the safety management service providing server 300 may be a server that accumulates the number of violations and risk levels (levels) in the same workplace and imposes a preset penalty when the number exceeds a preset number or reports to related agencies and ministries.

여기서, 안전관리 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the safety management service providing server 300 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser.

적어도 하나의 출력 단말(400)은, 스마트 지능형 안전관리 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 예측, 측정, 분석 및 안내 결과를 출력하는 단말일 수 있다. 이때, 적어도 하나의 출력 단말(400)은, 모니터, 스피커, 사용자 단말인 스마트폰, 경고등, 레이저지시등 등일 수 있으나 나열된 것으로 한정되지 않는다.At least one output terminal 400 may be a terminal that outputs prediction, measurement, analysis, and guidance results using a smart intelligent safety management service-related web page, app page, program, or application. In this case, the at least one output terminal 400 may be a monitor, a speaker, a smartphone as a user terminal, a warning light, a laser indicator light, etc., but is not limited to those listed.

여기서, 적어도 하나의 출력 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 출력 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 출력 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one output terminal 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one output terminal 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one output terminal 400 is, for example, a wireless communication device that ensures portability and mobility, such as navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet ) may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

도 2는 도 1의 시스템에 포함된 안전관리 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 스마트 지능형 안전관리 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.2 is a block diagram for explaining a safety management service providing server included in the system of FIG. 1, and FIGS. 3 and 4 show an embodiment in which a smart intelligent safety management service is implemented according to an embodiment of the present invention. It is a drawing for explanation.

도 2를 참조하면, 안전관리 서비스 제공 서버(300)는, 수신부(310), 입력부(320), 출력부(330), 사각지대제거부(340), 표시부(350), 예측부(360), 환경감지부(370) 및 위반감시부(380)를 포함할 수 있다.Referring to FIG. 2, the safety management service providing server 300 includes a receiving unit 310, an input unit 320, an output unit 330, a blind spot removal unit 340, a display unit 350, and a prediction unit 360. , An environment detection unit 370 and a violation monitoring unit 380 may be included.

본 발명의 일 실시예에 따른 안전관리 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 입력 단말(100) 및 적어도 하나의 출력 단말(400)로 스마트 지능형 안전관리 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 입력 단말(100) 및 적어도 하나의 출력 단말(400)은, 스마트 지능형 안전관리 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 입력 단말(100) 및 적어도 하나의 출력 단말(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The safety management service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one input terminal 100 and at least one output terminal 400 is smart intelligent safety management When a service application, program, app page, web page, etc. is transmitted, at least one input terminal 100 and at least one output terminal 400 are smart intelligent safety management service applications, programs, app pages, web pages, etc. can be installed or opened. Also, a service program may be driven in at least one input terminal 100 and at least one output terminal 400 by using a script executed in a web browser. Here, the web browser is a program that allows users to use the web (WWW: World Wide Web) service, and means a program that receives and displays hypertext described in HTML (Hyper Text Mark-up Language). For example, Netscape , Explorer, Chrome, and the like. In addition, an application means an application on a terminal, and includes, for example, an app running on a mobile terminal (smart phone).

도 2를 참조하면, 수신부(310)는, 적어도 하나의 입력 단말(100)로부터 수신된 영상을 수신할 수 있다. 적어도 하나의 입력 단말(100)은, 적어도 하나의 종류의 카메라를 이용하여 영상을 촬영하고 실시간으로 출력할 수 있다. 최근 중대재해처벌법이 제정 및 시행되고 있지만 처벌을 한다고하여 재해로 사망 또는 사고를 당한 사람이 돌아오거나 다치기 전으로 돌아갈 수 있는 것은 아니다. 가장 중요한 것은 사람이 다치기 이전에 이를 미리 예방하는 것이므로, 각 자재, 장비, 설비 등을 관찰하고 자재가 부서짐, 떨어지거나 사람이 끼이기 이전에 산재사고를 예측한 후 이를 즉시 작업자에게 알려주는 방식을 이용하기 위해 실시간으로 수신 및 분석할 수 있도록 한다. Referring to FIG. 2 , the receiving unit 310 may receive an image received from at least one input terminal 100 . At least one input terminal 100 may capture an image using at least one type of camera and output the image in real time. Recently, the Severe Disaster Punishment Act has been enacted and enforced, but punishment does not mean that a person who died or suffered an accident in a disaster can return or go back to before being injured. Since the most important thing is to prevent accidents before people get hurt, a method of observing each material, equipment, facility, etc., predicting an industrial accident before the material breaks or falls, or getting caught, and then notifying the worker immediately. to be received and analyzed in real time for use.

입력부(320)는, 영상을 적어도 하나의 종류의 인공지능 알고리즘에 질의(Query)로 입력할 수 있다. 인공지능 알고리즘은 전국의 건설현장 또는 제조업 현장에서 발생한 떨어짐, 끼임, 부딪힘, 깔림, 뒤집힘, 물체에 맞음, 교통사고 등의 영상 데이터셋을 입력으로 학습 및 테스트되며 모델링된 알고리즘이다. 이에, 유사한 영상이 입력되는 경우 이를 경고할 수 있다. 또한, 물체가 갑자기 쓰러지거나 할 때에는 기울기, 수평축이나 수직축 또 이동속도 등에 의해 자재나 장비의 이동경로나 움직임을 예측가능하기 때문에 이를 사전에 감지하여 그 밑에 사람이 위치하고 있는 경우 즉시 경로를 알려 대피할 수 있도록 한다. The input unit 320 may input an image as a query to at least one type of artificial intelligence algorithm. The artificial intelligence algorithm is an algorithm that is learned, tested, and modeled with image data sets such as falls, jams, bumps, kicks, overturns, hit by objects, and traffic accidents that occurred at construction or manufacturing sites across the country as input. Accordingly, when a similar image is input, a warning may be given. In addition, when an object suddenly collapses, it is possible to predict the movement path or movement of materials or equipment by inclination, horizontal axis or vertical axis, or movement speed. make it possible

<개인보호장비 검출><Personal protective equipment detection>

개인 보호장비(Personal Protective Equipment, PPE) 검출은 컴퓨터 비전과 AI 기술을 이용하여 현장 근로자의 보호 장비 착용 여부를 확인할 수 있다. 안전모, 안전조끼, 안전벨트, 안전화, 장갑 등이 PPE에 해당된다. 한국은 산업안전보건기준에 관한 규칙과 산업안전보건법에 따라 사업주의 보호 장비 지급과 근로자의 보호장비 착용이 의무화 되어있다. 현장 근로자는 답답하고 걸리적거리는 보호 장비를 착용하지 않고 작업하는 경우가 빈번하고, 현장 관리자는 모든 근로자들을 감시하기에는 한계가 있다. 따라서 PPE 검출 기술을 통해 근로자의 보호 장비 착용여부를 자동으로 확인할 수 있도록 하면 근로자들의 안전을 지킴과 동시에 관리감독의 인적, 시간적 노력을 줄이고 업무효율을 높일 수 있다.Personal Protective Equipment (PPE) detection uses computer vision and AI technology to determine whether or not workers are wearing protective equipment. PPE includes hard hats, safety vests, seat belts, safety shoes, and gloves. In Korea, it is mandatory for employers to provide protective equipment and for workers to wear protective equipment in accordance with the Industrial Safety and Health Standards Regulations and the Industrial Safety and Health Act. Site workers often work without wearing protective equipment that is stuffy and obstructive, and site managers have limitations in monitoring all workers. Therefore, if the PPE detection technology automatically checks whether workers are wearing protective equipment, it can protect workers' safety, reduce human and time efforts in supervision, and increase work efficiency.

PPE 검출에 적용되는 핵심 기술은 객체검출(Object Detection) 기술이다. 객체검출은 이미지에서 관심 객체를 배경과 구분해 식별하는 자동화 기법으로, 이미지 내에서 관심 객체의 존재 여부와 위치를 경계박스(Bounding Box) 설정을 통해 파악할 수 있게 해준다. 객체검출을 위해 딥러닝(Deep Learning) 알고리즘이 적용될 수 있으며, 예를 들어 YOLO(You Only Look Once) 알고리즘이 사용될 수 있다. YOLO는 다른 딥러닝 기반 객체검출 알고리즘과 비교하여 빠른 처리속도와 상대적으로 높은 검출 정확도를 보인다. 이로 인해 YOLO는 PPE 검출을 포함하여 다양한 실시간 객체 검출 응용분야에 활용되고 있는데, YOLO의 고질적인 문제가 있다. 바로, 작은 객체 검출에 취약한 부분이라는 것인데 본 발명의 일 실시예에서는 검출 성능을 높이기 위해 Bag of Freebies, Bag of Specials 등 다양한 기법이 적용된 YOLOv4를 이용할 수도 있다.The core technology applied to PPE detection is object detection technology. Object detection is an automated technique for identifying an object of interest in an image by distinguishing it from the background. For object detection, a deep learning algorithm may be applied, and for example, a You Only Look Once (YOLO) algorithm may be used. YOLO shows fast processing speed and relatively high detection accuracy compared to other deep learning-based object detection algorithms. Because of this, YOLO is used in various real-time object detection applications including PPE detection, but there is a chronic problem of YOLO. That is, it is a weak part in small object detection. In one embodiment of the present invention, YOLOv4 to which various techniques such as Bag of Freebies and Bag of Specials are applied may be used to improve detection performance.

건설현장 모니터링 및 PPE 검출을 위해 사용되는 CCTV 카메라는 다양한 현장위치에 설치된다. 실외환경에서 넓은 시야각 확보를 위해 원거리에 설치되는 카메라의 영상출력에서 근로자는 상대적으로 매우 작게 보인다. 이런 위치에 설치된 카메라의 이미지에 대해 YOLOv4 기반 PPE 검출을 수행할 경우, 작게 표출되는 보호 장비는 검출이 안 되는 경우가 많다. 따라서, 본 발명의 일 실시예에서는 원거리 촬영 동영상에서 PPE 검출 시, 크기가 작은 PPE 객체에 대한 검출 성능을 향상시킬 수 있는 이미지 전처리 기법을 더 이용할 수도 있다. YOLOv4에서 객체검출을 위해 입력되는 이미지의 크기는 학습 시 설정된 입력영상의 크기와 동일하게 조절(Resize)된다. 따라서 고해상도 영상이 입력으로 제공되어도, 원본 입력 이미지 크기가 축소 조절되는 현상이 발생하며, 이는 객체 검출에 영향을 미치게 된다.CCTV cameras used for construction site monitoring and PPE detection are installed at various site locations. Workers look relatively small in the video output of cameras installed at a distance to secure a wide viewing angle in an outdoor environment. When performing YOLOv4-based PPE detection on images from cameras installed in such locations, protective equipment that appears small is often not detected. Therefore, in one embodiment of the present invention, when detecting PPE in a video taken from a distance, an image preprocessing technique capable of improving detection performance for a small-sized PPE object may be further used. In YOLOv4, the size of the image input for object detection is resized to be the same as the size of the input image set during learning. Therefore, even if a high-resolution image is provided as an input, a phenomenon in which the size of the original input image is reduced or adjusted occurs, which affects object detection.

전처리 과정을 통해 원본 영상의 품질을 유지한 입력영상이 제공된다면 검출 성능이 향상될 수 있다. 이에 따라, 영상 프레임에서 객체검출 시 의미 있는 부분만을 추출하여 입력으로 제공한다. 즉, 영상 프레임에서 모션(Motion, 움직임)이 발생하는 부분만을 추출하여 모자이크 방식으로 결합, 재구성하여 YOLOv4 객체검출 모델의 입력으로 제공한다. 관심 영역 또는 의미 있는 부분만을 추출함으로써 입력 영상의 크기를 줄이고 영상에서 검출 대상이 되는 영역의 원래 해상도를 최대한 유지할 수 있다. 이를 통해 작은 객체에 대한 검출 성능을 개선할 수 있다.Detection performance can be improved if an input image maintaining the quality of the original image is provided through a preprocessing process. Accordingly, when an object is detected in an image frame, only a meaningful part is extracted and provided as an input. That is, only the parts where motion occurs in the video frame are extracted, combined and reconstructed in a mosaic manner, and provided as input to the YOLOv4 object detection model. By extracting only the region of interest or a meaningful part, the size of the input image can be reduced and the original resolution of the region to be detected in the image can be maintained as much as possible. Through this, the detection performance for small objects can be improved.

<객체 추적><object tracking>

건설 현장에서 영상 기반 위치 추적 방법을 적용하기 위해 카메라만을 이용하여 차량, 인력 등의 건설 자원의 3D 위치를 성공적으로 추적해낼 수 있으나 개체 별도의 자동화된 개체 매칭(Entity matching) 과정이 없기 때문에 다수의 개체를 동시에 추적하기에는 어려움이 있다. 스테레오 영상을 이용하는 영상 기반 위치 추적 방법의 특성상 촬영된 영상에서 개체를 검출하고 추적하는 것은 물론, 두 영상에서 검출된 개체 중 동일 개체를 짝 지어주는 과정이 반드시 필요하다. 이 과정이 자동화되지 않는다면 영상을 이용하여 다수 개체의 위치를 추적하는 것은 사실상 불가능하다. 이에, 본 발명의 일 실시예에서는, 등극선 기하학(Epipolar Geometry)에 근거한 개체 매칭 과정을 추가함으로써 다수 개체를 추적할 수 있는 영상 기반 위치 추적 방법을 이용할 수 있다. 개체 매칭 과정에서는 기초 행렬(Fundamental Matrix)로부터 계산 가능한 에피폴라 라인(Epipolar Line)을 개체 매칭 정보로 이용한다.In order to apply the image-based location tracking method at the construction site, the 3D location of construction resources such as vehicles and personnel can be successfully tracked using only cameras, but there is no automated entity matching process for each entity, so many It is difficult to track objects simultaneously. Due to the nature of the image-based location tracking method using stereo images, it is necessary to detect and track an object in a captured image, as well as to pair the same object among objects detected in two images. If this process is not automated, it is virtually impossible to track the location of multiple objects using images. Accordingly, in one embodiment of the present invention, an image-based location tracking method capable of tracking multiple objects may be used by adding an object matching process based on epipolar geometry. In the entity matching process, an epipolar line that can be calculated from a fundamental matrix is used as entity matching information.

<다수 인력의 위치 추적><Location tracking of multiple personnel>

다수 건설 인력의 위치 추적 방법은 카메라 캘리브레이션 과정과 개체 매칭 과정을 보완할 수 있다. 다수 개체의 위치를 추적하기 위해 별도의 개체 매칭 과정을 추가할 수 있고, 체커보드 대신 GCP를 사용하여 카메라 캘리브레이션을 수행할 수 있다. 이를 위해 각 영상의 첫 번째 프레임으로부터 기초행렬의 계산이 선행된다. 계산된 기초행렬은 카메라 캘리브레이션 과정뿐만 아니라 개체 매칭 과정에서도 사용된다. 각 영상에서는 독립적으로 개체를 검출 및 추적한다. 추적된 개체들은 계산된 기초 행렬을 이용하여 개체 매칭 과정을 수행하고, 이 결과들을 이용하여 최종적으로 3D 위치 좌표를 계산한다.The location tracking method of multiple construction workers can complement the camera calibration process and object matching process. A separate object matching process can be added to track the location of multiple objects, and camera calibration can be performed using GCP instead of a checkerboard. To this end, calculation of the base matrix from the first frame of each image is preceded. The calculated basis matrix is used not only in the camera calibration process but also in the object matching process. In each image, objects are detected and tracked independently. The tracked entities perform an entity matching process using the calculated basis matrix, and finally calculate 3D position coordinates using these results.

<개체 매칭><Object Matching>

개체 매칭을 위해 등극선 기하학을 적용할 수 있다. 개체 추적 과정에서 얻어진 개체 중심점으로부터 기초행렬을 이용해 에피폴라 라인을 계산하고, 계산된 에피폴라 라인과 추적 개체의 중심점과의 거리를 비교하여 개체 매칭 여부를 판단한다. 기초행렬 계산을 위해 각 영상의 첫 번째 프레임을 이용하여 특징점을 추출한다. 다양한 특징점 추출 알고리즘이 있지만 가장 보편적으로 사용되는 SIFT(Scale Invariant Feature Fransform) 알고리즘과 SURF(Speeded Up Robust Features) 알고리즘을 비교하여 더 많은 특징점을 반환하는 알고리즘을 사용할 수 있다. 좌우측 영상에서 추출된 특징점들을 비교하여 동일한 대응점만을 기초 행렬 계산에 사용하고, 이 과정에서 대응점 판단을 위해 MSAC(M-estimate SAmple Consensus)을 사용할 수 있다.For entity matching, epipolar geometry can be applied. The epipolar line is calculated using the elementary matrix from the object center point obtained in the object tracking process, and the object matching is determined by comparing the distance between the calculated epipolar line and the center point of the tracked object. To calculate the basis matrix, feature points are extracted using the first frame of each image. There are various feature point extraction algorithms, but the most commonly used SIFT (Scale Invariant Feature Fransform) algorithm and SURF (Speeded Up Robust Features) algorithm can be compared to use an algorithm that returns more feature points. Feature points extracted from the left and right images are compared, and only the same corresponding points are used for base matrix calculation, and MSAC (M-estimate Sample Consensus) can be used to determine the corresponding points in this process.

<3D 위치 좌표 계산><3D position coordinate calculation>

영상으로부터 3D 위치 좌표를 계산하기 위해서는 두 영상에서의 대응점이 필요하다. 실제 공간상의 점과 그것의 영상 평면에서의 대응점이 위치해 있을 때, 대응점이 위치한 영상 평면과 객체가 위치한 공간 간의 기하학적 상관관계를 통해 대응점으로부터 객체의 좌표를 계산할 수 있다. 이 과정에서 카메라 행렬이 필요하며 대응점과 카메라 행렬의 관계를 정립할 수 있다. 카메라 행렬은 기초행렬로부터 계산할 수 있지만 정확한 계산을 위해서는 충분히 많은 수의 대응점을 필요로 한다. 영상의 대응점들로부터 3D 위치 좌표를 계산하는 과정은, 특징점의 매칭쌍들로부터 기초행렬을 계산하고, 계산된 기초행렬로부터 카메라 행렬을 가정하며, 가정된 카메라 행렬을 이용해 GCP의 위치 좌표를 계산하고, GCP의 실측 좌표와 계산된 좌표를 비교하여 호모그래피 행렬을 계산하며, 호모그래피 행렬을 이용해 가정된 카메라 행렬을 보정하고, 보정된 카메라 행렬을 이용해 추적 개체 대응점의 위치 좌표를 계산한다.In order to calculate the 3D position coordinates from the images, corresponding points in the two images are required. When a point on the real space and its corresponding point on the image plane are located, the coordinates of the object can be calculated from the corresponding point through a geometric correlation between the image plane where the corresponding point is located and the space where the object is located. In this process, a camera matrix is required, and the relationship between the corresponding points and the camera matrix can be established. The camera matrix can be calculated from the basis matrix, but a sufficiently large number of correspondence points are required for accurate calculation. The process of calculating 3D position coordinates from the corresponding points of the image calculates a basis matrix from matching pairs of feature points, assumes a camera matrix from the calculated basis matrix, calculates the position coordinates of the GCP using the assumed camera matrix, , The homography matrix is calculated by comparing the measured coordinates with the calculated coordinates of the GCP, the assumed camera matrix is calibrated using the homography matrix, and the location coordinates of the corresponding point of the tracked object are calculated using the calibrated camera matrix.

카메라 행렬 계산을 위해 기초행렬이 사용된다. 기초행렬로부터 카메라 행렬을 가정하고, GCP를 이용하여 이를 보정한다. 카메라 행렬과 기초행렬의 관계로부터 최초 카메라 행렬을 가정하고, 가정된 카메라 행렬을 이용해 재구성(Reconstruction)된 장면의 위치 좌표와 실측 위치 좌표(GCP) 간의 기하학적 관계를 이용해 카메라 행렬을 다시 보정한다. 스테레오 영상에서 여러 개의 대응점을 이용하여 유일한 기초행렬이 정해졌다면 기초행렬과 해당 대응점을 이용하여 카메라와 각 대응점의 3D 위치를 재구성할 수 있다. 오차를 최대한 제거한 형태로 재구성하기 위해서는 카메라 행렬의 보정이 필요하며 이보정을 위해 호모그래피 행렬(Homography matrix)을 사용한다. 호모그래피 행렬은 실측된 3D 위치 좌표를 이용해 계산할 수 있으며 GCP를 활용하여 이를 계산할 수 있다.A base matrix is used to calculate the camera matrix. A camera matrix is assumed from the basis matrix, and it is corrected using GCP. The first camera matrix is assumed from the relationship between the camera matrix and the base matrix, and the camera matrix is calibrated again using the geometric relationship between the position coordinates of the reconstructed scene and the GCP using the assumed camera matrix. If a unique elementary matrix is determined using several corresponding points in a stereo image, the 3D position of the camera and each corresponding point can be reconstructed using the elementary matrix and the corresponding corresponding points. In order to reconstruct the image in a form in which errors are maximally removed, correction of the camera matrix is required, and a homography matrix is used for this correction. The homography matrix can be calculated using actually measured 3D position coordinates and can be calculated using GCP.

보정된 카메라 행렬과 3D 위치 좌표 계산을 위한 영상의 대응점들이 주어졌다면 삼각화(Triangulation)을 통해 3D 위치 좌표를 계산할 수 있다. 3D 위치 좌표 계산을 위해 선형 삼각화(Linear triangulation) 방법을 사용한다. 삼각화 방법은 실제 3D 공간상의 한 점이 영상에 투영되어 생긴 대응점으로부터 한 점의 위치 좌표를 계산하는 방법이다. 물론 상술한 방법 이외에도 다양한 방법으로 각 객체를 추적할 수 있으며 간단하게는 YOLO를 이용하여 각 객체를 추적할 수도 있고 지능형 CCTV를 이용하여 각 객체를 추적할 수도 있다. 이렇게 객체를 식별 및 추적했다면, 산업재해 안전보건 가이드라인 또는 정부지침을 근거로 어떠한 상태가 산업재해 위험도가 높은 상태인지 또는 낮은 상태인지, 또 어떠한 행위가 법을 위반하는 위험한 행위인지 등을 정의한 후 그러한 상태나 행동이 보이는 경우 바로 위험알림을 제공할 수 있다.If the corrected camera matrix and corresponding points of the image for calculating 3D position coordinates are given, 3D position coordinates can be calculated through triangulation. A linear triangulation method is used to calculate 3D position coordinates. The triangulation method is a method of calculating the positional coordinates of a point from a corresponding point created by projecting a point on an actual 3D space onto an image. Of course, each object can be tracked in various ways other than the above method, and each object can be simply tracked using YOLO or each object can be tracked using intelligent CCTV. If the object is identified and tracked in this way, based on the Industrial Accident Safety and Health Guidelines or government guidelines, it is defined which state is a high or low industrial accident risk state, and which actions are dangerous actions that violate the law. Hazard notifications can be provided immediately when such conditions or behaviors are seen.

출력부(330)는, 적어도 하나의 인공지능 알고리즘으로부터 위험 이벤트가 출력되는 경우 적어도 하나의 출력 단말(400)로 위험 이벤트를 전송할 수 있다. 적어도 하나의 출력 단말(400)은, 적어도 하나의 입력 단말(100)의 영상으로 분석된 위험 이벤트를 출력할 수 있다.The output unit 330 may transmit a risk event to at least one output terminal 400 when a risk event is output from at least one artificial intelligence algorithm. At least one output terminal 400 may output a risk event analyzed as an image of at least one input terminal 100 .

<충돌위험도 판별><Identification of collision risk>

합리적인 위험도 판단을 위해 위험도 평가지수를 설정할 수 있다. 위험도 판단은 거리기반의 지수(Distance To Collision, DTC)와 시간기반의 지수(Time To Collision, TTC)를 이용하여 최종 위험도를 판별하는 알고리즘으로 구성될 수 있다. TTC를 함께 고려하여, 물체가 멀리 있더라도 속도가 빠르면 위험도를 증가시키는 알고리즘을 정의할 수 있다. 일반적으로 TTC는 중장비의 속도 등의 정보가 주어져야 한다. 선회 동작이 없는 지게차 등의 경우에도 장비 자체의 이동 속도로 대체하여 일반적으로 적용 가능하다. TTC 및 DTC의 계산은 이하 수학식 1 및 수학식 2로 가능하며 TTC는 물체와의 충돌예측시간, x는 사용가능한 감속도를 이용하여 정지할 수 있는 거리정보와 현재 물체와의 거리를 이용한 지수를 나타낸다. 이는 일반적인 공지기술이므로 상세히 설명하지 않는다.A risk assessment index can be set for a reasonable risk assessment. The risk determination may be composed of an algorithm that determines the final risk using a distance-based index (Distance To Collision, DTC) and a time-based index (Time To Collision, TTC). Considering the TTC together, it is possible to define an algorithm that increases the risk if the speed is high even if the object is far away. In general, TTC should be given information such as the speed of heavy equipment. Even in the case of a forklift without a turning motion, it can be generally applied by replacing it with the moving speed of the equipment itself. TTC and DTC can be calculated by Equation 1 and Equation 2 below, where TTC is the collision prediction time with the object, x is the index using the distance information that can be stopped using the available deceleration and the distance to the current object indicates Since this is a general known technology, it will not be described in detail.

Figure 112021096938248-pat00001
Figure 112021096938248-pat00001

Figure 112021096938248-pat00002
Figure 112021096938248-pat00002

<장비-근로자 충돌 사고위험><Risk of equipment-worker collision>

장비-근로자 간 충돌 사고위험은 상술한 전통적인 TTC 개념을 기초로 수집가능한 위치정보를 접목하여 유클라디언 거리(Euclidean Distance) 기반의 TTCP(Position)를 이용할 수 있다. TTCP 산출식과 식을 구성하는 지표의 산출방법은 아래와 같다 The risk of collision between equipment and workers can use TTCP (Position) based on Euclidean distance by combining collectable location information based on the traditional TTC concept described above. The TTCP calculation formula and the calculation method of the indicators constituting the formula are as follows.

Figure 112021096938248-pat00003
Figure 112021096938248-pat00003

이때, lmin,t는 근로자와 이동장비 사이의 최소 유클라디안 거리이고, (xp,t, yp,t)는, 임의의 시간 t에서 근로자 위치, (xe,t, ye,t)는 임의의 시간 t에서 장비 위치이다.where lmin,t is the minimum Euclidean distance between the worker and the mobile device, (xp,t, yp,t) is the worker's position at any time t, (xe,t, ye,t) is any is the equipment position at time t.

Figure 112021096938248-pat00004
Figure 112021096938248-pat00004

t는 기준 시간이고, lr,t는 시간 t에서의 상대거리(Relative Distance), vr,△t는, 시간 t에서의 상대거리 감소속도(Reduction rate of Relative Distance at Time t)이다. t is the reference time, lr,t is the relative distance at time t, and vr,Δt is the reduction rate of relative distance at time t.

<낙하물 사고><Falling Object Accident>

에이프런 내 안벽크레인이 위치한 작업구역에서는 크레인의 스프레더에 의해 컨테이너의 양·적하 작업이 수행된다. 고중량의 컨테이너를 야드 트랙터로 또는 그 반대로 운반시키는 반복 작업이 수행되기 때문에 예측이 불가한 장비 파손 등의 사유로 인한 사고위험이 항상 존재하고 있는 구역이다. 이러한 사유로 발생하는 사고 유형은 크게 2가지로 구분할 수 있다. 첫째, 장비 측면의 대책 방안으로 장비상태 정기 및 수시 점검, 생애주기 관리, 작업환경 관리 등 사전에 필수적으로 시행하여 사고를 예방하는 방안이다. 둘째, 근로자 측면에서의 대책 방안으로 사전 준비운동, 위험구역 접근 금지, 위험작업 간 부주의 금지, 작업절차 준수 등 근로자의 행태를 교정하여 사고를 예방하는 방안이다. 여기서 장비 측면의 대책 방안은 사고율을 낮출 수는 있지만 장비의 노후화, 점검상태 불량 등은 일반적인 체크리스트 수준에 그치기 때문에 우발적으로 발생하는 사고에 대처하기 어렵고 특히 보다 사고위험에 취약한 낙후된 터미널에서는 원천적인 사고예방에 제한적일 수밖에 없다. In the work area where the quay crane is located in the apron, container loading and unloading work is performed by the spreader of the crane. This is an area where there is always a risk of accident due to reasons such as unpredictable equipment damage because repetitive work of transporting heavy containers by yard tractor or vice versa is performed. Accidents caused by these reasons can be divided into two main categories. First, as a countermeasure plan in terms of equipment, it is a plan to prevent accidents by essentially implementing in advance, such as regular and occasional inspection of equipment condition, life cycle management, and work environment management. Second, as a countermeasure from the perspective of workers, it is a plan to prevent accidents by correcting workers' behavior, such as preparatory exercise, prohibition of access to dangerous areas, prohibition of carelessness during dangerous work, and compliance with work procedures. Here, countermeasures on the equipment side can reduce the accident rate, but equipment obsolescence and poor inspection status are only at the level of a general checklist. Accident prevention is bound to be limited.

따라서 해당 유형의 사고를 예방할 수 있는 최선의 방법은 근로자 관점에서 사전에 위험 구역으로부터 회피할 수 있도록 유도하는 방안이다. 낙하물 사고위험 검지 알고리즘은 위험구역으로의 접근을 단계별로 검지하여 위험상황을 알려주는 알고리즘이다. 위험구역으로의 진입을 알려주기 위해 검지 알고리즘을 총 5단계로 구성할 수 있다. 각 단계는 Level 0(Blue, 안전), Level1(Green, 관심), Level 2(Yellow, 주의), Level 3(Orange, 경고), Level 4(Red, 위험)의 5단계로 구성될 수 있고, 정성적, 공학적으로 판단할 수 있는 기준을 토대로 설정할 수 있다.Therefore, the best way to prevent this type of accident is to induce workers to avoid the danger zone in advance from the point of view of workers. Falling object accident risk detection algorithm is an algorithm that informs the dangerous situation by detecting the approach to the dangerous area step by step. In order to inform the entry into the danger zone, the detection algorithm can be composed of a total of 5 steps. Each level can be composed of 5 levels: Level 0 (Blue, Safety), Level 1 (Green, Interest), Level 2 (Yellow, Caution), Level 3 (Orange, Warning), and Level 4 (Red, Danger). It can be set based on criteria that can be judged qualitatively and engineeringly.

사각지대제거부(340)는, 적어도 하나의 입력 단말(100)로부터 수신된 영상을 분석하여 현장 내 사각지대를 최소화할 수 있다. 적어도 하나의 입력 단말(100)은, 유무선 CCTV, 스마트글래스(Glass) 및 액션캠을 포함할 수 있다. 이를 위하여, 사각지대제거부(340)는, 수치지형 모델(Digital Terrain Models, DTM)을 이용한 GIS 기법과 현장정보의 연계를 이용할 수 있다. 물론, DEM(Digital Elevation Models), DSM(Digital Surface Models) 및 TIN(Triangular Irregular Networks)을 이용할 수도 있다. 사각지대제거부(340)는 수치 지형 모델을 컴퓨터에 지형도나 항공사진으로부터 얻어진 지형데이터를 입력하여 DTM 모델로 변환 후 Viewshed Analysis Algorithm에 의해 자동적으로 가시, 비가시 지역을 검색할 수 있다. 이에 필요한 Visibility Analysis Basic Algorithm Model 알고리즘은 2가지 필수적 단계가 행해지며, 첫 번째는 관찰점으로부터 시정선이 목표와 교차하는 그리드 DEM의 수평적 위치를 검색하는 것이고, 두 번째는 시정선과 교차하는 DEM의 표고를 비교하는 것이다. The blind spot removal unit 340 may minimize blind spots in the field by analyzing an image received from at least one input terminal 100 . At least one input terminal 100 may include a wired and wireless CCTV, a smart glass, and an action cam. To this end, the blind spot removal unit 340 may use a link between a GIS technique using digital terrain models (DTM) and field information. Of course, Digital Elevation Models (DEMs), Digital Surface Models (DSMs), and Triangular Irregular Networks (TINs) may be used. The blind spot removal unit 340 inputs terrain data obtained from a topographical map or aerial photograph to a computer, converts the digital terrain model into a DTM model, and then automatically searches for visible and invisible areas by Viewshed Analysis Algorithm. The Visibility Analysis Basic Algorithm Model algorithm required for this is performed in two essential steps. The first is to retrieve the horizontal position of the grid DEM where the line of sight intersects the target from the observation point, and the second is to find the horizontal position of the DEM where the line of sight intersects the line of sight. to compare elevations.

후자가 더 높다면 다음 교차점을 찾는 것을 계속할 것이고, 그렇지 않다면 목표는 관찰점으로부터 비가시지역이 되며 다른 목표를 찾는 것을 계속 진행 하게 된다. 이 과정에서 그리드의 표고를 추론하는 방법과 시정선 비교를 위한 선의 수와 위치의 결정은 매우 중요한 요소가 된다. 유사하게 그리드 셀 구조가 관찰점과 목표에 대해 해석되는 방식과 전체 DEM은 항상 중요성을 갖는다. 표고가 계산되어지는 두 번째 단계는 결정 단계이므로 가시권을 찾는데 중요한 단계이다. 또한 건물정보 연계를 통하여 높이 값을 적용하여 CCTV의 위치 및 가시 정보와 분석을 통해 CCTV 주변 가시권 영역 정보를 생성할 수 있다. 이를 통하여, 사각지대제거부(340)는 비가시지역 및 경로를 파악할 수 있으며 이를 지도상에 표시할 수 있다.If the latter is higher then it will continue looking for the next intersection, otherwise the target will be invisible from the observation point and will continue looking for another target. In this process, the method of inferring the elevation of the grid and the determination of the number and location of lines for line-of-sight comparison are very important factors. Similarly, the way the grid cell structure is interpreted with respect to observation points and targets and the overall DEM is always of importance. The second step in which the elevation is computed is the determining step, so it is an important step in finding visibility. In addition, by applying the height value through the building information linkage, it is possible to generate information on the visible area around the CCTV through analysis of the location and visibility information of the CCTV. Through this, the blind spot removal unit 340 can determine the non-visible area and route and display them on the map.

표시부(350)는, 기상정보, 안전수칙위반사항 및 기 설정된 위험도 계산식으로 산출된 재해발생위험도를 출력하도록 한다. 적어도 하나의 출력 단말(400)은 위험발생 이벤트를 출력하는 모니터, 스피커, 레이저지시등 및 사용자 단말을 포함할 수 있다. 레이저지시등은 적어도 하나의 색상으로 광원을 조사하는 장치이고, 위험등급별 서로 다른 색상으로 조사되도록 제어될 수 있다.The display unit 350 outputs weather information, safety rule violations, and disaster risk calculated by a predetermined risk calculation formula. At least one output terminal 400 may include a monitor, a speaker, a laser indicator, and a user terminal that outputs a risk occurrence event. The laser indicator is a device that irradiates a light source with at least one color, and can be controlled to emit different colors for each risk level.

예측부(360)는, 작업자, 자재 또는 장비의 이동방향을 예측하고 추적하는 트래킹 알고리즘을 이용하여 충돌 여부를 감지하고, 자재 또는 장비의 수직축 및 수평축의 측정으로 기울기의 변위를 확인하여 전복 가능성을 예측할 수 있다. The prediction unit 360 detects whether or not there is a collision using a tracking algorithm that predicts and tracks the moving direction of workers, materials or equipment, and checks the displacement of the tilt by measuring the vertical and horizontal axes of the material or equipment to determine the possibility of overturning. Predictable.

환경감지부(370)는, 기상정보를 수집하여 야외작업의 경우 기온, 강수량, 강설량, 풍속 및 미세먼지를 포함하는 작업유해요소를 식별하고, 추락구간, 협착위험구간 및 낙하물 발생위험구간을 포함한 현장 내 위험구간에 안전시설 설치유무를 확인할 수 있다.The environmental detection unit 370 collects weather information to identify work hazards including temperature, precipitation, snowfall, wind speed, and fine dust in the case of outdoor work, and includes fall sections, constriction risk sections, and falling object risk sections. It is possible to check the presence or absence of safety facilities in the danger zone of the site.

위반감시부(380)는, 적어도 하나의 법규 및 규정을 적용하여 작업장 내 위반사항을 체크하고, 동일 사업장의 주의, 경계 및 위험 발생횟수를 데이터베이스로 누적하여 작업장 간 위험성을 비교평가할 수 있다.The violation monitoring unit 380 may check violations in the workplace by applying at least one law or regulation, and compare and evaluate risks between workplaces by accumulating the number of occurrences of caution, alert, and risk in the same workplace as a database.

이하, 상술한 도 2의 안전관리 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the above-described safety management service providing server of FIG. 2 will be described in detail with reference to FIGS. 3 and 4 as examples. However, it will be apparent that the embodiment is only any one of various embodiments of the present invention, and is not limited thereto.

도 3을 참조하면, (a) 안전관리 서비스 제공 서버(300)는 빅데이터 및 인공지능을 이용하여 유사 산업재해에 대한 반복적인 사고가 발생하지 않도록 모델링 후 질의로 실시간 영상을 넣어 사고를 방지하도록 작업자(근로자)에게 대피명령을 제공할 수 있다. 또, (b) 안전관리 서비스 제공 서버(300)는 입력영상을 수신한 후 객체를 추출하고 위치, 크기, 방향, 속도 등을 이용하여 이동방향 및 속도를 계산하고 이를 각 출력 단말(400)로 제공한다. (c) 안전관리 서비스 제공 서버(300)는 법규위반을 감시하여 작업자에게 경고를 줄 수도 있고, (d) 이동경로를 예측하여 사고를 미연에 방지할 수도 있다.Referring to FIG. 3, (a) the safety management service providing server 300 uses big data and artificial intelligence to prevent accidents by inserting real-time video as a query after modeling so that repetitive accidents for similar industrial accidents do not occur. An evacuation order can be given to workers (workers). In addition, (b) after receiving the input image, the safety management service providing server 300 extracts the object, calculates the moving direction and speed using the location, size, direction, speed, etc., and sends it to each output terminal 400. to provide. (c) The safety management service providing server 300 may monitor violations of laws and give warnings to workers, and (d) predict movement routes to prevent accidents in advance.

<건설현장><Construction site>

도 4a와 같은 건설현장을 P1 내지 P4 구역으로 나눈다고 가정한다. P1 구간에서는, 입력 단말(100)에서 레미콘 차량의 이동 및 작업자의 이동을 촬영하여 안전관리 서비스 제공 서버(300)로 전달하고, 안전관리 서비스 제공 서버(300)는 차량이동속도, 방향을 계산하고, 작업자의 이동방향을 예측하여 사고발생위험을 판단한다. 또, 차량진행시 진행방향을 예측하고 사고발생위험을 판단한다. 출력 단말(400)은 차량, 보행자, 차도 구분이 미비하거나 구간의 작업 위험도 및 경고 발생 횟수를 모니터에 표시하고, 경보 시스템을 통하여 차량 작업자에게 전달할 수 있다. 차량 대 차량 충돌 시 위험경보를 발령할 수도 있다. 그리고 관리자에게 문자를 발송할 수도 있다.It is assumed that the construction site as shown in FIG. 4a is divided into zones P1 to P4. In the P1 section, the movement of the ready-mixed concrete vehicle and the movement of workers are photographed at the input terminal 100 and transmitted to the safety management service providing server 300, and the safety management service providing server 300 calculates the vehicle movement speed and direction, , It predicts the movement direction of workers and determines the risk of accidents. In addition, it predicts the direction of vehicle movement and determines the risk of an accident. The output terminal 400 may display the operation risk level and the number of warnings generated in a section where vehicle, pedestrian, or roadway classification is insufficient or may be transmitted to a vehicle operator through an alarm system. In the event of a vehicle-to-vehicle collision, a hazard warning can be issued. You can also send text messages to administrators.

P2 구간에서는 작업자 출입금지구간(기계동작구간)인데 근로자가 접근하는 것을 확인하면 입력 단말(100)에서 이를 촬영하여 안전관리 서비스 제공 서버(300)로 전달하고, 안전관리 서비스 제공 서버(300)는 접근금지시설 설치여부(법 위반사항), 작업자 보호구 착용여부(안전모, 안전화, 안전벨트), 작업자 부주의 여부를 확인하고, 출력 단말(400)을 통하여 접근금지시설, 해당 구간의 작업 위험도, 경고 발생 횟수를 카운트하여 모니터로 알려준다. 또 경보 시스템이나 지향형 스피커, 레이저지시등 등을 이용하여 작업자에게 경보를 발령하고 관리자 단말로 문자를 발송한다.In the P2 section, it is a worker access prohibited section (machine operation section), and when it is confirmed that the worker is approaching, the input terminal 100 takes a picture and transmits it to the safety management service providing server 300, and the safety management service providing server 300 It checks whether or not the access restriction facility is installed (law violation), whether the worker is wearing protective gear (hard hat, safety shoes, seat belt), whether the worker is careless, and through the output terminal 400, the access restriction facility, the work risk level of the section, and a warning occurs The number of times is counted and notified by the monitor. In addition, an alarm is issued to the operator using an alarm system, a directional speaker, or a laser indicator, and a text message is sent to the manager's terminal.

P3 구간에서는 현장 바닥에서 작업자가 작업중인 것을 입력 단말(100)에서 촬영한 후 안전관리 서비스 제공 서버(300)로 보낸다. 안전관리 서비스 제공 서버(300)는 작업자 보호구 착용여부를 확인하고 작업자 부주의를 파악하며 출력 단말(400)에서는 모니터로 보호구 미착용 발생을 알리며 작업위험도 및 경고 발생 횟수를 갱신한다. 경보 시스템, 지향형 스피커, 레이저지시등 등으로는 작업자에게 경보를 발령하고 관리자에게 문자를 발송한다. P4 구간은 하이드로 크레인 자재인상 작업중이라고 가정하면, 안전관리 서비스 제공 서버(300)에서 입력 단말(100)로부터 촬영 데이터를 실시간으로 수신하고, 안전관리 서비스 제공 서버(300)는 주변 통제 여부, 즉 자재 인양구간 출입금지 법위반사항을 체크하고, 크레인 수평유지여부(수평유지 불량시 전도 및 도괴), 주변 자재인양 작업계획서 제출 및 신호수 배치 여부(법위반사항)을 확인한다. 안전관리 서비스 제공 서버(300)는 출력 단말(400)로 크레인 수평 파괴, 해당 구간 작업 위험도 및 경고 발생 횟수를 모니터에 출력하고, 경보 시스템, 스피커, 스마트폰 등으로 전 현장작업자에게 경보를 발령하고 스마트폰으로 해당 사항 관리자 및 안전보건 총괄 책임자에게 문자를 발송한다.In the P3 section, the input terminal 100 takes a picture of a worker working on the site floor and sends it to the safety management service providing server 300 . The safety management service providing server 300 checks whether workers wear protective gear, detects worker negligence, informs the occurrence of not wearing protective gear through a monitor at the output terminal 400, and updates the work risk level and the number of warnings. Alarm systems, directional speakers, and laser indicators alert workers and send text messages to managers. Assuming that the P4 section is in the process of raising a material by a hydro crane, the safety management service providing server 300 receives photographing data from the input terminal 100 in real time, and the safety management service providing server 300 determines whether the surroundings are controlled, that is, the material Check for violations of the law prohibiting entry into the lifting section, check whether the crane is leveled (overturn or collapse in case of poor leveling), submit a work plan for lifting surrounding materials, and check whether a signalman is placed (violation of the law). The safety management service providing server 300 outputs the horizontal destruction of the crane, the risk level of the corresponding section, and the number of warnings to the monitor through the output terminal 400, issues an alarm to all field workers through an alarm system, speaker, smart phone, etc. Send a text message to the manager and safety and health general manager on the smartphone.

<제조업><Manufacturing>

안전관리 서비스 제공 서버(300)는 P1 구간에서 회전체 주변 작업자가 작업중인 것을 입력 단말(100)을 통하여 촬영 데이터로 수신하고, 안전관리 서비스 제공 서버(300)는 회전체 밀림방지 안전조치 미비(법 위반사항)를 확인하고, 안전보호구 미착용(근로자 부주의)을 확인하며, 작업자 진행방향 바닥 장애물 유무(작업자 넘어짐, 위험)를 확인한다. 그리고, 안전관리 서비스 제공 서버(300)는 출력 단말(400)로, 회전체 밀림방지 안전조치 미비, 작업 구간 작업위험도, 경고 발생 횟수를 모니터로 제공하고, 경보시스템, 지향형 스피커, 레이저로 작업자 경보를 발령하며, 스마트폰으로 관리자에게 문자를 발송한다.The safety management service providing server 300 receives the work of the worker around the rotating body as photographed data through the input terminal 100 in the P1 section, and the safety management service providing server 300 lacks safety measures to prevent the rotating body from rolling ( law violations), check not wearing safety gear (carelessness of workers), and check whether there are floor obstacles in the direction of workers (worker falls, danger). In addition, the safety management service providing server 300 provides the output terminal 400 with a monitor for the lack of safety measures to prevent rolling back of the rotating body, the work risk level in the work section, and the number of warnings, and alerts the worker with an alarm system, directional speaker, and laser. is issued, and a text message is sent to the administrator on the smartphone.

안전관리 서비스 제공 서버(300)는 P2 구간에서 입력 단말(100)을 통하여 단차발생구간(추락위험구간)에 근로자가 접근중인 것을 확인하고, 안전관리 서비스 제공 서버(300)는 안전난간 설치여부(법위반사항), 작업자보호구 착용여부(작업자 부주의)를 확인하며, 출력 단말(400)로 난간 미설치, 해당 구간 작업위험도, 경고발생횟수를 모니터로 제공하고, 경보시스템, 지향형 스피커 및 레이저지시등으로 작업자에게 경보를 발령하며 스마트폰으로 관리자에게 문자전송을 한다. P3 구간에서는 안전관리 서비스 제공 서버(300)는 벤트리 크레인 인양작업을 입력 단말(100)부터 수신하여 확인하고, 안전관리 서비스 제공 서버(300)는 주변 통제여부(자재 인양구간 출입금지 법위반사항), 주변 자재인양 작업계획서 제출 및 신호수 배치여부(법위반사항)을 확인한 후 출력 단말(400)로 주변 통제 여부, 해당 구간 작업 위험도 및 경고 발생 횟수를 모니터를 통하여 출력하고, 관리자에게 문자를 발송할 수 있다.The safety management service providing server 300 checks that the worker is accessing the step occurrence section (fall risk section) through the input terminal 100 in the P2 section, and the safety management service providing server 300 checks whether or not the safety handrail is installed ( Violation of law), checks whether workers are wearing protective gear (carelessness of workers), provides the output terminal (400) for no railings, work risk in the corresponding section, and the number of warnings as a monitor, and provides workers with an alarm system, directional speaker, and laser indicator An alert is issued to the manager and a text message is sent to the manager via smartphone. In the P3 section, the safety management service providing server 300 receives and confirms the lifting operation of the ventry crane from the input terminal 100, and the safety management service providing server 300 controls whether or not the surroundings are controlled (violation of the law prohibiting entry to the lifting section of the material). , After submitting a work plan for lifting surrounding materials and confirming whether a signalman is placed (violation of the law), the output terminal 400 outputs whether or not the surroundings are controlled, the risk level of the section, and the number of warnings generated through the monitor, and sends a text message to the manager. there is.

P4 구간에는 안전관리 서비스 제공 서버(300)는 입력 단말(100)을 통하여 공장기둥(수직부재)에 변형이 발생했다는 것을 확인하고, 붕괴시 피해범위를 계산하고 변형을 계산으로 붕괴위험을 예측한다. 안전관리 서비스 제공 서버(300)는 출력 단말(400)인 모니터를 통하여 수직부재 변형 및 파괴, 해당구간 작업위험도 및 경고발생횟수를 제공하고, 경보 시스템, 지향형 스피커 및 스마트폰으로 전 작업장 근로자 대피경보를 발령하며, 스마트폰으로 관리자 및 안전보건 총괄책임자에게 문자를 발송한다.In the P4 section, the safety management service providing server 300 confirms that deformation has occurred in the factory pillar (vertical member) through the input terminal 100, calculates the damage range in case of collapse, and predicts the risk of collapse by calculating the deformation . The safety management service providing server 300 provides vertical member deformation and destruction, work risk in the corresponding section, and the number of warnings through a monitor, which is an output terminal 400, and alerts workers in all workplaces with an alarm system, a directional speaker, and a smartphone. is issued, and a text message is sent to the manager and safety and health general manager via smartphone.

이와 같은 도 2 내지 도 4의 스마트 지능형 안전관리 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 스마트 지능형 안전관리 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not described in the smart intelligent safety management service provision method of FIGS. 2 to 4 are the same as or easily inferred from the description of the smart intelligent safety management service provision method through FIG. 1 above. Therefore, the following description is omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 스마트 지능형 안전관리 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.5 is a diagram illustrating a process of transmitting and receiving data between each component included in the smart intelligent safety management service providing system of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process of transmitting and receiving data between each component will be described through FIG. 5, but the present application is not limited to such an embodiment, and according to various embodiments described above, It is obvious to those skilled in the art that a process of transmitting and receiving data may be changed.

도 5를 참조하면, 안전관리 서비스 제공 서버는, 적어도 하나의 입력 단말로부터 수신된 영상을 수신한다(S5100).Referring to FIG. 5 , the safety management service providing server receives an image received from at least one input terminal (S5100).

안전관리 서비스 제공 서버는, 영상을 적어도 하나의 종류의 인공지능 알고리즘에 질의(Query)로 입력하고(S5200), 적어도 하나의 인공지능 알고리즘으로부터 위험 이벤트가 출력되는 경우 적어도 하나의 출력 단말로 위험 이벤트를 전송 ㅎ하한다(S5300).The safety management service providing server inputs the image as a query to at least one type of artificial intelligence algorithm (S5200), and when a dangerous event is output from the at least one artificial intelligence algorithm, the dangerous event is output to at least one output terminal. It transmits ㅎ Ha (S5300).

상술한 단계들(S5100~S5300)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5300)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps (S5100 to S5300) is only an example, and is not limited thereto. That is, the order of the above-described steps (S5100 to S5300) may be mutually changed, and some of the steps may be simultaneously executed or deleted.

이와 같은 도 5의 스마트 지능형 안전관리 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 스마트 지능형 안전관리 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not described in the smart intelligent safety management service provision method of FIG. 5 are the same as or easily inferred from the description of the smart intelligent safety management service provision method through FIGS. 1 to 4 above. Therefore, the following description is omitted.

도 5를 통해 설명된 일 실시예에 따른 스마트 지능형 안전관리 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The smart intelligent safety management service providing method according to an embodiment described with reference to FIG. 5 may be implemented in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer. . Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 스마트 지능형 안전관리 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 스마트 지능형 안전관리 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The above-described smart intelligent safety management service providing method according to an embodiment of the present invention may be executed by an application basically installed in the terminal (this may include a program included in a platform or operating system, etc. basically loaded in the terminal). and may be executed by an application (that is, a program) directly installed in the master terminal by a user through an application providing server such as an application store server, an application or a web server related to the corresponding service. In this sense, the smart intelligent safety management service providing method according to an embodiment of the present invention described above is implemented as an application (ie, a program) that is basically installed in a terminal or directly installed by a user and can be read by a computer such as a terminal. can be recorded on a recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (7)

공사현장과 제조현장에서 발생되는 산업재해를 막기 위한 스마트 지능형 안전관리 서비스 제공 시스템에 있어서,
적어도 하나의 종류의 카메라를 이용하여 상기 공사현장과 제조현장에서 촬영한 영상을 실시간으로 출력하는 적어도 하나의 입력 단말;
상기 적어도 하나의 입력 단말의 상기 공사현장과 제조현장에서 촬영한 영상으로 분석된 위험 이벤트를 출력하는 적어도 하나의 출력 단말; 및
상기 적어도 하나의 입력 단말로부터 수신된 상기 공사현장과 제조현장에서 촬영한 영상을 수신하는 수신부와, 상기 수신된 영상을 적어도 하나의 종류의 인공지능 알고리즘에 질의(Query)로 입력하는 입력부와, 상기 적어도 하나의 인공지능 알고리즘으로부터 위험 이벤트가 출력되는 경우 상기 적어도 하나의 출력 단말로 상기 위험 이벤트를 전송하는 출력부와, 상기 적어도 하나의 입력 단말로부터 수신된 상기 공사현장과 제조현장에서 촬영한 영상을 분석하여 현장 내 사각지대를 최소화하는 사각지대제거부와, 상기 공사현장과 제조현장에서 작업자, 자재 및 장비의 이동방향을 예측하고 추적하는 트래킹 알고리즘을 이용하여 충돌 여부를 감지하고, 상기 자재 또는 장비의 수직축 및 수평축의 측정으로 기울기의 변위를 확인하여 전복 가능성을 예측하는 예측부를 포함하는 안전관리 서비스 제공 서버;
를 포함하는 스마트 지능형 안전관리 서비스 제공 시스템.
In the smart intelligent safety management service providing system to prevent industrial accidents occurring at construction sites and manufacturing sites,
At least one input terminal for outputting in real time an image taken at the construction site and the manufacturing site using at least one type of camera;
At least one output terminal for outputting a risk event analyzed by the image taken at the construction site and the manufacturing site of the at least one input terminal; and
A receiving unit receiving the image taken at the construction site and manufacturing site received from the at least one input terminal; an input unit inputting the received image into at least one type of artificial intelligence algorithm as a query; When a dangerous event is output from at least one artificial intelligence algorithm, an output unit for transmitting the dangerous event to the at least one output terminal, and images taken at the construction site and manufacturing site received from the at least one input terminal By using a blind spot removal unit that analyzes and minimizes blind spots in the field, and a tracking algorithm that predicts and tracks the movement direction of workers, materials, and equipment at the construction site and manufacturing site, collision is detected, and the material or equipment is detected. A safety management service providing server including a predictor for predicting the possibility of overturning by checking the displacement of the inclination by measuring the vertical and horizontal axes of the;
A smart intelligent safety management service providing system that includes a.
삭제delete 제 1 항에 있어서,
상기 적어도 하나의 출력 단말은 상기 위험 이벤트를 출력하는 모니터, 스피커, 레이저지시등 및 사용자 단말을 포함하고,
상기 안전관리 서비스 제공 서버는,
기상정보, 안전수칙위반사항 및 기 설정된 위험도 계산식으로 산출된 재해발생위험도를 출력하도록 하는 표시부;
를 더 포함하는 것을 특징으로 하는 스마트 지능형 안전관리 서비스 제공 시스템.
According to claim 1,
The at least one output terminal includes a monitor, a speaker, a laser indicator, and a user terminal for outputting the dangerous event,
The safety management service providing server,
A display unit for outputting weather information, safety rule violations, and disaster risk calculated by a preset risk calculation formula;
A smart intelligent safety management service providing system further comprising a.
제 3 항에 있어서,
상기 레이저지시등은 적어도 하나의 색상으로 광원을 조사하는 장치이고, 위험등급별 서로 다른 색상으로 조사되도록 제어되는 것을 특징으로 하는 스마트 지능형 안전관리 서비스 제공 시스템.
According to claim 3,
The laser indicator is a device for irradiating a light source with at least one color, and is controlled to be irradiated with different colors for each risk level.
삭제delete 제 1 항에 있어서,
상기 안전관리 서비스 제공 서버는,
기상정보를 수집하여 야외작업의 경우 기온, 강수량, 강설량, 풍속 및 미세먼지를 포함하는 작업유해요소를 식별하고, 추락구간, 협착위험구간 및 낙하물 발생위험구간을 포함한 현장 내 위험구간에 안전시설 설치유무를 확인하는 환경감지부;
를 더 포함하는 것을 특징으로 하는 스마트 지능형 안전관리 서비스 제공 시스템.
According to claim 1,
The safety management service providing server,
Weather information is collected to identify work hazards including temperature, precipitation, snowfall, wind speed, and fine dust in the case of outdoor work, and safety facilities are installed in risk zones within the site, including fall zones, constriction risk zones, and falling objects risk zones. Environment sensing unit to check the presence or absence;
A smart intelligent safety management service providing system further comprising a.
제 1 항에 있어서,
상기 안전관리 서비스 제공 서버는,
적어도 하나의 법규 및 규정을 적용하여 작업장 내 위반사항을 체크하고, 동일 사업장의 주의, 경계 및 위험 발생횟수를 데이터베이스로 누적하여 작업장 간 위험성을 비교평가하는 위반감시부;
를 더 포함하는 것을 특징으로 하는 스마트 지능형 안전관리 서비스 제공 시스템.
According to claim 1,
The safety management service providing server,
A violation monitoring unit that checks for violations in the workplace by applying at least one law and regulation, and compares and evaluates the risk between workplaces by accumulating the number of occurrences of caution, alertness, and risk in the same workplace as a database;
A smart intelligent safety management service providing system further comprising a.
KR1020210111036A 2021-08-23 2021-08-23 System for providing smart intelligence safety management service KR102500474B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210111036A KR102500474B1 (en) 2021-08-23 2021-08-23 System for providing smart intelligence safety management service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210111036A KR102500474B1 (en) 2021-08-23 2021-08-23 System for providing smart intelligence safety management service

Publications (1)

Publication Number Publication Date
KR102500474B1 true KR102500474B1 (en) 2023-02-17

Family

ID=85327520

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210111036A KR102500474B1 (en) 2021-08-23 2021-08-23 System for providing smart intelligence safety management service

Country Status (1)

Country Link
KR (1) KR102500474B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102595115B1 (en) * 2023-08-02 2023-10-27 단국대학교 산학협력단 Safety check monitoring system and method using location tracking information of individual workers in CCTV vision at the site of accident risk

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180095261A (en) * 2017-02-17 2018-08-27 주식회사 영신 IOT Based Safety Management System for Construction Site Using the RTLS and Video Control Technology
KR102056022B1 (en) * 2019-01-24 2019-12-13 동명대학교산학협력단 Wheelchair Fall Accident Response System
KR102091374B1 (en) * 2019-11-05 2020-03-19 유재준 Safety checking method for construction site
KR20200036531A (en) * 2018-09-28 2020-04-07 진현미 Construction site safety system based on rule setting and providing method thereof
KR102215566B1 (en) * 2020-05-25 2021-02-15 주식회사 핀텔 System for providing smart safe crosswalk service
KR102263145B1 (en) * 2020-08-25 2021-06-10 삼성엔지니어링 주식회사 Method and System for managing risk tasks in a construction site
KR20220063865A (en) * 2020-11-10 2022-05-18 대우조선해양 주식회사 System and method for vision managing of workplace and computer-readable recording medium thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180095261A (en) * 2017-02-17 2018-08-27 주식회사 영신 IOT Based Safety Management System for Construction Site Using the RTLS and Video Control Technology
KR20200036531A (en) * 2018-09-28 2020-04-07 진현미 Construction site safety system based on rule setting and providing method thereof
KR102056022B1 (en) * 2019-01-24 2019-12-13 동명대학교산학협력단 Wheelchair Fall Accident Response System
KR102091374B1 (en) * 2019-11-05 2020-03-19 유재준 Safety checking method for construction site
KR102215566B1 (en) * 2020-05-25 2021-02-15 주식회사 핀텔 System for providing smart safe crosswalk service
KR102263145B1 (en) * 2020-08-25 2021-06-10 삼성엔지니어링 주식회사 Method and System for managing risk tasks in a construction site
KR20220063865A (en) * 2020-11-10 2022-05-18 대우조선해양 주식회사 System and method for vision managing of workplace and computer-readable recording medium thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102595115B1 (en) * 2023-08-02 2023-10-27 단국대학교 산학협력단 Safety check monitoring system and method using location tracking information of individual workers in CCTV vision at the site of accident risk

Similar Documents

Publication Publication Date Title
CN109212520B (en) Road condition sensing abnormal event detection alarm system and method for omnibearing detection radar
Teizer et al. Autonomous pro-active real-time construction worker and equipment operator proximity safety alert system
Park et al. Hardhat-wearing detection for enhancing on-site safety of construction workers
Yan et al. Computer vision‐based recognition of 3D relationship between construction entities for monitoring struck‐by accidents
US10970851B2 (en) Operations monitoring in an area
Kim et al. Image-based construction hazard avoidance system using augmented reality in wearable device
CN110602449A (en) Intelligent construction safety monitoring system method in large scene based on vision
Chian et al. Computer vision approaches for detecting missing barricades
Xu et al. Dynamic safety prewarning mechanism of human–machine–environment using computer vision
Goh et al. Management of safe distancing on construction sites during COVID-19: A smart real-time monitoring system
Fullerton et al. Pro-active-real-time personnel warning system
Golovina et al. Towards autonomous cloud-based close call data management for construction equipment safety
CN113674523A (en) Traffic accident analysis method, device and equipment
CN114248819B (en) Railway intrusion foreign matter unmanned aerial vehicle detection method, device and system based on deep learning
US20230196895A1 (en) Method for monitoring state of wearing safety protective equipment and server for providing the method
KR102500474B1 (en) System for providing smart intelligence safety management service
Chian et al. Dynamic identification of crane load fall zone: A computer vision approach
Teizer et al. Automated collection, identification, localization, and analysis of worker-related proximity hazard events in heavy construction equipment operation
Huang et al. Skeleton-based automatic assessment and prediction of intrusion risk in construction hazardous areas
Fund Real-time proactive equipment operator and ground worker warning and alert system in steel manufacturing
CN114170272A (en) Accident reporting and storing method based on sensing sensor in cloud environment
KR102157201B1 (en) System and method for determining disastrous based on image and accident record analysis
KR102140195B1 (en) Method for detecting invasion of wild animal using radar and system thereof
JP2021163401A (en) Person detection system, person detection program, leaned model generation program and learned model
CN116704411A (en) Security control method, system and storage medium based on Internet of things

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant