KR20230094768A - 안전 보호구 착용 상태 모니터링 방법 및 그 방법을 제공하는 서버 - Google Patents

안전 보호구 착용 상태 모니터링 방법 및 그 방법을 제공하는 서버 Download PDF

Info

Publication number
KR20230094768A
KR20230094768A KR1020210184162A KR20210184162A KR20230094768A KR 20230094768 A KR20230094768 A KR 20230094768A KR 1020210184162 A KR1020210184162 A KR 1020210184162A KR 20210184162 A KR20210184162 A KR 20210184162A KR 20230094768 A KR20230094768 A KR 20230094768A
Authority
KR
South Korea
Prior art keywords
target worker
safety
wearing
safety equipment
worker
Prior art date
Application number
KR1020210184162A
Other languages
English (en)
Inventor
이진우
김대진
차동민
이준영
안건태
전형진
Original Assignee
주식회사 포스코
재단법인 포항산업과학연구원
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포스코, 재단법인 포항산업과학연구원, 포항공과대학교 산학협력단 filed Critical 주식회사 포스코
Priority to KR1020210184162A priority Critical patent/KR20230094768A/ko
Priority to US18/085,043 priority patent/US20230196895A1/en
Publication of KR20230094768A publication Critical patent/KR20230094768A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Evolutionary Computation (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Emergency Management (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Manufacturing & Machinery (AREA)

Abstract

실시예에 따른 안전 보호구 착용 상태 모니터링 방법은, 조업 현장에 설치된 현장 감시 장치로부터 영상을 수신하는 단계, 영상을 분석하여 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단하는 단계, 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단한 결과 위험 작업에 해당하는 경우, 목표 작업자 및 목표 작업자의 신체 영역을 검출하는 단계, 목표 작업자에게 요구되는 안전 보호구 종류를 판단하는 단계, 그리고 목표 작업자의 안전 보호구 착용 상태를 판단하는 단계를 포함한다.

Description

안전 보호구 착용 상태 모니터링 방법 및 그 방법을 제공하는 서버{METHOD FOR DETERMINING WHETHER TO WEAR PERSONAL PROTECTIVE EQUIPMENT AND SERVER FOR PERFORMING THE SAME}
본 개시는 안전 보호구 착용 상태 모니터링 방법 및 그 방법을 제공하는 서버에 관한 것이다.
일반적으로 산업 현장, 조업 현장 등에는 많은 작업자가 동시에 여러 작업을 진행하게 되므로, 현장에 내재된 다양한 위험 요소와 작업자의 사소한 부주의로 인한 안전 사고가 빈번하게 발생하고 있다. 안전 보호구는 위험 및 재해를 방지하기 위해서 작업자가 몸에 착용하는 기본적인 보호 장비로서, 예를 들어, 안전모, 안전대, 보호 장갑, 방독 마스크, 보호 장화 등을 포함한다.
한편, 화학용품을 취급하는 장소 등과 같이 위험 작업을 하는 작업자는 법적으로 상황에 맞는 안전보호구를 착용해야 하며, 이를 감시하고자 조업 현장에 다수의 CCTV를 설치하고 별도의 감시자를 배치하여 상시 모니터링을 하고 있으나, 현실적으로 모든 상황을 빠짐없이 감시하기는 어려운 상황이다.
이에, 인공지능 네트워크를 이용하여 CCTV 촬영 영상 등을 통해 화면 상에 등장하는 작업자의 안전보호구 착용 상태를 신뢰성 높은 결과로 판단할 수 있는 기술의 개발이 요구된다.
본 개시는 상기와 같은 문제점을 해결하기 위한 것으로, 영상 처리 시 인공지능 네트워크를 사용하여 작업자의 안전 보호구 착용 상태를 판단하기 위한 것이다.
본 개시는 촬영 영상 내에서 작업자 검출의 시작 조건을 설정하고, 조건을 충족하는 경우에만 안전 보호구 착용 상태를 판단하기 위한 것이다.
본 개시는 작업자의 안전 보호구 착용 상태를 보다 정확하게 판단하기 위한 것이다.
일 실시예에 따른 안전 보호구 착용 상태 모니터링 방법은, 조업 현장에 설치된 현장 감시 장치로부터 영상을 수신하는 단계, 영상을 분석하여 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단하는 단계, 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단한 결과 위험 작업에 해당하는 경우, 목표 작업자 및 목표 작업자의 신체 영역을 검출하는 단계, 목표 작업자에게 요구되는 안전 보호구 종류를 판단하는 단계, 그리고 목표 작업자의 안전 보호구 착용 상태를 판단하는 단계를 포함한다.
목표 작업자의 신체 영역은 머리 영역과 몸 영역을 포함하고, 목표 작업자에게 요구되는 안전 보호구 종류를 판단하는 단계는, 목표 작업자의 머리 영역과 몸 영역별로 각각 요구되는 안전 보호구 종류를 판단하는 단계를 포함할 수 있다.
목표 작업자의 안전 보호구 착용 상태를 판단하는 단계는, 목표 작업자가 작업을 수행하는 매 순간마다 목표 작업자의 안전 보호구 착용 상태를 판단하고, 판단 결과에 기초한 판단 결과 데이터를 누적하여 저장하며, 누적된 판단 결과 데이터들에 기초하여 최종적으로 목표 작업자의 안전 보호구 착용 상태를 결정하는 단계를 포함할 수 있다.
목표 작업자의 안전 보호구 착용 상태를 판단하는 단계는, 목표 작업자의 안전 보호구 착용 상태를 결정한 정보를 목표 작업자에게 매핑시키고 추적 알고리즘을 이용해 목표 작업자를 감시하는 단계를 더 포함할 수 있다.
목표 작업자의 안전 보호구 착용 상태를 판단한 결과, 목표 작업자의 안전 보호구 착용 상태가 적합하지 않은 경우, 출력 장치에 알람을 전송하는 단계를 더 포함할 수 있다.
안전 보호구 착용 상태 모니터링은 인공지능 네트워크를 이용하여 수행되고, 인공지능 네트워크는 객체 검출(Object Detection) 네트워크, 분류(Classification) 네트워크 및 결정 생성(Decision Making) 네트워크를 포함할 수 있다.
일 실시예에 따른 안전 보호구 착용 상태 모니터링 서버는, 조업 현장에 설치된 현장 감시 장치로부터 영상을 수신하는 통신 모듈, 그리고 제어 모듈로서, 영상을 분석하여 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단하고, 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단한 결과 위험 작업에 해당하는 경우, 목표 작업자 및 목표 작업자의 신체 영역을 검출하고, 목표 작업자에게 요구되는 안전 보호구 종류를 판단하고, 그리고 목표 작업자의 안전 보호구 착용 상태를 판단하도록 구성된, 제어 모듈을 포함한다.
목표 작업자의 신체 영역은 머리 영역과 몸 영역을 포함하고, 제어 모듈은, 목표 작업자의 머리 영역과 몸 영역별로 각각 요구되는 안전 보호구 종류를 판단할 수 있다.
제어 모듈은, 목표 작업자가 작업을 수행하는 매 순간마다 목표 작업자의 안전 보호구 착용 상태를 판단하고, 판단 결과에 기초한 판단 결과 데이터를 누적하여 저장하며, 누적된 판단 결과 데이터들에 기초하여 최종적으로 목표 작업자의 안전 보호구 착용 상태를 결정하여 목표 작업자의 안전 보호구 착용 상태를 판단할 수 있다.
제어 모듈은, 목표 작업자의 안전 보호구 착용 상태를 결정한 정보를 목표 작업자에게 매핑시키고 추적 알고리즘을 이용해 목표 작업자를 감시하여 목표 작업자의 안전 보호구 착용 상태를 판단할 수 있다.
제어 모듈은, 목표 작업자의 안전 보호구 착용 상태가 적합하지 않은 경우, 출력 장치에 알람을 전송할 수 있다.
안전 보호구 착용 상태 모니터링은 인공지능 네트워크를 이용하여 수행되고, 인공지능 네트워크는 객체 검출(Object Detection) 네트워크, 분류(Classification) 네트워크 및 결정 생성(Decision Making) 네트워크를 포함할 수 있다.
일 실시예에 따른 안전 보호구 착용 상태 모니터링 시스템은, 조업 현장에 설치되어 영상을 촬영하는 현장 감시 장치, 작업자에게 위험을 알려주기 위한 출력 장치, 그리고 영상을 분석하여 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단하고, 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단한 결과 위험 작업에 해당하는 경우, 목표 작업자 및 목표 작업자의 신체 영역을 검출하고, 목표 작업자에게 요구되는 안전 보호구 종류를 판단하고, 목표 작업자의 안전 보호구 착용 상태를 판단하며, 그리고 목표 작업자의 안전 보호구 착용 상태가 적합하지 않은 경우, 출력 장치에 알람을 전송하는 서버를 포함한다.
목표 작업자의 신체 영역은 머리 영역과 몸 영역을 포함하고, 서버는, 목표 작업자의 머리 영역과 몸 영역별로 각각 요구되는 안전 보호구 종류를 판단할 수 있다.
서버는, 목표 작업자가 작업을 수행하는 매 순간마다 목표 작업자의 안전 보호구 착용 상태를 판단하고, 판단 결과에 기초한 판단 결과 데이터를 누적하여 저장하며, 누적된 판단 결과 데이터들에 기초하여 최종적으로 목표 작업자의 안전 보호구 착용 상태를 결정하여 목표 작업자의 안전 보호구 착용 상태를 판단할 수 있다.
서버는, 목표 작업자의 안전 보호구 착용 상태를 결정한 정보를 목표 작업자에게 매핑시키고 추적 알고리즘을 이용해 목표 작업자를 감시하여 목표 작업자의 안전 보호구 착용 상태를 판단할 수 있다.
안전 보호구 착용 상태 모니터링은 인공지능 네트워크를 이용하여 수행되고,
인공지능 네트워크는 객체 검출(Object Detection) 네트워크, 분류(Classification) 네트워크 및 결정 생성(Decision Making) 네트워크를 포함할 수 있다.
일 실시예에 따른 프로그램은, 안전 보호구 착용 상태 모니터링 방법을 수행하도록 기록 매체에 저장될 수 있다.
일 실시예에 따른 기록 매체는, 안전 보호구 착용 상태 모니터링 방법을 수행하는 프로그램이 저장되어 있을 수 있다.
본 개시에 따른 실시예들 중 적어도 하나에 의하면, 한정된 컴퓨팅 자원으로도 효율적으로 다수의 현장 감시 장치에서 작업자의 안전 보호구 착용 상태 여부를 판단할 수 있는 장점이 있다.
본 개시에 따른 실시예들 중 적어도 하나에 의하면, 작업자의 안전 보호구 착용 상태를 보다 정확하게 판단할 수 있는 장점이 있다.
본 개시에 따른 실시예들 중 적어도 하나에 의하면, 작업자의 신체부위가 가려지거나 자세 변화에 따라 검출이 어려운 경우에도 작업자를 올바르게 검출하고 안전 보호구 착용 상태를 판단할 수 있는 장점이 있다.
도 1은 현장 감시 장치, 중앙 관리 서버 및 출력 장치를 개략적으로 나타낸 블록도이다.
도 2는 중앙 관리 서버의 내부 구성을 개략적으로 나타낸 블록도이다.
도 3은 중앙 관리 서버 내에서 수행되는 안전 보호구 착용 상태 판단 방법을 개략적으로 나타낸 순서도이다.
도 4는 중앙 관리 서버가 수신한 영상을 예시적으로 나타낸 예시도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부한 도면들을 참조하여 본 발명의 실시 예를 상세히 설명하기로 한다.
도 1은 현장 감시 장치, 중앙 관리 서버 및 출력 장치를 개략적으로 나타낸 블록도이다.
현장 감시 장치(100), 중앙 관리 서버(200) 및 출력 장치(300)는 네트워크를 통해 연결될 수 있다.
본 발명에서 네트워크는 장치들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 LAN(local area network), WAN(wide area network), BBN(broadband network), WLAN(wireless LAN), LTE(Long Term Evolution, LTE), LTE-A(LTE Advanced), CDMA(Code-Division Multiple Access, CDMA), WCDMA(Wideband Code Division Multiplex Access), UMTS(Universal Mobile Telecommunication System), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications), BLE(Bluetooth Low Energy), 블루투스(Bluetooth), Zigbee, UWB (Ultra-WideBand), ANT, Wi-fi, IrDA(infrared data association), PAN (Personal Area Network) 등이 포함되나, 이에 한정되지는 않는다.
현장 감시 장치(100)는 조업 현장 내의 작업자들을 감시하기 위한 장치로, CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등의 이미지 센서를 구비하는 다양한 형태의 카메라를 포함할 수 있다. 이미지 센서는 야간이나 주변 식별이 어려운 환경에서도 인체 및 사물을 쉽게 파악할 수 있는 적외선 센서일 수 있다.
현장 감시 장치(100)는 또한 조업 현장에 하나 이상 설치되어 있을 수 있다. 여기서 현장 감시 장치(100)는 조업 현장의 소정 위치에 설치된 것으로 기술되어 있지만, 이에 한정되지 않으며 조업 현장의 작업자 및/또는 안전 관리자가 소지하는 스마트폰 또는 태블릿 PC 등의 이동식 단말 장치일 수도 있다.
현장 감시 장치(100)는 조업 현장의 감시 영역 내 작업자와 조업 환경에 대한 영상을 실시간으로 획득할 수 있다. 조업 환경에 대한 영상은, 예를 들어, 작업자가 작업 중인 주변의 환경, 작업자가 착용하고 있는 안전 보호구, 작업 현장에 위치하는 건축물, 작업 설비 등이 촬영된 영상일 수 있다. 현장 감시 장치(100)는 또한 조업이 진행되면서 변화하는 환경 정보를 획득할 수 있다.
본 명세서에서 "작업자"란, 특별한 한정이 없는 한 영상 내에서 식별되는 모든 작업자를 지칭하고, "목표 작업자"란 상기 작업자 중 감시하고자 하는 작업자를 지칭한다. 중앙 관리 서버(200)는 작업자 중에서 임의로 목표 작업자를 선택할 수 있다.
현장 감시 장치(100)는 획득한 영상을 네트워크를 통해 중앙 관리 서버(200)에 제공할 수 있다.
중앙 관리 서버(200)는 조업 현장에서 진행되고 있는 작업이 위험 작업인 경우에 작업자에게 경고하기 위한 서버로, 현장 감시 장치(100)로부터 전달받은 영상을 분석하여 위험 작업 여부를 판단하고, 위험 작업에 해당하는 경우 목표 작업자, 목표 작업자의 머리 영역 및 몸 영역을 검출할 수 있다.
이 때, 머리 영역은 인체에서 머리 부분에 해당하는 영역을 의미하고, 몸 영역은 인체에서 머리를 제외한 나머지 상체, 하체 및 발까지 포함하는 영역을 의미한다.
중앙 관리 서버(200)는 또한 목표 작업자의 안전 보호구 착용 상태를 판단할 수 있다.
중앙 관리 서버(200)는 목표 작업자의 안전 보호구 착용 상태가 부적합한 경우 출력 장치(300)에 알람을 전송할 수 있다.
또한, 중앙 관리 서버(200)는 목표 작업자의 안전 보호구 착용 상태가 부적합한 경우에 작업자에게 경고할 수 있다.
출력 장치(300)는 중앙 관리 서버(200)에서 판단한 결과에 따라 부저, 사이렌 등 경보음을 발생시키는 장치, 위험을 알리는 음성 신호를 스피커를 통해 출력하는 오디오 제공 장치, 시각적으로 위험을 알리는 광을 출력하는 광 출력 장치, 및/또는 안내 문구를 포함하는 영상 신호를 출력하는 디스플레이일 수 있다. 이러한 출력 장치(300)는 조업 현장의 소정 위치에 설치되어 있을 수 있다.
또한, 출력 장치(300)는 안전 관리자 단말기일 수 있다. 여기서, 안전 관리자 단말기는 안전 관리자가 구비하는 모바일 장치이고, 후술하는 작업자 단말기는 목표 작업자가 구비하는 모바일 장치이다. 각각은 모두 조업 현장 관련 프로그램이 탑재되어 있다. 안전 관리자 단말기는 중앙 관리 서버(200)에 접속하여 현장 감시 장치(100)로부터 수신하는 영상을 실시간으로 열람할 수 있다.
출력 장치(300)는 중앙 관리 서버(200)로부터 알람을 전송받은 경우에, 목표 작업자와 가장 가까운 위치의 출력 장치(300)를 통해 알람이 출력될 수도 있다. 또한, 조업 현장 내에 위치하고 있는 모든 인원들이 들을 수 있는 전체 방송의 형태로 모든 출력 장치(300)를 통해 알람을 출력할 수도 있다.
다만, 조업 현장의 특성 상 소음이 심할 수 있으므로, 알람은 안전 관리자 단말기 및/또는 작업자 단말기에게 전송되는 것이 바람직할 수 있다. 안전 관리자 단말기 및 작업자 단말기는 중앙 관리 서버(200)로부터 네트워크를 통하여 알람을 수신하고, 각각의 단말기는 화면 상에 수신된 알람을 표시한다. 알람에 의해 안전 관리자 및/또는 작업자는 작업 시 안전 보호구에 대한 경각심을 갖도록 하여 조업 현장의 안정도가 향상된다.
도 2는 중앙 관리 서버의 내부 구성을 개략적으로 나타낸 블록도이다.
중앙 관리 서버(200)는 통신 모듈(210), 제어 모듈(230) 및 데이터베이스(250)를 포함한다.
통신 모듈(210)은, 네트워크를 통해 현장 감시 장치(100) 및 출력 장치(300)와 통신하기 위한 것이다. 통신 모듈(210)은 현장 감시 장치(100) 및/또는 출력 장치(300)로부터 수신되는 데이터를 제어 모듈(230)로 전달하거나, 제어 모듈(230)로부터 전달받은 데이터를 네트워크를 통해 출력 장치(300)로 전송할 수 있다.
제어 모듈(230)은 통신 모듈(210)에서 수신한 데이터와 데이터베이스(250)에 저장되어 있는 데이터를 처리하기 위한 것이다. 제어 모듈(230)은, 통신 모듈(210)에서 수신한 영상을 분석하여 위험 작업 여부를 판단하는 경우, 목표 작업자 및 목표 작업자의 신체를 검출하는 경우, 목표 작업자의 안전 보호구 착용 상태를 판단하는 경우에 인공 신경망을 사용할 수 있다.
인공 신경망은 복수의 레이어를 포함하며, 복수의 레이어는 컨볼루션 연산을 수행하는 컨볼루션 레이어(convolution layer), 다운 샘플링 연산을 수행하는 풀링 레이어(pooling layer), 업샘플링(Up Sampling) 연산을 수행하는 언풀링(UL: Unpooling Layer) 레이어, 디컨볼루션 연산을 수행하는 디컨볼루션 레이어(DL: Deconvolution Layer) 등을 포함할 수 있다. 또한, 복수의 레이어는 가중치가 적용되는 복수의 연산을 통해 연결된 적어도 두 개의 분류 레이어를 포함할 수 있다.
제어 모듈(230)은 인공지능 네트워크를 사용할 수 있다. 인공지능 네트워크는 객체 검출(Object Detection) 네트워크, 분류(Classification) 네트워크 및 결정 생성(Decision Making) 네트워크를 포함할 수 있다.
여기서, 객체 검출(Object Detection) 네트워크는 Object Detection을 수행할 수 있도록 학습된 임의의 인공지능 네트워크이다. 예를 들어, 객체 검출(Object Detection) 네트워크는 감시영역에서 위험 작업이 수행되는 경우 제어 모듈(230)이 목표 작업자, 목표 작업자의 머리 영역 및 몸 영역을 검출하는데 사용될 수 있다.
분류(Classification) 네트워크는 Classification를 수행할 수 있도록 학습된 임의의 인공지능 네트워크이다. 예를 들어, 분류(Classification) 네트워크는 제어 모듈(230)이 검출된 목표 작업자의 머리 영역 및 몸 영역 각각에 요구되는 안전 보호구 종류를 판단하는데 사용될 수 있다.
결정 생성(Decision Making) 네트워크는 Decision Making을 수행할 수 있도록 학습된 임의의 인공지능 네트워크이다. 예를 들어, 결정 생성(Decision Making) 네트워크는 제어 모듈(230)이 목표 작업자의 안전 보호구 착용 상태를 최종적으로 판단하는데 사용될 수 있다.
제어 모듈(230)은 인공 신경망의 각 레이어에서 추출된 피처맵(feature map) 간의 원소합 연산을 수행하여 다른 레이어의 정보도 참조할 수 있도록 하고, 작은 크기의 객체와 큰 크기의 객체의 이미지를 인공 신경망의 학습에 사용함으로써 다양한 크기의 변화에도 객체를 잘 검출할 수 있다.
제어 모듈(230)은 감시 영역에서 위험작업이 수행되는지 판단할 수 있다.
감시 영역은 제어 모듈(230)이 위험 작업이 수행되는지를 판단하는 대상이 되는 영역으로, 위험 작업으로 진입하는 영역과 위험 작업이 이루어지는 영역으로 구분되어 설정될 수 있다. 또한, 감시 영역은 조업 현장 내에 적어도 하나 설정될 수 있다.
예를 들어, 위험 작업이 이루어지는 영역은 밸브 등 작업 대상을 실제로 조작하는 곳일 수 있고, 위험 작업으로 진입하는 영역은 위험 작업이 이루어지는 영역의 안전 펜스나 출입문일 수 있다.
감시 영역은 미리 설정되어 데이터베이스(250)에 저장되어 있을 수 있다.
위험 작업은 화학용품을 취급하는 작업 등과 같이 사고 발생 위험이 높은 특정 종류의 작업 유형들을 별도로 분류해 놓은 것으로, 위험 작업으로 분류되는 작업 유형에 대한 정보는 미리 설정되어 데이터베이스(250)에 저장되어 있을 수 있다.
제어 모듈(230)은 감시 영역에서 위험 작업이 수행된다고 판단한 경우, 목표 작업자, 목표 작업자의 머리 영역 및 몸 영역을 검출할 수 있다. 제어 모듈(230)은 조업 현장에서 수행되는 작업이 위험 작업에 해당하지 않는다고 판단한 경우에는 목표 작업자를 검출하지 않고 안전 보호구 착용 상태 판단을 종료한다.
제어 모듈(230)은 인공 신경망을 사용하여 현장 감시 장치(100)로부터 통신 모듈(210)을 통해 수신된 영상 내에서 목표 작업자, 목표 작업자의 머리 영역 및 몸 영역을 검출할 수 있다.
예를 들어, 인공 신경망은 생성적 대립쌍 신경망(Generative Adversarial Net, GAN) 모델을 사용할 수 있다. 생성적 대립쌍 신경망은 서로 대립하는 두 개의 신경망을 동시에 학습시키면서 원본 이미지와 유사한 이미지를 만들어낼 수 있는 신경망이다. 제어 모듈(230)은 상이한 크기의 안전 보호구 이미지를 함께 미리 학습시킨 생성적 대립쌍 신경망을 사용함으로써 안전 보호구를 더 정확하게 검출할 수 있다. 제어 모듈(230)은 분류 결과의 정확도가 기설정된 기준값 이상인지, 기준값 미만인지 여부를 판단하여, 기준값 미만이면 분류 결과를 생성 모델에 반영하여 생성 모델을 최적화할 수 있다. 여기서, 최적화는, 분류 결과를 반영하여 인공 신경망의 각 레이어의 가중치 값을 조정하는 것을 의미한다.
제어 모듈(230)은 분류 결과의 정확도가 기준값 이상이 될 때까지 생성 모델 및 분류 모델을 학습시킬 수 있다. 그리고 생성적 대립쌍 신경망의 학습이 완료되면, 통신 모듈(210)을 통해 수신한 영상이 제어 모듈(230)에 입력됨으로써 영상 내에 존재하는 객체를 검출할 수 있다.
제어 모듈(230)은 데이터베이스(250)에 저장된 작업자의 인체 모델링 데이터 및 각각의 머리, 몸 영역에서 검출할 수 있는 안전 보호구에 대한 정보를 사용하여 작업자가 착용하고 있는 안전 보호구를 검출할 수 있다. 즉, 제어 모듈(230)은 작업자를 검출하고, 검출된 작업자의 머리 영역 및 몸 영역을 검출하며, 검출된 작업자의 머리 영역 및 몸 영역에 각각 종속된 안전 보호구를 검출함으로써 안전 보호구를 더 정확하게 검출할 수 있다.
제어 모듈(230)은, 현장 감시 장치(100)로부터 통신 모듈(210)을 통해 수신한 영상을 분석하여 목표 작업자의 머리 영역 및 몸 영역에 요구되는 안전 보호구 종류를 각각 판단할 수 있다.
예를 들어, 위험 작업 중 물체가 떨어지거나 날아올 위험 또는 근로자가 떨어질 위험이 있는 작업의 경우 목표 작업자는 머리에 안전모를 착용할 것이 요구된다. 다른 예로, 위험 작업 중 떨어지는 물체에 맞거나 물체에 끼이거나 감전, 정전기 대전 위험이 있는 작업의 경우 목표 작업자는 몸 영역에 속하는 발에 안전화를 착용할 것이 요구된다. 위험 작업 유형에 따라 머리 영역 및 몸 영역에 요구되는 안전 보호구에 대한 정보는 데이터베이스(250)에 저장되어 있을 수 있다.
제어 모듈(230)은 인공 신경망을 사용하여 목표 작업자의 안전 보호구 착용 상태를 판단할 수 있다. 목표 작업자에게 요구되는 안전 보호구 종류가 목표 작업자가 착용한 안전 보호구에 다 포함되지 않는 경우 및/또는 올바르지 않은 위치에서 안전 보호구가 검출된 경우에 제어 모듈(230)은 알람을 생성한다. 알람에는 목표 작업자가 어떤 안전 보호구를 착용해야 하는지에 대한 정보 및 안전 보호구의 착용 방법에 대한 정보가 포함될 수 있다.
제어 모듈(230)은 목표 작업자의 신체부위가 가려지거나 자세 변화에 따라 검출이 어려운 경우에도 데이터베이스(250)에 저장된 목표 작업자의 안전 보호구 착용 상태를 결정한 정보를 해당하는 목표 작업자에게 매핑시키고 추적 알고리즘을 이용해 목표 작업자를 감시하여 목표 작업자를 검출할 수 있다.
데이터베이스(250)에는 현장 감시 장치(100)로부터 수신한 영상 데이터, 감시 영역에 대한 정보, 위험 작업으로 분류되는 작업 유형에 대한 정보, 작업자의 인체 모델링 데이터, 위험 작업 유형에 따라 머리 영역 및 몸 영역에 요구되는 안전 보호구에 대한 정보, 제어 모듈(230)이 목표 작업자가 작업을 수행하는 매 순간마다 목표 작업자의 머리 영역 및 몸 영역 관련 안전 보호구 착용 상태를 판단한 결과에 대한 정보, 출력 장치(300)에 대한 정보 등 조업 현장의 안전을 점검하는 데 필요한 여러 정보가 저장되어 있다.
여기서, 데이터베이스(250)는 중앙 관리 서버(200) 내에 위치하는 것으로 기술하였으나, 중앙 관리 서버(200)의 외부에 위치하는 별도의 데이터베이스일 수도 있다.
또한, 데이터베이스(250)에는 목표 작업자가 작업을 수행하는 매 순간마다 목표 작업자의 머리 영역 및 몸 영역 관련 안전 보호구 착용 상태를 판단한 결과데이터들을 토대로 최종적으로 목표 작업자의 안전 보호구 착용 상태를 결정한 정보가 저장되어 있다.
도 3은 중앙 관리 서버 내에서 수행되는 안전 보호구 착용 상태 판단 방법을 개략적으로 나타낸 순서도이다.
먼저, 중앙 관리 서버(200)는 현장 감시 장치(100)로부터 영상을 수신(S301)한다. 현장 감시 장치(100)는 조업 현장 내에 하나 이상 위치할 수 있으며, 영상을 촬영하여 실시간으로 중앙 관리 서버(200)에 전송한다.
중앙 관리 서버(200)는 현장 감시 장치(100)로부터 수신한 영상을 분석하여 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단(S303)한다.
일례로, 중앙 관리 서버(200)는 감시 영역의 이미지에 특정 픽셀 주변의 밝기 값이 급격하게 변하는 부분을 찾는 방법인 엣지 검출 방법을 통해 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단할 수 있다. 구체적으로, 중앙 관리 서버(200)는 위험 작업이 수행될 경우에 가려지는 영역을 감시 영역으로 설정하고 그 주변의 밝기 값이 급격하게 변하는 경우에 위험 작업이 수행되고 있다고 판단할 수 있다.
다른 예로, 중앙 관리 서버(200)는 감시 영역의 이미지 전체 픽셀의 밝기 값이 급격하게 변하는 부분을 찾는 방법을 통해 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단할 수 있다. 구체적으로, 중앙 관리 서버(200)는 외부에서 위험 작업이 수행되고 있는 실내로 들어오기 위해 문이 열리는 경우 등에 밝기 변화가 발생하는 것을 인지하여 위험 작업이 수행되고 있는지를 판단할 수 있다.
또 다른 예로, 중앙 관리 서버(200)는 인공지능 네트워크를 이용하여 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단할 수 있다. 구체적으로, 중앙 관리 서버(200)는 위험 작업이 수행될 때와 수행되지 않을 때의 이미지를 인공지능 네트워크로 학습하고, 학습한 이미지를 이용하여 위험 작업이 수행되고 있는지를 판단할 수 있다.
중앙 관리 서버(200)는 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단한 결과 위험 작업에 해당(S305)하면, 목표 작업자를 검출한다. 중앙 관리 서버(200)는 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단한 결과 위험 작업에 해당하지 않는다면 안전 보호구 착용 상태 판단 과정을 종료한다.
중앙 관리 서버(200)는 수신한 영상을 분석하여 목표 작업자, 목표 작업자의 머리 영역 및 몸 영역을 검출(S307)한다.
예를 들어, 중앙 관리 서버(200)는 상이한 크기의 안전 보호구의 이미지를 미리 학습시킨 인공 신경망을 사용하여 목표 작업자, 목표 작업자의 머리 영역 및 몸 영역을 검출할 수 있다.
이 때, 중앙 관리 서버(200)는 Object Detection 네트워크를 사용할 수 있다.
중앙 관리 서버(200)는 목표 작업자에게 요구되는 안전 보호구 종류를 판단(S309)한다.
여기서, 중앙 관리 서버(200)는 단계 S303에서 판단한 위험 작업의 유형에 기초하여 목표 작업자에게 요구되는 안전 보호구 종류를 판단할 수 있다.
또한, 예를 들어, 중앙 관리 서버(200)는 데이터베이스(250)에 저장된 작업 유형에 따른 머리 영역 및 몸 영역에 요구되는 안전 보호구에 대한 정보를 사용하여 목표 작업자의 머리 영역 및 몸 영역에 요구되는 안전 보호구 종류를 판단할 수 있다.
이 때, 중앙 관리 서버(200)는 Classification 네트워크를 사용할 수 있다.
이후, 중앙 관리 서버(200)는 목표 작업자의 안전 보호구 착용 상태를 판단(S311)한다.
예를 들어, 중앙 관리 서버(200)는 단계 S307에서 검출한 목표 작업자, 목표 작업자의 머리 영역 및 몸 영역으로부터 착용하고 있는 것으로 판단한 안전 보호구와 단계S309에서 목표 작업자의 머리 영역 및 몸 영역 각각에 요구되는 것으로 판단한 안전 보호구 종류를 비교할 수 있다. 목표 작업자가 머리 영역 및 몸 영역에 착용하고 있는 안전 보호구가 목표 작업자에게 요구되는 안전 보호구 종류를 모두 포함하고 있지 않은 경우, 중앙 관리 서버(200)는 목표 작업자의 안전 보호구 착용 상태가 부적합하다고 판단할 수 있다.
구체적으로, 중앙 관리 서버(200)는 목표 작업자의 머리 영역 및 몸 영역을 검출한 후, 머리에 착용하고 있는 안전 보호구 및 몸에 착용하고 있는 안전 보호구를 각각 판단하여‘헬멧을 착용한 머리’, ‘안전화를 착용한 몸’등과 같이 판단할 수 있다. 이후 중앙 관리 서버(200)는 이러한 목표 작업자의 안전 보호구 착용 상태를 목표 작업자의 머리 영역 및 몸 영역에 요구되는 안전 보호구 종류와 비교할 수 있다.
또한, 예를 들어 중앙 관리 서버(200)는 인공지능 네트워크를 이용하여 목표 작업자가 작업을 수행하는 매 순간마다 목표 작업자의 안전 보호구 착용 상태를 판단하고, 그 결과 데이터를 데이터베이스(250)에 누적하여 저장한다. 중앙 관리 서버(200)는 누적된 판단 결과 데이터들을 토대로 최종적으로 목표 작업자의 안전 보호구 착용 상태를 결정하고 이를 데이터베이스(250)에 저장할 수 있다. 이 때, 판단에 사용되는 누적 데이터의 개수는 미리 설정되어 있을 수 있다.
중앙 관리 서버(200)는 데이터베이스(250)에 저장된 목표 작업자의 안전 보호구 착용 상태를 결정한 정보를 해당하는 목표 작업자에게 매핑시키고 추적 알고리즘을 이용해 목표 작업자를 감시할 수 있다. 이를 통해 목표 작업자가 장애물 등에 의해 가려진 경우에도 목표 작업자의 안전 보호구 착용 상태를 올바르게 판단할 수 있다.
이 때, 중앙 관리 서버(200)는 Decision Making 네트워크를 사용할 수 있다.
안전 보호구 착용 상태가 적합하지 않은 경우, 중앙 관리 서버(200)는 출력 장치(300)에 알람을 전송(S313)한다.
도 4는 중앙 관리 서버가 수신한 영상을 예시적으로 나타낸 예시도이다. 이하에서는, 도 4를 참조하여 중앙 관리 서버(200)가 안전 보호구 착용 상태를 모니터링하는 방법을 기술한다.
도 4의 조업 현장은 사다리를 이용하여 높은 곳에서 하는 작업이 이루어지는 곳일 수 있다. 고소 작업은 위험 작업이므로 도 4의 조업 현장은 위험 작업이 이루어지는 영역으로서 중앙 관리 서버(200)에 감시 영역으로 미리 설정되어 있을 수 있다.
중앙 관리 서버(200)는 영상을 분석하여, 작업자가 고소 작업을 시작하여 작업이 수행되는 곳 주변의 밝기 값이 급격하게 변하는 경우에 위험 작업이 수행되고 있다고 판단할 수 있다.
또한, 중앙 관리 서버(200)는 영상을 분석하여, 작업자가 고소 작업을 수행하는 경우에 인공지능 네트워크로 학습한 사다리 작업이 수행될 때와 수행되지 않을 때의 이미지를 이용하여 위험 작업이 수행되고 있다고 판단할 수 있다.
중앙 관리 서버(200)는 조업 현장에서 위험 작업이 수행되고 있다고 판단되는 경우, 목표 작업자, 목표 작업자의 머리 영역 및 몸 영역을 검출한다.
중앙 관리 서버(200)는 영상으로부터 제1 작업자(410) 및 제2 작업자(420)를 검출할 수 있다. 여기서, 제1 작업자(410)는 목표 작업자이고 제2 작업자(420)는 안전 관리자라고 가정한다.
중앙 관리 서버(200)는 제1 작업자(410) 및 제1 작업자(410)의 머리 영역 및 몸 영역을 검출한다. 이후 중앙 관리 서버(200)는 제1 작업자(410)가 머리 영역 및 몸 영역에 착용한 안전 보호구를 검출한다. 여기서, 제1 작업자(410)는 어떠한 안전 보호구도 착용하고 있지 않기 때문에, 제1 작업자(410)의 머리 영역(411)에서 어떠한 안전 보호구도 검출되지 않는다. 마찬가지로 제1 작업자(410)의 몸 영역(412)에서도 어떠한 안전 보호구도 검출되지 않는다.
중앙 관리 서버(200)는 데이터베이스(250)에 저장된 위험 작업 유형에 따라 머리 영역 및 몸 영역에 요구되는 안전 보호구에 대한 정보에 기초하여 영상 내의 조업 현장에서 목표 작업자에게 요구되는 안전 보호구 종류를 판단한다.
먼저, 작업 유형이 사다리 작업이므로, 중앙 관리 서버(200)는 목표 작업자인 제1 작업자(410)에게 요구되는 안전 보호구 종류는 안전모를 포함한다고 판단할 수 있다.
목표 작업자에게 요구되는 안전 보호구 종류가 안전모라고 판단한 후, 중앙 관리 서버(200)는 검출한 제1 작업자(410)가 머리 영역 및 몸 영역에 착용한 안전 보호구와 대비하여 제1 작업자(410)의 안전 보호구 착용 상태를 판단한다. 제1 작업자(410)는 머리 영역(411)에 안전모를 미착용하고 있으므로, 중앙 관리 서버(200)는 제1 작업자(410)의 안전 보호구 착용 상태는 부적합하다고 판단한다.
중앙 관리 서버(200)는 제1 작업자(410)의 안전 보호구 착용 상태를 판단한 결과 데이터를 데이터베이스(250)에 누적하여 저장한다. 중앙 관리 서버(200)는 다음 순간의 제1 작업자(410)의 안전 보호구 착용 상태에 대해서도 상술한 바와 마찬가지 과정으로 판단하고, 그 결과 데이터를 데이터 베이스에(250) 누적하여 저장한다.
중앙 관리 서버(200)는 누적된 데이터의 개수가 미리 설정된 개수에 도달하면, 누적된 판단 결과 데이터들을 토대로 최종적으로 제1 작업자(410)의 안전 보호구 착용 상태를 헬멧이 미착용 되어 부적합하다고 결정하고 이를 데이터베이스(250)에 저장할 수 있다.
중앙 관리 서버(200)는 데이터베이스(250)에 저장된 제1 작업자(410)의 안전 보호구 착용 상태를 결정한 정보를 제1 작업자(410)에게 매핑시키고 추적 알고리즘을 이용해 제1 작업자(410)를 감시할 수 있다. 이를 통해 제1 작업자(410)가 장애물 등에 의해 가려진 경우에도 제1 작업자(410)의 안전 보호구 착용 상태를 올바르게 판단할 수 있다.
이후, 중앙 관리 서버(200)는 출력 장치(300)에 알람을 전송한다. 알람은 제1 작업자(410)가 머리 영역(411)에 안전모를 착용해야 한다는 정보를 포함할 수 있다.
또한, 중앙 관리 서버(200)는 제 2 작업자(420)의 안전 관리자 단말기(310)에 알람을 전송할 수도 있다. 안전 관리자 단말기(310)는 제1 작업자(410)에게 안전모를 착용하도록 안내하라는 알림 정보를 수신할 수 있다.
본 개시에 따른 안전 보호구 착용 상태 모니터링 서버에 따르면, 촬영 영상 내에서 작업자 검출의 시작 조건을 설정하고, 조건을 충족하는 경우에만 안전 보호구 착용 상태 판단을 시작하여 한정된 컴퓨팅 자원으로도 효율적으로 다수의 현장 감시 장치에서 작업자의 안전 보호구 착용 상태 여부를 판단할 수 있다.
또한 본 개시에 따른 안전 보호구 착용 상태 모니터링 서버에 따르면, 작업자의 머리 영역 및 몸 영역을 구분하고 각 부위의 안전 보호구를 검출하여 작업자의 안전 보호구 착용 상태를 보다 정확하게 판단할 수 있다.
본 개시에 따른 안전 보호구 착용 상태 모니터링 서버에 따르면, 작업자의 신체부위가 가려지거나 자세 변화에 따라 검출이 어려운 경우에도 추적 알고리즘을 이용해 작업자를 감시하여 작업자를 올바르게 검출하고 안전 보호구 착용 상태를 판단할 수 있다.
또한, 본 개시에 따른 안전 보호구 착용 상태 모니터링 서버에 따르면, 위험을 사전에 발견하고 대처할 수 있는 안전 관리자가 현장에 없더라도 조업 현장의 위험 요소에 대해 사전 조치를 취할 수 있고, 위험 작업을 행하는 작업자에게 미리 주의를 줄 수 있으며, 사고가 일어나더라도 응급 조치가 신속하게 이루어질 수 있다.
이상 설명된 실시예들은 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이 때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.
실시예들에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예를 들어, 등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 이로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 통상의 기술자는 특허청구범위 또는 그 균등물의 범주 내에서 다양한 수정, 조합 및 변경이 이루어질 수 있음을 알 수 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였으나, 본 발명의 권리범위가 이에 한정되는 것은 아니며 본 발명이 속하는 분야에서 통상의 지식을 가진 자가 여러 가지로 변형 및 개량한 형태 또한 본 발명의 권리범위에 속한다.

Claims (19)

  1. 조업 현장에 설치된 현장 감시 장치로부터 영상을 수신하는 단계,
    상기 영상을 분석하여 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단하는 단계,
    상기 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단한 결과 위험 작업에 해당하는 경우, 목표 작업자 및 상기 목표 작업자의 신체 영역을 검출하는 단계,
    상기 목표 작업자에게 요구되는 안전 보호구 종류를 판단하는 단계, 그리고
    상기 목표 작업자의 안전 보호구 착용 상태를 판단하는 단계
    를 포함하는, 안전 보호구 착용 상태 모니터링 방법.
  2. 제1항에 있어서,
    상기 목표 작업자의 신체 영역은 머리 영역과 몸 영역을 포함하고,
    상기 목표 작업자에게 요구되는 안전 보호구 종류를 판단하는 단계는,
    상기 목표 작업자의 상기 머리 영역과 상기 몸 영역별로 각각 요구되는 안전 보호구 종류를 판단하는 단계를 포함하는,
    안전 보호구 착용 상태 모니터링 방법.
  3. 제1항에 있어서,
    상기 목표 작업자의 안전 보호구 착용 상태를 판단하는 단계는,
    상기 목표 작업자가 작업을 수행하는 매 순간마다 상기 목표 작업자의 안전 보호구 착용 상태를 판단하고, 상기 판단 결과에 기초한 판단 결과 데이터를 누적하여 저장하며, 상기 누적된 판단 결과 데이터들에 기초하여 최종적으로 상기 목표 작업자의 안전 보호구 착용 상태를 결정하는 단계를 포함하는,
    안전 보호구 착용 상태 모니터링 방법.
  4. 제3항에 있어서,
    상기 목표 작업자의 안전 보호구 착용 상태를 판단하는 단계는,
    상기 목표 작업자의 안전 보호구 착용 상태를 결정한 정보를 상기 목표 작업자에게 매핑시키고 추적 알고리즘을 이용해 상기 목표 작업자를 감시하는 단계를 더 포함하는,
    안전 보호구 착용 상태 모니터링 방법.
  5. 제1항에 있어서,
    상기 목표 작업자의 안전 보호구 착용 상태를 판단한 결과,
    상기 목표 작업자의 안전 보호구 착용 상태가 적합하지 않은 경우, 출력 장치에 알람을 전송하는 단계를 더 포함하는,
    안전 보호구 착용 상태 모니터링 방법.
  6. 제1항에 있어서,
    상기 안전 보호구 착용 상태 모니터링은 인공지능 네트워크를 이용하여 수행되고,
    상기 인공지능 네트워크는 객체 검출(Object Detection) 네트워크, 분류(Classification) 네트워크 및 결정 생성(Decision Making) 네트워크를 포함하는,
    안전 보호구 착용 상태 모니터링 방법.
  7. 조업 현장에 설치된 현장 감시 장치로부터 영상을 수신하는 통신 모듈, 그리고
    제어 모듈로서,
    상기 영상을 분석하여 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단하고,
    상기 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단한 결과 위험 작업에 해당하는 경우, 목표 작업자 및 상기 목표 작업자의 신체 영역을 검출하고,
    상기 목표 작업자에게 요구되는 안전 보호구 종류를 판단하고, 그리고
    상기 목표 작업자의 안전 보호구 착용 상태를 판단하도록 구성된, 제어 모듈을 포함하는,
    안전 보호구 착용 상태 모니터링 서버.
  8. 제7항에 있어서,
    상기 목표 작업자의 신체 영역은 머리 영역과 몸 영역을 포함하고,
    상기 제어 모듈은, 상기 목표 작업자의 상기 머리 영역과 상기 몸 영역별로 각각 요구되는 안전 보호구 종류를 판단하는,
    안전 보호구 착용 상태 모니터링 서버.
  9. 제7항에 있어서,
    상기 제어 모듈은, 상기 목표 작업자가 작업을 수행하는 매 순간마다 상기 목표 작업자의 안전 보호구 착용 상태를 판단하고, 상기 판단 결과에 기초한 판단 결과 데이터를 누적하여 저장하며, 상기 누적된 판단 결과 데이터들에 기초하여 최종적으로 상기 목표 작업자의 안전 보호구 착용 상태를 결정하여 상기 목표 작업자의 안전 보호구 착용 상태를 판단하는,
    안전 보호구 착용 상태 모니터링 서버.
  10. 제9항에 있어서,
    상기 제어 모듈은, 상기 목표 작업자의 안전 보호구 착용 상태를 결정한 정보를 상기 목표 작업자에게 매핑시키고 추적 알고리즘을 이용해 상기 목표 작업자를 감시하여 상기 목표 작업자의 안전 보호구 착용 상태를 판단하는,
    안전 보호구 착용 상태 모니터링 서버.
  11. 제7항에 있어서,
    상기 제어 모듈은, 상기 목표 작업자의 안전 보호구 착용 상태가 적합하지 않은 경우, 출력 장치에 알람을 전송하는,
    안전 보호구 착용 상태 모니터링 서버.
  12. 제7항 내지 제11항 중 어느 하나에 있어서,
    상기 안전 보호구 착용 상태 모니터링은 인공지능 네트워크를 이용하여 수행되고,
    상기 인공지능 네트워크는 객체 검출(Object Detection) 네트워크, 분류(Classification) 네트워크 및 결정 생성(Decision Making) 네트워크를 포함하는,
    안전 보호구 착용 상태 모니터링 서버.
  13. 조업 현장에 설치되어 영상을 촬영하는 현장 감시 장치,
    작업자에게 위험을 알려주기 위한 출력 장치, 그리고
    상기 영상을 분석하여 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단하고, 상기 감시 영역에서 수행되는 작업이 위험 작업에 해당하는지 판단한 결과 위험 작업에 해당하는 경우, 목표 작업자 및 상기 목표 작업자의 신체 영역을 검출하고, 상기 목표 작업자에게 요구되는 안전 보호구 종류를 판단하고, 상기 목표 작업자의 안전 보호구 착용 상태를 판단하며, 그리고 상기 목표 작업자의 안전 보호구 착용 상태가 적합하지 않은 경우, 상기 출력 장치에 알람을 전송하는 서버
    를 포함하는 안전 보호구 착용 상태 모니터링 시스템.
  14. 제13항에 있어서,
    상기 목표 작업자의 신체 영역은 머리 영역과 몸 영역을 포함하고,
    상기 서버는, 상기 목표 작업자의 상기 머리 영역과 상기 몸 영역별로 각각 요구되는 안전 보호구 종류를 판단하는,
    안전 보호구 착용 상태 모니터링 시스템.
  15. 제13항에 있어서,
    상기 서버는, 상기 목표 작업자가 작업을 수행하는 매 순간마다 상기 목표 작업자의 안전 보호구 착용 상태를 판단하고, 상기 판단 결과에 기초한 판단 결과 데이터를 누적하여 저장하며, 상기 누적된 판단 결과 데이터들에 기초하여 최종적으로 상기 목표 작업자의 안전 보호구 착용 상태를 결정하여 상기 목표 작업자의 안전 보호구 착용 상태를 판단하는,
    안전 보호구 착용 상태 모니터링 시스템.
  16. 제15항에 있어서,
    상기 서버는, 상기 목표 작업자의 안전 보호구 착용 상태를 결정한 정보를 상기 목표 작업자에게 매핑시키고 추적 알고리즘을 이용해 상기 목표 작업자를 감시하여 상기 목표 작업자의 안전 보호구 착용 상태를 판단하는,
    안전 보호구 착용 상태 모니터링 시스템.
  17. 제13항 내지 제16항 중 어느 하나에 있어서,
    상기 안전 보호구 착용 상태 모니터링은 인공지능 네트워크를 이용하여 수행되고,
    상기 인공지능 네트워크는 객체 검출(Object Detection) 네트워크, 분류(Classification) 네트워크 및 결정 생성(Decision Making) 네트워크를 포함하는,
    안전 보호구 착용 상태 모니터링 시스템.
  18. 제1항 내지 제6항 중 어느 한 항에 따른 방법을 수행하도록 기록 매체에 저장되는, 프로그램.
  19. 제1항 내지 제6항 중 어느 한 항에 따른 방법을 수행하는 프로그램이 저장되어 있는, 기록 매체.
KR1020210184162A 2021-12-21 2021-12-21 안전 보호구 착용 상태 모니터링 방법 및 그 방법을 제공하는 서버 KR20230094768A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210184162A KR20230094768A (ko) 2021-12-21 2021-12-21 안전 보호구 착용 상태 모니터링 방법 및 그 방법을 제공하는 서버
US18/085,043 US20230196895A1 (en) 2021-12-21 2022-12-20 Method for monitoring state of wearing safety protective equipment and server for providing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210184162A KR20230094768A (ko) 2021-12-21 2021-12-21 안전 보호구 착용 상태 모니터링 방법 및 그 방법을 제공하는 서버

Publications (1)

Publication Number Publication Date
KR20230094768A true KR20230094768A (ko) 2023-06-28

Family

ID=86768745

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210184162A KR20230094768A (ko) 2021-12-21 2021-12-21 안전 보호구 착용 상태 모니터링 방법 및 그 방법을 제공하는 서버

Country Status (2)

Country Link
US (1) US20230196895A1 (ko)
KR (1) KR20230094768A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102595115B1 (ko) * 2023-08-02 2023-10-27 단국대학교 산학협력단 사고 발생 위험 현장에서 cctv 영상 개별 작업자의위치추적정보를 이용한 안전체크의 모니터링 시스템 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117690166B (zh) * 2024-02-02 2024-04-16 湖北世纪森源电气集团有限公司 一种电力控制柜的安防监测方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102595115B1 (ko) * 2023-08-02 2023-10-27 단국대학교 산학협력단 사고 발생 위험 현장에서 cctv 영상 개별 작업자의위치추적정보를 이용한 안전체크의 모니터링 시스템 및 방법

Also Published As

Publication number Publication date
US20230196895A1 (en) 2023-06-22

Similar Documents

Publication Publication Date Title
KR102488007B1 (ko) 안전 보호구 착용 상태 모니터링 방법 및 그 방법을 제공하는 서버
US10977740B2 (en) Systems and methods for dynamic real-time analysis from multi-modal data fusion for contextual risk identification
Wu et al. Real-time mixed reality-based visual warning for construction workforce safety
US11164134B2 (en) Systems and methods for improving process safety in an industrial environment
KR101766305B1 (ko) 침입 탐지 장치
US20230196895A1 (en) Method for monitoring state of wearing safety protective equipment and server for providing the method
KR101715001B1 (ko) 웨어러블 기기를 이용한 건설현장의 안전평가 표시 시스템 및 그 방법
KR102398841B1 (ko) 영상 분석에 기반하여 건설 현장의 위험을 판단하기 위한 방법 및 시스템
KR102260120B1 (ko) 딥러닝기반 행동인식장치 및 그 장치의 구동방법
EP3910540A1 (en) Systems and methods of enforcing distancing rules
KR101036947B1 (ko) 컴퓨터 영상 분석기술을 이용한 범죄 및 사고예방 자동경비 시스템
KR102174784B1 (ko) 딥 러닝과 멀티 에이전트를 활용한 대규모 개체 식별 및 추적 방법
Rey-Merchán et al. Improving the prevention of fall from height on construction sites through the combination of technologies
KR101999249B1 (ko) 에이알기반 재해자 위치표시시스템 및 방법
KR101668555B1 (ko) 작업 현장 영상 데이터 내의 작업자 인식 방법
CN110867046A (zh) 一种基于云计算的智能洗车机视频监控预警系统
US20230162476A1 (en) Method and system for determining risk in construction site based on image analysis
CN112836563A (zh) 作业现场分类系统和方法
KR102332818B1 (ko) Rtls센서 연동 디지털 트윈 가상프록시 센서 및 디지털 트윈 가상공간 기반 위험구역 설정을 통한 위험 알림 시스템 및 그 방법
KR102500474B1 (ko) 스마트 지능형 안전관리 서비스 제공 시스템
KR20160059105A (ko) 산업현장 안전관리 시스템
KR102635902B1 (ko) Ai 로봇을 이용한 건설 현장의 작업 공정별 상황 인식 및 안전 관리 시스템
KR102553005B1 (ko) 조업 현장 안전 관리 시스템 및 관리 방법
JP6650659B2 (ja) 不審者検出装置およびプログラム
Li Intelligent Science Empowers: Building Fire Protection Technology Development