KR102617063B1 - 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템 - Google Patents

환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템 Download PDF

Info

Publication number
KR102617063B1
KR102617063B1 KR1020230129107A KR20230129107A KR102617063B1 KR 102617063 B1 KR102617063 B1 KR 102617063B1 KR 1020230129107 A KR1020230129107 A KR 1020230129107A KR 20230129107 A KR20230129107 A KR 20230129107A KR 102617063 B1 KR102617063 B1 KR 102617063B1
Authority
KR
South Korea
Prior art keywords
worker
analysis
information
video
workers
Prior art date
Application number
KR1020230129107A
Other languages
English (en)
Inventor
강미애
류문수
신은철
서동식
한청희
안화수
Original Assignee
주식회사 윈스퍼트
한국환경공단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 윈스퍼트, 한국환경공단 filed Critical 주식회사 윈스퍼트
Priority to KR1020230129107A priority Critical patent/KR102617063B1/ko
Application granted granted Critical
Publication of KR102617063B1 publication Critical patent/KR102617063B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Emergency Management (AREA)
  • Health & Medical Sciences (AREA)
  • Alarm Systems (AREA)

Abstract

실시예에 따른 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템은 CCTV로부터 작업자를 촬영한 영상정보를 수집하여 작업자 인원수, 작업모 작용여부를 포함하는 규정 준수 정보와 쓰러짐 등 이상 상태를 감지한다. 실시예에서는 작업 공간에 설치된 CCTV 또는 작업자 단말의 카메라로 촬영된 영상정보를 수집하고, 인공신경망 모델을 통해, 수집된 영상을 분석하여, 작업자의 이상 상태 및 규정 준수 정보를 파악한다. 또한, 실시예에서는 영상정보 분석을 통해, 작업자의 위치와 모션을 1차 파악하고, 파악된 위치와 모션에 따라 줌, 포커싱 변화 등 CCTV 촬영 조건을 자동으로 변경하고, 변경된 촬영 조건으로 촬영된 영상을 수집한다. 이후, 수집된 영상을 인공신경망 모델로 분석하여 작업자 상태정보와 규정 준수 정보를 할 수 있다.

Description

환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템{ARTIFICIAL INTELLIGENCE-BASED WORKER SAFETY MANAGEMENT SYSTEM FOR WORKERS AT ENVIRONMENTAL BASIC FACILITIES}
본 개시는 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템에 관한 것으로 구체적으로, CCTV를 통해 수집한 영상정보 분석 결과에 따라 작업자의 위험상황과 이상상태를 예측하는 시스템에 관한 것이다.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.
환경기초 시설은 환경 보호와 관리를 위한 기본적인 시설이나 인프라이다. 환경기초 시설은 주로 환경 오염 방지, 자원 보호 및 지속 가능한 자연 환경을 유지한다. 이에 따라 환경기초 시설의 보수, 개선 등 다양한 작업이 필요하다. 이는 대부분은 실제적인 노동력 투입을 통해 이루어지므로, 환경기초 시설에서 작업하는 작업자의 모니터링 및 안전관리를 위한 시스템이 필요하다.
한편, 인공지능 영상분석 기술은 컴퓨터 비전(Computer Vision) 분야에서 사용되며, 기계 학습 및 딥러닝 기술을 활용하여 영상 데이터를 분석하고 해석하는 기술이다. 영상분석 기술은 다양한 영상 소스에서 정보를 추출하고 이를 사용자나 응용 프로그램에게 유용한 형태로 전달하는 데 활용된다.
인공지능 영상분석 기술은 많은 산업 분야에서 활용되며, 데이터 수집, 판단력 향상, 작업의 자동화, 보안 강화 등 다양한 이점을 제공한다. 그러나 인공지능을 이용한 영상 분석은, 객체 감지, 이미지 분류, 객체 추적 및 세분화 등 영상 분석에 필요한 수많은 데이터 처리 과정으로 인해, 데이터 처리 속도가 느려지는 오버로드(overload)가 발생하는 문제가 있다. 특히, 시설 안전 점검 및 안전관리를 위해 수집되는 CCTV는 초기 데이터 양이 방대할 뿐만 아니라, 분석해야 하는 데이터의 양도 많아, 영상 분석에 많은 시간과 자원이 필요한 실정이다.
1. 한국 특허등록 제10-251798호 (2023.03.30) 2. 한국 특허등록 제10-212733호 (2020.06.22)
실시예에 따른 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템은 CCTV로부터 작업자를 촬영한 영상정보를 수집하여 작업자 인원수, 작업모 작용여부를 포함하는 규정 준수 정보와 쓰러짐 등 이상 상태를 감지한다.
실시예에서는 작업 공간에 설치된 CCTV 또는 작업자 단말의 카메라로 촬영된 영상정보를 수집하고, 인공신경망 모델을 통해, 수집된 영상을 분석하여, 작업자의 이상 상태 및 규정 준수 정보를 파악한다.
또한, 실시예에서는 영상정보 분석을 통해, 작업자의 위치와 모션을 1차 파악하고, 파악된 위치와 모션에 따라 줌, 포커싱 변화 등 CCTV 촬영 조건을 자동으로 변경하고, 변경된 촬영 조건으로 촬영된 영상을 수집한다. 이후, 수집된 영상을 인공신경망 모델로 분석하여 작업자 상태정보와 규정 준수 정보를 할 수 있다.
또한, 실시예에서는 데이터 처리 효율을 향상한 실시간 영상 분석을 위해, 분석서버에서 저해상도로 변환된 분석용 영상을 분석하고, 분석 결과를 수신하는 관제서버에서는 고해상도 영상을 출력할 수 있도록 한다.
실시예에 따른 작업자 안전관리 시스템은 작업공간에 설치되어 작업자를 촬영한 영상정보를 생성하는 CCTV; CCTV로부터 수집된 영상정보를 분석하여, 작업자 인원수, 작업모 작용여부를 포함하는 규정 준수 정보 및 이상 상태를 감지하는 분석서버; 및 분석서버로부터 영상 분석 결과를 수신하고 출력하는 관제서버; 를 포함한다.
실시예에서 분석서버; 는 적어도 하나의 명령어를 저장하는 메모리; 및 프로세서를 포함하며, 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써, 수집된 영상정보의 해상도를 일정 수준 미만의 저해상도로 낮춘 분석용 영상을 생성하고, 분석용 영상에서 규정 준수 정보 검출을 위한 관심영역을 추출하고, 추출된 관심영역을 분석하여 규정 준수 정보를 파악한다.
이상에서와 같은 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템은 영상정보를 저해상도로 조정하여 분석용 영상을 생성하고, 작업 규정 준수 여부 판단을 위한 관심영역 설정하여, 작업자 규정 준수 여부를 판단함으로써, 인공지능을 이용한 영상 처리 효율과 속도를 향상시킬 수 있도록 한다.
또한, 실시예에서는 영상정보에서 작업자 객체의 위치와 모션에 따라 CCTV의 줌인과 포커싱 기능을 자동 조절하여, 작업자의 위급상황을 보다 정확하게 파악하고 신속하게 대처할 수 있도록 한다.
또한, 실시예에서는 작업자 주변 시설물의 위험도에 따라 관리자 또는 작업자에게 위험도를 알림으로써, 위험상황 및 사고 발생을 예방한다.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
도 1은 실시예에 따른 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템 구성을 나타낸 도면
도 2는 실시예에 따른 분석서버의 블록도를 나타낸 도면
도 3은 실시예에 따른 메모리에 저장된 명령어 세트 구성을 나타낸 도면
도 4는 실시예 따른 학습부에 저장되어 데이터를 학습하는 모델의 예를 나타낸 도면
도 5는 실시예에 따른 작업자 현황의 인터페이스 예를 나타낸 도면
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.
이하, 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 실시예에 따른 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템 구성을 나타낸 도면이다.
도 1을 참조하면, 실시예에 따른 작업자 안전관리 시스템은 분석서버(100), CCTV(200), 관제서버(300), 관리자 단말(400) 및 작업자 단말(500)을 포함하여 구성될 수 있다.
CCTV(200)는 작업자가 작업을 수행하는 작업공간에 설치되고, 작업자를 촬영한 영상정보를 생성하여 영상정보를 분석서버(100)로 전송한다. 분석서버(100)는 CCTV(200)로부터 수집된 영상정보를 분석하여, 작업자의 규정 준수 정보와 이상상태를 파악한다. 실시예에서 규정 준수 정보는 작업 공간의 작업자 인원수, 작업모 작용여부 등 작업 공간에 따라 설정된 안전 규정의 준수 여부에 대한 정보이다. 실시예에서 이상상태는 작업자 각각의 응급상황, 사고상황 등을 나타내는 정보로서, 쓰러짐, 출혈, 경련, 부동, 넘어짐 등을 포함할 수 있고 이에 한정하지 않는다.
관제서버(300)는 분석서버(200)로부터 영상 분석 결과를 수신하여 출력하고, CCTV(200)를 통해 생성된 영상정보를 관리자 단말(400)로 출력할 수 있도록 한다. 또한, 관제서버(300)는 작업자 안전관리 시스템에 포함된 CCTV(200), 분석서버(100) 및 작업자 단말(500)을 모니터링하고 관리한다.
관리자 단말(400)은 관제서버(300)로부터 시스템 관리 정보를 수신하여 출력한다. 실시예에서 시스템 관리 정보는 작업자 및 작업공간의 안전관리를 위해 모니터링되는 정보로서, CCTV 영상정보, 영상정보 분석 결과 및 작업자 단말(500) 각각의 통신 상태 등을 포함할 수 있다.
작업자 단말(500)은 작업공간에서 일하는 작업자가 소지하는 스마트 단말이다. 작업자 단말(500)은 분석서버(100), 관제서버(300) 및 관리자 단말(400)과 통신하고, 작업자의 실시간 위치를 파악한다. 또한, 실시예에서는 작업자의 이상상태가 인식되거나, 작업자에게 응급상황이 발생한 경우, 작업자 단말(500)의 카메라가 자동으로 온 되어, 작업자를 촬영하고, 관리자 단말(400)로 촬영된 영상 및 응급상황 발생 정보를 전달할 수 있다. 또한, 실시예에서 작업자 단말(500)은 분석서버(100), 관제서버(300) 및 관리자 단말(400)로부터 위험 신호 및 경고 메시지를 수신하고 출력한다.
적어도 하나의 단말(400,500)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 구매자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 구매자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 태블릿 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
실시예에 따른 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템은 CCTV로부터 작업자를 촬영한 영상정보를 수집하여 작업자 인원수, 작업모 작용여부를 포함하는 규정 준수 정보와 쓰러짐 등 이상 상태를 감지한다.
실시예에서는 작업 공간에 설치된 CCTV 또는 작업자 단말의 카메라로 촬영된 영상정보를 수집하고, 인공신경망 모델을 통해, 수집된 영상을 분석하여, 작업자의 이상 상태 및 규정 준수 정보를 파악한다.
또한, 실시예에서는 영상정보 분석을 통해, 작업자의 위치와 모션을 1차 파악하고, 파악된 위치와 모션에 따라 줌, 포커싱 변화 등 CCTV 촬영 조건을 자동으로 변경하고, 변경된 촬영 조건으로 촬영된 영상을 수집한다. 이후, 수집된 영상을 인공신경망 모델로 분석하여 작업자 상태정보와 규정 준수 정보를 할 수 있다.
또한, 실시예에서는 데이터 처리 효율을 향상한 실시간 영상 분석을 위해, 분석서버에서 저해상도로 변환된 분석용 영상을 분석하고, 분석 결과를 수신하는 관제서버에서는 고해상도 영상을 출력할 수 있도록 한다.
도 2는 실시예에 따른 분석서버의 블록도를 나타낸 도면이다.
실시예에서 분석서버(100)는 컴퓨터 네트워크에서 다른 컴퓨터나 장치들에게 서비스를 제공하거나 데이터를 저장하고 관리하는 컴퓨팅 시스템이다. 서버(100)는 클라이언트(Client)라 불리는 다른 컴퓨터나 장치들로부터 요청을 받아들이고, 해당 요청에 대한 응답이나 데이터를 제공한다. 도 2에 도시된 분석서버(100)의 구성은 간략화하여 나타낸 예시일 뿐이다.
통신부(110)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 통신부(110)는 공지의 월드와이드웹(WWW: World Wide Web) 기반으로 동작할 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다. 일례로, 통신부(110)는 본 개시의 일 실시예에 따른 기법을 수행하는데 필요한 데이터에 대한 송수신을 담당할 수 있다.
메모리(120)는 임의의 타입의 저장 매체를 의미할 수 있다 예를 들어, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예: SD 또는 XD 메모리 등), RAM(Random Access Memory), SRAM(Static Random Access Memory), ROM(Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이러한 메모리(120)는 도 1에 도시되어 있는 데이터베이스를 구성할 수도 있다.
메모리(120)는 프로세서(130)에 의해 실행될 수 있는 적어도 하나의 명령어를 저장할 수 있다. 또한, 메모리(120)는 프로세서(130)가 생성하거나 결정한 임의의 형태의 정보 및 서버(200)가 수신한 임의의 형태의 정보를 저장할 수 있다. 예컨대, 메모리(120)는 후술하겠지만 사용자에 따른 RM 데이터 및 RM 프로토콜을 저장한다. 또한, 메모리(120)는 다양한 종류의 모듈, 명령어 세트 내지 모델을 저장한다.
프로세서(130)는 메모리(120)에 저장된 적어도 하나의 명령어를 실행시킴으로써, 후술될 본 개시내용의 실시예들에 따른 기술적 특징들을 수행할 수 있다. 일 실시예에서, 프로세서(130)는 적어도 하나의 코어로 구성될 수 있으며, 컴퓨터 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석 및/또는 처리를 위한 프로세서를 포함할 수 있다.
도 3은 실시예에 따른 메모리에 저장된 명령어 세트 구성을 나타낸 도면이다.
도 3을 참조하면, 실시예에 따른 명령어 세트는 수집부(121), 전처리부(122), 학습부(123), 분석부(124) 및 피드백부(125)를 포함하여 구성될 수 있다. 포함하여 구성될 수 있다. 본 명세서에서 사용되는 '부' 라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.
수집부(121)는 작업자 안전관리에 필요한 일련의 데이터를 수집한다. 실시예에서 수집부(121)는 분석서버(100)에 등록된 CCTV로부터 영상정보를 수집한다. 또한, 수집부(121)는 영상정보 분석에 이용되는 딥러닝 모델의 학습 데이터 셋을 수집한다. 실시예에서 학습 데이터 셋은 입력데이터와 출력데이터를 포함할 수 있고, 입력 데이터는 작업자 영상, 안전 규정을 모두 준수한 이미지, 작업자의 자세 별 이미지, 모션 데이터 및 주변 시설물 이미지 등을 포함할 수 있다. 출력데이터는 작업자의 자세와 모션에 매칭된 응급상황 및 위험지수, 주변 시설물 이미지별 위험도, 안전규정 준수 판단 결과, 자세와 모션 별 정의 등이 포함될 수 있고, 이에 한정하지 않는다.
전처리부(122)는 수집된 인공지능 학습 데이터 셋 중 편향성이나 차별성을 가진 데이터를 제거하기 위해, 수집된 학습데이터를 전처리한다. 실시예에서 전처리부(122)는 수집된 트레이닝 데이터 셋을 전처리하여 인공지능 모델 학습에 적합한 형태로 가공한다. 예컨대, 전처리부(122)는 노이즈 제거, 이상치 제거, 결측치 처리 등의 과정을 수행할 수 있다. 또한, 전처리부(122)는 데이터 전처리를 통해 데이터를 정규화하거나, 이상치를 제거하거나, 데이터의 배율 조정 등을 수행하여 모델이 불필요한 패턴을 학습하는 것을 방지할 수 있다.
학습부(123)는 딥러닝 뉴럴 네트워크를 수집된 트레이닝 데이터 셋으로 학습시켜 딥러닝 모델을 구현한다. 도 4는 실시예 따른 학습부에 저장되어 데이터를 학습하는 모델의 예를 나타낸 도면이다. 도 4를 참조하면, 메모리의 학습부(123)에는 영상분석모델(1) 및 위험도 예측 모델(2) 등이 저장될 수 있다. 각각의 모듈 내지 모델은 프로세서(130)에 의해 실행 가능한 어플리케이션의 형태일 수 있다.
영상분석 모델(1)은 디지털 이미지나 영상에서 정보를 추출하고 해석하는 인공신경망 모델이다. 영상분석 모델(1)은 컴퓨터가 시각적 데이터를 이해하고 처리하며, CCTV로부터 수집된 영상정보 및 이미지에서 객체 인식, 객체 추적, 특징 추출, 패턴 인식, 이미지 분할 및 분류 등을 수행한다.
실시예에서 영상분석 모델(1)은 영상정보에서 작업자 및 작업자 주변 시설물 객체를 추출하고, 추출된 객체를 분석하여 작업자의 규정 준수 정보를 파악한다. 또한, 실시예에서 영상분석 모델(1)은 수집된 학습 데이터 셋을 이용하여 작업자, 규정 준수 정보 판단을 위한 객체의 형태 및 특징을 학습한다.
위험도 예측 모델(2)은 특정 사건, 환경, 또는 활동과 관련된 위험 수준을 예측하고 평가하는 인공신경망 모델이다. 위험도 예측 모델(2)은 데이터 기반 접근법을 사용하여 다양한 요소를 분석하고, 위험의 가능성을 식별한다. 실시예에서 위험도 예측 모델(2)은 영상 분석 결과를 기반으로 시설물의 위험도를 예측하고, 작업자의 위험 상황을 예측한다.
실시예에서 이용되는 모델은 학습 데이터 셋에 데이터 증강 알고리즘을 적용하여, 학습데이터의 용량을 늘리고, 증가된 학습 데이터 셋을 학습할 수 있다.
본 명세서에서의 모델은 네트워크 함수, 인공신경망 및/또는 뉴럴 네트워크에 기반하여 동작하는 임의의 형태의 컴퓨터 프로그램을 의미할 수 있다. 본 명세서에 걸쳐, 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 상호 교환 가능한 의미로 사용될 수 있다. 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수개의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN: Generative Adversarial Network), 트랜스포머(transformer) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
뉴럴 네트워크는 지도학습(supervised learning), 비지도학습(unsupervised learning), 준지도학습(semi supervised learning), 자가학습(self-supervised learning) 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다.
뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 지도학습의 경우 각각의 학습 데이터에 정답이 라벨링 되어있는 데이터(labelled data)를 사용하며, 비지도학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않은 데이터(unlabeled data)를 사용할 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 또한, 과적합(overfitting)을 막기 위해서 학습 데이터의 증가, 레귤러화(regularization), 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer) 등의 방법이 적용될 수 있다.
일 실시예에서, 모델은 트랜스포머의 적어도 일부분을 차용할 수 있다. 트랜스포머는 임베딩된 데이터들을 인코딩하는 인코더 및 인코딩된 데이터들을 디코딩하는 디코더로 구성될 수 있다. 트랜스포머는 일련의 데이터들을 수신하여, 인코딩 및 디코딩 단계를 거처 상이한 타입의 일련의 데이터들을 출력하는 구조를 지닐 수 있다. 일 실시예에서, 일련의 데이터들은 트랜스포머가 연산가능한 형태로 가공될 수 있다. 일련의 데이터들을 트랜스포머가 연산가능한 형태로 가공하는 과정은 임베딩 과정을 포함할 수 있다. 데이터 토큰, 임베딩 벡터, 임베딩 토큰 등과 같은 표현들은, 트랜스포머가 처리할 수 있는 형태로 임베딩된 데이터들을 지칭하는 것일 수 있다.
트랜스포머가 일련의 데이터들을 인코딩 및 디코딩하기 위하여, 트랜스포머 내의 인코더 및 디코더들을 어텐션(attention) 알고리즘을 활용하여 처리할 수 있다. 어텐션 알고리즘이란 주어진 쿼리(Query)에 대해, 하나 이상의 키(Key)에 대한 유사도를 구하고, 이렇게 주어진 유사도를, 각각의 키(Key)와 대응하는 값(Value)에 반영한 후, 유사도가 반영된 값(Value)들을 가중합하여 어텐션 값을 계산하는 알고리즘을 의미할 수 있다.
쿼리, 키 및 값을 어떻게 설정하느냐에 따라, 다양한 종류의 어텐션 알고리즘이 분류될 수 있다. 예를 들어, 쿼리, 키 및 값을 모두 동일하게 설정하여 어텐션을 구하는 경우, 이는 셀프-어텐션 알고리즘을 의미할 수 있다. 입력된 일련의 데이터들을 병렬로 처리하기 위해, 임베딩 벡터를 차원을 축소하여, 각 분할된 임베딩 벡터에 대해 개별적인 어텐션 헤드를 구하여 어텐션을 구하는 경우, 이는 멀티-헤드(multi-head) 어텐션 알고리즘을 의미할 수 있다.
일 실시예에서, 트랜스포머는 복수개의 멀티-헤드 셀프 어텐션 알고리즘 또는 멀티-헤드 인코더-디코더 알고리즘을 수행하는 모듈들로 구성될 수 있다. 일 실시예에서, 트랜스포머는 임베딩, 정규화, 소프트맥스(softmax) 등 어텐션 알고리즘이 아닌 부가적인 구성요소들 또한 포함할 수 있다. 어텐션 알고리즘을 이용하여 트랜스포머를 구성하는 방법은 Vaswani et al., Attention Is All You Need, 2017 NIPS에 개시된 방법을 포함할 수 있으며, 이는 본 명세서에 참조로 통합된다.
트랜스포머는 임베딩된 자연어, 분할된 이미지 데이터, 오디오 파형 등 다양한 데이터 도메인에 적용하여, 일련의 입력 데이터를 일련의 출력 데이터로 변환할 수 있다. 다양한 데이터 도메인을 가진 데이터들을 트랜스포머에 입력가능한 일련의 데이터들로 변환하기 위해, 트랜스포머는 데이터들을 임베딩할 수 있다. 트랜스포머는 일련의 입력 데이터 사이의 상대적 위치관계 또는 위상관계를 표현하는 추가적인 데이터를 처리할 수 있다. 또는 일련의 입력 데이터에 입력 데이터들 사이의 상대적인 위치관계 또는 위상관계를 표현하는 벡터들이 추가적으로 반영되어 일련의 입력 데이터가 임베딩될 수 있다. 일 예에서, 일련의 입력 데이터 사이의 상대적 위치관계는, 자연어 문장 내에서의 어순, 각각의 분할된 이미지의 상대적 위치 관계, 분할된 오디오 파형의 시간 순서 등을 포함할 수 있으나, 이에 제한되지 않는다. 일련의 입력 데이터들 사이의 상대적인 위치관계 또는 위상관계를 표현하는 정보를 추가하는 과정은 위치 인코딩(positional encoding)으로 지칭될 수 있다.
일 실시예에서, 모델은 RNN(Recurrent Neural Network), LSTM(Long Short Term Memory) 네트워크, DNN(Deep Neural Network), CNN(Convolutional Neural Network) 및 BRDNN(Bidirectional Recurrent Deep Neural Network) 중 적어도 하나를 포함할 수 있고 이에 한정하지 않는다.
일 실시예에서, 모델은 전이학습(transfer learning) 방식으로 학습된 모델일 수 있다. 여기서, 전이학습은 대용량의 라벨링되어 있지 않은 학습용 데이터를 준지도학습 또는 자가학습 방식으로 사전 학습(pre-training)하여 제1 태스크를 갖는 사전 학습된(pre-trained) 모델을 얻고, 사전 학습된 모델을 제2 태스크에 적합하도록 fine-tuning하여 라벨링된 학습용 데이터를 지도학습 방식으로 학습해 타겟으로 하는 모델을 구현하는 학습 방식을 나타낸다.
다시 도 3을 참조하면, 분석부(124)는 영상정보의 해상도를 조정하여, 분석용 영상과 보고용 영상을 생성한다.
실시예에서 분석부(124)는 영상정보의 해상도를 일정 수준 미만의 저해상도로 낮추어 분석용 영상을 생성한다. 예컨대, 분석부(124)는 리샘플링, 피라미드 구성 및 하프톤화 중 적어도 하나를 통해, 저해상도의 분석용 영상을 생성한다.
실시예에서 분석부(124)는 수집된 영상정보를 리샘플링 하여 픽셀 수를 줄임으로써, 해상도를 낮추어 분석용 영상을 생성할 수 있다. 실시예에서 분석부(124)는 리샘플링 시, 작업자의 에지, 작업자 주변 구조물의 에지 및 작업자가 안전장비를 착용하는 부분을 포함하는 주요영역을 제외한 부분을 리샘플링하여 분석용 영상을 생성할 수 있다. 실시예에서 주요영역을 제외한 부분을 리샘플링 하는 것은, 위험도 및 작업자 상태 예측에 중요하게 이용되는 정보는 고화질로 남기고, 상대적으로 중요하지 않은 정보를 저화질로 변환하여 모델을 이용한 영상 분석 시 데이터 처리 효율을 높이기 위함이다.
또한, 분석부(124)는 이미지 피라미드를 포함하는 다중 해상도 버전을 생성하고, 다중 해상도 버전 중 하나를 분석용 영상으로 선택할 수 있다. 실시예에서, 분석부(124)는 다중 해상도 버전 중 객체의 에지가 분별되는 최소 해상도의 이미지를 분석용 영상으로 선택할 수 있다. 또한, 분석부(124)는 이미지를 이진화 하여 해상도를 낮춘 하프톤화를 통해, 분석용 영상을 생성할 수 있다.
이후, 분석부(124)는 분석용 영상에서 규정 준수 정보 검출을 위한 관심영역을 추출하고, 추출된 관심영역을 분석하여 규정 준수 정보를 파악한다.
실시예에서 관심영역(RoI, Region of Interest)은 작업자가 안전 장비를 착용하는 신체가 나타난 이미지 영역을 포함할 수 있다. 실시예에서 안전장비는 작업공간에 설정된 안전규정에 따라 안전모, 작업복, 장갑, 마스크, 방독면 등을 포함할 수 있고 이에 한정하지 않는다. 예컨대, 안전모, 장갑, 마스크가 안정규정에서 반드시 착용하도록 하는 안전장비인 경우, 관심영역은 안전모를 착용하는 작업자의 머리부분, 장갑을 착용하는 작업자의 손 부분 및 마스크를 착용하는 작업자의 입 부분으로 설정될 수 있다. 실시예에서 분석부(124)는 안전규정을 기반으로 관심영역을 추출하고, 추출된 관심영역을 영상 분석 모델에 입력하여 규정 준수 정보를 파악할 수 있다. 규정 준수 정보는 작업자의 안전장비 착용 여부와 안전장비의 착용상태를 포함할 수 있다.
또한, 실시예에서 분석부(124)는 안전장비가 착용된 것으로 파악되면, 해당 안전장비가 올바로 착용되었는지를 나타내는 착용상태를 파악한다. 예컨대, 안전모의 경우, 안전모의 방향과 잠금 장치가 잠겼는지를 파악하고, 장갑의 경우, 장갑의 버클이 완전히 잠금 상태인지 파악할 수 있다. 또한, 마스크의 경우, 작업자의 코와 입을 모두 가린 상태로 양쪽 귀에 모두 고정되어 있는지 등을 착용 상태로 파악한다. 실시예에서 분석부(124)는 안전장비의 착용상태가 올바르지 않은 경우, 잘못 착용된 영역을 추출하여 관리자 단말 및 작업자 단말로 전송한다.
또한, 분석부(124)는 관제서버 또는 관리자 단말로부터 전송된 안전작업 허가서를 인식하고, 안전작업 허가서에서 허가 작업자 인원을 포함하는 작업 규정 정보를 추출한다. 실시예에서 분석부(124)는 텍스트 인식 모델 및 이미지 인식 모델을 통해, 안전작업 허가서에서 작업 규정 정보를 추출하고, 추출된 작업 규정 정보를 항목 별로 나열한다.
예컨대, 분석부(124)는 작업 규정 정보에 포함된 작업 공간 별 작업허용 인원, 작업 시간, 휴식시간, 작업자 위해요인 등을 항목 별로 나열할 수 있다. 이후, 분석부(124)는 추출된 작업 규정 정보와 영상 분석 결과에 따라 작업 규정 준수 여부를 판단한다.
구체적으로, 분석부(124)는 영상정보에서 작업 공간 별 작업자 수를 추출하고 작업자 수를 작업 규정 정보에 포함된 작업자 수와 비교하여 비교 결과에 따라 작업 규정 준수 여부를 판단할 수 있다. 또한, 분석부(124)는 영상 정보 분석결과 인식된 작업자 주변 구조물, 주변환경정보와 작업자 위해요인을 비교하여, 작업자 위해 요인이 검출되는 경우, 이를 관리자 단말로 전송할 수 있다. 실시예에서 작업자 위해요인은 작업자 주변의 날카로운 물체나 뚜껑이 없는 맨홀 등 작업자에게 해를 입힐 수 있는 물체나, 환경을 포함한다.
예컨대, 분석부(124)는 작업자 위해요인이 감지되면, 위해 요인의 레벨을 복수의 레벨로 설정한다. 실시예에서, 복수의 레벨이 고위험도, 중위험도, 저위험도를 포함할 수 있다. 실시예에서 분석부(124)는 위험도 예측 모델을 통해 위해요인의 위험도를 파악하고, 파악된 위험도에 설정된 프로세스를 수행한다.
구체적으로 분석부(124)는 위해요인이 고위험도인 경우에는 실시간으로 작업자들의 위치 및 이동 방향을 파악하고, 근거리에 위치한 작업자 및 해당 위험시설물로 이동하는 작업자에게 경고 알람을 실시간으로 발송한다. 이를 통해, 고위험도인 위해요인 시설물에 접근을 금지시키고, 책임자의 관리하에 해당 위해요인의 위험이 해소되었을 경우 경고를 해소할 수 있도록 한다. 실시예에서 위험시설물을 포함하는 작업자 위해요인으로 이동하는 작업자는 반복되는 이동패턴에 따라 학습된 동선에 따라 구분하거나, 위험시설물 방향으로 실시간 접근하는 것이 확인된 작업자를 의미한다.
중위험도인 경우에는 안전규정 준수한 작업자와 준수하지 않은 작업자를 분류하고, 준수한 작업자는 접근 허용하고, 미준수한 작업자는 접근 불가하도록 한다. 작업자의 안전규정 준수여부는 안전모 착용 여부 등을 포함할 수 있다. 저위험도인 경우에는, 근거리 위치 작업자 및 위험시설물로 이동하는 작업자에게 주의 알람을 송부하고, 공사장 책임자의 확인을 요청한다.
또한, 실시예에서 분석부(124)는 안전작업 허가서와 연계하여 작업자 현황 파악한다. 예컨대, 분석부(124)는 영상 정보 분석 결과에 따라 허가 작업자 현황, 작업인원을 파악하고, 이를 기반으로 작업 공간 별 오늘의 작업현황을 생성하여 관제서버 및 관리자 단말로 전송할 수 있다.
또한, 실시예에서 분석부(124)는 날짜 별 작업시간 동안 생성된 영상 정보를 분석하여, 작업자의 모션을 파악하고 모션을 통해 휴게시간이용 여부 및 이용된 휴게시간(예컨대, 15분)를 파악하여, 작업 규정 정보 준수 여부를 판단할 수 있다.
실시예에서 분석부(124)는 날짜 별 영상정보를 분석하여, 작업자의 위치 및 자세 정보를 파악하고, 이를 통해 작업자의 휴게시간 이용 여부를 판단할 수 있다. 예컨대, 분석부(124)는 작업자의 위치가 휴게공간으로 인식되거나, 휴식상태가 인식되는 경우, 휴식시간을 이용하는 것으로 파악할 수 있다. 실시예에서 휴식상태는 작업자가 휴식중임을 나타내는 모션 정보로서, 앉아있는 자세, 식사중인 모션, 수면 등을 포함할 수 있다. 이후, 분석부(124)는 휴식상태로 인식된 시간과 작업 규정 정보에 포함된 휴식시간을 비교하여 휴식 시간 준수 여부를 파악할 수 있다. 아울러, 휴식시간이 일정 수준이상 초과되는 작업자를 파악하여 해당 작업자에게 주의 메시지를 전송하고 휴식시간을 초과한 작업자 정보를 관리자에게 보고할 수 있다.
또한, 분석부(124)는 저해상도로 생성된 분석용 영상을 영상 분석 모델 또는 위험도 예측 모델에 입력하여, 작업자의 이상상태를 모델의 출력으로 획득할 수 있다. 실시예에서 모델은 작업자의 모션 및 움직임 변화를 파악하여, 쓰러짐, 경련, 부동 등 이상상태가 인식되는 경우, 인식된 이상상태에 대한 위험도를 예측할 수 있다. 실시예에서 분석부(124)는 영상정보에서 인식된 각각의 이상상태에 대한 중요성 및 위험 정도를 고려하며, 위험도를 산출한다. 실시예에서 중요성 및 위험정도는 API 및 웹크롤링을 통한 안전 가이드라인 또는 훈련 데이터를 통해 획득할 수 있다. 또한, 위험도 산출모델은 인식된 작업자 모션 및 모션 변화에 대한 통계결과를 통해 위험도를 산출할 수 있다.
또한, 실시예에서 분석부(124)는 작업자의 이상상태 별 위험도에 따라 다른 프로세스를 수행한다. 실시예에서 위험도에 따라 수행되는 프로세스는 미리 설정될 수 있다. 예컨대, 분석부(124)는 작업자 출혈, 쓰러짐에 해당하는 이상상태를 고위험도로 설정하고, 작업자에게 고위험도인 이상상태가 인식된 경우, 구조대 신고, 관리자 연락, 이상상태 작업자의 위치에 따른 경보 발생을 포함하는 고위험 작업자 대응 프로세스를 수행한다.
분석부(124)는 이동 속도저하, 일정 시간 이상의 부동 등 중 위험도의 이상상태가 인식된 경우, 휴식 권고, 관리자 상담을 포함하는 중위험 작업자 대응 프로세스를 수행한다.
분석부(124)는 분석용 영상에서 작업자 객체 추출 후 추출된 작업자 객체의 위치와 모션을 파악하고, 위치 및 모션에 따라 CCTV 촬영 조건을 제어한다. 실시예에서 CCTV 촬영 조건은 CCTV에서 이용가능한 촬영 기능으로 줌, 포커싱 변화, 색조 변화, 해상도 조정 등을 포함할 수 있다.
예컨대, 분석부(124)는 분석용 영상에서 추출된 작업자 객체에서 이상모션이 검출되는 경우, 이상모션을 취한 작업자로 줌인하여 촬영한다. 실시예에서 이상 모션은 일정 시간 이상의 부동, 누운 자세 및 쓰러짐 등을 포함할 수 있다.
또한, 분석부(124)는 작업자의 모션 인식 결과 폭행, 싸움, 흡연, 음주 혐오행위 등을 포함하는 금지행위가 인식된 경우, 금지행위를 취하는 작업자를 CCTV에서 줌인 및 포커싱 하여 촬영하도록 한다.
또한, 실시예에서 작업자의 위치가 위험지역으로 파악되거나, 위험 지역으로 이동중인 작업자가 추출되는 경우, 해당 작업자를 줌인하여 촬영하고, 촬영된 작업자를 식별한다. 이후, 식별된 작업자 단말로 경고 메시지를 바로 전송한다. 예컨대, 분석부(124)는 작업자가 개구부의 덮개가 없는 위험지역으로 접근하는 경우, 위험지역과 작업자 사이의 거리가 일정 수준 미만이 되면, 위험 알람을 작업자 단말로 전송할 수 있다.
또한, 실시예에서 분석부(124)는 이상 모션 또는 금지 행동이 인식된 작업자를 식별하기 위해, 작업자 식별정보를 포커싱 하여 촬영하도록 CCTV를 제어한다. 실시예에서 작업자 식별정보는 작업자 객체의 이름, 사원번호 등을 포함할 수 있다.
분석부(124)는 분석용 영상에서 작업자 주변의 시설물 객체를 검출하고, 검출된 시설물 객체를 분석하여, 시설물 객체 별 위험도를 파악한다. 이를 위해, 분석부(124)는 영상분석 모델을 통해 영상정보에서 시설물 객체를 검출한다. 이후, 검출된 객체가 어떤 유형의 시설물인지를 식별한다. 예컨대, 분석부(124)는 건물, 기계, 전기설비, 파이프, 화학물질 용기 등 다양한 시설물 유형을 구분할 수 있다. 또한, 실시예에서 분석부(124)는 검출된 시설물 객체의 위치를 추적하고, 작업자와의 상대적인 위치를 파악한다. 이후, 분석부(124)는 시설물 객체 별로 위험도를 평가한다. 실시예에서 분석부(124)는 객체의 크기, 상태, 위치, 사용 용도, 환경 조건, 작업자와의 상대적 거리 등을 고려하여 위험도를 산출할 수 있다.
분석부(124)는 위험도 산출 후 산출된 시설물 객체 별 위험도가 미리 설정된 경고수치를 초과하는 경우, 관제서버로 시설물 객체의 위험도를 전송한다.
또한, 위험도가 위험수치를 초과하는 경우, 작업자의 스마트 단말로 시설물 객체의 위험도를 곧바로 알릴 수 있다. 실시예에서 위험도 전송을 판단하는 경고수치 및 위험수치의 설정값은 학습 데이터를 통해 설정될 수 있다. 실시예에서는 위험도가 일정 수준을 초과하는 경우, 경고를 발생시키거나 작업을 중지하는 등의 적절한 대응 조치를 취하게 함으로써, 위험 상황을 관리하고 작업자 안전을 보장할 수 있도록 한다.
또한, 실시예에서 분석부(124)는 시설물의 위험도 레벨을 복수의 레벨로 설정한다. 실시예에서, 복수의 레벨은 고위험도, 중위험도, 저위험도를 포함할 수 있다. 실시예에서 분석부(124)는 위험도 예측 모델을 통해 위해요인의 위험도를 파악하고, 파악된 위험도에 설정된 프로세스를 수행한다.
구체적으로 분석부(124)는 위해요인이 고위험도인 경우에는 실시간으로 작업자들의 위치 및 이동 방향을 파악하고, 근거리에 위치한 작업자 및 해당 위험 시설물로 이동하는 작업자에게 경고 알람을 실시간으로 발송한다. 이를 통해, 고위험도인 위해요인 시설물에 접근을 금지시키고, 책임자의 관리하에 해당 위해요인의 위험이 해소되었을 경우 경고를 해소할 수 있도록 한다. 실시예에서 위험 시설물을 포함하는 작업자 위해요인으로 이동하는 작업자는 반복되는 이동패턴에 따라 학습된 동선에 따라 구분하거나, 위험시설물 방향으로 실시간 접근하는 것이 확인된 작업자를 의미한다.
중위험도인 경우에는 안전규정 준수한 작업자와 준수하지 않은 작업자를 분류하고, 준수한 작업자는 접근 허용하고, 미준수한 작업자는 접근 불가하도록 한다. 작업자의 안전규정 준수여부는 안전모 착용 여부 등을 포함할 수 있다. 저위험도인 경우에는, 근거리 위치 작업자 및 위험시설물로 이동하는 작업자에게 주의 알람을 송부하고, 공사장 책임자의 확인을 요청한다.
또한, 실시예에서 분석부(124)는 시설물의 위험도에 따라 접근 반경을 다르게 설정할 수 있다. 예컨대, 분석부(124)는 위험도에 반비례하는 접근 반경을 미리 설정하고, 산출된 위험도에 따라 접근반경을 작업자 단말 및 관리자 단말로 전송할 수 있다. 구체적으로 분석부(124)는 고위험도 시설물의 경우, 고위험도 시설물에서 일정 반경 이내에 접근불가로 설정하고, 저 위험도 시설물은 제1수치 반경 이내로 접근불가로 설정하고, 중위험도 시설물은 제1수치보다 더 큰 반경에 접근금지를 설정한다. 또한, 저위험도 시설물은 시설물 자체에만 접근 금지를 설정할 수 있다.
분석부(124)는 영상정보 분석 후 보고용 영상을 생성한다. 실시예에서 분석부(124)는 저해상도인 분석용 영상을 고해상도로 복원하고, 복원된 영상을 분석 결과와 결합한 보고용 영상을 생성할 수 있다. 이를 위해, 분석부(124)는 저해상도의 분석용 영상과 분석용 영상의 영상 분석 결과를 수집한다. 이후, 분석부(124)는 저해상도인 분석용 영상을 인터폴레이션, 슈퍼 해상도 기술, 딥러닝, 영상복원 필터 중 적어도 하나를 이용하여 고해상도로 복원한다.
실시예에서 분석부(124)는 이미지 픽셀 간의 값을 추정하여 해상도를 높이는 인터폴레이션(Interpolation)을 통해, 분석용 영상을 고해상도로 복원할 수 있다. 또한, 저해상도 영상에서 세부 정보를 추출하는 슈퍼 해상도(Super-Resolution)기술을 이용하여, 분석용 영상을 복원할 수 있다. 또한, 분석부(124)는 딥 러닝인 영상분석 모델을 사용하여 고해상도 영상을 생성할 수 있다. 실시예에서 분석부(124)는 CNN(Convolutional Neural Network) 아키텍처를 이용하여 슈퍼 해상도 작업을 수행할 수 있다. 실시예에서 영상 분석 모델은 저해상도의 분석용 영상을 입력 받아, 고해상도로 복원된 영상을 생성한다.
또한, 실시예에서 분석부(124)는 영상 복원 필터를 이용하여 분석용 영상을 복원할 수 있다. 예컨대, Wiener 필터, Total Variation Regularization, Non-Local Means 등을 이용함으로써, 분석용 영상에서 노이즈를 제거하고 세부 정보를 향상시켜 고해상도 영상을 생성할 수 있다.
이후, 분석부(124)는 작업자의 동작, 객체 감지 결과, 규정 준수 정보, 위험 상황, 이상상황 등을 포함하는 분석결과를 고해상도로 복원된 영상에 결합한다. 실시예에서 보고용 영상은 고해상도의 시각적 품질을 가지며, 시각화된 분석 결과 정보를 포함한다. 실시예에서 보고용 영상은 모니터링 대시보드, 레코딩, 또는 실시간 모니터링 시스템을 통해 시각적으로 표시될 수 있다.
또한, 실시예에서 분석부(124)는 분석 결과와 분석용 영상을 병합한 저화질 보고 영상을 생성하고, 저화질 보고 영상을 관제서버로 전송할 수 있다. 실시예에서 분석부(124)는 분석서버와 관제서버간 통신상태와 처리중인 데이터 량에 따라 저화질 보고 영상을 생성하여 관제서버로 전송할 수 있다. 예컨대, 분석부(124)는 관제서버와의 통신상태 저하로, 고화질의 보고용 영상을 송신완료 하는데까지 일정 수치 이상의 시간이 소요될 것으로 예측되는 경우, 저화질 보고 영상을 생성하여 관제 서버로 전송한다. 이를 위해, 분석부(124)는 네트워크 상태에 따른 데이터 용량 별 전송 완료 시간을 산출하고, 산출된 전송완료 시간이 일정 수치를 초과하는 경우, 저화질 보고 영상을 생성하고 이를 관제서버로 전송한다.
또한, 실시예에서 분석부(124)는 분석서버와 관제서버간 통신 상태와 처리중인 데이터 량에 따라 저화질 보고영상의 데이터 용량을 산출한다. 이를 위해, 분석부(124)는 이것은 네트워크 대역폭, 지연 시간, 패킷 손실을 포함하는 통신 상태를 모니터링하고 통신상태 안정성을 상, 중 하 레벨로 분류하여 파악한다. 또한, 분석부(124)는 분석 중인 영상의 크기와 포맷, 프레임 속도를 포함하는 현재 처리 중인 데이터 양을 추적한다. 이후, 분석부(124)는 현재 처리중인 데이터 양을 상, 중, 하 레벨 중 하나로 파악한다. 이후, 통신 상태와 데이터 양 정보를 기반으로 분석부(124)는 보고용 영상의 데이터 용량을 산출한다. 예컨대, 분석부(124)는 통신상태 안정성 레벨과, 현재 처리중인 데이터 양의 레벨 조합에 따라 미리 설정된 용량의 저화질 보고용 영상을 생성할 수 있다. 구체적으로 통신상태 안정성의 레벨이 '상', 현재 처리중인 데이터 양의 레벨이 '하'인 경우, 저화질 보고 영상이 데이터 용량이 가장 큰 제1용량으로 보고 영상을 생성한다. 만일, 통신상태 안정성의 레벨이 '하', 현재 처리중인 데이터 양의 레벨이 '상'인 경우, 저화질 보고 영상의 데이터 용량이 가장 작은 제27용량으로 보고 영상을 생성한다. 실시예에서 분석부(124)는 통신상태 안정성 레벨 및 현제 처리중인 데이터 레벨의 경우의 수를 모두 조합하여 각 경우의 수에 따른 보고영상 용량을 각각 산출한다. 이후, 파악된 통신상태 안정성 레벨 및 현제 처리중인 데이터 레벨에 따라 해당되는 보고영상 용량으로 저화질 보고 영상을 생성할 수 있다.
또한, 분석부(124)는 분석서버에서 처리중인 데이터량이 일정 수준을 초과하는 경우, 저화질 보고 영상을 생성하여 관제서버로 전송한다. 실시예에서 분석부(124)는 처리중인 데이터 용량이 일정 수준을 초과하여, 고화질 보고영상을 관제서버로 전송하는 경우, 분석 서버 전체의 데이터 처리 효율일 저하될 것으로 예상되면, 저화질 보고 영상을 생성하고 이를 관제서버로 전송한다. 이를 위해, 분석부(124)는 분석서버에서 처리중인 데이터 용량을 확인하고, 확인된 용량이 일정 수준을 초과하는 경우, 전송 데이터 용량에 따른 전송 완료 시간을 산출한다. 이후, 분석부(124)는 고화질 보고용 영상의 용량과 데이터 전송완료 시간을 확인하고, 확인된 데이터 전송 완료 시간이 일정 수치를 초과하는 경우, 저화질 보고용 영상을 생성하고 이를 관제서버로 전송한다.
실시예에서 관제서버(300)는 수신한 저화질 보고영상을 고화질로 복원하여 출력한다. 실시예에서 관제서버(300)는 이미지 픽셀 간의 값을 추정하여 해상도를 높이는 인터폴레이션(Interpolation)을 통해, 저화질 보고용 영상을 고해상도로 변환할 수 있다. 또한, 저해상도 영상에서 세부 정보를 추출하는 슈퍼 해상도(Super-Resolution)기술을 이용하여, 저화질 보고용 영상을 고화질로 변환할 수 있다. 또한, 관제서버(300)는 딥 러닝인 영상분석 모델을 사용하여 고해상도 영상을 생성할 수 있다. 실시예에서 관제서버(300)는 CNN(Convolutional Neural Network) 아키텍처를 이용하여 슈퍼 해상도 작업을 수행할 수 있다. 실시예에서 영상 분석 모델은 저해상도의 분석용 영상을 입력 받아, 고해상도로 복원된 영상을 생성한다. 또한, 실시예에서 관제서버(300)는 영상 복원 필터를 이용하여 저화질 보고용 영상을 복원할 수 있다. 예컨대, Wiener 필터, Total Variation Regularization, Non-Local Means 등을 이용함으로써, 분석용 영상에서 노이즈를 제거하고 세부 정보를 향상시켜 고해상도 영상을 생성할 수 있다.
피드백부(125)는 학습된 인공신경망 모델 및 딥러닝 모델을 평가한다. 실시예에서 피드백부(125)는 정확도(Accuracy), 정밀도 (Precision) 및 재현율 (Recall) 중 적어도 하나를 통해, 인공신경망 모델을 평가할 수 있다. 정확도는 인공 신경망 모델이 예측한 결과가 실제 결과와 얼마나 일치하는지를 측정하는 지표이다. 정밀도는 양성으로 예측한 결과 중 실제 양성인 비율을 측정하는 지표이다. 재현율은 실제 양성 중에서 모델이 양성으로 예측한 비율을 측정하는 지표이다. 실시예에서 피드백부(125)는 인공신경망 모델의 정확도, 정밀도 및 재현율을 산출하고, 산출된 지표 중 적어도 하나를 기반으로 인공신경망 모델을 평가할 수 있다.
실시예에서 피드백부(125)는 인공신경망 모델의 정확도를 평가 데이터셋을 사용하여 측정할 수 있다. 평가 데이터셋은 모델이 학습에 사용하지 않은 데이터로 구성되어 있으며, 모델의 성능을 객관적으로 평가하는 데 사용된다. 실시예에서 피드백부(125)는 평가 데이터셋을 사용하여 인공신경망 모델을 실행하고, 각 입력 데이터에 대한 인공신경망 모델의 예측 값과 해당 데이터의 실제 정답 값을 비교한다. 이후, 비교 결과를 통해, 모델이 얼마나 정확하게 예측하는지를 측정할 수 있다. 예컨대, 피드백부(125)에서 정확도는 전체 데이터 중에서 모델이 맞게 예측한 데이터의 비율로 계산될 수 있다.
또한, 피드백부(125)는 정밀도와 재현율의 조화 평균으로 계산되는 지표인 정밀도와 재현율의 균형을 나타내는 지표인 F1 스코어(F1 Score)를 산출하고, 산출된 F1 스코어를 기반으로 인공신경망 모델을 평가하고, 분류 모델의 성능을 그래프로 시각화한 지표인 AUC-ROC 곡선을 생성하고, 생성된 AUC-ROC 곡선을 기반으로 인공신경망 모델을 평가할 수 있다. 실시예에서 피드백부(125)는 ROC 곡선 아래 면적 (AUC)이 1에 가까울수록 모델의 성능이 좋은 것으로 평가할 수 있다.
또한, 피드백부(125)는 인공신경망 모델의 해석 가능성을 평가할 수 있다. 실시예에서 피드백부(125)는 SHAP (SHapley Additive exPlanations), LIME (Local Interpretable Model-agnostic Explanations) 방법을 통해, 인공신경망 모델의 해석 가능성을 평가한다. SHAP (SHapley Additive exPlanations)는 모델이 예측한 결과에 대한 해석을 제공하는 라이브러리로서, 피드백부(125)는 라이브러리에서 SHAP 값을 추출한다. 실시예에서 피드백부(125)는 SHAP값 추출을 통해, 모델에 입력된 특성정보가 모델 예측에 얼마나 영향을 미쳤는지를 예측할 수 있다.
LIME (Local Interpretable Model-agnostic Explanations) 방법은 개별 샘플에 대한 모델의 예측을 설명하는 방법이다. 실시예에서 피드백부(125)는 LIME 방법을 통해, 샘플을 해석 가능한 모델로 근사하여 각 특성정보의 중요도를 계산한다. 또한, 피드백부(125)는 모델의 내부 가중치와 편향 값을 분석하여 각 특성 변수의 영향력을 추정할 수 있다.
도 5는 실시예에 따른 작업자 현황의 인터페이스 예를 나타낸 도면이다.
도 5를 참조하면, 실시예에서 관제서버(300)는 분석서버로부터 영상 정보 분석 결과 및 보고용 영상을 수신하면, 작업자 현황, 안전모 착용, 유해 위험요인 등 작업 현황정보를 출력한다. 또한, 일별 작업량, 쓰러짐 등의 이상상태를 나타낸 작업자 수 등을 인터페이스에 따라 출력할 수 있다. 또한, 관제서버(300)는 작업장의 환경 정보를 수집하여 출력하고, 작업 공간 별 작업 현황 정보를 각각 출력한다.
이상에서와 같은 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템은 영상정보를 저해상도로 조정하여 분석용 영상을 생성하고, 작업 규정 준수 여부 판단을 위한 관심영역 설정하여, 작업자 규정 준수 여부를 판단함으로써, 인공지능을 이용한 영상 처리 효율과 속도를 향상시킬 수 있도록 한다.
또한, 실시예에서는 영상정보에서 작업자 객체의 위치와 모션에 따라 CCTV의 줌인과 포커싱 기능을 자동 조절하여, 작업자의 위급상황을 보다 정확하게 파악하고 신속하게 대처할 수 있도록 한다.
또한, 실시예에서는 작업자 주변 시설물의 위험도에 따라 관리자 또는 작업자에게 위험도를 알림으로써, 위험상황 및 사고 발생을 예방한다.
개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.

Claims (12)

  1. 작업공간에 설치되어 작업자를 촬영한 영상정보를 생성하는 CCTV;
    상기 CCTV로부터 수집된 영상정보를 분석하여, 작업자 인원수, 작업모 작용여부를 포함하는 규정 준수 정보 및 이상 상태를 감지하는 분석서버;
    상기 분석서버로부터 영상 분석 결과를 수신하고 출력하는 관제서버; 를 포함하고,
    상기 분석서버; 는
    적어도 하나의 명령어를 저장하는 메모리; 및
    프로세서를 포함하며,
    상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써,
    수집된 영상정보의 해상도를 일정 수준 미만의 저해상도로 낮춘 분석용 영상을 생성하고,
    상기 분석용 영상에서 규정 준수 정보 검출을 위한 관심영역을 추출하고,
    추출된 관심영역을 분석하여 규정 준수 정보를 파악하며,
    상기 분석 서버; 는
    분석용 영상을 고해상도로 복원하고, 복원된 영상을 분석 결과와 결합한 보고용 영상을 생성하고, 상기 생성된 보고용 영상을 관제서버로 전송하는 것을 특징으로 하는 작업자 안전관리 시스템.
  2. 삭제
  3. 제1항에 있어서, 상기 분석서버; 는
    분석용 영상을 인공신경망 모델에 입력하여, 쓰러짐, 경련, 부동을 포함하는 이상상태를 파악하는 것을 특징으로 하는 작업자 안전관리 시스템.
  4. 제1항에 있어서, 상기 분석서버; 는
    분석용 영상에서 작업자 객체 추출 후 추출된 작업자 객체의 위치와 모션을 파악하고, 상기 객체의 위치 및 모션에 따라 줌(zoom), 포커싱 변화를 포함하는 CCTV 촬영 조건을 제어하는 것을 특징으로 하는 작업자 안전관리 시스템.
  5. 제1항에 있어서, 상기 분석서버; 는
    분석용 영상에서 작업자 주변의 시설물 객체를 검출하고, 검출된 시설물 객체를 분석하여, 시설물 객체 별 위험도를 산출하는 것을 특징으로 하는 작업자 안전관리 시스템.
  6. 제5항에 있어서, 상기 분석서버; 는
    시설물 객체 별 위험도가 미리 설정된 경고수치를 초과하는 경우, 관제서버로 시설물 객체의 위험도를 전송하고, 위험수치를 초과하는 경우, 작업자 단말로 시설물 객체의 위험도를 전송하는 것을 특징으로 하는 작업자 안전관리 시스템.
  7. 삭제
  8. 제4항에 있어서, 상기 분석 서버; 는
    분석용 영상에서 추출된 작업자 객체가 일정 시간 이상 부동, 누운 자세 및 쓰러짐을 포함하는 이상 모션이 검출되는 경우, 상기 이상 모션을 취한 작업자 객체를 줌인하여 촬영하도록 CCTV를 제어하는 것을 특징으로 하는 작업자 안전관리 시스템.
  9. 제8항에 있어서, 상기 분석 서버; 는
    줌인된 작업자 객체의 이름, 사원번호를 포함하는 식별정보를 포커싱 하여 촬영하도록 CCTV를 제어하는 것을 특징으로 하는 작업자 안전관리 시스템.
  10. 제1항에 있어서, 상기 관심영역; 은
    안전모 착용, 작업복 착용, 장갑 착용을 포함하는 안전규정에 따라 상기 안전규정에 포함된 안전장비를 착용하는 영역인 것을 특징으로 하는 작업자 안전관리 시스템.
  11. 제1항에 있어서, 상기 분석 서버; 는
    분석 결과와 분석용 영상을 병합한 저화질 보고 영상을 생성하고, 저화질 보고 영상을 관제서버로 전송하고,
    상기 관제서버는 수신한 저화질 보고영상을 고화질로 복원하여 출력하는 것을 특징으로 하는 작업자 안전관리 시스템.
  12. 제1항에 있어서, 상기 분석 서버; 는
    안전작업 허가서를 인식하여, 허가 작업자 인원을 포함하는 작업 규정 정보를 추출하고, 추출된 작업 규정 정보와 영상 분석 결과의 비교 결과에 따라 작업 규정 준수 여부를 판단하는 것을 특징으로 하는 작업자 안전관리 시스템.
KR1020230129107A 2023-09-26 2023-09-26 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템 KR102617063B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230129107A KR102617063B1 (ko) 2023-09-26 2023-09-26 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230129107A KR102617063B1 (ko) 2023-09-26 2023-09-26 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템

Publications (1)

Publication Number Publication Date
KR102617063B1 true KR102617063B1 (ko) 2023-12-27

Family

ID=89377567

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230129107A KR102617063B1 (ko) 2023-09-26 2023-09-26 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템

Country Status (1)

Country Link
KR (1) KR102617063B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118446843A (zh) * 2024-05-20 2024-08-06 国网青海省电力公司信息通信公司 基于数据深度融合的电网作业安全感知方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100212733B1 (ko) 1995-12-29 1999-08-02 김영남 평판소자의 소성방법 및 장치
KR100251798B1 (ko) 1997-07-22 2000-04-15 밍루 차륜잠김 방지장치 및 구동력 제어장치의 통합 전자제어 회로
KR20100106776A (ko) * 2009-03-24 2010-10-04 아주대학교산학협력단 안전모 착용 비전 감시 시스템 및 방법
KR20210086829A (ko) * 2019-12-30 2021-07-09 한국남부발전 주식회사 스마트 cctv 관제 및 경보 시스템
KR20210128563A (ko) * 2020-04-16 2021-10-27 주식회사 엘지유플러스 클라우드의 도로 객체 인식을 이용하여 주행 정보를 제공하는 방법 및 장치
KR102376733B1 (ko) * 2021-10-13 2022-03-21 (주) 씨앤텍 다기능 영상 네트워크 카메라를 이용한 지능형 방재 및 재난 안전 시스템 제어 방법
KR20220059210A (ko) * 2020-11-02 2022-05-10 대우조선해양 주식회사 작업장 비전 관리 시스템 및 방법, 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체
KR20230125995A (ko) * 2022-02-22 2023-08-29 (주) 엑스인터넷정보 컴퓨터 비전 및 IoT 센서 기반의 안전보호구 감시 시스템

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100212733B1 (ko) 1995-12-29 1999-08-02 김영남 평판소자의 소성방법 및 장치
KR100251798B1 (ko) 1997-07-22 2000-04-15 밍루 차륜잠김 방지장치 및 구동력 제어장치의 통합 전자제어 회로
KR20100106776A (ko) * 2009-03-24 2010-10-04 아주대학교산학협력단 안전모 착용 비전 감시 시스템 및 방법
KR20210086829A (ko) * 2019-12-30 2021-07-09 한국남부발전 주식회사 스마트 cctv 관제 및 경보 시스템
KR20210128563A (ko) * 2020-04-16 2021-10-27 주식회사 엘지유플러스 클라우드의 도로 객체 인식을 이용하여 주행 정보를 제공하는 방법 및 장치
KR20220059210A (ko) * 2020-11-02 2022-05-10 대우조선해양 주식회사 작업장 비전 관리 시스템 및 방법, 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체
KR102376733B1 (ko) * 2021-10-13 2022-03-21 (주) 씨앤텍 다기능 영상 네트워크 카메라를 이용한 지능형 방재 및 재난 안전 시스템 제어 방법
KR20230125995A (ko) * 2022-02-22 2023-08-29 (주) 엑스인터넷정보 컴퓨터 비전 및 IoT 센서 기반의 안전보호구 감시 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118446843A (zh) * 2024-05-20 2024-08-06 国网青海省电力公司信息通信公司 基于数据深度融合的电网作业安全感知方法及装置

Similar Documents

Publication Publication Date Title
CN112287816B (zh) 一种基于深度学习的危险工作区事故自动检测报警方法
KR102617063B1 (ko) 환경기초시설 작업자를 위한 인공지능 기반의 작업자 안전관리 시스템
Iannizzotto et al. Personal Protection Equipment detection system for embedded devices based on DNN and Fuzzy Logic
KR20220059210A (ko) 작업장 비전 관리 시스템 및 방법, 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체
CN118072255A (zh) 一种智慧园区多源数据动态监控和实时分析系统及方法
CN112861826B (zh) 基于视频图像的煤矿监管方法、系统、设备及存储介质
CN118071159B (zh) 一种基于gpt的智慧园区安全应急管理系统及方法
CN115565101A (zh) 一种生产安全异常识别方法、装置、电子设备及存储介质
Chen et al. Proposal of an insider sabotage detection method for nuclear security using deep learning
Sun et al. Dynamic human systems risk prognosis and control of lifting operations during prefabricated building construction
KR20230097854A (ko) 발전소내 작업자의 위험행동 인지방법 및 시스템
Bamaqa et al. Reactive and proactive anomaly detection in crowd management using hierarchical temporal memory
CN117993643A (zh) 一种基于轨迹预测的电力作业人身风险整体防控方法
Varghese et al. Video anomaly detection in confined areas
Limbasiya et al. COVID-19 face mask and social distancing detector using machine learning
CN116958769A (zh) 基于融合特征的翻越行为检测方法及相关装置
KR20220063865A (ko) 작업장 비전 관리 시스템 및 방법, 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체
Jones et al. Mask recognition with computer vision in the age of a pandemic
Cai et al. Estimating the visual attention of construction workers from head pose using convolutional neural network-based multi-task learning
Mokashi et al. Video Analytics Technologies Available for Surveillance Systems
Choudhary et al. A Robust Machine Learning Model for Forest Fire Detection Using Drone Images
KR20220059014A (ko) 작업장 비전 관리 시스템 및 방법, 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체
CN118211754B (zh) 基于数字孪生的智能化工厂安全管理系统
Viswanatha Motion and Object Recognition for Crime Prediction and Forecasting: A Review
Balakrishnan et al. Real Time Fire Detection and Alert Triggering System

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant