KR102411316B1 - 건설 현장의 작업자 안전도 분석 서비스 제공 방법 및 이를 수행하는 서버 및 시스템 - Google Patents

건설 현장의 작업자 안전도 분석 서비스 제공 방법 및 이를 수행하는 서버 및 시스템 Download PDF

Info

Publication number
KR102411316B1
KR102411316B1 KR1020210098916A KR20210098916A KR102411316B1 KR 102411316 B1 KR102411316 B1 KR 102411316B1 KR 1020210098916 A KR1020210098916 A KR 1020210098916A KR 20210098916 A KR20210098916 A KR 20210098916A KR 102411316 B1 KR102411316 B1 KR 102411316B1
Authority
KR
South Korea
Prior art keywords
worker
safety
accident
type
workers
Prior art date
Application number
KR1020210098916A
Other languages
English (en)
Inventor
박덕근
Original Assignee
박덕근
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박덕근 filed Critical 박덕근
Priority to KR1020210098916A priority Critical patent/KR102411316B1/ko
Application granted granted Critical
Publication of KR102411316B1 publication Critical patent/KR102411316B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • A61B5/397Analysis of electromyograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • A61B5/747Arrangements for interactive communication between patient and care services, e.g. by using a telephone network in case of emergency, i.e. alerting emergency services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Emergency Management (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Economics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Pulmonology (AREA)
  • Critical Care (AREA)
  • Emergency Medicine (AREA)
  • Nursing (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은, 안전도 분석 서비스 제공 서버에 관한 것으로서, 상기 서버는, 저장부, 통신부, 상기 저장부, 상기 통신부와 동작 가능하게 연결된 프로세서를 포함하되, 상기 프로세서는, 건설 현장에 배치된 복수의 작업자 각각의 담당 공종에 따른 안전 사고 유형을 매칭하고, 상기 복수의 작업자 각각에 대한 생체 데이터 및 상태 데이터를 획득하고, 작업자의 생체 데이터와 상태 데이터를 입력으로 하여 안전 사고 유형 별 작업자의 안전도를 예측하도록 학습된 안전도 분석 모델에 상기 복수의 작업자 각각의 생체 데이터와 상기 상태 데이터를 입력하여 안전 사고 유형 별로 상기 복수의 작업자 각각의 안전도를 출력하고, 상기 복수의 작업자 중 안전도가 기준 값 이상인 작업자에게 알람을 제공하도록 구성된다.
본 발명에 따르면, 건설 현장에서 발생한 사고와 작업자의 생체 변화, 얼굴 표정 변화, 행동 변화를 매칭시켜 학습하고, 그에 따른 안전도 분석 모델을 구축함으로써, 현재 건설 현장 작업 진행도에 따른 안전 사고의 유형 별로 작업자의 안전도를 예측 및 예방할 수 있다.

Description

건설 현장의 작업자 안전도 분석 서비스 제공 방법 및 이를 수행하는 서버 및 시스템{METHOD FOR PROVIDING WORKER SAFTY ANALYSIS SERVICE IN CONSTRUCTION SITE AND SERVER AND SYSTEM FOR PERFORMING THE SAME}
본 발명은 건설 현장 내 작업자의 생체 정보(심박수, 체온, 무게, 얼굴 표정, 컨디션)와 작업자의 행동 정보(심리 상태에 기반한 이상 행동)를 수집 및 학습하여 작업자의 안전 사고를 예방하기 위한 작업자 안전도 분석 서비스 제공 방법과 이를 수행하는 서버 및 안전도 분석 서비스 시스템에 관한 것이다.
건설 사업은 가장 위험한 산업 중의 하나로, 건설 현장에서의 안전 사고를 예방하기 위해 정부 및 학계 차원에서 작업자의 안전을 확보하기 위해 많은 노력을 기울이고 있다.
이러한 일환 중 하나로 산업안전보건법 및 산업안전보건법 시행규칙에 따르면, 작업자가 건설 현장에 투입되기 위해서는 반드시 교육을 이수하도록 규정되어 있다.
그러나 고된 작업으로 인해, 작업자가 안전 수칙을 지키지 못하는 상황이 발생하기도 하며, 건설 현장 내에 예측하지 못한 상황이 발생하기도 한다. 이에, 머신 러닝을 기반으로 건설 현장 속 사고 원인을 예측하고, 예방하기 위한 다양한 연구가 진행되고 있으나, 아직까지 머신 러닝을 기반으로 작업자의 안전도를 정확하게 분석하여, 작업자의 안전을 확보할 수 있는 구체적인 방안은 제시된 바 없다.
발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.
이에, 본 발명이 해결하고자 하는 과제는 건설 현장 내 안전 사고 유형 별로 작업자의 생체 변화, 얼굴 표정 번화, 행동 변화를 통해 학습된 작업자의 안전도 분석 모델을 이용하여, 현재 건설 현장 작업 진행도에 따른 안전 사고의 유형 별로 작업자의 안전도를 예측 및 예방할 수 있는 방법 및 이를 수행하는 서버 및 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는 건설 현장에서 발생하는 사고의 발생 건수, 발생 비율과 센서를 통해 획득되는 감지 신호를 이용하여, 사고의 유형에 따라 가중치를 부여함으로써, 작업자의 안전도를 보다 구체적으로 예측 빛 예방할 수 있는 방법 및 이를 수행하는 서버 및 시스템을 제공하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시 예에 따른 안전도 분석 서비스 제공 서버가 제공된다. 상기 서버는, 저장부, 통신부, 상기 저장부, 상기 통신부와 동작 가능하게 연결된 프로세서를 포함하되, 상기 프로세서는, 건설 현장에 배치된 복수의 작업자 각각의 담당 공종에 따른 안전 사고 유형을 매칭하고, 상기 복수의 작업자 각각에 대한 생체 데이터 및 상태 데이터를 획득하고, 작업자의 생체 데이터와 상태 데이터를 입력으로 하여 안전 사고 유형 별 작업자의 안전도를 예측하도록 학습된 안전도 분석 모델에 상기 복수의 작업자 각각의 생체 데이터와 상기 상태 데이터를 입력하여 안전 사고 유형 별로 상기 복수의 작업자 각각의 안전도를 출력하고, 상기 복수의 작업자 중 안전도가 기준 값 이상인 작업자에게 알람을 제공하도록 구성된다.
본 발명의 특징에 따르면, 상기 상태 데이터는, 작업자의 얼굴 표정 변화 및 행동 변화를 포함할 수 있다.
본 발명의 다른 특징에 따르면, 상기 프로세서는, 상기 복수의 작업자 각각의 위치 데이터를 이용하여 적어도 한 명의 작업자에 대한 영상을 수집하고, 상기 영상에 포함된 작업자의 모습을 추출할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 프로세서는, 상기 추출된 작업자의 모습에서 얼굴 영역을 획득하고, 획득된 얼굴 영역의 특징점을 기초로 해당 작업자의 얼굴 표정 변화를 결정할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 프로세서는, 상기 얼굴 표정을 결정하기 전에, 해당 작업자의 모습에서 얼굴 영역의 특징점 검출 가능 여부를 결정할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 프로세서는, 상기 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 모션 벡터 크기 값 평균을 계산하고, 상기 공종 별 모션 평균 기준 값과 계산된 값과의 차이를 해당 작업자의 행동 변화 값으로 결정할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 프로세서는, 상기 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 행동 패턴을 결정할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 생체 데이터는, 작업자의 체온, 심박수, 혈압, 심전도, 혈액량, 호흡 및 근전도 중 적어도 하나를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 프로세서는, 상기 안전도가 기준 값 이상인 작업자가 소지한 작업자 디바이스와 해당 작업자 디바이스와 인접한 적어도 하나의 다른 작업자 디바이스로 알람을 제공할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 프로세서는, 상기 담당 공종의 진행도에 따라 발생 가능한 안전 사고 유형을 결정할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 프로세서는, 공공 데이터 포털에서 제공되는 공종 별 안전 사고 데이터를 주기적으로 크롤링(crawling)할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 프로세서는, 상기 주기적으로 크롤링된 안전 사고 데이터를 기초로 상기 안전 사고 유형 별 가중치를 조정할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 안전 사고 데이터는, 사고 일시, 사고 인지 시간, 시설물 종류, 인적사고/물적사고 정보, 공종/사고객체/ 작업프로세스와 관련된 사고분류 정보, 사고 장소/부위와 관련된 사고 위치 정보, 사망자수/부상자수/피해금액과 관련된 피해 상황 정보 중 적어도 하나를 포함하는 사고 종합 정보, 토목, 건축, 기계설비, 전기설비, 통신설비, 산업설비 및 기타 공종 별 위험발생 객체에 대한 사고 발생 건수 및 사고 기사 중 적어도 하나의 데이터를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 상기 프로세서는, 상기 건설 현장에 배치된 복수의 센서로부터 획득되는 감지 신호를 기초로 위험 객체의 검출 횟수 및 위험 객체로의 작업자 접근 횟수를 카운트하고, 상기 검출 횟수 또는 상기 작업자 접근 횟수가 기준 횟수 이상인 경우, 해당 센서를 통해 판단 가능한 상기 안전 사고 유형 별 가중치를 조정할 수 있다.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 다른 실시 예에 따른 안전도 분석 서비스 제공 방법이 제공된다. 상기 방법은, 안전도 분석 서비스 제공 서버가 작업자의 안전도를 분석하는 방법으로서, 건설 현장에 배치된 복수의 작업자 각각의 담당 공종에 따른 안전 사고 유형을 매칭하는 단계, 상기 복수의 작업자 각각에 대한 생체 데이터 및 상태 데이터를 획득하는 단계, 작업자의 생체 데이터와 상태 데이터를 입력으로 하여 안전 사고 유형 별 작업자의 안전도를 예측하도록 학습된 안전도 분석 모델에 상기 복수의 작업자 각각의 생체 데이터와 상기 상태 데이터를 입력하여 안전 사고 유형 별로 상기 복수의 작업자 각각의 안전도를 출력하는 단계 및 상기 복수의 작업자 중 안전도가 기준 값 이상인 작업자에게 알람을 제공하는 단계를 포함하도록 구성된다.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 다른 실시 예에 따른 건설 현장의 작업자 안전 분석 시스템이 제공된다. 상기 시스템은, 건설 현장에 배치된 복수의 작업자가 소지한 디바이스, 상기 건설 현장을 촬영하는 적어도 하나의 촬영 장치, 상기 디바이스 및 상기 촬영 장치를 통해 상기 복수의 작업자 각각에 대한 생체 데이터 및 상태 데이터를 획득하고, 작업자의 생체 데이터와 상태 데이터를 입력으로 하여 안전 사고 유형 별 작업자의 안전도를 예측하도록 학습된 안전도 분석 모델에 상기 복수의 작업자 각각의 생체 데이터와 상기 상태 데이터를 입력하여 안전 사고 유형 별로 상기 복수의 작업자 각각의 안전도를 출력하여, 상기 복수의 작업자 중 안전도가 기준 값 이상인 작업자의 디바이스로 알람을 제공하는 안전도 분석 서비스 제공 서버를 포함하도록 구성된다.
기타 실시 예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명은 건설 현장에서 발생한 사고와 작업자의 생체 변화, 얼굴 표정 변화, 행동 변화를 매칭시켜 학습하고, 그에 따른 안전도 분석 모델을 구축함으로써, 현재 건설 현장 작업 진행도에 따른 안전 사고의 유형 별로 작업자의 안전도를 예측 및 예방할 수 있다.
본 발명은 건설 현장을 촬영한 영상을 기반으로 작업자 개개인의 표정 변화와 행동 패턴 또는 행동 범위를 인식하고, 이를 기존에 발생되었던 안전 사고와 매칭시켜 학습함으로써, 작업자의 부주의로 인한 안전 사고 외에 의도치 않게 발생하게 되는 개인의 안전 사고를 예방할 수 있으며, 개인의 안전 사고로 인한 연쇄적인 사건 사고를 예방할 수 있다.
본 발명은 안전 사고의 발생 현황을 주기적으로 수집하고, 그 결과 많이 발생한 안전 사고의 유형에 가중치를 부여함으로써, 건설 현장에서 새롭게 적용되는 공정이나 공정에 대해서도 안전 사고에 대한 예방이 가능할 수 있다.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.
도 1은 본 발명의 일 실시예에 따른 포함하는 건설 현장의 작업자 안전 분석 시스템을 설명하기 위한 개략도이다.
도 2는 본 발명의 일 실시예에 따른 안전도 분석 서비스 제공 서버의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 안전도 분석 모델을 학습하기 위해 사용되는 복수의 알고리즘을 설명하기 위한 개략도이다.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 영상 속에서 작업자의 표정 변화 또는 작업자의 행동 변화를 결정하는 방식을 설명하기 위한 개략도이다.
도 5는 본 발명의 일 실시예에 따른 안전도 분석 모델을 설명하기 위한 개략도이다.
도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 안전 사고 관련 데이터를 수집하기 위해 활용되는 공공 데이터 포털 화면을 나타낸 개략도이다.
도 7은 본 발명의 일 실시예에 따른 안전도 분석 서비스 제공 방법을 설명하기 위한 순서도이다.
도 8은 도 7에 도시된 S120 단계를 구체화한 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
본 발명의 여러 실시 예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시 예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.
본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.
도 1은 본 발명의 일 실시예에 따른 포함하는 건설 현장의 작업자 안전 분석 시스템을 설명하기 위한 개략도이다.
도 1을 참조하면, 건설 현장의 작업자 안전 분석 시스템(10)은 건설 현장에 배치된 각종 설비, 장치들로부터 수집되는 데이터와 작업자들의 컨디션을 수집하고, 이를 기초로 건설 현장에서의 사고 원인을 추론하며, 작업자들의 안전도를 분석해주는 서비스를 제공할 수 있다.
이를 위해, 작업자 안전 분석 시스템(10)은 안전도 분석 서비스 제공 서버(100)(이하, 안전도 분석 서버(100)), 작업자가 소지한 작업자 디바이스(200), 건설 현장을 촬영하는 촬영 장치(300), 건설 현장 내 다양한 데이터를 감지하는 건설 현장용 센서(400), 건설 현장에 투입된 중장비에 부착 가능한 중장비 식별 장치(500) 및 현장에서 건설 현장을 관리 감독하는 관리자 디바이스(600)를 포함할 수 있다.
안전도 분석 서버(100)는 건설 현장에서 획득되는 모든 종류의 데이터를 수집하고, 이를 기계 학습(Machine Learning)하여 안전 사고 유형 별로 복수의 작업자 각각의 안전도를 분석할 수 있다. 이때, 기계 학습은 여러 데이터를 이용하여 학습한 내용을 기반으로 새로운 데이터에 대한 적절한 작업(작업자의 안전도 분석)을 수행할 수 있도록 하는 알고리즘 또는 기술을 의미하며, 뉴럴 네트워크와 동일한 의미일 수 있다.
건설 현장에서 현재 어느 종류의 작업을 진행하고 있는지에 따라 안전 사고 유형은 상이할 수 있으며, 안전도 분석 서버(100)는 작업자의 안전도를 안전/주의/경계/위험으로 구분하여 표현할 수 있다. 다만, 이외에 안전도는 안전 사고 유형 별 퍼센트(%)로 표현될 수도 있다. 예를 들어, 0%의 경우, 작업자가 현재 안정적으로 작업에 참여하고 있는 상태이며, 97%의 경우, 작업자가 현재 위험한 상태인 것으로 이해될 수 있다.
안전도 분석 서버(100)는 모든 종류의 데이터 중에서도 작업자의 신체적인 상태를 나타내는 데이터(생체 데이터)와 심리적인 상태를 나타내는 데이터(상태 데이터)를 중점적으로 이용하여, 작업자들의 안전도를 분석할 수 있다.
구체적으로, 안전도 분석 서버(100)는 단순히 작업자의 헬멧 착용 여부나, 수 초, 수 분 앞선 작업자의 움직임을 예측하는 것에서 나아가, 작업자의 표정 변화, 행동 변화에 따라 어떠한 안전 사고가 발생할 위험이 있는지 분석해 줄 수 있다. 이를 위해, 안전도 분석 서버(100)는 복수의 이미지 분석 알고리즘과 데이터 분류 알고리즘을 사용하여 안전도 분석 모델을 구축할 수 있으며, 이에 대한 보다 구체적인 설명은 후술하도록 한다.
작업자 디바이스(200)는 건설 현장에 투입된 작업자가 소지한 디바이스로서, 작업자의 생체 데이터를 획득할 수 있다. 작업자 디바이스(200)는 작업자의 신체에 장착되는 웨어러블 디바이스일 수 있으며, 스마트 폰, 스마트 글라스, 스마트 링, 스마트 밴드, 스마트 워치 등을 포함할 수 있다.
도 1에 도시된 작업자 디바이스(200) 외에 사용자의 생체 데이터, 모션 데이터를 획득할 수 있는 각종 디바이스가 작업자 디바이스(200)에 포함될 수 있으며, 작업자 디바이스(200)는 작업자의 체온, 심박수, 혈압, 심전도, 혈액량, 호흡 및 근전도를 획득할 수 있다.
촬영 장치(300)는 건설 현장을 촬영하는 카메라로서, 촬영 장치(300)가 촬영한 영상에는 적어도 한 명의 작업자에 대한 모습이나 중장비의 움직임 모습이 포함될 수 있다.
실시예에 따라, 촬영 장치(300)는 작업자의 얼굴과 움직임을 촬영할 수 있는 CCTV, 작업자의 체온을 측정할 수 있는 열화상 카메라를 포함할 수 있다.
촬영 장치(300)는 획득되는 영상과 함께 영상 속성 정보와 위치 데이터, 개인 식별 정보를 안전도 분석 서버(100)로 송신할 수 있다. 예를 들어, 촬영 장치(300)는 실시간으로 촬영 중인 영상을 안전도 분석 서버(100)로 송신하거나, 기 설정된 시간 간격마다 촬영된 영상 또는 이미지를 안전도 분석 서버(100)로 송신할 수도 있다.
이와 같이, 촬영 장치(300)가 영상 속성 정보를 안전도 분석 서버(100)로 제공함으로써, 안전도 분석 서버(100)는 영상의 화질을 파악하고 그에 따라 어떠한 알고리즘을 통해 작업자의 표정 또는 행동 변화를 획득할 수 있는지 결정할 수 있다. 또한, 촬영 장치(300)가 설치된 위치를 판단할 수 있는 정보를 안전도 분석 서버(100)로 제공함으로써, 안전도 분석 서버(100)는 영상 속의 작업자 또는 중장비를 보다 빠르게 식별할 수 있다.
건설 현장용 센서(400)는 건설 현장에 설치되어 건설 현장의 상황을 감지하는 감지 신호를 획득할 수 있다. 실시예에 따라, 건설 현장용 센서(400)는 건설 현장의 구조물이나 가벽, 파이프와 같은 인접 구조물 상에 설치될 수 있으며, 안전 사고가 발생할 것으로 예측되는 이상 신호를 감지할 수 있다.
예를 들어, 건설 현장용 센서(400)는 온도 감지 센서, 습도 감지 센서, 이산화탄소(CO2) 감지 센서, 일산화탄소(CO) 감지 센서, 미세먼지 감지 센서, 포름알데히드(CH2O) 감지 센서, 휘발성 유기화합물(Volatile Organic Compound, VOC) 감지 센서 및 조도 감지 센서 등을 포함할 수 있다.
건설 현장용 센서(400)는 그 기능에 따라 각종 감지 신호를 획득할 수 있으며, 획득된 감지 신호를 안전도 분석 서버(100)로 송신할 수 있다. 이와 같이, 센서(400)가 감지 신호를 안전도 분석 서버(100)로 제공함으로써, 안전도 분석 서버(100)는 현재 유독 가스나 노출되고 있는지, 구조물이 무너져 내렸는지, 위험 영역에 작업자가 접근하고 있는지 등의 직관적인 사건 사고 정보를 결정할 수 있다. 또한, 안전도 분석 서버(100)는 감지 신호를 기초로 위험 객체의 검출 횟수, 위험 객체로의 작업자 접근 횟수를 카운트하고, 카운트된 횟수가 기준 횟수 이상인 경우, 해당 건설 현장용 센서(400)를 통해 판단 가능한 안전 사고 유형 별로 가중치를 조정할 수 있다.
중장비 식별 장치(500)는 중장비에 탑재되어 중장비의 위치 데이터를 획득하거나 물체/작업자의 접근 정보를 획득할 수 있다. 실시예에 따라, 중장비 식별 장치(500)는 위치 데이터를 안전도 분석 서버(100)로 송신할 수 있으며, 안전도 분석 서버(100)는 중장비의 위치 데이터를 통해 안전 사고 위험 영역을 결정하고, 위험 영역 내에 있는 작업자 디바이스(200)와 중장비 식별 장치(500)로 위험 알림을 송신할 수 있다. 또한, 안전도 분석 서버(100)는 중장비를 제어하는 작업자 디바이스(200)에서 획득되는 작업자 생체 데이터를 기반으로 안전 사고 유형 별 가중치를 조정할 수 있다. 예를 들어, 안전도 분석 서버(100)는 중장비를 제어하는 작업자 디바이스(200)에서 획득된 생체 데이터가 기준 범위를 벗어나는 경우, 해당 작업자 외에도 중장비에 인접 위치한 다른 작업자의 안전 사고 유형 별 가중치를 조정할 수 있다.
다른 실시예에 따라, 중장비 식별 장치(500)는 물체 또는 작업자의 접근을 감지하고, 물체 또는 작업자가 근접한 경우 시청각적 경고 알림을 출력하거나 작업자 디바이스(200)로 경고 알림을 송신할 수 있다.
한편, 건설 현장용 센서(400) 및 중장비 식별 장치(500)는 IoT(Internet of Things) 통신을 위한 통신 모듈을 포함할 수 있으며, 이를 통해 감지 신호 및 데이터를 실시간으로 안전도 분석 서버(100)로 송신할 수 있다.
관리자 디바이스(600)는 건설 현장의 관리 감독하는 관리자가 소지한 디바이스로서, 스마트 폰, 태블릿 PC, PC 등을 포함할 수 있다. 실시예에 따라, 어느 하나의 작업자 디바이스(200)가 관리자 디바이스(600)의 기능을 수행할 수 있으며, 관리자 디바이스(600)는 일, 주, 월 단위로 건설 현장 공종 별 작업 진행도를 저장하고, 이를 안전도 분석 서버(100)로 송신할 수 있다.
또한, 관리자 디바이스(600)는 일별로 건설 현장에 투입된 작업자의 수, 공종 별 작업자 디바이스(200) 정보를 안전도 분석 서버(100)로 송신할 수 있으며, 건설 현장에서 수집되는 각종 데이터를 수집하여 저장할 수 있다.
한편, 본 발명에 기재된 “공종”이란 공사의 종류를 의미하는 단어로, 예를 들어 공사의 종류로는 토목 공사, 기계 공사, 전기 공사, 조경 공사 등을 포함할 수 있다. 본 발명에서 안전도 분석 서버(100)는 광범위한 공사 현장 속에서 작업자 별로 현재 참여하고 있는 공종과 그 속에서 발생 가능한 안전 사고 유형을 확인하고, 유형에 맞는 안전도 분석 서비스를 제공해 줄 수 있다.
지금까지 본 발명의 일 실시예에 따른 건설 현장의 작업자 안전 분석 시스템(10)의 구성에 대하여 개략적으로 설명하였다. 이하에서는 도 2 내지 도 6을 참조하여 작업자의 안전을 분석해주는 안전도 분석 서버(100)에 대하여 구체적으로 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 안전도 분석 서비스 제공 서버의 구성을 나타낸 블록도이고, 도 3은 본 발명의 일 실시예에 따른 안전도 분석 모델을 학습하기 위해 사용되는 복수의 알고리즘을 설명하기 위한 개략도이다.
먼저, 도 2를 참조하면, 안전도 분석 서버(100)는 저장부(110), 통신부(120) 및 프로세서(130)를 포함할 수 있다.
저장부(110)는 통신부(120)를 통해 건설 현장에서 획득되는 다양한 데이터를 저장할 수 있다. 예를 들어, 저장부(110)는 건설 현장에 투입된 작업자 디바이스(200)의 식별 정보(작업자의 이름, 나이, 병력, 기저질환 유무), 작업자 디바이스(200)에서 획득되는 생체 데이터(체온, 심박수, 혈압, 심전도, 혈액량, 호흡, 근전도 등)를 저장할 수 있으며, 촬영 장치(300)의 배치 정보, 촬영 장치(300)에서 획득되는 건설 현장에 대한 영상을 저장할 수 있다. 다른 예를 들어, 저장부(110)는 건설 현장용 센서(400) 및 중장비에 부착된 식별 장치(500)의 식별 정보와 각 장치에서 획득되는 건설 현장 관련 데이터(감지 신호)들을 저장할 수 있다. 또 다른 예를 들어, 저장부(110)는 관리자 디바이스(600)로부터 주기적으로 건설 현장 공종 별 진행도 정보를 제공받아 저장할 수 있으며, 일별로 건설 현장에 투입되는 작업자들의 개인 식별 정보를 제공받아 저장할 수 있다.
저장부(110)는 작업자의 생체 데이터와 상태 데이터를 입력으로 하여 공종 별로 존재하는 안전 사고 유형에 대한 작업자의 안전도를 예측하도록 학습된 안전도 분석 모델을 저장할 수 있다. 여기서, 상태 데이터는 작업자의 얼굴 표정 변화와 작업자의 행동 변화를 포함할 수 있으며, 작업자의 심리를 나타내는 지표일 수 있다. 즉, 저장부(110)는 얼굴 특징점을 기준으로 판단 가능한 표정과 그에 따른 작업자의 심리 상태 정보를 저장할 수 있다. 예를 들어, 저장부(110)는 들뜸, 익숙함, 행복함, 평화로움, 편안함, 차분함, 긴장함, 압박스러움, 속상함, 긴장함, 압박스러움, 속상함 등의 얼굴 표정 및 이의 변화를 저장할 수 있다.
본 발명에서 안전도 분석 모델은 복수의 이미지 분석 알고리즘, 데이터 분류/분석 알고리즘의 조합을 통해 학습 및 수립될 수 있으며, 저장부(110)는 건설 현장에서 수집되는 데이터 별로 안전도 분석 모델에 활용될 분석 알고리즘을 매핑하여 저장할 수 있다.
도 3을 참조하면, 인풋 데이터의 종류(속성)에 따라 복수의 분석 알고리즘이 사용되는 바, 저장부(110)는 인풋 데이터와 복수의 분석 알고리즘을 매칭시켜 저장할 수 있다. 예를 들어, 저장부(110)는 CCTV와 같은 촬영 장치(300)를 통해 촬영된 영상의 경우, 작업들의 동선을 빠르게 파악할 수 있도록 YOLOv3 알고리즘을 사용하도록 데이터와 알고리즘을 매칭시켜 저장할 수 있다.
다시 도 2를 참조하면, 저장부(110)는 프로세서(130)에 의해 주기적으로 크롤링(crawling)되는 공종 별 안전 사고 데이터를 저장할 수 있다. 안전 사고 데이터는 작업자의 안전도를 결정하는 데 있어 안전 사고 유형 별 가중치를 결정하는 과정에서 활용될 수 있으며, 예를 들어, 저장부(110)는 사고 일시, 사고 인지 시간, 시설물 종류, 인적사고/물적사고 정보, 공종/사고객체/작업프로세스와 관련된 사고분류 정보, 사고 장소/부위와 관련된 사고 위치 정보, 사망자수/부상자수/피해금액과 관련된 피해 상황 정보 중 적어도 하나를 포함하는 사고 종합 정보, 토목, 건축, 기계설비, 전기설비, 통신설비, 산업설비 및 기타 공종 별 위험발생 객체에 대한 사고 발생 건수 및 사고 기사 중 적어도 하나의 데이터를 안전 사고 데이터로 저장할 수 있다.
저장부(110)는 본 발명의 일 실시예에 따른 작업자의 안전도 분석 서비스를 제공하는 동작에 필요한 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다. 실시예에 따라, 저장부(110)는 ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장 기기로 구현되거나, 인터넷(Internet)상에서 저장부(110)의 저장 기능을 수행하는 웹 스토리지(web storage), 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 어느 적어도 하나의 타입으로 구현될 수 있다.
통신부(120)는 유/무선 통신 네트워크를 이용하여 작업자 디바이스(200), 촬영 장치(300), 건설 현장용 센서(400), 중장비 식별 장치(500) 및 관리자 디바이스(600)와 데이터를 주고받을 수 있다. 구체적으로, 통신부(120)는 상술한 디바이스와 장치로부터 작업자의 안전도 분석 모델에 활용될 데이터를 수신하고, 작업자 디바이스(200)로 안전도 분석 모델의 출력 결과를 송신할 수 있다.
예를 들어, 통신부(120)는 작업자 디바이스(200)로부터 작업자의 체온, 심박수, 혈압, 심전도, 혈액량, 호흡 및 근전도 중 적어도 하나를 포함하는 생체 데이터를 수신하고, 작업자 디바이스(200)로 해당 작업자의 현재 작업 공종에서 발생 가능한 안전 사고 유형 별 안전도 분석 결과를 송신할 수 있다. 이때, 안전도 분석 결과 작업자가 위험한 것으로 판단되는 경우, 통신부(120)는 작업자 디바이스(200)로 안전 경고 알림을 반복적으로 송신할 수 있다.
프로세서(130)는 저장부(110) 및 통신부(120)와 동작 가능하게 연결되어 안전도 분석 서버(100)의 전반적인 동작을 제어할 수 있으며, 저장부(110)에 저장된 어플리케이션 또는 프로그램을 구동하여 안전도 분석 모델을 기반으로 작업자의 안전도를 분석하기 위한 다양한 명령들을 수행할 수 있다.
프로세서(130)는 ASICs(Application Specific Integrated Circuit), DSPs(Digital Signal processors), DSPDs(Digital Signal Processing Devices), PLD(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 제어기(Controllers), 마이크로 컨트롤러(Micro-controllers) 및 마이크로 프로세스(Microprocessors) 중 어느 하나로 구현될 수 있다.
실시예에 따라, 프로세서(130)는 건설 현장에 배치된 복수의 작업자의 담당 공종에 따른 안전 사고 유형을 매칭할 수 있다. 구체적으로, 프로세서(130)는 광범위한 건설 현장 내에서 작업자가 담당한 작업과 이와 연관된 안전 사고 유형을 매칭함으로써, 작업자 개개인의 안전을 확보하기 위한 사전 데이터를 확보할 수 있다. 특히, 프로세서(130)는 공종의 진행도에 따라 발생 가능한 안전 사고 유형을 결정함으로써, 안전 사고에 대한 빠른 대응을 수행할 수 있다.
프로세서(130)는 복수의 작업자 각각에 대한 생체 데이터 및 상태 데이터를 획득할 수 있다. 이때, 생체 데이터는 복수의 작업자 각각이 소지 또는 장착한 작업자 디바이스(200)로부터 획득되며, 작업자의 체온, 심박수, 혈압, 심전도, 혈액량, 호흡 및 근전도 중 적어도 하나를 포함할 수 있다.
또한, 상태 데이터란 몸의 건강이나 기분 상태로 정의되는 컨디션을 정의하기 위한 것으로, 본 발명에서 상태 데이터는 작업자의 얼굴 표정 변화 또는 작업자의 행동 변화를 포함할 수 있다.
프로세서(130)는 작업자의 상태 데이터를 획득하기 위해, 건설 현장에 배치된 촬영 장치(300)로부터 수집된 복수의 영상들을 활용할 수 있다. 구체적으로, 프로세서(130)는 복수의 작업자 각각의 위치 데이터를 이용하여 적어도 한 명의 작업자에 대한 영상을 수집할 수 있다.
즉, 프로세서(130)는 촬영 장치(300)가 촬영하는 영역에 대한 위치 데이터와 작업자 디바이스(200)의 위치 데이터를 이용하여, 작업자의 모습이 담겨있을 것으로 판단되는 영상을 수집할 수 있다.
프로세서(130)는 영상에 포함된 작업자의 모습을 추출할 수 있다. 프로세서(130)는 영상의 종류에 따라 상이한 종류의 알고리즘을 이용하여 작업자의 모습을 추출할 수 있다. 예를 들어, 프로세서(130)는 열화상 카메라를 통해 획득된 영상에서 작업자의 모습을 추출하기 위해, 영상 속에서 Haar-like feature 및 OCS-LBP(Oriented Center Symmetric Local Binary Patterns) feature를 추출할 수 있다.
한편, 프로세서(130)는 작업자의 모습을 추출하기 전에, 저장부(110)에 저장된 상이한 종류의 알고리즘 모두에 영상을 입력 데이터로 활용할 수 있도록 각기 다른 화질의 영상을 동일한 포맷과 길이로 변환할 수 있다.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 영상 속에서 작업자의 표정 변화 또는 작업자의 행동 변화를 결정하는 방식을 설명하기 위한 개략도이다.
도 4a 및 4b를 참조하면, 프로세서(130)는 이미지 분석 알고리즘(예. R-CNN)을 이용하여 도 4a와 같은 영상 또는 이미지에서 헬멧을 착용한 작업자 1, 2, 3의 모습을 추출할 수 있다. 나아가, 프로세서(130)는 영상 또는 이미지 속에서 작업자의 모습 중에서도 얼굴 영역을 획득할 수 있다.
한편, 작업자의 움직임 또는 작업자의 마스크 착용 여부에 따라 영상 또는 이미지 속에서 작업자의 얼굴 영역은 획득하지 못하는 경우가 존재할 수 있다. 그에 따라, 프로세서(130)는 작업자의 모습에서 얼굴 영역의 특징점 검출 가능 여부를 결정할 수 있다. 만약, 얼굴 영역의 특징점 검출이 불가능한 경우, 프로세서(130)는 해당 작업자의 생체 데이터 및 행동 변화를 기초로 얼굴 표정 변화를 임의로 결정할 수 있다. 예를 들어, 해당 작업자가 점차 느리게 움직이고, 생체 데이터 중 심박수가 급격하게 증가하는 경우, 해당 작업자의 얼굴 표정 변화가 “편안함”에서 “지침”으로 변화한 것으로 결정할 수 있다.
뿐만 아니라, 프로세서(130)는 CCTV(촬영 장치(300))를 통해 촬영된 영상에서 적어도 한 명의 작업자의 모습을 추출할 수 있다. 이 외에도, 프로세서(130)는 중장비의 모습을 추출할 수 있다. 프로세서(130)는 하나의 영상 속에서 추출된 작업자 또는 중장비의 식별 정보와 이동 경로를 목록화(41)할 수 있으며, 이를 안전도 분석 모델의 학습용 인풋 데이터로 활용할 수 있다.
다시, 도 2를 참조하면, 프로세서(130)는 추출된 작업자의 모습에서 얼굴 영역을 획득하고, 획득된 얼굴 영역의 특징점을 기초로 해당 작업자의 얼굴 표정을 결정할 수 있다.
실시예에 따라, 프로세서(130)는 작업자의 얼굴 영역을 눈, 코, 입, 볼, 미간, 이마, 눈썹 영역으로 세분화하고, 각 영역의 변화에 따라 얼굴 표정을 결정할 수 있다. 예를 들어, 프로세서(130)는 LBP(Local Binary Pattern) 알고리즘, ULBP 알고리즘, eigenface 알고리즘 등을 이용하여 얼굴의 각 영역을 특징점으로 지정할 수 있으며, 이미지 분석 알고리즘(CNN 기반 알고리즘)을 통해 작업자의 얼굴 표정을 결정할 수 있다.
프로세서(130)는 작업자의 얼굴 표정을 긍정·부정(즐거움/불쾌함) 및 각성(활성/비활성)을 기준으로 분류할 수 있다. 구체적으로, 즐거움-활성 영역(제1 영역)에서 얼굴 표정은 들뜸, 익숙함, 행복함을 포함하고, 즐거움-비활성 영역(제2 영역)에서 얼굴 표정은 평화로움, 편안함, 차분함을 포함하고, 불쾌함-활성 영역(제3 영역)에서 얼굴 표정은 긴장함, 압박스러움, 속상함을 포함하고, 불쾌함-비활성 영역(제4 영역)에서 슬픔, 우울함, 지침을 포함할 수 있다.
프로세서(130)는 작업자의 얼굴 영역의 특징점을 기초로 제1 내지 제4 영역에 속하는 작업자의 표정이 어느 영역의 표정으로 변화하였는지, 얼굴 표정 변화를 결정할 수 있다.
또한, 프로세서(130)는 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 행동 변화 값을 결정하거나, 소정 시간 동안 해당 작업자의 행동 패턴을 결정할 수 있다. 이를 위해, 프로세서(130)는 영상 또는 이미지 속에서 작업자의 행동 변화를 검출하기 위한 크기 비율을 사전에 결정할 수 있다.
구체적으로, 프로세서(130)는 해당 작업자의 행동 변화 값을 결정하기 위해, 소정 시간 동안 해당 작업자의 모션 벡터 크기 값 평균을 계산하고, 공종 별 모션 평균 기준 값과 계산된 모션 벡터 크기 값과의 차이를 행동 변화 값으로 결정될 수 있다. 즉, 프로세서(130)는 어느 한 종류의 공종에서 평균적으로 관측되는 작업자의 움직임과 현재 작업자의 움직임을 비교하여, 작업자의 행동에 특이 변화가 있는지 판단할 수 있다.
한편, 프로세서(130)는 작업자의 행동 패턴을 결정하기 위해, 소정 시간 동안 촬영 영역 내에서 작업자의 위치 변화를 검출할 수 있다. 행동 패턴도 행동 변화 값과 동일하게, 공종 별로 매칭된 행동 패턴이 존재할 수 있으며, 프로세서(130)는 이러한 위치 변화를 토대로 작업자의 행동 패턴을 결정할 수 있다.
프로세서(130)는 작업자의 생체 데이터와 상태 데이터를 입력으로 하여 공종 별로 존재하는 안전 사고 유형에 대한 작업자의 안전도를 예측하도록 학습된 안전도 분석 모델에 복수의 작업자 각각의 생체 데이터와 상기 상태 데이터를 입력하여 안전 사고 유형 별로 복수의 작업자 각각의 안전도를 출력할 수 있다.
도 5는 본 발명의 일 실시예에 따른 안전도 분석 모델을 설명하기 위한 개략도이다.
도 5를 참조하면, 안전도 분석 서버(100)의 프로세서(130)는 복수의 작업자 디바이스(200)를 통해 작업자의 생체 데이터를 획득하고, 촬영 장치(300)를 통해 획득된 현장 영상에서 작업자의 생체 데이터(얼굴 표정 변화, 행동 변화)를 획득할 수 있으며, 이를 안전 사고 유형 별 안전도 분석 모델에 입력할 수 있다. 프로세서(130)는 안전도 분석 모델을 통해 서로 다른 공종에 참여한 작업자 각각의 위험 요인(안전 사고 유형) 별 안전도를 출력할 수 있다.
실시예에 따라, 프로세서(130)는 작업자의 안전도를 안전/주의 (1단계, 2단계, …N단계)/경계/위험으로 구분하여 표현할 수 있다. 이외에, 안전도는 안전 사고 유형 별 퍼센트(%)로 표현될 수도 있다. 예를 들어, 0%의 경우, 작업자가 현재 안정적으로 작업에 참여하고 있는 상태이며, 97%의 경우, 작업자가 현재 위험한 상태인 것으로 이해될 수 있다.
아울러, 프로세서(130)는 안전도 분석 모델을 수립한 뒤에도, 여러 건설 현장에서 발생하는 사건/사고에 대한 데이터를 수집하고, 이를 기초로 안전도 분석 모델을 학습시킬 수 있다. 이때, 안전도 분석 모델을 학습시킨다는 것은 안전 사고 유형 별로 가중치를 주기적으로 조정하는 것으로 이해될 수 있다.
구체적으로, 프로세서(130)는 공공 데이터 포털에서 제공되는 공종 별 안전 사고 데이터를 주기적으로 크롤링(crawling)할 수 있으며, 주기적으로 크롤링된 안전 사고 데이터를 기초로 안전 사고 유형 별 가중치를 조정할 수 있다.
즉, 프로세서(130)는 사고가 많이 발생되는 건에 대해서는 안전도 계산 과정에서 가중치를 부가함으로써, 건설 현장에서 새롭게 적용되는 공정이나 공정에 대해서도 안전 사고에 대한 예방이 가능할 수 있다.
도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 안전 사고 관련 데이터를 수집하기 위해 활용되는 공공 데이터 포털 화면을 나타낸 개략도이다.
도 6a 내지 도 6c를 참조하면, 프로세서(130)는 안전 사고 리스트, 안전 사고 주요 정보 및 현장 특성에 대한 정보를 포함하는 공공 데이터 포털의 웹 페이지에서 안전 사고 데이터를 크롤링할 수 있다. 여기서, 안전 사고 리스트는 사고가 발생한 지역명과 공종 및 사고 유형이 개략적으로 포함될 수 있다.
프로세서(130)는 사고 일시, 사고 인지 시간, 시설물 종류(예. 건축-건축물-창고시설), 인적사고/물적사고 정보(예. 1m 추락), 공종(건축-지붕공사)/사고객체(예. 건물)/작업프로세스와 관련된 사고분류 정보, 사고 장소/부위와 관련된 사고 위치 정보, 사망자수/부상자수/피해금액과 관련된 피해 상황 정보를 포함하는 사고 종합 정보와 토목, 건축, 기계설비, 전기설비, 통신설비, 산업설비 및 기타 공종 별 위험발생 객체에 대한 사고 발생 건수 및 사고 기사를 안전 사고 데이터로 수집할 수 있다.
또한, 프로세서(130)는 건설 현장용 센서(400)로부터 수집되는 감지 신호를 기초로 안전 사고 유형 별 가중치를 조정할 수 있다. 구체적으로, 프로세서(130)는 건설 현장에 배치된 복수의 센서(건설 현장용 센서(400))로부터 획득되는 위험 객체의 검출 횟수 및 위험 객체로의 작업자 접근 횟수를 카운트할 수 있다. 이후 프로세서(130)는 검출 횟수 또는 작업자 접근 횟수가 기준 횟수 이상인 경우, 해당 센서를 통해 판단 가능한 안전 사고 유형 별 가중치를 조정할 수 있다.
즉, 프로세서(130)는 건설 현장용 센서(400)로부터 단순히 감지 신호 획득에 따라 작업자 디바이스(200)로 무분별한 알림을 제공하는 것이 아니라 지정된 기준 횟수를 초과할 경우에 한하여 안전 사고 유형의 가중치를 조정함으로써, 작업자에게 안전도 분석 결과에 대한 신뢰를 줄 수 있다.
프로세서(130)는 복수의 작업자 중 안전도가 기준 값 이상인 작업자에게 알람을 제공할 수 있다. 구체적으로, 프로세서(130)는 관리자에 의해 지정된 시간 간격으로 안전도 분석 모델을 이용한 안전도 분석 서비스를 수행할 수 있으며, 그 결과에 따라 작업자 디바이스(200)로 알람을 제공할 수 있다.
또한, 프로세서(130)는 안전도가 기준 값 이상인 작업자가 소지한 작업자 디바이스(200)와 함께 해당 작업자 디바이스(200)와 인접한 적어도 하나의 다른 작업자 디바이스(200)로 알람을 제공함으로써, 인접한 작업자들에게 안전 사고 발생 가능성을 인지시킬 수 있다.
지금까지 본 발명의 일 실시예에 따른 안전도 분석 서버(100)에 대하여 설명하였다. 본 발명에 따르면, 안전도 분석 서버(100)는 작업자의 생체 데이터와 상태 데이터, 그리고 건설 현장에서 수집되는 각종 안전 사고 데이터를 복수의 데이터 분석 알고리즘을 통해 학습하고 그에 따라 안전도 분석 모델을 수립함으로써, 안전 사고 발생 원인을 파악하고, 실제 건설 현장에서 작업자의 안전을 확보할 수 있다.
이하에서는, 안전도 분석 서버(100)를 통해 안전도 분석 서비스를 제공하는 방법에 대하여 설명하도록 한다.
도 7은 본 발명의 일 실시예에 따른 안전도 분석 서비스 제공 방법을 설명하기 위한 순서도이고, 도 8은 도 7에 도시된 S120 단계를 구체화한 순서도이다.
도 7을 참조하면, 안전도 분석 서버(100)는 건설 현장에 배치된 복수의 작업자의 담당 공종에 따른 안전 사고 유형을 매칭할 수 있다(S110). 구체적으로, 안전도 분석 서버(100)는 광범위한 건설 현장 내에서 작업자가 담당한 작업과 이와 연관된 안전 사고 유형을 매칭함으로써, 작업자 개개인의 안전을 확보하기 위한 사전 데이터를 확보할 수 있다. 특히, 안전도 분석 서버(100)는 공종의 진행도에 따라 발생 가능한 안전 사고 유형을 결정함으로써, 안전 사고에 대한 빠른 대응을 수행할 수 있다.
안전도 분석 서버(100)는 복수의 작업자 각각에 대한 생체 데이터 및 상태 데이터를 획득할 수 있다(S120). 이때, 생체 데이터는 복수의 작업자 각각이 소지 또는 장착한 작업자 디바이스(200)로부터 획득되며, 작업자의 체온, 심박수, 혈압, 심전도, 혈액량, 호흡 및 근전도 중 적어도 하나를 포함할 수 있다.
또한, 상태 데이터란 몸의 건강이나 기분 상태로 정의되는 컨디션을 정의하기 위한 것으로, 본 발명에서 상태 데이터는 작업자의 얼굴 표정 변화 또는 작업자의 행동 변화를 포함할 수 있다.
안전도 분석 서버(100)는 작업자의 상태 데이터를 획득하기 위해, 건설 현장에 배치된 촬영 장치(300)로부터 수집된 복수의 영상들을 활용할 수 있다.
관련하여, 도 8을 참조하면, 안전도 분석 서버(100)는 복수의 작업자 각각의 위치 데이터를 이용하여 적어도 한 명의 작업자에 대한 영상을 수집할 수 있다(S121).
즉, 안전도 분석 서버(100)는 촬영 장치(300)가 촬영하는 영역에 대한 위치 데이터와 작업자 디바이스(200)의 위치 데이터를 이용하여, 작업자의 모습이 담겨있을 것으로 판단되는 영상을 수집할 수 있다.
S121 단계 이후, 안전도 분석 서버(100)는 영상에 포함된 작업자의 모습을 추출할 수 있다(S123). 안전도 분석 서버(100)는 영상의 종류에 따라 상이한 종류의 알고리즘을 이용하여 작업자의 모습을 추출할 수 있다. 예를 들어, 안전도 분석 서버(100)는 열화상 카메라를 통해 획득된 영상에서 작업자의 모습을 추출하기 위해, 영상 속에서 Haar-like feature 및 OCS-LBP(Oriented Center Symmetric Local Binary Patterns) feature를 추출할 수 있다.
한편, 안전도 분석 서버(100)는 작업자의 모습을 추출하기 전에, 상이한 종류의 알고리즘 모두에 영상을 입력 데이터로 활용할 수 있도록 각기 다른 화질의 영상을 동일한 포맷과 길이로 변환할 수 있다.
한편, 작업자의 움직임 또는 작업자의 마스크 착용 여부에 따라 영상 또는 이미지 속에서 작업자의 얼굴 영역은 획득하지 못하는 경우가 존재할 수 있다. 그에 따라, 안전도 분석 서버(100)는 작업자의 모습에서 얼굴 영역의 특징점 검출 가능 여부를 결정할 수 있다. 만약, 얼굴 영역의 특징점 검출이 불가능한 경우, 안전도 분석 서버(100)는 해당 작업자의 생체 데이터 및 행동 변화를 기초로 얼굴 표정 변화를 임의로 결정할 수 있다. 예를 들어, 해당 작업자가 점차 느리게 움직이고, 생체 데이터 중 심박수가 급격하게 증가하는 경우, 해당 작업자의 얼굴 표정 변화가 “편안함”에서 “지침”으로 변화한 것으로 결정할 수 있다.
뿐만 아니라, 안전도 분석 서버(100)는 CCTV(촬영 장치(300))를 통해 촬영된 영상에서 적어도 한 명의 작업자의 모습을 추출할 수 있다. 이 외에도, 안전도 분석 서버(100)는 중장비의 모습을 추출할 수도 있다. 안전도 분석 서버(100)는 하나의 영상 속에서 추출된 작업자 또는 중장비의 식별 정보와 이동 경로를 목록화할 수 있으며, 이를 안전도 분석 모델의 학습용 인풋 데이터로 활용할 수 있다.
안전도 분석 서버(100)는 추출된 작업자의 모습에서 얼굴 영역을 획득하고, 획득된 얼굴 영역의 특징점을 기초로 해당 작업자의 얼굴 표정을 결정할 수 있다(S125-1).
실시예에 따라, 안전도 분석 서버(100)는 작업자의 얼굴 영역을 눈, 코, 입, 볼, 미간, 이마, 눈썹 영역으로 세분화하고, 각 영역의 변화에 따라 얼굴 표정을 결정할 수 있다. 예를 들어, 안전도 분석 서버(100)는 LBP(Local Binary Pattern) 알고리즘, ULBP 알고리즘, eigenface 알고리즘 등을 이용하여 얼굴의 각 영역을 특징점으로 지정할 수 있으며, 이미지 분석 알고리즘(CNN 기반 알고리즘)을 통해 작업자의 얼굴 표정을 결정할 수 있다.
안전도 분석 서버(100)는 작업자의 얼굴 표정을 긍정·부정(즐거움/불쾌함) 및 각성(활성/비활성)을 기준으로 분류할 수 있다. 구체적으로, 즐거움-활성 영역(제1 영역)에서 얼굴 표정은 들뜸, 익숙함, 행복함을 포함하고, 즐거움-비활성 영역(제2 영역)에서 얼굴 표정은 평화로움, 편안함, 차분함을 포함하고, 불쾌함-활성 영역(제3 영역)에서 얼굴 표정은 긴장함, 압박스러움, 속상함을 포함하고, 불쾌함-비활성 영역(제4 영역)에서 슬픔, 우울함, 지침을 포함할 수 있다.
안전도 분석 서버(100)는 작업자의 얼굴 영역의 특징점을 기초로 제1 내지 제4 영역에 속하는 작업자의 표정이 어느 영역의 표정으로 변화하였는지, 얼굴 표정 변화를 결정할 수 있다.
또한, 안전도 분석 서버(100)는 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 행동 변화 값을 결정하거나, 소정 시간 동안 해당 작업자의 행동 패턴을 결정할 수 있다(S125-10). 이를 위해, 안전도 분석 서버(100)는 영상 또는 이미지 속에서 작업자의 행동 변화를 검출하기 위한 크기 비율을 결정할 수 있다.
안전도 분석 서버(100)는 해당 작업자의 행동 변화 값을 결정하기 위해, 소정 시간 동안 해당 작업자의 모션 벡터 크기 값 평균을 계산하고, 공종 별 모션 평균 기준 값과 계산된 모션 벡터 크기 값과의 차이를 계산할 수 있다. 여기서, 기준 값과의 차이는 해당 작업자의 행동 변화 값으로 결정될 수 있다.
다시 말해서, 안전도 분석 서버(100)는 어느 한 종류의 공종에서 평균적으로 관측되는 작업자의 움직임과 현재 작업자의 움직임을 비교하여, 작업자의 행동에 특이 변화가 있는지 판단할 수 있다.
한편, 안전도 분석 서버(100)는 작업자의 행동 패턴을 결정하기 위해, 소정 시간 동안 촬영 영역 내에서 작업자의 위치 변화를 검출할 수 있다. 행동 패턴도 행동 변화 값과 동일하게, 공종 별로 매칭된 행동 패턴이 존재할 수 있으며, 안전도 분석 서버(100)는 이러한 위치 변화를 토대로 작업자의 행동 패턴을 결정할 수 있다.
S125-1, S125-10 단계 이후, 안전도 분석 서버(100)는 작업자의 생체 데이터와 상태 데이터를 입력으로 하여 공종 별로 존재하는 안전 사고 유형에 대한 작업자의 안전도를 예측하도록 학습된 안전도 분석 모델에 복수의 작업자 각각의 생체 데이터와 상기 상태 데이터를 입력하여 안전 사고 유형 별로 복수의 작업자 각각의 안전도를 출력할 수 있다(S130).
실시예에 따라, 안전도 분석 서버(100)는 작업자의 안전도를 안전/주의 (1단계, 2단계, …N단계)/경계/위험으로 구분하여 표현할 수 있다. 이외에, 안전도는 안전 사고 유형 별 퍼센트(%)로 표현될 수도 있다. 예를 들어, 0%의 경우, 작업자가 현재 안정적으로 작업에 참여하고 있는 상태이며, 97%의 경우, 작업자가 현재 위험한 상태인 것으로 이해될 수 있다.
아울러, 안전도 분석 서버(100)는 안전도 분석 모델을 수립한 뒤에도, 여러 건설 현장에서 발생하는 사건/사고에 대한 데이터를 수집하고, 이를 기초로 안전도 분석 모델을 학습시킬 수 있다. 이때, 안전도 분석 모델을 학습시킨다는 것은 안전 사고 유형 별로 가중치를 주기적으로 조정하는 것으로 이해될 수 있다.
구체적으로, 안전도 분석 서버(100)는 공공 데이터 포털에서 제공되는 공종 별 안전 사고 데이터를 주기적으로 크롤링(crawling)할 수 있으며, 주기적으로 크롤링된 안전 사고 데이터를 기초로 안전 사고 유형 별 가중치를 조정할 수 있다.
즉, 안전도 분석 서버(100)는 사고가 많이 발생되는 건에 대해서는 안전도 계산 과정에서 가중치를 부가함으로써, 건설 현장에서 새롭게 적용되는 공정이나 공정에 대해서도 안전 사고에 대한 예방이 가능할 수 있다.
예를 들어, 안전도 분석 서버(100)는 사고 일시, 사고 인지 시간, 시설물 종류(예. 건축-건축물-창고시설), 인적사고/물적사고 정보(예. 1m 추락), 공종(건축-지붕공사)/사고객체(예. 건물)/작업프로세스와 관련된 사고분류 정보, 사고 장소/부위와 관련된 사고 위치 정보, 사망자수/부상자수/피해금액과 관련된 피해 상황 정보를 포함하는 사고 종합 정보와 토목, 건축, 기계설비, 전기설비, 통신설비, 산업설비 및 기타 공종 별 위험발생 객체에 대한 사고 발생 건수 및 사고 기사를 안전 사고 데이터로 수집할 수 있다.
또한, 안전도 분석 서버(100)는 건설 현장용 센서(400)로부터 수집되는 감지 신호를 기초로 안전 사고 유형 별 가중치를 조정할 수 있다. 구체적으로, 안전도 분석 서버(100)는 건설 현장에 배치된 복수의 센서(건설 현장용 센서(400))로부터 획득되는 위험 객체의 검출 횟수 및 위험 객체로의 작업자 접근 횟수를 카운트할 수 있다. 이후 안전도 분석 서버(100)는 검출 횟수 또는 작업자 접근 횟수가 기준 횟수 이상인 경우, 해당 센서를 통해 판단 가능한 안전 사고 유형 별 가중치를 조정할 수 있다.
즉, 안전도 분석 서버(100)는 건설 현장용 센서(400)로부터 단순히 감지 신호 획득에 따라 작업자 디바이스(200)로 무분별한 알림을 제공하는 것이 아니라 지정된 기준 횟수를 초과할 경우에 한하여 안전 사고 유형의 가중치를 조정함으로써, 작업자에게 안전도 분석 결과에 대한 신뢰를 줄 수 있다.
S130 단계 이후, 안전도 분석 서버(100)는 복수의 작업자 중 안전도가 기준 값 이상인 작업자에게 알람을 제공할 수 있다(S140). 구체적으로, 안전도 분석 서버(100)는 관리자에 의해 지정된 시간 간격으로 안전도 분석 모델을 이용한 안전도 분석 서비스를 수행할 수 있으며, 그 결과에 따라 작업자 디바이스(200)로 알람을 제공할 수 있다.
또한, 안전도 분석 서버(100)는 안전도가 기준 값 이상인 작업자가 소지한 작업자 디바이스(200)와 함께 해당 작업자 디바이스(200)와 인접한 적어도 하나의 다른 작업자 디바이스(200)로 알람을 제공함으로써, 인접한 작업자들에게 안전 사고 발생 가능성을 인지시킬 수 있다.
지금까지 본 발명의 일 실시예에 따른 안전도 분석 방법에 대하여 설명하였다. 본 발명에 따르면, 건설 현장을 촬영한 영상을 기반으로 작업자 개개인의 표정 변화와 행동 패턴 또는 행동 범위를 인식하고, 이를 기존에 발생되었던 안전 사고와 매칭시켜 학습함으로써, 작업자의 부주의로 인한 안전 사고 외에 의도치 않게 발생하게 되는 개인의 안전 사고를 예방할 수 있으며, 개인의 안전 사고로 인한 연쇄적인 사건 사고를 예방할 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 일 실시 예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시 예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 작업자 안전 분석 시스템
100: 안전도 분석 서비스 제공 서버
110: 저장부
120: 통신부
130: 프로세서
200: 작업자 디바이스
300: 촬영 장치
400: 건설 현장용 센서
500: 중장비 식별 장치
600: 관리자 디바이스

Claims (29)

  1. 저장부;
    통신부;
    상기 저장부, 상기 통신부와 동작 가능하게 연결된 프로세서; 를 포함하되,
    상기 프로세서는,
    건설 현장에 배치된 복수의 작업자 각각의 담당 공종에 따른 안전 사고 유형을 매칭하고, 상기 복수의 작업자 각각이 장착한 웨어러블 디바이스로부터 획득 가능한, 작업자의 신체적인 상태를 나타내는 생체 데이터 및, 상기 건설 현장을 촬영한 영상을 토대로 획득 가능한, 작업자의 심리적인 상태를 나타내는 상태 데이터-상기 상태 데이터는 긍정, 부정 및 각성 여부를 기준으로 분류되는 얼굴 표정 변화와 작업자의 행동 변화를 포함함-를 획득하고, 작업자의 생체 데이터와 상태 데이터를 입력으로 하여 공종 별로 존재하는 안전 사고 유형 별 작업자의 안전도를 예측하도록 학습된 안전도 분석 모델에 상기 복수의 작업자 각각의 생체 데이터와 상기 상태 데이터를 입력하여 안전 사고 유형 별로 상기 복수의 작업자 각각의 안전도를 출력하고, 상기 복수의 작업자 중 안전도가 기준 값 이상인 작업자에게 알람을 제공하도록 구성되되,
    상기 프로세서는,
    상기 복수의 작업자 각각의 위치 데이터를 이용하여 적어도 한 명의 작업자에 대한 영상을 수집하고, 상기 영상에 포함된 작업자의 모습을 추출하고,
    상기 얼굴 표정 변화에 대한 상태 데이터를 획득하기 위해, 상기 추출된 작업자의 모습에서 얼굴 영역의 특징점 검출 가능한 경우, 해당 작업자의 모습에서 얼굴 영역을 획득하고, 획득된 얼굴 영역의 특징점을 기초로 해당 작업자의 얼굴 표정 변화를 결정하거나, 상기 추출된 작업자의 모습에서 얼굴 영역의 특징점 검출이 불가능한 경우, 해당 작업자의 상기 생체 데이터 및 상기 행동 변화를 기초로 해당 작업자의 얼굴 표정 변화를 결정하고,
    상기 행동 변화에 대한 상태 데이터를 획득하기 위해, 상기 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 모션 벡터 크기 값 평균을 계산하여, 상기 공종 별 모션 평균 기준 값과 계산된 값과의 차이를 해당 작업자의 행동 변화에 대응되는 값으로 결정하거나, 상기 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 행동 변화에 대응되는 상기 공종 별 행동 패턴을 결정하도록 구성되는, 안전도 분석 서비스 제공 서버.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 제1항에 있어서,
    상기 생체 데이터는,
    작업자의 체온, 심박수, 혈압, 심전도, 혈액량, 호흡 및 근전도 중 적어도 하나를 포함하는, 안전도 분석 서비스 제공 서버.
  9. 제8항에 있어서,
    상기 프로세서는,
    상기 안전도가 기준 값 이상인 작업자가 소지한 작업자 디바이스와 함께 해당 작업자 디바이스와 인접한 적어도 하나의 다른 작업자 디바이스로 알람을 제공하는, 안전도 분석 서비스 제공 서버.
  10. 제1항에 있어서,
    상기 프로세서는,
    상기 담당 공종의 진행도에 따라 발생 가능한 안전 사고 유형을 결정하는, 안전도 분석 서비스 제공 서버.
  11. 제10항에 있어서,
    상기 프로세서는,
    공공 데이터 포털에서 제공되는 공종 별 안전 사고 데이터를 주기적으로 크롤링(crawling)하는, 안전도 분석 서비스 제공 서버.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 주기적으로 크롤링된 안전 사고 데이터를 기초로 상기 안전 사고 유형 별 가중치를 조정하는, 안전도 분석 서비스 제공 서버.
  13. 제11항에 있어서,
    상기 안전 사고 데이터는,
    사고 일시, 사고 인지 시간, 시설물 종류, 인적사고/물적사고 정보, 공종/사고객체/작업프로세스와 관련된 사고분류 정보, 사고 장소/부위와 관련된 사고 위치 정보, 사망자수/부상자수/피해금액과 관련된 피해 상황 정보 중 적어도 하나를 포함하는 사고 종합 정보,
    토목, 건축, 기계설비, 전기설비, 통신설비, 산업설비 및 기타 공종 별 위험발생 객체에 대한 사고 발생 건수 및 사고 기사 중 적어도 하나의 데이터를 포함하는 안전도 분석 서비스 제공 서버.
  14. 제1항에 있어서,
    상기 프로세서는,
    상기 건설 현장에 배치된 복수의 센서로부터 획득되는 감지 신호를 기초로 위험 객체의 검출 횟수 및 위험 객체로의 작업자 접근 횟수를 카운트하고,
    상기 검출 횟수 또는 상기 작업자 접근 횟수가 기준 횟수 이상인 경우, 해당 센서를 통해 판단 가능한 상기 안전 사고 유형 별 가중치를 조정하는, 안전도 분석 서비스 제공 서버.
  15. 안전도 분석 서비스 제공 서버가 작업자의 안전도를 분석하는 방법으로서,
    건설 현장에 배치된 복수의 작업자 각각의 담당 공종에 따른 안전 사고 유형을 매칭하는 단계;
    상기 복수의 작업자 각각이 장착한 웨어러블 디바이스로부터 획득 가능한, 작업자의 신체적인 상태를 나타내는 생체 데이터 및, 상기 건설 현장을 촬영한 영상을 토대로 획득 가능한, 작업자의 심리적인 상태를 나타내는 상태 데이터-상기 상태 데이터는 긍정, 부정 및 각성 여부를 기준으로 분류되는 얼굴 표정 변화와 작업자의 행동 변화를 포함함-를 획득하는 단계;
    작업자의 생체 데이터와 상태 데이터를 입력으로 하여 공종 별로 존재하는 안전 사고 유형 별 작업자의 안전도를 예측하도록 학습된 안전도 분석 모델에 상기 복수의 작업자 각각의 생체 데이터와 상기 상태 데이터를 입력하여 안전 사고 유형 별로 상기 복수의 작업자 각각의 안전도를 출력하는 단계; 및
    상기 복수의 작업자 중 안전도가 기준 값 이상인 작업자에게 알람을 제공하는 단계; 를 포함하되,
    상기 획득하는 단계는,
    상기 복수의 작업자 각각의 위치 데이터를 이용하여 적어도 한 명의 작업자에 대한 영상을 수집하고, 상기 영상에 포함된 작업자의 모습을 추출하는 단계,
    상기 얼굴 표정 변화에 대한 상태 데이터를 획득하기 위해, 상기 추출된 작업자의 모습에서 얼굴 영역의 특징점 검출 가능한 경우, 해당 작업자의 모습에서 얼굴 영역을 획득하고, 획득된 얼굴 영역의 특징점을 기초로 해당 작업자의 얼굴 표정 변화를 결정하거나, 상기 추출된 작업자의 모습에서 얼굴 영역의 특징점 검출이 불가능한 경우, 해당 작업자의 상기 생체 데이터 및 상기 행동 변화를 기초로 해당 작업자의 얼굴 표정 변화를 결정하는 단계, 와
    상기 행동 변화에 대한 상태 데이터를 획득하기 위해, 상기 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 모션 벡터 크기 값 평균을 계산하여, 상기 공종 별 모션 평균 기준 값과 계산된 값과의 차이를 해당 작업자의 행동 변화에 대응되는 값으로 결정하거나, 상기 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 행동 변화에 대응되는 상기 공종 별 행동 패턴을 결정하는 단계, 를 더 포함하는, 안전도 분석 서비스 제공 방법.
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 제15항에 있어서,
    상기 생체 데이터는,
    작업자의 체온, 심박수, 혈압, 심전도, 혈액량, 호흡 및 근전도 중 적어도 하나를 포함하는, 안전도 분석 서비스 제공 방법.
  23. 제22항에 있어서,
    상기 알람을 제공하는 단계는,
    상기 안전도가 기준 값 이상인 작업자가 소지한 작업자 디바이스와 함께 해당 작업자 디바이스와 인접한 적어도 하나의 다른 작업자 디바이스로 알람을 제공하는 단계인, 안전도 분석 서비스 제공 방법.
  24. 제15항에 있어서,
    상기 안전 사고 유형을 매칭하는 단계는,
    상기 공종의 진행도에 따라 발생 가능한 안전 사고 유형을 결정하는 단계, 를 더 포함하는 안전도 분석 서비스 제공 방법.
  25. 제24항에 있어서,
    상기 안전 사고 유형을 결정하는 단계는,
    공공 데이터 포털에서 제공되는 공종 별 안전 사고 데이터를 주기적으로 크롤링(crawling)하는 단계, 를 더 포함하는 안전도 분석 서비스 제공 방법.
  26. 제25항에 있어서,
    상기 안전도를 출력하는 단계는,
    상기 주기적으로 크롤링된 안전 사고 데이터를 기초로 상기 안전 사고 유형 별 가중치를 조정하는 단계, 를 포함하는 안전도 분석 서비스 제공 방법.
  27. 제25항에 있어서,
    상기 안전 사고 데이터는,
    사고 일시, 사고 인지 시간, 시설물 종류, 인적사고/물적사고 정보, 공종/사고객체/작업프로세스와 관련된 사고분류 정보, 사고 장소/부위와 관련된 사고 위치 정보, 사망자수/부상자수/피해금액과 관련된 피해 상황 정보를 포함하는 사고 종합 정보와
    토목, 건축, 기계설비, 전기설비, 통신설비, 산업설비 및 기타 공종 별 위험발생 객체에 대한 사고 발생 건수 및 사고 기사를 포함하는 안전도 분석 서비스 제공 방법.
  28. 제15항에 있어서,
    상기 안전도를 출력하는 단계는,
    상기 건설 현장에 배치된 복수의 센서로부터 획득되는 감지 신호를 기초로 위험 객체의 검출 횟수 및 위험 객체로의 작업자 접근 횟수를 카운트하는 단계, 와
    상기 검출 횟수 또는 상기 작업자 접근 횟수가 기준 횟수 이상인 경우, 해당 센서를 통해 판단 가능한 상기 안전 사고 유형 별 가중치를 조정하는 단계, 를 더 포함하는 안전도 분석 서비스 제공 방법.
  29. 건설 현장에 배치된 복수의 작업자가 소지한 작업자 디바이스;
    상기 건설 현장을 촬영하는 적어도 하나의 촬영 장치;
    상기 작업자 디바이스 및 상기 촬영 장치를 통해 상기 복수의 작업자 각각에 대한 작업자의 신체적인 상태를 나타내는 생체 데이터 및 작업자의 심리적인 상태를 나타내는 상태 데이터-상기 상태 데이터는 긍정, 부정 및 각성 여부를 기준으로 분류되는 얼굴 표정 변화와 작업자의 행동 변화를 포함함-를 획득하고,
    작업자의 생체 데이터와 상태 데이터를 입력으로 하여 공종 별로 존재하는 안전 사고 유형 별 작 업자의 안전도를 예측하도록 학습된 안전도 분석 모델에 상기 복수의 작업자 각각 의 생체 데이터와 상기 상태 데이터를 입력하여 안전 사고 유형 별로 상기 복수의 작업자 각각의 안전도를 출력하여,
    상기 복수의 작업자 중 안전도가 기준 값 이상인 작업자의 디바이스로 알람을 제공하는 안전도 분석 서비스 제공 서버; 를 포함하되,
    상기 안전도 분석 서비스 제공 서버는,
    건설 현장에 배치된 복수의 작업자 각각의 담당 공종에 따른 안전 사고 유형을 매칭하고,
    상기 복수의 작업자 각각의 위치 데이터를 이용하여 적어도 한 명의 작업자에 대한 영상을 수집하고, 상기 영상에 포함된 작업자의 모습을 추출하고,
    상기 얼굴 표정 변화에 대한 상태 데이터를 획득하기 위해, 상기 추출된 작업자의 모습에서 얼굴 영역의 특징점 검출 가능한 경우, 해당 작업자의 모습에서 얼굴 영역을 획득하고, 획득된 얼굴 영역의 특징점을 기초로 해당 작업자의 얼굴 표정 변화를 결정하거나, 상기 추출된 작업자의 모습에서 얼굴 영역의 특징점 검출이 불가능한 경우, 해당 작업자의 상기 생체 데이터 및 상기 행동 변화를 기초로 해당 작업자의 얼굴 표정 변화를 결정하고,
    상기 행동 변화에 대한 상태 데이터를 획득하기 위해, 상기 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 모션 벡터 크기 값 평균을 계산하여, 상기 공종 별 모션 평균 기준 값과 계산된 값과의 차이를 해당 작업자의 행동 변화에 대응되는 값으로 결정하거나, 상기 추출된 작업자의 모습을 기초로 소정 시간 동안 해당 작업자의 행동 변화에 대응되는 상기 공종 별 행동 패턴을 결정하도록 구성되는, 건설 현장의 작업자 안전 분석 시스템.
KR1020210098916A 2021-07-28 2021-07-28 건설 현장의 작업자 안전도 분석 서비스 제공 방법 및 이를 수행하는 서버 및 시스템 KR102411316B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210098916A KR102411316B1 (ko) 2021-07-28 2021-07-28 건설 현장의 작업자 안전도 분석 서비스 제공 방법 및 이를 수행하는 서버 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210098916A KR102411316B1 (ko) 2021-07-28 2021-07-28 건설 현장의 작업자 안전도 분석 서비스 제공 방법 및 이를 수행하는 서버 및 시스템

Publications (1)

Publication Number Publication Date
KR102411316B1 true KR102411316B1 (ko) 2022-06-22

Family

ID=82217057

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210098916A KR102411316B1 (ko) 2021-07-28 2021-07-28 건설 현장의 작업자 안전도 분석 서비스 제공 방법 및 이를 수행하는 서버 및 시스템

Country Status (1)

Country Link
KR (1) KR102411316B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102465195B1 (ko) * 2022-06-20 2022-11-09 정명수 배송물류 관리 시스템
KR102519918B1 (ko) * 2023-03-03 2023-04-10 주식회사 엠에스제이 건설현장 대상물 인식 및 위험상황 판단을 위한 인공지능 기반의 데이터 라벨링 방법 및 시스템
KR102643041B1 (ko) * 2023-05-25 2024-03-05 국토안전관리원 인공지능에 기반하여 빅데이터의 자동 분석을 통한 건설사고 예측방법 및 장치
KR102672221B1 (ko) * 2023-03-13 2024-06-05 주식회사 플렉스윌 시공 현장의 작업자 상태 정보를 이용한 통합 안전 관리 시스템
KR102672719B1 (ko) * 2023-05-26 2024-06-05 주식회사 바른건설 인공지능에 기반한 작업자 행동 패턴에 기반한 재해 예방 시스템
KR102698323B1 (ko) * 2023-11-21 2024-08-26 주식회사 이노피아테크 작업 현장의 동시 모니터링에 특화된 사용자 인터페이스를 제공하는 웨어러블 장치 및 그 제어 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070096409A (ko) * 2006-03-24 2007-10-02 주식회사 네이블텍 재해 방지 시스템 및 방법
KR20130016606A (ko) * 2011-08-08 2013-02-18 한국과학기술원 사용자 적응형 특이행동 검출기반의 안전운전보조시스템
KR20200036544A (ko) * 2018-09-28 2020-04-07 진현미 건설현장 작업환경 개선시스템 및 그 제공방법
KR102195173B1 (ko) * 2020-05-29 2020-12-28 주식회사 휴랜 스마트폰을 이용한 스마트 안전관리 시스템
KR102244978B1 (ko) * 2020-12-23 2021-04-28 주식회사 케이씨씨건설 작업 현장의 위험성을 판단하는 인공지능 모델의 학습 방법, 장치 및 컴퓨터프로그램
KR102256936B1 (ko) * 2020-12-01 2021-05-27 (주)스토리포유 스마트 안전장비를 활용한 건설현장 비대면 안전관리 시스템
KR20210075366A (ko) * 2019-12-13 2021-06-23 한국건설기술연구원 공정기반의 건설안전 위험 예측시스템 및 이의 운용방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070096409A (ko) * 2006-03-24 2007-10-02 주식회사 네이블텍 재해 방지 시스템 및 방법
KR20130016606A (ko) * 2011-08-08 2013-02-18 한국과학기술원 사용자 적응형 특이행동 검출기반의 안전운전보조시스템
KR20200036544A (ko) * 2018-09-28 2020-04-07 진현미 건설현장 작업환경 개선시스템 및 그 제공방법
KR20210075366A (ko) * 2019-12-13 2021-06-23 한국건설기술연구원 공정기반의 건설안전 위험 예측시스템 및 이의 운용방법
KR102195173B1 (ko) * 2020-05-29 2020-12-28 주식회사 휴랜 스마트폰을 이용한 스마트 안전관리 시스템
KR102256936B1 (ko) * 2020-12-01 2021-05-27 (주)스토리포유 스마트 안전장비를 활용한 건설현장 비대면 안전관리 시스템
KR102244978B1 (ko) * 2020-12-23 2021-04-28 주식회사 케이씨씨건설 작업 현장의 위험성을 판단하는 인공지능 모델의 학습 방법, 장치 및 컴퓨터프로그램

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102465195B1 (ko) * 2022-06-20 2022-11-09 정명수 배송물류 관리 시스템
KR102519918B1 (ko) * 2023-03-03 2023-04-10 주식회사 엠에스제이 건설현장 대상물 인식 및 위험상황 판단을 위한 인공지능 기반의 데이터 라벨링 방법 및 시스템
KR102672221B1 (ko) * 2023-03-13 2024-06-05 주식회사 플렉스윌 시공 현장의 작업자 상태 정보를 이용한 통합 안전 관리 시스템
KR102643041B1 (ko) * 2023-05-25 2024-03-05 국토안전관리원 인공지능에 기반하여 빅데이터의 자동 분석을 통한 건설사고 예측방법 및 장치
KR102672719B1 (ko) * 2023-05-26 2024-06-05 주식회사 바른건설 인공지능에 기반한 작업자 행동 패턴에 기반한 재해 예방 시스템
KR102698323B1 (ko) * 2023-11-21 2024-08-26 주식회사 이노피아테크 작업 현장의 동시 모니터링에 특화된 사용자 인터페이스를 제공하는 웨어러블 장치 및 그 제어 방법

Similar Documents

Publication Publication Date Title
KR102411316B1 (ko) 건설 현장의 작업자 안전도 분석 서비스 제공 방법 및 이를 수행하는 서버 및 시스템
CN111144263B (zh) 一种建筑工人高坠事故预警方法及装置
US11410540B2 (en) System and method for event prevention and prediction
Antwi-Afari et al. Wearable insole pressure system for automated detection and classification of awkward working postures in construction workers
Jeon et al. Classification of construction hazard-related perceptions using: Wearable electroencephalogram and virtual reality
Yang et al. Automated detection of near-miss fall incidents in iron workers using inertial measurement units
Pistolesi et al. Assessing the risk of low back pain and injury via inertial and barometric sensors
KR102478383B1 (ko) 낙상 예측 시스템 및 그 방법
Rajamohana et al. Driver drowsiness detection system using hybrid approach of convolutional neural network and bidirectional long short term memory (CNN_BILSTM)
CN108960022B (zh) 一种情绪识别方法及其装置
JP2021523466A (ja) 比較安全イベント評価のための個人保護具及び安全管理システム
Lee et al. Convolutional neural network modeling strategy for fall-related motion recognition using acceleration features of a scaffolding structure
CN114782988B (zh) 一种面向施工环境的多级安全预警方法
Amin et al. Deep learning based face mask detection and crowd counting
Lee et al. Assessing exposure to slip, trip, and fall hazards based on abnormal gait patterns predicted from confidence interval estimation
Seera et al. A hybrid FMM-CART model for human activity recognition
CN117746330A (zh) 危险行为的识别方法及装置、服务器、介质
Pondit et al. Real-time Driver Monitoring System Based on Visual Cues
Deguchi et al. Skeleton clustering by multi-robot monitoring for fall risk discovery
CN116115239A (zh) 基于多模态数据融合的建筑工人尴尬工作姿势识别方法
Gill et al. Face Mask Detection Using ResNet50 Model and fine tuning it on various hyperactive parameters
Iguchi et al. Enhancement of fall detection algorithm using convolutional autoencoder and personalized threshold
Lee et al. UAV Pilot Status Identification Algorithm Using Image Recognition and Biosignals
CN115862059A (zh) 一种基于机器学习的企业员工疲劳监测方法和装置
Kawtikwar et al. Eyes on the road: a machine learning-based fatigue detection system for safer driving

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant