KR20160108740A - 작업 현장 영상 데이터 내의 작업자 인식 방법 - Google Patents

작업 현장 영상 데이터 내의 작업자 인식 방법 Download PDF

Info

Publication number
KR20160108740A
KR20160108740A KR1020150031458A KR20150031458A KR20160108740A KR 20160108740 A KR20160108740 A KR 20160108740A KR 1020150031458 A KR1020150031458 A KR 1020150031458A KR 20150031458 A KR20150031458 A KR 20150031458A KR 20160108740 A KR20160108740 A KR 20160108740A
Authority
KR
South Korea
Prior art keywords
color
color information
roi
database
worker
Prior art date
Application number
KR1020150031458A
Other languages
English (en)
Other versions
KR101668555B1 (ko
Inventor
김창완
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020150031458A priority Critical patent/KR101668555B1/ko
Priority to PCT/KR2015/012090 priority patent/WO2016143976A1/ko
Publication of KR20160108740A publication Critical patent/KR20160108740A/ko
Application granted granted Critical
Publication of KR101668555B1 publication Critical patent/KR101668555B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • G06K9/00369
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06K9/6201
    • G06K9/6204

Abstract

작업자가 정지한 상태로 작업하는 경우, 작업자의 작업 상태 변경에 따른 특징 변화가 존재하는 경우, 다수의 작업자가 존재하는 경우, 및 영상 내의 작업자 크기 변화가 발생하는 경우 등의 상황에 관계없이, 하나 이상의 작업자를 촬영된 영상으로부터 명확하게 인식할 수 있는 기술을 제공한다. 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은, 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 단계; 관심 영역 객체에 포함된 색상 정보를 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계; 및 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 단계;를 포함하는 것을 특징으로 한다.

Description

작업 현장 영상 데이터 내의 작업자 인식 방법{METHOD AND APPARATUS FOR RECOGNIZING WORKER IN WORKING SITE IMAGE DATA}
본 발명은, 건설 현장, 공사 현장 등 작업 현장 내에서 업무를 수행하는 작업자를 인식하는 기술에 관한 것으로, 구체적으로는 작업 현장에서 실시간으로 다수의 작업자를 명확하게 인식하여, 작업자의 상태 및 위치를 정확하게 파악함으로써, 작업 현장의 안정성을 확보하는 기술에 관한 것이다.
2012년 건설업 사망사고 통계에 따르면, 건설현장 내의 건설장비 운전과 관련된 사망사고가 전체의 25% 이상을 차지하는 것으로 나타났다. 또한 건설현장 내의 건설장비 운전과 관련된 사망자수는 2012년 91명으로, 이는 2008년 66명에 비해 약 38% 가량 이상 증가한 수치이다. 고용노동부의 통계에 따르면, 2012년 건설업의 산업재해로 인한 경제적 손실비용은 전체 산업재해로 인한 손실비용의 약 33% 가량을 차지하는 것으로 나타났다. 2012년 건설현장에서 발생한 사망사고 재해자수 (357명) 중 건설장비 운전과 관련된 사망사고 재해자수 (91명)의 비율을 근거로 추산한 결과, 건설장비 운전과 관련된 산업재해로 인한 경제적 손실비용은 약 1.6조원에 달하는 것으로 추정된다 (한국산업안전보건공단, 2012). 이러한 추세가 매년 증가할 것으로 예상됨에 따라, 건설현장 내의 건설장비 운전과 관련된 안전사고를 예방하기 위한 건설장비 안전성 확보 기술 개발의 필요성이 대두되어 왔다. 미국 직업안전 위생관리국 (Occupational Safety and Health Administration, OSHA)의 건설업 안전사고 통계에 따르면, 산업차량 (Industrial Truck)에 의해 인명손상을 가져온 중대재해는 293건으로 나타났다. 이에 대한 원인으로는 시야장애 또는 적재물 및 다른 작업자와의 충돌과 같은 작업 환경 관련 요인이 57.7%를 차지했다 (한국산업안전보건공단, 2008). 이와 같이 작업 환경 관련 요인에 의해 발생하는 건설현장 내의 건설장비 운전과 관련된 안전사고를 예방하기 위해서는 건설장비 작업환경 전방위에 걸친 위험 요소를 실시간으로 탐지할 수 있는 기술 개발이 필요하다.
이에 따라 건설장비 작업환경 내 위험 요소 중 작업자를 실시간으로 탐지할 수 있는 기술이 다수 제안되어 왔다. 제안된 방법은 크게 초음파 센서, 감지센서, ToA (Time of Arrival) 방식, RFID (Radio Frequency IDentification) 기술, PIR(Pyroelectric Infrared Ray) 센서, 2차원 레이저 스캐너 등과 같은 거리 센서를 활용하여 작업자를 인식하기 위한 방법과 이미지 센서를 활용하여 작업자를 인식하기 위한 방법으로 구분된다.
“중장비의 작업자 접근감지장치 (출원번호: 10-1997-0066678)”와 “근접 경보발생 시스템 (출원번호: 10-2001-0014181)”에서는 초음파 센서를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.
“건설장비 안전경보장치 (출원번호: 20-2005-0000816)”에서는 감지센서를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.
“터널 시공현장 장비-인력 간 안전관리 시스템 (출원번호: 10-2011-0031713)”과 “건설 현장의 안전사고 방지 시스템 (10-2011-0065579)”에서는 ToA (Time of Arrival) 방식의 송수신기를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.
“RFID를 이용한 안전관리 장치 및 그 방법 (출원번호: 10-2012-0105578)”에서는 RFID (Radio Frequency Identification) 기술을 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.
“건설용 중장비 접근 감시 시스템 (출원번호: 10-2013-0033357)”에서는 PIR (Pyroelectric Infrared Ray) 센서와 초음파 센서를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.
“굴삭기 작업영역의 전방위 장애물 탐지 기술 개발 (소지윤 등, 2010)”에 관한 연구에서는 2차원 레이저 스캐너를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.
이와 같이 거리 센서를 활용하여 작업자를 인식하기 위한 방법은 초음파 센서, 감지센서, PIR (Pyroelectric Infrared Ray) 센서 등을 활용한 방법의 경우, 탐지 거리가 수 미터 이내로 짧아 근거리를 제외한 건설장비 작업반경 (약 12m) 내 작업자 인식이 불가하다는 단점이 있다.
또한 RFID (Radio Frequency Identification) 기술을 활용한 방법의 경우, 탐지 거리는 충분하나 건설현장 내 모든 건설장비와 작업자에 태그를 부착해야 한다는 단점이 있다. 2차원 레이저 스캐너를 활용한 방법의 경우, 탐지 거리는 충분하나 센서 탑재 비용이 수 백만원에서 수 천만원에 이르는 단점이 있다.
반면, 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상은 상대적으로 경제적인 비용으로 건설장비 작업반경 (약 12m) 내 작업자 인식에 활용할 수 있다는 장점이 있다.
“Hard Hat Detection in Video Sequences based on Face Features, Motion and Color Information (Du 등, 2011)”에 관한 연구에서는 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 움직임을 보이는 픽셀을 추출하고, 얼굴 인식을 통해 작업자를 인식하고자 하였다.
“An Object Recognition, Tracking, and Contextual Reasoning-based Video Interpretation Method for Rapid Productivity Analysis of Construction Operations (Gong과 Caldas, 2011)"과 “Worker Detection in Video Frames for Initializing Vision Trackers (Park과 Brilakis 2012)"에 관한 연구에서는 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 움직임을 보이는 픽셀을 추출하고, 작업자 형태 및 안전보호장구의 일종인 안전조끼의 색상을 작업자의 특징으로 활용하여 작업자를 인식하고자 하였다.
“Implementation of Man-Hours Measurement System for Construction Work Crews by Image Processing Technology (Lee와 Hong, 2014)”에 관한 연구에서는 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 움직임을 보이는 픽셀을 추출하고, 안전보호장구의 일종인 안전모와 안전조끼의 색상, 그리고 작업자가 선 상태에서 안전모와 안전조끼의 위치 및 비율을 작업자의 특징으로 활용하여 작업자를 인식하고자 하였다.
“Vision Watching System and Method for Safety Hat (Patent No.: US 8,279,277 B2)”건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 움직임을 보이는 픽셀을 추출하고, 안전보호장구의 일종인 안전모의 색상을 작업자의 특징으로 활용하여 작업자를 인식하고자 하였다.
이러한 방법의 공통된 단점은 서 있거나, 앉아 있는 등 정지 상태로 작업 중인 작업자에 대한 인식이 불가하다는 것이다. 뿐만 아니라, Lee와 Hong (2014)에 관한 연구는 이와 같은 근본적인 단점 외에도 선 상태에서 안전모와 안전조끼를 동시에 착용한 작업자만 인식 가능하다는 단점이 있다.
“Construction Safety Visualization (Shrestha 등, 2011)”에 관한 연구에서는 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 작업자와 배경 사이의 경계선과 안전보호장구의 일종인 안전모의 형태를 작업자의 특징으로 활용하여 작업자를 인식하고자 하였다. 이러한 방법의 단점은 배경이 단순한 비디오 영상에만 적용 가능하며, 비디오 영상 내에 다수의 작업자가 작업 중인 경우 인식이 불가하다는 단점이 있다. 뿐만 아니라, 이미지 센서와 반대 방향으로 몸을 숙이거나, 엎드려서 작업하는 경우, 안전모가 시야에서 가려지는 문제가 있어 작업자 인식이 불가하다는 단점이 있다.
이에 본 발명은, 작업자가 정지한 상태로 작업하는 경우, 작업자의 작업 상태 변경에 따른 특징 변화가 존재하는 경우, 다수의 작업자가 존재하는 경우, 및 영상 내의 작업자 크기 변화가 발생하는 경우 등의 상황에 관계없이, 하나 이상의 작업자를 촬영된 영상으로부터 명확하게 인식할 수 있는 기술을 제공하는 데 그 목적이 있다.
상기 목적을 달성하기 위해, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은, 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 단계; 상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계; 및 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 단계;를 포함하는 것을 특징으로 한다.
한편, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치는, 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 제1 판단부; 상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 제2 판단부; 및 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 인식 결과 도출부;를 포함하는 것을 특징으로 한다.
본 발명에 의하면, 작업자의 작업 형태의 윤곽선을 통해 1차적으로 작업자에 해당하는 객체를 인식한 뒤, 작업자가 착용하는 안전보호장비의 색상을 촬영 각도 및 외부 환경의 영향을 고려하여 비교함으로써 2차적으로 작업자를 최종 인식하게 된다.
이에 따라서, 상기 언급한 요소로서, 작업자가 정지한 상태로 작업하는 경우에도 작업자 인식이 가능하며, 작업자의 형태 및 촬영 거리에 따른 영상 크기 변화에 무관하게 작업자의 인식이 가능한 효과가 있다. 즉, 작업자의 안전모가 보이지 않는 촬영 방향에서도 작업자에 대한 인식이 가능하다, 또한 영상 내에 다수의 작업자가 작업 중인 경우에도 인식이 가능한 효과가 있다.
상기와 같은 효과에 의하여, 작업 현장에서 작업자를 기존의 기술과 비교하여 매우 정확한 확률로 인식함으로써, 작업 현장의 안정성을 확보할 수 있는 효과가 있다.
도 1 및 2는 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법의 플로우차트.
도 3은 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치의 구성도.
도 4는 본 발명의 일 실시예의 구현을 위해 데이터베이스 내에 저장된 기준 객체 이미지의 예.
도 5 내지 7은 본 발명의 일 실시예의 구현을 위해 데이터베이스 내에 저장된 기준 색상 정보 및 배경 색상 정보의 예.
도 8은 본 발명의 일 실시예에 따라 영상에서 작업자를 인식하는 실험 예.
이하 첨부된 도면을 참조하여, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법 및 장치에 대하여 설명하기로 한다.
이하의 설명에서 본 발명에 대한 이해를 명확히 하기 위하여, 본 발명의 특징에 대한 공지의 기술에 대한 설명은 생략하기로 한다. 이하의 실시 예는 본 발명의 이해를 돕기 위한 상세한 설명이며, 본 발명의 권리 범위를 제한하는 것이 아님은 당연할 것이다. 따라서, 본 발명과 동일한 기능을 수행하는 균등한 발명 역시 본 발명의 권리 범위에 속할 것이다.
이하의 설명에서 동일한 식별 기호는 동일한 구성을 의미하며, 불필요한 중복적인 설명 및 공지 기술에 대한 설명은 생략하기로 한다.
본 발명의 실시 예에서 “통신”, “통신망” 및 “네트워크”는 동일한 의미로 사용될 수 있다. 상기 세 용어들은, 파일을 사용자 단말, 다른 사용자들의 단말 및 다운로드 서버 사이에서 송수신할 수 있는 유무선의 근거리 및 광역 데이터 송수신망을 의미한다.
도 1 및 2는 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법의 플로우차트이다. 이하의 설명에 있어서, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은, 후술을 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치의 각 구성에 의해 수행되는 것으로 설명될 것이나, 이에 제한되지는 않을 것이다.
도 1을 참조하면, 먼저 장치는 작업 현장 등에서 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 장치에 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 적어도 하나의 객체를 관심 영역 객체로 선정하는 단계(S10)를 수행한다.
예를 들어, S10 단계의 수행 효율 향상을 위해, 장치는 Fast Feature Pyramids를 기반으로 전체 비디오 영상 내에서 관심 영역(작업자로 인식되는 사람)을 인식하기 위한 처리 과정을 촬영된 영상 데이터에 적용할 수 있다.
이때, 관심 영역 객체를 선정 시, 장치에 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 인식된 객체들의 윤곽선 형태를 비교할 수 있다. 즉, 작업자가 취할 수 있는 모든 형태의 데이터베이스를 기반으로 상기의 Fast Feature Pyramids 방식을 적용하여 관심 영역 객체, 즉 작업자가 될 수 있는 후보 객체들을 1차적으로 선정하게 된다. 도 4에는, 이러한 데이터베이스에 저장된 데이터의 예가 도시되어 있다.
도 4는 본 발명의 일 실시예의 구현을 위해 데이터베이스 내에 저장된 기준 객체 이미지의 예이다.
도 4를 참조하면, 데이터베이스에는 복수의 형태 정보(100)로서, 작업자가 선 상태, 걷는 상태, 앉은 상태, 숙인 상태, 앉았다가 서는 도중의 상태, 서있다가 앉는 도중의 상태 등에 대응하는 작업자의 형태에 대한 예로서의 영상 데이터가 도시되어 있다. 물론, 데이터베이스에 따라서 상기의 영상 데이터 이외에, 윤곽선 데이터만이 저장될 수 있음은 당연할 것이다.
복수의 형태 정보(100) 각각에는, 작업자에 따라서 달라질 수 있는 세부 형태 정보(110)가 저장될 수 있다. 세부 형태 정보(110)는 방향 등에 따라서 달라질 수 있는 형태에 대응하는 이미지 정보가 저장될 수 있다.
이러한 복수의 형태 정보(100) 및 세부 형태 정보(110)는 기준 객체의 형태로 활용되어, S10 단계의 수행 시 관심 영역 객체를 선정하는 기준으로 사용된다.
도 4와 같이 데이터베이스에는 다양한 기준 객체의 정보가 저장될 수 있으며, 이는 데이터베이스의 학습 모듈, 즉 지속적으로 다양한 기준 객체의 정보가 갱신되는 것을 통해 더욱 다양한 작업 현장에서도 관심 영역 객체를 선정할 수 있도록 발전할 수 있을 것이다.
한편, S10 단계에 있어서, 촬영 거리에 따른 형태의 크기 변화에 무관하게 객체를 인식하기 위하여, 장치는 기준 객체의 크기를 변경하면서 객체의 윤곽선과 비교하여 관심 영역 객체를 선정할 수 있다.
이후 장치는 관심 영역 객체에 포함된 색상 정보가 상기의 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계(S20)를 수행하게 된다.
작업 현장에 있어서 작업자를 영상 데이터로부터 인식하기 위해서는, 형태 또는 윤곽선을 기준으로 정확하게 인식하는 S10 단계의 수행만으로는 부족하다. 즉, 정지된 상태로 작업을 수행하고 있거나, 작업자의 방향, 형태 등에 의하여 안전모가 인식되지 않는다거나, 작업자가 아닌 토지, 장치 등의 배경의 윤곽 형태가 작업자와 유사한 형태가 되는 등의 경우, S10 단계의 수행만으로는 작업자 인식의 오류가 발생할 수 있기 때문이다.
이를 위해, 장치는 S10 단계를 통해 1차 인식 과정을 거쳐 인식된 관심 영역 객체들에 대하여, S20 단계의 2차적인 인식 과정으로 객체들에 포함된 색상을 작업자의 특징으로 활용함으로써, S10 단계의 수행 결과 발생할 수 있는 상기의 오류를 판별하여 인식의 정확성을 확보할 수 있는 효과가 있다.
즉, 장치는 S20 단계의 수행 후, 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단되는 색상 정보를 포함하는 관심 영역 객체를 최종적으로 작업자 객체로 선정하는 단계(S30)를 수행하게 되어, 기존의 기술의 인식 오류 문제를 완전하게 해결할 수 있는 효과를 얻을 수 있게 되는 것이다.
상기 언급한 바와 같이 기준 색상 정보는, 작업자의 특징으로 활용할 수 있는 색상 정보, 즉 작업자 객체로 선정하기 위하여 데이터베이스에 저장되어 있는 정보로서, 작업자가 작업 현장 내에서 일반적 및 의무적으로 착용하는 안전보호장구의 색상에 대응하는 색상 정보임이 바람직하다. 안전보호장구는 안전모 이외에, 작업자가 일반적으로 작업 현장에서 의무적으로 착용하는 장구인 안전 조끼를 예를 들어 포함할 수 있다.
도 2에는 상기 언급한 기설정된 알고리즘을 이용하여 기준 색상 정보와 관심 영역 객체에 포함된 색상 정보가 매칭되는지 여부를 판단하는 구체적인 흐름에 대한 예가 도시되어 있다.
도 2를 참조하면, 장치는 먼저, 상기와 같이 기준 색상 정보에 포함되는 정보로서, 즉 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되도록 선정된 색공간 및 구성요소를 포함하는 기준 색상 정보를 데이터베이스로부터 로드하는 단계(S21)를 수행한다.
이후 관심 영역 객체에 포함된 색상 정보와, 로드된 기준 색상 정보에 색상 모델 기반 픽셀 분류 방법을 적용하여, 관심 영역 객체에 포함된 색상 정보가 기준 색상 정보에 매칭되는지 여부를 판단하는 단계를 수행하게 되는데, 이 과정은 구체적으로 다음과 같다.
즉, 관심 영역 객체에 포함된 색상 정보에 색공간 변환 작업을 수행하여, 관심 영역 객체에 포함된 색상 정보로부터 색공간 및 색상 구성 요소(S21의 구성요소와 동일한 개념의 정보)를 추출하는 단계(S22)가 먼저 수행되며, 이후 로드된 기준 색상 정보에 포함된 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되는 색공간 및 구성요소와 추출된 색공간 및 색상 구성 요소 정보를 색상 모델 기반 픽셀 분류 방법을 이용하여 비교하여, 관심 영역 객체에 포함된 색상 정보가 기준 색상 정보에 매칭되는지 여부를 판단하는 단계(S23)가 수행된다.
S20 단계로 대표되는 2차 인식 과정에서는, 상기 언급한 바와 같이 안전보호장구(안전모 또는 안전조끼)를 특징으로 상기 언급한 바와 같이 도 1의 S10 단계의 인식 과정에서 발생할 수 있는 오류를 판별하여 정확하게 작업자를 인식하기 위하여, 안전보호장구가 갖는 색상 불변 특징을 기반으로 이미지 프로세싱 기술을 적용한다.
영상 데이터는 RGB(Red, Green, Blue) 색상의 공간으로 표현되나, 이는 빛과 같은 외부 환경의 변화에 영향을 받기 쉽다. 이에 따라 S21 내지 S23 단계의 수행에 있어서 언급한 바와 같이, 색상 정보를 이용하여 안전보호장구를 정확히 인식하기 위해서는 색공간 변환 작업이 필요하다.
다양한 색공간 중에서 예를 들어 Normalized rgb, HSI(Hue, Saturation, Intensity), CIELUV, YCbCr 등의 색공간은 빛과 같은 외부 환경의 변화에 거의 영향을 받지 않아 색상을 기반으로 한 물체 인식에 효과적으로 사용되어 왔다. 각각의 색공간에서 안전보호장구는 색공간을 구성하는 3개의 구성 요소에 의해 일정 색분포를 가지게 된다. 효과적인 안전보호장구 인식을 위해서는 안전보호장구가 갖는 색분포와 배경색 분포가 명확히 구분되는 색공간 및 구성 요소의 선정이 필요하다(S21에 대응).
본 발명에서는 예를 들어 15가지 색공간에서 총 45가지 구성 요소에 대해 각각의 세 가지 안전모 색상과 안전조끼와 배경색 분포가 명확히 구분되는 구성 요소를 인자 선정을 통해 선정한다. 선정된 구성 요소를 바탕으로 각각의 안전보호장구를 인식하기 위하여 영상 분할 기법 중 하나인 색상 모델 기반 픽셀 분류 방법을 적용한다(S22 및 S23 단계). 색상 모델 기반 픽셀 분류 방법은 색상 모델 학습을 통해 물체의 색상 불변 특징을 기반으로 하여 물체를 빠르고 효과적으로 인식할 수 있다는 장점이 있다.
이와 같이 S21 단계 내지 S23 단계의 수행을 위해 데이터베이스에 저장될 수 있는 기준 색상 정보 및 배경 색상 정보에 관한 예가 도 5 내지 7에 도시되어 있다.
도 5를 참조하면, 다양한 색상(백색, 황색, 적색)의 안전모의 각 색상을 기준으로 구분된 색상 정보(200)를 확인할 수 있다. 각 색상 정보에는, 색 분포 정보(210)가 구분되어 저장되어, 색공간 및 이에 대응하는 구성요소를 선정할 수 있도록 마련될 수 있다.
한편 도 6을 참조하면, 데이터베이스에 저장된 안전조끼 색상의 색 분포 정보(310)가 도시되어, 안전모와 함께 안전조끼에 대하여 색공간 및 이에 대응하는 구성요소를 선정할 수 있도록 마련되어 있는 것을 확인할 수 있다.
도 7에는 배경으로서 토사 및 기타 배경 요소에 대한 색상 정보가 저장되어 있는 것을 확인할 수 있다. 각 배경의 종류에 따라서 색상 정보(400)가 저장되며, 마찬가지로 색 분포 정보(410)가 구분되어 저장되어, 이와 도 5 및 6의 기준 색상 정보에 포함된 색공간 및 구성요소를 구분할 수 있도록 마련될 수 있다.
이러한 과정을 통해, 작업자를 인식하는 실험예에 관하여 도 8에 도시되어 있다.
도 8을 참조하면, 영상 데이터(500)에서 본 발명의 상기의 기술에 의해 작업자를 인식한 결과에 대한 실험예가 도시되어 있다. 먼저, 객체(510, 520)는 도 1의 S10 단계를 통해 선정된 관심 영역 객체를 의미한다. 한편, 밝은 부분의 객체(511)는 도 1의 S20 단계 및 도 2의 S21 내지 S23 단계의 수행에 의해 최종적으로 작업자 객체를 선정하기 위해 사용된 색상 정보로서, 즉 안전보호장구 색상 데이터베이스를 기반으로 색상 모델 방식을 적용하여 인식한 결과를 나타낸다.
도 8에 도시된 바와 같이, 밝은 부분으로 인식된 객체(511)를 포함하는 객체(510)가 최종적으로 작업자로 인식된 객체이며, 그 외의 객체(520)는 관심 영역 객체로는 선정되었으나 최종적으로 작업자로는 인식되지 않은 객체를 의미한다.
즉, 본 발명에 의하면, 두 단계에 걸친 인식 과정을 통해, 기존의 인식 과정의 문제를 완전하게 해결하고, 더욱 정확하게 작업자를 인식할 수 있도록 하여, 작업 현장의 안정성을 증가시킬 수 있는 효과를 얻을 수 있음이 확인될 수 있다.
도 3은 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치의 구성도이다. 이하의 설명에 있어서, 도 1, 2, 4 내지 8에 대한 설명과 중복되는 부분은 이를 생략하기로 한다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치(10)는 제1 판단부(11), 제2 판단부(12) 및 인식 결과 도출부(13)로 구성되며, 제1 판단부(11), 제2 판단부(12)는 데이터베이스(40)와 연결되어 기준 정보를 수신하게 된다.
한편 제1 판단부(11)는, 도 1의 S10 단계의 기능을 수행하는 구성으로서, 촬영 장치(20)로부터 촬영된 영역(30)의 영상 데이터를 수신하는 기능을 수행하고, 데이터베이스(40)로부터 수신한 기준 객체의 형태를 이용하여 관심 영역 객체를 선정하는 기능을 수행한다. 본 발명에서 촬영 장치(20)는 작업 현장에 설치된 CCTV 및 기타 촬영 기기와 함께, 작업 장비 등에 설치된 이동성이 있는 촬영 기기를 모두 포함한다.
제2 판단부(12)는, 도 1의 S20 단계 및 도 2의 S21 내지 S23 단계의 기능을 수행하는 구성으로서, 데이터베이스(40)로부터 기준 색상 정보를, 제1 판단부(11)로부터 관심 영역 객체 정보 및 이에 포함된 색상 정보와 S20 내지 S23 단계의 구체적인 기능 수행을 통해 비교하는 기능을 수행하게 된다.
인식 결과 도출부(13)는 도 1의 S30 단계의 기능을 수행하는 구성으로서, 제2 판단부(12)의 판단 결과에 따라서 최종적으로 작업자를 영상 데이터 내에서 인식하는 기능을 수행한다.
이상에서 전술한 본 발명의 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
이러한 프로그램은 컴퓨터에 의해 읽힐 수 있는 기록매체에 기록되고 컴퓨터에 의해 실행됨으로써 전술한 기능들이 실행될 수 있다.
이와 같이, 본 발명의 각 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법을 실행시키기 위하여, 전술한 프로그램은 컴퓨터의 프로세서(CPU)가 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다.
이러한 코드는 전술한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Function Code)를 포함할 수 있고, 전술한 기능들을 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수도 있다.
또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다.
또한, 컴퓨터의 프로세서가 전술한 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 컴퓨터의 프로세서가 컴퓨터의 통신 모듈(예: 유선 및/또는 무선 통신 모듈)을 이용하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야만 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수도 있다.
그리고, 본 발명을 구현하기 위한 기능적인(Functional) 프로그램과 이와 관련된 코드 및 코드 세그먼트 등은, 기록매체를 읽어서 프로그램을 실행시키는 컴퓨터의 시스템 환경 등을 고려하여, 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론되거나 변경될 수도 있다.
이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일 예로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있다.
또한 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는 네트워크로 커넥션된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 이 경우, 다수의 분산된 컴퓨터 중 어느 적어도 하나의 컴퓨터는 상기에 제시된 기능들 중 일부를 실행하고, 그 결과를 다른 분산된 컴퓨터들 중 적어도 하나에 그 실행 결과를 전송할 수 있으며, 그 결과를 전송받은 컴퓨터 역시 상기에 제시된 기능들 중 일부를 실행하여, 그 결과를 역시 다른 분산된 컴퓨터들에 제공할 수 있다.
특히, 본 발명의 각 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 컴퓨터로 읽을 수 있는 기록매체는, 애플리케이션 스토어 서버(Application Store Server), 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버(Application Provider Server)에 포함된 저장매체(예: 하드디스크 등)이거나, 애플리케이션 제공 서버 그 자체일 수도 있다.
본 발명의 각 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터는, 일반적인 데스크 탑이나 노트북 등의 일반 PC 뿐만 아니라, 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말기 등의 모바일 단말기를 포함할 수 있으며, 이뿐만 아니라, 컴퓨팅(Computing) 가능한 모든 기기로 해석되어야 할 것이다.
또한, 본 발명의 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터가 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말기 등의 모바일 단말기인 경우, 애플리케이션은 애플리케이션 제공 서버에서 일반 PC로 다운로드 되어 동기화 프로그램을 통해 모바일 단말기에 설치될 수도 있다.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 단계;
    상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계; 및
    상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 단계;를 포함하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법.
  2. 제1항에 있어서,
    상기 기준 색상 정보는,
    상기 작업자 객체로 선정하기 위하여 저장되어 있는 정보로서, 작업자가 착용하는 안전보호장구의 색상에 대응하는 색상 정보인 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법.
  3. 제2항에 있어서,
    상기 기설정된 알고리즘을 이용하여 판단하는 단계는,
    상기 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되도록 선정된 색공간 및 구성요소를 포함하는 상기 기준 색상 정보를 상기 데이터베이스로부터 로드하는 단계; 및
    상기 관심 영역 객체에 포함된 색상 정보와, 상기 로드된 기준 색상 정보에 색상 모델 기반 픽셀 분류 방법을 적용하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하는 단계;를 포함하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법.
  4. 제3항에 있어서,
    상기 매칭되는지 여부를 판단하는 단계는,
    상기 관심 영역 객체에 포함된 색상 정보에 색공간 변환 작업을 수행하여, 상기 관심 영역 객체에 포함된 색상 정보로부터 색공간 및 색상 구성 요소 정보를 추출하는 단계; 및
    상기 로드된 기준 색상 정보에 포함된 상기 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되는 색공간 및 구성요소와 상기 추출된 색공간 및 색상 구성 요소 정보를 상기 색상 모델 기반 픽셀 분류 방법을 이용하여 비교하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하는 단계;를 포함하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법.
  5. 제1항에 있어서,
    상기 관심 영역 객체로 선정하는 단계는,
    상기 객체의 크기에 무관하게 상기 기준 객체의 형태와 매칭되는 윤곽석을 갖는 객체를 관심 영역 객체로 선정하기 위해, 상기 기준 객체의 크기를 변경하면서 상기 객체의 윤곽선과 비교하여 상기 관심 영역 객체를 선정하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법.
  6. 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 제1 판단부;
    상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 제2 판단부; 및
    상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 인식 결과 도출부;를 포함하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 장치.
  7. 제6항에 있어서,
    상기 기준 색상 정보는,
    상기 작업자 객체로 선정하기 위하여 저장되어 있는 정보로서, 작업자가 착용하는 안전보호장구의 색상에 대응하는 색상 정보이며,
    상기 제2 판단부는,
    상기 안정보호장구가 갖는 색분포와 배경색의 분포가 구분되는 색공간 및 구성요소로 선정된 상기 기준 색상 정보를 상기 데이터베이스로부터 로드하고, 상기 관심 영역 객체에 포함된 색상 정보와, 상기 로드된 기준 색상 정보에 색상 모델 기반 픽셀 분류 방법을 적용하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 장치.
  8. 제7항에 있어서,
    상기 제2 판단부는,
    상기 관심 영역 객체에 포함된 색상 정보에 색공간 변환 작업을 수행하여, 상기 관심 영역 객체에 포함된 색상 정보로부터 색공간 및 색상 구성 요소 정보를 추출하고, 상기 로드된 기준 색상 정보에 포함된 상기 안정보호장구가 갖는 색분포와 배경색의 분포가 구분되는 색공간 및 구성요소와 상기 추출된 색공간 및 색상 구성 요소 정보를 비교하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 장치.
  9. 제6항에 있어서,
    상기 제1 판단부는,
    상기 객체의 크기에 무관하게 상기 기준 객체의 형태와 매칭되는 윤곽석을 갖는 객체를 관심 영역 객체로 선정하기 위해, 상기 기준 객체의 크기를 변경하면서 상기 객체의 윤곽선과 비교하여 상기 관심 영역 객체를 선정하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 장치.
  10. 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 단계;
    상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계; 및
    상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 단계;를 포함하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
KR1020150031458A 2015-03-06 2015-03-06 작업 현장 영상 데이터 내의 작업자 인식 방법 KR101668555B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150031458A KR101668555B1 (ko) 2015-03-06 2015-03-06 작업 현장 영상 데이터 내의 작업자 인식 방법
PCT/KR2015/012090 WO2016143976A1 (ko) 2015-03-06 2015-11-11 작업 현장 영상 데이터 내의 작업자 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150031458A KR101668555B1 (ko) 2015-03-06 2015-03-06 작업 현장 영상 데이터 내의 작업자 인식 방법

Publications (2)

Publication Number Publication Date
KR20160108740A true KR20160108740A (ko) 2016-09-20
KR101668555B1 KR101668555B1 (ko) 2016-10-31

Family

ID=56880531

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150031458A KR101668555B1 (ko) 2015-03-06 2015-03-06 작업 현장 영상 데이터 내의 작업자 인식 방법

Country Status (2)

Country Link
KR (1) KR101668555B1 (ko)
WO (1) WO2016143976A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019132589A1 (ko) * 2017-12-29 2019-07-04 (주)제이엘케이인스펙션 다중 객체 검출을 위한 영상 처리 장치 및 방법
KR20210096754A (ko) * 2020-01-29 2021-08-06 에스케이 주식회사 디지털 안전보건환경 산업 특화용 이미지 학습 모델을 이용한 안전관리 방법 및 시스템
KR20220043334A (ko) * 2020-09-29 2022-04-05 주식회사 포스코아이씨티 산업현장의 안전 관리를 위한 작업현장 출입관리 시스템 및 그 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563320B (zh) * 2017-08-24 2021-04-23 中南大学 基于空间位置信息的人体坐姿仪态测试方法及其系统
CN111079731A (zh) * 2019-12-03 2020-04-28 中冶赛迪重庆信息技术有限公司 基于安全帽识别监控系统的配置系统、方法、设备及介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5227841B2 (ja) * 2009-02-27 2013-07-03 日立建機株式会社 周囲監視装置
KR101033349B1 (ko) * 2009-03-24 2011-05-09 아주대학교산학협력단 안전모 착용 비전 감시 시스템 및 방법
KR101374139B1 (ko) * 2012-07-31 2014-03-14 주식회사 제론헬스케어 감시시스템의 영상 융합을 통한 객체 감시 방법
KR20140035712A (ko) * 2012-09-14 2014-03-24 한국전자통신연구원 객체 인식 방법 및 장치
KR101524922B1 (ko) * 2013-08-01 2015-06-01 주식회사 엘지유플러스 비상 알림을 위한 장치, 방법 및, 기록 매체

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019132589A1 (ko) * 2017-12-29 2019-07-04 (주)제이엘케이인스펙션 다중 객체 검출을 위한 영상 처리 장치 및 방법
KR20210096754A (ko) * 2020-01-29 2021-08-06 에스케이 주식회사 디지털 안전보건환경 산업 특화용 이미지 학습 모델을 이용한 안전관리 방법 및 시스템
KR20220043334A (ko) * 2020-09-29 2022-04-05 주식회사 포스코아이씨티 산업현장의 안전 관리를 위한 작업현장 출입관리 시스템 및 그 방법

Also Published As

Publication number Publication date
WO2016143976A1 (ko) 2016-09-15
KR101668555B1 (ko) 2016-10-31

Similar Documents

Publication Publication Date Title
Park et al. Hardhat-wearing detection for enhancing on-site safety of construction workers
Mneymneh et al. Vision-based framework for intelligent monitoring of hardhat wearing on construction sites
US11030464B2 (en) Privacy processing based on person region depth
KR101668555B1 (ko) 작업 현장 영상 데이터 내의 작업자 인식 방법
US9165212B1 (en) Person counting device, person counting system, and person counting method
Shrestha et al. Hard-hat detection for construction safety visualization
KR101715001B1 (ko) 웨어러블 기기를 이용한 건설현장의 안전평가 표시 시스템 및 그 방법
CN109670441A (zh) 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质
US20200273200A1 (en) Camera localization based on skeletal tracking
US20230162476A1 (en) Method and system for determining risk in construction site based on image analysis
JP2020098590A (ja) 移動物追跡装置
US20230196895A1 (en) Method for monitoring state of wearing safety protective equipment and server for providing the method
Zhu et al. Automated monitoring of hardhats wearing for onsite safety enhancement
KR20220051609A (ko) 실시간 영상분석을 통한 작업자의 안전보호장비 착용여부 인식 시스템
WO2023104557A1 (en) Machine-learning for safety rule violation determination
US11756326B2 (en) Keepout zone detection and active safety system
CN115953815A (zh) 基建现场的监测方法及装置
EP4002303A1 (en) Real time region of interest (roi) detection in thermal face images based on heuristic approach
KR20130065567A (ko) 프라이버시 마스킹용 휴먼 추적 시스템 및 방법
TWM503714U (zh) 廣角影像切割處理系統
KR101702452B1 (ko) 증강 현실이 적용된 cctv 영상을 제공하기 위한 방법 및 cctv 영상 제공 시스템
CN113494964B (zh) 一种人员测温方法、装置、电子设备及存储介质
CN111985331B (zh) 预防商业秘密被窃照的检测方法及装置
US20230230379A1 (en) Safety compliance system and method
CN113642454B (zh) 座椅使用情况的识别方法、系统、设备及计算机存储介质

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 4