KR101668555B1 - Method and apparatus for recognizing worker in working site image data - Google Patents

Method and apparatus for recognizing worker in working site image data Download PDF

Info

Publication number
KR101668555B1
KR101668555B1 KR1020150031458A KR20150031458A KR101668555B1 KR 101668555 B1 KR101668555 B1 KR 101668555B1 KR 1020150031458 A KR1020150031458 A KR 1020150031458A KR 20150031458 A KR20150031458 A KR 20150031458A KR 101668555 B1 KR101668555 B1 KR 101668555B1
Authority
KR
South Korea
Prior art keywords
color
color information
roi
database
worker
Prior art date
Application number
KR1020150031458A
Other languages
Korean (ko)
Other versions
KR20160108740A (en
Inventor
김창완
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020150031458A priority Critical patent/KR101668555B1/en
Priority to PCT/KR2015/012090 priority patent/WO2016143976A1/en
Publication of KR20160108740A publication Critical patent/KR20160108740A/en
Application granted granted Critical
Publication of KR101668555B1 publication Critical patent/KR101668555B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • G06K9/00369
    • G06K9/6201
    • G06K9/6204

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

작업자가 정지한 상태로 작업하는 경우, 작업자의 작업 상태 변경에 따른 특징 변화가 존재하는 경우, 다수의 작업자가 존재하는 경우, 및 영상 내의 작업자 크기 변화가 발생하는 경우 등의 상황에 관계없이, 하나 이상의 작업자를 촬영된 영상으로부터 명확하게 인식할 수 있는 기술을 제공한다. 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은, 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 단계; 관심 영역 객체에 포함된 색상 정보를 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계; 및 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 단계;를 포함하는 것을 특징으로 한다.Regardless of the circumstances such as when there is a feature change due to the worker's state change, when there are a large number of workers, when the worker's size changes, And provides a technique capable of clearly recognizing the above workers from the photographed image. A method for recognizing a worker in a worksite image data according to an embodiment of the present invention is a method for recognizing a worker in an image data of a predetermined area by using at least one object detected by using an outline constituting the object, Selecting an object matching the shape of the reference object as a region of interest; Determining whether the color information included in the ROI is matched with reference color information existing in the database using a predetermined algorithm; And selecting a region of interest including the color information determined to match with the reference color information existing in the database as an operator object.

Description

작업 현장 영상 데이터 내의 작업자 인식 방법{METHOD AND APPARATUS FOR RECOGNIZING WORKER IN WORKING SITE IMAGE DATA}METHOD AND APPARATUS FOR RECOGNIZING WORKER IN WORKING SITE IMAGE DATA [0002]

본 발명은, 건설 현장, 공사 현장 등 작업 현장 내에서 업무를 수행하는 작업자를 인식하는 기술에 관한 것으로, 구체적으로는 작업 현장에서 실시간으로 다수의 작업자를 명확하게 인식하여, 작업자의 상태 및 위치를 정확하게 파악함으로써, 작업 현장의 안정성을 확보하는 기술에 관한 것이다.TECHNICAL FIELD The present invention relates to a technology for recognizing an operator who performs work in a work site such as a construction site or a construction site. More specifically, the present invention relates to a technique for recognizing a plurality of workers in real time at a work site, And to secure the stability of the work site by accurately grasping the work area.

2012년 건설업 사망사고 통계에 따르면, 건설현장 내의 건설장비 운전과 관련된 사망사고가 전체의 25% 이상을 차지하는 것으로 나타났다. 또한 건설현장 내의 건설장비 운전과 관련된 사망자수는 2012년 91명으로, 이는 2008년 66명에 비해 약 38% 가량 이상 증가한 수치이다. 고용노동부의 통계에 따르면, 2012년 건설업의 산업재해로 인한 경제적 손실비용은 전체 산업재해로 인한 손실비용의 약 33% 가량을 차지하는 것으로 나타났다. 2012년 건설현장에서 발생한 사망사고 재해자수 (357명) 중 건설장비 운전과 관련된 사망사고 재해자수 (91명)의 비율을 근거로 추산한 결과, 건설장비 운전과 관련된 산업재해로 인한 경제적 손실비용은 약 1.6조원에 달하는 것으로 추정된다 (한국산업안전보건공단, 2012). 이러한 추세가 매년 증가할 것으로 예상됨에 따라, 건설현장 내의 건설장비 운전과 관련된 안전사고를 예방하기 위한 건설장비 안전성 확보 기술 개발의 필요성이 대두되어 왔다. 미국 직업안전 위생관리국 (Occupational Safety and Health Administration, OSHA)의 건설업 안전사고 통계에 따르면, 산업차량 (Industrial Truck)에 의해 인명손상을 가져온 중대재해는 293건으로 나타났다. 이에 대한 원인으로는 시야장애 또는 적재물 및 다른 작업자와의 충돌과 같은 작업 환경 관련 요인이 57.7%를 차지했다 (한국산업안전보건공단, 2008). 이와 같이 작업 환경 관련 요인에 의해 발생하는 건설현장 내의 건설장비 운전과 관련된 안전사고를 예방하기 위해서는 건설장비 작업환경 전방위에 걸친 위험 요소를 실시간으로 탐지할 수 있는 기술 개발이 필요하다.According to statistics for construction industry deaths in 2012, deaths related to construction equipment operation in construction sites accounted for more than 25% of the total. In addition, the number of deaths related to the operation of construction equipment in construction sites is 91 in 2012, an increase of more than 38% compared to 66 in 2008. According to statistics from the Ministry of Employment and Labor, the economic loss incurred by industrial disasters in the construction industry in 2012 accounted for about 33% of the total industrial disaster cost. As a result of estimating the ratio of the number of deaths and accidents (91 persons) related to the construction equipment operation among the deaths caused by the accident at the construction site in 2012 (357 persons), the economic loss cost It is estimated to reach about KRW 1.6 trillion (Korea Occupational Safety and Health Agency, 2012). As this trend is expected to increase every year, there has been a need to develop technology for securing construction equipment safety to prevent safety accidents related to construction equipment operation in the construction site. According to the Occupational Safety and Health Administration (OSHA) Construction Safety Accident Statistics, 293 serious injuries have been caused by industrial trucks. The cause of this was occupational environment related factors such as visual field disorder or collision with load and other workers (57.7%) (Korea Occupational Safety and Health Agency, 2008). In order to prevent safety accidents related to operation of construction equipment in the construction site caused by factors related to the work environment, it is necessary to develop a technology capable of detecting real-time risk factors covering all aspects of the construction equipment working environment.

이에 따라 건설장비 작업환경 내 위험 요소 중 작업자를 실시간으로 탐지할 수 있는 기술이 다수 제안되어 왔다. 제안된 방법은 크게 초음파 센서, 감지센서, ToA (Time of Arrival) 방식, RFID (Radio Frequency IDentification) 기술, PIR(Pyroelectric Infrared Ray) 센서, 2차원 레이저 스캐너 등과 같은 거리 센서를 활용하여 작업자를 인식하기 위한 방법과 이미지 센서를 활용하여 작업자를 인식하기 위한 방법으로 구분된다.Accordingly, a number of techniques have been proposed that can detect workers in real-time among the risk factors in the construction equipment working environment. The proposed method is based on recognition of an operator by using a distance sensor such as an ultrasonic sensor, a detection sensor, a time of arrival (ToA) method, a radio frequency identification (RFID) technology, a Pyroelectric Infrared Ray (PIR) And a method for recognizing an operator using an image sensor.

“중장비의 작업자 접근감지장치 (출원번호: 10-1997-0066678)”와 “근접 경보발생 시스템 (출원번호: 10-2001-0014181)”에서는 초음파 센서를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.In the "Heavy equipment worker approach detection device (application number: 10-1997-0066678)" and "proximity alarm generation system (application number: 10-2001-0014181)", the ultrasonic sensor is used to recognize the worker in the construction equipment workspace Respectively.

“건설장비 안전경보장치 (출원번호: 20-2005-0000816)”에서는 감지센서를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.In the "Construction Equipment Safety Alarm System (Application No .: 20-2005-0000816)", the sensor was used to recognize workers in the construction equipment workspace.

“터널 시공현장 장비-인력 간 안전관리 시스템 (출원번호: 10-2011-0031713)”과 “건설 현장의 안전사고 방지 시스템 (10-2011-0065579)”에서는 ToA (Time of Arrival) 방식의 송수신기를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.In the "Tunnel Construction Site Equipment - Personnel Safety Management System (Application No .: 10-2011-0031713)" and "Construction Site Safety Accident Prevention System (10-2011-0065579)", a ToA (Time of Arrival) And to recognize workers in construction equipment workspace.

“RFID를 이용한 안전관리 장치 및 그 방법 (출원번호: 10-2012-0105578)”에서는 RFID (Radio Frequency Identification) 기술을 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.In the "Safety management device using RFID and its method (Application No. 10-2012-0105578)", RFID (Radio Frequency Identification) technology was used to recognize workers in a construction equipment workspace.

“건설용 중장비 접근 감시 시스템 (출원번호: 10-2013-0033357)”에서는 PIR (Pyroelectric Infrared Ray) 센서와 초음파 센서를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다.In the "Heavy Equipment Access Monitoring System for Construction (Application No. 10-2013-0033357)", a PIR (Pyroelectric Infrared Ray) sensor and an ultrasonic sensor were used to recognize workers in a construction equipment workspace.

“굴삭기 작업영역의 전방위 장애물 탐지 기술 개발 (소지윤 등, 2010)”에 관한 연구에서는 2차원 레이저 스캐너를 활용하여 건설장비 작업공간 내 작업자를 인식하고자 하였다."A study on the development of technology to detect all obstacles in the excavator working area (Sojyun et al., 2010)" tried to recognize a worker in a construction equipment workspace by using a two-dimensional laser scanner.

이와 같이 거리 센서를 활용하여 작업자를 인식하기 위한 방법은 초음파 센서, 감지센서, PIR (Pyroelectric Infrared Ray) 센서 등을 활용한 방법의 경우, 탐지 거리가 수 미터 이내로 짧아 근거리를 제외한 건설장비 작업반경 (약 12m) 내 작업자 인식이 불가하다는 단점이 있다.In the case of a method using an ultrasonic sensor, a detection sensor, and a Pyroelectric Infrared Ray (PIR) sensor, the detection distance is shorter than a few meters to detect an operator using the distance sensor, About 12m), there is a disadvantage that it is impossible to recognize the worker.

또한 RFID (Radio Frequency Identification) 기술을 활용한 방법의 경우, 탐지 거리는 충분하나 건설현장 내 모든 건설장비와 작업자에 태그를 부착해야 한다는 단점이 있다. 2차원 레이저 스캐너를 활용한 방법의 경우, 탐지 거리는 충분하나 센서 탑재 비용이 수 백만원에서 수 천만원에 이르는 단점이 있다.In the case of the method using the RFID (Radio Frequency Identification) technology, the detection distance is sufficient but the tag is attached to all construction equipment and workers in the construction site. In the case of the method using the two-dimensional laser scanner, although the detection distance is sufficient, there is a disadvantage that the sensor mounting cost ranges from several million won to tens of thousands of won.

반면, 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상은 상대적으로 경제적인 비용으로 건설장비 작업반경 (약 12m) 내 작업자 인식에 활용할 수 있다는 장점이 있다.On the other hand, the video image obtained by using the image sensor from the construction site has an advantage that it can be utilized for the recognition of the worker within the working radius of the construction equipment (about 12 m) at a relatively low cost.

“Hard Hat Detection in Video Sequences based on Face Features, Motion and Color Information (Du 등, 2011)”에 관한 연구에서는 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 움직임을 보이는 픽셀을 추출하고, 얼굴 인식을 통해 작업자를 인식하고자 하였다.In this paper, we propose a method to extract the moving pixels from the video images obtained from the construction site using the image sensor, To identify the worker.

“An Object Recognition, Tracking, and Contextual Reasoning-based Video Interpretation Method for Rapid Productivity Analysis of Construction Operations (Gong과 Caldas, 2011)"과 “Worker Detection in Video Frames for Initializing Vision Trackers (Park과 Brilakis 2012)"에 관한 연구에서는 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 움직임을 보이는 픽셀을 추출하고, 작업자 형태 및 안전보호장구의 일종인 안전조끼의 색상을 작업자의 특징으로 활용하여 작업자를 인식하고자 하였다."An Object Recognition, Tracking, and Contextual Reasoning-based Video Interpretation Method for Rapid Productivity Analysis of Construction Operations (Gong and Caldas, 2011)" and "Worker Detection in Video Frames for Initializing Vision Trackers (Park and Brilakis 2012) In this study, we extract motion picture pixels from video images obtained by using image sensor from a construction site, and recognize the operator by using the colors of the safety vest, which is a type of worker 's type and safety protection equipment, as characteristics of the worker.

“Implementation of Man-Hours Measurement System for Construction Work Crews by Image Processing Technology (Lee와 Hong, 2014)”에 관한 연구에서는 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 움직임을 보이는 픽셀을 추출하고, 안전보호장구의 일종인 안전모와 안전조끼의 색상, 그리고 작업자가 선 상태에서 안전모와 안전조끼의 위치 및 비율을 작업자의 특징으로 활용하여 작업자를 인식하고자 하였다.In this paper, we propose a method to extract the moving image from the video image obtained from the construction site using the image sensor, The color of the safety helmet and safety vest, which is a kind of protective gear, and the position and ratio of safety helmet and safety vest in the line condition, were used to recognize the operator.

“Vision Watching System and Method for Safety Hat (Patent No.: US 8,279,277 B2)”건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 움직임을 보이는 픽셀을 추출하고, 안전보호장구의 일종인 안전모의 색상을 작업자의 특징으로 활용하여 작업자를 인식하고자 하였다."Vision Watching System and Method for Safety Hat (Patent No .: US 8,279,277 B2)" We extract motion picture pixels from a video image obtained from a construction site using an image sensor, And to recognize the worker by utilizing it as a characteristic of the worker.

이러한 방법의 공통된 단점은 서 있거나, 앉아 있는 등 정지 상태로 작업 중인 작업자에 대한 인식이 불가하다는 것이다. 뿐만 아니라, Lee와 Hong (2014)에 관한 연구는 이와 같은 근본적인 단점 외에도 선 상태에서 안전모와 안전조끼를 동시에 착용한 작업자만 인식 가능하다는 단점이 있다.A common disadvantage of these methods is that they can not be perceived by workers who are standing, standing or sitting. In addition to these fundamental drawbacks, Lee and Hong (2014) have a drawback in that only workers wearing safety helmets and safety vests at the same time can recognize them.

“Construction Safety Visualization (Shrestha 등, 2011)”에 관한 연구에서는 건설 현장으로부터 이미지 센서를 이용하여 획득한 비디오 영상으로부터 작업자와 배경 사이의 경계선과 안전보호장구의 일종인 안전모의 형태를 작업자의 특징으로 활용하여 작업자를 인식하고자 하였다. 이러한 방법의 단점은 배경이 단순한 비디오 영상에만 적용 가능하며, 비디오 영상 내에 다수의 작업자가 작업 중인 경우 인식이 불가하다는 단점이 있다. 뿐만 아니라, 이미지 센서와 반대 방향으로 몸을 숙이거나, 엎드려서 작업하는 경우, 안전모가 시야에서 가려지는 문제가 있어 작업자 인식이 불가하다는 단점이 있다.In a study on "Construction Safety Visualization (Shrestha et al., 2011)", the shape of the safety helmet, which is a type of safety protection equipment, is used as a characteristic of the worker from the video image obtained by using the image sensor from the construction site. To identify the worker. The disadvantage of this method is that the background can be applied only to simple video images, and there is a disadvantage that it can not be recognized when a large number of workers are working in the video image. In addition, when the user is leaning or leaning in the opposite direction to the image sensor, there is a problem that the safety helmet is obstructed in the field of view, which is a disadvantage in that the operator can not be perceived.

이에 본 발명은, 작업자가 정지한 상태로 작업하는 경우, 작업자의 작업 상태 변경에 따른 특징 변화가 존재하는 경우, 다수의 작업자가 존재하는 경우, 및 영상 내의 작업자 크기 변화가 발생하는 경우 등의 상황에 관계없이, 하나 이상의 작업자를 촬영된 영상으로부터 명확하게 인식할 수 있는 기술을 제공하는 데 그 목적이 있다.Therefore, the present invention can be applied to a situation in which a worker operates in a stationary state, a characteristic change occurs in accordance with a worker's state change, there are a plurality of workers, The present invention has an object to provide a technique capable of clearly recognizing at least one operator from a photographed image.

상기 목적을 달성하기 위해, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은, 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 단계; 상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계; 및 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 단계;를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, there is provided a method for recognizing a worker in worksite image data, the method comprising: extracting at least one object detected using an outline constituting an object from image data of a predetermined area, Selecting an object matching with a type of a reference object existing in a previously stored database as a region of interest; Determining whether color information included in the ROI is matched with reference color information existing in the database using a predetermined algorithm; And selecting the region of interest including the color information determined as matching with the reference color information existing in the database as an operator object.

한편, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치는, 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 제1 판단부; 상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 제2 판단부; 및 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 인식 결과 도출부;를 포함하는 것을 특징으로 한다.Meanwhile, among the at least one objects detected by using the outline constituting the object from the image data photographed in the preset area, the worker recognizing device in the worksite image data according to the embodiment of the present invention may include a pre- A first determination unit that selects an object matching with the type of the reference object existing in the ROI as the ROI; A second determination unit for determining whether the color information included in the ROI is matched with reference color information existing in the database by using a predetermined algorithm; And a recognition result derivation unit for selecting a region object of interest including color information determined to match with reference color information existing in the database as an operator object.

본 발명에 의하면, 작업자의 작업 형태의 윤곽선을 통해 1차적으로 작업자에 해당하는 객체를 인식한 뒤, 작업자가 착용하는 안전보호장비의 색상을 촬영 각도 및 외부 환경의 영향을 고려하여 비교함으로써 2차적으로 작업자를 최종 인식하게 된다.According to the present invention, the object corresponding to the worker is firstly recognized through the outline of the work type of the worker, and then the color of the safety protective equipment worn by the worker is compared with the consideration of the influence of the external environment and the shooting angle, The operator is finally recognized.

이에 따라서, 상기 언급한 요소로서, 작업자가 정지한 상태로 작업하는 경우에도 작업자 인식이 가능하며, 작업자의 형태 및 촬영 거리에 따른 영상 크기 변화에 무관하게 작업자의 인식이 가능한 효과가 있다. 즉, 작업자의 안전모가 보이지 않는 촬영 방향에서도 작업자에 대한 인식이 가능하다, 또한 영상 내에 다수의 작업자가 작업 중인 경우에도 인식이 가능한 효과가 있다.Accordingly, as the above-mentioned element, it is possible to recognize the operator even in the case where the worker is stationary and recognize the operator regardless of the shape of the worker and the change in the image size according to the photographing distance. That is, it is possible to recognize the operator even in a photographing direction in which the operator's helmet is not visible, and it is possible to recognize even when a large number of operators are working in the image.

상기와 같은 효과에 의하여, 작업 현장에서 작업자를 기존의 기술과 비교하여 매우 정확한 확률로 인식함으로써, 작업 현장의 안정성을 확보할 수 있는 효과가 있다.By virtue of the above-described effects, it is possible to secure the stability of the worksite by recognizing the worker at a job site with a very accurate probability compared with existing techniques.

도 1 및 2는 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법의 플로우차트.
도 3은 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치의 구성도.
도 4는 본 발명의 일 실시예의 구현을 위해 데이터베이스 내에 저장된 기준 객체 이미지의 예.
도 5 내지 7은 본 발명의 일 실시예의 구현을 위해 데이터베이스 내에 저장된 기준 색상 정보 및 배경 색상 정보의 예.
도 8은 본 발명의 일 실시예에 따라 영상에서 작업자를 인식하는 실험 예.
1 and 2 are flowcharts of a worker recognition method in worksite image data according to an embodiment of the present invention.
3 is a block diagram of a worker recognizing apparatus in worksite image data according to an embodiment of the present invention.
Figure 4 is an example of a reference object image stored in a database for implementation of an embodiment of the present invention.
5 to 7 are examples of reference color information and background color information stored in a database for implementation of an embodiment of the present invention.
8 is an experimental example of recognizing an operator in an image according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법 및 장치에 대하여 설명하기로 한다.Hereinafter, a method and apparatus for recognizing a worker in worksite image data according to an embodiment of the present invention will be described with reference to the accompanying drawings.

이하의 설명에서 본 발명에 대한 이해를 명확히 하기 위하여, 본 발명의 특징에 대한 공지의 기술에 대한 설명은 생략하기로 한다. 이하의 실시 예는 본 발명의 이해를 돕기 위한 상세한 설명이며, 본 발명의 권리 범위를 제한하는 것이 아님은 당연할 것이다. 따라서, 본 발명과 동일한 기능을 수행하는 균등한 발명 역시 본 발명의 권리 범위에 속할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. The following examples are intended to illustrate the present invention and should not be construed as limiting the scope of the present invention. Accordingly, equivalent inventions performing the same functions as the present invention are also within the scope of the present invention.

이하의 설명에서 동일한 식별 기호는 동일한 구성을 의미하며, 불필요한 중복적인 설명 및 공지 기술에 대한 설명은 생략하기로 한다.In the following description, the same reference numerals denote the same components, and unnecessary redundant explanations and descriptions of known technologies will be omitted.

본 발명의 실시 예에서 “통신”, “통신망” 및 “네트워크”는 동일한 의미로 사용될 수 있다. 상기 세 용어들은, 파일을 사용자 단말, 다른 사용자들의 단말 및 다운로드 서버 사이에서 송수신할 수 있는 유무선의 근거리 및 광역 데이터 송수신망을 의미한다.In the embodiments of the present invention, " communication ", " communication network ", and " network " The three terms refer to wired and wireless local area and wide area data transmission and reception networks capable of transmitting and receiving a file between a user terminal, a terminal of another user, and a download server.

도 1 및 2는 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법의 플로우차트이다. 이하의 설명에 있어서, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은, 후술을 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치의 각 구성에 의해 수행되는 것으로 설명될 것이나, 이에 제한되지는 않을 것이다.1 and 2 are flowcharts of a worker recognition method in worksite image data according to an embodiment of the present invention. In the following description, a method of recognizing a worker in the worksite image data according to an embodiment of the present invention is performed by each configuration of a worker recognition apparatus in worksite image data according to an embodiment of the present invention But will not be limited thereto.

도 1을 참조하면, 먼저 장치는 작업 현장 등에서 기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 장치에 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 적어도 하나의 객체를 관심 영역 객체로 선정하는 단계(S10)를 수행한다.Referring to FIG. 1, first, from among image data obtained by photographing a predetermined region on a work site, among a plurality of objects detected using an outline constituting an object, (S10) of selecting at least one object matched with the shape of the ROI as an ROI object.

예를 들어, S10 단계의 수행 효율 향상을 위해, 장치는 Fast Feature Pyramids를 기반으로 전체 비디오 영상 내에서 관심 영역(작업자로 인식되는 사람)을 인식하기 위한 처리 과정을 촬영된 영상 데이터에 적용할 수 있다.For example, in order to improve the performance of step S10, the apparatus can apply a process for recognizing a region of interest (a person recognized as an operator) in the entire video image based on Fast Feature Pyramids to photographed image data have.

이때, 관심 영역 객체를 선정 시, 장치에 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 인식된 객체들의 윤곽선 형태를 비교할 수 있다. 즉, 작업자가 취할 수 있는 모든 형태의 데이터베이스를 기반으로 상기의 Fast Feature Pyramids 방식을 적용하여 관심 영역 객체, 즉 작업자가 될 수 있는 후보 객체들을 1차적으로 선정하게 된다. 도 4에는, 이러한 데이터베이스에 저장된 데이터의 예가 도시되어 있다.At this time, when selecting the region of interest, the shape of the reference object existing in the database stored in the device and the shape of the recognized objects can be compared. That is, the Fast Feature Pyramids method is applied based on all types of databases that the operator can take, and the candidate objects that can be the interested region object, that is, the worker, are firstly selected. In Fig. 4, an example of data stored in such a database is shown.

도 4는 본 발명의 일 실시예의 구현을 위해 데이터베이스 내에 저장된 기준 객체 이미지의 예이다.4 is an example of a reference object image stored in a database for implementation of an embodiment of the present invention.

도 4를 참조하면, 데이터베이스에는 복수의 형태 정보(100)로서, 작업자가 선 상태, 걷는 상태, 앉은 상태, 숙인 상태, 앉았다가 서는 도중의 상태, 서있다가 앉는 도중의 상태 등에 대응하는 작업자의 형태에 대한 예로서의 영상 데이터가 도시되어 있다. 물론, 데이터베이스에 따라서 상기의 영상 데이터 이외에, 윤곽선 데이터만이 저장될 수 있음은 당연할 것이다.Referring to FIG. 4, the database includes a plurality of pieces of type information 100, which are information indicating the type of the worker corresponding to a line state, a walking state, a sitting state, a leaning state, a sitting state, a standing state, The image data as an example is shown. It goes without saying that only the outline data other than the above video data can be stored in accordance with the database.

복수의 형태 정보(100) 각각에는, 작업자에 따라서 달라질 수 있는 세부 형태 정보(110)가 저장될 수 있다. 세부 형태 정보(110)는 방향 등에 따라서 달라질 수 있는 형태에 대응하는 이미지 정보가 저장될 수 있다.In each of the plurality of type information 100, detailed form information 110 that can be changed according to the operator can be stored. The detailed shape information 110 may store image information corresponding to a shape that can be changed according to a direction or the like.

이러한 복수의 형태 정보(100) 및 세부 형태 정보(110)는 기준 객체의 형태로 활용되어, S10 단계의 수행 시 관심 영역 객체를 선정하는 기준으로 사용된다.The plurality of type information 100 and the detailed type information 110 are utilized as a reference object and used as a criterion for selecting a region of interest when performing the step S10.

도 4와 같이 데이터베이스에는 다양한 기준 객체의 정보가 저장될 수 있으며, 이는 데이터베이스의 학습 모듈, 즉 지속적으로 다양한 기준 객체의 정보가 갱신되는 것을 통해 더욱 다양한 작업 현장에서도 관심 영역 객체를 선정할 수 있도록 발전할 수 있을 것이다.As shown in FIG. 4, various reference object information can be stored in the database, and it is possible to update the information of the learning module of the database, that is, various reference objects continuously, You can do it.

한편, S10 단계에 있어서, 촬영 거리에 따른 형태의 크기 변화에 무관하게 객체를 인식하기 위하여, 장치는 기준 객체의 크기를 변경하면서 객체의 윤곽선과 비교하여 관심 영역 객체를 선정할 수 있다.On the other hand, in step S10, in order to recognize the object irrespective of the size change of the shape according to the photographing distance, the apparatus may compare the contour of the object with the contour of the object while changing the size of the reference object.

이후 장치는 관심 영역 객체에 포함된 색상 정보가 상기의 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계(S20)를 수행하게 된다.The apparatus then determines whether the color information included in the ROI is matched with the reference color information existing in the database by using a predetermined algorithm (S20).

작업 현장에 있어서 작업자를 영상 데이터로부터 인식하기 위해서는, 형태 또는 윤곽선을 기준으로 정확하게 인식하는 S10 단계의 수행만으로는 부족하다. 즉, 정지된 상태로 작업을 수행하고 있거나, 작업자의 방향, 형태 등에 의하여 안전모가 인식되지 않는다거나, 작업자가 아닌 토지, 장치 등의 배경의 윤곽 형태가 작업자와 유사한 형태가 되는 등의 경우, S10 단계의 수행만으로는 작업자 인식의 오류가 발생할 수 있기 때문이다.In order to recognize the worker from the image data at the work site, it is not sufficient to carry out the step S10 of accurately recognizing the worker based on the shape or the outline. That is, if the helm is not recognized by the direction or the form of the worker, or the outline form of the background such as the land or the apparatus is not similar to the worker, This is because an error in recognition of the operator may occur only by performing the step.

이를 위해, 장치는 S10 단계를 통해 1차 인식 과정을 거쳐 인식된 관심 영역 객체들에 대하여, S20 단계의 2차적인 인식 과정으로 객체들에 포함된 색상을 작업자의 특징으로 활용함으로써, S10 단계의 수행 결과 발생할 수 있는 상기의 오류를 판별하여 인식의 정확성을 확보할 수 있는 효과가 있다.For this purpose, the apparatus uses the color included in the objects as a characteristic of the worker in the secondary recognition process in step S20 for the recognized area objects recognized through the first recognition process in step S10, It is possible to ensure the accuracy of the recognition by discriminating the error that may occur as a result of the execution.

즉, 장치는 S20 단계의 수행 후, 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단되는 색상 정보를 포함하는 관심 영역 객체를 최종적으로 작업자 객체로 선정하는 단계(S30)를 수행하게 되어, 기존의 기술의 인식 오류 문제를 완전하게 해결할 수 있는 효과를 얻을 수 있게 되는 것이다.That is, after performing step S20, the apparatus finally performs a step S30 of selecting an ROI including the color information determined to match with the reference color information existing in the database as an operator object, It is possible to obtain the effect of completely solving the problem of recognition error of the technology.

상기 언급한 바와 같이 기준 색상 정보는, 작업자의 특징으로 활용할 수 있는 색상 정보, 즉 작업자 객체로 선정하기 위하여 데이터베이스에 저장되어 있는 정보로서, 작업자가 작업 현장 내에서 일반적 및 의무적으로 착용하는 안전보호장구의 색상에 대응하는 색상 정보임이 바람직하다. 안전보호장구는 안전모 이외에, 작업자가 일반적으로 작업 현장에서 의무적으로 착용하는 장구인 안전 조끼를 예를 들어 포함할 수 있다.As described above, the reference color information is color information that can be utilized as a characteristic of an operator, that is, information stored in a database for selecting a worker object. The reference color information includes a safety protection gear Is color information corresponding to the color of the color image. Safety protective gear may include, for example, a safety vest, which is an accessory that the operator generally wears at the job site, in addition to a safety helmet.

도 2에는 상기 언급한 기설정된 알고리즘을 이용하여 기준 색상 정보와 관심 영역 객체에 포함된 색상 정보가 매칭되는지 여부를 판단하는 구체적인 흐름에 대한 예가 도시되어 있다.FIG. 2 shows an example of a flow for determining whether the reference color information and the color information included in the ROI are matched using the preset algorithm.

도 2를 참조하면, 장치는 먼저, 상기와 같이 기준 색상 정보에 포함되는 정보로서, 즉 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되도록 선정된 색공간 및 구성요소를 포함하는 기준 색상 정보를 데이터베이스로부터 로드하는 단계(S21)를 수행한다. Referring to FIG. 2, the apparatus firstly stores information on the reference color information, that is, the color space of the safety protection device and the reference color information including the component, (S21) from the database.

이후 관심 영역 객체에 포함된 색상 정보와, 로드된 기준 색상 정보에 색상 모델 기반 픽셀 분류 방법을 적용하여, 관심 영역 객체에 포함된 색상 정보가 기준 색상 정보에 매칭되는지 여부를 판단하는 단계를 수행하게 되는데, 이 과정은 구체적으로 다음과 같다.Thereafter, a color model-based pixel classification method is applied to the color information included in the ROI object and the loaded reference color information to determine whether the color information included in the ROI object matches the reference color information Specifically, this process is as follows.

즉, 관심 영역 객체에 포함된 색상 정보에 색공간 변환 작업을 수행하여, 관심 영역 객체에 포함된 색상 정보로부터 색공간 및 색상 구성 요소(S21의 구성요소와 동일한 개념의 정보)를 추출하는 단계(S22)가 먼저 수행되며, 이후 로드된 기준 색상 정보에 포함된 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되는 색공간 및 구성요소와 추출된 색공간 및 색상 구성 요소 정보를 색상 모델 기반 픽셀 분류 방법을 이용하여 비교하여, 관심 영역 객체에 포함된 색상 정보가 기준 색상 정보에 매칭되는지 여부를 판단하는 단계(S23)가 수행된다.That is, a step of performing a color space conversion operation on the color information included in the ROI, and extracting the color space and the color component (information having the same concept as the component of S21) from the color information included in the ROI S22) is performed first. Then, the color space in which the distribution of the color and the background color of the safety protection equipment included in the loaded reference color information is distinguished, and the color space and the color component information extracted from the component, (S23) of judging whether or not the color information included in the ROI matches the reference color information is performed.

S20 단계로 대표되는 2차 인식 과정에서는, 상기 언급한 바와 같이 안전보호장구(안전모 또는 안전조끼)를 특징으로 상기 언급한 바와 같이 도 1의 S10 단계의 인식 과정에서 발생할 수 있는 오류를 판별하여 정확하게 작업자를 인식하기 위하여, 안전보호장구가 갖는 색상 불변 특징을 기반으로 이미지 프로세싱 기술을 적용한다.In the secondary recognition process represented by step S20, as described above, the safety protection device (safety helmet or safety vest) is characterized by detecting an error that may occur in the recognition process of step S10 of FIG. 1 as described above, In order to recognize the operator, the image processing technique is applied based on the color invariant characteristics of the safety protective gear.

영상 데이터는 RGB(Red, Green, Blue) 색상의 공간으로 표현되나, 이는 빛과 같은 외부 환경의 변화에 영향을 받기 쉽다. 이에 따라 S21 내지 S23 단계의 수행에 있어서 언급한 바와 같이, 색상 정보를 이용하여 안전보호장구를 정확히 인식하기 위해서는 색공간 변환 작업이 필요하다. Image data is represented by a space of RGB (Red, Green, Blue) color, but it is susceptible to changes in external environment such as light. Accordingly, as described in the steps S21 to S23, the color space conversion operation is required to correctly recognize the safety protection gear using the color information.

다양한 색공간 중에서 예를 들어 Normalized rgb, HSI(Hue, Saturation, Intensity), CIELUV, YCbCr 등의 색공간은 빛과 같은 외부 환경의 변화에 거의 영향을 받지 않아 색상을 기반으로 한 물체 인식에 효과적으로 사용되어 왔다. 각각의 색공간에서 안전보호장구는 색공간을 구성하는 3개의 구성 요소에 의해 일정 색분포를 가지게 된다. 효과적인 안전보호장구 인식을 위해서는 안전보호장구가 갖는 색분포와 배경색 분포가 명확히 구분되는 색공간 및 구성 요소의 선정이 필요하다(S21에 대응).Among the various color spaces, for example, the color spaces such as Normalized rgb, HSI (Hue, Saturation, Intensity), CIELUV, and YCbCr are hardly affected by changes in the external environment such as light, Has come. In each color space, the safety protective gear has a certain color distribution by the three components constituting the color space. In order to recognize the effective safety protection gear, it is necessary to select the color space and the component which clearly distinguish the color distribution and the background color distribution of the safety protection gear (corresponding to S21).

본 발명에서는 예를 들어 15가지 색공간에서 총 45가지 구성 요소에 대해 각각의 세 가지 안전모 색상과 안전조끼와 배경색 분포가 명확히 구분되는 구성 요소를 인자 선정을 통해 선정한다. 선정된 구성 요소를 바탕으로 각각의 안전보호장구를 인식하기 위하여 영상 분할 기법 중 하나인 색상 모델 기반 픽셀 분류 방법을 적용한다(S22 및 S23 단계). 색상 모델 기반 픽셀 분류 방법은 색상 모델 학습을 통해 물체의 색상 불변 특징을 기반으로 하여 물체를 빠르고 효과적으로 인식할 수 있다는 장점이 있다. In the present invention, for example, for each of the 45 components in the fifteen color spaces, the three safety hat colors, the safety vest and the background color distribution are clearly distinguished from each other through factor selection. Based on the selected components, a color model-based pixel classification method, which is one of the image segmentation techniques, is applied to recognize the respective safety protection gears (steps S22 and S23). The color model-based pixel classification method has an advantage that the object can be recognized quickly and effectively based on the color invariant feature of the object through color model learning.

이와 같이 S21 단계 내지 S23 단계의 수행을 위해 데이터베이스에 저장될 수 있는 기준 색상 정보 및 배경 색상 정보에 관한 예가 도 5 내지 7에 도시되어 있다.Examples of reference color information and background color information that can be stored in the database for performing steps S21 to S23 are shown in FIGS.

도 5를 참조하면, 다양한 색상(백색, 황색, 적색)의 안전모의 각 색상을 기준으로 구분된 색상 정보(200)를 확인할 수 있다. 각 색상 정보에는, 색 분포 정보(210)가 구분되어 저장되어, 색공간 및 이에 대응하는 구성요소를 선정할 수 있도록 마련될 수 있다.Referring to FIG. 5, the color information 200 can be identified based on each color of the helmet of various colors (white, yellow, and red). The color distribution information 210 may be separately stored in each color information so that the color space and corresponding components can be selected.

한편 도 6을 참조하면, 데이터베이스에 저장된 안전조끼 색상의 색 분포 정보(310)가 도시되어, 안전모와 함께 안전조끼에 대하여 색공간 및 이에 대응하는 구성요소를 선정할 수 있도록 마련되어 있는 것을 확인할 수 있다.Referring to FIG. 6, the safety vest color distribution information 310 stored in the database is shown, and it is confirmed that the safety vest 310 is provided to be able to select a color space and corresponding components with respect to the safety vest .

도 7에는 배경으로서 토사 및 기타 배경 요소에 대한 색상 정보가 저장되어 있는 것을 확인할 수 있다. 각 배경의 종류에 따라서 색상 정보(400)가 저장되며, 마찬가지로 색 분포 정보(410)가 구분되어 저장되어, 이와 도 5 및 6의 기준 색상 정보에 포함된 색공간 및 구성요소를 구분할 수 있도록 마련될 수 있다.In FIG. 7, it can be seen that color information about soil and other background elements is stored as a background. The color information 400 is stored according to the type of each background and similarly the color distribution information 410 is divided and stored so that the color space and components included in the reference color information of FIGS. .

이러한 과정을 통해, 작업자를 인식하는 실험예에 관하여 도 8에 도시되어 있다.An experimental example of recognizing the operator through such a process is shown in Fig.

도 8을 참조하면, 영상 데이터(500)에서 본 발명의 상기의 기술에 의해 작업자를 인식한 결과에 대한 실험예가 도시되어 있다. 먼저, 객체(510, 520)는 도 1의 S10 단계를 통해 선정된 관심 영역 객체를 의미한다. 한편, 밝은 부분의 객체(511)는 도 1의 S20 단계 및 도 2의 S21 내지 S23 단계의 수행에 의해 최종적으로 작업자 객체를 선정하기 위해 사용된 색상 정보로서, 즉 안전보호장구 색상 데이터베이스를 기반으로 색상 모델 방식을 적용하여 인식한 결과를 나타낸다. Referring to FIG. 8, there is shown an experimental example of a result of recognition of an operator by the above-described technique of the present invention in the image data 500. First, the objects 510 and 520 indicate the ROI objects selected through step S10 of FIG. On the other hand, the bright object 511 is used as the color information used to finally select the worker object by performing step S20 of FIG. 1 and steps S21 to S23 of FIG. 2, that is, based on the safety protection gear color database The results are recognized by applying the color model method.

도 8에 도시된 바와 같이, 밝은 부분으로 인식된 객체(511)를 포함하는 객체(510)가 최종적으로 작업자로 인식된 객체이며, 그 외의 객체(520)는 관심 영역 객체로는 선정되었으나 최종적으로 작업자로는 인식되지 않은 객체를 의미한다.As shown in FIG. 8, an object 510 including an object 511 recognized as a bright portion is an object finally recognized as an operator, and the other object 520 is selected as a region of interest, It means an object not recognized as an operator.

즉, 본 발명에 의하면, 두 단계에 걸친 인식 과정을 통해, 기존의 인식 과정의 문제를 완전하게 해결하고, 더욱 정확하게 작업자를 인식할 수 있도록 하여, 작업 현장의 안정성을 증가시킬 수 있는 효과를 얻을 수 있음이 확인될 수 있다.In other words, according to the present invention, it is possible to completely solve the problem of the existing recognition process, recognize the operator more accurately, and increase the stability of the worksite through the recognition process over two steps Can be confirmed.

도 3은 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치의 구성도이다. 이하의 설명에 있어서, 도 1, 2, 4 내지 8에 대한 설명과 중복되는 부분은 이를 생략하기로 한다.3 is a block diagram of a worker recognizing apparatus in worksite image data according to an embodiment of the present invention. In the following description, portions overlapping with the description of Figs. 1, 2 and 4 to 8 will be omitted.

도 3을 참조하면, 본 발명의 일 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 장치(10)는 제1 판단부(11), 제2 판단부(12) 및 인식 결과 도출부(13)로 구성되며, 제1 판단부(11), 제2 판단부(12)는 데이터베이스(40)와 연결되어 기준 정보를 수신하게 된다. 3, the worker recognizing apparatus 10 in the worksite image data according to an embodiment of the present invention includes a first determining unit 11, a second determining unit 12, and a recognition result deriving unit 13 And the first determination unit 11 and the second determination unit 12 are connected to the database 40 to receive reference information.

한편 제1 판단부(11)는, 도 1의 S10 단계의 기능을 수행하는 구성으로서, 촬영 장치(20)로부터 촬영된 영역(30)의 영상 데이터를 수신하는 기능을 수행하고, 데이터베이스(40)로부터 수신한 기준 객체의 형태를 이용하여 관심 영역 객체를 선정하는 기능을 수행한다. 본 발명에서 촬영 장치(20)는 작업 현장에 설치된 CCTV 및 기타 촬영 기기와 함께, 작업 장비 등에 설치된 이동성이 있는 촬영 기기를 모두 포함한다.1, the first determination unit 11 performs a function of receiving the image data of the photographed region 30 from the photographing apparatus 20, And selects a region of interest using the shape of the reference object received from the user. In the present invention, the photographing apparatus 20 includes all the photographing apparatuses having mobility installed in the work equipment together with the CCTV and other photographing apparatuses installed at the work site.

제2 판단부(12)는, 도 1의 S20 단계 및 도 2의 S21 내지 S23 단계의 기능을 수행하는 구성으로서, 데이터베이스(40)로부터 기준 색상 정보를, 제1 판단부(11)로부터 관심 영역 객체 정보 및 이에 포함된 색상 정보와 S20 내지 S23 단계의 구체적인 기능 수행을 통해 비교하는 기능을 수행하게 된다.The second determining unit 12 is a unit for performing the functions of steps S21 to S23 in Fig. 1 and step S21 to S23 in Fig. 2. The second determining unit 12 obtains the reference color information from the database 40 from the first determining unit 11, And performs a function of comparing the object information and the color information included therein with specific functions of S20 to S23.

인식 결과 도출부(13)는 도 1의 S30 단계의 기능을 수행하는 구성으로서, 제2 판단부(12)의 판단 결과에 따라서 최종적으로 작업자를 영상 데이터 내에서 인식하는 기능을 수행한다.The recognition result deriving unit 13 performs the function of step S30 in Fig. 1, and performs the function of finally recognizing the operator in the image data according to the determination result of the second determination unit 12. Fig.

이상에서 전술한 본 발명의 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.As described above, the worker identification method in the worksite image data according to the embodiment of the present invention can be implemented by an application installed in the terminal (which may include a program basically installed in the terminal or a program included in the operating system) And may be executed by an application (that is, a program) directly installed on the terminal by a user via an application providing server such as an application store server, an application, or a web server related to the service. In this sense, the worker recognition method in the worksite image data according to the above-described embodiment of the present invention is basically installed in the terminal or implemented as an application (i.e., program) directly installed by the user, And recorded on a recording medium.

이러한 프로그램은 컴퓨터에 의해 읽힐 수 있는 기록매체에 기록되고 컴퓨터에 의해 실행됨으로써 전술한 기능들이 실행될 수 있다. Such a program may be recorded on a recording medium that can be read by a computer and executed by a computer so that the above-described functions can be executed.

이와 같이, 본 발명의 각 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법을 실행시키기 위하여, 전술한 프로그램은 컴퓨터의 프로세서(CPU)가 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. In order to execute the worker recognition method in the worksite image data according to the embodiments of the present invention, the above-described program may be stored in a computer language such as C, C ++, JAVA, And may include coded codes.

이러한 코드는 전술한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Function Code)를 포함할 수 있고, 전술한 기능들을 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수도 있다. The code may include a function code related to a function or the like that defines the functions described above and may include an execution procedure related control code necessary for the processor of the computer to execute the functions described above according to a predetermined procedure.

또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다. In addition, such code may further include memory reference related code as to what additional information or media needed to cause the processor of the computer to execute the aforementioned functions should be referenced at any location (address) of the internal or external memory of the computer .

또한, 컴퓨터의 프로세서가 전술한 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 컴퓨터의 프로세서가 컴퓨터의 통신 모듈(예: 유선 및/또는 무선 통신 모듈)을 이용하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야만 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수도 있다. In addition, when a processor of a computer needs to communicate with any other computer or server, etc., to perform the above-described functions, the code may be stored in a computer's communication module (e.g., a wired and / ) May be used to further include communication related codes such as how to communicate with any other computer or server in the remote, and what information or media should be transmitted or received during communication.

그리고, 본 발명을 구현하기 위한 기능적인(Functional) 프로그램과 이와 관련된 코드 및 코드 세그먼트 등은, 기록매체를 읽어서 프로그램을 실행시키는 컴퓨터의 시스템 환경 등을 고려하여, 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론되거나 변경될 수도 있다.The functional program for implementing the present invention and the related code and code segment may be implemented by programmers in the technical field of the present invention in consideration of the system environment of the computer that reads the recording medium and executes the program, Or may be easily modified or modified by the user.

이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일 예로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있다. Examples of the computer-readable recording medium on which the above-described program is recorded include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical media storage, and the like.

또한 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는 네트워크로 커넥션된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 이 경우, 다수의 분산된 컴퓨터 중 어느 적어도 하나의 컴퓨터는 상기에 제시된 기능들 중 일부를 실행하고, 그 결과를 다른 분산된 컴퓨터들 중 적어도 하나에 그 실행 결과를 전송할 수 있으며, 그 결과를 전송받은 컴퓨터 역시 상기에 제시된 기능들 중 일부를 실행하여, 그 결과를 역시 다른 분산된 컴퓨터들에 제공할 수 있다.Also, the computer-readable recording medium on which the above-described program is recorded may be distributed to a computer system connected via a network so that computer-readable codes can be stored and executed in a distributed manner. In this case, any of at least one of the plurality of distributed computers may execute some of the functions presented above and transmit the result of the execution to at least one of the other distributed computers, and transmit the result The receiving computer may also perform some of the functions described above and provide the results to other distributed computers as well.

특히, 본 발명의 각 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 컴퓨터로 읽을 수 있는 기록매체는, 애플리케이션 스토어 서버(Application Store Server), 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버(Application Provider Server)에 포함된 저장매체(예: 하드디스크 등)이거나, 애플리케이션 제공 서버 그 자체일 수도 있다.In particular, a computer-readable recording medium on which an application, which is a program for executing a worker recognition method in job site image data according to each embodiment of the present invention, is recorded, includes an application store server, (E.g., a hard disk) included in an application provider server such as a related web server, or an application providing server itself.

본 발명의 각 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터는, 일반적인 데스크 탑이나 노트북 등의 일반 PC 뿐만 아니라, 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말기 등의 모바일 단말기를 포함할 수 있으며, 이뿐만 아니라, 컴퓨팅(Computing) 가능한 모든 기기로 해석되어야 할 것이다. A computer capable of reading a recording medium on which an application, which is a program for executing a worker recognition method in the worksite image data according to each embodiment of the present invention, can be read is not limited to a general PC such as a general desktop or a notebook computer, A mobile terminal such as a personal computer, a personal digital assistant (PDA), and a mobile communication terminal. In addition, the present invention should be interpreted as all devices capable of computing.

또한, 본 발명의 실시예에 따른 작업 현장 영상 데이터 내의 작업자 인식 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터가 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말기 등의 모바일 단말기인 경우, 애플리케이션은 애플리케이션 제공 서버에서 일반 PC로 다운로드 되어 동기화 프로그램을 통해 모바일 단말기에 설치될 수도 있다.In addition, a computer capable of reading a recording medium on which an application, which is a program for executing a worker recognition method in the worksite image data according to an embodiment of the present invention, is read is a smart phone, a tablet PC, a PDA (Personal Digital Assistants) , The application may be downloaded from the application providing server to the general PC and installed in the mobile terminal through the synchronization program.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiments, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to at least one. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art. Such a computer program can be stored in a computer-readable storage medium, readable and executed by a computer, thereby realizing an embodiment of the present invention. As a storage medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.It is also to be understood that the terms such as " comprises, "" comprising," or "having ", as used herein, mean that a component can be implanted unless specifically stated to the contrary. But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (10)

기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 단계; 상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계; 및 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 단계;를 포함하되,
상기 기설정된 알고리즘을 이용하여 판단하는 단계는,
안전보호장구가 갖는 색분포와 배경색의 분포가 구분되도록 선정된 색공간 및 구성요소를 포함하는 상기 기준 색상 정보를 상기 데이터베이스로부터 로드하는 단계; 및 상기 관심 영역 객체에 포함된 색상 정보와, 상기 로드된 기준 색상 정보에 색상 모델 기반 픽셀 분류 방법을 적용하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하는 단계;를 포함하고,
상기 매칭되는지 여부를 판단하는 단계는,
상기 관심 영역 객체에 포함된 색상 정보에 색공간 변환 작업을 수행하여, 상기 관심 영역 객체에 포함된 색상 정보로부터 색공간 및 색상 구성 요소 정보를 추출하는 단계; 및 상기 로드된 기준 색상 정보에 포함된 상기 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되는 색공간 및 구성요소와 상기 추출된 색공간 및 색상 구성 요소 정보를 상기 색상 모델 기반 픽셀 분류 방법을 이용하여 비교하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하는 단계;를 포함하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법.
Selecting an object matching the shape of a reference object existing in a pre-stored database among the at least one objects detected using the outline constituting the object, from the image data of the predetermined area; Determining whether color information included in the ROI is matched with reference color information existing in the database using a predetermined algorithm; And selecting a region of interest, which includes color information determined to match with reference color information existing in the database, as an operator object,
Wherein the step of determining, using the predetermined algorithm,
Loading the reference color information including the selected color space and the component from the database so that the color distribution and the background color distribution of the safety protection gear are distinguished; And applying color model-based pixel classification to the color information included in the ROI and the loaded reference color information to determine whether the color information included in the ROI matches the reference color information Comprising:
The method of claim 1,
Extracting color space and color component information from color information included in the ROI by performing a color space conversion operation on the color information included in the ROI; And a color space and a component in which a distribution of the color distribution and a background color of the safety protective gear included in the loaded reference color information are distinguished, and the extracted color space and color component information, And determining whether or not the color information included in the ROI matches the reference color information based on the comparison result.
제1항에 있어서,
상기 기준 색상 정보는,
상기 작업자 객체로 선정하기 위하여 저장되어 있는 정보로서, 작업자가 착용하는 안전보호장구의 색상에 대응하는 색상 정보인 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법.
The method according to claim 1,
The reference color information may include:
Wherein the color information corresponding to the color of the safety protective gear worn by the operator is information stored for selection by the operator object.
삭제delete 삭제delete 제1항에 있어서,
상기 관심 영역 객체로 선정하는 단계는,
상기 객체의 크기에 무관하게 상기 기준 객체의 형태와 매칭되는 윤곽선을 갖는 객체를 관심 영역 객체로 선정하기 위해, 상기 기준 객체의 크기를 변경하면서 상기 객체의 윤곽선과 비교하여 상기 관심 영역 객체를 선정하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법.
The method according to claim 1,
The method of claim 1,
The region of interest is selected by comparing the size of the reference object with the contour of the object in order to select an object having an outline that matches the shape of the reference object irrespective of the size of the object, Wherein the worker recognizes the worker in the worksite image data.
기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 제1 판단부; 상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 제2 판단부; 및
상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 인식 결과 도출부;를 포함하되,
상기 제2 판단부는, 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되는 색공간 및 구성요소로 선정된 상기 기준 색상 정보를 상기 데이터베이스로부터 로드하고, 상기 관심 영역 객체에 포함된 색상 정보와, 상기 로드된 기준 색상 정보에 색상 모델 기반 픽셀 분류 방법을 적용하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하고,
상기 제2 판단부는,
상기 관심 영역 객체에 포함된 색상 정보에 색공간 변환 작업을 수행하여, 상기 관심 영역 객체에 포함된 색상 정보로부터 색공간 및 색상 구성 요소 정보를 추출하고, 상기 로드된 기준 색상 정보에 포함된 상기 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되는 색공간 및 구성요소와 상기 추출된 색공간 및 색상 구성 요소 정보를 비교하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 장치.
A first matching unit which selects an object matching the shape of a reference object existing in a previously stored database among at least one of the objects detected by using the contour constituting the object from the image data of the predetermined area, A determination unit; A second determination unit for determining whether the color information included in the ROI is matched with reference color information existing in the database by using a predetermined algorithm; And
And a recognition result derivation unit for selecting a region of interest, which includes color information determined to match with reference color information existing in the database, as an operator object,
The second determination unit may load the reference color information selected from the color space and the component that distinguishes the color distribution and the background color distribution of the safety protection equipment from the database, Determining whether or not color information included in the ROI is matched with the reference color information by applying a color model based pixel classification method to the loaded reference color information,
The second determination unit may determine,
A color space conversion process is performed on the color information included in the ROI to extract color space and color component information from the color information included in the ROI, The color space and the component in which the distribution of the color and the background color of the protective gear are distinguished are compared with the extracted color space and color component information to determine whether the color information included in the ROI matches the reference color information And a determination unit operable to determine whether the worker is in the on-scene video data.
제6항에 있어서,
상기 기준 색상 정보는,
상기 작업자 객체로 선정하기 위하여 저장되어 있는 정보로서, 작업자가 착용하는 안전보호장구의 색상에 대응하는 색상 정보인 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 장치.
The method according to claim 6,
The reference color information may include:
Wherein the color information corresponding to the color of the safety protective gear worn by the operator is information stored for selection by the operator object.
삭제delete 제6항에 있어서,
상기 제1 판단부는,
상기 객체의 크기에 무관하게 상기 기준 객체의 형태와 매칭되는 윤곽선을 갖는 객체를 관심 영역 객체로 선정하기 위해, 상기 기준 객체의 크기를 변경하면서 상기 객체의 윤곽선과 비교하여 상기 관심 영역 객체를 선정하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 장치.
The method according to claim 6,
The first determination unit may determine,
The region of interest is selected by comparing the size of the reference object with the contour of the object in order to select an object having an outline that matches the shape of the reference object irrespective of the size of the object, And the worker recognizing device in the worksite image data.
기설정된 영역을 촬영한 영상 데이터로부터, 객체를 구성하는 윤곽선을 이용하여 검출한 적어도 하나의 객체들 중, 기 저장된 데이터베이스에 존재하는 기준 객체의 형태와 매칭되는 객체를 관심 영역 객체로 선정하는 단계; 상기 관심 영역 객체에 포함된 색상 정보를 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는지 여부를 기설정된 알고리즘을 이용하여 판단하는 단계; 및 상기 데이터베이스에 존재하는 기준 색상 정보와 매칭되는 것으로 판단된 색상 정보를 포함하는 관심 영역 객체를 작업자 객체로 선정하는 단계;를 포함하되,
상기 기설정된 알고리즘을 이용하여 판단하는 단계는,
안전보호장구가 갖는 색분포와 배경색의 분포가 구분되도록 선정된 색공간 및 구성요소를 포함하는 상기 기준 색상 정보를 상기 데이터베이스로부터 로드하는 단계; 및 상기 관심 영역 객체에 포함된 색상 정보와, 상기 로드된 기준 색상 정보에 색상 모델 기반 픽셀 분류 방법을 적용하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하는 단계;를 포함하고,
상기 매칭되는지 여부를 판단하는 단계는,
상기 관심 영역 객체에 포함된 색상 정보에 색공간 변환 작업을 수행하여, 상기 관심 영역 객체에 포함된 색상 정보로부터 색공간 및 색상 구성 요소 정보를 추출하는 단계; 및 상기 로드된 기준 색상 정보에 포함된 상기 안전보호장구가 갖는 색분포와 배경색의 분포가 구분되는 색공간 및 구성요소와 상기 추출된 색공간 및 색상 구성 요소 정보를 상기 색상 모델 기반 픽셀 분류 방법을 이용하여 비교하여, 상기 관심 영역 객체에 포함된 색상 정보가 상기 기준 색상 정보에 매칭되는지 여부를 판단하는 단계;를 포함하는 것을 특징으로 하는 작업 현장 영상 데이터 내의 작업자 인식 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
Selecting an object matching the shape of a reference object existing in a pre-stored database among the at least one objects detected using the outline constituting the object, from the image data of the predetermined area; Determining whether color information included in the ROI is matched with reference color information existing in the database using a predetermined algorithm; And selecting a region of interest, which includes color information determined to match with reference color information existing in the database, as an operator object,
Wherein the step of determining, using the predetermined algorithm,
Loading the reference color information including the selected color space and the component from the database so that the color distribution and the background color distribution of the safety protection gear are distinguished; And applying color model-based pixel classification to the color information included in the ROI and the loaded reference color information to determine whether the color information included in the ROI matches the reference color information Comprising:
The method of claim 1,
Extracting color space and color component information from color information included in the ROI by performing a color space conversion operation on the color information included in the ROI; And a color space and a component in which a distribution of the color distribution and a background color of the safety protective gear included in the loaded reference color information are distinguished, and the extracted color space and color component information, And determining whether or not the color information included in the ROI matches the reference color information. The method of claim 1, further comprising: Readable recording medium.
KR1020150031458A 2015-03-06 2015-03-06 Method and apparatus for recognizing worker in working site image data KR101668555B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150031458A KR101668555B1 (en) 2015-03-06 2015-03-06 Method and apparatus for recognizing worker in working site image data
PCT/KR2015/012090 WO2016143976A1 (en) 2015-03-06 2015-11-11 Method for recognizing operator in work site image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150031458A KR101668555B1 (en) 2015-03-06 2015-03-06 Method and apparatus for recognizing worker in working site image data

Publications (2)

Publication Number Publication Date
KR20160108740A KR20160108740A (en) 2016-09-20
KR101668555B1 true KR101668555B1 (en) 2016-10-31

Family

ID=56880531

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150031458A KR101668555B1 (en) 2015-03-06 2015-03-06 Method and apparatus for recognizing worker in working site image data

Country Status (2)

Country Link
KR (1) KR101668555B1 (en)
WO (1) WO2016143976A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563320B (en) * 2017-08-24 2021-04-23 中南大学 Human body sitting posture appearance testing method and system based on spatial position information
KR101932009B1 (en) * 2017-12-29 2018-12-24 (주)제이엘케이인스펙션 Image processing apparatus and method for multiple object detection
CN111079731A (en) * 2019-12-03 2020-04-28 中冶赛迪重庆信息技术有限公司 Configuration system, method, equipment and medium based on safety helmet identification monitoring system
KR102428613B1 (en) * 2020-01-29 2022-08-02 에스케이 주식회사 Safety management method and system using image learning model for digital Safety, Health, Environment industry specialization
KR102518488B1 (en) * 2020-09-29 2023-04-04 주식회사 포스코아이씨티 System And Method for Managing Access to the Workplace
CN114267013A (en) * 2021-12-16 2022-04-01 北京小龙潜行科技有限公司 Pasture tool identification method applied to edge computing equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5227841B2 (en) * 2009-02-27 2013-07-03 日立建機株式会社 Ambient monitoring device
KR101033349B1 (en) * 2009-03-24 2011-05-09 아주대학교산학협력단 Vision watching System and Method for safety hat
KR101374139B1 (en) * 2012-07-31 2014-03-14 주식회사 제론헬스케어 Monitoring method through image fusion of surveillance system
KR20140035712A (en) * 2012-09-14 2014-03-24 한국전자통신연구원 Method and apparatus of object recognition
KR101524922B1 (en) * 2013-08-01 2015-06-01 주식회사 엘지유플러스 Apparatus, method, and recording medium for emergency alert

Also Published As

Publication number Publication date
WO2016143976A1 (en) 2016-09-15
KR20160108740A (en) 2016-09-20

Similar Documents

Publication Publication Date Title
KR101668555B1 (en) Method and apparatus for recognizing worker in working site image data
Park et al. Hardhat-wearing detection for enhancing on-site safety of construction workers
US11030464B2 (en) Privacy processing based on person region depth
US9165212B1 (en) Person counting device, person counting system, and person counting method
KR101715001B1 (en) Display system for safety evaluation in construction sites using of wearable device, and thereof method
CN109670441A (en) A kind of realization safety cap wearing knows method for distinguishing, system, terminal and computer readable storage medium
Mneymneh et al. Evaluation of computer vision techniques for automated hardhat detection in indoor construction safety applications
JP2020098590A (en) Moving object tracking device
WO2020176218A1 (en) Camera localization based on skeletal tracking
US20230162476A1 (en) Method and system for determining risk in construction site based on image analysis
US20230196895A1 (en) Method for monitoring state of wearing safety protective equipment and server for providing the method
Zhu et al. Automated monitoring of hardhats wearing for onsite safety enhancement
CN116152863A (en) Personnel information identification method and device, electronic equipment and storage medium
KR20220051609A (en) A system for recognizing workers' wearing safety protection equipment through real-time image analysis
US20210104006A1 (en) Keepout zone detection and active safety system
CN104980695A (en) Coordination of object location data with video data
US11710292B2 (en) Real time region of interest (ROI) detection in thermal face images based on heuristic approach
CN111985331B (en) Detection method and device for preventing trade secret from being stolen
Park et al. Real-time monitoring unsafe behaviors of portable multi-position ladder worker using deep learning based on vision data
KR101702452B1 (en) A method and a system for providing cctv image applied augmented reality
US20240185608A1 (en) Scaffolding safety compliance detection using computer vision
KR102449823B1 (en) Method for tagging images of construction site and server and system for performing the same
CN113494964B (en) Personnel temperature measurement method and device, electronic equipment and storage medium
Park et al. Preventing falls from floor openings using quadrilateral detection and construction worker pose-estimation
US20230230379A1 (en) Safety compliance system and method

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 4