KR20210006722A - Apparatus, method and computer program for determining whether safety equipment is worn - Google Patents

Apparatus, method and computer program for determining whether safety equipment is worn Download PDF

Info

Publication number
KR20210006722A
KR20210006722A KR1020190082694A KR20190082694A KR20210006722A KR 20210006722 A KR20210006722 A KR 20210006722A KR 1020190082694 A KR1020190082694 A KR 1020190082694A KR 20190082694 A KR20190082694 A KR 20190082694A KR 20210006722 A KR20210006722 A KR 20210006722A
Authority
KR
South Korea
Prior art keywords
safety equipment
deep learning
learning model
determining whether
wear
Prior art date
Application number
KR1020190082694A
Other languages
Korean (ko)
Inventor
정재협
문일현
전은솜
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020190082694A priority Critical patent/KR20210006722A/en
Publication of KR20210006722A publication Critical patent/KR20210006722A/en

Links

Images

Classifications

    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

Provided is a device for determining whether safety equipment is worn, which comprises: an image receiving unit which receives an image of a worker from a camera; a body unit detection unit which detects a plurality of body parts from the received image based on a previously learned first deep learning model; a safety equipment area detection unit which detects a plurality of safety equipment areas from the received image based on a previously learned second deep learning model; and a determination unit configured to determine whether the worker wears the safety equipment based on the detected plurality of body parts and the plurality of safety equipment areas.

Description

안전 장비의 착용 여부를 판단하는 장치, 방법 및 컴퓨터 프로그램{APPARATUS, METHOD AND COMPUTER PROGRAM FOR DETERMINING WHETHER SAFETY EQUIPMENT IS WORN}A device, method, and computer program that determines whether or not safety equipment is worn {APPARATUS, METHOD AND COMPUTER PROGRAM FOR DETERMINING WHETHER SAFETY EQUIPMENT IS WORN}

본 발명은 안전 장비의 착용 여부를 판단하는 장치, 방법 및 컴퓨터 프로그램에 관한 것이다. The present invention relates to an apparatus, a method, and a computer program for determining whether to wear safety equipment.

산업 현장에서는 매일 평균 7명의 근로자가 산업 재해로 목숨을 잃는다. 산업 재해는 자연 재해와 달리 몇 가지 안전 규칙만 잘 지킨다면 사전에 방지할 수 있다. 기본적으로 안전 규칙은 작업자의 안전화, 안전모, 안전복, 안전장치 및 보호구 등의 착용을 요구하고 있다. In industrial sites, an average of 7 workers die every day from industrial accidents. Unlike natural disasters, industrial accidents can be prevented in advance if only a few safety rules are followed. Basically, safety rules require workers to wear safety shoes, hard hats, safety clothing, safety devices, and protective gear.

이러한 산업 재해를 방지하고자 작업자의 안전 장비의 착용 유무를 판단하는 기술이 개발되었으며, 안전 장비의 착용 유무를 판단하는 기술과 관련하여 선행기술인 한국등록특허 제 10-1212657호는 지능형 안전관제 시스템을 개시하고 있다. In order to prevent such industrial accidents, a technology for determining whether a worker is wearing safety equipment has been developed, and Korean Patent No. 10-1212657, a prior art, has initiated an intelligent safety control system with respect to the technology for determining whether or not a worker is wearing safety equipment. Are doing.

종래에는 블루투스 모듈이 부착된 안전 장비를 통해 작업자의 안전 장비의 착용 유무를 판단할 수 있었다. Conventionally, it was possible to determine whether or not the worker wears safety equipment through the safety equipment attached with the Bluetooth module.

또한, BLE(Bluetooth Low Energy) 기술 및 서치용 비콘 모듈을 이용하여 작업자의 안전 장비의 착용 유무를 판단할 수 있었다. In addition, it was possible to determine whether or not a worker is wearing safety equipment using BLE (Bluetooth Low Energy) technology and a search beacon module.

그러나 블루투스, BLE 및 비콘 신호를 이용하는 경우, 각 안전장비에 서치용 비콘 모듈을 부착해야 하는 번거로움이 따르고, 안전 장갑, 안전 마스크와 같이 작은 안전 장비에 이러한 모듈이 부착된 경우, 작업자가 안전 장비를 착용하여 작업을 하는데 어려움이 따른다는 단점을 가지고 있었다. However, when using Bluetooth, BLE and beacon signals, there is a hassle of attaching a search beacon module to each safety device, and if these modules are attached to small safety equipment such as safety gloves and safety masks, the operator can use safety equipment. It had the disadvantage that it was difficult to work with wearing it.

또한, 이러한 모듈들의 신호를 이용하여 작업자의 안전 장비의 착용 유무를 판단하는 경우, 단순히 신호를 송출하는 모듈과 작업자 단말기 간의 신호 송출 거리를 계산하여 작업자에 대한 안전 장비의 착용 유무를 판단하므로, 안전 장비의 착용 여부에 대한 판단 결과가 정확하지 않다는 단점을 가지고 있었다. In addition, when determining whether or not the worker is wearing safety equipment using the signals of these modules, the signal transmission distance between the module transmitting the signal and the worker terminal is simply calculated to determine whether the worker is wearing safety equipment. It had the disadvantage that the judgment result of whether the equipment was worn or not was not accurate.

또한, 모듈들의 신호를 이용하여 작업자에 대한 안전 장비의 착용 유무를 판단하기 위해서는 게이트웨이 모듈, 작업자 단말기, 관리자 단말기 등과 같이 추가적인 장치가 요구되었다. In addition, additional devices such as a gateway module, a worker terminal, and a manager terminal are required in order to determine whether or not a worker is wearing safety equipment using signals from the modules.

일반 RGB 카메라를 이용하여 작업자의 안전 장비 착용 여부를 판단할 수 있도록 하는 안전 장비 착용 여부 판단 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다. An attempt is made to provide a device, a method, and a computer program for determining whether to wear safety equipment to determine whether a worker is wearing safety equipment using a general RGB camera.

제 1 딥러닝 모델을 이용하여 작업자의 신체 부위를 검출하고, 제 2 딥러닝 모델을 이용하여 작업자가 착용할 안전 장비 영역을 검출함으로써, 높은 정확도로 작업자의 안전 장비 착용 여부를 판단하는 안전 장비 착용 여부 판단 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다. Wearing safety equipment that determines whether the worker wears safety equipment with high accuracy by detecting the operator's body part using the first deep learning model and the safety equipment area to be worn by the operator using the second deep learning model It is intended to provide an apparatus, method, and computer program for determining whether or not.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problem to be achieved by this embodiment is not limited to the above-described technical problems, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명의 일 실시예는, 카메라로부터 작업자를 촬영한 영상을 수신하는 영상 수신부, 기학습된 제 1 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 신체 부위를 검출하는 신체 부위 검출부, 기학습된 제 2 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 안전 장비 영역을 검출하는 안전 장비 영역 검출부 및 상기 검출된 복수의 신체 부위 및 상기 복수의 안전 장비 영역에 기초하여 상기 작업자에 대한 상기 안전 장비의 착용 여부를 판단하는 판단부를 포함하는 안전 장비 착용 여부 판단 장치를 제공할 수 있다. As a means for achieving the above-described technical problem, an embodiment of the present invention provides an image receiving unit for receiving an image photographed of a worker from a camera, a plurality of images from the received image based on a pre-learned first deep learning model. A body part detection unit that detects a body part, a safety equipment area detection unit that detects a plurality of safety equipment areas from the received image based on a pre-learned second deep learning model, and the detected plurality of body parts and the plurality of safety It is possible to provide a device for determining whether to wear safety equipment, including a determination unit that determines whether or not to wear the safety equipment for the worker based on the equipment area.

본 발명의 다른 실시예는, 카메라로부터 작업자를 촬영한 영상을 수신하는 단계, 기학습된 제 1 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 신체 부위를 검출하는 단계, 기학습된 제 2 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 안전 장비 영역을 검출하는 단계 및 상기 검출된 복수의 신체 부위 및 상기 복수의 안전 장비 영역에 기초하여 상기 작업자에 대한 상기 안전 장비의 착용 여부를 판단하는 단계를 포함하는 안전 장비 착용 여부 판단 방법을 제공할 수 있다. In another embodiment of the present invention, receiving an image of a worker from a camera, detecting a plurality of body parts from the received image based on a pre-learned first deep learning model, and pre-learning second Detecting a plurality of safety equipment areas from the received image based on a deep learning model, and determining whether to wear the safety equipment for the worker based on the detected plurality of body parts and the plurality of safety equipment areas It may provide a method for determining whether to wear safety equipment including the step of.

본 발명의 또 다른 실시예는, 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 카메라로부터 작업자를 촬영한 영상을 수신하고, 기학습된 제 1 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 신체 부위를 검출하고, 기학습된 제 2 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 안전 장비 영역을 검출하고, 상기 검출된 복수의 신체 부위 및 상기 복수의 안전 장비 영역에 기초하여 상기 작업자에 대한 상기 안전 장비의 착용 여부를 판단하도록 하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램을 제공할 수 있다. In another embodiment of the present invention, when the computer program is executed by a computing device, the computer program receives an image of a worker from a camera, and a plurality of body parts from the received image based on a pre-learned first deep learning model. And detecting a plurality of safety equipment areas from the received image based on a pre-learned second deep learning model, and based on the detected plurality of body parts and the plurality of safety equipment areas, A computer program stored in a medium including a sequence of instructions for determining whether the safety equipment is worn may be provided.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 별도의 블루투스 모듈을 안전 장비에 부착하지 않고, 일반 RGB 카메라를 이용하여 작업자의 안전 장비 착용 여부를 판단할 수 있도록 하는 안전 장비 착용 여부 판단 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. According to any one of the above-described problem solving means of the present invention, a device for determining whether to wear safety equipment to determine whether or not a worker is wearing safety equipment using a general RGB camera without attaching a separate Bluetooth module to the safety equipment. , Method and computer program can be provided.

안전 장비 착용 여부 판단 장치와 일반 RGB 카메라만으로 작업자의 안전 장비 착용 여부를 판단함으로써, 게이트웨이 비콘, 작업자 단말기, 관리자 단말기와 같이 추가적인 장치를 구축하지 않아도 되는 안전 장비 착용 여부 판단 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다.By determining whether a worker is wearing safety equipment with only a device for determining whether to wear safety equipment and a general RGB camera, the device, method, and computer program for determining whether to wear safety equipment that does not require additional devices such as gateway beacons, operator terminals, and manager terminals are used. Can provide.

제 1 딥러닝 모델을 이용하여 작업자의 신체 부위를 검출하고, 제 2 딥러닝 모델을 이용하여 작업자가 착용할 안전 장비 영역을 검출함으로써, 높은 정확도로 작업자의 안전 장비 착용 여부를 판단하는 안전 장비 착용 여부 판단 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다.Wearing safety equipment that determines whether the worker wears safety equipment with high accuracy by detecting the operator's body part using the first deep learning model and the safety equipment area to be worn by the operator using the second deep learning model A device, a method, and a computer program may be provided.

작업자가 카메라의 정면을 바라보며 서있지 않아도 작업자의 안전 장비 착용 여부를 판단할 수 있도록 하는 안전 장비 착용 여부 판단 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다.It is possible to provide an apparatus, method, and computer program for determining whether to wear safety equipment that enables the operator to determine whether or not the operator is wearing safety equipment even if the operator does not stand facing the front of the camera.

카메라가 다수의 작업자를 촬영한 경우, 다수의 작업자들의 안전 장비 착용 여부를 동시에 판단할 수 있도록 하는 안전 장비 착용 여부 판단 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다.When a camera photographs a plurality of workers, an apparatus, a method, and a computer program for determining whether to wear safety equipment may be provided to simultaneously determine whether or not the plurality of workers wear safety equipment.

도 1은 본 발명의 일 실시예에 따른 안전 장비 착용 여부 판단 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 제 1 딥러닝 모델을 도시한 예시적인 도면이다.
도 3은 본 발명의 일 실시예에 따른 작업자를 촬영한 영상으로부터 신체 부위를 검출하는 과정을 설명하기 위한 예시적인 도면이다.
도 4는 본 발명의 일 실시예에 따른 제 2 딥러닝 모델을 도시한 예시적인 도면이다.
도 5는 본 발명의 일 실시예에 따른 신체 부위 및 안전 장비 영역에 기초하여 작업자에 대한 안전 장비의 착용 여부를 판단하는 과정을 설명하기 위한 예시적인 도면이다.
도 6은 본 발명의 일 실시예에 따른 안전 장비 착용 여부 판단 장치에서 안전 장비의 착용 여부를 판단하는 방법의 순서도이다.
1 is a block diagram of an apparatus for determining whether to wear safety equipment according to an embodiment of the present invention.
2 is an exemplary diagram showing a first deep learning model according to an embodiment of the present invention.
3 is an exemplary diagram for explaining a process of detecting a body part from an image photographed of a worker according to an embodiment of the present invention.
4 is an exemplary diagram showing a second deep learning model according to an embodiment of the present invention.
FIG. 5 is an exemplary diagram for explaining a process of determining whether a worker wears safety equipment based on a body part and a safety equipment area according to an embodiment of the present invention.
6 is a flowchart of a method of determining whether to wear safety equipment in the apparatus for determining whether to wear safety equipment according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included, and one or more other features, not excluding other components, unless specifically stated to the contrary. It is to be understood that it does not preclude the presence or addition of any number, step, action, component, part, or combination thereof.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, or two or more units may be realized using one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In the present specification, some of the operations or functions described as being performed by the terminal or device may be performed instead by a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 안전 장비 착용 여부 판단 장치의 구성도이다. 도 1을 참조하면, 안전 장비 착용 여부 판단 장치(100)는 영상 수신부(110), 신체 부위 검출부(120), 안전 장비 영역 검출부(130), 판단부(140) 및 제어부(150)를 포함할 수 있다. 1 is a block diagram of an apparatus for determining whether to wear safety equipment according to an embodiment of the present invention. Referring to FIG. 1, the apparatus 100 for determining whether to wear safety equipment includes an image receiving unit 110, a body part detecting unit 120, a safety equipment area detecting unit 130, a determining unit 140, and a control unit 150. I can.

영상 수신부(110)는 카메라로부터 작업자를 촬영한 영상을 수신할 수 있다. 예를 들어, 영상 수신부(110)는 일반 RGB 카메라로부터 작업자의 전신이 촬영된 영상을 수신할 수 있다. The image receiving unit 110 may receive an image of a worker from a camera. For example, the image receiving unit 110 may receive an image in which the entire body of a worker is photographed from a general RGB camera.

신체 부위 검출부(120)는 기학습된 제 1 딥러닝 모델에 기초하여 수신한 영상으로부터 복수의 신체 부위를 검출할 수 있다. 제 1 딥러닝 모델에 대해서는 도 2를 통해 상세히 설명하도록 한다. The body part detection unit 120 may detect a plurality of body parts from the received image based on the pre-learned first deep learning model. The first deep learning model will be described in detail with reference to FIG. 2.

도 2는 본 발명의 일 실시예에 따른 제 1 딥러닝 모델을 도시한 예시적인 도면이다. 도 2를 참조하면, 제 1 딥러닝 모델은 작업자의 포즈를 추정할 수 있도록 기학습될 수 있다. 2 is an exemplary diagram showing a first deep learning model according to an embodiment of the present invention. Referring to FIG. 2, the first deep learning model may be pre-trained to estimate a worker's pose.

기학습된 제 1 딥러닝 모델(210)은 수신한 영상을 입력(200)으로 하고, 복수의 신체 부위 중 적어도 하나의 키포인트(230, 231) 및 적어도 하나의 키포인트(230, 231) 간의 연결선(232)을 출력(220)으로 할 수 있다.The pre-learned first deep learning model 210 uses the received image as an input 200, and a connection line between at least one key point 230, 231 and at least one key point 230, 231 among a plurality of body parts ( 232) can be output 220.

예를 들어, 기학습된 제 1 딥러닝 모델은 영상 수신부(110)에서 수신한 작업자를 촬영한 영상(RGB)로 구성된 3채널 컬러 영상)을 입력으로 하고, 영상의 크기(HxW)를 조절할 수 있다. 영상의 크기는 H가 368이 되도록, H=368, W=W/H*368로 영상의 크기가 조절될 수 있다. For example, the pre-learned first deep learning model can take as an input a 3-channel color image composed of an image (RGB) photographed of a worker received by the image receiving unit 110 and adjust the size of the image (HxW). have. The size of the image may be adjusted to H=368 and W=W/H*368 so that H is 368.

기학습된 제 1 딥러닝 모델은 합성곱 레이어(Convolution Layer), PReLU, 풀링(Pooling)을 적절히 적용하여 영상의 특징을 추출할 수 있다. 예를 들어, 제 1 딥러닝 모델은 합성곱 레이어(Convolution Layer)에 3x3 커널 사이즈(kernel size)를 적용하고, 풀링(Pooling)에 스트라이드(stride) 2, 2x2 커널 사이즈(kernel size)의 맥스 풀링(Max Pooling)을 사용하여 영상의 특징을 추출할 수 있다. The pre-learned first deep learning model may extract features of an image by appropriately applying a convolution layer, PReLU, and pooling. For example, in the first deep learning model, a 3x3 kernel size is applied to the convolution layer, and max pooling of 2x2 and 2x2 kernel sizes is applied to the pooling. Image features can be extracted using (Max Pooling).

이후, 기학습된 제 1 딥러닝 모델은 합성곱 레이어(Convolution Layer), PReLU, 연결연산(Concatenation)을 적절히 적용하여 복수의 신체 부위 중 적어도 하나의 키 포인트를 검출하기 위한 특징을 추출한 후, 연결선을 검출하기 위한 특징을 추출할 수 있다. 이 때, 기학습된 제 1 딥러닝 모델은 합성곱 레이어(Convolution Layer), PReLU, 연결연산(Concatenation)으로 구성된 형식을 예를 들어, 6번 반복하여 적용할 수 있다. Thereafter, the first deep learning model previously learned extracts a feature for detecting at least one key point among a plurality of body parts by appropriately applying a convolution layer, a PReLU, and a concatenation, and then the connection line It is possible to extract features for detecting. In this case, the previously learned first deep learning model may be repeatedly applied in a format consisting of a convolution layer, PReLU, and concatenation, for example, six times.

예를 들어, 합성곱 레이어(Convolution Layer), PReLU, 연결연산(Concatenation)으로 구성된 형식은 합성곱 레이어(Convolution Layer)와 PReLU의 구조가 3번 이어지고, PReLU에서 추출된 특징 맵들을 연결연산(Concatenation)을 수행할 수 있다. 예를 들어, Conv→PReLU 구조마다 128개의 특징 맵이 추출될 경우, 연결연산(Concatenation)의 결과를 '128+128+128=384'로 도출할 수 있다. For example, in a format consisting of a convolution layer, PReLU, and concatenation, the structure of a convolution layer and PReLU are connected three times, and feature maps extracted from PReLU are concatenated. ) Can be performed. For example, when 128 feature maps are extracted for each Conv→PReLU structure, the result of concatenation can be derived as '128+128+128=384'.

기학습된 제 1 딥러닝 모델은 여러 반복 과정을 통해 추출한 강인한 키 포인트의 특징에 1x1 커널 사이즈(kernel size)의 합성곱 레이어(Convolution Layer)와 PReLU를 적용한 후, 1x1 커널 사이즈(kernel size)의 합성곱 레이어(Convolution Layer)를 다시 적용하여 21개의 특징 맵을 추출할 수 있다. 여기서, 21개의 특징 맵은 20개의 키 포인트와 1개의 네거티브(negative)를 포함할 수 있다. The pre-learned first deep learning model applies a 1x1 kernel size convolution layer and PReLU to the features of strong key points extracted through several iterations, and then the 1x1 kernel size. 21 feature maps may be extracted by reapplying the convolution layer. Here, the 21 feature maps may include 20 key points and 1 negative.

기학습된 제 1 딥러닝 모델은 여러 반복 과정을 통해 추출한 강인한 연결선 특징에 1x1 커널 사이즈(kernel size)의 합성곱 레이어(Convolution Layer)와 PReLU를 적용한 후, 1x1 커널 사이즈(kernel size)의 합성곱 레이어(Convolution Layer)를 다시 적용하여 38개의 특징 맵을 추출할 수 있다. 여기서, 38개의 특징 맵은 19개의 연결선에 대한 각각의 키 포인트 A로부터 키 포인트 B로 연결선 확률 특징 맵과 키 포인트 B에서 키 포인트 A로 연결선 확률 특징 맵으로 총 19x2=38개로 구성될 수 있다. The pre-learned first deep learning model applies a 1x1 kernel size convolution layer and PReLU to the robust connection line features extracted through several iterations, and then a 1x1 kernel size convolution. 38 feature maps can be extracted by re-applying the layer (Convolution Layer). Here, the 38 feature maps may be composed of a total of 19x2=38 as a probability feature map of a connection line from key point A to a key point B for 19 connection lines and a probability feature map of a connection line from key point B to key point A.

기학습된 제 1 딥러닝 모델은 최종 59개(21+38=59)개의 특징 맵에서 키 포인트와 연결선을 검출할 수 있다. 이 때, 키 포인트의 경우, 각 신체 부위의 키 포인트 특징 맵(20개)에서 로컬 맥시멈(Local Maximum)의 위치가 키 포인트의 위치가 되며, 네거티브 특징 맵은 제외될 수 있다. 또한, 연결선의 경우, 하나의 연결선을 의미하는 두 특징 맵에서 앞서 도출된 두 개의 키 포인트를 대입했을 때, 연결선 확률이 가장 큰 부분에 속하는 해당 두 키 포인트를 연결시킴으로써, 연결선을 검출할 수 있다. The pre-learned first deep learning model may detect key points and connection lines from the final 59 feature maps (21+38=59). In this case, in the case of a key point, the location of the local maximum in the key point feature maps (20) of each body part becomes the location of the key point, and the negative feature map may be excluded. In addition, in the case of a connection line, when two key points derived earlier are substituted in two feature maps representing one connection line, the connection line can be detected by connecting the corresponding two key points belonging to the portion with the highest connection line probability. .

다시 도 1로 돌아와서, 신체 부위 검출부(120)는 검출된 적어도 하나의 키포인트 및 적어도 하나의 키포인트 간의 연결선에 기초하여 신체 부위를 검출할 수 있다. 신체 부위를 검출하는 과정에 대해서는 도 3을 통해 상세히 설명하도록 한다. Returning to FIG. 1 again, the body part detection unit 120 may detect the body part based on the detected at least one key point and a connection line between the at least one key point. The process of detecting the body part will be described in detail with reference to FIG. 3.

도 3은 본 발명의 일 실시예에 따른 작업자를 촬영한 영상으로부터 신체 부위를 검출하는 과정을 설명하기 위한 예시적인 도면이다. 도 3을 참조하면, 신체 부위 검출부(120)는 머리끝(300), 코(301), 목(303), 오른쪽 어깨(305), 왼쪽 어깨(306), 오른쪽 팔꿈치, 왼쪽 팔꿈치, 오른쪽 손목(311), 왼쪽 손목(314), 오른손 손끝(312), 왼손 손끝(315), 배아래(308), 오른쪽 골반(307), 왼쪽 골반(309), 오른쪽 무릎(317), 왼쪽 무릎(321), 오른쪽 발목(318), 왼쪽 발목(322), 오른쪽 발끝(319), 왼쪽 발끝(323) 등에 해당하는 키포인트를 검출하고, 검출된 적어도 하나의 키포인트 및 연결선에 기초하여 각 신체 부위별 영역을 계산할 수 있다. 3 is an exemplary diagram for explaining a process of detecting a body part from an image photographed of a worker according to an embodiment of the present invention. Referring to FIG. 3, the body part detection unit 120 includes a head 300, a nose 301, a neck 303, a right shoulder 305, a left shoulder 306, a right elbow, a left elbow, and a right wrist ( 311), left wrist (314), right fingertip (312), left fingertip (315), lower abdomen (308), right pelvis (307), left pelvis (309), right knee (317), left knee (321) , The right ankle 318, the left ankle 322, the right toe 319, the left toe 323 detects key points corresponding to, and calculates an area for each body part based on the detected at least one key point and a connection line. I can.

각 신체 부위별 영역은 얼굴 위 영역(302), 얼굴 아래 영역(304), 몸통 영역(310), 오른손 영역(313), 왼손 영역(316), 오른쪽 아랫다리 영역(320), 왼쪽 아랫다리 영역(324)을 포함할 수 있다. The area for each body part is the upper face area 302, the lower face area 304, the trunk area 310, the right hand area 313, the left hand area 316, the right lower leg area 320, and the left lower leg area. (324) may be included.

얼굴 위 영역(302)은 머리끝 키포인트(300)와 코 키포인트(301) 간의 연결선을 지름으로 하는 원에 외접하는 정사각형 영역으로 구성되고, 얼굴 아래 영역(304)은 코 키포인트(301)와 목 키포인트(303) 간의 연결선을 지름으로 하는 원에 외접하는 정사각형 영역으로 구성되고, 몸통 영역(310)은 오른쪽 어깨 키포인트(305), 목 키포인트(303), 왼쪽 어깨 키포인트(306), 오른쪽 골반 키포인트(307), 배아래 키포인트(308), 왼쪽 골반 키포인트(309)를 모두 포함하는 가장 작은 직사각형 영역으로 구성되고, 오른손 영역(313)은 오른쪽 손목 키포인트(311)와 오른손 손끝 키포인트(312) 간의 연결선을 지름으로 하는 원에 외접하는 정사각형 영역으로 구성되고, 왼손 영역(316)은 왼쪽 손목 키포인트(314)와 왼손 손끝 키포인트(315) 간의 연결선을 지름으로 하는 원에 외접하는 정사각형 영역으로 구성되고, 오른쪽 아랫다리 영역(320)은 오른쪽 무릎 키포인트(317)와 오른쪽 발목 키포인트(318) 간의 연결선을 지름으로 하는 원에 외접하는 정사각형으로부터 오른쪽 발끝 키포인트(319)를 포함하도록 밑변을 연장시킨 가장 작은 직사각형 영역으로 구성되고, 왼쪽 아랫다리 영역(324)은 왼쪽 무릎 키포인트(321)와 왼쪽 발목 키포인트(322) 간의 연결선을 지름으로 하는 원에 외접하는 정사각형으로부터 왼쪽 발끝 키포인트(323)를 포함하도록 밑변을 연장시킨 가장 작은 직사각형 영역으로 구성될 수 있다. The area above the face 302 is composed of a square area circumscribed to a circle having the connection line between the head key point 300 and the nose key point 301 as a diameter, and the area under the face 304 is the nose key point 301 and the neck key point. (303) is composed of a square area circumscribed to a circle having a connection line as a diameter, and the trunk area 310 is a right shoulder key point 305, a neck key point 303, a left shoulder key point 306, and a right pelvic key point 307 ), the bottom key point 308, the left pelvic key point 309 is composed of the smallest rectangular area including all, the right hand area 313 is a diameter connecting line between the right wrist key point 311 and the right fingertip key point 312 Consisting of a square area circumscribed to a circle, the left hand area 316 is composed of a square area circumscribed to a circle whose diameter is the connection line between the left wrist key point 314 and the left hand fingertip key point 315, The area 320 is composed of the smallest rectangular area extending the base to include the right toe key point 319 from a square circumscribed to a circle having a diameter of the connecting line between the right knee key point 317 and the right ankle key point 318, and , The left lower leg area 324 is the smallest rectangle in which the base is extended to include the left toe key point 323 from a square circumscribed to a circle having a connection line between the left knee key point 321 and the left ankle key point 322 as a diameter. It can be composed of areas.

신체 부위 검출부(120)는 계산된 각 신체 부위별 영역에 기초하여 얼굴 위, 얼굴 아래, 몸통, 오른손, 왼손, 오른쪽 아랫다리, 왼쪽 아랫다리 등과 같이 총 7개의 신체 부위를 검출할 수 있다.The body part detection unit 120 may detect a total of 7 body parts, such as an upper face, a lower face, a trunk, a right hand, a left hand, a right lower leg, and a left lower leg, based on the calculated area for each body part.

이러한 신체 부위 검출부(120)는 관리자에 의해 안전 장비의 착용 여부를 판단할 각 신체 부위를 설정받을 수 있다. 예를 들어, 관리자는 총 7개의 신체 부위 중 얼굴 위, 얼굴 아래, 오른쪽 아랫다리, 왼쪽 아랫다리에 대해 신체 부위 검출을 온(on)으로 설정하고, 몸통, 오른손, 왼손에 대해 신체 부위 검출을 오프(off)로 설정할 수 있다. 이 때, 신체 부위 검출부(120)는 온(on)으로 설정된 신체 부위 영역이 검출되지 않은 경우, 다음 단계로 진행되지 않도록 할 수 있다. The body part detection unit 120 may be set by a manager to determine whether to wear safety equipment. For example, the administrator sets body part detection to on for the top, bottom, right lower leg, and left lower leg among a total of 7 body parts, and detects body parts for the torso, right hand, and left hand. It can be set to off. In this case, the body part detection unit 120 may prevent proceeding to the next step when the body part region set to on is not detected.

다시 도 1로 돌아와서, 안전 장비 영역 검출부(130)는 기학습된 제 2 딥러닝 모델에 기초하여 수신한 영상으로부터 복수의 안전 장비 영역을 검출할 수 있다. Returning to FIG. 1 again, the safety equipment area detection unit 130 may detect a plurality of safety equipment areas from the received image based on the previously learned second deep learning model.

여기서, 안전 장비는 예를 들어, 안전모, 안전 조끼, 마스크, 안전 장갑, 안전 장화 등을 포함할 수 있으며, 제 2 딥러닝 모델은 인스턴스 세그먼테이션(Instance Segmentation)을 통해 안전 장비 영역을 검출할 수 있도록 기학습될 수 있다. 여기서, 인스턴스 세그먼테이션이란, 같은 클래스이더라도 서로 다른 인스턴스들을 구분해주는 객체 검출 방법의 한 예를 의미한다. 예를 들어, 사이클 경기와 관련된 이미지를 딥러닝 모델을 이용하여 학습하는 경우, 종래의 시멘틱 세그먼테이션(Semantic Segmentation)은 사이클 경기와 관련된 이미지에서 자전거와 선수만을 구분하는 반면, 인스턴스 세그먼테이션은 선수1, 선수2, 선수3,.., 자전거1, 자전거2, 자전거3, ...과 같이 동일한 클래스에 대해 서로 다른 인스턴스들을 구분하여 객체를 검출할 수 있다. 만약, 안전 장비의 종류가 추가될 경우, 제 2 딥러닝 모델은 추가될 안전 장비와 관련된 영상 데이터에 대해 추가 학습을 수행할 수 있다. Here, the safety equipment may include, for example, a hard hat, a safety vest, a mask, safety gloves, and safety boots, and the second deep learning model is used to detect a safety equipment area through instance segmentation. Can be pre-learned. Here, instance segmentation refers to an example of an object detection method that distinguishes different instances of the same class. For example, when an image related to a cycling race is learned using a deep learning model, the conventional semantic segmentation distinguishes only the bicycle and the athlete from the image related to the cycling race, whereas the instance segmentation is the athlete 1 and the athlete. Objects can be detected by classifying different instances for the same class, such as 2, player 3,..., bike 1, bike 2, bike 3, .... If the type of safety equipment is added, the second deep learning model may perform additional learning on image data related to the safety equipment to be added.

안전 장비 영역 검출부(130)는 안전 장비에 해당하는 객체를 픽셀 단위로 분류한 안전 장비 식별 영역과 안전 장비 식별 영역을 둘러싼 사각형 영역을 안전 장비 후보 영역으로 검출할 수 있다. The safety equipment area detection unit 130 may detect a safety equipment identification area in which an object corresponding to the safety equipment is classified in pixel units and a rectangular area surrounding the safety equipment identification area as a safety equipment candidate area.

이러한 안전 장비 영역 검출부(130)는 관리자에 의해 안전 장비 착용 여부를 판단할 안전 장비를 설정 받을 수 있다. 예를 들어, 관리자는 안전모, 안전 장갑, 안전 장화에 대해 안전 장비 착용 여부를 온(on)으로 설정하고, 조끼, 마스크에 대해 안전 장비 착용 여부를 오프(off)로 설정할 수 있다. The safety equipment area detection unit 130 may be set by a manager to determine whether to wear safety equipment. For example, the manager may set whether to wear safety equipment for hard hats, safety gloves, and safety boots to on, and set whether to wear safety equipment for vests and masks to off.

여기서, 기학습된 제 2 딥러닝 모델에 대해서는 도 4를 통해 상세히 설명하도록 한다. Here, the pre-learned second deep learning model will be described in detail with reference to FIG. 4.

도 4는 본 발명의 일 실시예에 따른 제 2 딥러닝 모델을 도시한 예시적인 도면이다. 도 4를 참조하면, 기학습된 제 2 딥러닝 모델(410, 420)은 영상 수신부(110)에서 카메라로부터 수신한 영상을 입력(400)으로 하고, 사각형 영역의 복수의 안전 장비 후보 영역(411, 412)을 출력으로 하는 제 1 서브 딥러닝 모델(410) 및 해당 사각형 영역에서 안전 장비를 픽셀 별로 분류하는 제 2 서브 딥러닝 모델(420)을 포함할 수 있다. 4 is an exemplary diagram showing a second deep learning model according to an embodiment of the present invention. Referring to FIG. 4, the second deep learning models 410 and 420 that have been previously learned are input 400 as an image received from a camera in the image receiving unit 110, and a plurality of safety equipment candidate areas 411 in a rectangular area. , A first sub deep learning model 410 outputting 412 and a second sub deep learning model 420 classifying safety equipment for each pixel in a corresponding rectangular area.

기학습된 제 2 딥러닝 모델(410, 420)은 복수의 안전 장비 후보 영역(411, 412) 각각에 대한 영상을 입력으로 하고 적어도 하나의 안전 장비 식별 영역(430)을 출력할 수 있다. 여기서, 기학습된 제 2 딥러닝 모델(410, 420)은 제 1 서브 딥러닝 모델(410)을 이용하여 복수의 안전 장비들의 후보 영역(411, 412)을 확인하고, 제 2 서브 딥러닝 모델(420)을 이용하여 후보 영역(411, 412)에 대해 해당 안전 장비의 픽셀별 분류를 통해 안전 장비 식별 영역(430)을 검출하여 출력할 수 있다. The pre-learned second deep learning models 410 and 420 may input an image of each of the plurality of safety equipment candidate regions 411 and 412 and output at least one safety equipment identification region 430. Here, the pre-learned second deep learning models 410 and 420 identify candidate areas 411 and 412 of a plurality of safety devices using the first sub deep learning model 410, and the second sub deep learning model Using 420, the safety equipment identification region 430 may be detected and output through the classification of the corresponding safety equipment for each pixel of the candidate regions 411 and 412.

다시 도 1로 돌아와서, 판단부(140)는 검출된 복수의 신체 부위 및 복수의 안전 장비 영역에 기초하여 작업자에 대한 안전 장비의 착용 여부를 판단할 수 있다. 여기서, 안전 장비의 착용 여부를 판단하는 과정에 대해서는 도 5를 통해 상세히 설명하도록 한다. Returning to FIG. 1 again, the determination unit 140 may determine whether to wear safety equipment for an operator based on the detected plurality of body parts and a plurality of safety equipment areas. Here, a process of determining whether the safety equipment is worn will be described in detail with reference to FIG. 5.

도 5는 본 발명의 일 실시예에 따른 신체 부위 및 안전 장비 영역에 기초하여 작업자에 대한 안전 장비의 착용 여부를 판단하는 과정을 설명하기 위한 예시적인 도면이다. FIG. 5 is an exemplary diagram for explaining a process of determining whether a worker wears safety equipment based on a body part and a safety equipment area according to an embodiment of the present invention.

도 5를 참조하면, 판단부(140)는 복수의 신체 부위 및 복수의 안전 장비 영역에 기초하여 작업자에 대한 안전 장비의 착용 여부를 판단할 수 있다.Referring to FIG. 5, the determination unit 140 may determine whether to wear safety equipment for a worker based on a plurality of body parts and a plurality of safety equipment areas.

판단부(140)는 중복 영역 검출부(141) 및 산출부(142)를 더 포함할 수 있다. The determination unit 140 may further include an overlap area detection unit 141 and a calculation unit 142.

중복 영역 검출부(141)는 복수의 신체 부위 및 복수의 안전 장비 영역 간의 적어도 하나의 중복 영역을 검출할 수 있다. The overlapping area detection unit 141 may detect at least one overlapping area between a plurality of body parts and a plurality of safety equipment areas.

예를 들어, 중복 영역 검출부(141)는 얼굴 위 영역(500)과 안전모 검출 영역(501), 얼굴 아래 영역(510)과 마스크 검출 영역(511), 몸통 영역(520)과 안전조끼 검출 영역(521), 오른손 영역(530)과 안전장갑 검출 영역, 왼손 영역(540)과 안전장갑 검출 영역, 오른쪽 아랫다리 영역(550)과 안전장화 검출 영역(551), 왼쪽 아랫다리 영역(560)과 안전장화 검출 영역(561) 간의 중복 영역을 검출할 수 있다. For example, the overlapping area detection unit 141 includes an area above the face 500 and a hard hat detection area 501, an area under the face 510 and a mask detection area 511, a body area 520, and a safety vest detection area ( 521), right hand area 530 and safety gloves detection area, left hand area 540 and safety gloves detection area, right lower leg area 550 and safety boots detection area 551, left lower leg area 560 and safety An overlapping area between the boots detection areas 561 may be detected.

이 때, 안전 장비 영역 중 안전장갑 검출 영역은 오른손 영역과 왼손 영역을 따로 구분하지 않으며, 안전장화 검출 영역(561)도 오른쪽 아랫다리 영역과 왼쪽 아랫다리 영역을 따로 구분하지 않는다. In this case, the safety glove detection area of the safety equipment area does not separate the right-hand area and the left-hand area, and the safety boots detection area 561 does not separate the right lower leg area and the left lower leg area.

예를 들어, 중복 영역 검출부(141)는 얼굴 위 영역(500)과 안전모 검출 영역(501)을 통해 안전모 식별 영역(570)을 검출하고, 얼굴 아래 영역(510)과 마스크 검출 영역(511)을 통해 마스크 식별 영역(571)을 검출하고, 몸통 영역(520)과 안전조끼 검출 영역(521)을 통해 안전조끼 식별 영역(572)을 검출하고, 오른쪽 아랫다리 영역(550)과 안전장화 검출 영역(551)을 통해 오른쪽 아랫다리 안전장화 식별 영역(573)를 검출하고, 왼쪽 아랫다리 영역(560)과 안전장화 검출 영역(561)을 통해 왼쪽 아랫다리 안전장화 식별 영역(574)를 검출할 수 있다.For example, the overlapping area detection unit 141 detects the hard hat identification area 570 through the upper face area 500 and the hard hat detection area 501, and identifies the area under the face 510 and the mask detection area 511. The mask identification area 571 is detected through the body area 520 and the safety vest detection area 521, the safety vest identification area 572 is detected, and the right lower leg area 550 and the safety boots detection area ( The right lower leg safety boots identification area 573 may be detected through 551, and the left lower leg safety boots identification area 574 may be detected through the left lower leg area 560 and the safety boots detection area 561. .

산출부(142)는 검출된 적어도 하나의 중복 영역에 포함된 적어도 하나의 안전 장비 식별 영역 및 중복 영역 중 안전 장비 식별 영역의 넓이에 기초하여 안전 장비의 착용 여부에 대한 판단값을 산출할 수 있다. 산출부(142)는 다음의 수학식 1을 이용하여 판단값을 산출할 수 있다. 여기서, 중복 영역 중 안전 장비 식별 영역의 넓이는 중복 영역의 픽셀 수에 기초하여 도출될 수 있다. The calculation unit 142 may calculate a determination value for whether the safety equipment is worn based on at least one safety equipment identification area included in the detected at least one overlapping area and a width of the safety equipment identification area among the overlapping areas. . The calculation unit 142 may calculate a determination value using Equation 1 below. Here, the area of the safety equipment identification area among the overlapping areas may be derived based on the number of pixels in the overlapping area.

Figure pat00001
Figure pat00001

판단부(140)는 산출된 판단값이 기설정된 임계값 이상인지 여부에 기초하여 안전 장비의 착용 여부를 판단할 수 있다. 예를 들어, 기설정된 임계값이 0.5로 설정되었다고 가정하자. 얼굴 위 영역과 안전모 검출 영역 간에 산출된 판단값이 0.8인 경우, 판단부(140)는 작업자가 안전모를 착용한 것으로 판단할 수 있다. 다른 예를 들어, 몸통 영역과 안전 조끼 검출 영역 간에 산출된 판단값이 0.4인 경우, 판단부(140)는 작업자가 안전조끼를 미착용한 것으로 판단할 수 있다. 또 다른 예를 들어, 안전 장비 영역 검출부(130)에서 검출된 안전 장비 영역이 존재하지 않은 경우, 판단부(140)는 작업자가 어떤 안전 장비도 착용하지 않은 것으로 판단할 수 있다. The determination unit 140 may determine whether to wear safety equipment based on whether the calculated determination value is equal to or greater than a preset threshold value. For example, assume that the preset threshold is set to 0.5. When the determination value calculated between the area on the face and the hard hat detection area is 0.8, the determination unit 140 may determine that the worker is wearing a hard hat. For another example, when the determination value calculated between the body region and the safety vest detection region is 0.4, the determination unit 140 may determine that the worker has not worn the safety vest. For another example, when the safety equipment area detected by the safety equipment area detection unit 130 does not exist, the determination unit 140 may determine that the worker does not wear any safety equipment.

제어부(150)는 판단된 안전 장비의 착용 여부에 기초하여 작업자가 작업 현장에 출입할 수 있도록 작업 현장 출입 시스템을 제어할 수 있다. 예를 들어, 제어부(150)는 관리자에 의해 설정된 안전 장비를 작업자가 모두 착용한 경우, 작업자가 작업 현장에 출입할 수 있도록 작업 현장 출입 시스템을 제어할 수 있다. 다른 예를 들어, 제어부(150)는 관리자에 의해 설정된 안전 장비 중 어느 하나라도 작업자가 미착용한 경우, 작업자가 작업 현장에 출입할 수 없도록 작업 현장 출입 시스템을 제어할 수 있다. The control unit 150 may control a work site access system so that a worker can access the work site based on whether or not the determined safety equipment is worn. For example, the controller 150 may control the work site access system so that the operator can access the work site when all the safety equipment set by the manager is worn by the operator. For another example, the control unit 150 may control the work site access system so that the operator cannot enter the work site if any of the safety equipment set by the manager is not worn by the operator.

이러한 안전 장비 착용 여부 판단 장치(100)는 안전 장비의 착용 여부를 판단하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램에 의해 실행될 수 있다. 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 카메라로부터 작업자를 촬영한 영상을 수신하고, 기학습된 제 1 딥러닝 모델에 기초하여 수신한 영상으로부터 복수의 신체 부위를 검출하고, 기학습된 제 2 딥러닝 모델에 기초하여 수신한 영상으로부터 복수의 안전 장비 영역을 검출하고, 검출된 복수의 신체 부위 및 복수의 안전 장비 영역에 기초하여 작업자에 대한 안전 장비의 착용 여부를 판단하도록 하는 명령어들의 시퀀스를 포함할 수 있다. The apparatus 100 for determining whether the safety equipment is worn may be executed by a computer program stored in a medium including a sequence of instructions for determining whether the safety equipment is worn. When the computer program is executed by a computing device, it receives an image of a worker from a camera, detects a plurality of body parts from the received image based on a pre-learned first deep learning model, and a pre-learned second deep learning model. Includes a sequence of commands that detects a plurality of safety equipment areas from the received image based on the running model, and determines whether or not the worker is wearing safety equipment based on the detected plurality of body parts and the plurality of safety equipment areas can do.

도 6은 본 발명의 일 실시예에 따른 안전 장비 착용 여부 판단 장치에서 안전 장비의 착용 여부를 판단하는 방법의 순서도이다. 도 6에 도시된 안전 장비 착용 여부 판단 장치(100)에서 안전 장비의 착용 여부를 판단하는 방법은 도 1 내지 도 5에 도시된 실시예에 따라 안전 장비 착용 여부 판단 장치(100)에 의해 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 5에 도시된 실시예에 따른 안전 장비 착용 여부 판단 장치(100)에서 안전 장비의 착용 여부를 판단하는 방법에도 적용된다. 6 is a flowchart of a method of determining whether to wear safety equipment in the apparatus for determining whether to wear safety equipment according to an embodiment of the present invention. The method of determining whether the safety equipment is worn in the apparatus 100 for determining whether to wear the safety equipment shown in FIG. 6 is time-series by the apparatus 100 for determining whether to wear the safety equipment according to the embodiments shown in FIGS. 1 to 5. It includes steps that are processed as. Therefore, even if omitted below, the method of determining whether the safety equipment is worn by the apparatus 100 for determining whether to wear the safety equipment according to the embodiment illustrated in FIGS. 1 to 5 is also applied.

단계 S610에서 안전 장비 착용 여부 판단 장치(100)는 카메라로부터 작업자를 촬영한 영상을 수신할 수 있다. In step S610, the apparatus 100 for determining whether to wear safety equipment may receive an image of a worker from a camera.

단계 S620에서 안전 장비 착용 여부 판단 장치(100)는 기학습된 제 1 딥러닝 모델에 기초하여 수신한 영상으로부터 복수의 신체 부위를 검출할 수 있다. In operation S620, the apparatus 100 for determining whether to wear safety equipment may detect a plurality of body parts from the received image based on the previously learned first deep learning model.

단계 S630에서 안전 장비 착용 여부 판단 장치(100)는 기학습된 제 2 딥러닝 모델에 기초하여 수신한 영상으로부터 복수의 안전 장비 영역을 검출할 수 있다. In operation S630, the apparatus 100 for determining whether to wear safety equipment may detect a plurality of safety equipment areas from the received image based on the previously learned second deep learning model.

단계 S640에서 안전 장비 착용 여부 판단 장치(100)는 검출된 복수의 신체부위 및 복수의 안전 장비 영역에 기초하여 작업자에 대한 안전 장비의 착용 여부를 판단할 수 있다. In operation S640, the apparatus 100 for determining whether to wear safety equipment may determine whether to wear safety equipment for an operator based on the detected plurality of body parts and a plurality of safety equipment areas.

상술한 설명에서, 단계 S610 내지 S640은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S610 to S640 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, or the order of steps may be switched.

도 1 내지 도 6을 통해 설명된 안전 장비 착용 여부 판단 장치에서 안전 장비의 착용 여부를 판단하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 또한, 도 1 내지 도 6을 통해 설명된 안전 장비 착용 여부 판단 장치에서 안전 장비의 착용 여부를 판단하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램의 형태로도 구현될 수 있다. A method of determining whether to wear safety equipment in the apparatus for determining whether to wear safety equipment described with reference to FIGS. 1 to 6 is a form of a recording medium including a computer program stored in a medium executed by a computer or instructions executable by a computer. It can also be implemented as In addition, the method of determining whether to wear safety equipment in the apparatus for determining whether to wear safety equipment described through FIGS. 1 to 6 may be implemented in the form of a computer program stored in a medium executed by a computer.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include a computer storage medium. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention do.

100: 안전 장비 착용 여부 판단 장치
110: 영상 수신부
120: 신체 부위 검출부
130: 안전 장비 영역 검출부
140: 판단부
141: 중복 영역 검출부
142: 산출부
150: 제어부
100: device for determining whether to wear safety equipment
110: image receiving unit
120: body part detection unit
130: safety equipment area detection unit
140: judgment unit
141: overlap area detection unit
142: calculation unit
150: control unit

Claims (19)

안전 장비의 착용 여부를 판단하는 장치에 있어서,
카메라로부터 작업자를 촬영한 영상을 수신하는 영상 수신부;
기학습된 제 1 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 신체 부위를 검출하는 신체 부위 검출부;
기학습된 제 2 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 안전 장비 영역을 검출하는 안전 장비 영역 검출부; 및
상기 검출된 복수의 신체 부위 및 상기 복수의 안전 장비 영역에 기초하여 상기 작업자에 대한 상기 안전 장비의 착용 여부를 판단하는 판단부를 포함하는, 안전 장비 착용 여부 판단 장치.
In the device for determining whether to wear safety equipment,
An image receiving unit for receiving an image of a worker from a camera;
A body part detection unit that detects a plurality of body parts from the received image based on a pre-learned first deep learning model;
A safety equipment area detection unit that detects a plurality of safety equipment areas from the received image based on a pre-learned second deep learning model; And
A device for determining whether to wear safety equipment, including a determination unit that determines whether or not to wear the safety equipment for the worker based on the detected plurality of body parts and the plurality of safety equipment areas.
제 1 항에 있어서,
상기 기학습된 제 1 딥러닝 모델은 상기 수신한 영상을 입력으로 하고 상기 복수의 신체 부위 중 적어도 하나의 키포인트 및 상기 적어도 하나의 키포인트 간의 연결선을 출력으로 하는 것인, 안전 장비 착용 여부 판단 장치.
The method of claim 1,
The pre-learned first deep learning model inputs the received image and outputs at least one key point among the plurality of body parts and a connection line between the at least one key point.
제 2 항에 있어서,
상기 신체 부위 검출부는 상기 검출된 적어도 하나의 키포인트 및 상기 적어도 하나의 키포인트 간의 연결선에 기초하여 상기 신체 부위를 검출하는 것인, 안전 장비 착용 여부 판단 장치.
The method of claim 2,
The body part detection unit detects the body part based on the detected at least one key point and a connection line between the at least one key point.
제 1 항에 있어서,
상기 기학습된 제 2 딥러닝 모델은 상기 수신한 영상을 입력으로 하고 복수의 안전 장비 후보 영역을 출력으로 하는 제 1 서브 딥러닝 모델 및 상기 출력된 복수의 안전 장비 후보 영역을 픽셀 별로 분류하는 제 2 서브 딥러닝 모델을 포함하는 것인, 안전 장비 착용 여부 판단 장치.
The method of claim 1,
The pre-learned second deep learning model includes a first sub deep learning model that receives the received image as an input and outputs a plurality of safety equipment candidate regions, and a first sub-deep learning model that classifies the outputted plurality of safety equipment candidate regions for each pixel. A device for determining whether to wear safety equipment, including a 2 sub deep learning model.
제 4 항에 있어서,
상기 기학습된 제 2 딥러닝 모델은 상기 복수의 안전 장비 후보영역 각각에 대한 영상을 입력으로 하고 적어도 하나의 안전 장비 식별 영역을 출력하는 것인, 안전 장비 착용 여부 판단 장치.
The method of claim 4,
The pre-learned second deep learning model inputs an image for each of the plurality of safety equipment candidate regions and outputs at least one safety equipment identification region.
제 5 항에 있어서,
상기 판단부는 상기 복수의 신체 부위 및 상기 복수의 안전 장비 후보 영역 간의 적어도 하나의 중복 영역을 검출하는 중복 영역 검출부를 더 포함하는 것인, 안전 장비 착용 여부 판단 장치.
The method of claim 5,
The determining unit further comprises an overlapping area detection unit detecting at least one overlapping area between the plurality of body parts and the plurality of safety equipment candidate areas.
제 6 항에 있어서,
상기 판단부는 상기 검출된 적어도 하나의 중복 영역에 포함된 상기 적어도 하나의 안전 장비 식별 영역 및 상기 중복 영역의 픽셀 수에 기초하여 상기 안전 장비의 착용 여부에 대한 판단값을 산출하는 산출부를 더 포함하는 것인, 안전 장비 착용 여부 판단 장치.
The method of claim 6,
The determination unit further comprises a calculator configured to calculate a determination value for whether the safety equipment is worn based on the at least one safety equipment identification region included in the detected at least one overlapping region and the number of pixels in the overlapping region. The device for determining whether to wear safety equipment.
제 7 항에 있어서,
상기 판단부는 상기 산출된 판단값이 기설정된 임계값 이상인지 여부에 기초하여 상기 안전 장비의 착용 여부를 판단하는 것인, 안전 장비 착용 여부 판단 장치.
The method of claim 7,
The determining unit is to determine whether the safety equipment is worn based on whether the calculated determination value is equal to or greater than a preset threshold value.
제 8 항에 있어서,
상기 판단된 상기 안전 장비의 착용 여부에 기초하여 상기 작업자가 작업 현장에 출입할 수 있도록 작업 현장 출입 시스템을 제어하는 제어부를 더 포함하는, 안전 장비 착용 여부 판단 장치.
The method of claim 8,
A device for determining whether to wear safety equipment, further comprising a control unit for controlling a work site access system so that the worker can access the work site based on whether or not the safety equipment is worn.
안전 장비 착용 여부 판단 장치에서 안전 장비의 착용 여부를 판단하는 방법에 있어서,
카메라로부터 작업자를 촬영한 영상을 수신하는 단계;
기학습된 제 1 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 신체 부위를 검출하는 단계;
기학습된 제 2 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 안전 장비 영역을 검출하는 단계; 및
상기 검출된 복수의 신체 부위 및 상기 복수의 안전 장비 영역에 기초하여 상기 작업자에 대한 상기 안전 장비의 착용 여부를 판단하는 단계를 포함하는, 안전 장비 착용 여부 판단 방법.
In a method of determining whether to wear safety equipment in a device for determining whether to wear safety equipment,
Receiving an image of a worker from a camera;
Detecting a plurality of body parts from the received image based on a pre-learned first deep learning model;
Detecting a plurality of safety equipment areas from the received image based on a pre-learned second deep learning model; And
And determining whether to wear the safety equipment for the worker based on the detected plurality of body parts and the plurality of safety equipment areas.
제 10 항에 있어서,
상기 기학습된 제 1 딥러닝 모델은 상기 수신한 영상을 입력으로 하고 상기 복수의 신체 부위 중 적어도 하나의 키포인트 및 상기 적어도 하나의 키포인트 간의 연결선을 출력으로 하는 것인, 안전 장비 착용 여부 판단 방법.
The method of claim 10,
The pre-learned first deep learning model inputs the received image and outputs at least one key point among the plurality of body parts and a connection line between the at least one key point.
제 11 항에 있어서,
상기 신체 부위를 검출하는 단계는,
상기 검출된 적어도 하나의 키포인트 및 상기 적어도 하나의 키포인트 간의 연결선에 기초하여 상기 신체 부위를 검출하는 단계를 포함하는 것인, 안전 장비 착용 여부 판단 방법.
The method of claim 11,
The step of detecting the body part,
And detecting the body part based on the detected at least one key point and a connection line between the at least one key point.
제 10 항에 있어서,
상기 기학습된 제 2 딥러닝 모델은 상기 수신한 영상을 입력으로 하고 복수의 안전 장비 후보 영역을 출력으로 하는 제 1 서브 딥러닝 모델 및 상기 출력된 복수의 안전 장비 후보 영역을 픽셀 별로 분류하는 제 2 서브 딥러닝 모델을 포함하는 것인, 안전 장비 착용 여부 판단 방법.
The method of claim 10,
The pre-learned second deep learning model includes a first sub deep learning model that receives the received image as an input and outputs a plurality of safety equipment candidate regions, and a first sub-deep learning model that classifies the outputted plurality of safety equipment candidate regions for each pixel. 2 A method of determining whether to wear safety equipment, including a sub deep learning model.
제 13 항에 있어서,
상기 기학습된 제 2 딥러닝 모델은 상기 복수의 안전 장비 후보 영역 각각에 대한 영상을 입력으로 하고 적어도 하나의 안전 장비 식별 영역을 출력하는 것인, 안전 장비 착용 여부 판단 방법.
The method of claim 13,
The pre-learned second deep learning model inputs an image for each of the plurality of safety equipment candidate regions and outputs at least one safety equipment identification region.
제 14 항에 있어서,
상기 안전 장비의 착용 여부를 판단하는 단계는,
상기 복수의 신체 부위 및 상기 복수의 안전 장비 후보 영역 간의 적어도 하나의 중복 영역을 검출하는 단계를 포함하는 것인, 안전 장비 착용 여부 판단 방법.
The method of claim 14,
The step of determining whether the safety equipment is worn,
And detecting at least one overlapping area between the plurality of body parts and the plurality of safety equipment candidate areas.
제 15 항에 있어서,
상기 안전 장비의 착용 여부를 판단하는 단계는,
상기 검출된 적어도 하나의 중복 영역에 포함된 상기 적어도 하나의 안전 장비 식별 영역 및 상기 중복 영역의 픽셀 수에 기초하여 상기 안전 장비의 착용 여부에 대한 판단값을 산출하는 단계를 포함하는 것인, 안전 장비 착용 여부 판단 방법.
The method of claim 15,
The step of determining whether the safety equipment is worn,
Comprising the step of calculating a determination value for whether the safety equipment is worn based on the at least one safety equipment identification area included in the detected at least one overlapping area and the number of pixels in the overlapping area How to determine if the equipment is worn.
제 16 항에 있어서,
상기 안전 장비의 착용 여부를 판단하는 단계는,
상기 산출된 판단값이 기설정된 임계값 이상인지 여부에 기초하여 상기 안전 장비의 착용 여부를 판단하는 단계를 포함하는 것인, 안전 장비 착용 여부 판단 방법.
The method of claim 16,
The step of determining whether the safety equipment is worn,
And determining whether to wear the safety equipment based on whether the calculated determination value is equal to or greater than a preset threshold.
제 17 항에 있어서,
상기 판단된 상기 안전 장비의 착용 여부에 기초하여 상기 작업자가 작업 현장에 출입할 수 있도록 작업 현장 출입 시스템을 제어하는 단계를 더 포함하는, 안전 장비 착용 여부 판단 방법.
The method of claim 17,
The method of determining whether to wear safety equipment further comprising the step of controlling a work site access system so that the worker can access the work site based on whether the safety equipment is worn.
안전 장비의 착용 여부를 판단하는 명령어들의 시퀀스를 포함하는 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램에 있어서,
상기 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우,
카메라로부터 작업자를 촬영한 영상을 수신하고,
기학습된 제 1 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 신체 부위를 검출하고,
기학습된 제 2 딥러닝 모델에 기초하여 상기 수신한 영상으로부터 복수의 안전 장비 영역을 검출하고,
상기 검출된 복수의 신체 부위 및 상기 복수의 안전 장비 영역에 기초하여 상기 작업자에 대한 상기 안전 장비의 착용 여부를 판단하도록 하는 명령어들의 시퀀스를 포함하는, 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable medium comprising a sequence of instructions for determining whether to wear safety equipment,
When the computer program is executed by a computing device,
Receive an image of the operator from the camera,
Detecting a plurality of body parts from the received image based on the pre-learned first deep learning model,
Detecting a plurality of safety equipment areas from the received image based on the pre-learned second deep learning model,
A computer program stored in a medium comprising a sequence of instructions for determining whether to wear the safety equipment for the worker based on the detected plurality of body parts and the plurality of safety equipment areas.
KR1020190082694A 2019-07-09 2019-07-09 Apparatus, method and computer program for determining whether safety equipment is worn KR20210006722A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190082694A KR20210006722A (en) 2019-07-09 2019-07-09 Apparatus, method and computer program for determining whether safety equipment is worn

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190082694A KR20210006722A (en) 2019-07-09 2019-07-09 Apparatus, method and computer program for determining whether safety equipment is worn

Publications (1)

Publication Number Publication Date
KR20210006722A true KR20210006722A (en) 2021-01-19

Family

ID=74237333

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190082694A KR20210006722A (en) 2019-07-09 2019-07-09 Apparatus, method and computer program for determining whether safety equipment is worn

Country Status (1)

Country Link
KR (1) KR20210006722A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114627425A (en) * 2021-06-11 2022-06-14 珠海路讯科技有限公司 Method for detecting whether worker wears safety helmet or not based on deep learning
KR20220138162A (en) * 2021-04-05 2022-10-12 주식회사 에스에프테크놀로지 Safety tracking and management device and method for radioactivity measurement targets through edge-based AI platform module
KR102502350B1 (en) * 2022-05-16 2023-02-23 주식회사 엠디에이 Consutruction site safety management equipment inspection system using smart mirror
CN116229570A (en) * 2023-02-21 2023-06-06 四川轻化工大学 Aloft work personnel behavior situation identification method based on machine vision

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220138162A (en) * 2021-04-05 2022-10-12 주식회사 에스에프테크놀로지 Safety tracking and management device and method for radioactivity measurement targets through edge-based AI platform module
CN114627425A (en) * 2021-06-11 2022-06-14 珠海路讯科技有限公司 Method for detecting whether worker wears safety helmet or not based on deep learning
KR102502350B1 (en) * 2022-05-16 2023-02-23 주식회사 엠디에이 Consutruction site safety management equipment inspection system using smart mirror
CN116229570A (en) * 2023-02-21 2023-06-06 四川轻化工大学 Aloft work personnel behavior situation identification method based on machine vision
CN116229570B (en) * 2023-02-21 2024-01-23 四川轻化工大学 Aloft work personnel behavior situation identification method based on machine vision

Similar Documents

Publication Publication Date Title
KR20210006722A (en) Apparatus, method and computer program for determining whether safety equipment is worn
Ahmed et al. Vision based hand gesture recognition using dynamic time warping for Indian sign language
US20190188489A1 (en) Image processing device, image processing method and program recording medium
CN108182396B (en) Method and device for automatically identifying photographing behavior
Chaudhari et al. Yog-guru: Real-time yoga pose correction system using deep learning methods
CN109523551B (en) Method and system for acquiring walking posture of robot
CN111753747B (en) Violent motion detection method based on monocular camera and three-dimensional attitude estimation
Chen et al. Obstacle detection system for visually impaired people based on stereo vision
CN114937232B (en) Wearing detection method, system and equipment for medical waste treatment personnel protective appliance
CN111639602B (en) Pedestrian shielding and orientation detection method
US20220292714A1 (en) Method and system for monocular depth estimation of persons
Ghilardi et al. A new approach for automatic detection of tactile paving surfaces in sidewalks
CN111222379A (en) Hand detection method and device
Raheja et al. Hand gesture pointing location detection
CN112069988A (en) Gun-ball linkage-based driver safe driving behavior detection method
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
CN114022845A (en) Real-time detection method and computer readable medium for electrician insulating gloves
US11361589B2 (en) Image recognition method, apparatus, and storage medium
US11527090B2 (en) Information processing apparatus, control method, and non-transitory storage medium
CN112101260B (en) Method, device, equipment and storage medium for identifying safety belt of operator
CN116129473B (en) Identity-guide-based combined learning clothing changing pedestrian re-identification method and system
CN114639168B (en) Method and system for recognizing running gesture
JP6467994B2 (en) Image processing program, image processing apparatus, and image processing method
KR101156547B1 (en) Searching method of face and hands using rgb color image and depth image
CN103026383A (en) Detection device and detection method

Legal Events

Date Code Title Description
A201 Request for examination