KR102622907B1 - Method for object recognition of constrction sites and apparatus using the same - Google Patents

Method for object recognition of constrction sites and apparatus using the same Download PDF

Info

Publication number
KR102622907B1
KR102622907B1 KR1020230094864A KR20230094864A KR102622907B1 KR 102622907 B1 KR102622907 B1 KR 102622907B1 KR 1020230094864 A KR1020230094864 A KR 1020230094864A KR 20230094864 A KR20230094864 A KR 20230094864A KR 102622907 B1 KR102622907 B1 KR 102622907B1
Authority
KR
South Korea
Prior art keywords
object recognition
image data
data
construction site
safety
Prior art date
Application number
KR1020230094864A
Other languages
Korean (ko)
Inventor
박덕근
황규순
Original Assignee
위즈코어 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 위즈코어 주식회사 filed Critical 위즈코어 주식회사
Priority to KR1020230094864A priority Critical patent/KR102622907B1/en
Application granted granted Critical
Publication of KR102622907B1 publication Critical patent/KR102622907B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Emergency Management (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은, 건설 현장의 객체 인식 방법 및 이를 이용한 장치로서, 상기 방법은, 프로세서에 의해 구현되는 객체 인식 방법으로서, 관리자 기기로부터 이미지 데이터를 수신하는 단계, 사용자에 의해 선택된 제1 공정에 대한 공정 데이터를 수신하는 단계, 상기 이미지 데이터를 입력으로 하여 객체 데이터를 출력하도록 학습된 객체 인식 모델을 이용하여, 상기 제1 공정에 대한 객체 데이터를 결정하는 단계 및 상기 공정 데이터 및 상기 객체 데이터를 기초로 상기 이미지 데이터에 대한 객체 인식 예외 구역을 결정하는 단계를 포함하도록 구성된다. The present invention relates to an object recognition method at a construction site and an apparatus using the same, which includes the object recognition method implemented by a processor, comprising the steps of receiving image data from a manager device, and a process for a first process selected by the user. Receiving data, determining object data for the first process using an object recognition model learned to output object data using the image data as input, and based on the process data and the object data and determining an object recognition exception zone for the image data.

Description

건설 현장의 객체 인식 방법 및 이를 이용한 장치{METHOD FOR OBJECT RECOGNITION OF CONSTRCTION SITES AND APPARATUS USING THE SAME}Object recognition method at construction site and device using the same {METHOD FOR OBJECT RECOGNITION OF CONSTRCTION SITES AND APPARATUS USING THE SAME}

본 발명은 건설 현장의 객체 인식 방법 및 이를 이용한 장치에 관한 것이다. The present invention relates to an object recognition method at a construction site and a device using the same.

건설 현장에서는 다수의 CCTV를 현장에 배치하여, 근로자에 대한 안전을 점검할 수 있다. 이때, 근로자의 안전 감지 기술은 객체 검출, 인식, 추적, 알람 등을 포함할 수 있다. 여기서, 알람 기능은 근로자의 안전 조끼 미착용, 안전모 미착용 등의 안전 수칙을 위반하였을 때 제공될 수 있다.At construction sites, multiple CCTVs can be placed on site to check the safety of workers. At this time, worker safety detection technology may include object detection, recognition, tracking, alarm, etc. Here, the alarm function can be provided when workers violate safety rules, such as not wearing a safety vest or safety helmet.

하지만, 고정형 CCTV를 통해 수신된 2D 형태의 이미지 데이터는 근로자가 건물과 건물 사이에 존재할 경우, 사람으로 인식되지 않고, 다양한 형태의 형체와 계절에 따른 주변 잡음 이미지의 변화, 각도 및 거리에 따른 왜곡 등으로 오검출과 미검출이 발생되어 이미지 인식률이 떨어질 수 있다.However, 2D image data received through fixed CCTV is not recognized as a person when a worker is present between buildings, and is subject to various shapes, changes in surrounding noise depending on the season, and distortion depending on angle and distance. This may cause false detections and non-detection, resulting in a decrease in image recognition rate.

또한, 건설 현장의 경우 공사가 진행됨에 따라 지속적으로 현장이 변화하고, 현장에 따라 층고가 높거나 다양한 건설 기계를 활용할 수 있어서 객체 오검출이 발생하거나, 구조물 및 가설건물에 가려진 경우 미검출과 오검출이 발생될 수 있다. In addition, in the case of construction sites, the site changes continuously as construction progresses, and depending on the site, the floor height is high or various construction machines can be used, which can lead to misdetection of objects, or non-detection and errors if they are obscured by structures or temporary buildings. Detection may occur.

발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The technology behind the invention has been written to facilitate easier understanding of the invention. It should not be understood as an admission that matters described in the technology underlying the invention exist as prior art.

본 발명의 발명자들은 건설 현장의 이미지 데이터를 수신하고, 수신된 이미지 데이터에 대한 객체를 검출해서 근로자의 안전을 점검하는 시스템을 개발하기에 이르렀다.The inventors of the present invention have developed a system that receives image data from a construction site, detects objects in the received image data, and checks the safety of workers.

특히, 본 발명의 발명자들은 건설 현장의 이미지 데이터로부터 검출된 객체에 대한 오검출이 많이 발생되는 구역을 중요 구간 혹은 예외 구간으로 설정하고, 알람 발생을 제외하는 방법을 발명하기에 이르렀다.In particular, the inventors of the present invention have invented a method of setting areas in which many false detections of objects detected from image data of construction sites occur as critical sections or exception sections and excluding alarms.

이에, 본 발명의 해결하고자 하는 과제는, 건설 현장의 이미지 데이터를 수신하고, 제1 공정에 대한 공정 데이터를 수신하며, 객체 인식 모델을 통해 제1 공정에 대한 객체를 결정하고, 오검출이 자주 발생하는 구역을 예외 구역으로 설정하는 건설 현장의 객체 인식 방법을 제공하는 것이다.Accordingly, the problem to be solved by the present invention is to receive image data from a construction site, receive process data for the first process, determine the object for the first process through an object recognition model, and It provides an object recognition method at a construction site that sets the area where it occurs as an exception area.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 건설 현장의 객체 인식 방법이 제공된다. 상기 방법은, 관리자 기기로부터 이미지 데이터를 수신하는 단계, 사용자에 의해 선택된 제1 공정에 대한 공정 데이터를 수신하는 단계, 상기 이미지 데이터를 입력으로 하여 객체 데이터를 출력하도록 학습된 객체 인식 모델을 이용하여, 상기 제1 공정에 대한 객체 데이터를 결정하는 단계 및 상기 공정 데이터 및 상기 객체 데이터를 기초로 상기 이미지 데이터에 대한 객체 인식 예외 구역을 결정하는 단계를 포함하도록 구성된다.In order to solve the problems described above, an object recognition method at a construction site according to an embodiment of the present invention is provided. The method includes receiving image data from a manager device, receiving process data for a first process selected by a user, and using an object recognition model learned to output object data using the image data as input. , determining object data for the first process and determining an object recognition exception zone for the image data based on the process data and the object data.

본 발명의 다른 특징에 따르면, 상기 이미지 데이터의 적어도 하나의 구역에 대한 라벨링을 수행하는 단계를 더 포함할 수 있다.According to another feature of the present invention, the method may further include labeling at least one region of the image data.

본 발명의 또 다른 특징에 따르면, 상기 이미지 데이터에 대한 적어도 하나의 구역을 중요 구역으로 결정하는 단계를 더 포함할 수 있다.According to another feature of the present invention, the step of determining at least one area of the image data as an important area may be further included.

본 발명의 또 다른 특징에 따르면. 상기 이미지 데이터에 대한 객체 인식 예외 구역을 결정하는 단계는, 상기 이미지 데이터의 구역에 대한 객체 인식 모델의 오작동 횟수를 카운팅하는 단계, 상기 오작동 횟수가 임계값 이상일 때, 상기 이미지 데이터의 상기 구역을 객체 인식 예외 구역으로 결정하는 단계를 포함할 수 있다.According to another feature of the present invention. Determining an object recognition exception zone for the image data includes counting the number of malfunctions of the object recognition model for the zone of the image data, and when the number of malfunctions is greater than or equal to a threshold, the zone of the image data is classified as an object. It may include the step of determining a recognition exception zone.

본 발명의 또 다른 특징에 따르면, 상기 제1 공정은, 철근 조립, 도장 작업, 전기 설비 작업, 기계 설비 작업, 자재 인양 작업 및 옹벽 거푸집 조립 중 적어도 하나를 포함할 수 있다.According to another feature of the present invention, the first process may include at least one of rebar assembly, painting work, electrical equipment work, mechanical equipment work, material lifting work, and retaining wall form assembly.

본 발명의 또 다른 특징에 따르면, 상기 객체 데이터는, 상기 이미지 데이터로부터 식별된 근로자, 관리자, 안전모, 안전조끼, 굴삭기 또는 크레인을 포함하는 적어도 하나의 마스크(MASK)일 수 있다.According to another feature of the present invention, the object data may be at least one mask (MASK) including a worker, manager, hard hat, safety vest, excavator, or crane identified from the image data.

본 발명의 또 다른 특징에 따르면, 상기 이미지 데이터의 상기 근로자 또는 관리자에 대해 안전모 및 안전조끼 중 적어도 하나의 착용 여부를 결정하는 단계를 더 포함할 수 있다.According to another feature of the present invention, the method may further include determining whether the worker or manager of the image data is wearing at least one of a safety helmet and a safety vest.

본 발명의 또 다른 특징에 따르면, 상기 근로자 또는 상기 관리자가 상기 안전모 및 안전조끼를 착용하지 않은 경우, 상기 관리자 기기에 알람을 제공하는 단계를 더 포함할 수 있다. According to another feature of the present invention, if the worker or the manager does not wear the safety helmet and safety vest, the step of providing an alarm to the manager device may be further included.

본 발명의 또 다른 특징에 따르면, 상기 객체 인식 모델은, MASK R-CNN의 구조를 가질 수 있다.According to another feature of the present invention, the object recognition model may have a MASK R-CNN structure.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 건설 현장의 객체 인식 장치가 제공된다. 상기 장치는 통신부, 저장부, 및 상기 통신부 및 상기 저장부와 동작 가능하게 연결되는 프로세서를 포함하고, 상기 프로세서는, 관리자 기기로부터 이미지 데이터를 수신하고, 사용자에 의해 선택된 제1 공정에 대한 공정 데이터를 수신하고, 상기 이미지 데이터를 입력으로 하여 객체 데이터를 출력하도록 학습된 객체 인식 모델을 이용하여, 상기 제1 공정에 대한 객체 데이터를 결정하고, 상기 공정 데이터 및 상기 객체 데이터를 기초로 상기 이미지 데이터에 대한 객체 인식 예외 구역을 결정하도록 구성된다.In order to solve the problems described above, an object recognition device at a construction site according to an embodiment of the present invention is provided. The device includes a communication unit, a storage unit, and a processor operably connected to the communication unit and the storage unit, wherein the processor receives image data from a manager device and process data for a first process selected by the user. Receives, determines object data for the first process using an object recognition model learned to output object data using the image data as input, and generates the image data based on the process data and the object data. It is configured to determine the object recognition exception zone for.

본 발명의 다른 특징에 따르면, 상기 프로세서는, 상기 이미지 데이터의 적어도 하나의 구역에 대한 라벨링을 수행하도록 더 구성될 수 있다.According to another feature of the present invention, the processor may be further configured to perform labeling of at least one region of the image data.

본 발명의 다른 특징에 따르면, 상기 프로세서는, 상기 이미지 데이터에 대한 적어도 하나의 구역을 중요 구역으로 결정하도록 더 구성될 수 있다.According to another feature of the present invention, the processor may be further configured to determine at least one area for the image data as an important area.

본 발명의 다른 특징에 따르면, 상기 프로세서는, 상기 이미지 데이터의 구역에 대한 객체 인식 모델의 오작동 횟수를 카운팅하고, 상기 오작동 횟수가 임계값 이상일 때, 상기 이미지 데이터의 상기 구역을 객체 인식 예외 구역으로 결정하도록 더 구성될 수 있다.According to another feature of the present invention, the processor counts the number of malfunctions of the object recognition model for the region of the image data, and when the number of malfunctions is greater than or equal to a threshold, the region of the image data is designated as an object recognition exception region. It can be further configured to decide.

본 발명의 다른 특징에 따르면, 상기 제1 공정은, 철근 조립, 도장 작업, 전기 설비 작업, 기계 설비 작업, 자재 인양 작업 및 옹벽 거푸집 조립 중 적어도 하나를 포함할 수 있다.According to another feature of the present invention, the first process may include at least one of rebar assembly, painting work, electrical equipment work, mechanical equipment work, material lifting work, and retaining wall form assembly.

본 발명의 다른 특징에 따르면, 상기 객체 데이터는, 상기 이미지 데이터로부터 식별된 근로자, 관리자, 안전모, 안전조끼, 굴삭기 또는 크레인을 포함하는 적어도 하나의 마스크(MASK)일 수 있다.According to another feature of the present invention, the object data may be at least one mask (MASK) including a worker, manager, hard hat, safety vest, excavator, or crane identified from the image data.

본 발명의 다른 특징에 따르면, 상기 프로세서는, 상기 이미지 데이터의 상기 근로자 또는 관리자에 대해 안전모 및 안전조끼 중 적어도 하나의 착용 여부를 결정하도록 더 구성될 수 있다.According to another feature of the present invention, the processor may be further configured to determine whether the worker or manager of the image data is wearing at least one of a hard hat and a safety vest.

본 발명의 다른 특징에 따르면, 상기 근로자 또는 상기 관리자가 상기 안전모 및 안전조끼를 착용하지 않은 경우, 상기 관리자 기기에 알람을 제공하도록 더 구성될 수 있다.According to another feature of the present invention, if the worker or the manager does not wear the safety helmet and safety vest, it may be further configured to provide an alarm to the manager device.

본 발명의 다른 특징에 따르면, 상기 객체 인식 모델은, MASK R-CNN의 구조를 가질 수 있다.According to another feature of the present invention, the object recognition model may have a MASK R-CNN structure.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

본 발명은, 객체 인식 모델을 통해 이미지 데이터에 대한 객체를 인식함으로써, 근로자의 안전 수칙 위반 행위를 감지할 수 있으므로, 사고를 미연에 방지할 수 있다.The present invention can detect workers' violations of safety rules by recognizing objects in image data through an object recognition model, thereby preventing accidents in advance.

특히, 본 발명은 객체 데이터로부터 발생하는 알람이 발생되는 구역 중 오검출 및 미검출의 발생 빈도가 높은 구역을 객체 인식 예외 구역으로 설정함으로써, 오검출 및 미검출의 발생 빈도를 줄일 수 있으므로, 알람 제공에 대한 정확도를 향상시킬 수 있다.In particular, the present invention can reduce the frequency of false detections and non-detection by setting areas with a high frequency of misdetection and non-detection among areas where alarms generated from object data are generated as object recognition exception zones, thereby reducing the frequency of false detections and non-detection. The accuracy of provision can be improved.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.The effects according to the present invention are not limited to the details exemplified above, and further various effects are included within the present invention.

도 1은 본 발명의 실시예에 따른 건설 현장의 객체 인식 시스템 제공 장치를 이용한 건설 현장의 객체 인식 시스템의 개략도이다.
도 2는 본 발명의 일 실시예에 따른 관리자 기기의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 건설 현장의 객체 인식 서버의 구성을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 건설 현장의 객체 인식 방법의 순서도이다.
도 5 내지 도 9는 본 발명의 일 실시예에 따른 건설 현장의 객체 인식 방법의 예시도들이다.
1 is a schematic diagram of an object recognition system at a construction site using a device for providing an object recognition system at a construction site according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of a manager device according to an embodiment of the present invention.
Figure 3 is a block diagram showing the configuration of an object recognition server at a construction site according to an embodiment of the present invention.
Figure 4 is a flowchart of an object recognition method at a construction site according to an embodiment of the present invention.
5 to 9 are exemplary diagrams of an object recognition method at a construction site according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms, but the present embodiments only serve to ensure that the disclosure of the present invention is complete and are within the scope of common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, similar reference numbers may be used for similar components.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as “have,” “may have,” “includes,” or “may include” refer to the existence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” includes (1) at least one A, (2) at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 관리자 기기와 제2 관리자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 관리자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components. For example, a first manager device and a second manager device may represent different manager devices regardless of order or importance. For example, the first component may be renamed as the second component without departing from the scope of rights described in this document, and similarly, the second component may also be renamed as the first component.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as being “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is said to be “directly connected” or “directly connected” to another component (e.g., a second component), It may be understood that no other component (e.g., a third component) exists between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것 만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression “configured to” depends on the situation, for example, “suitable for,” “having the capacity to.” ," can be used interchangeably with "designed to," "adapted to," "made to," or "capable of." The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware. Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as generally understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, have an ideal or excessively formal meaning. It is not interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or fully combined or combined with each other, and as can be fully understood by those skilled in the art, various technical interconnections and operations are possible, and each embodiment may be implemented independently of each other. It may be possible to conduct them together due to a related relationship.

본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.For clarity of interpretation of this specification, terms used in this specification will be defined below.

도 1은 본 발명의 실시예에 따른 건설 현장의 객체 인식 장치를 이용한 건설 현장의 객체 인식 시스템의 개략도이다.1 is a schematic diagram of an object recognition system at a construction site using an object recognition device at a construction site according to an embodiment of the present invention.

도 1을 참조하면, 건설 현장의 객체 인식 시스템(1000)은 관리자 기기(100) 및 사용자 인터페이스 제공 서버(200)(이하, 건설 현장의 객체 인식 서버(200))를 포함한다. Referring to FIG. 1, the object recognition system 1000 at a construction site includes a manager device 100 and a user interface providing server 200 (hereinafter referred to as the object recognition server 200 at a construction site).

건설 현장의 객체 인식 시스템(1000)은 이미지 데이터 및 제1 공정에 대한 공정 데이터를 수신하고, 객체 인식 모델을 통해 수신된 제1 공정에 해당하는 이미지 데이터에 대한 객체 데이터를 제공할 수 있다. 이때, 건설 현장의 객체 인식 시스템(1000)은 객체 데이터에 대한 알람을 제공할 수 있다. 여기서. 건설 현장의 객체 인식 시스템(1000)은 객체 데이터에 대한 미검출 및 오검출로 인해 잘못된 알람의 빈도가 많은 구역을 객체 인식 예외 구역으로 설정할 수 있다. 한편, 건설 현장의 객체 인식 시스템(1000)은 건설 현장의 객체 인식 서버(200)에 이미지 데이터 및 공정 데이터를 전달하고, 이미지 데이터에 대한 객체 데이터 및 알람을 제공받는 관리자 기기(100) 및 수신된 이미지 데이터 및 공정 데이터를 기초로 객체 데이터 및 객체 데이터에 대한 알람을 제공하는 건설 현장의 객체 인식 서버(200)로 구성될 수 있다.The object recognition system 1000 at a construction site may receive image data and process data for the first process, and provide object data for the image data corresponding to the first process received through an object recognition model. At this time, the object recognition system 1000 at the construction site may provide an alarm for object data. here. The object recognition system 1000 at a construction site may set an area with a high frequency of false alarms due to non-detection and false detection of object data as an object recognition exception area. Meanwhile, the object recognition system 1000 at the construction site transmits image data and process data to the object recognition server 200 at the construction site, and the manager device 100 receives object data and alarms for the image data and the received It may be configured as an object recognition server 200 at a construction site that provides object data and alarms for the object data based on image data and process data.

이로 인해, 관리자는 객체 인식 모델을 통해 이미지 데이터에 대한 객체를 인식함으로써, 근로자의 안전 수칙 위반 행위를 감지할 수 있으므로, 사고를 미연에 방지할 수 있다. As a result, managers can detect workers' violations of safety rules by recognizing objects in image data through an object recognition model, thereby preventing accidents in advance.

구체적으로, 관리자 기기(100)는 건설 현장의 객체 인식 시스템을 요청하고, 결과값을 전달받는 디바이스일 수 있다. 이때, 관리자 기기(100)는 음성을 녹음 및 화면을 출력할 수 있는 전자 장치로서, 스마트폰, 태블릿 PC, PC, 노트북 등을 포함할 수 있다.Specifically, the manager device 100 may be a device that requests an object recognition system at a construction site and receives the result. At this time, the manager device 100 is an electronic device capable of recording voice and outputting a screen, and may include a smartphone, tablet PC, PC, laptop, etc.

도 2는 본 발명의 일 실시예에 따른 관리자 기기의 구성을 나타낸 블록도이다.Figure 2 is a block diagram showing the configuration of a manager device according to an embodiment of the present invention.

도 2를 참조하면, 관리자 기기(100)는 메모리 인터페이스(110), 하나 이상의 프로세서(120) 및 주변 인터페이스(130)를 포함할 수 있다. 관리자 기기(100) 내의 다양한 컴포넌트들은 하나 이상의 통신 버스 또는 신호 라인에 의해 연결될 수 있다.Referring to FIG. 2 , the manager device 100 may include a memory interface 110, one or more processors 120, and a peripheral interface 130. Various components within the manager device 100 may be connected by one or more communication buses or signal lines.

메모리 인터페이스(110)는 메모리(150)에 연결되어 프로세서(120)로 다양한 데이터를 전할 수 있다. 여기서, 메모리(150)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory interface 110 is connected to the memory 150 and can transmit various data to the processor 120. Here, the memory 150 is a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage, and cloud. , It may include at least one type of storage medium among the blockchain database.

다양한 실시예에서, 메모리(150)는 운영 체제(151), 통신 모듈(152), 그래픽 사용자 인터페이스 모듈(GUI)(153), 센서 처리 모듈(154), 전화 모듈(155) 및 애플리케이션 모듈(156) 중 적어도 하나 이상을 저장할 수 있다. 구체적으로, 운영 체제(151)는 기본 시스템 서비스를 처리하기 위한 명령어 및 하드웨어 작업들을 수행하기 위한 명령어를 포함할 수 있다. 통신 모듈(152)은 다른 하나 이상의 디바이스, 컴퓨터 및 서버 중 적어도 하나와 통신할 수 있다. 그래픽 사용자 인터페이스 모듈(GUI)(153)은 그래픽 사용자 인터페이스를 처리할 수 있다. 센서 처리 모듈(154)은 센서 관련 기능(예를 들어, 하나 이상의 마이크(192)를 이용하여 수신된 음성 입력을 처리함)을 처리할 수 있다. 전화 모듈(155)은 전화 관련 기능을 처리할 수 있다. 애플리케이션 모듈(156)은 사용자 애플리케이션의 다양한 기능들, 예컨대 전자 메시징, 웹 브라우징, 미디어 처리, 탐색, 이미징, 기타 프로세스 기능을 수행할 수 있다. 아울러, 관리자 기기(100)는 메모리(150)에 어느 한 종류의 서비스와 연관된 하나 이상의 소프트웨어 애플리케이션(156-1, 156-2)을 저장할 수 있다. 이때, 어플리케이션(156-1)은 관리자 기기(100)에 건설 현장의 객체 인식 시스템에 대한 정보를 제공할 수 있다. 여기서, 어플리케이션(156-1)은 관리자에게 이미지 데이터 입력 인터페이스 혹은 공정 데이터 입력 인터페이스를 제공할 수 있다. 또한, 어플리케이션(156-1)은 건설 현장의 객체 인식 서버(200)로부터 수신된 이미지 데이터에 매칭된 객체 데이터를 사용자에게 제공할 수 있다. In various embodiments, memory 150 includes operating system 151, communications module 152, graphical user interface module (GUI) 153, sensor processing module 154, telephony module 155, and application module 156. ) can be stored. Specifically, the operating system 151 may include instructions for processing basic system services and instructions for performing hardware tasks. The communication module 152 may communicate with at least one of one or more other devices, computers, and servers. The graphical user interface module (GUI) 153 can process a graphical user interface. Sensor processing module 154 may process sensor-related functions (eg, processing voice input received using one or more microphones 192). The phone module 155 can process phone-related functions. Application module 156 may perform various functions of a user application, such as electronic messaging, web browsing, media processing, navigation, imaging, and other processing functions. In addition, the manager device 100 may store one or more software applications 156-1 and 156-2 associated with one type of service in the memory 150. At this time, the application 156-1 may provide the manager device 100 with information about the object recognition system at the construction site. Here, the application 156-1 may provide an image data input interface or a process data input interface to the manager. Additionally, the application 156-1 may provide the user with object data matched to image data received from the object recognition server 200 at the construction site.

다양한 실시예에서, 메모리(150)는 디지털 어시스턴트 클라이언트 모듈(157)(이하, DA 클라이언트 모듈)을 저장할 수 있으며, 그에 따라 디지털 어시스턴트의 클라이언트 측의 기능을 수행하기 위한 명령어 및 다양한 사용자 데이터(158)(예. 관리자 데이터, 이미지 데이터 기록 등과 같은 기타 데이터)를 저장할 수 있다. In various embodiments, memory 150 may store a digital assistant client module 157 (hereinafter referred to as DA client module), thereby storing various user data 158 and instructions for performing client-side functions of the digital assistant. (e.g. other data such as administrator data, image data records, etc.) can be stored.

한편, DA 클라이언트 모듈(157)은 관리자 기기(100)에 구비된 다양한 사용자 인터페이스(예. I/O 서브시스템(140))를 통해 사용자의 음성 입력, 텍스트 입력, 터치 입력 및/또는 제스처 입력을 획득할 수 있다. Meanwhile, the DA client module 157 uses the user's voice input, text input, touch input, and/or gesture input through various user interfaces (e.g., I/O subsystem 140) provided in the manager device 100. It can be obtained.

또한, DA 클라이언트 모듈(157)은 시청각적, 촉각적 형태의 데이터를 출력할 수 있다. 예를 들어, DA 클라이언트 모듈(157)은 음성, 소리, 알림, 텍스트 메시지, 메뉴, 그래픽, 비디오, 애니메이션 및 진동 중 적어도 둘 하나 이상의 조합으로 이루어진 데이터를 출력할 수 있다. 아울러, DA 클라이언트 모듈(157)은 통신 서브시스템(180)을 이용하여 디지털 어시스턴트 서버(미도시)와 통신할 수 있다.Additionally, the DA client module 157 can output data in audiovisual and tactile forms. For example, the DA client module 157 may output data consisting of a combination of at least two or more of voice, sound, notification, text message, menu, graphics, video, animation, and vibration. In addition, the DA client module 157 can communicate with a digital assistant server (not shown) using the communication subsystem 180.

다양한 실시예에서, DA 클라이언트 모듈(157)은 사용자 입력과 연관된 상황(context)을 구성하기 위하여 다양한 센서, 서브시스템 및 주변 디바이스로부터 관리자 기기(100)의 주변 환경에 대한 추가 정보를 수집할 수 있다. 예를 들어, DA 클라이언트 모듈(157)은 사용자 입력과 함께 상황 정보를 디지털 어시스턴트 서버에 제공하여 사용자의 의도를 추론할 수 있다. 여기서, 사용자 입력에 동반될 수 있는 상황 정보는 센서 정보, 예를 들어, 광(lighting), 주변 소음, 주변 온도, 주변 환경의 이미지, 비디오 등을 포함할 수 있다. 다른 예를 들어, 상황 정보는 관리자 기기(100)의 물리적 상태(예. 디바이스 배향, 디바이스 위치, 디바이스 온도, 전력 레벨, 속도, 가속도, 모션 패턴, 셀룰러 신호 강도 등)을 포함할 수 있다. 또 다른 예를 들어, 상황 정보는 관리자 기기(100)의 소프트웨어 상태에 관련된 정보(예. 관리자 기기(100)에서 실행 중인 프로세스, 설치된 프로그램, 과거 및 현재 네트워크 활동성, 백그라운드 서비스, 오류 로그, 리소스 사용 등)를 포함할 수 있다. In various embodiments, the DA client module 157 may collect additional information about the surrounding environment of the administrator device 100 from various sensors, subsystems, and peripheral devices to construct a context associated with user input. . For example, the DA client module 157 may infer the user's intention by providing context information along with user input to the digital assistant server. Here, context information that may accompany the user input may include sensor information, for example, lighting, ambient noise, ambient temperature, images of the surrounding environment, video, etc. As another example, the context information may include the physical state of the manager device 100 (e.g., device orientation, device location, device temperature, power level, speed, acceleration, motion pattern, cellular signal strength, etc.). As another example, context information may include information related to the software status of the manager device 100 (e.g., processes running on the manager device 100, installed programs, past and present network activity, background services, error logs, resource usage). etc.) may be included.

다양한 실시예에서, 메모리(150)는 추가 또는 삭제된 명령어를 포함할 수 있으며, 나아가 관리자 기기(100)도 도 2에 도시된 구성 외에 추가 구성을 포함하거나, 일부 구성을 제외할 수도 있다. In various embodiments, the memory 150 may include added or deleted instructions, and further, the manager device 100 may also include additional components other than those shown in FIG. 2 or exclude some components.

프로세서(120)는 관리자 기기(100)의 전반적인 동작을 제어할 수 있으며, 메모리(150)에 저장된 어플리케이션 또는 프로그램을 구동하여 건설 현장의 객체 인식 결과 제공 인터페이스를 구현하기 위한 다양한 명령들을 수행할 수 있다. The processor 120 can control the overall operation of the manager device 100 and executes various commands to implement an interface for providing object recognition results at a construction site by running an application or program stored in the memory 150. .

프로세서(120)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(120)는 NPU(Neural Processing Unit)과 같은 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. The processor 120 may correspond to a computing device such as a Central Processing Unit (CPU) or an Application Processor (AP). Additionally, the processor 120 may be implemented in the form of an integrated chip (IC) such as a system on chip (SoC) in which various computing devices such as a neural processing unit (NPU) are integrated.

주변 인터페이스(130)는 다양한 센서, 서브 시스템 및 주변 디바이스와 연결되어, 관리자 기기(100)가 다양한 기능을 수행할 수 있도록 데이터를 제공해 줄 수 있다. 여기서, 관리자 기기(100)가 어떠한 기능을 수행한다는 것은 프로세서(120)에 의해 수행되는 것으로 이해될 수 있다. The peripheral interface 130 is connected to various sensors, subsystems, and peripheral devices and can provide data so that the manager device 100 can perform various functions. Here, what function the manager device 100 performs may be understood as being performed by the processor 120.

주변 인터페이스(130)는 모션 센서(160), 조명 센서(광 센서)(161) 및 근접 센서(162)로부터 데이터를 제공받을 수 있으며, 이를 통해, 관리자 기기(100)는 배향, 광, 및 근접 감지 기능 등을 수행할 수 있다. 다른 예를 들어, 주변 인터페이스(130)는 기타 센서들(163)(포지셔닝 시스템-GPS 수신기, 온도 센서, 생체인식 센서)로부터 데이터를 제공받을 수 있으며, 이를 통해 관리자 기기(100)가 기타 센서들(163)과 관련된 기능들을 수행할 수 있다.The peripheral interface 130 may receive data from the motion sensor 160, the light sensor (light sensor) 161, and the proximity sensor 162, through which the manager device 100 can determine orientation, light, and proximity. It can perform detection functions, etc. For another example, the peripheral interface 130 may receive data from other sensors 163 (positioning system-GPS receiver, temperature sensor, biometric sensor), through which the manager device 100 can use other sensors. Functions related to (163) can be performed.

다양한 실시예에서, 관리자 기기(100)는 주변 인터페이스(130)와 연결된 카메라 서브시스템(170) 및 이와 연결된 광학 센서(171)를 포함할 수 있으며, 이를 통해 관리자 기기(100)는 사진 촬영 및 비디오 클립 녹화 등의 다양한 촬영 기능을 수행할 수 있다. In various embodiments, the manager device 100 may include a camera subsystem 170 connected to the peripheral interface 130 and an optical sensor 171 connected thereto, through which the manager device 100 can take photos and video. You can perform various shooting functions such as clip recording.

다양한 실시예에서, 관리자 기기(100)는 주변 인터페이스(130)와 연결된 통신 서브 시스템(180)을 포함할 수 있다. 통신 서브 시스템(180)은 하나 이상의 유/무선 네트워크로 구성되며, 다양한 통신 포트, 무선 주파수 송수신기, 광학 송수신기를 포함할 수 있다.In various embodiments, the manager device 100 may include a communication subsystem 180 connected to the peripheral interface 130. The communication subsystem 180 consists of one or more wired/wireless networks and may include various communication ports, radio frequency transceivers, and optical transceivers.

다양한 실시예에서, 관리자 기기(100)는 주변 인터페이스(130)와 연결된 오디오 서브 시스템(190)을 포함하며, 이러한 오디오 서브 시스템(190)은 하나 이상의 스피커(191) 및 하나 이상의 마이크(192)를 포함함으로써, 관리자 기기(100)는 음성 작동형 기능, 예컨대 음성 인식, 음성 복제, 디지털 녹음, 및 전화 기능 등을 수행할 수 있다. In various embodiments, the manager device 100 includes an audio subsystem 190 connected to a peripheral interface 130, which includes one or more speakers 191 and one or more microphones 192. By including this, the manager device 100 can perform voice-activated functions, such as voice recognition, voice duplication, digital recording, and phone functions.

다양한 실시예에서, 관리자 기기(100)는 주변 인터페이스(130)와 연결된 I/O 서브시스템(140)을 포함할 수 있다. 예를 들어, I/O 서브시스템(140)은 터치 스크린 제어기(141)를 통해 관리자 기기(100)에 포함된 터치 스크린(143)을 제어할 수 있다. 일 예로서, 터치 스크린 제어기(141)는 정전용량형, 저항형, 적외형, 표면 탄성파 기술, 근접 센서 어레이 등과 같은 복수의 터치 감지 기술 중 어느 하나의 기술을 사용하여 사용자의 접촉 및 움직임 또는 접촉 및 움직임의 중단을 검출할 수 있다. 다른 예를 들어, I/O 서브시스템(140)은 기타 입력 제어기(들)(142)를 통해 관리자 기기(100)에 포함된 기타 입력/제어 디바이스(144)를 제어할 수 있다. 일 예로서, 기타 입력 제어기(들)(142)은 하나 이상의 버튼, 로커 스위치(rocker switches), 썸 휠(thumb-wheel), 적외선 포트, USB 포트 및 스타일러스 등과 같은 포인터 디바이스를 제어할 수 있다.In various embodiments, the manager device 100 may include an I/O subsystem 140 connected to a peripheral interface 130. For example, the I/O subsystem 140 may control the touch screen 143 included in the manager device 100 through the touch screen controller 141. As an example, the touch screen controller 141 uses any one of a plurality of touch sensing technologies such as capacitive, resistive, infrared, surface acoustic wave technology, proximity sensor array, etc. to detect the user's touch and movement or touch. and cessation of movement can be detected. As another example, the I/O subsystem 140 may control other input/control devices 144 included in the manager device 100 through other input controller(s) 142. As an example, other input controller(s) 142 may control one or more buttons, rocker switches, thumb-wheels, infrared ports, USB ports, and pointer devices such as a stylus.

도 3은 본 발명의 일 실시예에 따른 건설 현장의 객체 인식 서버의 구성을 나타낸 블록도이다.Figure 3 is a block diagram showing the configuration of an object recognition server at a construction site according to an embodiment of the present invention.

도 3을 참조하면, 건설 현장의 객체 인식 서버(200)는 통신 인터페이스(210), 메모리(220), I/O 인터페이스(230) 및 프로세서(240)를 포함할 수 있으며, 각 구성은 하나 이상의 통신 버스 또는 신호 라인을 통해 서로 통신할 수 있다.Referring to FIG. 3, the object recognition server 200 at a construction site may include a communication interface 210, a memory 220, an I/O interface 230, and a processor 240, and each configuration includes one or more They can communicate with each other through communication buses or signal lines.

통신 인터페이스(210)는 유/무선 통신 네트워크를 통해 관리자 기기(100)와 연결되어 데이터를 주고받을 수 있다. 예를 들어, 통신 인터페이스(210)는 관리자 기기(100)로부터 이미지 데이터 또는 제1 공정에 대한 공정 데이터를 수신할 수 있다. 이때, 이미지 데이터는 제1 공정에 대한 이미지 데이터일 수 있다. 여기서, 통신 인터페이스(210)는 수신된 이미지 데이터 및 공정 데이터에 대한 객체 데이터를 제공하는 인터페이스를 제공할 수 있다. 또한, 통신 인터페이스(210)는 객체 데이터에 대한 알람을 제공할 수 있다.The communication interface 210 can be connected to the manager device 100 through a wired/wireless communication network to exchange data. For example, the communication interface 210 may receive image data or process data for the first process from the manager device 100. At this time, the image data may be image data for the first process. Here, the communication interface 210 may provide an interface that provides object data for received image data and process data. Additionally, the communication interface 210 may provide alarms for object data.

한편, 이러한 데이터의 송수신을 가능하게 하는 통신 인터페이스(210)는 통신 포드(211) 및 무선 회로(212)를 포함하며, 여기 유선 통신 포트(211)는 하나 이상의 유선 인터페이스, 예를 들어, 이더넷, 범용 직렬 버스(USB), 파이어와이어 등을 포함할 수 있다. 또한, 무선 회로(212)는 RF 신호 또는 광학 신호를 통해 외부 디바이스와 데이터를 송수신할 수 있다. 아울러, 무선 통신은 복수의 통신 표준, 프로토콜 및 기술, 예컨대 GSM, EDGE, CDMA, TDMA, 블루투스, Wi-Fi, VoIP, Wi-MAX, 또는 임의의 기타 적합한 통신 프로토콜 중 적어도 하나를 사용할 수 있다. Meanwhile, the communication interface 210 that enables transmission and reception of such data includes a communication pod 211 and a wireless circuit 212, where the wired communication port 211 is connected to one or more wired interfaces, for example, Ethernet, May include Universal Serial Bus (USB), Firewire, etc. Additionally, the wireless circuit 212 can transmit and receive data with an external device through RF signals or optical signals. Additionally, wireless communications may use at least one of a plurality of communication standards, protocols and technologies, such as GSM, EDGE, CDMA, TDMA, Bluetooth, Wi-Fi, VoIP, Wi-MAX, or any other suitable communication protocol.

메모리(220)는 건설 현장의 객체 인식 서버(200)에서 사용되는 다양한 데이터가 저장될 수 있다. 예를 들어, 메모리(220)는 이미지 데이터, 공정 데이터, 관리자 데이터, 이미지 데이터 기록 등이 저장될 수 있다. The memory 220 may store various data used in the object recognition server 200 at a construction site. For example, the memory 220 may store image data, process data, manager data, image data records, etc.

다양한 실시예에서, 메모리(220)는 각종 데이터, 명령 및 정보를 저장할 수 있는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 예를 들어, 메모리(220)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.In various embodiments, memory 220 may include volatile or non-volatile recording media capable of storing various data, instructions, and information. For example, the memory 220 may be a flash memory type, hard disk type, multimedia card micro type, card type memory (e.g. SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage storage. , cloud, or blockchain database may include at least one type of storage medium.

다양한 실시예에서, 메모리(220)는 운영 체제(221), 통신 모듈(222), 사용자 인터페이스 모듈(223) 및 하나 이상의 애플리케이션(224) 중 적어도 하나의 구성을 저장할 수 있다. In various embodiments, memory 220 may store configuration of at least one of operating system 221, communication module 222, user interface module 223, and one or more applications 224.

운영 체제(221)(예. LINUX, UNIX, MAC OS, WINDOWS, VxWorks 등의 내장형 운영 체제)는 일반적인 시스템 작업(예. 메모리 관리, 저장 디바이스 제어, 전력 관리 등)를 제어하고 관리하기 위한 다양한 소프트웨어 컴포넌트 및 드라이버를 포함할 수 있으며, 다양한 하드웨어, 펌웨어, 및 소프트웨어 컴포넌트 간의 통신을 지원할 수 있다.Operating system 221 (e.g., embedded operating system such as LINUX, UNIX, MAC OS, WINDOWS, VxWorks, etc.) is a variety of software to control and manage common system tasks (e.g., memory management, storage device control, power management, etc.) It may contain components and drivers and may support communication between various hardware, firmware, and software components.

통신 모듈(223)은 통신 인터페이스(210)를 통해 다른 디바이스와 통신을 지원할 수 있다. 통신 모듈(220)은 통신 인터페이스(210)의 유선 통신 포트(211) 또는 무선 회로(212)에 의해 수신되는 데이터를 처리하기 위한 다양한 소프트웨어 구성 요소들을 포함할 수 있다.The communication module 223 may support communication with other devices through the communication interface 210. The communication module 220 may include various software components for processing data received by the wired communication port 211 or the wireless circuit 212 of the communication interface 210.

사용자 인터페이스 모듈(223)은 I/O 인터페이스(230)를 통해 키보드, 터치 스크린, 마이크 등으로부터 사용자의 요청 또는 입력을 수신하고, 디스플레이 상에 사용자 인터페이스를 제공할 수 있다.The user interface module 223 may receive a user's request or input from a keyboard, touch screen, microphone, etc. through the I/O interface 230 and provide a user interface on the display.

애플리케이션(224)은 하나 이상의 프로세서(240)에 의해 실행되도록 구성되는 프로그램 또는 모듈을 포함할 수 있다. Applications 224 may include programs or modules configured to be executed by one or more processors 240 .

I/O 인터페이스(230)는 건설 현장의 객체 인식 서버(200)의 입출력 디바이스(미도시), 예컨대 디스플레이, 키보드, 터치 스크린 및 마이크 중 적어도 하나를 사용자 인터페이스 모듈(223)과 연결할 수 있다. I/O 인터페이스(230)는 사용자 인터페이스 모듈(223)과 함께 사용자 입력(예. 음성 입력, 키보드 입력, 터치 입력 등)을 수신하고, 수신된 입력에 따른 명령을 처리할 수 있다. The I/O interface 230 may connect at least one of input/output devices (not shown) of the object recognition server 200 at the construction site, such as a display, keyboard, touch screen, and microphone, with the user interface module 223. The I/O interface 230 may receive user input (eg, voice input, keyboard input, touch input, etc.) together with the user interface module 223 and process commands according to the received input.

프로세서(240)는 통신 인터페이스(210), 메모리(220) 및 I/O 인터페이스(230)와 연결되어 건설 현장의 객체 인식 서버(200)의 전반적인 동작을 제어할 수 있으며, 메모리(220)에 저장된 애플리케이션 또는 프로그램을 통해 화면기반 도움말을 제공하는 시스템을 제공하기 위한 다양한 명령들을 수행할 수 있다. The processor 240 is connected to the communication interface 210, memory 220, and I/O interface 230 to control the overall operation of the object recognition server 200 at the construction site, and can control the overall operation of the object recognition server 200 at the construction site. Various commands can be executed to provide a system that provides screen-based help through an application or program.

프로세서(240)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(240)는 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. 또는 프로세서(240)는 NPU(Neural Processing Unit)과 같이 인공 신경망 모델을 계산하기 위한 모듈을 포함할 수 있다.The processor 240 may correspond to a computing device such as a Central Processing Unit (CPU) or an Application Processor (AP). Additionally, the processor 240 may be implemented in the form of an integrated chip (IC) such as a system on chip (SoC) in which various computing devices are integrated. Alternatively, the processor 240 may include a module for calculating an artificial neural network model, such as a Neural Processing Unit (NPU).

다양한 실시예에서, 프로세서(240)는 관리자 기기로부터 이미지 데이터를 수신할 수 있다. 이때, 프로세서(240)는 관리자 기기(100)에 이미지 데이터 업로드 인터페이스를 전달할 수 있다. 여기서, 이미지 데이터는 건설 현장에 대한 CCTV 데이터를 포함할 수 있다. 또한, 프로세서(240)는 이미지 데이터의 구역에 대한 라벨링을 수행할 수 있다. 다른 예로는, 프로세서(240)는 라벨링이 수행된 이미지 데이터를 수신할 수 있다.In various embodiments, processor 240 may receive image data from a manager device. At this time, the processor 240 may transmit an image data upload interface to the manager device 100. Here, the image data may include CCTV data for the construction site. Additionally, the processor 240 may perform labeling on regions of image data. As another example, the processor 240 may receive labeled image data.

프로세서(240)는 사용자에 의해 선택된 제1 공정에 대한 공정 데이터를 수신할 수 있다. 이때, 제1 공정은, 철근 조립, 도장 작업, 전기 설비 작업, 기계 설비 작업, 자재 인양 작업 및 옹벽 거푸집 조립 등을 포함할 수 있다. 여기서, 공정 데이터는, 제1 공정에 대한 사고 발생 횟수, 안전모 미착용 감지 횟수, 안전 조끼 미착용 감지 횟수 등에 대한 데이터일 수 있다. The processor 240 may receive process data for the first process selected by the user. At this time, the first process may include rebar assembly, painting work, electrical equipment work, mechanical equipment work, material lifting work, and retaining wall form assembly. Here, the process data may be data on the number of accidents in the first process, the number of times a safety helmet is not worn, the number of times a safety vest is not worn, etc.

프로세서(240)는 이미지 데이터를 입력으로 하여 객체 데이터를 출력하도록 학습된 객체 인식 모델을 이용하여, 제1 공정에 대한 객체 데이터를 결정할 수 있다. 이때, 객체 인식 모델은 MASK R-CNN 구조를 가질 수 있다. 여기서, 객체 데이터는, 이미지 데이터로부터 식별된 근로자, 관리자, 안전모, 안전조끼, 굴삭기 또는 크레인 등을 포함하는 적어도 하나의 마스크(MASK)일 수 있다. 한편, 프로세서(240)는 객체 데이터로부터 근로자 또는 관리자에 대한 안전모 및 안전조끼의 착용 여부를 결정할 수 있다. 이때, 프로세서(240)는 근로자 또는 관리자가 안전모 및 안전조끼를 착용하지 않다고 결정된 경우, 관리자 기기(100)에 알람을 제공할 수 있다. The processor 240 may determine object data for the first process using an object recognition model learned to output object data by inputting image data. At this time, the object recognition model may have a MASK R-CNN structure. Here, the object data may be at least one mask (MASK) including a worker, manager, hard hat, safety vest, excavator, or crane identified from the image data. Meanwhile, the processor 240 can determine whether workers or managers should wear safety helmets and safety vests based on object data. At this time, the processor 240 may provide an alarm to the manager device 100 when it is determined that the worker or manager is not wearing a safety helmet or safety vest.

프로세서(240)는 공정 데이터 및 객체 데이터를 기초로 이미지 데이터에 대한 객체 인식 예외 구역을 결정할 수 있다. 이때, 프로세서(240)는 이미지 데이터의 구역에 대한 객체 인식 모델의 오작동 횟수를 카운팅할 수 있다. 여기서, 프로세서(240)는 오작동 횟수가 임계값 이상일 때, 이미지 데이터의 해당 구역을 객체 인식 예외 구역으로 결정할 수 있다. The processor 240 may determine an object recognition exception zone for image data based on process data and object data. At this time, the processor 240 may count the number of malfunctions of the object recognition model for the area of the image data. Here, the processor 240 may determine the corresponding area of the image data as the object recognition exception area when the number of malfunctions is greater than the threshold.

또한, 프로세서(240)는 이미지 데이터에 대한 중요 구역을 결정할 수 있다. 이때, 프로세서(240)는 근로자 및 관리자의 안전모 및 안전조끼의 미착용 횟수가 임계값 이상인 구역을 중요 구역으로 결정할 수 있다.Additionally, processor 240 may determine important areas for image data. At this time, the processor 240 may determine an area in which the number of times workers and managers do not wear safety helmets and safety vests is more than a threshold value as an important area.

이상에서, 이미지 데이터의 객체를 출력하고, 객체에 대한 알람 및 객체 인식 예외 구역을 결정하는 등이 건설 현장의 객체 인식 서버(200)를 통해서 이루어지는 것으로 설명되었으나, 이에 제한되지 않고, 관리자 기기(100)에서 전술된 모든 단계들이 수행될 수도 있다.In the above, it has been described that outputting the object of the image data, determining the alarm for the object and the object recognition exception zone, etc. are performed through the object recognition server 200 at the construction site, but is not limited to this, and is not limited to this, and is not limited to the manager device (100) ), all the steps described above may be performed.

도 4는 본 발명의 일 실시예에 따른 건설 현장의 객체 인식 방법의 순서도이고, 도 5 내지 도 9는 본 발명의 다양한 실시예에 따른 건설 현장의 객체 인식 방법의 예시도들이다.Figure 4 is a flow chart of an object recognition method at a construction site according to an embodiment of the present invention, and Figures 5 to 9 are illustrative diagrams of an object recognition method at a construction site according to various embodiments of the present invention.

먼저, 도 4를 참조하면, 건설 현장의 객체 인식 서버(200)는 관리자 기기로부터 이미지 데이터를 수신한다(S410). 관리자 기기는 이때, 건설 현장의 객체 인식 서버(200)는 관리자 기기(100)에 이미지 데이터 업로드 인터페이스를 전달할 수 있다. 여기서, 이미지 데이터는 건설 현장에 대한 CCTV 데이터를 포함할 수 있다. 또한, 건설 현장의 객체 인식 서버(200)는 이미지 데이터의 구역에 대한 라벨링을 수행할 수 있다. 다른 예로는, 건설 현장의 객체 인식 서버(200)는 라벨링이 수행된 이미지 데이터를 수신할 수 있다.First, referring to FIG. 4, the object recognition server 200 at the construction site receives image data from the manager device (S410). At this time, the manager device's object recognition server 200 at the construction site may transmit an image data upload interface to the manager device 100. Here, the image data may include CCTV data for the construction site. Additionally, the object recognition server 200 at the construction site may perform labeling of areas of image data. As another example, the object recognition server 200 at a construction site may receive labeled image data.

보다 구체적으로, 도 5를 참조하면, 건설 현장의 객체 인식 서버(200)는 이미지 데이터의 구역에 대한 라벨링을 수행할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 이미지 데이터에 대응되는 공사 현장에 대한 구성 요소를 기초로 라벨링을 수행할 수 있다. 예를 들어, 도 5의 (a)를 참조하면, 건설 현장의 객체 인식 서버(200)는 공사 현장에 대한 이미지 데이터를 수신할 수 있다. 이때, 도 5의 (b)를 참조하면, 건설 현장의 객체 인식 서버(200)는 근로자의 보행 가능 여부를 기초로, 근로자의 보행이 가능한 구역(510)을 라벨링 할 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 근로자의 보행이 불가능한 구역 중 구성 요소를 기초로 라벨링을 수행할 수 있다. 일례로, 건설 현장의 객체 인식 서버(200)는 공사 현장에 대한 이미지 데이터를 Walkable_area(510), Soil_slope(520), rock_mound(530), rock_slope(540) 등으로 라벨링 할 수 있다. More specifically, referring to FIG. 5 , the object recognition server 200 at a construction site may perform labeling of a region of image data. At this time, the object recognition server 200 at the construction site may perform labeling based on the components of the construction site corresponding to the image data. For example, referring to (a) of FIG. 5, the object recognition server 200 at a construction site may receive image data about the construction site. At this time, referring to (b) of FIG. 5, the object recognition server 200 at the construction site may label the area 510 where workers can walk based on whether or not the worker can walk. Here, the object recognition server 200 at the construction site may perform labeling based on components among areas where workers cannot walk. For example, the object recognition server 200 at a construction site may label image data about the construction site as Walkable_area (510), Soil_slope (520), rock_mound (530), rock_slope (540), etc.

다시 도 4로 돌아와서, 건설 현장의 객체 인식 서버(200)는 사용자에 의해 선택된 제1 공정에 대한 공정 데이터를 수신한다(S420). 이때, 제1 공정은, 철근 조립, 도장 작업, 전기 설비 작업, 기계 설비 작업, 자재 인양 작업 및 옹벽 거푸집 조립 등을 포함할 수 있다. 여기서, 제1 공정은, 수신된 이미지 데이터의 공사 현장의 공정일 수 있다. 또한, 공정 데이터는 제1 공정에 대한 사고 발생 횟수, 안전모 미착용 감지 횟수, 안전 조끼 미착용 감지 횟수 등에 대한 데이터일 수 있다.Returning to FIG. 4, the object recognition server 200 at the construction site receives process data for the first process selected by the user (S420). At this time, the first process may include rebar assembly, painting work, electrical equipment work, mechanical equipment work, material lifting work, and retaining wall form assembly. Here, the first process may be a process at a construction site for the received image data. Additionally, the process data may be data on the number of accidents in the first process, the number of times a safety helmet is not worn, the number of times a safety vest is not worn, etc.

보다 상세하게는, 도 6을 참조하면, 건설 현장의 객체 인식 서버(200)는 제1 공정에 대한 공정 데이터를 수신할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 철근 조립, 도장 작업, 전기 설비 작업, 기계 설비 작업, 자재 인양 작업 및 옹벽 거푸집 조립 등 중 하나 이상의 작업에 대한 공정 데이터를 수신할 수 있다. 여기서, 제1 공정은 관리자 기기(100)로부터 수신된 이미지 데이터에 대한 공사 현장의 공정일 수 있다. More specifically, referring to FIG. 6 , the object recognition server 200 at a construction site may receive process data for the first process. At this time, the object recognition server 200 at the construction site may receive process data for one or more of the following tasks: rebar assembly, painting work, electrical equipment work, mechanical equipment work, material lifting work, and retaining wall form assembly. Here, the first process may be a process at a construction site for image data received from the manager device 100.

다시 도 4로 돌아와서, 건설 현장의 객체 인식 서버(200)는 이미지 데이터를 입력으로 하여 객체 데이터를 출력하도록 학습된 객체 인식 모델을 이용하여, 제1 공정에 대한 객체 데이터를 결정한다(S430). 이때, 객체 인식 모델은 MASK R-CNN 구조를 가질 수 있다. 여기서, 객체 데이터는, 이미지 데이터로부터 식별된 근로자, 관리자, 안전모, 안전조끼, 굴삭기 또는 크레인 등을 포함하는 적어도 하나의 마스크(MASK)일 수 있다. 한편, 건설 현장의 객체 인식 서버(200)는 객체 데이터로부터 근로자 또는 관리자에 대한 안전모 및 안전조끼의 착용 여부를 결정할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 근로자 또는 관리자가 안전모 및 안전조끼를 착용하지 않았다고 결정된 경우, 관리자 기기(100)에 알람을 제공할 수 있다.Returning to FIG. 4, the object recognition server 200 at the construction site determines object data for the first process using an object recognition model learned to output object data by inputting image data (S430). At this time, the object recognition model may have a MASK R-CNN structure. Here, the object data may be at least one mask (MASK) including a worker, manager, hard hat, safety vest, excavator, or crane identified from the image data. Meanwhile, the object recognition server 200 at the construction site can determine whether workers or managers should wear safety helmets and safety vests based on object data. At this time, the object recognition server 200 at the construction site may provide an alarm to the manager device 100 when it is determined that the worker or manager is not wearing a hard hat or safety vest.

보다 상세하게는, 도 7a를 참조하면, 객체 인식 모델은 MASK R-CNN 구조를 가질 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 객체 인식 모델의 입력 데이터를 이미지 데이터로 설정할 수 있다. 여기서, 입력 데이터로 설정된 이미지 데이터는 제1 공정에 대한 이미지 데이터일 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 입력된 이미지 데이터의 사이즈를 interpolation을 통해 resize할 수 있다. 예를 들어, 건설 현장의 객체 인식 서버(200)는 입력된 이미지 데이터를 bilinear interpolation을 통해 1024 * 1024의 사이즈로 resize할 수 있다. 한편, 건설 현장의 객체 인식 서버(200)는 resize된 이미지 데이터를 1024 * 1024의 인풋 사이즈로 조절할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 resize된 이미지 데이터를 backbone network에 입력하기 위해 사이즈를 조절할 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 ResNet을 통해 각 layer(stage)의 feature map(C1, C2, C3, C4, C5)을 생성할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 FPN(Feature Pyramid Network)을 통해 feature map을 기초로 P2, P3, P4, P5, P6 feature map을 생성할 수 있다. 또한, 건설 현장의 객체 인식 서버(200)는 feature map에 RPN(Region Proposal Network)를 통해 classification, bbox regression output을 생성할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 projection을 통해 bbox regression을 기초로 anchor box를 생성할 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 RoI(Region of Interest) align을 통해 anchor box의 사이즈를 조절할 수 있다. 이때, RoI는 영상이나 이미지 내의 관심 영역일 수 있다. 한편, 객체 인식 모델은 Classification branch, bounding box regression branch, mask branch(710) 등을 포함할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 Classification branch를 통해 class label을 예측할 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 bounding box regression branch를 통해 bounding box offset을 예측할 수 있다. 또한, 건설 현장의 객체 인식 서버(200)는 mask branch(710)를 통해 각각의 RoI에 대한 segmentation mask를 예측할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 mask branch(710)에 RoI align을 통해 고정된 크기의 이미지를 입력할 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 mask branch(710)를 통해 각각의 RoI에 대해서 class별 binary mask를 출력할 수 있다. 또한, 건설 현장의 객체 인식 서버(200)는 mask branch(710)를 통해 K^2m 크기의 feature map을 출력할 수 있다. 이때, m은 feature map의 크기이고, K는 class의 수일 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 객체 인식 모델을 통해 이미지 데이터의 객체 각각을 인식할 수 있다. More specifically, referring to FIG. 7A, the object recognition model may have a MASK R-CNN structure. At this time, the object recognition server 200 at the construction site may set the input data of the object recognition model to image data. Here, image data set as input data may be image data for the first process. At this time, the object recognition server 200 at the construction site can resize the size of the input image data through interpolation. For example, the object recognition server 200 at a construction site can resize the input image data to a size of 1024 * 1024 through bilinear interpolation. Meanwhile, the object recognition server 200 at the construction site can adjust the resized image data to an input size of 1024 * 1024. At this time, the object recognition server 200 at the construction site can adjust the size of the resized image data to input it to the backbone network. Here, the object recognition server 200 at the construction site can generate feature maps (C1, C2, C3, C4, C5) of each layer (stage) through ResNet. At this time, the object recognition server 200 at the construction site can generate P2, P3, P4, P5, and P6 feature maps based on the feature map through FPN (Feature Pyramid Network). Additionally, the object recognition server 200 at the construction site can generate classification and bbox regression output on the feature map through RPN (Region Proposal Network). At this time, the object recognition server 200 at the construction site may generate an anchor box based on bbox regression through projection. Here, the object recognition server 200 at the construction site can adjust the size of the anchor box through Region of Interest (RoI) align. At this time, RoI may be a region of interest within a video or image. Meanwhile, the object recognition model may include a classification branch, bounding box regression branch, mask branch 710, etc. At this time, the object recognition server 200 at the construction site can predict the class label through the classification branch. Here, the object recognition server 200 at the construction site can predict the bounding box offset through the bounding box regression branch. Additionally, the object recognition server 200 at the construction site can predict the segmentation mask for each RoI through the mask branch 710. At this time, the object recognition server 200 at the construction site may input an image of a fixed size into the mask branch 710 through RoI align. Here, the object recognition server 200 at the construction site can output a binary mask for each class for each RoI through the mask branch 710. Additionally, the object recognition server 200 at the construction site can output a feature map of size K^2m through the mask branch 710. At this time, m may be the size of the feature map, and K may be the number of classes. Here, the object recognition server 200 at the construction site can recognize each object in the image data through an object recognition model.

한편, 건설 현장의 객체 인식 서버(200)는 각각의 RoI에 대한 multi-task loss를 적용할 수 있다. 이때, Loss Funcion은 다음과 같은 수식으로 결정될 수 있다.Meanwhile, the object recognition server 200 at the construction site can apply multi-task loss to each RoI. At this time, the loss function can be determined by the following formula.

이때, 는 Classification loss, 는 bounding box loss, 는 binary cross entropy loss이다. 이때, 는 mask branch에서 출력한 K^2m 크기의 feature map의 각 cell에 대한 sigmoid function을 통해 결정될 수 있다.At this time, is Classification loss, is bounding box loss, is binary cross entropy loss. At this time, Can be determined through the sigmoid function for each cell of the K^2m-sized feature map output from the mask branch.

예를 들어, 도 7b를 참조하면, 건설 현장의 객체 인식 서버(200)는 mask branch를 통해 binary mask를 출력할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 binary mask 1(711), binary mask 2(712), binary mask 3(713) 등을 출력할 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 근로자 1을 binary mask1(711)을 통해 식별할 수 있고, 근로자 2를 binary mask2(712)를 통해 식별할 수 있고, 근로자 3을 binary mask3(713)를 통해 식별할 수 있다. 이로 인해, 건설 현장의 객체 인식 서버(200)는 같은 class의 object를 다른 label로 취급할 수 있다.For example, referring to FIG. 7B, the object recognition server 200 at a construction site may output a binary mask through a mask branch. At this time, the object recognition server 200 at the construction site may output binary mask 1 (711), binary mask 2 (712), binary mask 3 (713), etc. Here, the object recognition server 200 at the construction site can identify worker 1 through binary mask1 (711), worker 2 through binary mask2 (712), and worker 3 through binary mask3 (713). It can be identified through . Because of this, the object recognition server 200 at the construction site can treat objects of the same class as different labels.

도 8을 참조하면, 건설 현장의 객체 인식 서버(200)는 객체 인식 모델을 통해 객체 데이터를 출력할 수 있다. 이때, 객체 데이터는 근로자, 관리자, 안전모(810), 안전조끼(820), 굴삭기 또는 크레인 등을 포함하는 적어도 하나의 마스크(MASK)일 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 근로자, 관리자의 안전모(810) 및 안전조끼(820)의 착용 여부를 결정할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 근로자, 관리자의 안전모 및 안전조끼의 착용 여부를 기초로 알람을 생성할 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 관리자 기기(100)에 알람을 제공할 수 있다.Referring to FIG. 8, the object recognition server 200 at a construction site may output object data through an object recognition model. At this time, the object data may be at least one mask (MASK) including a worker, a manager, a safety helmet 810, a safety vest 820, an excavator, or a crane. Here, the object recognition server 200 at the construction site can determine whether workers and managers are wearing safety helmets 810 and safety vests 820. At this time, the object recognition server 200 at the construction site may generate an alarm based on whether workers and managers are wearing hard hats and safety vests. Here, the object recognition server 200 at the construction site may provide an alarm to the manager device 100.

다시 도 4로 돌아와서, 건설 현장의 객체 인식 서버(200)는 공정 데이터 및 객체 데이터를 기초로 이미지 데이터에 대한 객체 인식 예외 구역을 결정한다(S440). 이때, 건설 현장의 객체 인식 서버(200)는 이미지 데이터의 구역에 대한 객체 인식 모델의 오작동 횟수를 카운팅할 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 오작동 횟수가 임계값 이상일 때, 이미지 데이터의 해당 구역을 객체 인식 예외 구역으로 결정할 수 있다. Returning to FIG. 4, the object recognition server 200 at the construction site determines an object recognition exception zone for image data based on process data and object data (S440). At this time, the object recognition server 200 at the construction site may count the number of malfunctions of the object recognition model for the area of the image data. Here, the object recognition server 200 at the construction site may determine the corresponding area of the image data as the object recognition exception area when the number of malfunctions is greater than the threshold.

또한, 건설 현장의 객체 인식 서버(200)는 이미지 데이터에 대한 중요 구역을 결정할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 근로자 및 관리자의 안전모 및 안전조끼의 미착용 횟수가 임계값 이상인 구역을 중요 구역으로 결정할 수 있다. 여기서, 근로자 및 관리자의 안전모 및 안전조끼의 미착용 횟수는 공정 데이터로부터 수신될 수 있다.Additionally, the object recognition server 200 at the construction site can determine important areas for image data. At this time, the object recognition server 200 at the construction site may determine an area in which the number of times workers and managers do not wear safety helmets and safety vests is greater than a threshold value as an important area. Here, the number of times workers and managers do not wear safety helmets and safety vests can be received from process data.

보다 상세하게는 도 9를 참조하면, 건설 현장의 객체 인식 서버(200)는 객체 인식 인터페이스를 제공할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 객체 인식 모델을 통해 객체 데이터를 수신할 수 있다. 여기서, 건설 현장의 객체 인식 서버(200)는 안전모 미착용 근로자(910) 및 안전모 착용 근로자(920)를 수신할 수 있다. 또한, 건설 현장의 객체 인식 서버(200)는 안전모 미착용 근로자가 많은 구역을 중요 구역으로 설정할 수 있다. 다른 예로는, 건설 현장의 객체 인식 서버(200)는 공정 데이터로부터 수신된 근로자 및 관리자의 안전모 및 안전조끼 미착용 기록이 많은 구역을 중요 구역으로 설정할 수 있다. 또 다른 예로는, 건설 현장의 객체 인식 서버(200)는 사고의 발생 빈도가 높은 구역을 중요 구역으로 설정할 수 있다.In more detail, referring to FIG. 9, the object recognition server 200 at a construction site may provide an object recognition interface. At this time, the object recognition server 200 at the construction site may receive object data through an object recognition model. Here, the object recognition server 200 at the construction site may receive a worker 910 not wearing a safety helmet and a worker 920 wearing a safety helmet. Additionally, the object recognition server 200 at the construction site can set an area with many workers not wearing safety helmets as an important area. As another example, the object recognition server 200 at a construction site may set an area with many records of workers and managers not wearing safety helmets and safety vests received from process data as an important area. As another example, the object recognition server 200 at a construction site may set an area where accidents occur frequently as an important area.

건설 현장의 객체 인식 서버(200)는 오작동 횟수를 기초로 객체 인식 예외 구역(930)을 설정할 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 오작동 횟수가 임계값 이상인 구역을 객체 인식 예외 구역(930)으로 설정할 수 있다. 예를 들어, 건설 현장의 객체 인식 서버(200)는 안전모를 착용하지 않아도 되는 구역에서 알람이 발생될 수 있다. 이때, 건설 현장의 객체 인식 서버(200)는 알람 오작동 횟수를 기초로 안전모를 착용하지 않아도 되는 구역을 객체 인식 예외 구역(930)으로 설정할 수 있다.The object recognition server 200 at the construction site may set an object recognition exception zone 930 based on the number of malfunctions. At this time, the object recognition server 200 at the construction site may set the area where the number of malfunctions is greater than the threshold as the object recognition exception area 930. For example, the object recognition server 200 at a construction site may generate an alarm in an area where safety helmets are not required to be worn. At this time, the object recognition server 200 at the construction site may set an area where safety helmets are not required to be worn as the object recognition exception zone 930 based on the number of alarm malfunctions.

이상 첨부된 도면을 참조하여 본 발명의 일 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be modified and implemented in various ways without departing from the technical spirit of the present invention. there is. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

100: 관리자 기기
110: 메모리 인터페이스 120: 프로세서
130: 주변 인터페이스 140: I/O 서브 시스템
141: 터치 스크린 제어기 142: 기타 입력 제어기
143: 터치 스크린
144: 기타 입력 제어 디바이스
150: 메모리 151: 운영 체제
152: 통신 모듈 153: GUI 모듈
154: 센서 처리 모듈 155: 전화 모듈
156: 애플리케이션들
156-1, 156-2: 애플리케이션
157: 디지털 어시스턴트 클라이언트 모듈
158: 사용자 데이터
160: 모션 센서 161: 조명 센서
162: 근접 센서 163: 기타 센서
170: 카메라 서브 시스템 171: 광학 센서
180: 통신 서브 시스템
190: 오디오 서브 시스템
191: 스피커 192: 마이크
200: 건설 현장의 객체 인식 서버
210: 통신 인터페이스
211: 유선 통신 포트 212: 무선 회로
220: 메모리 221: 운영 체제
222: 통신 모듈 223: 사용자 인터페이스 모듈
224: 애플리케이션 230: I/O 인터페이스
240: 프로세서
100: Administrator device
110: memory interface 120: processor
130: peripheral interface 140: I/O subsystem
141: Touch screen controller 142: Other input controller
143: touch screen
144: Other input control devices
150: Memory 151: Operating system
152: Communication module 153: GUI module
154: sensor processing module 155: phone module
156: Applications
156-1, 156-2: Application
157: Digital assistant client module
158: User data
160: motion sensor 161: light sensor
162: Proximity sensor 163: Other sensors
170: Camera subsystem 171: Optical sensor
180: Communication subsystem
190: Audio subsystem
191: Speaker 192: Microphone
200: Object recognition server at construction site
210: communication interface
211: wired communication port 212: wireless circuit
220: memory 221: operating system
222: communication module 223: user interface module
224: Application 230: I/O interface
240: processor

Claims (18)

프로세서에 의해 구현되는 객체 인식 방법으로서,
관리자 기기로부터 이미지 데이터 및 사용자에 의해 선택된 제1 공정에 대한 공정 데이터를 수신하는 단계;
상기 이미지 데이터의 적어도 하나의 구역에 대한 라벨링을 수행하는 단계;
상기 이미지 데이터를 입력으로 하여 객체 데이터를 출력하도록 학습된 객체 인식 모델을 이용하여, 상기 제1 공정에 대한 객체 데이터를 결정하는 단계;
상기 객체 데이터로부터 근로자 및 관리자에 대해 안전모 및 안전조끼의 착용 여부를 결정하는 단계;
상기 근로자 및 관리자의 상기 안전모 및 안전조끼의 미착용 횟수가 제1 임계값 이상인 경우, 상기 이미지 데이터의 적어도 하나의 상기 구역을 중요 구역으로 결정하는 단계;
상기 제1 공정에 대한 상기 공정 데이터를 이용하여, 상기 이미지 데이터의 적어도 하나의 상기 구역에 대한 상기 객체의 오검출 횟수를 카운팅하는 단계; 및
상기 오검출 횟수가 제2 임계값 이상인 경우, 상기 이미지 데이터의 적어도 하나의 상기 구역을 객체 인식 예외 구역으로 결정하는 단계;를 포함하는,
건설 현장의 객체 인식 방법.
An object recognition method implemented by a processor, comprising:
Receiving image data and process data for the first process selected by the user from the manager device;
performing labeling on at least one region of the image data;
determining object data for the first process using an object recognition model learned to output object data using the image data as input;
Determining whether to wear safety helmets and safety vests for workers and managers based on the object data;
determining at least one area of the image data as an important area when the number of times the workers and managers do not wear the safety helmet and safety vest is greater than or equal to a first threshold;
using the process data for the first process, counting the number of false detections of the object for at least one of the regions of the image data; and
When the number of false detections is greater than or equal to a second threshold, determining at least one zone of the image data as an object recognition exception zone; comprising,
Object recognition method at construction site.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제1 공정은,
철근 조립, 도장 작업, 전기 설비 작업, 기계 설비 작업, 자재 인양 작업 및 옹벽 거푸집 조립 중 적어도 하나를 포함하는, 건설 현장의 객체 인식 방법.
According to paragraph 1,
The first process is,
An object recognition method at a construction site, including at least one of rebar assembly, painting work, electrical equipment work, mechanical equipment work, material lifting work, and retaining wall formwork.
제5항에 있어서,
상기 객체 데이터는,
상기 이미지 데이터로부터 식별된 상기 근로자, 상기 관리자, 상기 안전모, 상기 안전조끼, 굴삭기 또는 크레인을 포함하는 적어도 하나의 마스크(MASK)인,
건설 현장의 객체 인식 방법.
According to clause 5,
The object data is,
At least one MASK including the worker, the manager, the hard hat, the safety vest, the excavator or the crane identified from the image data,
Object recognition method at construction site.
삭제delete 제6항에 있어서,
상기 근로자 또는 상기 관리자가 상기 안전모 및 상기 안전조끼를 착용하지 않은 경우, 상기 관리자 기기에 알람을 제공하는 단계;를 더 포함하는,
건설 현장의 객체 인식 방법.
According to clause 6,
If the worker or the manager does not wear the safety helmet and the safety vest, providing an alarm to the manager device; further comprising,
Object recognition method at construction site.
제8항에 있어서,
상기 객체 인식 모델은, MASK R-CNN의 구조를 갖는,
건설 현장의 객체 인식 방법.
According to clause 8,
The object recognition model has the structure of MASK R-CNN,
Object recognition method at construction site.
통신부;
저장부; 및
상기 통신부 및 상기 저장부와 동작 가능하게 연결되는 프로세서를 포함하고,
상기 프로세서는,
관리자 기기로부터 이미지 데이터 및 사용자에 의해 선택된 제1 공정에 대한 공정 데이터를 수신하고 - 상기 제1 공정에 대한 공정 데이터는 근로자 및 관리자의 안전모 및 안전조끼의 미착용 횟수를 포함함 -,
상기 이미지 데이터의 적어도 하나의 구역에 대한 라벨링을 수행하고,
상기 이미지 데이터를 입력으로 하여 객체 데이터를 출력하도록 학습된 객체 인식 모델을 이용하여, 상기 제1 공정에 대한 객체 데이터를 결정하고,
상기 객체 데이터로부터 상기 근로자 또는 상기 관리자에 대해 상기 안전모 또는 상기 안전조끼의 착용 여부를 결정하고,
상기 근로자 및 상기 관리자의 상기 안전모 및 상기 안전조끼의 미착용 횟수가 제1 임계값 이상인 경우, 상기 이미지 데이터의 적어도 하나의 상기 구역을 중요 구역으로 결정하고,
상기 제1 공정에 대한 상기 공정 데이터를 이용하여, 상기 이미지 데이터의 적어도 하나의 상기 구역에 대한 상기 객체의 오검출 횟수를 카운팅하고,
상기 오검출 횟수가 제2 임계값 이상인 경우, 상기 이미지 데이터의 적어도 하나의 상기 구역을 객체 인식 예외 구역으로 결정하도록 구성된,
건설 현장의 객체 인식 장치.
Ministry of Communications;
storage unit; and
Comprising a processor operably connected to the communication unit and the storage unit,
The processor,
Receive image data from the manager device and process data for the first process selected by the user - the process data for the first process includes the number of times workers and managers do not wear safety helmets and safety vests -
Perform labeling on at least one region of the image data,
Determining object data for the first process using an object recognition model learned to output object data using the image data as input,
Determining whether to wear the safety helmet or safety vest for the worker or the manager from the object data,
If the number of times the worker and the manager have not worn the safety helmet and the safety vest is greater than or equal to a first threshold, determining at least one area of the image data as an important area;
Using the process data for the first process, count the number of false detections of the object for at least one region of the image data,
configured to determine at least one area of the image data as an object recognition exception area when the number of false detections is greater than or equal to a second threshold,
Object recognition device at construction site.
삭제delete 삭제delete 삭제delete 제10항에 있어서,
상기 제1 공정은,
철근 조립, 도장 작업, 전기 설비 작업, 기계 설비 작업, 자재 인양 작업 및 옹벽 거푸집 조립 중 적어도 하나를 포함하는, 건설 현장의 객체 인식 장치.
According to clause 10,
The first process is,
An object recognition device at a construction site, including at least one of rebar assembly, painting work, electrical equipment work, mechanical equipment work, material lifting work, and retaining wall formwork.
제14항에 있어서,
상기 객체 데이터는,
상기 이미지 데이터로부터 식별된 상기 근로자, 상기 관리자, 상기 안전모, 상기 안전조끼, 굴삭기 또는 크레인을 포함하는 적어도 하나의 마스크(MASK)인,
건설 현장의 객체 인식 장치.
According to clause 14,
The object data is,
At least one MASK including the worker, the manager, the hard hat, the safety vest, the excavator or the crane identified from the image data,
Object recognition device at construction site.
삭제delete 제15항에 있어서,
상기 근로자 또는 상기 관리자가 상기 안전모 및 상기 안전조끼를 착용하지 않은 경우, 상기 관리자 기기에 알람을 제공하도록 더 구성된,
건설 현장의 객체 인식 장치.
According to clause 15,
Further configured to provide an alarm to the manager device when the worker or the manager does not wear the hard hat and the safety vest,
Object recognition device at construction site.
제17항에 있어서,
상기 객체 인식 모델은, MASK R-CNN의 구조를 갖는,
건설 현장의 객체 인식 장치.
According to clause 17,
The object recognition model has the structure of MASK R-CNN,
Object recognition device at construction site.
KR1020230094864A 2023-07-20 2023-07-20 Method for object recognition of constrction sites and apparatus using the same KR102622907B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230094864A KR102622907B1 (en) 2023-07-20 2023-07-20 Method for object recognition of constrction sites and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230094864A KR102622907B1 (en) 2023-07-20 2023-07-20 Method for object recognition of constrction sites and apparatus using the same

Publications (1)

Publication Number Publication Date
KR102622907B1 true KR102622907B1 (en) 2024-01-09

Family

ID=89538308

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230094864A KR102622907B1 (en) 2023-07-20 2023-07-20 Method for object recognition of constrction sites and apparatus using the same

Country Status (1)

Country Link
KR (1) KR102622907B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230051848A (en) * 2021-10-12 2023-04-19 (주)비바 System for preventing safety accidents in dangerous areas and operation method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230051848A (en) * 2021-10-12 2023-04-19 (주)비바 System for preventing safety accidents in dangerous areas and operation method thereof

Similar Documents

Publication Publication Date Title
WO2019096008A1 (en) Identification method, computer device, and storage medium
AU2018421189B2 (en) Method for quickly opening application or application function, and terminal
JP5834083B2 (en) Multiple access level lock screen
EP3644219A1 (en) Human face feature point tracking method, device, storage medium and apparatus
US9201521B2 (en) Storing trace information
CN109446832B (en) Screen capturing method and device
WO2017032250A1 (en) Method for determining floor, related apparatus and system
US12013933B2 (en) Enhancing security using anomaly detection
CN110168487A (en) A kind of method of toch control and device
CN109976611B (en) Terminal device control method and terminal device
CN109117037B (en) Image processing method and terminal equipment
KR102622907B1 (en) Method for object recognition of constrction sites and apparatus using the same
CN111610909B (en) Screenshot method and device and electronic equipment
CN113329333B (en) Indoor positioning method and device, computer equipment and storage medium
CN115187999A (en) Text recognition method and device, electronic equipment and computer readable storage medium
WO2020192415A1 (en) Permission configuration method and terminal device
CN109831770B (en) Pairing method and device of mobile terminal, storage medium and mobile terminal
CN109995849B (en) Information recording method and terminal equipment
CN109358755B (en) Gesture detection method and device for mobile terminal and mobile terminal
CN111625156A (en) Icon display control method and device and electronic equipment
KR20240065364A (en) Method for safety detection of worker using video and apparatus using the same
KR20150024009A (en) Method for providing user input feedback and apparatus for the same
EP4199456A1 (en) Traffic classification method and apparatus, training method and apparatus, device and medium
KR20240118991A (en) Method for authentication blocking deep fake images and apparatus using the same
CN109189310B (en) Unlocking method and terminal equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant