KR20230131678A - A method and apparatus for tracking worker movement in AI-VISION based multi-camera environment - Google Patents

A method and apparatus for tracking worker movement in AI-VISION based multi-camera environment Download PDF

Info

Publication number
KR20230131678A
KR20230131678A KR1020220028876A KR20220028876A KR20230131678A KR 20230131678 A KR20230131678 A KR 20230131678A KR 1020220028876 A KR1020220028876 A KR 1020220028876A KR 20220028876 A KR20220028876 A KR 20220028876A KR 20230131678 A KR20230131678 A KR 20230131678A
Authority
KR
South Korea
Prior art keywords
identifier
camera
object image
vision
image
Prior art date
Application number
KR1020220028876A
Other languages
Korean (ko)
Inventor
김동우
최승윤
신기범
Original Assignee
한전케이디엔주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한전케이디엔주식회사 filed Critical 한전케이디엔주식회사
Priority to KR1020220028876A priority Critical patent/KR20230131678A/en
Publication of KR20230131678A publication Critical patent/KR20230131678A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법 및 장치에 관한 것이다. 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법은, (a) 제1 카메라로부터 다수의 객체 이미지를 수신하는 단계; (b) 상기 다수의 객체 이미지 각각에 포함된 객체의 특징(feature)을 추출하는 단계; (c) 상기 추출된 특징에 따라 상기 객체의 식별자(identification)를 할당하는 단계; 및 (d) 상기 식별자에 기반하여 상기 다수의 객체 이미지에서의 상기 객체의 제1 이동 경로를 산출하는 단계;를 포함할 수 있다. The present invention relates to a method and device for tracking worker movement in an AI-VISION-based multi-camera environment. A worker movement tracking method in an AI-VISION-based multi-camera environment according to an embodiment of the present invention includes the steps of: (a) receiving multiple object images from a first camera; (b) extracting features of objects included in each of the plurality of object images; (c) assigning an identifier to the object according to the extracted features; and (d) calculating a first movement path of the object in the plurality of object images based on the identifier.

Description

AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법 및 장치{A method and apparatus for tracking worker movement in AI-VISION based multi-camera environment}{A method and apparatus for tracking worker movement in AI-VISION based multi-camera environment}

본 발명은 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법 및 장치에 관한 것으로, 더욱 상세하게는 AI-VISION 기반 다중카메라 환경에서의 작업자 동선을 추적하여 위험인지 및 비상안내를 수행하는 방법 및 장치에 관한 것이다.The present invention relates to a method and device for tracking worker movements in an AI-VISION-based multi-camera environment. More specifically, a method and device for recognizing hazards and providing emergency guidance by tracking worker movements in an AI-VISION-based multi-camera environment; It's about devices.

종래에는 작업 현장에서 사고가 발생하는 것을 방지하기 위하여, 작업 현장의 관리자가 작업 현장을 직접 돌아다니며 작업자들이 안전기준을 준수하며 작업하도록 지시하거나, 작업 현장에 설치된 카메라(예: CCTV 카메라)를 통해 촬영된 작업 현장 영상을 통해 작업자들이 안전기준을 준수하며 작업하는지 여부를 모니터링하였다. Conventionally, in order to prevent accidents from occurring at the work site, the manager of the work site personally walks around the work site and instructs workers to work in compliance with safety standards, or through cameras (e.g. CCTV cameras) installed at the work site. We monitored whether workers were working in compliance with safety standards through captured work site videos.

그러나, 이러한 종래의 방법은 작업 관리자가 직접 안전기준을 준수하는지 여부를 확인하고, 이에 따른 지시를 내려야 하기 때문에 작업 관리자가 안전기준을 정확하게 숙지하고 정확한 지시를 내려야 한다는 문제가 있다.However, this conventional method has a problem in that the work manager must be accurately familiar with the safety standards and give accurate instructions because the work manager must directly check whether the safety standards are observed and give instructions accordingly.

또한, 규모가 큰 작업 현장의 경우 이러한 종래의 방법을 수행하기 위해 다수의 작업 관리자가 필요하며, 작업 현장에서 수많은 단위 작업들이 수행되기 때문에, 이러한 작업들을 일일이 확인하고 지시하기가 어렵다는 문제가 있다.Additionally, in the case of a large-scale work site, a large number of work managers are required to perform this conventional method, and since numerous unit tasks are performed at the work site, there is a problem that it is difficult to check and instruct these tasks one by one.

[특허문헌 1] 한국등록특허 제 10-2322644호[Patent Document 1] Korean Patent No. 10-2322644

본 발명은 전술한 문제점을 해결하기 위하여 창출된 것으로, AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법 및 장치를 제공하는 것을 그 목적으로 한다.The present invention was created to solve the above-mentioned problems, and its purpose is to provide a method and device for tracking worker movement in an AI-VISION-based multi-camera environment.

또한, 본 발명은 카메라로부터 획득된 객체 이미지에 포함된 객체의 ID를 비교하여 개인 정보 유출 없이 객체의 이동 경로를 파악하기 위한 방법 및 장치를 제공하는 것을 그 목적으로 한다.Additionally, the purpose of the present invention is to provide a method and device for identifying the movement path of an object without leaking personal information by comparing the ID of the object included in the object image obtained from a camera.

또한, 본 발명은 객체의 이동 경로에 따라 객체의 위험 시설 접근 여부 및 위험 알림을 수행하기 위한 방법 및 장치를 제공하는 것을 그 목적으로 한다. Additionally, the purpose of the present invention is to provide a method and device for determining whether an object is approaching a dangerous facility and providing risk notification according to the object's movement path.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned can be clearly understood from the description below.

상기한 목적들을 달성하기 위하여, 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법은, (a) 제1 카메라로부터 다수의 객체 이미지를 수신하는 단계; (b) 상기 다수의 객체 이미지 각각에 포함된 객체의 특징(feature)을 추출하는 단계; (c) 상기 추출된 특징에 따라 상기 객체의 식별자(identification, ID)를 할당하는 단계; 및 (d) 상기 식별자에 기반하여 상기 다수의 객체 이미지에서의 상기 객체의 제1 이동 경로를 산출하는 단계;를 포함할 수 있다. In order to achieve the above objectives, a method for tracking worker movement in an AI-VISION-based multi-camera environment according to an embodiment of the present invention includes the steps of: (a) receiving a plurality of object images from a first camera; (b) extracting features of objects included in each of the plurality of object images; (c) assigning an identifier (ID) to the object according to the extracted features; and (d) calculating a first movement path of the object in the plurality of object images based on the identifier.

실시예에서, 상기 (b) 단계는, 상기 다수의 객체 이미지 각각을 객체 인식 모델에 적용하여 상기 다수의 객체 이미지 각각에 포함된 객체를 식별하는 단계; 및 상기 식별된 객체로부터 상기 특징을 추출하는 단계;를 포함할 수 있다. In an embodiment, step (b) includes identifying an object included in each of the plurality of object images by applying each of the plurality of object images to an object recognition model; and extracting the feature from the identified object.

실시예에서, 상기 (d) 단계는, 제1 객체 이미지에 포함된 객체의 식별자와 제2 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 상기 제1 객체 이미지에서의 객체의 제1 좌표와 상기 제2 객체 이미지에서의 객체의 제2 좌표를 이용하여 상기 객체의 제1 이동 경로를 산출하는 단계;를 포함할 수 있다. In an embodiment, step (d) is performed when the identifier of the object included in the first object image is the same as the identifier of the object included in the second object image, the first coordinates of the object in the first object image and the It may include calculating a first movement path of the object using second coordinates of the object in the second object image.

실시예에서, 상기 (a) 단계는, 상기 제1 카메라로부터 제3 객체 이미지를 수신하고, 제2 카메라로부터 제4 객체 이미지를 수신하는 단계;를 포함할 수 있다.In an embodiment, step (a) may include receiving a third object image from the first camera and receiving a fourth object image from the second camera.

실시예에서, 상기 (b) 단계는, 상기 제3 객체 이미지에 포함된 객체의 특징을 추출하고, 상기 제4 객체 이미지에 포함된 객체의 특징을 추출하는 단계;를 포함하고, 상기 (c) 단계는, 상기 추출된 특징에 따라 상기 제3 객체 이미지에 포함된 객체의 식별자를 할당하고, 상기 제4 객체 이미지에 포함된 객체의 식별자를 할당하는 단계;를 포함할 수 있다. In an embodiment, step (b) includes extracting features of an object included in the third object image and extracting features of an object included in the fourth object image, and (c) The step may include assigning an identifier of an object included in the third object image and assigning an identifier of an object included in the fourth object image according to the extracted feature.

실시예에서, 상기 (d) 단계는, 상기 제3 객체 이미지에 포함된 객체의 식별자와 상기 제4 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 상기 제3 객체 이미지에서의 객체의 제3 좌표와 상기 제4 객체 이미지에서의 객체의 제4 좌표를 이용하여 상기 객체의 제2 이동 경로를 산출하는 단계;를 포함할 수 있다. In an embodiment, step (d) is performed when the identifier of the object included in the third object image is the same as the identifier of the object included in the fourth object image, the third coordinate of the object in the third object image and calculating a second movement path of the object using the fourth coordinates of the object in the fourth object image.

실시예에서, 상기 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법은, 상기 (d) 단계 이후에, 상기 객체의 제2 이동 경로에 기반하여 상기 객체의 제3 좌표 및 제4 좌표 중 적어도 하나와 미리 저장된 위험 시설의 좌표의 거리가 임계값보다 작은 경우, 상기 객체의 상태를 위험 상태로 결정하는 단계;를 더 포함할 수 있다. In an embodiment, the worker movement line tracking method in the AI-VISION-based multi-camera environment is, after step (d), at least one of the third and fourth coordinates of the object based on the second movement path of the object. If the distance between one and the pre-stored coordinates of the dangerous facility is less than the threshold, determining the state of the object as a dangerous state may be further included.

실시예에서, 상기 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법은, 상기 (d) 단계 이후에, 상기 객체의 상태를 위험 상태로 결정함에 따라, 상기 객체에 대한 비상 안내를 수행하는 단계;를 더 포함할 수 있다. In an embodiment, the worker movement tracking method in the AI-VISION-based multi-camera environment includes, after step (d), performing emergency guidance for the object as the state of the object is determined to be in a dangerous state. It may further include ;.

실시예에서, AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치는, 제1 카메라로부터 다수의 객체 이미지를 수신하는 통신부; 및 상기 다수의 객체 이미지 각각에 포함된 객체의 특징(feature)을 추출하고, 상기 추출된 특징에 따라 상기 객체의 식별자(identification, ID)를 할당하고, 상기 식별자에 기반하여 상기 다수의 객체 이미지에서의 상기 객체의 제1 이동 경로를 산출하는 제어부;를 포함할 수 있다. In an embodiment, a worker movement tracking device in an AI-VISION-based multi-camera environment includes a communication unit that receives multiple object images from a first camera; and extracting features of the object included in each of the plurality of object images, assigning an identifier (ID) to the object according to the extracted features, and assigning an identifier (ID) to the object in the plurality of object images based on the identifier. may include a control unit that calculates the first movement path of the object.

실시예에서, 상기 제어부는, 상기 다수의 객체 이미지 각각을 객체 인식 모델에 적용하여 상기 다수의 객체 이미지 각각에 포함된 객체를 식별하고, 상기 식별된 객체로부터 상기 특징을 추출할 수 있다. In an embodiment, the control unit may apply each of the plurality of object images to an object recognition model to identify objects included in each of the plurality of object images and extract the features from the identified objects.

실시예에서, 상기 제어부는, 제1 객체 이미지에 포함된 객체의 식별자와 제2 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 상기 제1 객체 이미지에서의 객체의 제1 좌표와 제2 객체 이미지에서의 객체의 제2 좌표를 이용하여 상기 객체의 제1 이동 경로를 산출할 수 있다. In an embodiment, when the identifier of the object included in the first object image is the same as the identifier of the object included in the second object image, the control unit determines the first coordinates of the object in the first object image and the second object image. The first movement path of the object can be calculated using the second coordinates of the object.

실시예에서, 상기 통신부는, 상기 제1 카메라로부터 제3 객체 이미지를 수신하고, 제2 카메라로부터 제4 객체 이미지를 수신할 수 있다. In an embodiment, the communication unit may receive a third object image from the first camera and a fourth object image from the second camera.

실시예에서, 상기 제어부는, 상기 제3 객체 이미지에 포함된 객체의 특징을 추출하고, 상기 제4 객체 이미지에 포함된 객체의 특징을 추출하고, 상기 추출된 특징에 따라 상기 제3 객체 이미지에 포함된 객체의 식별자를 할당하고, 상기 제4 객체 이미지에 포함된 객체의 식별자를 할당할 수 있다. In an embodiment, the control unit extracts features of an object included in the third object image, extracts features of an object included in the fourth object image, and stores the object in the third object image according to the extracted features. The identifier of the included object may be assigned, and the identifier of the object included in the fourth object image may be assigned.

실시예에서, 상기 제어부는,상기 제3 객체 이미지에 포함된 객체의 식별자와 상기 제4 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 상기 제3 객체 이미지에서의 객체의 제3 좌표와 상기 제4 객체 이미지에서의 객체의 제4 좌표를 이용하여 상기 객체의 제2 이동 경로를 산출할 수 있다. In an embodiment, the control unit, when the identifier of the object included in the third object image and the identifier of the object included in the fourth object image are the same, the third coordinate of the object in the third object image 4 The second movement path of the object can be calculated using the fourth coordinate of the object in the object image.

실시예에서, 상기 제어부는, 상기 객체의 제2 이동 경로에 기반하여 상기 객체의 제3 좌표 및 제4 좌표 중 적어도 하나와 미리 저장된 위험 시설의 좌표의 거리가 임계값보다 작은 경우, 상기 객체의 상태를 위험 상태로 결정할 수 있다. In an embodiment, the control unit, based on the second movement path of the object, when the distance between at least one of the third coordinates and fourth coordinates of the object and the pre-stored coordinates of the dangerous facility is less than the threshold, the The state can be determined as a critical state.

실시예에서, 상기 제어부는, 상기 객체의 상태를 위험 상태로 결정함에 따라, 상기 객체에 대한 비상 안내를 수행할 수 있다. In an embodiment, the control unit may perform emergency guidance for the object as it determines the state of the object to be in a dangerous state.

상기한 목적들을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술될 실시예들을 참조하면 명확해질 것이다.Specific details for achieving the above objectives will become clear by referring to the embodiments described in detail below along with the attached drawings.

그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자(이하, "통상의 기술자")에게 발명의 범주를 완전하게 알려주기 위해서 제공되는 것이다.However, the present invention is not limited to the embodiments disclosed below, and may be configured in various different forms. In order to ensure that the disclosure of the present invention is complete, those skilled in the art ( It is provided to fully inform those skilled in the art of the invention of the scope of the invention.

본 발명의 일 실시예에 의하면, 카메라에 촬영된 영상만으로 개인정보 연계 없이 객체의 신장, 골격 및 옷 색상 등의 정보만으로 영상 속 특정인을 타인과 식별할 수 있다.According to one embodiment of the present invention, it is possible to identify a specific person in an image from another person using only information such as the object's height, skeleton, and clothing color, without linking personal information, using only an image captured by a camera.

또한, 본 발명의 일 실시예에 의하면, 위험시설 또는 비허가 시설에 접근하는지의 여부를 추적하거나 화재등 긴급 상황 발생 시 빠른 안전 지역으로 이동시켜 발전소 및 전력구 등 위험 시설이 밀집한 공간에서의 작업자를 보호할 수 있다. In addition, according to an embodiment of the present invention, workers in spaces crowded with dangerous facilities such as power plants and power outlets can be tracked to determine whether they are approaching dangerous facilities or unauthorized facilities or quickly moved to a safe area in the event of an emergency such as a fire. can protect.

본 발명의 효과들은 상술된 효과들로 제한되지 않으며, 본 발명의 기술적 특징들에 의하여 기대되는 잠정적인 효과들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects described above, and potential effects expected by the technical features of the present invention can be clearly understood from the description below.

도 1은 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 과정을 도시한 도면이다.
도 3a는 본 발명의 일 실시예에 따른 이동 추적의 예를 도시한 도면이다.
도 3b는 본 발명의 일 실시예에 따른 통합 추적의 예를 도시한 도면이다.
도 3c는 본 발명의 일 실시예에 따른 위치 안내의 예를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치의 기능적 구성을 도시한 도면이다.
Figure 1 is a diagram illustrating a worker movement tracking system in an AI-VISION-based multi-camera environment according to an embodiment of the present invention.
Figure 2 is a diagram illustrating a worker movement line tracking process in an AI-VISION-based multi-camera environment according to an embodiment of the present invention.
FIG. 3A is a diagram illustrating an example of movement tracking according to an embodiment of the present invention.
Figure 3b is a diagram illustrating an example of integrated tracking according to an embodiment of the present invention.
FIG. 3C is a diagram illustrating an example of location guidance according to an embodiment of the present invention.
Figure 4 is a diagram illustrating a method for tracking worker movement in an AI-VISION-based multi-camera environment according to an embodiment of the present invention.
Figure 5 is a diagram showing the functional configuration of a worker movement tracking device in an AI-VISION-based multi-camera environment according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고, 여러 가지 실시예들을 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. Since the present invention can be subject to various changes and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail.

청구범위에 개시된 발명의 다양한 특징들은 도면 및 상세한 설명을 고려하여 더 잘 이해될 수 있을 것이다. 명세서에 개시된 장치, 방법, 제법 및 다양한 실시예들은 예시를 위해서 제공되는 것이다. 개시된 구조 및 기능상의 특징들은 통상의 기술자로 하여금 다양한 실시예들을 구체적으로 실시할 수 있도록 하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다. 개시된 용어 및 문장들은 개시된 발명의 다양한 특징들을 이해하기 쉽게 설명하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다.The various features of the invention disclosed in the claims may be better understood by consideration of the drawings and detailed description. The apparatus, method, manufacturing method, and various embodiments disclosed in the specification are provided for illustrative purposes. The disclosed structural and functional features are intended to enable those skilled in the art to specifically implement various embodiments, and are not intended to limit the scope of the invention. The disclosed terms and sentences are intended to easily explain various features of the disclosed invention and are not intended to limit the scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.In describing the present invention, if it is determined that a detailed description of related known technology may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

이하, 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법 및 장치를 설명한다.Hereinafter, a method and device for tracking worker movement in an AI-VISION-based multi-camera environment according to an embodiment of the present invention will be described.

도 1은 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 시스템(100)을 도시한 도면이다.Figure 1 is a diagram illustrating a worker movement tracking system 100 in an AI-VISION-based multi-camera environment according to an embodiment of the present invention.

도 1을 참고하면, 작업자 동선추적 시스템(100)은 적어도 하나의 카메라(110) 및 서버(120)를 포함할 수 있다. Referring to FIG. 1, the worker movement tracking system 100 may include at least one camera 110 and a server 120.

각 카메라(110)는 객체(예: 사람)를 포함하는 객체 이미지를 촬영하여, 서버(120)에게 송신할 수 있다. Each camera 110 may capture an object image including an object (eg, a person) and transmit it to the server 120 .

서버(120)는 수신된 객체 이미지에 포함된 객체의 특징(feature)을 추출하여 객체에 대한 식별자(identification, ID)를 할당할 수 있다.The server 120 may extract features of the object included in the received object image and assign an identifier (ID) to the object.

이후, 서버(120)는 식별자에 기반하여 특정 카메라로부터 수신된 매 프레임별 객체 이미지에서의 객체의 제1 이동 경로를 산출할 수 있다. Thereafter, the server 120 may calculate the first movement path of the object in the object image for each frame received from a specific camera based on the identifier.

또한, 객체가 다른 카메라로부터 수신된 객체 이미지에서 식별된 객체의 ID와 특정 카메라로부터 수신된 객체 이미지에서 식별된 객체의 ID가 동일한 경우, 각 객체 이미지에서의 객체의 좌표에 따라 객체의 제2 이동 경로를 산출할 수 있다.In addition, when the ID of the object identified in the object image received from another camera is the same as the ID of the object identified in the object image received from a specific camera, the object is moved according to the coordinates of the object in each object image. The route can be calculated.

이후, 서버(120)는 객체의 제2 이동 경로에 따라 객체가 위험 시설에 근접하는 경우 위험 알림을 수행할 수 있다. Thereafter, the server 120 may perform a risk notification when the object approaches a dangerous facility according to the object's second movement path.

이에, 본 발명에 따르면, 개인정보 침해 없는 개인 특징 활용을 취한 복합적 특징 추출을 수행할 수 있다. Accordingly, according to the present invention, it is possible to perform complex feature extraction utilizing personal features without violating personal information.

일 실시예에서, 객체가 사람인 경우, 사람의 얼굴 인식을 수행하여 객체를 식별할 수 있다. In one embodiment, if the object is a person, the object may be identified by performing face recognition of the person.

일 실시예에서, 사람의 골격 인지를 수행하여 객체를 식별하고 객체의 행동을 산출할 수 있다. In one embodiment, human skeletal recognition may be performed to identify an object and calculate its behavior.

일 실시예에서, 객체 이미지를 객체 인식 모델에 적용하여 객체 이미지 각각에 포함된 객체를 식별할 수 있다. 이 경우, 객체 인식 모델은 여러 종류의 AI 모델이 사용될 수 있으며, 각 AI 모델에서 추출된 특징의 공유가 수행될 수 있다. In one embodiment, the object images included in each object image can be identified by applying the object image to an object recognition model. In this case, several types of AI models may be used as the object recognition model, and features extracted from each AI model may be shared.

일 실시예에서, 서버(120)는 수신된 객체 이미지에 포함된 객체의 특징을 추출하며, 특징 맵(Feature Map)을 이용하여 특징을 관리할 수 있다. In one embodiment, the server 120 may extract features of an object included in a received object image and manage the features using a feature map.

본 발명에 따르면, 개인 정보와 무관한 개인의 ID를 관리할 수 있다. 예를 들어, 카메라(110)에 촬영된 영상만으로 개인정보 연계 없이 객체의 신장, 골격 및 옷 색상 등의 정보만으로 영상 속 특정인을 타인과 식별할 수 있다.According to the present invention, it is possible to manage an individual's ID unrelated to personal information. For example, it is possible to identify a specific person in the image from another person using only information such as the object's height, skeleton, and clothing color, without linking personal information, using only the image captured by the camera 110.

도 2는 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 과정을 도시한 도면이다. 일 실시예에서, 도 2의 각 단계는 도 5의 작업자 동선추적 장치(500)에 의해 수행될 수 있다. 도 3a는 본 발명의 일 실시예에 따른 이동 추적의 예를 도시한 도면이다. 도 3b는 본 발명의 일 실시예에 따른 통합 추적의 예를 도시한 도면이다. 도 3c는 본 발명의 일 실시예에 따른 위치 안내의 예를 도시한 도면이다.Figure 2 is a diagram illustrating a worker movement line tracking process in an AI-VISION-based multi-camera environment according to an embodiment of the present invention. In one embodiment, each step of FIG. 2 may be performed by the worker movement tracking device 500 of FIG. 5. FIG. 3A is a diagram illustrating an example of movement tracking according to an embodiment of the present invention. Figure 3b is a diagram illustrating an example of integrated tracking according to an embodiment of the present invention. FIG. 3C is a diagram illustrating an example of location guidance according to an embodiment of the present invention.

도 2를 참고하면, 관리 정보 저장 단계에서(S201), 작업자 동선추적 시스템(100) 내에 위치하는 시설물의 평명도 및 카메라(예: CCTV)의 위치 정보를 저장할 수 있다. Referring to FIG. 2, in the management information storage step (S201), the flatness of facilities located within the worker movement tracking system 100 and the location information of cameras (eg, CCTV) can be stored.

예를 들어, 발전소, 전력구 등 다양한 시설물의 평면도 및 메타정보를 DBMS로 관리할 수 있다. For example, floor plans and meta information of various facilities such as power plants and power outlets can be managed with DBMS.

객체 식별 단계에서(S203), 특정 카메라에서 촬영된 객체 이미지로부터 객체(예: 사람)를 식별할 수 있다. In the object identification step (S203), an object (eg, a person) can be identified from an object image captured by a specific camera.

일 실시예에서, 카메라의 스트리밍 영상을 프레임별로 객체 이미지로 분할한 후, 분할된 객체 이미지에서 객체의 형상이 있는지 판단할 수 있다. In one embodiment, the streaming video from the camera is divided into object images for each frame, and then it is determined whether the shape of the object is present in the divided object image.

일 실시예에서, 객체의 형상을 인지하는 방법은 Yolo 등의 인공지능 알고리즘을 기반으로 여러 가지 객체 형상을 학습하여 판별할 수 있다.In one embodiment, a method of recognizing the shape of an object can be determined by learning various object shapes based on an artificial intelligence algorithm such as Yolo.

일 실시예에서, 객체의 형상으로 판별될 경우 이동 추적을 위한 입력값으로 사용할 수 있다.In one embodiment, if it is determined to be the shape of an object, it can be used as an input value for movement tracking.

식별자 할당 단계에서(S205), 객체별 특징을 추출하여 식별자(identification, ID)를 부여할 수 있다. In the identifier allocation step (S205), characteristics of each object may be extracted and an identifier (ID) may be assigned.

일 실시예에서, 입력된 객체의 형상을 기반으로 객체의 특징을 추출할 수 있다. In one embodiment, features of an object may be extracted based on the shape of the input object.

예를 들어, 객체가 사람인 경우, 개인별 특징은 키, 골격 구조 및 옷 색상 등의 정보를 포함할 수 있다. 이 경우, 특징은 해당 객체에 대한 이름과 주민 번호 등 개인 정보를 포함하지 않는다. For example, if the object is a person, individual characteristics may include information such as height, skeletal structure, and clothing color. In this case, the features do not contain personal information such as name or social security number for the object in question.

일 실시예에서, 특징이 추출되면 객체에 대한 ID를 발급하고, 특징과 함께 DBMS에 입력할 수 있다.In one embodiment, once the features are extracted, an ID for the object can be issued and entered into the DBMS along with the features.

일 실시에에서, 매 프레임마다 S201 내지 S205 단계를 반복하여 수행할 수 있다. In one embodiment, steps S201 to S205 may be repeatedly performed for each frame.

도 3a를 참고하면, 제1 이동 경로 생성 단계에서(S207), 매 프레임마다 객체 이미지로부터 객체의 특징을 추출하여, 객체의 ID별 특징을 비교하여 특정 카메라에 의해 촬영된 객체 이미지 내에서의 객체의 제1 이동 경로를 생성할 수 있다. Referring to FIG. 3A, in the first movement path creation step (S207), the characteristics of the object are extracted from the object image for each frame, and the characteristics of each ID of the object are compared to identify the object in the object image captured by a specific camera. The first movement path can be created.

일 실시예에서, 객체 이미지는 매 프레임별 촬영될 수 있으며, 다수의 객체 이미지로 구성될 수 있다. In one embodiment, an object image may be captured for each frame and may be composed of multiple object images.

일 실시예에서, 다음 프레임의 객체 이미지에서의 특징 추출이 완료되면, 기존에 저장된 ID에 대응하는 특징과 비교할 수 있다. In one embodiment, when feature extraction from the object image of the next frame is completed, it may be compared with features corresponding to previously stored IDs.

일 실시에에서, 기존에 동일한 특징에 대응하는 객체의 ID가 존재하는 경우, 객체의 이전 좌표와 현재 좌표를 연결하여 제1 이동 경로를 생성할 수 있다. 이 경우, 제1 이동 경로는 “작은 이동경로” 또는 이와 동등한 기술적 의미를 갖는 용어로 지칭될 수 있다. In one embodiment, if there is an existing ID of an object corresponding to the same feature, the first movement path may be created by connecting the previous coordinates of the object and the current coordinates. In this case, the first movement path may be referred to as a “small movement path” or a term with equivalent technical meaning.

도 3b를 참고하면, 제2 이동 경로 생성 단계에서(S209), 다른 카메라에 객체가 촬영될 경우, 다른 카메라에 의해 촬영된 객체 이미지에 포함된 객체의 ID와 특정 카메라에 의해 촬영된 객체 이미지에 포함된 객체의 ID를 비교하여, 특정 카메라와 다른 카메라 각각에 의해 촬영된 객체 이미지 내에서의 객체의 제2 이동 경로를 생성할 수 있다. Referring to FIG. 3B, in the second movement path creation step (S209), when an object is photographed by another camera, the ID of the object included in the object image photographed by the other camera and the object image photographed by the specific camera By comparing the IDs of the included objects, a second movement path of the object within the object image captured by each of the specific camera and the other camera can be generated.

일 실시예에서, 다른 카메라로부터 수신한 객체 이미지에 대하여도 S201 내지 S205 단계를 반복적으로 수행할 수 있다. In one embodiment, steps S201 to S205 may be repeatedly performed on object images received from other cameras.

일 실시예에서, 다른 카메라로부터 수신한 객체 이미지로부터 새롭게 추출된 객체의 ID의 특징과 특정 카메라로부터 수신한 객체 이미지로부터 과거에 식별된 객체의 ID의 특징을 비교할 수 있다. In one embodiment, the ID features of an object newly extracted from an object image received from another camera may be compared with the ID features of an object previously identified from an object image received from a specific camera.

일 실시예에서, 두 ID의 특징이 같을 경우, 객체의 새로운 제2 이동 경로를 생성할 수 있다. 이 경우, 제2 이동 경로는 “큰 이동경로” 또는 이와 동등한 기술적 의미를 갖는 용어로 지칭될 수 있다. In one embodiment, if the characteristics of the two IDs are the same, a new second movement path of the object may be created. In this case, the second movement path may be referred to as a “large movement path” or a term with equivalent technical meaning.

위험 시설 접근 식별 단계에서(S211), ID가 부여된 객체가 위험 시설에 접근하는 것을 식별할 수 있다. 일 실시예에서, 객체의 좌표와 위험 시설의 좌표 간 거리가 임계값 미만인 경우 객체가 위험 시설에 접근하는 것으로 결정할 수 있다. In the dangerous facility access identification step (S211), it is possible to identify an object assigned an ID approaching a dangerous facility. In one embodiment, if the distance between the coordinates of the object and the coordinates of the hazardous facility is less than a threshold, it may be determined that the object is approaching the hazardous facility.

일 실시예에서, 제2 이동 경로가 DBMS로 관리하는 위험 시설과 근접할 경우 객체의 상태를 위험 상태로 인지할 수 있다.In one embodiment, when the second movement path is close to a dangerous facility managed by DBMS, the state of the object may be recognized as dangerous.

도 3c를 참고하면, 위험 안내 단계에서(S213), ID가 부여된 객체와 가장 가까운 안전 시설(예: 비상구)의 위치를 안내할 수 있다. Referring to FIG. 3C, in the risk guidance step (S213), the location of the safety facility (e.g., emergency exit) closest to the ID-assigned object may be provided.

일 실시예에서, 화재등 비상 상황 발생 시 현재 인지된 객체의 ID의 위치를 계산할 수 있다. 예를 들어, DBMS로 관리하는 가장 가까운 비상구까지의 거리를 산출하여 객체의 위치를 계산할 수 있다.In one embodiment, when an emergency situation such as a fire occurs, the location of the ID of the currently recognized object can be calculated. For example, the location of an object can be calculated by calculating the distance to the nearest emergency exit managed by DBMS.

일 실시예에서, 발전소 내에서의 위험 행동을 정의하고, 정의된 동작 발견 시 즉시 경보를 제공할 수 있다. In one embodiment, hazardous behavior within a power plant can be defined and alerts can be provided immediately upon detection of the defined behavior.

일 실시예에서, 위험 설비 주변에서의 작업자의 특정 행동 발견 시 즉시 멈춤 체계를 적용할 수 있다. In one embodiment, an immediate stop system may be applied upon detection of certain actions of workers around hazardous equipment.

일 실시예에서, 작업자의 설비에 대한 오작동 실행에 대한 실시간 교정 안내 메시지를 발송할 수 있다. In one embodiment, a real-time correction guidance message may be sent regarding a malfunction of the operator's equipment.

도 4는 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법을 도시한 도면이다. 일 실시예에서, 도 4의 각 단계는 도 5의 작업자 동선추적 장치(500)에 의해 수행될 수 있다. Figure 4 is a diagram illustrating a method for tracking worker movement in an AI-VISION-based multi-camera environment according to an embodiment of the present invention. In one embodiment, each step of FIG. 4 may be performed by the worker movement tracking device 500 of FIG. 5.

도 4를 참고하면, S401 단계는, 제1 카메라로부터 다수의 객체 이미지를 수신하는 단계이다. Referring to FIG. 4, step S401 is a step of receiving multiple object images from the first camera.

일 실시예에서, 제1 카메라로부터 제3 객체 이미지를 수신하고, 제2 카메라로부터 제4 객체 이미지를 수신할 수 있다. In one embodiment, a third object image may be received from a first camera, and a fourth object image may be received from a second camera.

S403 단계는, 다수의 객체 이미지 각각에 포함된 객체의 특징(feature)을 추출하는 단계이다. Step S403 is a step of extracting features of objects included in each of a plurality of object images.

일 실시예에서, 다수의 객체 이미지 각각을 객체 인식 모델에 적용하여 다수의 객체 이미지 각각에 포함된 객체를 식별하고, 상기 식별된 객체로부터 특징을 추출할 수 있다. In one embodiment, each of the multiple object images may be applied to an object recognition model to identify objects included in each of the multiple object images, and features may be extracted from the identified objects.

일 실시예에서, 제3 객체 이미지에 포함된 객체의 특징을 추출하고, 제4 객체 이미지에 포함된 객체의 특징을 추출할 수 있다. In one embodiment, features of the object included in the third object image may be extracted and features of the object included in the fourth object image may be extracted.

S405 단계는, 상기 추출된 특징에 따라 객체의 식별자(identification, ID)하는 단계이다. Step S405 is a step of identifying (ID) the object according to the extracted features.

일 실시예에서, 상기 추출된 특징에 따라 제3 객체 이미지에 포함된 객체의 식별자를 할당하고, 제4 객체 이미지에 포함된 객체의 식별자를 할당할 수 있다. In one embodiment, the identifier of the object included in the third object image may be assigned and the identifier of the object included in the fourth object image may be assigned according to the extracted features.

S407 단계는, 식별자에 기반하여 다수의 객체 이미지에서의 객체의 제1 이동 경로를 산출하는 단계이다. Step S407 is a step of calculating the first movement path of the object in the multiple object images based on the identifier.

일 실시예에서, 제1 객체 이미지에 포함된 객체의 식별자와 제2 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 제1 객체 이미지에서의 객체의 제1 좌표와 제2 객체 이미지에서의 객체의 제2 좌표를 이용하여 객체의 제1 이동 경로를 산출할 수 있다. In one embodiment, when the identifier of the object included in the first object image and the identifier of the object included in the second object image are the same, the first coordinates of the object in the first object image and the identifier of the object in the second object image The first movement path of the object can be calculated using the second coordinates.

일 실시예에서, 제3 객체 이미지에 포함된 객체의 식별자와 제4 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 제3 객체 이미지에서의 객체의 제3 좌표와 제4 객체 이미지에서의 객체의 제4 좌표를 이용하여 객체의 제2 이동 경로를 산출할 수 있다.In one embodiment, when the identifier of the object included in the third object image and the identifier of the object included in the fourth object image are the same, the third coordinates of the object in the third object image and the identifier of the object in the fourth object image are the same. The second movement path of the object can be calculated using the fourth coordinate.

즉, 객체가 제1 카메라가 촬영하는 객체 이미지에 포함되어 있다가 이동하여 제2 카메라가 촬영하는 객체 이미지에 포함되는 경우, 이에 대한 제2 이동 경로를 산출할 수 있다. That is, when an object is included in an object image captured by a first camera and then moves to be included in an object image captured by a second camera, a second movement path for the object can be calculated.

일 실시예에서, S407 단계 이후에, 객체의 제2 이동 경로에 기반하여 객체의 제3 좌표 및 제4 좌표 중 적어도 하나와 미리 저장된 위험 시설의 거리가 임계값보다 작은 경우, 객체의 상태를 위험 상태로 결정할 수 있다. In one embodiment, after step S407, if the distance between at least one of the third coordinate and the fourth coordinate of the object and the pre-stored dangerous facility is less than the threshold based on the second movement path of the object, the state of the object is determined to be dangerous. It can be decided by state.

일 실시예에서, S407 단계 이후에, 객체의 상태를 위험 상태로 결정함에 따라, 객체에 대한 비상 안내를 수행할 수 있다. In one embodiment, after step S407, as the state of the object is determined to be in a dangerous state, emergency guidance for the object may be performed.

예를 들어, 객체의 제2 이동 경로에 위치하는 스피커에게 비상 안내 음성을 출력하도록 제어하는 신호를 송신할 수 있다. For example, a signal that controls the output of an emergency guidance voice may be transmitted to a speaker located in the second movement path of the object.

다른 예를 들어, 객체가 소지하는 단말기에게 비상 안내 신호를 송신할 수 있다. For another example, an emergency guidance signal may be transmitted to a terminal possessed by an object.

일 실시예에서, 제1 카메라와 제2 카메라가 서로 중첩되지 않는 영역을 촬영할 때, 제1 카메라가 특정 시점에 촬영한 제3 객체 이미지에 포함된 제1 객체의 ID와 제2 카메라가 동일한 특정 시점에 촬영한 제4 객체 이미지에 포함된 제2 객체의 ID가 동일한 경우, 제1 객체의 제2 이동 경로를 제1 가중치로 하여 제1 객체의 ID를 보정하고, 제2 객체의 제2 이동 경로를 제2 가중치로 하여 제2 객체의 ID를 보정하여 제1 객체의 ID와 제2 객체의 ID를 서로 다르게 조정할 수 있다.In one embodiment, when the first camera and the second camera photograph an area that does not overlap each other, the ID of the first object included in the third object image captured by the first camera at a specific point in time is the same as the second camera. If the ID of the second object included in the fourth object image taken at the viewpoint is the same, the ID of the first object is corrected using the second movement path of the first object as the first weight, and the second movement of the second object is performed. By correcting the ID of the second object using the path as the second weight, the ID of the first object and the ID of the second object can be adjusted to be different from each other.

즉, 객체가 사람인 경우, 보호 장비나 마스크를 착용하고 체형이 비슷한 경우 서로 다른 사람이 경우라도 특징을 분석하는 경우 서로 동일한 객체라고 판단될 수 있으며, 이 경우, 각 객체가 이동해온 제2 이동 경로를 가중치로 객체의 ID를 보정하여 객체를 구분할 수 있다. In other words, if the object is a person, if they are wearing protective equipment or a mask and have a similar body shape, even if they are different people, if their characteristics are analyzed, they can be judged to be the same object. In this case, the second movement path along which each object has moved Objects can be distinguished by correcting the ID of the object using weight.

만약, 보호 장비나 마스크를 착용하고 체형이 비슷한 두 사람이 나란히 동일한 이동 경로로 이동하는 경우, 이동 경로로 구분되지 않을 수 있으며, 이 때, 외부 소리에 대한 각 객체의 행동 반응을 가중치로 객체의 ID를 보정하여 객체를 구분할 수 있다. If two people wearing protective equipment or masks and having similar body types move side by side along the same movement path, they may not be distinguished by the movement path, and in this case, each object's behavioral response to external sounds is weighted to determine the object's size. Objects can be distinguished by correcting their IDs.

예를 들어, 제3자가 각 사람(즉, 객체)를 부르는 소리에 반응하는 상태에 따라 가중치를 달리하여 ID를 보정하거나, 설비 가동 소리에 반응하는지 여부에 따라 해당 설비의 관리자에 해당하는 객체의 ID를 보정하여 객체를 구분할 수 있다. For example, the ID can be corrected by varying the weight depending on the state in which a third party responds to the sound calling each person (i.e., object), or the identity of the object corresponding to the manager of the facility depending on whether it responds to the sound of the facility operating. Objects can be distinguished by correcting their IDs.

도 5는 본 발명의 일 실시예에 따른 AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치(500)의 기능적 구성을 도시한 도면이다. 일 실시예에서, 도 5의 작업자 동선추적 장치(500)는 도 1의 서버(120)를 포함할 수 있다. Figure 5 is a diagram showing the functional configuration of the worker movement tracking device 500 in an AI-VISION-based multi-camera environment according to an embodiment of the present invention. In one embodiment, the worker movement tracking device 500 of FIG. 5 may include the server 120 of FIG. 1.

도 5를 참고하면, 작업자 동선추적 장치(500)는 통신부(510), 제어부(520) 및 저장부(530)를 포함할 수 있다.Referring to FIG. 5, the worker movement tracking device 500 may include a communication unit 510, a control unit 520, and a storage unit 530.

통신부(510)는 제1 카메라로부터 다수의 객체 이미지를 수신할 수 있다. The communication unit 510 may receive multiple object images from the first camera.

일 실시예에서, 통신부(510)는 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다. 통신부(510)의 전부 또는 일부는 '송신부', '수신부' 또는 '송수신부(transceiver)'로 지칭될 수 있다.In one embodiment, the communication unit 510 may include at least one of a wired communication module and a wireless communication module. All or part of the communication unit 510 may be referred to as a 'transmitter', 'receiver', or 'transceiver'.

제어부(520)는 다수의 객체 이미지 각각에 포함된 객체의 특징(feature)을 추출하고, 상기 추출된 특징에 따라 객체의 식별자(identification, ID)를 할당하고, 식별자에 기반하여 다수의 객체 이미지에서의 객체의 제1 이동 경로를 산출할 수 있다. The control unit 520 extracts features of the object included in each of the multiple object images, assigns an identifier (ID) to the object according to the extracted features, and selects the object from the multiple object images based on the identifier. The first movement path of the object can be calculated.

일 실시예에서, 제어부(520)는 적어도 하나의 프로세서 또는 마이크로(micro) 프로세서를 포함하거나, 또는, 프로세서의 일부일 수 있다. 또한, 제어부(520)는 CP(communication processor)라 지칭될 수 있다. 제어부(520)는 본 발명의 다양한 실시예에 따른 작업자 동선추적 장치(500)의 동작을 제어할 수 있다. In one embodiment, the control unit 520 may include at least one processor or microprocessor, or may be part of a processor. Additionally, the control unit 520 may be referred to as a communication processor (CP). The control unit 520 can control the operation of the worker movement tracking device 500 according to various embodiments of the present invention.

저장부(530)는 객체 이미지, 객체의 특징 및 식별자, 객체의 이동 경로를 저장할 수 있다.The storage unit 530 may store an object image, the object's characteristics and identifier, and the object's movement path.

일 실시예에서, 저장부(530)는 휘발성 메모리, 비휘발성 메모리 또는 휘발성 메모리와 비휘발성 메모리의 조합으로 구성될 수 있다. 그리고, 저장부(530)는 제어부(520)의 요청에 따라 저장된 데이터를 제공할 수 있다.In one embodiment, the storage unit 530 may be comprised of volatile memory, non-volatile memory, or a combination of volatile memory and non-volatile memory. Additionally, the storage unit 530 may provide stored data upon request from the control unit 520.

도 5를 참고하면, 작업자 동선추적 장치(500)는 통신부(510), 제어부(520) 및 저장부(530)를 포함할 수 있다. 본 발명의 다양한 실시 예들에서 작업자 동선추적 장치(500)는 도 5에 설명된 구성들이 필수적인 것은 아니어서, 도 5에 설명된 구성들보다 많은 구성들을 가지거나, 또는 그보다 적은 구성들을 가지는 것으로 구현될 수 있다.Referring to FIG. 5, the worker movement tracking device 500 may include a communication unit 510, a control unit 520, and a storage unit 530. In various embodiments of the present invention, the worker movement tracking device 500 may be implemented with more configurations or fewer configurations than the configurations described in FIG. 5 because the configurations described in FIG. 5 are not essential. You can.

이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로, 통상의 기술자라면 본 발명의 본질적인 특성이 벗어나지 않는 범위에서 다양한 변경 및 수정이 가능할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and those skilled in the art will be able to make various changes and modifications without departing from the essential characteristics of the present invention.

본 명세서에 개시된 다양한 실시예들은 순서에 관계없이 수행될 수 있으며, 동시에 또는 별도로 수행될 수 있다. Various embodiments disclosed herein can be performed in any order, simultaneously or separately.

일 실시예에서, 본 명세서에서 설명되는 각 도면에서 적어도 하나의 단계가 생략되거나 추가될 수 있고, 역순으로 수행될 수도 있으며, 동시에 수행될 수도 있다. In one embodiment, at least one step may be omitted or added to each drawing described in this specification, may be performed in reverse order, or may be performed simultaneously.

본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라, 설명하기 위한 것이고, 이러한 실시예들에 의하여 본 발명의 범위가 한정되는 것은 아니다.The embodiments disclosed in this specification are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the present invention is not limited by these embodiments.

본 발명의 보호범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 이해되어야 한다.The scope of protection of the present invention should be interpreted in accordance with the claims, and all technical ideas within the equivalent scope should be understood to be included in the scope of rights of the present invention.

100: 작업자 동선추적 시스템
110: 카메라
120: 서버
500: 작업자 동선추적 장치
510: 통신부
520: 제어부
530: 저장부
100: Worker movement tracking system
110: camera
120: server
500: Worker movement tracking device
510: Department of Communications
520: Control unit
530: storage unit

Claims (16)

(a) 제1 카메라로부터 다수의 객체 이미지를 수신하는 단계;
(b) 상기 다수의 객체 이미지 각각에 포함된 객체의 특징(feature)을 추출하는 단계;
(c) 상기 추출된 특징에 따라 상기 객체의 식별자(identification, ID)를 할당하는 단계; 및
(d) 상기 식별자에 기반하여 상기 다수의 객체 이미지에서의 상기 객체의 제1 이동 경로를 산출하는 단계;
를 포함하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법.
(a) receiving multiple object images from a first camera;
(b) extracting features of objects included in each of the plurality of object images;
(c) assigning an identifier (ID) to the object according to the extracted features; and
(d) calculating a first movement path of the object in the plurality of object images based on the identifier;
Including,
AI-VISION-based worker movement tracking method in a multi-camera environment.
제1항에 있어서,
상기 (b) 단계는,
상기 다수의 객체 이미지 각각을 객체 인식 모델에 적용하여 상기 다수의 객체 이미지 각각에 포함된 객체를 식별하는 단계; 및
상기 식별된 객체로부터 상기 특징을 추출하는 단계;
를 포함하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법.
According to paragraph 1,
In step (b),
Identifying objects included in each of the plurality of object images by applying each of the plurality of object images to an object recognition model; and
extracting the features from the identified object;
Including,
AI-VISION-based worker movement tracking method in a multi-camera environment.
제1항에 있어서,
상기 (d) 단계는,
제1 객체 이미지에 포함된 객체의 식별자와 제2 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 상기 제1 객체 이미지에서의 객체의 제1 좌표와 상기 제2 객체 이미지에서의 객체의 제2 좌표를 이용하여 상기 객체의 제1 이동 경로를 산출하는 단계;
를 포함하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법.
According to paragraph 1,
In step (d),
When the identifier of the object included in the first object image and the identifier of the object included in the second object image are the same, the first coordinate of the object in the first object image and the second coordinate of the object in the second object image calculating a first movement path of the object using;
Including,
AI-VISION-based worker movement tracking method in a multi-camera environment.
제1항에 있어서,
상기 (a) 단계는,
상기 제1 카메라로부터 제3 객체 이미지를 수신하고, 제2 카메라로부터 제4 객체 이미지를 수신하는 단계;
를 포함하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법.
According to paragraph 1,
In step (a),
Receiving a third object image from the first camera and receiving a fourth object image from the second camera;
Including,
AI-VISION-based worker movement tracking method in a multi-camera environment.
제4항에 있어서,
상기 (b) 단계는,
상기 제3 객체 이미지에 포함된 객체의 특징을 추출하고, 상기 제4 객체 이미지에 포함된 객체의 특징을 추출하는 단계;
를 포함하고,
상기 (c) 단계는,
상기 추출된 특징에 따라 상기 제3 객체 이미지에 포함된 객체의 식별자를 할당하고, 상기 제4 객체 이미지에 포함된 객체의 식별자를 할당하는 단계;
를 포함하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법.
According to paragraph 4,
In step (b),
extracting features of an object included in the third object image and extracting features of an object included in the fourth object image;
Including,
In step (c),
assigning an identifier of an object included in the third object image and assigning an identifier of an object included in the fourth object image according to the extracted features;
Including,
AI-VISION-based worker movement tracking method in a multi-camera environment.
제5항에 있어서,
상기 (d) 단계는,
상기 제3 객체 이미지에 포함된 객체의 식별자와 상기 제4 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 상기 제3 객체 이미지에서의 객체의 제3 좌표와 상기 제4 객체 이미지에서의 객체의 제4 좌표를 이용하여 상기 객체의 제2 이동 경로를 산출하는 단계;
를 포함하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법.
According to clause 5,
In step (d),
If the identifier of the object included in the third object image is the same as the identifier of the object included in the fourth object image, the third coordinate of the object in the third object image and the third coordinate of the object in the fourth object image Calculating a second movement path of the object using four coordinates;
Including,
AI-VISION-based worker movement tracking method in a multi-camera environment.
제6항에 있어서,
상기 (d) 단계 이후에,
상기 객체의 제2 이동 경로에 기반하여 상기 객체의 제3 좌표 및 제4 좌표 중 적어도 하나와 미리 저장된 위험 시설의 좌표의 거리가 임계값보다 작은 경우, 상기 객체의 상태를 위험 상태로 결정하는 단계;
를 더 포함하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법.
According to clause 6,
After step (d) above,
If the distance between at least one of the third and fourth coordinates of the object and the pre-stored coordinates of a dangerous facility is less than a threshold based on the second movement path of the object, determining the state of the object as a dangerous state. ;
Containing more,
AI-VISION-based worker movement tracking method in a multi-camera environment.
제7항에 있어서,
상기 (d) 단계 이후에,
상기 객체의 상태를 위험 상태로 결정함에 따라, 상기 객체에 대한 비상 안내를 수행하는 단계;
를 더 포함하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 방법.
In clause 7,
After step (d) above,
Upon determining the state of the object to be in a dangerous state, performing emergency guidance to the object;
Containing more,
AI-VISION-based worker movement tracking method in a multi-camera environment.
제1 카메라로부터 다수의 객체 이미지를 수신하는 통신부; 및
상기 다수의 객체 이미지 각각에 포함된 객체의 특징(feature)을 추출하고,
상기 추출된 특징에 따라 상기 객체의 식별자(identification, ID)를 할당하고,
상기 식별자에 기반하여 상기 다수의 객체 이미지에서의 상기 객체의 제1 이동 경로를 산출하는 제어부;
를 포함하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치.
a communication unit that receives multiple object images from a first camera; and
Extracting features of objects included in each of the plurality of object images,
Assigning an identifier (ID) to the object according to the extracted features,
a control unit calculating a first movement path of the object in the plurality of object images based on the identifier;
Including,
AI-VISION-based worker movement tracking device in a multi-camera environment.
제9항에 있어서,
상기 제어부는,
상기 다수의 객체 이미지 각각을 객체 인식 모델에 적용하여 상기 다수의 객체 이미지 각각에 포함된 객체를 식별하고,
상기 식별된 객체로부터 상기 특징을 추출하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치.
According to clause 9,
The control unit,
Applying each of the plurality of object images to an object recognition model to identify objects included in each of the plurality of object images,
Extracting the features from the identified object,
AI-VISION-based worker movement tracking device in a multi-camera environment.
제9항에 있어서,
상기 제어부는,
제1 객체 이미지에 포함된 객체의 식별자와 제2 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 상기 제1 객체 이미지에서의 객체의 제1 좌표와 제2 객체 이미지에서의 객체의 제2 좌표를 이용하여 상기 객체의 제1 이동 경로를 산출하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치.
According to clause 9,
The control unit,
If the identifier of the object included in the first object image is the same as the identifier of the object included in the second object image, the first coordinates of the object in the first object image and the second coordinates of the object in the second object image are Calculating the first movement path of the object using
AI-VISION-based worker movement tracking device in a multi-camera environment.
제9항에 있어서,
상기 통신부는,
상기 제1 카메라로부터 제3 객체 이미지를 수신하고, 제2 카메라로부터 제4 객체 이미지를 수신하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치.
According to clause 9,
The Department of Communications,
Receiving a third object image from the first camera and receiving a fourth object image from the second camera,
AI-VISION-based worker movement tracking device in a multi-camera environment.
제12항에 있어서,
상기 제어부는,
상기 제3 객체 이미지에 포함된 객체의 특징을 추출하고, 상기 제4 객체 이미지에 포함된 객체의 특징을 추출하고,
상기 추출된 특징에 따라 상기 제3 객체 이미지에 포함된 객체의 식별자를 할당하고, 상기 제4 객체 이미지에 포함된 객체의 식별자를 할당하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치.
According to clause 12,
The control unit,
Extracting features of the object included in the third object image, extracting features of the object included in the fourth object image,
Allocating an identifier of an object included in the third object image and assigning an identifier of an object included in the fourth object image according to the extracted features,
AI-VISION-based worker movement tracking device in a multi-camera environment.
제13항에 있어서,
상기 제어부는,
상기 제3 객체 이미지에 포함된 객체의 식별자와 상기 제4 객체 이미지에 포함된 객체의 식별자가 동일한 경우, 상기 제3 객체 이미지에서의 객체의 제3 좌표와 상기 제4 객체 이미지에서의 객체의 제4 좌표를 이용하여 상기 객체의 제2 이동 경로를 산출하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치.
According to clause 13,
The control unit,
If the identifier of the object included in the third object image is the same as the identifier of the object included in the fourth object image, the third coordinate of the object in the third object image and the third coordinate of the object in the fourth object image Calculating the second movement path of the object using 4 coordinates,
AI-VISION-based worker movement tracking device in a multi-camera environment.
제14항에 있어서,
상기 제어부는,
상기 객체의 제2 이동 경로에 기반하여 상기 객체의 제3 좌표 및 제4 좌표 중 적어도 하나와 미리 저장된 위험 시설의 좌표의 거리가 임계값보다 작은 경우, 상기 객체의 상태를 위험 상태로 결정하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치.
According to clause 14,
The control unit,
If the distance between at least one of the third and fourth coordinates of the object and the pre-stored coordinates of the dangerous facility is less than a threshold based on the second movement path of the object, determining the state of the object as a dangerous state,
AI-VISION-based worker movement tracking device in a multi-camera environment.
제15항에 있어서,
상기 제어부는,
상기 객체의 상태를 위험 상태로 결정함에 따라, 상기 객체에 대한 비상 안내를 수행하는,
AI-VISION 기반 다중카메라 환경에서의 작업자 동선추적 장치.
According to clause 15,
The control unit,
Upon determining the state of the object to be in a critical state, performing emergency guidance to the object,
AI-VISION-based worker movement tracking device in a multi-camera environment.
KR1020220028876A 2022-03-07 2022-03-07 A method and apparatus for tracking worker movement in AI-VISION based multi-camera environment KR20230131678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220028876A KR20230131678A (en) 2022-03-07 2022-03-07 A method and apparatus for tracking worker movement in AI-VISION based multi-camera environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220028876A KR20230131678A (en) 2022-03-07 2022-03-07 A method and apparatus for tracking worker movement in AI-VISION based multi-camera environment

Publications (1)

Publication Number Publication Date
KR20230131678A true KR20230131678A (en) 2023-09-14

Family

ID=88014100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220028876A KR20230131678A (en) 2022-03-07 2022-03-07 A method and apparatus for tracking worker movement in AI-VISION based multi-camera environment

Country Status (1)

Country Link
KR (1) KR20230131678A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102662251B1 (en) * 2023-07-24 2024-04-30 주식회사 이투온 Ai-based dementia patient tracking and management method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102322644B1 (en) 2020-12-23 2021-11-09 주식회사 케이씨씨건설 System for providing safety guide of work site using artificial intelligence

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102322644B1 (en) 2020-12-23 2021-11-09 주식회사 케이씨씨건설 System for providing safety guide of work site using artificial intelligence

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102662251B1 (en) * 2023-07-24 2024-04-30 주식회사 이투온 Ai-based dementia patient tracking and management method

Similar Documents

Publication Publication Date Title
KR101419794B1 (en) The method for controlling the access of school visitors through the face recognition
CN107944838A (en) A kind of intelligent barrier gate Field Monitoring System and method
KR102398841B1 (en) Method and system for determining danger in constuction sites based on image analysis
KR101853903B1 (en) Invasion detecting method and system including CCTV, drone and fiber to the fence
KR102043922B1 (en) A cctv divided management system and method it
CN111753780B (en) Transformer substation violation detection system and violation detection method
CN111277952B (en) Electronic fence information processing method and system, positioning tag and mobile device
CN112488488A (en) Behavior processing method and device based on work ticket, computer and storage medium
CN116206255B (en) Dangerous area personnel monitoring method and device based on machine vision
KR102166432B1 (en) Method for replying disaster situation using smart drone
US20230162476A1 (en) Method and system for determining risk in construction site based on image analysis
KR20200017594A (en) Method for Recognizing and Tracking Large-scale Object using Deep learning and Multi-Agent
CN112367496A (en) Intelligent safe operation method and device for power distribution room
KR20230131678A (en) A method and apparatus for tracking worker movement in AI-VISION based multi-camera environment
US11308792B2 (en) Security systems integration
CN112288320A (en) Subway operation risk monitoring and management system
KR20160109516A (en) Rescue object grasp system and method
KR20200024083A (en) Facility maintain management system and method performing the same
CN113160509A (en) Risk sensing method and system suitable for communities and construction sites
CN109800656B (en) Positioning method and related product
CN111860187A (en) High-precision worn mask identification method and system
CN110727688A (en) Key personnel gridding service management system
CN114329106A (en) Big data analysis system and method for community
KR102557769B1 (en) System for detect accident based on cctv using digital twin virtual model
CN112800918A (en) Identity recognition method and device for illegal moving target

Legal Events

Date Code Title Description
E902 Notification of reason for refusal