KR20230163055A - System, apparatus and method for detecting object - Google Patents

System, apparatus and method for detecting object Download PDF

Info

Publication number
KR20230163055A
KR20230163055A KR1020220062602A KR20220062602A KR20230163055A KR 20230163055 A KR20230163055 A KR 20230163055A KR 1020220062602 A KR1020220062602 A KR 1020220062602A KR 20220062602 A KR20220062602 A KR 20220062602A KR 20230163055 A KR20230163055 A KR 20230163055A
Authority
KR
South Korea
Prior art keywords
depth
object detection
warning
image
zone
Prior art date
Application number
KR1020220062602A
Other languages
Korean (ko)
Inventor
황상호
김성호
권오언
김정한
변지현
윤철진
석수영
Original Assignee
재단법인 경북아이티융합 산업기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 경북아이티융합 산업기술원 filed Critical 재단법인 경북아이티융합 산업기술원
Priority to KR1020220062602A priority Critical patent/KR20230163055A/en
Publication of KR20230163055A publication Critical patent/KR20230163055A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons

Abstract

대상체 탐지 시스템, 대상체 탐지 장치 및 대상체 탐지 방법에 관한 것으로, 대상체 탐지 시스템은 모니터링 공간 및 상기 모니터링 공간 내의 대상체에 대한 영상을 촬영하고, 상기 대상체에 대한 깊이 정보를 획득하는 촬영부와, 상기 대상체에 대한 영상으로부터 상기 대상체를 추출하고, 상기 모니터링 공간에 대응하는 3차원 맵 상에서 상기 대상체에 대한 상대적 좌표를 획득하고, 상기 상대적 좌표를 이용하여 상기 대상체에 대한 가상 구역을 생성하고, 상기 가상 구역과 위험 구역의 중첩 여부를 판단하는 대상체 탐지 장치와, 상기 가상 구역과 위험 구역이 중첩하는 경우, 경고를 출력하는 경고부를 포함할 수 있다.An object detection system relates to an object detection system, an object detection device, and an object detection method. The object detection system includes a photographing unit that captures an image of a monitoring space and an object within the monitoring space, and obtains depth information about the object, and extract the object from the image, obtain relative coordinates for the object on a three-dimensional map corresponding to the monitoring space, create a virtual zone for the object using the relative coordinates, and It may include an object detection device that determines whether zones overlap, and a warning unit that outputs a warning when the virtual zone overlaps with the danger zone.

Description

대상체 탐지 시스템, 장치 및 방법{SYSTEM, APPARATUS AND METHOD FOR DETECTING OBJECT}Object detection system, apparatus and method {SYSTEM, APPARATUS AND METHOD FOR DETECTING OBJECT}

대상체 탐지 시스템, 장치 및 방법에 관한 것이다.It relates to object detection systems, devices, and methods.

공장이나 건설 현장과 같은 작업 현장에서는 작업자는 다양한 위험에 노출되어 있다. 특히 이들 현장에서는 공작 기계, 가설구조물 또는 굴착사면 등과 같이 저숙련 작업자가 다루거나 무경험자가 접근할 경우 사고 발생 가능성이 높은 구역이 많다. 이런 구역에서의 안전 사고 발생을 방지하기 위해서는, 이들 구역에의 접근 통제 및 작업자의 관리 감독이 적절히 이루어져야 한다. 종래에는 근접 센서나 적외선 센서 등을 이용하여 이들 센서가 작업자의 위험 구역 접근을 감지하면, 이에 응하여 시청각적으로 경고를 출력하여 안전 사고를 미연에 방지하려고 하였다. 그러나, 이러한 근접 센서나 적외선 센서 등은 측정 각이 좁고 측정 거리가 짧아, 작업자의 모든 동선을 감지하기 어려웠으며, 이에 따라 작업자의 위험 구역 접근을 충분히 탐지할 수 없는 문제점이 있었다. 또한, 근접 센서나 적외선 센서 등은 개개의 작업자를 식별할 수 없어, 허가된 작업자의 접근에 대해서도 경고가 출력되기도 하였다. 이는 작업 현장에서의 적절한 관리 감독의 방해 요소가 되어 왔다.Workers at work sites such as factories or construction sites are exposed to various risks. In particular, at these sites, there are many areas where accidents are likely to occur when handled by low-skilled workers or approached by inexperienced people, such as machine tools, temporary structures, or excavation slopes. To prevent safety accidents in these areas, access to these areas must be controlled and workers must be properly supervised. Conventionally, proximity sensors, infrared sensors, etc. have been used to prevent safety accidents by outputting an audio-visual warning in response when these sensors detect a worker's approach to a hazardous area. However, these proximity sensors and infrared sensors have narrow measurement angles and short measurement distances, making it difficult to detect all movements of workers, and thus have the problem of not being able to sufficiently detect workers' approaches to dangerous areas. In addition, proximity sensors and infrared sensors cannot identify individual workers, so a warning is sometimes output even when an authorized worker approaches. This has been an impediment to proper management supervision at the work site.

적어도 일 구역 내에서 활동하는 작업자 등의 대상체가 위험 지역에 접근 또는 진입하는 경우 이에 대해 경고할 수 있도록 하는 대상체 탐지 시스템, 장치 및 방법을 제공하는 것을 해결하고자 하는 과제로 한다.The problem sought to be solved is to provide an object detection system, device, and method that can provide a warning when an object, such as a worker operating within at least one area, approaches or enters a hazardous area.

상술한 과제를 해결하기 위하여 대상체 탐지 시스템, 대상체 탐지 장치 및 대상체 탐지 방법이 제공된다.In order to solve the above-mentioned problems, an object detection system, an object detection device, and an object detection method are provided.

대상체 탐지 시스템은 모니터링 공간 및 상기 모니터링 공간 내의 대상체에 대한 영상을 촬영하고, 상기 대상체에 대한 깊이 정보를 획득하는 촬영부, 상기 대상체에 대한 영상으로부터 상기 대상체를 추출하고, 상기 모니터링 공간에 대응하는 3차원 맵 상에서 상기 대상체에 대한 상대적 좌표를 획득하고, 상기 상대적 좌표를 이용하여 상기 대상체에 대한 가상 구역을 생성하고, 상기 가상 구역과 위험 구역의 중첩 여부를 판단하는 대상체 탐지 장치 및 상기 가상 구역과 위험 구역이 중첩하는 경우, 경고를 출력하는 경고부를 포함할 수 있다.The object detection system includes a monitoring space and an image of an object within the monitoring space, a photographing unit that acquires depth information about the object, extracts the object from the image of the object, and 3 devices corresponding to the monitoring space. An object detection device that obtains relative coordinates for the object on a dimensional map, creates a virtual zone for the object using the relative coordinates, and determines whether the virtual zone and the danger zone overlap, and the virtual zone and the danger zone. If areas overlap, a warning section that outputs a warning may be included.

상기 대상체 탐지 장치는, 상기 대상체의 적어도 일 지점에 대한 상기 영상 내에서의 좌표와 상기 영상의 너비 방향 중심의 좌표와 상기 영상의 높이 방향 중심의 좌표와 상기 영상의 너비와, 상기 영상의 높이와 상기 촬영부의 너비 방향 화각과 상기 촬영부의 높이 방향 화각과 상기 가상 구역의 크기 조절을 위한 크기 조절 변수를 이용하여, 상기 대상체에 대한 상대적 좌표를 획득할 수 있다.The object detection device includes coordinates in the image for at least one point of the object, coordinates of the width direction center of the image, coordinates of the height direction center of the image, the width of the image, and the height of the image. Relative coordinates with respect to the object may be obtained using the width angle of view of the photographing unit, the height direction angle of view of the photographing unit, and a size adjustment variable for adjusting the size of the virtual zone.

상기 대상체 탐지 장치는, 상기 대상체의 적어도 일 지점에 대한 깊이를 획득하고, 상기 깊이에 깊이 결정 값을 차감하여 획득되는 제1 깊이 및 상기 깊이에 깊이 결정 값을 차감하여 획득되는 제2 깊이 중 어느 하나를 더 이용하여 상기 대상체에 대한 상대적 좌표를 획득할 수도 있다.The object detection device acquires the depth of at least one point of the object, and selects one of a first depth obtained by subtracting a depth determination value from the depth and a second depth obtained by subtracting the depth determination value from the depth. One more method may be used to obtain relative coordinates for the object.

상기 가상 구역은 상기 제1 깊이를 이용하여 획득한 상대적 좌표를 정면의 네 모서리의 좌표로 하고 상기 제2 깊이를 이용하여 획득한 상대적 좌표를 후면의 네 모서리의 좌표로 하는 가상의 육면체를 포함할 수도 있다.The virtual area may include a virtual hexahedron with the relative coordinates obtained using the first depth as the coordinates of the four corners of the front and the relative coordinates obtained using the second depth as the coordinates of the four corners of the back. It may be possible.

상기 대상체 탐지 장치는, 상기 대상체의 클래스를 더 판단하고, 상기 경고부는, 상기 대상체의 클래스가 상기 위험 구역에 접근 또는 진입 가능한 경우에는 상기 경고를 출력하지 않도록 마련되는 것도 가능하다.The object detection device may further determine the class of the object, and the warning unit may be provided not to output the warning when the class of the object can approach or enter the danger zone.

대상체 탐지 장치는, 모니터링 공간 및 상기 모니터링 공간 내의 대상체에 대한 영상을 촬영하고, 상기 대상체에 대한 깊이 정보를 획득하는 촬영부, 상기 대상체에 대한 영상으로부터 상기 대상체를 추출하고, 상기 모니터링 공간에 대응하는 3차원 맵 상에서 상기 대상체에 대한 상대적 좌표를 획득하고, 상기 상대적 좌표를 이용하여 상기 대상체에 대한 가상 구역을 생성하고, 상기 가상 구역과 위험 구역의 중첩 여부를 판단하는 프로세서 및 상기 가상 구역과 위험 구역이 중첩하는 경우, 경고를 출력하는 경고부를 포함할 수 있다.The object detection device includes a monitoring space and an image of an object within the monitoring space, a photographing unit for acquiring depth information about the object, extracting the object from the image of the object, and a device corresponding to the monitoring space. A processor that acquires relative coordinates for the object on a three-dimensional map, creates a virtual zone for the object using the relative coordinates, and determines whether the virtual zone and the danger zone overlap, and the virtual zone and the danger zone. If this overlaps, it may include a warning section that outputs a warning.

대상체 탐지 방법은, 모니터링 공간 및 상기 모니터링 공간 내의 대상체에 대한 영상을 촬영하는 단계, 상기 대상체에 대한 깊이 정보를 획득하는 단계, 상기 대상체에 대한 영상으로부터 상기 대상체를 추출하는 단계, 상기 모니터링 공간에 대응하는 3차원 맵 상에서 상기 대상체에 대한 상대적 좌표를 획득하는 단계, 상기 상대적 좌표를 이용하여 상기 대상체에 대한 가상 구역을 생성하는 단계, 상기 가상 구역과 위험 구역의 중첩 여부를 판단하는 단계 및 상기 가상 구역과 위험 구역이 서로 중첩하면, 경고를 출력하는 단계를 포함할 수 있다.The object detection method includes: capturing a monitoring space and an image of an object within the monitoring space; acquiring depth information about the object; extracting the object from an image of the object; and corresponding to the monitoring space. Obtaining relative coordinates for the object on a three-dimensional map, generating a virtual zone for the object using the relative coordinates, determining whether the virtual zone overlaps with the risk zone, and the virtual zone If the and danger zones overlap each other, it may include the step of outputting a warning.

상술한 대상체 탐지 시스템, 장치 및 방법에 의하면, 적어도 일 구역 내에서 활동하는 작업자 등의 대상체가 위험 지역에 접근 또는 진입하는 경우, 위험 지역에의 접근 또는 진입을 적절하게 경고할 수 있게 되는 효과를 얻을 수 있다.According to the above-described object detection system, device, and method, when an object such as a worker operating within at least one area approaches or enters a hazardous area, the effect of being able to appropriately warn of the approach or entry into the hazardous area is achieved. You can get it.

상술한 대상체 탐지 시스템, 장치 및 방법에 의하면, 위험 지역이 있는 작업 공간에서 일하는 작업자가 위험 지역에 접근 또는 진입하는지 여부를 정확하고 신속하게 인지할 수 있게 되며, 이를 기준으로 작업자에게 경고하여 작업자의 안전을 도모할 수 있는 효과도 얻을 수 있다.According to the above-described object detection system, device, and method, it is possible to accurately and quickly recognize whether a worker working in a workspace with a hazardous area is approaching or entering the hazardous area, and based on this, warns the worker to prevent the worker from Safety-promoting effects can also be achieved.

상술한 대상체 탐지 시스템, 장치 및 방법에 의하면, 기존의 탐지 센서들의 좁은 측정 각이나 측정 거리에 따라 발생하는 탐지 불가 구간을 제거 또는 최소화할 수 있게 된다.According to the above-described object detection system, device, and method, it is possible to eliminate or minimize the undetectable section that occurs due to the narrow measurement angle or measurement distance of existing detection sensors.

상술한 대상체 탐지 시스템, 장치 및 방법에 의하면, 각 작업자의 진입 또는 접근 가능 또는 허가 여부에 따라서 위험 지역 접근 또는 진입에 대한 경고를 선별적으로 출력할 수 있게 되는 효과도 얻을 수 있다.According to the above-described object detection system, device, and method, it is possible to selectively output a warning about approaching or entering a dangerous area depending on whether each worker can enter, access, or is permitted.

도 1은 대상체 탐지 시스템의 일 실시예에 대한 개요도이다.
도 2는 대상체 탐지 장치의 일 실시예에 대한 블록도이다.
도 3은 위험 지역에 대한 3차원 맵과, 감지된 대상체 블록과 대상 지역 블록의 일례를 도시한 도면이다.
도 4는 3차원 맵 상 상대 좌표의 일례를 도시한 도면이다.
도 5는 대상체 탐지 방법의 일 실시예에 대한 흐름도이다.
1 is a schematic diagram of one embodiment of an object detection system.
Figure 2 is a block diagram of an embodiment of an object detection device.
FIG. 3 is a diagram illustrating a three-dimensional map of a dangerous area and an example of a detected object block and a target area block.
Figure 4 is a diagram showing an example of relative coordinates on a 3D map.
Figure 5 is a flowchart of an embodiment of an object detection method.

이하 명세서 전체에서 동일 참조 부호는 특별한 사정이 없는 한 동일 구성요소를 지칭한다. 이하에서 사용되는 '부'가 부가된 용어는, 소프트웨어 및/또는 하드웨어로 구현될 수 있으며, 실시예에 따라 하나의 '부'가 하나의 물리적 또는 논리적 부품으로 구현되거나, 복수의 '부'가 하나의 물리적 또는 논리적 부품으로 구현되거나, 하나의 '부'가 복수의 물리적 또는 논리적 부품들로 구현되는 것도 가능하다. 명세서 전체에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 어떤 부분과 다른 부분이 상호 간에 물리적으로 연결되었음을 의미할 수도 있고, 및/또는 전기적으로 연결되었음을 의미할 수도 있다. 또한, 어떤 부분이 다른 부분을 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 부분 이외의 또 다른 부분을 제외하는 것이 아니며, 설계자의 선택에 따라서 또 다른 부분을 더 포함할 수 있음을 의미한다. 제1 내지 제N(N은 1 이상의 자연수) 등의 표현은, 적어도 하나의 부분(들)을 다른 부분(들)으로부터 구분하기 위한 것으로, 특별한 기재가 없는 이상 이들이 순차적임을 반드시 의미하지는 않는다. 또한 단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함할 수 있다.Throughout the specification below, the same reference signs refer to the same components unless there are special circumstances. Terms with the addition of 'unit' used below may be implemented as software and/or hardware, and depending on the embodiment, one 'unit' may be implemented as one physical or logical part, or a plurality of 'units' may be implemented. It is also possible to be implemented with one physical or logical part, or one 'part' to be implemented with a plurality of physical or logical parts. When a part is said to be connected to another part throughout the specification, this may mean that the part and the other part are physically connected to each other and/or electrically connected. In addition, when a part includes another part, this does not mean excluding another part other than the other part unless specifically stated to the contrary, and means that another part may be included depending on the designer's choice. do. Expressions such as the first to Nth (N is a natural number greater than or equal to 1) are intended to distinguish at least one part(s) from other part(s), and do not necessarily mean that they are sequential unless otherwise specified. Additionally, singular expressions may include plural expressions, unless the context clearly makes an exception.

이하 도 1 내지 도 4를 참조하여 대상체 탐지 장치 및 이를 포함하는 대상체 탐지 시스템의 실시예에 대해서 설명하도록 한다.Hereinafter, an embodiment of an object detection device and an object detection system including the same will be described with reference to FIGS. 1 to 4.

도 1은 대상체 탐지 시스템의 일 실시예에 대한 개요도이다.1 is a schematic diagram of one embodiment of an object detection system.

도 1에 도시된 바에 의하면, 대상체 탐지 시스템(10)은, 일 실시예에 있어서, 적어도 하나의 공간(1, 이하 모니터링 공간)에 대한 적어도 하나의 영상(정지영상 및 동영상 중 적어도 하나를 포함할 수 있음. 이하 동일함)을 획득하는 촬영부(11)와, 촬영부(11)가 획득한 영상을 기반으로 모니터링 공간(1) 내의 대상체(9)가 위험 구역(도 3의 z2)에 접근 또는 진입하였는지 여부를 판단하는 대상체 탐지 장치(100)와, 대상체 탐지 장치(100)의 탐지 결과에 따라서 경고 신호를 출력하는 경고부(19)를 포함할 수 있다. As shown in FIG. 1, in one embodiment, the object detection system 10 may include at least one image (at least one of a still image and a moving image) for at least one space (1, hereinafter referred to as monitoring space). Based on the image acquired by the imaging unit 11 and the imaging unit 11 (the same applies hereinafter), the object 9 in the monitoring space 1 approaches the danger zone (z2 in FIG. 3) Alternatively, it may include an object detection device 100 that determines whether entry has occurred, and a warning unit 19 that outputs a warning signal according to the detection result of the object detection device 100.

촬영부(11), 대상체 탐지 장치(100) 및 경고부(19) 중 적어도 둘은 유선 또는 무선 통신 네트워크를 통해 연결될 수 있다. 여기서, 무선 통신 네트워크는, 와이파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), 블루투스(Bluetooth) 또는 엔에프씨(NFC: Near Field Communication) 등의 근거리 통신 네트워크나, 3GPP, 3GPP2, 와이브로 또는 와이맥스 계열 등의 이동 통신 표준을 기반으로 구현된 이동 통신 네트워크를 포함할 수도 있다.At least two of the photographing unit 11, the object detection device 100, and the warning unit 19 may be connected through a wired or wireless communication network. Here, the wireless communication network is a short-range communication network such as Wi-Fi, Wi-Fi Direct, Bluetooth, or Near Field Communication (NFC), or 3GPP, 3GPP2, WiBro, or It may also include a mobile communication network implemented based on mobile communication standards such as the WiMAX series.

촬영부(11)는, 모니터링 공간(1)의 내부 및 외부 중 적어도 하나에 설치되되, 필요에 따라 하나의 모니터링 공간(1)에 대해 하나 또는 둘 이상 설치될 수 있다. 촬영부(11)는 카메라 장치를 포함할 수 있다. 카메라 장치는 광(가시광 또는 적외선광 등)의 집속을 위한 렌즈와, 집속된 광을 기반으로 영상에 대응하는 전기적 신호를 출력하는 이미지 센서(다수의 촬상 소자를 포함하여 구현될 수 있음)를 포함할 수 있다. 일 실시예에 따르면, 카메라 장치는, 예를 들어, RGB-Depth 카메라(이하 RGB-D 카메라)를 포함할 수도 있다. RGB-D 카메라는 3차원 깊이(일례로, 촬영부(11)와 대상체(9) 사이의 거리 또는 모니터링 공간(1)의 일 경계와 대상체(9) 사이의 거리 등을 포함 가능함)를 인식하기 위한 모듈을 더 포함할 수 있다. RGB-D 카메라는, 실시예에 따라서 다수의 렌즈 및 이미지 센서를 포함하여 적어도 일 대상체(9)에 대해 다수의 영상 데이터를 얻음으로써 다수의 영상 간의 차이를 기반으로 대상체(9)의 깊이 측정이 수행되도록 할 수도 있고(스테레오 카메라), 또는 적외선 광원을 통해 적외선 광을 조사한 후 대상체(9)에서 반사된 적외선 광을 수광함으로써 적외선 광의 이동 시간을 기반으로 대상체(9)의 깊이 측정이 수행되도록 할 수도 있다(Tof 카메라). 촬영부(11)가 이와 같은 RGB-D 카메라를 이용하여 구현된 경우, 모니터링 공간(1) 내부의 대상체(9)의 형상이나 색상에 대한 정보뿐만 아니라 대상체(9)의 깊이 정보도 획득할 수 있게 된다.The imaging unit 11 is installed at least one of the inside and outside of the monitoring space 1, and may be installed one or more than one for one monitoring space 1 as needed. The photographing unit 11 may include a camera device. The camera device includes a lens for focusing light (visible light or infrared light, etc.), and an image sensor (which may be implemented including a plurality of imaging devices) that outputs an electrical signal corresponding to the image based on the focused light. can do. According to one embodiment, the camera device may include, for example, an RGB-Depth camera (hereinafter referred to as an RGB-D camera). The RGB-D camera recognizes three-dimensional depth (for example, it can include the distance between the imaging unit 11 and the object 9 or the distance between the boundary of the monitoring space 1 and the object 9). Additional modules may be included. Depending on the embodiment, the RGB-D camera includes a plurality of lenses and an image sensor to obtain a plurality of image data for at least one object 9, thereby measuring the depth of the object 9 based on the difference between the plurality of images. It may be performed (stereo camera), or the depth measurement of the object 9 may be performed based on the travel time of the infrared light by irradiating infrared light through an infrared light source and then receiving the infrared light reflected from the object 9. (Tof camera). If the photographing unit 11 is implemented using such an RGB-D camera, not only information about the shape or color of the object 9 inside the monitoring space 1 but also depth information of the object 9 can be obtained. There will be.

촬영부(11)는 유무선 통신 네트워크를 통해 대상체 탐지 장치(100)로 획득한 영상을 전달할 수 있다. 실시예에 따라서, 촬영부(11)는 깊이에 관한 정보(일례로 동시점에 상이한 각에서 촬영된 다수의 영상, 수신한 광 신호의 지연 시간 또는 이들 중 적어도 하나를 기반으로 연산하여 획득한 대상체(9)에 대한 깊이 정보 등)를 대상체 탐지 장치(100)로 더 전달할 수도 있다.The photographing unit 11 may transmit the acquired image to the object detection device 100 through a wired or wireless communication network. Depending on the embodiment, the photographing unit 11 may obtain information about depth (for example, a plurality of images captured at different angles at the same time, the delay time of a received optical signal, or an object obtained by calculating based on at least one of these). Depth information (9), etc.) may be further transmitted to the object detection device 100.

대상체 탐지 장치(100)는 촬영부(11)가 획득한 영상을 이용하거나 실시예에 따라 깊이에 관한 정보를 더 이용하여, 모니터링 공간(1) 내에 인간(작업자나 외부인 등) 등의 대상체(9)가 존재하는지 여부와 대상체(9)가 위험 구역(z2)에 접근 또는 진입하였는지 여부 등에 대한 판단을 수행한다. The object detection device 100 uses the image acquired by the photographing unit 11 or, depending on the embodiment, further uses information about depth to detect objects such as humans (workers, outsiders, etc.) within the monitoring space 1 (9). ) is present and whether the object 9 has approached or entered the danger zone z2.

필요에 따라서, 대상체 탐지 장치(100)는 판단 결과를 기반으로 대응하는 신호를 생성하고, 이를 경고부(19)에 전달함으로써, 경고부(19)가 경고 동작을 수행하도록 할 수도 있다. 실시예에 따라서, 대상체 탐지 장치(100)는 둘 이상의 물리적으로 구분된 정보 처리 장치, 일례로 제1 처리 장치(100a) 및 제2 처리 장치(100b)를 포함할 수도 있다. 이들 처리 장치(100a, 100b)는 서로 동일하거나 또는 서로 상이한 장치를 이용하여 구현될 수 있으며, 예를 들어 서버용 하드웨어 장치, 데스크톱 컴퓨터, 스마트 폰 또는 프로그래밍 가능한 네트워크 스위치 등을 포함할 수 있다. 둘 이상의 정보 처리 장치(100a, 100b)는 상호 통신 가능하게 연결되고, 대상체 탐지 장치(100)가 수행하는 동작의 일부 또는 전부를 각각 수행할 수 있게 마련된다. 예를 들어, 제1 처리 장치(100a)는 촬영부(11)가 촬영한 영상 수집, 대상체(9)의 탐지, 위험 구역(z2)의 접근 여부의 판단 및/또는 경고부(19)의 제어 등과 같은 동작을 수행하도록 마련되고, 제2 처리 장치(100b)는 위험 구역(z2)의 접근 여부 판단을 위한 가상 공간, 일례로 3차원 맵(z1)의 저장, 위험 구역(z2)의 설정, 각각의 장치(11, 19, 100a)의 감시나 관리 및/또는 사용자 단말 장치(90)와의 데이터나 명령의 송수신 등과 같은 기능을 수행하도록 마련된 것일 수도 있다. 대상체 탐지 장치(100)는 실시예에 따라 하나의 물리적 장치를 이용하여 구현하는 것도 가능하다. 대상체 탐지 장치(100)의 자세한 동작에 대해선 후술한다.If necessary, the object detection device 100 may generate a corresponding signal based on the determination result and transmit it to the warning unit 19, thereby allowing the warning unit 19 to perform a warning operation. Depending on the embodiment, the object detection device 100 may include two or more physically separate information processing devices, for example, a first processing device 100a and a second processing device 100b. These processing devices 100a and 100b may be implemented using the same or different devices, and may include, for example, server hardware devices, desktop computers, smart phones, or programmable network switches. Two or more information processing devices 100a and 100b are connected to each other so that they can communicate with each other, and are each capable of performing some or all of the operations performed by the object detection device 100. For example, the first processing device 100a collects images captured by the photographing unit 11, detects the object 9, determines whether the danger zone z2 is approached, and/or controls the warning unit 19. It is arranged to perform operations such as, and the second processing device 100b stores a virtual space, for example, a 3D map (z1), for determining whether the danger zone (z2) is accessible, setting the danger zone (z2), It may be provided to perform functions such as monitoring or management of each device 11, 19, and 100a and/or sending and receiving data or commands to and from the user terminal device 90. Depending on the embodiment, the object detection device 100 may also be implemented using a single physical device. Detailed operations of the object detection device 100 will be described later.

경고부(19)는, 위험 구역(z2)에 접근하거나 진입하도록 허락되지 않은 대상체(9, 일례로 작업자)가 위험 구역(z2)에 접근하거나 진입하는 경우, 이에 대응하여 경고 신호를 시각적 및/또는 청각적으로 출력할 수 있다. 이에 따라서 작업자(9)는 자신이 위험 구역(z2)에 접근 또는 진입하는지 또는 작업자(9)에 대해 관리 책임이 있는 자(작업장 관리자나 감독관 등)는 허가되지 않은 작업자(9)가 위험 구역(z2)에 접근 또는 진입하는지 여부를 즉각적으로 알 수 있게 된다. 경고부(19)는, 실시예에 따라서, 모니터링 공간(1) 내에 배치될 수도 있고 및/또는 모니터링 공간(1) 이외의 다른 구역(예를 들어, 작업장 관리자나 감독관의 근무 장소 등)에 설치될 수도 있다. 경고부(19)는 사이렌 등의 음향 출력 장치, 경광등, 스피커 장치, 스마트폰, 스마트 시계, 스마트 밴드, 헤드 셋, 두부 장착형 디스플레이(HMD), 태블릿 피씨, 데스크톱 컴퓨터 또는 랩톱 컴퓨터 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The warning unit 19 displays a warning signal visually and/or in response to an object (9, for example, a worker) not permitted to approach or enter the danger zone (z2). Alternatively, it can be output audibly. Accordingly, the worker (9) must determine whether he or she is approaching or entering the hazardous area (z2), or a person responsible for managing the worker (9) (workplace manager, supervisor, etc.) You can immediately know whether you are approaching or entering z2). Depending on the embodiment, the warning unit 19 may be placed within the monitoring space 1 and/or installed in an area other than the monitoring space 1 (e.g., the workplace of a workplace manager or supervisor, etc.). It could be. The warning unit 19 may include a sound output device such as a siren, a warning light, a speaker device, a smartphone, a smart watch, a smart band, a headset, a head mounted display (HMD), a tablet PC, a desktop computer, or a laptop computer. However, it is not limited to this.

실시예에 따라서, 대상체 탐지 시스템(1)은 영상(일례로 RGB-D 카메라가 촬영한 영상)이나 대상체 탐지 장치(100)의 탐지 결과 등을 시각적 또는 청각적으로 확인할 수 있는 사용자 단말 장치(90)를 더 포함할 수도 있다.Depending on the embodiment, the object detection system 1 is a user terminal device 90 that can visually or audibly check an image (for example, an image captured by an RGB-D camera) or a detection result of the object detection device 100. ) may further be included.

사용자 단말 장치(90)는 대상체 탐지 장치(100)와 통신 가능하게 연결되고, 대상체 탐지 장치(100)에 접속하여 대상체 탐지 장치(100)로부터 촬영된 영상 등을 수신하고, 이를 외부로 출력하여 사용자(일례로 작업자나 관리자 등)에게 제공할 수 있다. 사용자 단말 장치(90)는, 예를 들어, 스마트폰, 태블릿 피씨, 데스크톱 컴퓨터 또는 랩톱 컴퓨터 등을 포함할 수 있다.The user terminal device 90 is communicatively connected to the object detection device 100, connects to the object detection device 100, receives images captured from the object detection device 100, and outputs them to the outside to the user. It can be provided to (for example, workers or managers). The user terminal device 90 may include, for example, a smartphone, tablet PC, desktop computer, or laptop computer.

이하 도 2 내지 도 4를 참조하여, 대상체 탐지 장치(100)에 대해 보다 구체적으로 설명한다.Hereinafter, with reference to FIGS. 2 to 4 , the object detection device 100 will be described in more detail.

도 2는 대상체 탐지 장치의 일 실시예에 대한 블록도이고, 도 3은 위험 지역에 대한 3차원 맵과, 감지된 대상체 블록과, 대상 지역 블록의 일례를 도시한 도면이다. FIG. 2 is a block diagram of an embodiment of an object detection device, and FIG. 3 is a diagram illustrating a three-dimensional map of a dangerous area, a detected object block, and an example of a target area block.

도 2에 도시된 바에 의하면, 대상체 탐지 장치(100)는 일 실시예에 있어 유무선 통신 네트워크에 접속하여 촬영부(11)로부터 영상이나 깊이에 관한 정보를 수신하고, 경고부(19)에 판단 결과에 대응하는 신호를 전달하는 통신부(101)와, 대상체 탐지 장치(100)의 동작에 필요한 데이터나 프로그램(앱, 애플리케이션 또는 소프트웨어 등) 등을 일시적 또는 비일시적으로 저장하는 저장부(102)와, 영상 및 깊이에 관한 정보를 기반으로 대상체에 대한 탐지 등의 동작을 수행하는 프로세서(110)를 포함할 수 있다. As shown in FIG. 2, in one embodiment, the object detection device 100 connects to a wired or wireless communication network, receives information about the image or depth from the photographing unit 11, and sends the determination result to the warning unit 19. A communication unit 101 that transmits a signal corresponding to a communication unit 101, a storage unit 102 that temporarily or non-temporarily stores data or programs (apps, applications, or software, etc.) necessary for the operation of the object detection device 100, It may include a processor 110 that performs operations such as detecting an object based on information about the image and depth.

여기서, 통신부(101), 저장부(102) 및 프로세서(110) 중 적어도 둘은 상호 전기적으로 연결되고, 일방으로 또는 쌍방으로 데이터나 명령 등을 전달할 수 있다. 통신부(101)는 랜 카드를 포함하거나, 안테나 및 무선 통신 칩 등을 이용하여 구현될 수 있다. Here, at least two of the communication unit 101, the storage unit 102, and the processor 110 are electrically connected to each other and can transmit data or commands in one or both directions. The communication unit 101 may include a LAN card or may be implemented using an antenna and a wireless communication chip.

저장부(102)는 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있으며, 이들은 반도체 칩이나 자기디스크 등을 기반으로 구현 가능하다. 프로세서(110)는, 중앙 처리 장치(CPU: Central Processing Unit), 그래픽 처리 장치(GPU: Graphic Processing Unit), 마이크로 컨트롤러 유닛(MCU: Micro Controller Unit), 애플리케이션 프로세서(AP: Application Processor), 전자 제어 유닛(ECU: Electronic Controlling Unit) 및/또는 이외 각종 연산 및 제어 처리를 수행할 수 있는 적어도 하나의 장치를 이용하여 구현될 수 있다. 필요에 따라, 대상체 탐지 장치(100)는 사용자 등으로부터 명령이나 데이터 등을 입력 받기 위한 입력부(일례로 키보드, 터치 스크린, 마이크로폰 또는 데이터 입출력 단자 등)와, 사용자 등에게 시각적 또는 청각적으로 정보를 제공하기 위한 출력부(, 일례로, 디스플레이, 스피커 장치, 영상 출력 단자 또는 데이터 입출력 단자 등)를 더 포함할 수도 있다.The storage unit 102 may include at least one of a main memory and an auxiliary memory, and these can be implemented based on a semiconductor chip or magnetic disk. The processor 110 includes a central processing unit (CPU), a graphics processing unit (GPU), a microcontroller unit (MCU), an application processor (AP), and an electronic control unit. It may be implemented using a unit (ECU: Electronic Controlling Unit) and/or at least one device capable of performing various calculations and control processing. If necessary, the object detection device 100 includes an input unit (for example, a keyboard, touch screen, microphone, or data input/output terminal, etc.) for receiving commands or data from a user, etc., and provides information visually or audibly to the user, etc. It may further include an output unit (for example, a display, a speaker device, a video output terminal, or a data input/output terminal, etc.) for provision.

일 실시예에 있어, 저장부(102)는 모니터링 공간(1)에 대응하는 3차원 맵(z1)을 하나 이상 저장할 수 있다. 이 경우, 저장부(102)에 저장된 3차원 맵(z1)은 설치된 촬영부(11)마다 대응하여 마련된 것일 수 있다. 따라서, 저장부(102)는 모니터링 공간(1)의 촬영을 위해 설치된 촬영부(11)의 개수에 대응하는 개수(일례로 동일한 개수)의 3차원 맵(z1)을 저장할 수 있다.In one embodiment, the storage unit 102 may store one or more 3D maps (z1) corresponding to the monitoring space (1). In this case, the 3D map z1 stored in the storage unit 102 may be prepared to correspond to each installed imaging unit 11. Accordingly, the storage unit 102 may store the number of three-dimensional maps z1 corresponding to the number of the photographing units 11 installed for photographing the monitoring space 1 (for example, the same number).

3차원 맵(z1)은 모니터링 공간(1)은 반영하여 구축된 가상적 공간으로, 3차원 맵(z1)의 전체적인 형상은, 도 3에 도시된 바와 같이 육면체(정육면체나 직육면체 등)의 형태로 주어질 수도 있다. 그러나, 3차원 맵(z1)의 형상은 이에 한정적인 것은 아니며 모니터링 공간(1)의 전반적인 형상 등에 따라 다양하게 정의될 수도 있다. 3차원 맵(z1) 내부의 적어도 일 지점(들) 각각은 소정의 기준 점(예를 들어, 3차원 맵(z1)의 중심이나 일측 모서리 지점 등)을 기준으로 하는 상대적 좌표로 표현될 수 있으며, 예를 들어 3차원 축(x축, y축 및 z축) 기반의 직교 좌표계를 이용하여 표현될 수도 있다. 실시예에 따라서, 3차원 맵(z1)의 각 지점은 구면 좌표계나 원통 좌표계로 표현되는 것도 가능하다. The 3D map (z1) is a virtual space constructed by reflecting the monitoring space (1), and the overall shape of the 3D map (z1) is given in the form of a hexahedron (cube, cuboid, etc.) as shown in FIG. 3. It may be possible. However, the shape of the 3D map (z1) is not limited to this and may be defined in various ways depending on the overall shape of the monitoring space (1). Each of at least one point(s) within the 3D map (z1) may be expressed as relative coordinates based on a predetermined reference point (e.g., the center or one corner point of the 3D map (z1), etc.) , for example, may be expressed using a Cartesian coordinate system based on three-dimensional axes (x-axis, y-axis, and z-axis). Depending on the embodiment, each point of the 3D map z1 may be expressed in a spherical coordinate system or a cylindrical coordinate system.

프로세서(110)는, 일 실시예에 있어서, 도 2에 도시된 바와 같이, 대상체 감지부(111), 깊이 추출부(112), 가상구역 생성부(113), 중첩 확인부(114), 클래스 판단부(115) 및 경고 제어부(116)를 포함할 수 있다. 이들(111 내지 116)은 상호 논리적으로 구분되는 것일 수도 있고, 물리적으로 구분되는 것일 수도 있다. 필요에 따라, 이들(111 내지 116) 중 적어도 하나는 생략 가능하다.In one embodiment, as shown in FIG. 2, the processor 110 includes an object detection unit 111, a depth extraction unit 112, a virtual area creation unit 113, an overlap confirmation unit 114, and a class It may include a determination unit 115 and a warning control unit 116. These (111 to 116) may be logically or physically distinct from each other. If necessary, at least one of these (111 to 116) can be omitted.

대상체 감지부(111)는 촬영부(11)가 획득한 영상으로부터 대상체(9)를 감지하고 영상에서 대상체(9)를 추출할 수 있다. 일 실시예에 있어서, 영상 내의 대상체(9)의 감지 및 추출은, 적어도 하나의 학습 알고리즘을 이용하여 수행될 수도 있다. 여기서, 학습 알고리즘은, 예를 들어, 심층 신경망(DNN: Deep Neural Network), 콘볼루션 신경망(CNN: Convolutional Neural Network), 순환 신경망(RNN: Recurrent Neural Network), 콘볼루션 순환 신경망(CRNN: Convolutional Recurrent Neural Network), 심층 신뢰 신경망(DBN: Deep Belief Network), 심층 Q-네트워크(Deep Q-Networks), 장단기 메모리(LSTM: Long short term memory), 다층 퍼셉트론(Multi-layer Perceptron), 서포트 벡터 머신(SVM: support vector machine), 생성적 적대 신경망(GAN: Generative Adversarial Network) 및/또는 조건적 생성적 적대 신경망(cGAN: Conditional GAN) 등의 적어도 하나의 학습 모델을 포함할 수 있으나, 이에 한정되는 것은 아니다.The object detection unit 111 may detect the object 9 from the image acquired by the photographing unit 11 and extract the object 9 from the image. In one embodiment, detection and extraction of the object 9 in the image may be performed using at least one learning algorithm. Here, the learning algorithm is, for example, a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), and a convolutional recurrent neural network (CRNN). Neural Network, Deep Belief Network (DBN), Deep Q-Networks, Long short term memory (LSTM), Multi-layer Perceptron, Support Vector Machine ( It may include, but is not limited to, at least one learning model such as a support vector machine (SVM), a generative adversarial network (GAN), and/or a conditional generative adversarial network (cGAN). no.

깊이 추출부(112)는 영상에서 대상체(9)가 추출되면, 이에 대응하여 대상체(9)의 깊이(일례로 촬영부(11)와 대상체(9) 사이의 거리 등)를 결정할 수 있다. 깊이의 결정은, 촬영부(11)에 의해 획득된 깊이에 관한 정보를 이용하여 수행될 수 있다. When the object 9 is extracted from the image, the depth extraction unit 112 may determine the depth of the object 9 (for example, the distance between the photographing unit 11 and the object 9) in response. Determination of depth may be performed using information about depth acquired by the imaging unit 11.

예를 들어, 깊이 추출부(112)는 복수의 촬영부(11)의 위치 및 각 촬영부(11)가 획득한 복수의 영상을 기반으로 삼각측량법 등을 이용하여 해당 대상체(9)의 깊이를 획득할 수도 있고, 또는 적외선 광의 조사 시점 및 반사된 적외선 광의 수신 시점 간의 차이를 이용하여 해당 대상체(9)의 깊이를 획득할 수도 있다. 획득된 깊이는 가상 구역 생성부(113)로 전달될 수 있다.For example, the depth extraction unit 112 determines the depth of the object 9 using a triangulation method based on the positions of the plurality of photographing units 11 and the plurality of images acquired by each photographing unit 11. Alternatively, the depth of the object 9 may be obtained using the difference between the point of time at which infrared light is irradiated and the point at which reflected infrared light is received. The acquired depth may be transmitted to the virtual zone generator 113.

가상 구역 생성부(113)는, 도 3에 도시된 바와 같이, 촬영부(11)가 획득한 영상 내의 피사체, 일례로 추출된 대상체(9)에 대한 정보를 기반으로, 해당 촬영부(11)에 대응하는 3차원 맵(z1) 상에 해당 대상체(9)에 대응하는 적어도 하나의 가상 구역(z3)을 생성할 수 있다.As shown in FIG. 3, the virtual zone generator 113 generates information about the subject in the image acquired by the photographing unit 11, for example, the extracted object 9, to the corresponding photographing unit 11. At least one virtual zone (z3) corresponding to the object 9 may be created on the corresponding 3D map (z1).

상술한 바와 같이 3차원 맵(z1) 내의 각 지점은 상대적 좌표(x, y, z)를 가질 수 있고, 이에 따라 모니터링 공간(1) 내의 대상체(9)의 전부 또는 일부 역시 이에 대응하는 상대적 좌표를 갖는다. 가상 구역 생성부(113)는, 이를 이용하여 대상체(9)에 대한 상대적 좌표를 구할 수 있다. 즉, 가상 구역 생성부(113)는 촬영부(11)가 획득한 영상으로부터 대상체(9)가 추출되면, 영상 상의 대상체(9)에 관한 좌표를 이용하여 3차원 맵(z1) 상에서 해당 대상체(9)에 관한 적어도 하나의 상대적 좌표를 획득할 수 있다.As described above, each point in the three-dimensional map (z1) may have relative coordinates (x, y, z), and accordingly, all or part of the object (9) in the monitoring space (1) also has the corresponding relative coordinates. has The virtual zone generator 113 can use this to obtain relative coordinates for the object 9. That is, when the virtual zone generator 113 extracts the object 9 from the image acquired by the imaging unit 11, the virtual zone generator 113 uses the coordinates for the object 9 on the image to create the corresponding object ( 9) At least one relative coordinate can be obtained.

일 실시예에 따르면, 가상 구역 생성부(113)는, 3차원 맵(z1) 상에서 대상체(9)에 관한 적어도 하나의 상대적 좌표를 획득하기 위해 깊이 추출부(112)가 추출한 깊이를 이용할 수도 있다. 보다 구체적으로 예를 들어, 가상구역 생성부(113)는, 대상체(9)의 적어도 일 지점에 대한 깊이, 해당 지점의 영상 상에서의 좌표 및 촬영부(11)의 화각 등을 조합 이용하여 대상체(9)의 전부 또는 일부에 대한 상대적 좌표를 하나 이상 획득할 수도 있다. 예를 들어, 모니터링 공간(1)이 직육면체 형상의 3차원 맵(z1))으로 표현되는 경우(즉, 직교 좌표계를 이용하는 경우), 대상체(9)의 각각의 지점의 상대적 좌표 값 중 x값(즉, 좌우 방향에 대한 상대적 좌표 값)은, 예를 들어, 하기의 수학식 1을 이용하여 결정되고, y값(상하 방향에 대한 상대적 좌표 값)은 하기의 수학식 2를 이용하여 연산되어 획득될 수도 있다.According to one embodiment, the virtual zone generator 113 may use the depth extracted by the depth extractor 112 to obtain at least one relative coordinate of the object 9 on the 3D map z1. . More specifically, for example, the virtual zone generator 113 uses a combination of the depth of at least one point of the object 9, the coordinates on the image of the point, and the angle of view of the photographing unit 11 to determine the object ( One or more relative coordinates for all or part of 9) may be obtained. For example, when the monitoring space 1 is expressed as a three-dimensional map (z1) in the shape of a rectangular parallelepiped (i.e., when using a Cartesian coordinate system), the x value ( That is, the relative coordinate value for the left and right directions) is determined, for example, using Equation 1 below, and the y value (relative coordinate value for the up and down directions) is calculated and obtained using Equation 2 below. It could be.

[수학식 1][Equation 1]

[수학식 2][Equation 2]

수학식 1 및 2에서 x 및 y는 대상체(9)의 적어도 일 지점에 대한 3차원 맵(z1) 내의 상대적 좌표를 의미하고, pos_x, pos_y는 대상체(9)의 적어도 일 지점에 대해 촬영부(11)가 획득한 영상 내에서의 좌표를 의미한다. center_x 및 center_y는 각각 영상의 너비 방향 중심과 높이 방향 중심의 좌표를 의미하고, Width 및 height는 각각 영상의 너비 및 높이를 의미한다. Depth는 깊이 추출부(112)에 의해 추출된 깊이이다. fov_w와 fov_h는 각각 촬영부(11)의 너비 방향 화각(FOV: Field of View)과 높이 방향 화각이다. 한편, α는 생성될 가상 구역(z3)의 크기를 조절하기 위한 크기 조절 변수로, 사용자 등의 설정에 따라 상이하게 될 수 있다. 크기 조절 변수(α)는, 예를 들어, 1로 정해질 수도 있고, 또는 1을 초과하는 값으로 정해질 수도 있다. 크기 조절 변수(α)가 1인 경우, 대상체(9)에 대한 가상 구역(z3)의 크기는 실제로 감지된 대상체(9)의 영역과 동일하게 주어지고, 크기 조절 변수(α)가 1을 초과하는 경우, 가상 구역(z3)이 상대적으로 더 크게 형성되게 된다.In Equations 1 and 2, x and y mean relative coordinates in the three-dimensional map (z1) for at least one point of the object 9, and pos_x and pos_y are the imaging unit ( 11) refers to the coordinates within the acquired image. center_x and center_y refer to the coordinates of the width-direction center and height-direction center of the image, respectively, and Width and height refer to the width and height of the image, respectively. Depth is the depth extracted by the depth extraction unit 112. fov_w and fov_h are the field of view (FOV) in the width direction and the angle of view in the height direction of the photographing unit 11, respectively. Meanwhile, α is a size control variable for adjusting the size of the virtual zone (z3) to be created, and may vary depending on the settings of the user, etc. The size adjustment variable (α) may be set to, for example, 1, or may be set to a value exceeding 1. When the scaling variable (α) is 1, the size of the virtual zone (z3) for the object 9 is given as the same as the area of the actually detected object 9, and the scaling variable (α) exceeds 1. In this case, the virtual zone (z3) is formed to be relatively larger.

도 4는 3차원 맵 상 상대 좌표의 일례를 도시한 도면이다.Figure 4 is a diagram showing an example of relative coordinates on a 3D map.

수학식 1 및 수학식 2에 기재된 바와 같이, 3차원 맵(z1) 상에서 대상체(9)의 적어도 일 지점의 상대적 좌표의 x값 및 y값은 깊이 추출부(112)가 추출한 깊이(depth)에 비례하여 결정될 수 있다. 보다 상세히 설명하면, 도 4에 도시된 바와 같이, 너비 방향 화각(fov_w) 및 높이 방향 화각(fov_h)이 모두 90도이고, 깊이가 기본 값(일례로 1m)으로 주어진 경우, 사각형의 좌측 상단 모서리의 좌표는, 예를 들어, (-0.5, -0.5, 1)이고, 우측 상단 모서리의 좌표는 (0.5, -0.5, 1)이며, 좌측 하단 모서리의 좌표는 (-0.5, 0.5, 1)이고, 우측 하단 모서리의 좌표는 (0.5, 0.5, 1)일 수 있다. 이 경우, 만약 깊이가 기본 값의 2배(일례로 2m)로 증가한다면, 이에 대응하는 사각형의 좌측 상단 모서리의 좌표는 (-1, -1, 2)로 주어지고, 우측 상단 모서리의 좌표는 (1, -1, 2)로 주어지며, 좌측 하단 모서리의 좌표는 (-1, 1, 2)로 주어지고, 우측 하단 모서리의 좌표는 (1, 1, 2)로 주어지게 된다. 즉, 깊이의 증가에 비례하여 각 상대적 좌표의 값도 비례하여 증가한다. 그러므로, 특정 지점에 대한 깊이를 기반으로 특정 지점의 x축 방향 및 y축 방향의 상대적 좌표 값의 결정이 가능하게 된다.As described in Equation 1 and Equation 2, the x value and y value of the relative coordinates of at least one point of the object 9 on the 3D map z1 are determined by the depth extracted by the depth extractor 112. It can be determined proportionally. In more detail, as shown in Figure 4, when the width direction view angle (fov_w) and the height direction view angle (fov_h) are both 90 degrees and the depth is given a default value (for example, 1 m), the upper left corner of the square The coordinates of are, for example, (-0.5, -0.5, 1), the coordinates of the upper right corner are (0.5, -0.5, 1), and the coordinates of the lower left corner are (-0.5, 0.5, 1). , the coordinates of the lower right corner may be (0.5, 0.5, 1). In this case, if the depth increases to twice the default value (e.g. 2m), the coordinates of the upper left corner of the corresponding rectangle are given as (-1, -1, 2), and the coordinates of the upper right corner are It is given as (1, -1, 2), the coordinates of the lower left corner are given as (-1, 1, 2), and the coordinates of the lower right corner are given as (1, 1, 2). That is, in proportion to the increase in depth, the value of each relative coordinate also increases proportionally. Therefore, it is possible to determine relative coordinate values in the x-axis direction and y-axis direction of a specific point based on the depth to the specific point.

상술한 바와 같이 적어도 하나의 상대적 좌표가 생성되면, 가상 구역 생성부(113)는 하나 이상의 상대적 좌표를 조합하는 등의 방법으로 이용하여 대상체(9)에 대응하는 가상 구역(z3)을 생성함으로써, 대상체(9)를 3차원 맵(z1) 상의 가상 구역(z3)으로 변환할 수 있다. 이 경우, 생성된 가상 구역(z3)은 대상체(9)에 대응하는 형상을 가질 수도 있다. 여기서, 대상체(9)에 대응하는 형상은, 실시예에 따라 대상체(9)와 동일한 형상, 대상체(9)의 전부 또는 일부를 포함하는 가상의 육면체(일례로 정육면체나 직육면체)의 형상 또는 대상체(9)의 전부 또는 일부를 포함하는 타원체 형상 등을 포함할 수도 있으나, 이에 한정되는 것은 아니다. When at least one relative coordinate is generated as described above, the virtual zone generator 113 creates a virtual zone (z3) corresponding to the object 9 using a method such as combining one or more relative coordinates, The object 9 can be converted into a virtual area (z3) on the 3D map (z1). In this case, the created virtual zone z3 may have a shape corresponding to the object 9. Here, the shape corresponding to the object 9 may be, depending on the embodiment, the same shape as the object 9, the shape of a virtual cube (for example, a cube or a rectangular parallelepiped) including all or part of the object 9, or the object ( It may include an ellipsoid shape including all or part of 9), but is not limited thereto.

만약 대상체(9)의 전부 또는 일부를 포함하는 육면체의 형태로 가상 구역(z3)을 생성하는 경우라면, 가상 구역 생성부(113)는, 상술한 수학식 1 및 수학식 2를 이용하여, 대상체(9)의 말단 경계 상의 적어도 일 지점(일례로 대상체(9)의 상측 말단, 하측 말단 및 좌우측 말단 등의 네 지점)에 대한 x축 방향의 좌표 값 및 y축 방향의 좌표 값을 각각 획득하도록 할 수 있다. 이 경우, 가상 구역 생성부(113)는 서로 상이한 두 개의 깊이(이하 제1 깊이 및 제2 깊이)를 결정하고, 두 개의 깊이를 이용하여 육면체의 전면의 네 모서리의 좌표 값 및 육면체 후면의 네 모서리의 좌표 값을 획득함으로써, 가상 구역(z3)에 해당하는 육면체의 8개의 모서리에 대한 좌표 값을 획득할 수도 있다. 이 경우, 제1 깊이는 깊이 추출부(112)에 의해 추출된 깊이에 소정의 값(이하 깊이 결정 값)을 차감하여 획득된 것일 수 있고, 획득된 제1 깊이를 수학식 1 및 수학식 2의 depth에 대입하면 해당 직육면체의 전 방향 네 모서리의 좌표가 획득된다.If the virtual zone (z3) is created in the form of a hexahedron containing all or part of the object 9, the virtual zone generator 113 uses the above-mentioned equations 1 and 2 to generate the object 9. To obtain the coordinate value in the x-axis direction and the coordinate value in the y-axis direction for at least one point (for example, four points such as the upper end, lower end, and left and right end of the object 9) on the end boundary of (9), respectively. can do. In this case, the virtual zone generator 113 determines two different depths (hereinafter referred to as first depth and second depth), and uses the two depths to determine the coordinate values of the four corners of the front of the hexahedron and the four corners of the back of the hexahedron. By obtaining the coordinate values of the corners, the coordinate values for the eight corners of the hexahedron corresponding to the virtual zone (z3) can also be obtained. In this case, the first depth may be obtained by subtracting a predetermined value (hereinafter referred to as a depth determination value) from the depth extracted by the depth extraction unit 112, and the obtained first depth can be calculated using Equation 1 and Equation 2. By substituting into the depth, the coordinates of the four corners of the corresponding rectangular parallelepiped are obtained.

또한, 제2 깊이는 깊이 추출부(112)에 의해 추출된 깊이에 깊이 결정 값을 합산하여 획득된 것일 수 있고, 제2 깊이를 수학식 1 및 수학식 2의 depth에 대입하면 해당 직육면체의 후 방향 네 모서리의 좌표가 획득된다. 이에 따라 감지된 대상체(9)에 대응하는 직육면체 형상의 가상 구역(z3)이 획득될 수 있게 된다. 이 경우, 가상 구역(z3)에 해당하는 직육면체의 전후 길이는 깊이 결정 값의 2배로 주어지게 된다. 여기서, 깊이 결정 값은 상술한 기본 값의 절반(일례로 0.5m)일 수도 있으나, 이에 한정되는 것은 아니다. 설계자나 사용자 등은 원하는 바에 따라서 전후 길이를 다양하게 정할 수 있다.In addition, the second depth may be obtained by adding the depth determination value to the depth extracted by the depth extractor 112, and when the second depth is substituted for the depth of Equation 1 and Equation 2, the rear of the corresponding rectangular parallelepiped The coordinates of the four corners of the direction are obtained. Accordingly, a virtual zone z3 in the shape of a rectangular parallelepiped corresponding to the detected object 9 can be obtained. In this case, the front-to-back length of the rectangular parallelepiped corresponding to the virtual zone (z3) is given as twice the depth determination value. Here, the depth determination value may be half of the above-described basic value (for example, 0.5 m), but is not limited thereto. Designers, users, etc. can determine the front and rear lengths in various ways depending on their wishes.

상술한 바에 따라 소정 형상(일례로 직육면체 형상)의 가상 구역(z3)이 생성되면, 생성된 가상 구역(z3)은 중첩 확인부(114)로 전달될 수 있다.When the virtual zone z3 of a predetermined shape (for example, a rectangular parallelepiped shape) is created as described above, the created virtual zone z3 may be transmitted to the overlap confirmation unit 114.

중첩 확인부(114)는 생성된 가상 구역(z3)을 수신하고, 생성된 가상 구역(z3)과 3차원 맵(z1) 내에서 미리 정의된 위험 구역(z2) 사이에 중첩 구역(z4)이 존재하는지 여부가 판단된다. 여기서, 위험 구역(z2)은 사용자 등에 의해 미리 정의된 것일 수 있으며, 위험 구역(z2)에 대응하는 구역이나 장치의 외형에 대응하는 형상을 가질 수 있다. 예를 들어, 위험 구역(z2)은 도 3에 도시된 바와 같이 직육면체의 형상을 가질 수도 있고, 타원체나 구의 형상을 가질 수도 있다. 위험 구역(z3)도 3차원 맵(z1) 상에서의 적어도 하나의 상대적 좌표로 정의된 것일 수도 있다. The overlap confirmation unit 114 receives the generated virtual zone (z3), and determines that the overlap zone (z4) is between the generated virtual zone (z3) and the predefined risk zone (z2) in the three-dimensional map (z1). It is determined whether it exists or not. Here, the danger zone (z2) may be predefined by a user, etc., and may have a shape corresponding to the area corresponding to the danger zone (z2) or the external shape of the device. For example, the danger zone z2 may have the shape of a rectangular parallelepiped, as shown in FIG. 3, or may have the shape of an ellipsoid or a sphere. The danger zone (z3) may also be defined by at least one relative coordinate on the 3D map (z1).

이 경우, 중첩 확인부(114)는 위험 구역(z2)의 상대적 좌표와 가상 구역(z3)의 상대적 좌표를 상호 비교하여 이들(z2, z3)의 중첩 여부를 판단할 수도 있다. 판단 결과는 경고 제어부(116)로 전달될 수 있다.In this case, the overlap checker 114 may compare the relative coordinates of the danger zone (z2) and the relative coordinates of the virtual zone (z3) to determine whether these (z2, z3) overlap. The determination result may be transmitted to the warning control unit 116.

경고 제어부(116)는, 중첩 확인부(114)가 위험 구역(z2)과 대상체(9)에 대응하는 가상 구역(z3)이 서로 중첩되어 이들(z2, z3) 간에 중첩 구역(z4)이 존재한다고 판단하였다면, 이에 대응하여 경고부(19)의 경고 동작이 필요하다고 판단하고, 경고부(19)가 이에 대응하는 경고 동작을 할 수 있도록 적어도 하나의 신호(알림 신호나 안내 신호 등으로 표현 가능함)를 생성할 수 있다. 생성된 적어도 하나의 신호는, 통신부(101)가 접속한 유무선 통신 네트워크를 통해 경고부(19)로 전달되고, 경고부(19)는 신호의 수신에 응하여 대응하는 경고 동작을 수행한다. 예를 들어, 경고부(19)는 특정 패턴의 광이나 음향을 출력하여 대상체(9, 일례로 작업자)가 위험 구역(z2)에 접근 또는 진입했다는 것을 대상체(9) 또는 이의 관리자 등에게 알릴 수 있다. 반대로 중첩 확인부(114)가 위험 구역(z2)과 대상체(9)에 대응하는 가상 구역(z3)이 서로 중첩되지 않아 중첩 구역(z4)이 존재하지 않는다고 판단한 경우에는, 경고 제어부(116)는 경고 동작이 불필요하다고 판단한다. 이에 따라 경고와 관련된 동작은 더 이상 수행되지 않는다.The warning control unit 116 determines that the overlap confirmation unit 114 overlaps the danger zone z2 and the virtual zone z3 corresponding to the object 9, so that an overlap zone z4 exists between them z2 and z3. If it is determined that a warning operation of the warning unit 19 is necessary, at least one signal (can be expressed as a notification signal or a guidance signal, etc.) is provided so that the warning unit 19 can perform a corresponding warning operation. ) can be created. At least one generated signal is transmitted to the warning unit 19 through a wired or wireless communication network connected to the communication unit 101, and the warning unit 19 performs a corresponding warning operation in response to reception of the signal. For example, the warning unit 19 may output a specific pattern of light or sound to notify the object 9 or its manager that the object 9 (e.g., a worker) has approached or entered the danger zone z2. there is. Conversely, if the overlap confirmation unit 114 determines that the danger zone z2 and the virtual zone z3 corresponding to the object 9 do not overlap each other and thus the overlap zone z4 does not exist, the warning control unit 116 It is judged that warning action is unnecessary. Accordingly, actions related to warnings are no longer performed.

클래스 판단부(115)는 대상체 감지부(111)가 영상으로부터 대상체(9)를 추출하면, 추출한 대상체(9)를 기반으로 해당 대상체(9)가 속하는 클래스를 결정할 수 있다. 클래스는, 예를 들어, 특정한 대상체(9)가 위험 구역(z2)에 접근 또는 진입 가능한지 여부를 나타내기 위한 정보 또는 카테고리를 포함할 수도 있나, 이에 한정되는 것은 아니다. 더욱 구체적으로 예를 들어, 클래스는 일반 작업자 및 특수 작업자를 포함할 수 있다. 여기서, 일반 작업자는 위험 구역(z2)에의 접근이 허가되지 않은 작업자로 정의되고, 특수 작업자는 위험 구역(z2)에의 접근 또는 진입이 허가된 작업자로 정의될 수도 있다. 클래스는, 모니터링 공간(1)의 목적이나 상태, 수행 작업의 특성 및/또는 위험한 정도 등에 따라 다양하게 규정될 수도 있다. 대상체(9)가 어느 클래스에 속하는지에 대한 판단은 대상체(9)의 외견(외모, 외형)을 기준으로 수행될 수도 있다. 예를 들어, 클래스 판단부(115)는 대상체(9)의 복장(일례로 특수 복장의 장착이나 안전모의 착용 여부 등)이나 대상체(9)에 장착된 표식(견장이나 태그 등) 등을 기반으로 대상체(9)가 일반 작업자인지 또는 특수 작업자인지 여부를 판단할 수도 있다. When the object detection unit 111 extracts the object 9 from the image, the class determination unit 115 may determine the class to which the object 9 belongs based on the extracted object 9. The class may include, for example, information or a category indicating whether a specific object 9 can approach or enter the danger zone z2, but is not limited thereto. More specifically, for example, a class may include general workers and special workers. Here, a general worker may be defined as a worker who is not permitted to access the danger zone (z2), and a special worker may be defined as a worker who is permitted to approach or enter the danger zone (z2). Classes may be defined in various ways depending on the purpose or state of the monitoring space 1, the nature of the work performed, and/or the degree of risk, etc. Determination of which class the object 9 belongs to may be performed based on the appearance (appearance, appearance) of the object 9. For example, the class determination unit 115 is based on the clothing of the object 9 (for example, whether special clothing is worn or a safety helmet is worn) or a mark (epaulette or tag, etc.) mounted on the object 9. It may also be determined whether the object 9 is a general worker or a special worker.

실시예에 따라, 클래스 판단부(115)는 소정의 학습 알고리즘을 실행하여 이러한 판단을 수행할 수도 있다. 이 경우, 학습 알고리즘에 대해서 대상체(9)의 외견에 대한 정보(영상 등)가 입력 값이 되고, 일반 작업자 또는 특수 작업자인지 여부가 출력 값이 된다. 클래스 판단부(115)의 판단 결과는 경고 제어부(116)로 전달될 수 있다.Depending on the embodiment, the class determination unit 115 may perform this determination by executing a predetermined learning algorithm. In this case, for the learning algorithm, information about the appearance of the object 9 (image, etc.) becomes an input value, and whether it is a general worker or a special worker becomes an output value. The determination result of the class determination unit 115 may be transmitted to the warning control unit 116.

일 실시예에 의하면, 경고 제어부(116)는 클래스 판단부(115)의 판단 결과를 더 이용하여 경고 동작의 필요 여부를 더 판단할 수도 있다. 구체적으로 예를 들어, 만약 클래스 판단부(115)가 해당 대상체(9)는 위험 구역(z2)에 접근 또는 진입 가능한 클래스(일례로 특수 작업자)라고 판단하였다면, 경고 제어부(116)는 설사 위험 구역(z2)과 대상체(9)에 대응하는 가상 구역(z3)이 서로 중첩되어 중첩 구역(z4)이 존재하는 경우에도 경고부(19)의 경고 동작이 필요하지 않다고 결정할 수 있다. 만약 클래스 판단부(115)가 해당 대상체(9)는 위험 구역(z2)에 접근 또는 진입 가능하지 않은 클래스(일례로 일반 작업자)라고 판단하였다면, 경고 제어부(116)는 위험 구역(z2)과 가상 구역(z3) 사이에 중첩 구역(z4)이 존재하는 경우에 한하여 경고부(19)의 경고 동작이 필요하다고 판단하고, 이에 대응하여 경고부(19)에 대한 적어도 하나의 신호 또는 데이터를 생성할 수 있다. 또한, 해당 대상체(9)에 대응하는 가상 구역(z3)과 위험 구역(z2) 사이에 어떠한 중첩 구역(z4)도 존재하지 않는다면, 경고 제어부(116)는 대상체(9)의 클래스와 무관하게 경고 동작이 불필요하다고 판단한다. 따라서, 대상체(9)의 위험 구역(z2) 접근 가능 또는 허가 여부에 따른 경고 출력의 차등적인 제어가 가능하게 된다.According to one embodiment, the warning control unit 116 may further use the determination result of the class determination unit 115 to determine whether a warning operation is necessary. Specifically, for example, if the class determination unit 115 determines that the object 9 is a class (for example, a special worker) that can approach or enter the danger zone (z2), the warning control unit 116 determines that the object 9 is a class that can approach or enter the danger zone (z2). Even when (z2) and the virtual zone (z3) corresponding to the object 9 overlap each other and an overlapping zone (z4) exists, it may be determined that the warning operation of the warning unit 19 is not necessary. If the class determination unit 115 determines that the object 9 is a class (for example, a general worker) that cannot approach or enter the danger zone (z2), the warning control unit 116 determines that the danger zone (z2) and the virtual It is determined that a warning operation of the warning unit 19 is necessary only when an overlapping area (z4) exists between the zones (z3), and at least one signal or data for the warning unit 19 is generated in response. You can. In addition, if no overlap zone (z4) exists between the virtual zone (z3) and the danger zone (z2) corresponding to the object 9, the warning control unit 116 issues a warning regardless of the class of the object 9. The action is judged unnecessary. Accordingly, it is possible to differentially control the warning output depending on whether the object 9 is allowed or permitted to access the danger zone z2.

이상 대상체 탐지 시스템(10)과 관련하여, 촬영부(11), 경고부(19) 및 대상체 탐지 장치(100)가 모두 물리적으로 분리된 일 실시예에 대해 설명하였으나, 실시예에 따라서, 대상체 탐지 시스템(10)은 하나의 물리적 장치(일례로 대상체 탐지 장치(100) 등)를 기반으로 구현될 수도 있다. 즉, 대상체 탐지 장치(100)와 같은 하나의 물리적 장치(일례로 스마트폰, 태블릿 피씨, 데스크톱 컴퓨터 또는 대상체(9) 탐지를 위해 특별히 고안된 장치 등)는, 상술한 촬영부(11), 경고부(19), 저장부(102) 및 프로세서(110) 등을 모두 포함할 수 있으며, 각각은 상술한 촬영, 경고 및 대상체(9)의 위험 구역(z2) 접근 또는 진입 여부 판단 동작을 수행함으로써, 상술한 바와 동일한 목적 및 효과를 얻을 수도 있다.Regarding the abnormal object detection system 10, an embodiment in which the imaging unit 11, the warning unit 19, and the object detection device 100 are all physically separated has been described, but depending on the embodiment, the object detection The system 10 may be implemented based on a single physical device (for example, the object detection device 100, etc.). That is, a physical device such as the object detection device 100 (e.g., a smartphone, tablet PC, desktop computer, or a device specifically designed to detect the object 9, etc.) includes the above-described photographing unit 11 and the warning unit. (19), a storage unit 102, and a processor 110, etc. may be included, each of which performs the above-described shooting, warning, and determination operation of whether the object 9 approaches or enters the danger zone z2, The same purpose and effect as described above can also be achieved.

이하 도 5를 참조하여 대상체 탐지 방법의 일 실시예에 대해 설명하도록 한다.Hereinafter, an embodiment of an object detection method will be described with reference to FIG. 5.

도 5는 대상체 탐지 방법의 일 실시예에 대한 흐름도이다.Figure 5 is a flowchart of an embodiment of an object detection method.

도 5에 도시된 바를 참조하면, 먼저 모니터링 공간의 내부 또는 외부에 촬영된 하나 또는 둘 이상의 촬영부가, 위험 구역이 존재하는 모니터링 공간의 내부에 대한 영상을 촬영한다(400). 여기서 촬영부는, 카메라 장치를 포함할 수 있으며, 예를 들어, RGB-D 카메라를 포함할 수도 있다. 촬영부가 RGB-D 카메라인 경우, 촬영부는 영상 촬영과 더불어 촬영된 대상체에 대한 깊이 정보(일례로, 촬영부와 대상체 간의 거리나, 모니터링 공간의 일 경계와 대상체 간의 거리)도 획득할 수 있다. 촬영부에 의해 촬영된 영상은, 유무선 통신 네트워크를 통해 대상체 탐지 장치로 전달되거나 또는 케이블이나 회로선 등을 통해 프로세서로 전달될 수 있다.Referring to FIG. 5 , first, one or more imaging units captured inside or outside the monitoring space capture images of the inside of the monitoring space where a risk zone exists (400). Here, the photographing unit may include a camera device, for example, an RGB-D camera. If the photographing unit is an RGB-D camera, the recording unit may capture an image as well as obtain depth information about the photographed object (for example, the distance between the photographing unit and the object or the distance between a boundary of the monitoring space and the object). The image captured by the photographing unit may be transmitted to the object detection device through a wired or wireless communication network, or may be transmitted to the processor through a cable or circuit line.

대상체 탐지 장치 또는 프로세서는, 영상으로부터 대상체를 감지하고, 대상체를 추출할 수 있다(402). 이 경우, 대상체의 감지 및 추출 중 적어도 하나는 적어도 하나의 학습 알고리즘을 이용하여 수행될 수도 있다. 이에 따라 영상 내에서의 대상체의 영역이 결정될 수 있게 된다.The object detection device or processor may detect an object from an image and extract the object (402). In this case, at least one of detecting and extracting the object may be performed using at least one learning algorithm. Accordingly, the area of the object within the image can be determined.

일 실시예에 의하면, 대상체의 추출과 더불어 또는 순차적으로 대상체에 대한 깊이가 추출될 수 있다(404). 대상체의 깊이는 촬영부가 획득한 정보를 기반으로 획득될 수 있으며, 예를 들어, 복수의 촬영부의 위치 및 이들이 획득한 영상에 대해 삼각 측량법을 적용하여 획득될 수도 있고 또는 적외선 광의 조사 시점 및 반사된 적외선 광의 수신 시점 간의 시간 차를 기반으로 연산하여 획득될 수도 있다.According to one embodiment, the depth of the object may be extracted along with or sequentially with the extraction of the object (404). The depth of the object may be acquired based on information acquired by the imaging unit. For example, it may be obtained by applying triangulation to the positions of a plurality of imaging units and the images acquired by them, or the irradiation point of infrared light and the reflected It may also be obtained by calculating based on the time difference between the reception points of infrared light.

대상체에 대한 영상 및 획득된 깊이를 기반으로 3차원 맵 상에 해당 대상체에 대응하는 적어도 하나의 가상 구역이 생성될 수 있다(406). 가상 구역은, 대상체에 관한 3차원 맵 상의 상대적 좌표를 연산하고, 연산된 상대적 좌표를 조합함으로써 생성될 수도 있다. 상대적 좌표는 연산된 깊이를 이용하여 수행될 수 있다. 보다 구체적으로 상술한 수학식 1 및 수학식 2에 기재된 바와 같이, 대상체의 일 지점에 대한 상대적 좌표는, 대상체의 적어도 일 지점에 대한 깊이, 영상 내의 적어도 일 지점의 좌표, 영상의 중심의 좌표, 영상의 너비, 영상의 높이, 연산된 깊이, 촬영부의 너비 방향 화각, 촬영부의 높이 방향 화각 및 크기 조절 변수를 이용하여 연산될 수도 있다. 여기서, 크기 조절 변수는, 1 이상의 값을 가질 수 있으며, 대상체에 대응하는 가상 구역의 크기를 결정하기 위해 마련된 변수이다. 한편, 가상 구역이, 예를 들어, 직육면체의 형상으로 마련된 경우, 직육면체의 각 모서리의 상대적 좌표는 상술한 수학식 1 및 수학식 2에 연산된 깊이 대신에 연산된 깊이에 깊이 결정 값을 적용한 값을 적용하여 연산될 수도 있다. 이 경우, 직육면체의 전방 네 모서리 중 적어도 하나의 모서리의 x축 좌표 값 및 y축 좌표 값(x, y)은 연산된 깊이에 깊이 결정 값을 차감한 제1 깊이를 수학식 1 및 수학식 2에 적용하여 각각 연산되고, 직육면체의 후방 네 모서리 중 적어도 하나의 모서리의 x축 좌표 값 및 y축 좌표 값(x, y)은 연산된 깊이에 깊이 결정 값을 합산하여 획득된 제2 깊이를 수학식 1 및 수학식 2에 적용하여 각각 연산될 수 있다. 이 경우, 수학식 1 및 수학식 2에서 이용되는 영상 내의 적어도 일 지점의 좌표는, 대상체의 말단 경계 상의 적어도 하나의 지점(예를 들어, 대상체의 상측 말단, 하측 말단 및 좌우측 말단 등의 네 개의 지점)의 좌표 중 어느 하나를 포함할 수 있다.At least one virtual area corresponding to the object may be created on the 3D map based on the image of the object and the acquired depth (406). A virtual area may be created by calculating relative coordinates on a 3D map for an object and combining the calculated relative coordinates. Relative coordinates can be performed using calculated depth. More specifically, as described in Equation 1 and Equation 2 above, the relative coordinates for one point of the object include the depth of at least one point of the object, the coordinates of at least one point in the image, the coordinates of the center of the image, It may be calculated using the width of the image, the height of the image, the calculated depth, the angle of view in the width direction of the photographing unit, the angle of view in the height direction of the photographing unit, and the size adjustment variable. Here, the size control variable may have a value of 1 or more and is a variable provided to determine the size of the virtual area corresponding to the object. On the other hand, when the virtual area is, for example, in the shape of a rectangular parallelepiped, the relative coordinates of each corner of the rectangular parallelepiped are the value obtained by applying the depth determination value to the calculated depth instead of the depth calculated in Equation 1 and Equation 2 above. It can also be calculated by applying . In this case, the x-axis coordinate value and y-axis coordinate value (x, y) of at least one of the four front corners of the rectangular parallelepiped are the first depth obtained by subtracting the depth determination value from the calculated depth in Equation 1 and Equation 2. are respectively calculated by applying to the Each can be calculated by applying Equation 1 and Equation 2. In this case, the coordinates of at least one point in the image used in Equation 1 and Equation 2 are at least one point on the end boundary of the object (for example, four points such as the upper end, lower end, and left and right end of the object). It may include any one of the coordinates of a point).

가상 구역이 생성되면, 가상 구역과 위험 구역이 중첩하여 이들 사이에 중첩 구역이 존재하는지 여부가 판단될 수 있다(408). 여기서, 위험 구역은 사용자나 설계자 등에 의해 사전에 정의된 것일 수 있으며, 모니터링 구역에 대응하는 3차원 맵 내에 존재하고, 3차원 맵 내에서 상대적 좌표를 가질 수 있다. 위험 구역은 직육면체, 타원체 또는 구 등의 형상을 가질 수 있다.When a virtual zone is created, it can be determined whether the virtual zone and the risk zone overlap and an overlap zone exists between them (408). Here, the risk area may be defined in advance by a user or designer, may exist in a 3D map corresponding to the monitoring area, and may have relative coordinates within the 3D map. The danger zone may have the shape of a cuboid, ellipsoid, or sphere.

만약 위험 구역과 가상 구역이 중첩하는 것으로 판단되면(408의 예), 경고부는 이에 응하여 대상체(일례로 작업자)가 위험 구역에 접근 또는 진입하였다는 경고를 출력할 수 있다(410). 경고부는, 실시예에 따라, 음향 출력 장치, 경광등, 스피커 장치, 스마트폰, 스마트 시계, 스마트 밴드, 헤드 셋, 두부 장착형 디스플레이, 태블릿 피씨, 데스크톱 컴퓨터 또는 랩톱 컴퓨터 등을 포함할 수 있다. 경고는 시각적 또는 청각적 형태로 출력될 수도 있다. 예를 들어, 경고부가 사이렌 등의 음향 출력 장치인 경우에는 음향의 형태로 경고가 출력되고, 경고부가 경광 등이라면 점멸 광의 형태로 경고가 출력될 수 있다. 경고부가 스마트폰이나 데스크톱 컴퓨터라면 경고는 메시지 등의 형태로 출력될 수도 있다. 반대로 위험 구역과 가상 구역이 중첩하지 않는 것으로 판단되면(408의 아니오), 경고부는 경고 동작을 수행하지 않는다.If it is determined that the danger zone and the virtual zone overlap (example of 408), the warning unit may respond and output a warning that the object (for example, a worker) has approached or entered the danger zone (410). Depending on the embodiment, the warning unit may include a sound output device, a warning light, a speaker device, a smartphone, a smart watch, a smart band, a headset, a head-mounted display, a tablet PC, a desktop computer, or a laptop computer. Warnings may be output in visual or audible form. For example, if the warning unit is a sound output device such as a siren, a warning may be output in the form of sound, and if the warning unit is a warning light, the warning may be output in the form of a flashing light. If the warning unit is a smartphone or desktop computer, the warning may be output in the form of a message. Conversely, if it is determined that the danger zone and the virtual zone do not overlap (No in 408), the warning unit does not perform a warning operation.

일 실시예에 의하면, 위험 구역이 중첩된다고 하더라도 경고가 출력되지 않을 수도 있다. 구체적으로 위험 구역 중첩 여부의 판단 과정(408)과 동시에 또는 순차적으로 해당 대상체의 클래스가 결정되고, 결정된 클래스에 따라서 경고의 출력 여부가 결정될 수도 있다. 클래스는 특정 대상체가 위험 구역에 접근 또는 진입 허가에 관한 정보 또는 카테고리로, 예를 들어, 대상체가 작업자인 경우, 클래스는 위험 구역으로의 접근 또는 진입이 허가되지 않은 일반 작업자 및 위험 구역으로의 접근 또는 진입이 허가된 특수 작업자 등을 포함할 수도 있다. 클래스의 판단은 대상체의 외견 등을 기반으로 수행될 수 있으며, 이를 위해 소정의 학습 알고리즘이 이용될 수도 있다. 클래스의 판단 결과, 대상체가 위험 구역으로의 접근 또는 진입이 허가된 경우라면, 위험 구역이 중첩된다고 하더라도 경고부는 경고 출력 동작을 수행하지 않는다. 반대로 대상체가 위험 구역으로의 접근 또는 진입이 허가되지 않고 대상체와 위험 구역이 서로 중첩된 경우라면, 경고부는 상술한 것처럼 경고 출력 동작을 수행한다(410).According to one embodiment, a warning may not be output even if the danger zone overlaps. Specifically, the class of the object may be determined simultaneously or sequentially with the process of determining whether the danger zone overlaps (408), and whether or not to output a warning may be determined according to the determined class. A class is information or a category regarding a specific subject's permission to access or enter a hazardous area, for example, if the subject is a worker, the class is a general worker who is not authorized to access or enter the hazardous area and access to the hazardous area. Alternatively, it may include special workers who are permitted to enter. Class judgment may be performed based on the object's appearance, etc., and a predetermined learning algorithm may be used for this purpose. As a result of the class's judgment, if the object is permitted to approach or enter the danger zone, the warning unit does not perform a warning output operation even if the danger zones overlap. Conversely, if the object is not permitted to approach or enter the danger zone and the object and the danger zone overlap each other, the warning unit performs a warning output operation as described above (410).

상술한 대상체 탐지 과정은 계속해서 반복 수행될 수 있다(412).The above-described object detection process may be continuously and repeatedly performed (412).

상술한 실시예에 따른 대상체 탐지 방법은, 컴퓨터 장치에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다. 프로그램은, 명령어, 라이브러리, 데이터 파일 및/또는 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며, 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 대상체 탐지 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 또한, 여기서, 컴퓨터 장치는, 프로그램의 기능을 실현 가능하게 하는 프로세서나 메모리 등을 포함하여 구현된 것일 수 있으며, 필요에 따라 통신 장치를 더 포함할 수도 있다.The object detection method according to the above-described embodiment may be implemented in the form of a program that can be driven by a computer device. A program may include instructions, libraries, data files, and/or data structures, etc., singly or in combination, and may be designed and produced using machine code or high-level language code. The program may be specially designed to implement the above-described object detection method, or may be implemented using various functions or definitions known and available to those skilled in the art in the field of computer software. In addition, here, the computer device may be implemented by including a processor or memory that enables the function of the program, and may further include a communication device if necessary.

상술한 대상체 탐지 방법을 구현하기 위한 프로그램은, 컴퓨터 등의 장치에 의해 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터에 의해 판독 가능한 기록 매체는, 예를 들어, 롬, 램, SD카드 또는 플래시 메모리(일례로 솔리드 스테이트 드라이브(SSD) 등)와 같은 반도체 저장 매체나, 하드 디스크 또는 플로피 디스크 등과 같은 자기 디스크 저장 매체나, 콤팩트 디스크 또는 디브이디 등과 같은 광 기록 매체나, 또는 플롭티컬 디스크 등과 같은 자기-광 기록 매체 등과 같이 컴퓨터 등의 장치의 호출에 따라 실행되는 하나 이상의 프로그램을 일시적 또는 비일시적으로 저장 가능한 적어도 한 종류의 물리적 저장 매체를 포함할 수 있다.A program for implementing the above-described object detection method may be recorded on a recording medium readable by a device such as a computer. Recording media that can be read by a computer include, for example, semiconductor storage media such as ROM, RAM, SD cards, or flash memory (eg, solid state drives (SSD), etc.), or magnetic disk storage such as hard disks or floppy disks. At least one medium capable of temporarily or non-temporarily storing one or more programs that are executed upon call from a device such as a computer, such as an optical recording medium such as a compact disk or DVD, or a magneto-optical recording medium such as a floptical disk. It may include any type of physical storage medium.

이상 대상체 탐지 시스템, 대상체 탐지 장치 및 대상체 탐지 방법의 여러 실시예에 대해 설명하였으나, 대상체 탐지 시스템, 대상체 탐지 장치 또는 대상체 탐지 방법은 오직 상술한 실시예에 한정되는 것은 아니다. 해당 기술 분야에서 통상의 지식을 가진 자가 상술한 실시예를 기초로 수정 및 변형하여 구현할 수 있는 다른 다양한 시스템, 장치나 방법 역시 상술한 대상체 탐지 시스템, 대상체 탐지 장치 또는 대상체 탐지 방법의 일 실시예가 될 수 있다. 예를 들어, 설명된 방법(들)이 설명된 바와 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성 요소(들)가 설명된 바와 다른 형태로 결합, 연결 또는 조합되거나 다른 구성 요소 또는 균등물 등에 의하여 대치 또는 치환되더라도, 상술한 대상체 탐지 시스템, 대상체 탐지 장치 및/또는 대상체 탐지 방법의 일 실시예가 될 수 있다.Although several embodiments of the abnormal object detection system, object detection device, and object detection method have been described, the object detection system, object detection device, or object detection method are not limited to the above-described embodiments. Various other systems, devices or methods that can be implemented by those skilled in the art by modifying and modifying the above-described embodiments may also be an embodiment of the above-described object detection system, object detection device or object detection method. You can. For example, the described method(s) may be performed in an order other than as described, and/or component(s) of the described system, structure, device, circuit, etc. may be combined, connected, or otherwise in a form other than as described. Even if combined or replaced or replaced by other components or equivalents, it can be an embodiment of the above-described object detection system, object detection device, and/or object detection method.

1: 모니터링 공간 9: 대상체
11: 촬영부 19: 경고부
90: 단말 장치 100: 대상체 탐지 장치
101: 통신부 102: 저장부
110: 프로세서 111: 대상체 감지부
112: 깊이 추출부 113: 가상 구역 생성부
114: 중첩 확인부 115: 클래스 판단부
116: 경고 제어부
1: Monitoring space 9: Object
11: Filming unit 19: Warning unit
90: terminal device 100: object detection device
101: communication unit 102: storage unit
110: Processor 111: Object detection unit
112: Depth extraction unit 113: Virtual zone creation unit
114: Overlap confirmation unit 115: Class determination unit
116: warning control unit

Claims (7)

모니터링 공간 및 상기 모니터링 공간 내의 대상체에 대한 영상을 촬영하고, 상기 대상체에 대한 깊이 정보를 획득하는 촬영부;
상기 대상체에 대한 영상으로부터 상기 대상체를 추출하고, 상기 모니터링 공간에 대응하는 3차원 맵 상에서 상기 대상체에 대한 상대적 좌표를 획득하고, 상기 상대적 좌표를 이용하여 상기 대상체에 대한 가상 구역을 생성하고, 상기 가상 구역과 위험 구역의 중첩 여부를 판단하는 대상체 탐지 장치; 및
상기 가상 구역과 위험 구역이 중첩하는 경우, 경고를 출력하는 경고부;를 포함하는 대상체 탐지 시스템.
a photographing unit that captures images of a monitoring space and an object within the monitoring space, and acquires depth information about the object;
Extract the object from the image of the object, obtain relative coordinates for the object on a three-dimensional map corresponding to the monitoring space, create a virtual zone for the object using the relative coordinates, and an object detection device that determines whether a zone overlaps with a danger zone; and
An object detection system comprising a warning unit that outputs a warning when the virtual area overlaps with the danger area.
제1항에 있어서,
상기 대상체 탐지 장치는, 상기 대상체의 적어도 일 지점에 대한 상기 영상 내에서의 좌표와, 상기 영상의 너비 방향 중심의 좌표와, 상기 영상의 높이 방향 중심의 좌표와, 상기 영상의 너비와, 상기 영상의 높이와, 상기 촬영부의 너비 방향 화각과, 상기 촬영부의 높이 방향 화각과, 상기 가상 구역의 크기 조절을 위한 크기 조절 변수를 이용하여, 상기 대상체에 대한 상대적 좌표를 획득하는 대상체 탐지 시스템.
According to paragraph 1,
The object detection device includes coordinates in the image for at least one point of the object, coordinates of the width direction center of the image, coordinates of the height direction center of the image, the width of the image, and the image. An object detection system that obtains relative coordinates for the object using the height of the photographing unit, the width direction angle of view of the photographing unit, the height direction angle of view of the photographing unit, and a size adjustment variable for adjusting the size of the virtual zone.
제2항에 있어서,
상기 대상체 탐지 장치는, 상기 대상체의 적어도 일 지점에 대한 깊이를 획득하고, 상기 깊이에 깊이 결정 값을 차감하여 획득되는 제1 깊이 및 상기 깊이에 깊이 결정 값을 차감하여 획득되는 제2 깊이 중 어느 하나를 더 이용하여 상기 대상체에 대한 상대적 좌표를 획득하는 대상체 탐지 시스템.
According to paragraph 2,
The object detection device acquires the depth of at least one point of the object, and selects one of a first depth obtained by subtracting a depth determination value from the depth and a second depth obtained by subtracting the depth determination value from the depth. An object detection system that obtains relative coordinates for the object using one more object.
제3항에 있어서,
상기 가상 구역은 상기 제1 깊이를 이용하여 획득한 상대적 좌표를 정면의 네 모서리의 좌표로 하고 상기 제2 깊이를 이용하여 획득한 상대적 좌표를 후면의 네 모서리의 좌표로 하는 가상의 육면체를 포함하는 대상체 탐지 시스템.
According to paragraph 3,
The virtual area includes a virtual hexahedron in which the relative coordinates obtained using the first depth are the coordinates of the four corners of the front and the relative coordinates obtained using the second depth are the coordinates of the four corners of the back. Object detection system.
제1항에 있어서,
상기 대상체 탐지 장치는, 상기 대상체의 클래스를 더 판단하고,
상기 경고부는, 상기 대상체의 클래스가 상기 위험 구역에 접근 또는 진입 가능한 경우에는 상기 경고를 출력하지 않는 대상체 탐지 시스템.
According to paragraph 1,
The object detection device further determines the class of the object,
The warning unit is an object detection system that does not output the warning when the class of the object can approach or enter the danger zone.
모니터링 공간 및 상기 모니터링 공간 내의 대상체에 대한 영상을 촬영하고, 상기 대상체에 대한 깊이 정보를 획득하는 촬영부;
상기 대상체에 대한 영상으로부터 상기 대상체를 추출하고, 상기 모니터링 공간에 대응하는 3차원 맵 상에서 상기 대상체에 대한 상대적 좌표를 획득하고, 상기 상대적 좌표를 이용하여 상기 대상체에 대한 가상 구역을 생성하고, 상기 가상 구역과 위험 구역의 중첩 여부를 판단하는 프로세서; 및
상기 가상 구역과 위험 구역이 중첩하는 경우, 경고를 출력하는 경고부;를 포함하는 대상체 탐지 장치.
a photographing unit that captures images of a monitoring space and an object within the monitoring space, and acquires depth information about the object;
Extract the object from the image of the object, obtain relative coordinates for the object on a three-dimensional map corresponding to the monitoring space, create a virtual zone for the object using the relative coordinates, and a processor that determines whether zones overlap with hazardous zones; and
Object detection device comprising: a warning unit that outputs a warning when the virtual area and the danger area overlap.
모니터링 공간 및 상기 모니터링 공간 내의 대상체에 대한 영상을 촬영하는 단계;
상기 대상체에 대한 깊이 정보를 획득하는 단계;
상기 대상체에 대한 영상으로부터 상기 대상체를 추출하는 단계;
상기 모니터링 공간에 대응하는 3차원 맵 상에서 상기 대상체에 대한 상대적 좌표를 획득하는 단계;
상기 상대적 좌표를 이용하여 상기 대상체에 대한 가상 구역을 생성하는 단계;
상기 가상 구역과 위험 구역의 중첩 여부를 판단하는 단계; 및
상기 가상 구역과 위험 구역이 서로 중첩하면, 경고를 출력하는 단계;를 포함하는 대상체 탐지 방법.
Taking images of a monitoring space and an object within the monitoring space;
Obtaining depth information about the object;
extracting the object from an image of the object;
Obtaining relative coordinates for the object on a three-dimensional map corresponding to the monitoring space;
generating a virtual zone for the object using the relative coordinates;
determining whether the virtual zone overlaps with the danger zone; and
An object detection method comprising: outputting a warning when the virtual zone and the danger zone overlap each other.
KR1020220062602A 2022-05-23 2022-05-23 System, apparatus and method for detecting object KR20230163055A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220062602A KR20230163055A (en) 2022-05-23 2022-05-23 System, apparatus and method for detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220062602A KR20230163055A (en) 2022-05-23 2022-05-23 System, apparatus and method for detecting object

Publications (1)

Publication Number Publication Date
KR20230163055A true KR20230163055A (en) 2023-11-30

Family

ID=88968633

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220062602A KR20230163055A (en) 2022-05-23 2022-05-23 System, apparatus and method for detecting object

Country Status (1)

Country Link
KR (1) KR20230163055A (en)

Similar Documents

Publication Publication Date Title
Wu et al. Real-time mixed reality-based visual warning for construction workforce safety
US11238717B2 (en) Proximity-based personnel safety system and method
US11429189B2 (en) Monitoring
KR102032662B1 (en) Human-computer interaction with scene space monitoring
US10614590B2 (en) Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium
KR20210086072A (en) System and method for real-time monitoring field work
EP3101629A1 (en) Mediated reality
EP3115870B1 (en) Monitoring
US20210405363A1 (en) Augmented reality experiences using social distancing
US20180165853A1 (en) Head-mounted display apparatus and virtual object display system
JP6705886B2 (en) Surveillance
CN117337426A (en) Audio augmented reality
JP2018523231A5 (en)
CN113557713A (en) Context aware monitoring
KR20230163055A (en) System, apparatus and method for detecting object
JP2023136238A (en) Information display system, information display method, and program
Chen et al. Mixed reality-based active hazard prevention system for heavy machinery operators
JP7272118B2 (en) Intrusion detection devices, programs and intrusion detection systems
Jacobsen et al. Real-time LiDAR for Monitoring Construction Worker Presence Near Hazards and in Work Areas in a Virtual Reality Environment
JP7164149B2 (en) Simulator, Server, Evaluation System, Evaluation Program, and Evaluation Method
EP4130936A1 (en) Positioning apparatus and method
WO2021245749A1 (en) Tracking device, tracking method, and recording medium
JP2019159942A (en) Information processing device, information processing system, information processing method, and program
GB2610699A (en) Positioning apparatus and method
JP2023022867A (en) Safety managing device, system, method and program