KR102468685B1 - Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof - Google Patents

Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof Download PDF

Info

Publication number
KR102468685B1
KR102468685B1 KR1020200049834A KR20200049834A KR102468685B1 KR 102468685 B1 KR102468685 B1 KR 102468685B1 KR 1020200049834 A KR1020200049834 A KR 1020200049834A KR 20200049834 A KR20200049834 A KR 20200049834A KR 102468685 B1 KR102468685 B1 KR 102468685B1
Authority
KR
South Korea
Prior art keywords
image
work site
virtual reality
safety management
extracted
Prior art date
Application number
KR1020200049834A
Other languages
Korean (ko)
Other versions
KR20210131581A (en
Inventor
김기성
구자석
Original Assignee
(주)오픈웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)오픈웍스 filed Critical (주)오픈웍스
Priority to KR1020200049834A priority Critical patent/KR102468685B1/en
Publication of KR20210131581A publication Critical patent/KR20210131581A/en
Application granted granted Critical
Publication of KR102468685B1 publication Critical patent/KR102468685B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/02Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using radio waves
    • G01S1/68Marker, boundary, call-sign, or like beacons transmitting signals not carrying directional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 발명은 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법에 관한 것으로서, 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치는, 작업현장의 카메라로부터 작업현장을 촬영한 촬영영상을 수신하는 통신 인터페이스부, 및 수신한 촬영영상을 이용해 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 객체를 이미지화하며, 생성한 VR 배경영상과 이미지화한 객체를 합성하여 작업현장의 VR 영상을 생성해 출력하는 제어부를 포함할 수 있다.The present invention relates to a virtual reality-based workplace safety management device and a driving method of the device. A communication interface unit that receives the captured image, and a virtual reality (VR) background image for the scene of the work site is created using the received captured image, and the object is imaged based on the deep learning result of the object extracted from the received captured image. And, it may include a control unit for generating and outputting a VR image of the work site by synthesizing the generated VR background image and the imaged object.

Description

가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법{Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof}Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof

본 발명은 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법에 관한 것으로서, 가령 터널 공사 등과 같은 작업현장에서 위치 추적을 위한 신호가 감지되지 않는 객체(예: 물건/사람/장비 등)나 신호의 오류시에도 가상현실(VR) 영상 등을 통해 작업 현장을 용이하게 모니터링할 수 있는 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법에 관한 것이다.The present invention relates to a virtual reality-based safety management device at a work site and a method for driving the device, and relates to an object (e.g., object/person/equipment, etc.) for which a signal for location tracking is not detected at a work site such as tunnel construction. It relates to a virtual reality-based workplace safety management device that can easily monitor the workplace through virtual reality (VR) images even in the event of a signal error, and a method for driving the device.

일반적으로 건설, 토목, 플랜트 등 현장에서는 각 작업자별 안전이 최우선적으로 요구된다 할 것이다. 하지만, 현재까지 이러한 작업자들의 개인별 안전은 사전 교육 등이 이루어지는 것이 대부분이고 실제 작업 현장에 투입되는 경우에는 각 개인별로 자기 스스로 안전을 담당하는 것이 일반적이다. 최근 들어서는 스마트기기 및 웨어러블 장치들의 개발들로 인해 작업자들의 위치나 신체 정보 등을 중앙관제서버에서도 확인이 가능하도록 하는 시스템도 일부 제안되어지고 있다.In general, it will be said that the safety of each worker is required as the top priority in construction, civil engineering, and plant sites. However, until now, most of the safety of these workers has been conducted in advance, and in the case of being put into the actual work site, it is common for each individual to be in charge of safety by himself. In recent years, due to the development of smart devices and wearable devices, some systems have been proposed that enable the central control server to check the location or body information of workers.

종래의 터널 등과 같은 작업공간에서의 모니터링 시스템은 일반적으로 CCTV(Closed Circuit Television)를 통해 표시되는 영상을 감시하여 관제센터에서 관리 감독하는 것이 일반적이다. 이러한 CCTV로만 작업 현장을 모니터링하는 경우 정확한 객체에 대한 위치와 정보를 실시간으로 확인하는 것이 어려웠다.A monitoring system in a work space such as a conventional tunnel is generally managed and supervised by a control center by monitoring images displayed through CCTV (Closed Circuit Television). In the case of monitoring the work site only with these CCTVs, it was difficult to check the exact location and information of the object in real time.

이를 보완하기 위해 또한 종래에는 비콘이나 비콘스캐너 등을 이용하여 일정 공간 내의 객체에 대한 정보를 확인할 수는 있으나 비콘신호가 없는 객체나 또는 비콘신호 등에 오류가 발생하는 경우, 나아가 다양하게 변화하는 실시간 현장 내의 상황 정보를 제대로 확인할 수 없는 경우도 많이 발생하고 있다.In order to compensate for this, conventionally, it is possible to check information on an object within a certain space using a beacon or a beacon scanner, but when an error occurs in an object without a beacon signal or a beacon signal, furthermore, variously changing real-time sites There are many cases where it is not possible to properly check the situation information inside.

한국등록특허공보 제10-2074684호(2020.02.03)Korea Patent Registration No. 10-2074684 (2020.02.03) 한국등록특허공보 제10-1944823호(2019.01.28)Korea Patent Registration No. 10-1944823 (2019.01.28) 한국등록특허공보 제10-2014652호(2019.08.20)Korean Registered Patent Publication No. 10-2014652 (2019.08.20) 한국공개특허공보 제10-2020-0030784호(2020.03.23)Korean Patent Publication No. 10-2020-0030784 (2020.03.23) 한국공개특허공보 제10-2020-0031312호(2020.03.24)Korean Patent Publication No. 10-2020-0031312 (2020.03.24)

본 발명의 실시예는 가령 터널 공사 등과 같은 작업현장에서 위치 추적을 위한 신호가 감지되지 않는 객체나 신호의 오류시에도 가상현실(VR) 영상 등을 통해 작업 현장을 용이하게 모니터링할 수 있는 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법을 제공함에 그 목적이 있다.An embodiment of the present invention is a virtual reality that can easily monitor a work site through a virtual reality (VR) image even in the event of an object or signal error in which a signal for position tracking is not detected at a work site such as tunnel construction, etc. Its purpose is to provide a work site safety management device based on the device and a driving method of the device.

본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치는, 작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 통신 인터페이스부, 및 상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 제어부를 포함한다.A virtual reality-based workplace safety management device according to an embodiment of the present invention includes a communication interface unit that receives a photographed image of the work site from a camera at the work site, and a communication interface unit for receiving the captured image of the work site. A virtual reality (VR) background image for the appearance is generated, the object is imaged based on the deep learning result of the object extracted from the received photographed image, and the generated VR background image and the imaged object are synthesized to It includes a control unit that generates and outputs a VR image of the work site.

상기 제어부는, 상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭(stiching)하여 상기 VR 배경영상을 생성할 수 있다.The control unit extracts unit frame images of the same time from each of the captured images received from a plurality of cameras installed at different locations in the work site, and stitches each of the extracted unit frame images to obtain the VR background. You can create video.

상기 제어부는 상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이(depth) 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성할 수 있다.The control unit may obtain depth information of the extracted object by analyzing the received captured image, and may combine the imaged object with the VR background image by applying the obtained depth information.

상기 제어부는 상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용할 수 있다.The control unit may further use a distance value calculated by beacon information received in relation to the extracted object in order to acquire depth information of the extracted object.

상기 제어부는, 상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환할 수 있다.The control unit may switch to the VR video control mode when an event in the work site or an error is detected in the object.

또한, 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 구동방법은, 통신 인터페이스부가, 작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 단계, 및 제어부가, 상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 단계를 포함한다.In addition, the driving method of the virtual reality-based workplace safety management device according to an embodiment of the present invention includes the step of receiving, by a communication interface unit, a photographed image of the workplace from a camera of the workplace, and the control unit, A virtual reality (VR) background image for the scene of the work site is created using the received captured image, the object is imaged based on the deep learning result of the object extracted from the received captured image, and the VR background image is created. and generating and outputting a VR video of the work site by synthesizing the video and the imaged object.

상기 생성해 출력하는 단계는, 상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭하여 상기 VR 배경영상을 생성할 수 있다.In the generating and outputting step, unit frame images of the same time are extracted from each of the captured images received from a plurality of cameras installed at different locations in the work site, and each of the extracted unit frame images is stitched to obtain the VR A background image can be created.

상기 생성해 출력하는 단계는, 상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성할 수 있다.In the generating and outputting step, depth information of the extracted object may be acquired by analyzing the received captured image, and the imaged object may be synthesized with the VR background image by applying the acquired depth information.

상기 생성해 출력하는 단계는, 상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용할 수 있다.The generating and outputting may further use a distance value calculated by beacon information received in relation to the extracted object in order to acquire depth information of the extracted object.

상기 생성해 출력하는 단계는, 상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환할 수 있다.The generating and outputting step may switch to VR video control mode when an event or an error is detected in the object at the work site.

본 발명의 실시예에 따르면, 작업현장(또는 작업공간)에서 가령 비콘 등의 신호가 없는 객체나 비콘 등의 신호에 오류가 발생하는 경우, 나아가 다양하게 변환하는 실시간 현장 내의 상황이나 상황 정보를 VR 영상을 통해 신속하고 정확하게 확인할 수 있을 것이다.According to an embodiment of the present invention, when an error occurs in an object without a signal such as a beacon or a signal such as a beacon in a work site (or work space), the situation or situation information in the field in real time that is further converted into VR You will be able to quickly and accurately check through the video.

또한, 본 발명의 실시예에 따르면 필요시 작업현장을 VR 영상으로 실시간으로 모니터링할 수 있어 사건, 사고에 좀더 신속하게 대처할 수 있을 것이다.In addition, according to an embodiment of the present invention, if necessary, the work site can be monitored in real time with VR images, so that incidents and accidents can be dealt with more quickly.

도 1은 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리시스템을 나타내는 도면,
도 2는 도 1의 공사현장 안전관리장치의 세부 구조를 예시한 블록다이어그램,
도 3은 도 2의 VR 영상처리부의 구조를 예시한 블록다이어그램,
도 4는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 구동 과정을 나타내는 흐름도, 그리고
도 5는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 다른 구동 과정을 나타내는 흐름도이다.
1 is a diagram showing a virtual reality-based workplace safety management system according to an embodiment of the present invention;
Figure 2 is a block diagram illustrating the detailed structure of the construction site safety management device of Figure 1,
3 is a block diagram illustrating the structure of the VR image processing unit of FIG. 2;
Figure 4 is a flow chart showing the driving process of the virtual reality-based workplace safety management device according to an embodiment of the present invention, and
5 is a flowchart showing another driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리시스템을 나타내는 도면이다.1 is a diagram showing a virtual reality-based workplace safety management system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리시스템(90)은 사용자장치(100), 현장장치(113, 115, 117), 통신망(120) 및 (가상현실 기반의) 공사현장 안전관리장치(130)의 일부 또는 전부를 포함한다.As shown in FIG. 1, the virtual reality-based workplace safety management system 90 according to an embodiment of the present invention includes a user device 100, field devices 113, 115, and 117, a communication network 120 and ( It includes some or all of the construction site safety management device 130 (based on virtual reality).

여기서, "일부 또는 전부를 포함한다"는 것은 현장장치(113, 115, 117)를 구성하는 스캐너장치(115)와 같은 일부 구성요소가 생략되어 시스템(90)이 구성되거나, 공사현장 안전관리장치(130)를 구성하는 구성요소의 일부 또는 전부가 통신망(120)을 구성하는 네트워크장치(예: 무선교환장치 등)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that the system 90 is configured by omitting some components such as the scanner device 115 constituting the field devices 113, 115, and 117, or the construction site safety management device This means that some or all of the components constituting the communication network 120 can be integrated into a network device (eg, a wireless switching device, etc.) to help a sufficient understanding of the invention. described as inclusive.

사용자장치(100)는 가령 터널 막장 등과 같은 공사현장(혹은 작업현장)의 작업자나 감독관 등이 착용하는 작업모 등에 구비되는 비콘장치, 또는 작업자가 소지하는 스마트폰 등의 단말장치, 나아가 작업자의 위치를 추적할 수 있는 모듈(예: 근거리통신모듈)이 탑재되는 전용 단말과 같이 다양한 장치를 포함한다. 물론 작업자가 손목 등에 착용하는 국내 S사의 갤*시기어와 같은 웨어러블장치를 포함할 수도 있다. 본 발명의 실시예에서는 작업의 안전성을 위협하지 않으면서 공사비용 등의 측면을 고려할 때 비콘신호를 전송하는 비콘장치를 이용하는 것이 바람직하지만, 이에 특별히 한정하지는 않을 것이다. 즉 현장 내에서 위치 추적이 가능하다면 근거리 무선통신이 가능한 다양한 통신장치가 사용될 수 있을 것이다.The user device 100 is, for example, a beacon device equipped with a work cap worn by a worker or a supervisor at a construction site (or work site) such as a tunnel end, etc., or a terminal device such as a smartphone owned by a worker, and further detects the location of the worker It includes various devices such as a dedicated terminal equipped with a module that can be tracked (eg, short-distance communication module). Of course, it may also include a wearable device such as a domestic S company's Galaxy Gear worn by a worker on the wrist or the like. In the embodiment of the present invention, it is preferable to use a beacon device that transmits a beacon signal when considering aspects such as construction cost without threatening work safety, but it will not be particularly limited thereto. That is, if location tracking is possible in the field, various communication devices capable of short-distance wireless communication may be used.

현장장치(113, 115, 117)는 카메라(113), 스캐너장치(115) 및 통신중계장치(117)를 포함하며, 이외에도 공사현장 내를 감지할 수 있는 다양한 장치를 더 포함할 수 있다. 대표적으로, 공사현장 내를 이동하며 촬영 등을 통해 감시하고 경고방송 등을 송출하는 이동로봇 등이나 공사현장의 내부 환경을 센싱하는 가스센서 등의 감지센서를 더 포함할 수 있다. 물론 감지센서는 이동로봇에 탑재될 수 있다. 카메라(113)는 3D 카메라, CCTV, IP 카메라 등 다양한 종류의 카메라를 포함할 수 있다. 가령, 도 1에서와 같이 터널 막장 내에는 실제로 복수 개의 카메라가 설치될 수 있다. 또한, 복수의 카메라는 막장 내부에서 VR 영상을 생성하기에 용이하도록 서로 다른 위치에 설치되어 내부를 촬영하고 촬영영상을 통신중계장치(117)를 통해 공사현장 안전관리장치(130)로 제공한다. 가령 3D 카메라의 경우에는 촬영영상으로서 3D 촬영영상을 제공할 수 있지만, 복수의 3D 카메라가 설치되는 경우에는 각각의 3D 카메라에서 3D 촬영영상을 각각 전송할 수 있다. 물론, 각각의 카메라는 촬영영상의 제공시 촬영되는 시간에 대한 정보나 카메라(113)의 식별정보(ID) 등을 함께 전송한다. 3D 카메라는 촬영영상 내의 사물 즉 객체들에 대한 뎁스 정보를 자체적으로 생성하여 더 제공할 수도 있다. 다만, 3D 카메라는 고가이므로, 본 발명의 실시예에서는 CCTV를 적용하는 것이 바람직하지만, 이에 특별히 한정하지는 않을 것이다.The field devices 113, 115, and 117 include a camera 113, a scanner device 115, and a communication relay device 117, and may further include various other devices capable of detecting a construction site. Typically, a detection sensor such as a gas sensor for sensing the internal environment of a construction site or a mobile robot that moves within a construction site and monitors through filming and transmits a warning broadcast may be further included. Of course, the detection sensor may be mounted on the mobile robot. The camera 113 may include various types of cameras such as 3D cameras, CCTVs, and IP cameras. For example, as shown in FIG. 1 , a plurality of cameras may actually be installed at the end of the tunnel. In addition, a plurality of cameras are installed in different locations to facilitate the creation of VR images inside the curtain, take pictures of the interior, and provide the captured images to the construction site safety management device 130 through the communication relay device 117. For example, in the case of a 3D camera, a 3D captured image may be provided as a captured image, but when a plurality of 3D cameras are installed, each 3D camera may transmit each 3D captured image. Of course, each camera transmits information about the shooting time or identification information (ID) of the camera 113 together when providing the captured image. The 3D camera may generate and further provide depth information on objects in the photographed image by itself. However, since a 3D camera is expensive, it is preferable to apply a CCTV in an embodiment of the present invention, but it will not be particularly limited thereto.

스캐너장치(115)는 주변의 사용자장치(100)와 통신을 수행한다. 스캐너장치(115)는 가령 비콘 스캐너로서 주변의 작업자가 작업모 등에 탑재하고 있는 비콘장치의 비콘신호를 수신하여 통신중계장치(117)로 제공한다. 물론, 비콘 스캐너(115)는 수신한 비콘신호를 제공할 때 자신의 장치식별정보(ID)와 수신한 비콘장치의 장치식별정보, 그리고 신호수신세기 등에 대한 정보를 함께 전송할 수 있다. 해당 정보들은 통신중계장치(117)를 경유하여 공사현장 안전관리장치(130)로 제공된다. 물론 본 발명의 실시예에 따른 스캐너장치(115)는 비콘 스캐너 이외에도 사용자장치(100)와 통신을 수행하여 작업자나 장비 등의 위치를 추적할 수 있다면 근거리 통신이 가능한 다양한 유형의 통신장치를 포함할 수 있다. 비콘은 최대 50m 거리에서 작동할 수 있으며, 적외선, RF 같은 무선통신기술을 이용하여 100m 이하의 짧은 거리의 통신을 수행하기 때문에 공사현장에서는 매우 유용할 수 있다. 스캐너장치(115) 또는 공사현장 내에 복수개의 장치가 설치될 수 있으며, 가령 공사현장 안전관리장치(130)는 어느 스캐너장치(115)에서 특정 비콘장치의 신호가 강하게 감지되는지를 근거로 거리를 측정하여 위치를 확정할 수 있다. 물론, 공사현장 내부에서는 비콘신호의 산란이나 반사 등이 발생할 수 있으며, 복수의 스캐너장치(115)를 그룹으로 설정하여 정확도를 높이는 등 다양한 방식의 측정이 이루어질 수 있다. 가령, 특정 그룹의 스캐너장치(115)에서 신호가 가장 강하고, 지속적으로 신호가 수신되었다면 그를 근거로 위치를 계산할 수 있는 것이다.The scanner device 115 communicates with the user device 100 in the vicinity. The scanner device 115, for example, as a beacon scanner, receives a beacon signal from a beacon device mounted on a working hat by a nearby worker and provides it to the communication relay device 117. Of course, when providing the received beacon signal, the beacon scanner 115 may transmit its own device identification information (ID), device identification information of the received beacon device, and information about signal reception strength. Corresponding information is provided to the construction site safety management device 130 via the communication relay device 117. Of course, the scanner device 115 according to an embodiment of the present invention may include various types of communication devices capable of short-distance communication if they can track the location of a worker or equipment by communicating with the user device 100 in addition to the beacon scanner. can A beacon can operate at a distance of up to 50m, and can be very useful at a construction site because it performs short-distance communication of less than 100m using wireless communication technologies such as infrared and RF. Scanner device 115 or a plurality of devices may be installed in the construction site, for example, the construction site safety management device 130 measures the distance based on which scanner device 115 strongly detects the signal of a specific beacon device location can be determined. Of course, scattering or reflection of the beacon signal may occur inside the construction site, and measurement may be performed in various ways, such as increasing accuracy by setting a plurality of scanner devices 115 as a group. For example, if the signal is the strongest in a specific group of scanner devices 115 and the signal is continuously received, the position can be calculated based on that.

터널 공사와 같은 막장 내에서는 통신이 원활하지 않을 수 있다. 가령 GPS 통신이 불가능하다. 따라서, 본 발명의 실시예에 따른 통신중계장치(117)는 막장의 입구에 설치되어 막장 외부와 막장 내부의 사용자장치(100)간에 원활한 통신이 이루어지도록 중계할 수 있다. 안테나의 신호 방사 방향을 조절함으로써 내부로의 신호 전송 및 수신이 얼마든지 가능할 수 있다. 통신중계장치(117)는 물론 액세스포인트(AP)일 수 있다. 따라서, 통신망(120)의 개념에 포함될 수 있다. 다만, 통신중계장치(117)는 공사 시공업체 등에서 직접 설치하여 사용할 수 있다는 점에서, 기간 통신사에서 설치하는 통신망(120)과는 구분하고자 하였다.Communication may not be smooth in a dead end such as tunnel construction. For example, GPS communication is impossible. Therefore, the communication relay device 117 according to an embodiment of the present invention is installed at the entrance of the curtain wall and can relay communication between the user device 100 outside the curtain wall and inside the curtain wall so that smooth communication is achieved. By adjusting the signal radiation direction of the antenna, signal transmission and reception to the inside can be done as much as possible. The communication repeater 117 may be an access point (AP) as well. Therefore, it may be included in the concept of the communication network 120 . However, in that the communication relay device 117 can be directly installed and used by a construction company, etc., it is intended to be distinguished from the communication network 120 installed by a key communication company.

통신망(120)은 유무선 통신망을 모두 포함한다. 가령 통신망(120)으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망 등을 포함하는 의미이다. 물론 본 발명의 실시예에 따른 통신망(120)은 이에 한정되는 것이 아니며, 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망, 5G망 등에 사용될 수 있다. 가령, 통신망(120)이 유선 통신망인 경우 통신망(120) 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Station Transmission), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.The communication network 120 includes both wired and wireless communication networks. For example, as the communication network 120, a wired or wireless Internet network may be used or interlocked. Here, the wired network includes an Internet network such as a cable network or a public switched telephone network (PSTN), and the wireless communication network includes CDMA, WCDMA, GSM, EPC (Evolved Packet Core), LTE (Long Term Evolution), and Wibro networks. meaning to include Of course, the communication network 120 according to an embodiment of the present invention is not limited thereto, and may be used, for example, in a cloud computing network or a 5G network under a cloud computing environment. For example, when the communication network 120 is a wired communication network, an access point within the communication network 120 can access an exchange center of a telephone company, but in the case of a wireless communication network, it accesses an SGSN or GGSN (Gateway GPRS Support Node) operated by a communication company to transmit data. or data can be processed by accessing various repeaters such as Base Station Transmission (BTS), NodeB, e-NodeB, etc.

통신망(120)은 액세스포인트를 포함할 수 있다. 여기서의 액세스포인트는 건물 내에 많이 설치되는 펨토(femto) 또는 피코(pico) 기지국과 같은 소형 기지국을 포함한다. 펨토 또는 피코 기지국은 소형 기지국의 분류상 통신중계장치(117) 등을 최대 몇 대까지 접속할 수 있느냐에 따라 구분된다. 물론 액세스포인트는 통신중계장치(117) 등과 지그비(Zig-bee) 및 와이파이(Wi-Fi) 등의 근거리 통신을 수행하기 위한 근거리 통신모듈을 포함할 수 있다. 액세스포인트는 무선통신을 위하여 TCP/IP 혹은 RTSP(Real-Time Streaming Protocol)를 이용할 수 있다. 여기서, 근거리 통신은 와이파이 이외에 블루투스, 지그비, 적외선, UHF(Ultra High Frequency) 및 VHF(Very High Frequency)와 같은 RF(Radio Frequency) 및 초광대역 통신(UWB) 등의 다양한 규격으로 수행될 수 있다. 이에 따라 액세스포인트는 데이터 패킷의 위치를 추출하고, 추출된 위치에 대한 최상의 통신 경로를 지정하며, 지정된 통신 경로를 따라 데이터 패킷을 다음 장치, 예컨대 공사현장 안전관리장치(130) 등으로 전달할 수 있다. 액세스포인트는 일반적인 네트워크 환경에서 여러 회선을 공유할 수 있으며, 예컨대 라우터(router), 리피터(repeater) 및 중계기 등이 포함된다.The communication network 120 may include an access point. The access point here includes a small base station such as a femto or pico base station that is often installed in a building. Femto or pico base stations are classified according to the maximum number of communication repeaters 117 that can be connected to small base stations. Of course, the access point may include a communication repeater 117 and a short-range communication module for performing short-range communication such as Zig-bee and Wi-Fi. The access point may use TCP/IP or Real-Time Streaming Protocol (RTSP) for wireless communication. Here, short-distance communication may be performed in various standards such as Bluetooth, ZigBee, infrared, radio frequency (RF) such as ultra high frequency (UHF) and very high frequency (VHF), and ultra-wideband communication (UWB) in addition to Wi-Fi. Accordingly, the access point extracts the location of the data packet, designates the best communication path for the extracted location, and forwards the data packet to the next device, for example, the construction site safety management device 130, etc. along the designated communication path. . An access point may share several lines in a general network environment, and includes, for example, a router, a repeater, and a repeater.

공사현장 안전관리장치(130)는 공사현장의 작업자 등을 모니터링하기 위한 다양한 장치를 포함할 수 있다. 대표적으로, 공사현장에서 제공되는 데이터를 처리하기 위한 서버를 포함할 수 있으며, 가령 관제요원이 관제를 수행하는 컴퓨터 본체나 모니터 등을 더 포함할 수 있다. 물론 관제요원이나 관리자의 스마트폰이나 헤드마운팅장치(HMD)와 같은 VR 장치를 포함할 수도 있다. 모니터상에는 공사현장의 내부 모습과 내부에서 작업을 수행하는 작업자 등의 위치가 표시될 수 있다. 다양한 부가 정보들이 표시될 수 있을 것이다. 이러한 모니터링 화면은 '대쉬보드'라 명명될 수도 있다. 물론, 모니터링 화면은 다양한 형태로 구성되어 화면에 구현될 수 있다. 통상 공사현장은 CCTV를 통해 내부 모습이 감시되지만 이를 통해서는 정확한 객체(예: 물건/사람 등)에 대한 위치와 정보를 실시간으로 확인하는 것이 어렵다. 이를 보완하기 위해 비콘 및 비콘스캐너 등을 이용하여 일정 공간 내의 객체에 대한 정보를 확인할 수 있다. 그러나, 이의 경우에도 신호가 감지되지 않는 객체, 또는 신호감지 등에 오류가 발생하는 경우, 뿐만 아니라 다양하게 변화하는 실시간 현장 내의 상황 정보를 확인할 수 없는 경우가 많다.The construction site safety management device 130 may include various devices for monitoring workers at the construction site. Representatively, it may include a server for processing data provided from a construction site, and may further include, for example, a computer body or a monitor on which a control agent performs control. Of course, it may include a VR device such as a controller's or manager's smartphone or head-mounted device (HMD). On the monitor, the interior of the construction site and the location of workers performing work inside may be displayed. Various additional information may be displayed. This monitoring screen may be named 'dashboard'. Of course, the monitoring screen may be configured in various forms and implemented on the screen. Normally, the construction site is monitored through CCTV, but it is difficult to check the location and information of an accurate object (eg, object/person, etc.) in real time through this. To compensate for this, information on an object within a certain space can be checked using a beacon and a beacon scanner. However, even in this case, there are many cases where an object whose signal is not detected or an error in signal detection occurs, as well as situation information in a real-time field that varies in various ways cannot be checked.

이를 위하여 본 발명의 실시예에 따른 공사현장 안전관리장치(130)는 터널 내에 설치된 현장장치(113, 115, 117)들로부터 제공되는 카메라(113)의 촬영영상이나 스캐너장치(115) 등에서 제공하는 사용자장치(100), 가령 비콘장치의 스캔 데이터를 근거로 VR 영상을 생성하여 VR 영상 모드(mode)로 전환하여 감시가 이루어지도록 할 수 있다. 예를 들어, 공사현장에서 사건, 사고가 발생하거나 비콘장치 등에 오류가 발생하였다고 판단될 때, 비콘신호가 없게 되는 객체가 감지될 때, 그리고 관제요원의 요청에 의해서도 VR 영상 모드로 전환될 수 있다. VR 영상은 360도 VR 영상이 바람직하다. 가령 카메라(113)가 설치되는 각 지점을 기준으로 하여 보여주는 3D 영상이 사용될 수 있다. 또한, 관제요원이 특정 위치를 지정하는 경우 해당 위치를 기준으로 3D 영상을 화면에 표시해 줄 수도 있다. 이의 경우 가령 비콘신호가 감지되지 않는 비콘장치의 식별이 좀더 수월하게 이루어질 수 있다.To this end, the construction site safety management device 130 according to an embodiment of the present invention provides a photographed image of the camera 113 provided from the field devices 113, 115, and 117 installed in the tunnel or a scanner device 115, etc. Based on scan data of the user device 100, for example, a beacon device, a VR image can be generated and switched to a VR image mode so that monitoring can be performed. For example, when it is determined that an incident or accident occurs at a construction site or an error has occurred in a beacon device, when an object without a beacon signal is detected, and also at the request of a control agent, it can be switched to VR video mode. . VR images are preferably 360-degree VR images. For example, a 3D image shown based on each point where the camera 113 is installed may be used. In addition, when a controller designates a specific location, a 3D image may be displayed on the screen based on the location. In this case, for example, identification of a beacon device in which a beacon signal is not detected can be more easily performed.

공사현장 안전관리장치(130)는 VR 영상을 생성하기 위하여 가령 공사현장에 카메라(113)가 최초 설치될 때 취득되는 촬영영상을 이용하여 공사현장 내부에 대한 VR 배경영상을 제작하여 기저장할 수 있다. 여기서, 배경이란 촬영영상에서 볼 때 객체를 제외한 부분을 의미한다. 따라서, 공사현장의 내부 모습에서 객체를 제외한 부분이라 볼 수 있다. 공사현장 내부 모습은 발파 작업 등을 통해 시간이 경과될 때마다 변화되므로 공사현장 안전관리장치(130)는 이를 고려하여 실시간으로, 또는 일정 시간 간격으로 배경영상을 VR 영상으로 생성할 수 있다. 예를 들어, 공사현장 안전관리장치(130)는 공사 현장의 내부 모습을 3D로 관찰하기 위하여 3D 카메라를 설치하여도 무관하다. 다만, 360도 VR을 구현할 수 있도록 공사현장 안전관리장치(130)는 공사현장의 복수의 카메라로부터 수신되는 촬영영상의 단위 프레임 영상을 시간별, 더 정확하게는 서로 동일 시간의 단위 프레임 영상을 스티칭(stitching)하여 실시간 VR 영상을 생성할 수도 있다. 가령, 시간 t1에 대하여 동일 시간에 해당하는 단위 프레임 영상들을 스티칭하여 VR 영상을 생성할 수 있다. 예를 들어, 카메라 1에서 수신되는 촬영영상에서 시간 t1(가령 1/60초)에 해당하는 단위 프레임 영상과 공사현장의 다른 위치에 구비되는 카메라 2에서 수신되는 동일 시간 t1에 해당하는 단위 프레임 영상을 각각 취득하여 서로 스티칭할 수 있다. 물론 이러한 과정에서 영상을 보정하는 캘리브레이션 동작이 이루어질 수도 있다. 이를 통해 여러 시점에서 촬영한 영상을 이어붙여 다시점에 대한 파노라마 영상으로 변환이 가능하고, 사용자의 의도에 따라 시점(view)을 변경하여 영상을 확인할 수 있다. 이러한 VR 배경 영상의 생성은 실시간으로 전송되는 스트리밍 데이터를 이용하여 생성될 수도 있으므로 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다. 물론, VR 배경 영상은 데이터 연산 처리량을 줄이기 위하여 공사현장 내에서 이벤트 가령, 발파작업 등이 있을 때에 간헐적으로 이루어질 수도 있다.The construction site safety management device 130 uses a captured image obtained when the camera 113 is initially installed at the construction site to create a VR image, for example, to create and store a VR background image for the inside of the construction site. . Here, the background refers to a part excluding the object when viewed from the photographed image. Therefore, it can be seen as a part excluding the object from the inside of the construction site. Since the internal appearance of the construction site changes whenever time passes through blasting work, etc., the construction site safety management device 130 may generate a VR image as a background image in real time or at regular time intervals in consideration of this. For example, the construction site safety management device 130 may install a 3D camera to observe the interior of the construction site in 3D. However, in order to implement 360-degree VR, the construction site safety management device 130 stitches unit frame images of captured images received from a plurality of cameras at the construction site by time, more precisely, unit frame images of the same time each other. ) to generate real-time VR images. For example, with respect to time t1, a VR image may be generated by stitching unit frame images corresponding to the same time. For example, a unit frame image corresponding to time t1 (e.g. 1/60 sec) from a captured image received from camera 1 and a unit frame image corresponding to the same time t1 received from camera 2 provided at a different location on the construction site can be acquired and stitched together. Of course, a calibration operation for correcting an image may be performed in this process. Through this, it is possible to convert images taken from multiple viewpoints into a panoramic image from multiple viewpoints by splicing together, and the user can check the image by changing the viewpoint according to the user's intention. Since the generation of such a VR background image may be generated using streaming data transmitted in real time, the embodiment of the present invention will not be particularly limited to any one form. Of course, the VR background image may be made intermittently when there is an event, such as blasting work, in the construction site in order to reduce the amount of data calculation processing.

또한, 본 발명의 실시예에 따른 공사현장 안전관리장치(130)는 복수의 카메라(113)로부터 수신되는 촬영영상, 그리고 사용자장치(100)와 스캐너장치(115)의 통신신호를 근거로 거리를 측정할 수 있다. 스캐너장치(115)의 경우에도 다양한 위치에 설치될 수 있으며, 사용자장치(100)를 삼각측량 등을 통해 정확한 거리 측정이 이루어질 수 있다. 물론 측정거리는 수신신호세기를 이용하여 계산될 수 있다. 예를 들어, 카메라(113)로서 3D 카메라를 사용하는 경우에는 작업자가 장비에 대한 뎁스(depth) 즉 깊이 정보를 함께 제공하므로, 이를 이용하여 VR 영상을 생성할 수 있다. VR 영상은 VR 배경 영상과 객체가 오버랩되어 형성된 영상에 해당한다. 만약, 3D 카메라가 아닌 IP 카메라나 CCTV의 경우에는 뎁스(혹은 깊이) 정보를 영상 데이터 즉 화소(pixel) 분석을 통해 산출할 수 있다. 예를 들어, 촬영영상의 단위 프레임 영상에서 화소를 이용해 거리를 측정할 수 있지만, 뎁스 정보는 가령 비콘정보 즉 신호의 수신방향이나 수신신호세기에 의해 산출된 거리를 뎁스 정보로 사용할 수도 있다. 여기서, 뎁스 정보는 3차원 공간상에서 어느 위치에 객체가 위치하는지에 대한 위치정보가 될 수 있다. 따라서, 공사현장 안전관리장치(130)는 화소분석을 통해 2차원상의 정보를 취득하였다면, 비콘 등의 정보를 더 이용하여 3차원 정보를 생성할 수도 있다.In addition, the construction site safety management device 130 according to an embodiment of the present invention determines the distance based on the captured images received from the plurality of cameras 113 and the communication signal between the user device 100 and the scanner device 115. can be measured Even in the case of the scanner device 115, it can be installed in various locations, and accurate distance measurement can be made through triangulation of the user device 100. Of course, the measurement distance can be calculated using the received signal strength. For example, when a 3D camera is used as the camera 113, a VR image may be generated using the depth (depth) information provided by the operator. The VR image corresponds to an image formed by overlapping a VR background image and an object. In the case of IP cameras or CCTVs other than 3D cameras, depth (or depth) information can be calculated through image data, that is, pixel analysis. For example, a distance can be measured using pixels in a unit frame image of a photographed image, but beacon information, that is, a distance calculated by a signal reception direction or received signal strength may be used as depth information. Here, the depth information may be positional information about where an object is located in a 3D space. Therefore, if the construction site safety management device 130 acquires two-dimensional information through pixel analysis, it may generate three-dimensional information by further using information such as beacons.

예를 들어, 공사현장을 모니터링하기 위하여 지정 조건(예: 사건, 사고가 발생한 경우)에서 VR 영상 관제모드로 전환된 경우, 공사현장 안전관리장치(130)는 기생성된 또는 실시간으로 생성되는 VR 배경영상에 공사현장 내의 객체(혹은 객체영상, 이미지파일 등)들을 오버랩(혹은 합성)하여 생성한 공사현장 VR 영상을 모니터에 표시해 줄 수 있다. 여기서 모드(mode)란 지정 조건이 될 때(혹은 선택이 있을 때), 자동으로 지정 동작이 작동되도록 하거나, 기설정된 일련의 동작이 순차적으로 작동하는 것을 의미할 수 있다. 공사현장의 VR 영상을 생성하는 과정에서 공사현장 안전관리장치(130)는 오버랩되는 객체들과 관련하여 오버랩되는 객체들의 정확도를 높이기 위하여 딥러닝 동작을 수행한 후 딥러닝 결과에 의해 최종적으로 확정되는 객체가 오버랩된다고 볼 수 있다. 가령, 실시간으로 감지되던 사용자장치(100)가 갑자기 감지되지 않는 경우, VR 영상 관제모드로 전환하여 사용자장치(100)가 왜 감지되지 않는지에 대한 명확한 판단이 이루어질 수 있다. 이를 통해 조속한 조치가 이루어질 수 있다. 또한, 발파 작업이 있는 공간에서는 발파되는 파편들과 관련한 새로운 객체들을 딥러닝을 통해 정확히 감지하고 이를 VR 영상에 구현함으로써 공사현장의 내부에 대한 모니터링의 정확도를 더욱 높일 수 있게 된다.For example, when the VR video control mode is switched to the VR video control mode under designated conditions (e.g., when an incident or accident occurs) to monitor a construction site, the construction site safety management device 130 is a pre-generated or real-time VR The construction site VR image generated by overlapping (or synthesizing) objects (or object images, image files, etc.) in the construction site on the background image can be displayed on the monitor. Here, the mode may mean that when a specified condition is met (or when there is a selection), a specified operation is automatically operated or a series of preset operations are operated sequentially. In the process of generating a VR image of a construction site, the construction site safety management device 130 performs a deep learning operation to increase the accuracy of overlapping objects in relation to overlapping objects, and then finally confirmed by the deep learning result. It can be seen that the objects overlap. For example, when the user device 100 that has been detected in real time is suddenly not detected, a clear determination as to why the user device 100 is not detected can be made by switching to the VR video control mode. This will enable prompt action to be taken. In addition, in the space where there is blasting work, new objects related to the blasted debris are accurately detected through deep learning and implemented in VR images, thereby further increasing the accuracy of monitoring the inside of the construction site.

도 2는 도 1의 공사현장 안전관리장치의 세부 구조를 예시한 블록다이어그램이다.Figure 2 is a block diagram illustrating the detailed structure of the construction site safety management device of Figure 1.

도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 공사현장 안전관리장치(130)는 통신 인터페이스부(200), 제어부(210), VR 영상처리부(220) 및 저장부(230)의 일부 또는 전부를 포함한다.As shown in FIG. 2, the construction site safety management device 130 according to an embodiment of the present invention includes a part of a communication interface unit 200, a control unit 210, a VR image processing unit 220, and a storage unit 230. or all inclusive.

여기서, "일부 또는 전부를 포함한다"는 것은 저장부(230)와 같은 일부 구성요소가 생략되거나, VR 영상처리부(220)와 같은 일부 구성요소가 제어부(210)와 같은 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that some components such as the storage unit 230 are omitted or some components such as the VR image processing unit 220 are integrated with other components such as the control unit 210. As meaning what can be configured, etc., it will be described as including all in order to help a sufficient understanding of the invention.

통신 인터페이스부(200)는 도 1의 통신망(120), 통신중계장치(117) 등을 경유하여 사용자장치(100)와 통신할 수 있다. 이러한 통신 동작을 수행하는 과정에서 통신 인터페이스부(200)는 변/복조, 인코딩/디코딩, 먹싱/디먹싱, 해상도를 변환하는 스케일링 등의 동작을 수행할 수 있다. 이와 관련해서는 당업자에게 자명하므로 더 이상의 설명은 생략하도록 한다.The communication interface unit 200 may communicate with the user device 100 via the communication network 120 of FIG. 1 and the communication relay device 117 . In the process of performing these communication operations, the communication interface unit 200 may perform operations such as modulation/demodulation, encoding/decoding, muxing/demuxing, scaling to convert resolution, and the like. In this regard, since it is obvious to those skilled in the art, further description will be omitted.

통신 인터페이스부(200)는 공사현장의 모니터링 데이터로서 대표적으로 카메라(113)의 촬영영상에 대한 영상 데이터, 그리고 스캐너장치(115)가 제공하는 스캔 데이터를 수신하여 제어부(210)에 제공한다. 스캔 데이터는 가령 비콘장치나 스마트폰과 같은 사용자장치(100)의 위치를 추적하는 위치추적 정보가 될 수 있다.The communication interface unit 200 receives image data for a photographed image of the camera 113 and scan data provided by the scanner device 115 as monitoring data of a construction site, and provides the received image data to the control unit 210 . The scan data may be, for example, location tracking information for tracking the location of the user device 100, such as a beacon device or a smartphone.

또한, 통신 인터페이스부(200)는 가령 공사현장 내에 이벤트(예: 사건, 사고)가 발생하거나 관제요원이나 감독관의 요청이 있을 때 공사현장의 내부를 VR 영상으로 관제하기 위한 동작을 수행할 수 있다. 이를 위하여, 관제요원의 컴퓨터나 모니터, 또는 관제센터의 전광판에 VR 영상이 표시되도록 VR 영상 데이터를 전송할 수 있다.In addition, the communication interface unit 200 may perform an operation to control the interior of the construction site with VR images when an event (eg, incident, accident) occurs in the construction site or there is a request from a control agent or supervisor. . To this end, VR image data may be transmitted so that the VR image is displayed on a control agent's computer or monitor, or on the electronic display board of the control center.

제어부(210)는 도 1의 공사현장 안전관리장치(130)를 구성하는 도 2의 통신 인터페이스부(200), VR 영상처리부(220) 및 저장부(230)의 전반적인 제어 동작을 수행할 수 있다. 대표적으로 제어부(210)는 통신 인터페이스부(200)를 통해 수신되는 공사현장의 촬영영상에 대한 영상 데이터 및 작업자나 장비 등의 위치를 센싱하는 스캔 데이터를 수신하여 저장부(230)에 임시 저장한 후 필요시 불러내어 VR 영상처리부(220)에 제공할 수 있다.The control unit 210 may perform overall control operations of the communication interface unit 200, the VR image processing unit 220, and the storage unit 230 of FIG. 2 constituting the construction site safety management device 130 of FIG. 1. . Typically, the control unit 210 receives image data for a photographed image of a construction site received through the communication interface unit 200 and scan data for sensing the position of a worker or equipment, and temporarily stores it in the storage unit 230. After that, it can be called out if necessary and provided to the VR image processing unit 220.

제어부(210)는 예를 들어, 공사현장에 카메라(113)의 초기 세팅시 각 카메라의 촬영 영상을 이용하여 공사현장의 VR 배경영상을 생성할 수 있다. 또한, 실시간으로 또는 주기적으로 공사현장의 내부 모습이 변경될 때마다 기생성한 VR 배경 영상을 갱신할 수 있다. 이를 위하여 물론 VR 영상처리부(220)와 연계하여 동작할 수 있다. 또한, 제어부(210)는 공사현장의 VR 영상 관제모드로 전환될 때, 기생성된 VR 배경영상에 객체들을 오버랩하여 생성된 VR 영상을 출력할 수 있다. For example, when the camera 113 is initially set at the construction site, the controller 210 may generate a VR background image of the construction site using images captured by each camera. In addition, the created VR background image can be updated whenever the interior of the construction site is changed in real time or periodically. To this end, of course, it can operate in conjunction with the VR image processing unit 220. In addition, the controller 210 may output a VR image generated by overlapping objects on a previously created VR background image when switching to a VR image control mode of a construction site.

VR 영상처리부(220)는 공사현장에 대한 내부 모습을 실시간 VR로 모니터링할 수 있도록 하기 위한 VR 영상을 생성한다. 여기서, VR 영상은 공사현장의 내부 모습에 객체를 제외한 VR 배경영상과 그 배경영상에 오버랩되는 객체, 또는 객체이미지들로 구성된다. 물론, 여기서의 객체는 비콘 등에 의해 위치가 추적되지 않는 객체들까지 모두 관찰될 수 있다. 예를 들어, 종래의 CCTV의 경우에는 객체들에 대한 정확한 위치나 정보를 실시간으로 확인하는 것이 어려울 수 있다. 대표적으로 해상도의 문제일 수 있다. 또한, IP 카메라, 3D 카메라 등을 사용하는 경우에도 설치 비용이 비싼 것은 차치하고라도 설치된 위치에 한정하여 공사현장의 내부를 관찰할 수밖에 없다. The VR image processing unit 220 generates a VR image so that the interior of the construction site can be monitored in real time VR. Here, the VR image is composed of a VR background image excluding objects in the interior of the construction site, an object overlapping the background image, or object images. Of course, all of the objects here can be observed, even those whose location is not tracked by a beacon or the like. For example, in the case of a conventional CCTV, it may be difficult to check the exact location or information of objects in real time. Typically, it may be a problem of resolution. In addition, even when an IP camera, 3D camera, etc. is used, it is inevitable to observe the inside of the construction site limited to the location where it is installed, apart from the high installation cost.

그러나, 본 발명의 실시예에 따른 VR 영상처리부(220)는 복수의 카메라로부터 취득되는 촬영영상을 이용하여 공사현장의 어느 위치에 있던지 그를 기준으로 하는 VR 영상을 제공한다. 360도 VR 영상이 가능하게 된다. 예를 들어, 카메라 1과 카메라 2의 촬영영상에서 시간 t1에 해당하는 단위 프레임 영상을 각각 취득할 수 있다. 그리고, 두 개의 단위 프레임 영상을 이용하여 그 가운데에 위치하는 보간 영상을 생성할 수도 있다. 이와 같은 방식으로 각 각도별 보간 영상을 생성한 후 모든 영상들을 스티칭함으로써 360도 VR 영상을 생성할 수 있는 것이다.However, the VR image processing unit 220 according to an embodiment of the present invention provides a VR image based on the location of the construction site by using captured images obtained from a plurality of cameras. 360-degree VR video becomes possible. For example, unit frame images corresponding to time t1 may be obtained from images taken by cameras 1 and 2, respectively. Also, an interpolation image located in the middle may be generated using two unit frame images. In this way, a 360-degree VR image can be created by generating interpolated images for each angle and then stitching all the images.

또한, VR 영상처리부(220)는 VR 영상의 생성시 생성된 VR 영상에 좌표값을 설정하여 저장함으로써 이를 근거로 VR 영상의 관제가 가능하도록 할 수 있다. 물론 그러한 좌표 즉 관제하고자 하는 시점(view)은 2차원 좌표값으로 제공되지만, 가령 관제요원에 의해 2차원 좌표값으로 요청되지만, 이를 3차원 좌표값으로 변환하여 이를 근거로 VR 영상의 관제가 이루어지도록 할 수 있다. 물론 이러한 동작을 수행하기 위해서는 2차원 좌표값과 3차원 좌표값을 룩업테이블(LUT) 등에 매칭시켜 저장한 후 이를 근거로 VR 영상의 출력이 이루어지도록 할 수 있다.In addition, the VR image processing unit 220 may set and store coordinate values in the generated VR image when the VR image is generated, so that the VR image can be controlled based on this. Of course, such coordinates, that is, the view to be controlled, are provided as two-dimensional coordinate values, but, for example, requested by a control agent as two-dimensional coordinate values, they are converted into three-dimensional coordinate values, and based on this, VR image control is performed you can make it Of course, in order to perform such an operation, 2D coordinate values and 3D coordinate values may be matched and stored in a look-up table (LUT), etc., and then, based on this, a VR image may be output.

무엇보다 VR 영상처리부(220)는 VR 배경영상에 정확한 객체를 삽입 혹은 오버랩하기 위하여 딥러닝 동작에 의해 객체를 정확히 구별한다. 예를 들어, 공사 현장 내에서 발파 작업이 이루어진다고 가정할 때, 이에 의하여 새롭게 생성되는 돌 등의 객체는 정확한 판별이 어려울 수 있다. 특히, CCTV를 통해 취득되는 촬영영상을 통해서는 분별이 더욱 어려울 수 있다. 따라서 이의 경우에는 정확한 판별을 위하여 객체 분류를 위한 딥러닝 동작을 수행하고, 딥러닝에 의해 최종적으로 분류된 객체를 배경영상에 오버랩할 수 있다. 무엇보다 오버랩을 위해서는 객체의 뎁스 정보가 필요하지만, 이는 앞서 다양한 형태로 취득될 수 있음을 설명한 바 있다. 3D 카메라를 사용하는 경우에는 카메라 자체적으로 뎁스 정보를 제공하므로 이를 이용할 수 있다. 만약, IP 카메라나 CCTV를 이용하는 경우에는 화소 분석을 이용하되, 스캐너장치(115)에서 스캔한 스캔 데이터를 더 이용할 수 있다. 예를 들어, 공사현장 내의 A 작업자와 C 작업자 사이에 B 작업자의 비콘장치가 감지되지 않거나, 오류가 발생한 경우를 가정해 보자. 이의 경우 A와 C 작업자의 거리를 근거로 B 작업자의 거리를 유추할 수 있다. 따라서 해당 거리값을 뎁스 정보로 사용할 수 있다.Above all, the VR image processing unit 220 accurately distinguishes objects by deep learning operation in order to insert or overlap the exact object in the VR background image. For example, when it is assumed that a blasting operation is performed in a construction site, it may be difficult to accurately determine an object such as a stone newly created thereby. In particular, it may be more difficult to discriminate through a photographed image acquired through CCTV. Therefore, in this case, a deep learning operation for object classification may be performed for accurate determination, and the object finally classified by deep learning may be overlapped with a background image. Above all, depth information of an object is required for overlapping, but it has been described that it can be acquired in various forms. In the case of using a 3D camera, since the camera itself provides depth information, this can be used. If an IP camera or CCTV is used, pixel analysis is used, but scan data scanned by the scanner device 115 may be further used. For example, suppose that the beacon device of worker B is not detected between worker A and worker C in a construction site, or an error occurs. In this case, the distance of worker B can be inferred based on the distance between workers A and C. Accordingly, the corresponding distance value may be used as depth information.

예를 들어, 카메라 1을 지정하여 VR 영상을 시청하면서 공사현장을 관제하는 경우와, 카메라 2를 지정하여 VR 영상을 시청하면서 공사현장을 관제하는 VR 영상은 바라보는 위치 즉 뷰가 다르므로 각각의 VR 영상이 생성되어 이의 영상이 출력된다고 볼 수 있고, 이를 위하여 VR 영상처리부(220)는 각 위치에 해당하는 VR 영상을 기생성할 수 있지만, 실시간으로 생성하여 보여주는 것도 얼마든지 가능할 수 있다. VR 영상의 생성 방법과 관련해서는 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다. 다만, 다시점을 활용하는 경우, VR 영상 생성을 위한 데이터 처리량이 증가하므로, 선택가능한 시점을 디폴트(default)로 설정하고, 다시 말해, 선택 가능한 시점을 줄이고 그 중에서 하나를 선택하여 시청하도록 할 수 있다.For example, the case of controlling the construction site while watching VR images by designating camera 1 and the case of controlling the construction site while watching VR images by designating camera 2 are different from the viewing position, that is, the view. It can be seen that a VR image is generated and the image is output. To this end, the VR image processing unit 220 may already generate a VR image corresponding to each location, but it may be possible to generate and show it in real time. Since the method for generating a VR image has been sufficiently described above, it is intended to be replaced with the contents. However, when using multi-viewpoints, since the amount of data processing for VR video generation increases, the selectable viewpoints can be set as default, in other words, the selectable viewpoints can be reduced, and one of them can be selected and watched. have.

또한, VR 영상처리부(220)는 제어부(210)와 연계하여 VR 영상을 구현하는 별도의 VR 장치로 VR 영상을 전송할 수도 있다. 따라서, VR 영상처리부(220)는 기존의 공사현장의 촬영영상이나 기타 영상은 전광판과 같은 대쉬보드에 출력하지만, VR 영상은 헤드마운팅장치(HMD)와 같은 VR 장치를 통해 관제가 이루어지도록 할 수도 있다. VR 장치는 3D의 구현이 가능한 (마이크로) 렌티큘러 렌즈 등의 패널(panel)을 구비함으로써 이를 통해 VR 영상의 구현이 가능할 수 있다.In addition, the VR image processing unit 220 may transmit VR images to a separate VR device implementing VR images in association with the controller 210 . Therefore, the VR image processing unit 220 outputs images taken at the existing construction site or other images to a dashboard such as an electric signboard, but the VR image may be controlled through a VR device such as a head-mounted device (HMD). have. A VR device may implement a VR image by having a panel such as a (micro) lenticular lens capable of realizing 3D.

저장부(230)는 제어부(210)의 제어하에 처리되는 다양한 정보나 데이터를 임시 저장할 수 있으며, 제어부(210)의 요청이 있을 때 출력할 수 있다. 출력된 데이터는 VR 영상처리부(220)에 제공될 수 있다. 여기서, 정보나 데이터의 의미를 구분하는 것은 무의미하며, 혼용되는 것이 일반적이다. 정보는 요청(REQ)이나 응답(ACK)과 같은 제어 명령을 의미할 수 있고, 데이터는 촬영영상의 영상 데이터나 스캐너장치(115)의 스캔 데이터를 의미할 수 있다. 또한, 데이터 패킷을 통해 살펴볼 때 헤더부는 부가 정보 등을 포함하며, 페이로드부는 화소 데이터 등을 포함한다. 이러한 정도로 이해될 수 있지만, 본 발명의 실시예에서는 그러한 용어의 개념에 특별히 한정하지는 않을 것이다.The storage unit 230 may temporarily store various information or data processed under the control of the control unit 210, and may output them when requested by the control unit 210. The output data may be provided to the VR image processing unit 220 . Here, it is meaningless to distinguish the meaning of information or data, and it is common to use them interchangeably. Information may mean a control command such as a request (REQ) or a response (ACK), and data may mean image data of a photographed image or scan data of the scanner device 115 . In addition, when examining data packets, the header part includes additional information and the like, and the payload part includes pixel data and the like. Although it can be understood to this extent, the embodiments of the present invention will not specifically limit the concept of such terms.

한편, 본 발명의 다른 실시예로서, 도 2의 제어부(210)는 CPU와 메모리를 포함하며, CPU와 메모리는 원칩화하여 구성될 수 있다. 제어부(210)는 제어회로, 연산부(ALU), 명령어해석부, 레지스트리 등을 포함할 수 있으며, 메모리는 램(RAM)을 포함할 수 있다. 제어회로는 제어 동작을, 연산부는 2진 비트정보의 연산처리를, 그리고 명령어해석부는 입력된 2진 비트정보가 어떠한 동작의 수행에 관련되는지를 해석할 수 있다. 여기서, 해석은 룩업테이블(LUT)상의 좌측과 우측에 데이터를 매칭한 후 제어회로가 좌측 데이터를 근거로 우측의 데이터를 찾아 동작을 수행하는 것일 수 있다. 레지스트리는 소프트웨어적인 데이터 저장에 관여한다. 상기의 구성에 따라 CPU는 공사현장 안전관리장치(130)의 초기 구동시 VR 영상처리부(220)의 프로그램을 복사하여 메모리에 로딩한 후 이를 실행시켜 데이터 처리 속도를 빠르게 증가시킬 수 있게 된다.Meanwhile, as another embodiment of the present invention, the control unit 210 of FIG. 2 includes a CPU and memory, and the CPU and memory may be configured as a single chip. The controller 210 may include a control circuit, an arithmetic unit (ALU), a command interpreter, a registry, and the like, and the memory may include RAM. The control circuit may perform a control operation, the calculation unit may perform calculation and processing of binary bit information, and the command interpretation unit may interpret input binary bit information related to the execution of any operation. Here, the interpretation may be that after matching data on the left and right sides of the lookup table (LUT), the control circuit searches for data on the right side based on the left side data and performs an operation. The registry is involved in software data storage. According to the above configuration, when the construction site safety management device 130 is initially driven, the CPU copies the program of the VR image processing unit 220, loads it into the memory, and then executes it to quickly increase the data processing speed.

도 3은 도 2의 VR 영상처리부의 구조를 예시한 블록다이어그램이다.FIG. 3 is a block diagram illustrating the structure of the VR image processing unit of FIG. 2 .

도 3의 VR 영상처리부(220')는 도 2의 VR 영상처리부(220)의 변형된 예로서, VR 배경생성부(300), 객체딥러닝부(310), 객체이미지생성부(320), 그리고 (배경 및 객체) VR 영상생성부(330)이 일부 또는 전부를 포함한다.The VR image processing unit 220' of FIG. 3 is a modified example of the VR image processing unit 220 of FIG. And (background and object) VR image generator 330 includes some or all.

여기서, "일부 또는 전부를 포함한다"는 것은 객체이미지 생성부(320)와 같은 일부 구성요소가 생략되어 구성되거나, VR 배경생성부(300) 또는 객체이미지생성부(320)가 VR 영상생성부(330)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that some components such as the object image generator 320 are omitted, or the VR background generator 300 or the object image generator 320 is a VR video generator. 330, which can be integrated and configured, and will be described as including all of them to help a sufficient understanding of the invention.

도 3의 VR 배경생성부(300), 객체딥러닝부(310), 객체이미지생성부(320), 그리고 VR 영상생성부(330)는 하드웨어(H/W) 모듈, 소프트웨어(S/W) 모듈 또는 그 조합에 의해 구성될 수 있다.The VR background generator 300, object deep learning unit 310, object image generator 320, and VR image generator 330 in FIG. 3 are hardware (H/W) modules and software (S/W) It may be configured by a module or a combination thereof.

VR 배경생성부(300)는 카메라(113)로부터 수신되는 촬영영상을 근거로 공사현장의 내부 모습에 대한 VR 배경영상을 생성한다. 여기서, VR 배경영상은 3D 카메라를 통해 수신되는 3D 촬영영상을 이용할 수 있으며, IP 카메라나 CCTV 등을 통해 촬영된 촬영영상을 이용할 수도 있다. 물론 3D 촬영영상의 경우, VR 영상을 생성하기에 더욱 수월할 수 있다. 수신된 3D 촬영영상을 이용하여 각도별 VR 영상을 생성함으로써 360 VR 배경 영상을 얻을 수 있다.The VR background generating unit 300 generates a VR background image for the interior of the construction site based on the captured image received from the camera 113. Here, as the VR background image, a 3D captured image received through a 3D camera may be used, and a captured image captured through an IP camera or CCTV may be used. Of course, in the case of 3D images, it may be easier to create VR images. A 360 VR background image can be obtained by generating a VR image for each angle using the received 3D captured image.

또한, VR 배경생성부(300)는 앞서 언급한 대로, 서로 다른 위치에 설치되는 카메라(113)의 촬영영상들에 대하여 동일 시간에 해당하는 단위 프레임 영상을 스티칭하여 VR 배경영상을 생성할 수 있다. 예를 들어, 카메라 1에 대하여 카메라 2는 특정 각도를 갖는 위치에 해당한다. 따라서, 해당 카메라 2의 단위 프레임 영상을 카메라 1의 단위 프레임 영상과 결합함으로써 각도별 VR 영상을 생성할 수 있다. 물론 두 개의 영상 사이에 보간 영상을 생성하여 결합함으로써 많은 각도 변화에서 좀더 스무드(smooth) 즉 유연한 VR 영상을 구현해 낼 수 있을 것이다.In addition, as mentioned above, the VR background generator 300 may create a VR background image by stitching unit frame images corresponding to the same time to the captured images of the cameras 113 installed in different locations. . For example, camera 2 corresponds to a position having a specific angle with respect to camera 1. Accordingly, a VR image for each angle can be generated by combining the unit frame image of camera 2 with the unit frame image of camera 1. Of course, by generating an interpolation image between two images and combining them, a smoother, that is, flexible VR image can be realized at many angle changes.

객체딥러닝부(310)는 객체 분류를 위한 가령 탬플릿 기반의 DCNN(Deep Convolution Neural Network) 분류기를 포함할 수 있으며, 분류 결과를 인공지능(AI) 등의 딥러닝을 통해 객체의 판별 정확도를 높일 수 있다. 예를 들어, 공사현장에서 발파 작업이 있을 때 대표적으로 돌이 감지될 수 있지만, 이외에도 다양한 객체들이 감지될 수 있으므로, 딥러닝을 통해 이를 명확히 분류하여 VR 영상에 구현되도록 할 수 있을 것이다.The object deep learning unit 310 may include, for example, a template-based Deep Convolution Neural Network (DCNN) classifier for object classification, and increase object discrimination accuracy through deep learning such as artificial intelligence (AI) for classification results. can For example, a stone can be typically detected when there is blasting at a construction site, but since various other objects can be detected, it will be possible to clearly classify them through deep learning and implement them in VR images.

객체이미지생성부(320)는 수신된 촬영영상에서 객체의 뎁스 정보를 산출하거나, 3D 촬영영상에서는 뎁스 정보가 제공되므로, 이를 이용할 수도 있다. 또한, 객체이미지생성부(320)는 수신된 촬영영상의 단위 프레임 영상에서 객체를 이미지 형태로 추출하여 이를 관리할 수 있다. 이미지화는 추출한 객체를 그래픽 처리하거나 보정하는 등의 동작을 포함할 수 있다. 객체이미지생성부(320)는 추출한 객체 이미지를 뎁스 정보에 따라 VR 배경 영상에 삽입하도록 배경 및 객체 VR 영상생성부(330)로 제공할 수 있다.The object image generating unit 320 may calculate depth information of an object from the received captured image or may use depth information provided from a 3D captured image. In addition, the object image generator 320 may extract an object in an image form from a unit frame image of the received captured image and manage it. Imaging may include operations such as graphic processing or correction of the extracted object. The object image generator 320 may provide the extracted object image to the background and object VR image generator 330 to be inserted into the VR background image according to the depth information.

VR 영상생성부(330)는 VR 배경영상에 객체 영상(혹은 객체 이미지)을 오버랩하여 VR 영상을 생성한다. 오버랩은 통상 증강현실과 같이 VR 배경영상의 레이어(layer)와 객체영상의 레이어가 서로 다르고, 객체영상은 객체를 제외한 나머지 영역이 투명한 상태를 유지함으로써 영상이 구현되는 것을 의미할 수 있다. 그러나, 본 발명의 실시예에서는 그러한 방식에 특별히 한정하지는 않을 것이다. 이를 통해 공사현장의 특정 위치에서 내부 공간을 관제하는 것과 같은 효과를 얻을 수 있다.The VR image generator 330 creates a VR image by overlapping an object image (or object image) on a VR background image. Overlap may mean that the layer of the VR background image and the layer of the object image are different from each other, as in normal augmented reality, and the object image may mean that the image is implemented by maintaining a transparent state in the remaining area except for the object. However, in the embodiment of the present invention, it will not be particularly limited to such a method. Through this, it is possible to obtain the same effect as controlling the internal space at a specific location on a construction site.

도 4는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 구동 과정을 나타내는 흐름도이다.4 is a flowchart illustrating a driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention.

설명의 편의상 도 4를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 도 1의 (가상현실 기반의) 공사현장 안전관리장치(130)는 작업현장의 카메라로부터 작업현장을 촬영한 촬영영상을 수신한다(S400).Referring to FIG. 4 together with FIG. 1 for convenience of explanation, the (virtual reality-based) construction site safety management device 130 of FIG. is received (S400).

또한, 공사현장 안전관리장치(130)는 수신한 촬영영상을 이용해 작업현장의 모습에 대한 가상현실(VR)의 배경영상을 생성하고, 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 객체를 이미지화하며, (기)생성한 VR 배경영상과 이미지화한 객체를 합성(혹은 조합, 오버레이)하여 작업현장의 VR 영상을 생성해 출력한다(S410).In addition, the construction site safety management device 130 generates a background image of virtual reality (VR) for the appearance of the work site using the received captured image, and based on the deep learning result of the object extracted from the received captured image, the object is imaged, and a VR image of the work site is generated and output by synthesizing (or combining, overlaying) the (previously) created VR background image and the imaged object (S410).

여기서, 객체를 이미지화한다는 것은 단위 프레임 영상에서 객체를 추출하고, 추출한 객체에 대하여 GUI 그래픽 처리를 수행하는 것을 의미할 수 있다. 또는 추출한 객체의 화소값을 분석하여 이를 VR 배경영상에 구현할 수 있다.Here, imaging an object may mean extracting an object from a unit frame image and performing GUI graphic processing on the extracted object. Alternatively, the pixel value of the extracted object may be analyzed and implemented in the VR background image.

이외에도 작업현장 안전관리장치(130)는 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition, the workplace safety management device 130 can perform various operations, and since other details have been sufficiently described above, they will be replaced with the contents.

도 5는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 다른 구동 과정을 나타내는 흐름도이다.5 is a flowchart showing another driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention.

설명의 편의상 도 5를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 도 1의 작업현장 안전관리장치(130)는 가령 작업현장의 카메라(113)에서 작업현장을 촬영하여 제공하는 영상을 수신한다(S500).Referring to FIG. 5 together with FIG. 1 for convenience of explanation, the work site safety management device 130 of FIG. 1 according to an embodiment of the present invention, for example, captures an image of a work site from a camera 113 of the work site and provides Receive (S500).

또한 작업현장 안전관리장치(130)는 수신한 촬영영상을 이용하여 VR 배경영상을 생성한다(S510). VR 배경영상을 생성하기 위하여 작업현장 안전관리장치(130)는 수신한 촬영영상의 각도별 영상을 생성하고, 이를 결합하는 형태로 VR 배경 영상을 생성할 수 있다. 이와 관련해서는 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition, the workplace safety management device 130 generates a VR background image using the received captured image (S510). In order to generate a VR background image, the workplace safety management device 130 may create a VR background image by generating an image for each angle of the received captured image and combining them. Since this has been sufficiently explained above, we will replace it with the contents.

작업현장 안전관리장치(130)는 수신한 촬영영상의 단위 프레임 영상에서 객체를 추출하고, 추출한 객체에 대하여 학습을 수행하여 객체를 정의한다(S520, S530). 객체는 대표적으로 작업자(예: 비콘정보)나 장비(예: 장비 데이터)일 수 있지만, 가령 각종 공사작업 중에 새롭게 투입되거나, 또는 발파작업 중에 새롭게 발견되는 돌 등이 될 수 있다. 객체 정의를 위하여 학습 DB를 검색할 수 있다.The workplace safety management device 130 extracts an object from the unit frame image of the received captured image, and performs learning on the extracted object to define the object (S520 and S530). The object may typically be a worker (eg, beacon information) or equipment (eg, equipment data), but may be, for example, a stone newly introduced during various construction work or newly discovered during blasting work. You can search the learning DB for object definition.

또한, 작업현장 안전관리장치(130)는 VR 배경영상에 위의 추출한 객체를 삽입하기 위하여 뎁스 정보를 생성할 수도 있다. 예를 들어, 3D 카메라를 사용하는 경우에는 뎁스 정보를 카메라에서 제공하므로 이를 근거로 360도 VR 영상에 적용하기 위하여 뎁스 정보를 활용할 수 있다. 만약, CCTV나 IP 카메라와 같이 촬영영상의 단위 프레임 영상에서 뎁스 정보를 산출하기가 어려운 경우에는 비콘정보 등을 활용하여 뎁스 정보를 생성할 수 있다. 예를 들어, A 작업자의 위치와 B 작업자의 사이에 추적되지 않는 특정 객체가 위치하는 경우, 가령 화소 분석 결과 A 작업자의 위치에 가까운 경우 이를 근거로 뎁스 정보를 생성할 수 있다. 이와 같이 뎁스 정보를 생성시 비콘 정보를 이용할 수도 있다. 해당 객체에 대한 좌표값은 메모리에 3차원 좌표(x, y, z)로 설정할 수 있다.In addition, the workplace safety management device 130 may generate depth information in order to insert the above extracted object into the VR background image. For example, when a 3D camera is used, since depth information is provided by the camera, depth information can be used to apply to 360-degree VR images based on this. If it is difficult to calculate depth information from unit frame images of captured images, such as CCTVs or IP cameras, depth information may be generated using beacon information. For example, when a specific object that is not tracked is located between the location of worker A and worker B, for example, when a pixel analysis result is close to the location of worker A, depth information may be generated based on this. In this way, when generating depth information, beacon information may be used. Coordinate values for the object can be set in memory as 3-dimensional coordinates (x, y, z).

나아가, 작업현장 안전관리장치(130)는 추출한 객체의 화소분석을 통해 객체를 이미지화하고, 생성한 VR 배경영상에 오버랩하여 VR 영상을 생성한다(S540, S550). VR 배경에 객체 이미지를 오버랩할 때 위의 뎁스 정보를 반영하여, 각도별로 360도 VR 영상의 구현이 가능하도록 할 수 있다. 예를 들어, 객체의 경우에도 입체적으로 이미지화를 통해 입체적으로 구현이 될 수 있을 것이다.Furthermore, the workplace safety management device 130 images the object through pixel analysis of the extracted object, and creates a VR image by overlapping the created VR background image (S540, S550). When overlapping an object image on a VR background, it is possible to implement a 360-degree VR image for each angle by reflecting the above depth information. For example, even in the case of an object, it can be implemented in three dimensions through three-dimensional imaging.

또한, 작업현장 안전관리장치(130)는 VR 영상을 표시한다(S560). VR 영상은 관제센터의 전광판 등에 구현될 수 있지만, 공사현장을 모니터링하는 관제요원이나 감독관이 별도로 착용하는 VR 장치를 통해 이를 시청하는 것도 얼마든지 가능할 수 있을 것이다.In addition, the workplace safety management device 130 displays a VR image (S560). VR images can be implemented on the electronic display board of the control center, but it will also be possible to watch them through VR devices separately worn by control personnel or supervisors monitoring the construction site.

상기한 내용 이외에도 작업현장 안전관리장치(130)와 관련한 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, since the details related to the safety management device 130 at the work site have been sufficiently described above, they will be replaced with the contents.

한편, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.On the other hand, even if all the components constituting the embodiment of the present invention are described as being combined or operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all of the components may be selectively combined with one or more to operate. In addition, although all of the components may be implemented as a single independent piece of hardware, some or all of the components are selectively combined to perform some or all of the combined functions in one or a plurality of pieces of hardware. It may be implemented as a computer program having. Codes and code segments constituting the computer program may be easily inferred by a person skilled in the art. Such a computer program may implement an embodiment of the present invention by being stored in a computer-readable non-transitory computer readable media, read and executed by a computer.

여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, the non-transitory readable recording medium means a medium that stores data semi-permanently and can be read by a device, not a medium that stores data for a short moment, such as a register, cache, or memory. . Specifically, the above-described programs may be provided by being stored in a non-transitory readable recording medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, or ROM.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and is common in the art to which the present invention pertains without departing from the gist of the present invention claimed in the claims. Of course, various modifications and implementations are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100: 사용자장치 113, 115, 117: 현장설치장치
120: 통신망 130: 공사현장 안전관리장치
200: 통신 인터페이스부 210: 제어부
220: VR 영상처리부 230: 저장부
300: VR 배경생성부 310: 객체딥러닝부
320: 객체이미지생성부 330: VR 영상생성부
100: user device 113, 115, 117: field installation device
120: communication network 130: construction site safety management device
200: communication interface unit 210: control unit
220: VR image processing unit 230: storage unit
300: VR background generation unit 310: object deep learning unit
320: object image generator 330: VR video generator

Claims (10)

작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 통신 인터페이스부; 및
상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 제어부;를 포함하되,
상기 추출한 객체는 상기 작업현장 내의 작업자, 장비 및 발파작업 중에 발견되는 돌을 포함하고,
상기 제어부는, 상기 추출한 객체를 그래픽 처리하거나 보정하여 상기 객체를 입체적으로 이미지화하며,
상기 제어부는, 실시간으로 감지되던 상기 작업현장 내의 사용자 장치가 감지되지 않는 경우 상기 생성한 VR 영상을 이용하는 VR 영상 관제모드로 전환하여 상기 사용자 장치가 왜 감지되지 않는지에 대한 판단을 수행하는 가상현실 기반의 작업현장 안전관리장치.
a communication interface unit for receiving a photographed image of the work site from a camera of the work site; and
A virtual reality (VR) background image for the appearance of the work site is created using the received captured image, the object is imaged based on the deep learning result of the object extracted from the received captured image, and the generated VR A control unit for synthesizing a background image and the imaged object to generate and output a VR image of the work site;
The extracted objects include workers, equipment, and stones found during blasting in the work site,
The control unit graphics the extracted object or corrects it to form a three-dimensional image of the object,
The control unit is based on virtual reality for determining why the user device is not detected by switching to a VR video control mode using the generated VR image when the user device in the work site that has been detected in real time is not detected. Work site safety management device.
제1항에 있어서,
상기 제어부는, 상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭(stiching)하여 상기 VR 배경영상을 생성하는 가상현실 기반의 작업현장 안전관리장치.
According to claim 1,
The control unit extracts unit frame images of the same time from each of the captured images received from a plurality of cameras installed at different locations in the work site, and stitches each of the extracted unit frame images to obtain the VR background. A virtual reality-based workplace safety management device that generates images.
제2항에 있어서,
상기 제어부는 상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이(depth) 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성하는 가상현실 기반의 작업현장 안전관리장치.
According to claim 2,
The control unit analyzes the received captured image to obtain depth information of the extracted object, and applies the obtained depth information to synthesize the imaged object to the VR background image for virtual reality-based workplace safety. management device.
제3항에 있어서,
상기 제어부는 상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용하는 가상현실 기반의 작업현장 안전관리장치.
According to claim 3,
The control unit further uses a distance value calculated by beacon information received in relation to the extracted object in order to obtain depth information of the extracted object.
제3항에 있어서,
상기 제어부는, 상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환하는 가상현실 기반의 작업현장 안전관리장치.
According to claim 3,
The control unit is a virtual reality-based workplace safety management device that switches to a VR video control mode when an event or an error is detected in the object at the workplace.
통신 인터페이스부가, 작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 단계; 및
제어부가, 상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 단계;를 포함하되,
상기 추출한 객체는 상기 작업현장 내의 작업자, 장비 및 발파작업 중에 발견되는 돌을 포함하고,
상기 제어부는, 상기 추출한 객체를 그래픽 처리하거나 보정하여 상기 객체를 입체적으로 이미지화하며,
상기 제어부는, 실시간으로 감지되던 상기 작업현장 내의 사용자 장치가 감지되지 않는 경우 상기 생성한 VR 영상을 이용하는 VR 영상 관제모드로 전환하여 상기 사용자 장치가 왜 감지되지 않는지에 대한 판단을 수행하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
Receiving, by a communication interface unit, a photographed image of the work site from a camera of the work site; and
The control unit generates a virtual reality (VR) background image for the appearance of the work site using the received captured image, images the object based on a deep learning result of an object extracted from the received captured image, Including; generating and outputting a VR image of the work site by synthesizing the generated VR background image and the imaged object,
The extracted objects include workers, equipment, and stones found during blasting in the work site,
The control unit graphics the extracted object or corrects it to form a three-dimensional image of the object,
The control unit is based on virtual reality for determining why the user device is not detected by switching to a VR video control mode using the generated VR image when the user device in the work site that has been detected in real time is not detected. Operation method of workplace safety management device of
제6항에 있어서,
상기 생성해 출력하는 단계는,
상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭하여 상기 VR 배경영상을 생성하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
According to claim 6,
The step of generating and outputting,
Based on virtual reality for generating the VR background image by extracting unit frame images of the same time from each of the captured images received from a plurality of cameras installed at different locations in the work site and stitching each of the extracted unit frame images Operation method of workplace safety management device of
제7항에 있어서,
상기 생성해 출력하는 단계는,
상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
According to claim 7,
The step of generating and outputting,
A method of driving a virtual reality-based workplace safety management device for obtaining depth information of the extracted object by analyzing the received captured image, and synthesizing the imaged object to the VR background image by applying the acquired depth information.
제8항에 있어서,
상기 생성해 출력하는 단계는,
상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
According to claim 8,
The step of generating and outputting,
A driving method of a virtual reality-based workplace safety management device further using a distance value calculated by beacon information received in relation to the extracted object to obtain depth information of the extracted object.
제8항에 있어서,
상기 생성해 출력하는 단계는,
상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
According to claim 8,
The step of generating and outputting,
A method of driving a virtual reality-based workplace safety management device that switches to a VR video control mode when an event or an error is detected in the object at the workplace.
KR1020200049834A 2020-04-24 2020-04-24 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof KR102468685B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200049834A KR102468685B1 (en) 2020-04-24 2020-04-24 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200049834A KR102468685B1 (en) 2020-04-24 2020-04-24 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof

Publications (2)

Publication Number Publication Date
KR20210131581A KR20210131581A (en) 2021-11-03
KR102468685B1 true KR102468685B1 (en) 2022-11-21

Family

ID=78505031

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200049834A KR102468685B1 (en) 2020-04-24 2020-04-24 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof

Country Status (1)

Country Link
KR (1) KR102468685B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863489B (en) * 2022-07-05 2022-09-20 河北工业大学 Virtual reality-based movable intelligent auxiliary inspection method and system for construction site

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9571816B2 (en) * 2012-11-16 2017-02-14 Microsoft Technology Licensing, Llc Associating an object with a subject
KR101914228B1 (en) * 2017-02-17 2018-11-02 주식회사 영신 IOT Based Safety Management System for Construction Site Using the RTLS and Video Control Technology
KR102434402B1 (en) * 2017-09-19 2022-08-22 한국전자통신연구원 Apparatus and method for providing mixed reality content
KR102031670B1 (en) * 2017-11-17 2019-10-14 주식회사 코이노 Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same
KR102074684B1 (en) 2018-03-21 2020-02-20 (주)브이알에이포인트 Method for providing ar or vr image based on location information and direction information
KR101944823B1 (en) 2018-06-07 2019-02-07 (주)영신디엔씨 Underground Facilities Detection System Using Augmented Reality and Virtual Reality
KR102014652B1 (en) 2018-08-23 2019-08-27 (주)알비디케이 AR/VR based integrated building sales system
KR102127921B1 (en) 2018-09-13 2020-06-29 (주)이노시스 Real time multi-image information providing system
KR102171935B1 (en) 2018-09-14 2020-10-30 (주) 토즈 Method for providing interior service based virtual reality

Also Published As

Publication number Publication date
KR20210131581A (en) 2021-11-03

Similar Documents

Publication Publication Date Title
US11710322B2 (en) Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
KR101835434B1 (en) Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value
US10373035B2 (en) Method and system for determining spatial characteristics of a camera
KR102111935B1 (en) Display control apparatus, display control method, and program
CN108737793B (en) Method, system and device for tracking moving object by using camera network
US20170094227A1 (en) Three-dimensional spatial-awareness vision system
JP2016213815A (en) Method of providing vehicle surrounding view image, and device and computer readable recording medium therefor
KR101048508B1 (en) System and method for realtime monitoring of harbor image using smart device
JP2010109452A (en) Vehicle surrounding monitoring device and vehicle surrounding monitoring method
EP3300045A1 (en) System and method for surveilling a scene comprising an allowed region and a restricted region
WO2019019819A1 (en) Mobile electronic device and method for processing tasks in task region
CN115597659B (en) Intelligent safety management and control method for transformer substation
KR102327872B1 (en) Apparatus for Extracting GPS Coordinate of Image-based Tracking Object and Driving Method Thereof
JP2010109451A (en) Vehicle surrounding monitoring device, and vehicle surrounding monitoring method
KR102468685B1 (en) Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof
WO2016135985A1 (en) Information providing method, information providing program, information providing device, information processing device, and information providing system
KR101410985B1 (en) monitoring system and monitoring apparatus using security camera and monitoring method thereof
KR101700651B1 (en) Apparatus for tracking object using common route date based on position information
JP5514062B2 (en) Electronic device, imaging screen display method with information, and program
JP6368503B2 (en) Obstacle monitoring system and program
KR101356172B1 (en) Apparatus and method for producing three-dimensional image for remote control
KR102008672B1 (en) System for Performing Linkage Operation of Augmented Reality and Event in Association with Camera and Driving Method Thereof
JP7437930B2 (en) Mobile objects and imaging systems
CN112528699A (en) Method and system for obtaining identification information of a device or its user in a scene
US20190080179A1 (en) Monitoring system and terminal device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant