KR20210131581A - Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof - Google Patents

Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof Download PDF

Info

Publication number
KR20210131581A
KR20210131581A KR1020200049834A KR20200049834A KR20210131581A KR 20210131581 A KR20210131581 A KR 20210131581A KR 1020200049834 A KR1020200049834 A KR 1020200049834A KR 20200049834 A KR20200049834 A KR 20200049834A KR 20210131581 A KR20210131581 A KR 20210131581A
Authority
KR
South Korea
Prior art keywords
image
safety management
virtual reality
management device
extracted
Prior art date
Application number
KR1020200049834A
Other languages
Korean (ko)
Other versions
KR102468685B1 (en
Inventor
김기성
구자석
Original Assignee
(주)오픈웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)오픈웍스 filed Critical (주)오픈웍스
Priority to KR1020200049834A priority Critical patent/KR102468685B1/en
Publication of KR20210131581A publication Critical patent/KR20210131581A/en
Application granted granted Critical
Publication of KR102468685B1 publication Critical patent/KR102468685B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/02Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using radio waves
    • G01S1/68Marker, boundary, call-sign, or like beacons transmitting signals not carrying directional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention relates to a workplace safety management apparatus based on virtual reality (VR) and a driving method thereof. The workplace safety management apparatus based on VR according to an embodiment of the present invention includes: a communication interface unit which receives a photographed image of a workplace from a camera of the workplace; and a control unit which uses the received photographed image to generate a VR background image of the workplace, makes an object into an image based on a deep learning result of the object extracted from the received photographed image, and generates a VR image of the workplace by synthesizing the generated VR background image and the imaged object, to output the VR image.

Description

가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법{Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof}Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof

본 발명은 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법에 관한 것으로서, 가령 터널 공사 등과 같은 작업현장에서 위치 추적을 위한 신호가 감지되지 않는 객체(예: 물건/사람/장비 등)나 신호의 오류시에도 가상현실(VR) 영상 등을 통해 작업 현장을 용이하게 모니터링할 수 있는 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법에 관한 것이다.The present invention relates to a virtual reality-based workplace safety management device and a driving method of the device, for example, an object (eg, object/person/equipment, etc.) for which a signal for location tracking is not detected in a worksite such as tunnel construction. B. It relates to a virtual reality-based workplace safety management device that can easily monitor the workplace through virtual reality (VR) images, even in the event of a signal error, and a method of driving the device.

일반적으로 건설, 토목, 플랜트 등 현장에서는 각 작업자별 안전이 최우선적으로 요구된다 할 것이다. 하지만, 현재까지 이러한 작업자들의 개인별 안전은 사전 교육 등이 이루어지는 것이 대부분이고 실제 작업 현장에 투입되는 경우에는 각 개인별로 자기 스스로 안전을 담당하는 것이 일반적이다. 최근 들어서는 스마트기기 및 웨어러블 장치들의 개발들로 인해 작업자들의 위치나 신체 정보 등을 중앙관제서버에서도 확인이 가능하도록 하는 시스템도 일부 제안되어지고 있다.In general, in construction, civil engineering, and plant sites, the safety of each worker is required as the top priority. However, up to now, most of the individual safety of these workers is conducted prior to training, and when they are put into an actual work site, it is common for each individual to take responsibility for their own safety. Recently, due to the development of smart devices and wearable devices, some systems have been proposed that allow the location and body information of workers to be checked even on a central control server.

종래의 터널 등과 같은 작업공간에서의 모니터링 시스템은 일반적으로 CCTV(Closed Circuit Television)를 통해 표시되는 영상을 감시하여 관제센터에서 관리 감독하는 것이 일반적이다. 이러한 CCTV로만 작업 현장을 모니터링하는 경우 정확한 객체에 대한 위치와 정보를 실시간으로 확인하는 것이 어려웠다.In a conventional monitoring system in a work space such as a tunnel, it is common to monitor an image displayed through CCTV (Closed Circuit Television) and to manage and supervise it in a control center. When monitoring the work site only with such CCTV, it was difficult to check the location and information of the exact object in real time.

이를 보완하기 위해 또한 종래에는 비콘이나 비콘스캐너 등을 이용하여 일정 공간 내의 객체에 대한 정보를 확인할 수는 있으나 비콘신호가 없는 객체나 또는 비콘신호 등에 오류가 발생하는 경우, 나아가 다양하게 변화하는 실시간 현장 내의 상황 정보를 제대로 확인할 수 없는 경우도 많이 발생하고 있다.In order to compensate for this, it is conventionally possible to check information about an object in a certain space using a beacon or a beacon scanner. There are many cases where it is not possible to properly check the situation information inside.

한국등록특허공보 제10-2074684호(2020.02.03)Korean Patent Publication No. 10-2074684 (2020.02.03) 한국등록특허공보 제10-1944823호(2019.01.28)Korean Patent Publication No. 10-1944823 (2019.01.28) 한국등록특허공보 제10-2014652호(2019.08.20)Korean Patent Publication No. 10-2014652 (2019.08.20) 한국공개특허공보 제10-2020-0030784호(2020.03.23)Korean Patent Publication No. 10-2020-0030784 (2020.03.23) 한국공개특허공보 제10-2020-0031312호(2020.03.24)Korean Patent Publication No. 10-2020-0031312 (2020.03.24)

본 발명의 실시예는 가령 터널 공사 등과 같은 작업현장에서 위치 추적을 위한 신호가 감지되지 않는 객체나 신호의 오류시에도 가상현실(VR) 영상 등을 통해 작업 현장을 용이하게 모니터링할 수 있는 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법을 제공함에 그 목적이 있다.An embodiment of the present invention provides a virtual reality that can easily monitor a work site through a virtual reality (VR) image even when an object or signal for which a signal for location tracking is not detected in a work site such as tunnel construction is in error. An object of the present invention is to provide a work-site safety management device based on and a method of driving the device.

본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치는, 작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 통신 인터페이스부, 및 상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 제어부를 포함한다.A virtual reality-based workplace safety management device according to an embodiment of the present invention includes a communication interface unit for receiving a photographed image of the workplace from a camera of the workplace, and the workplace using the received photographed image. Create a virtual reality (VR) background image for the appearance, image the object based on the deep learning result of the object extracted from the received captured image, and synthesize the generated VR background image with the imaged object It includes a control unit that generates and outputs a VR image of the work site.

상기 제어부는, 상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭(stiching)하여 상기 VR 배경영상을 생성할 수 있다.The control unit extracts a unit frame image of the same time from each captured image received from a plurality of cameras installed at different locations in the work site and stitches each extracted unit frame image to the VR background You can create an image.

상기 제어부는 상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이(depth) 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성할 수 있다.The controller may analyze the received captured image to acquire depth information of the extracted object, and apply the acquired depth information to synthesize the imaged object with the VR background image.

상기 제어부는 상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용할 수 있다.The controller may further use a distance value calculated by beacon information received in relation to the extracted object in order to acquire depth information of the extracted object.

상기 제어부는, 상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환할 수 있다.The controller may switch to the VR image control mode when an error is detected in an event or an object at the work site.

또한, 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 구동방법은, 통신 인터페이스부가, 작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 단계, 및 제어부가, 상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 단계를 포함한다.In addition, the driving method of the virtual reality-based workplace safety management apparatus according to an embodiment of the present invention comprises the steps of: a communication interface unit receiving a photographed image of the work site from a camera of the work site; and the control unit, the A virtual reality (VR) background image of the appearance of the work site is generated using the received captured image, the object is imaged based on the deep learning result of the object extracted from the received captured image, and the generated VR background and synthesizing the image and the imaged object to generate and output a VR image of the work site.

상기 생성해 출력하는 단계는, 상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭하여 상기 VR 배경영상을 생성할 수 있다.The generating and outputting step includes extracting a unit frame image of the same time from each captured image received from a plurality of cameras installed at different locations in the work site and stitching each of the extracted unit frame images to create the VR You can create a background image.

상기 생성해 출력하는 단계는, 상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성할 수 있다.The generating and outputting may include analyzing the received captured image to obtain depth information of the extracted object, and applying the obtained depth information to synthesize the imaged object with the VR background image.

상기 생성해 출력하는 단계는, 상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용할 수 있다.The generating and outputting may further use a distance value calculated by beacon information received in relation to the extracted object to obtain depth information of the extracted object.

상기 생성해 출력하는 단계는, 상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환할 수 있다.In the generating and outputting step, when an error is detected in an event or the object at the work site, the VR image control mode may be switched.

본 발명의 실시예에 따르면, 작업현장(또는 작업공간)에서 가령 비콘 등의 신호가 없는 객체나 비콘 등의 신호에 오류가 발생하는 경우, 나아가 다양하게 변환하는 실시간 현장 내의 상황이나 상황 정보를 VR 영상을 통해 신속하고 정확하게 확인할 수 있을 것이다.According to an embodiment of the present invention, when an error occurs in an object without a signal such as a beacon or a signal such as a beacon at the work site (or work space), furthermore, variously converted real-time situations or situation information in the field in VR You will be able to check it quickly and accurately through the video.

또한, 본 발명의 실시예에 따르면 필요시 작업현장을 VR 영상으로 실시간으로 모니터링할 수 있어 사건, 사고에 좀더 신속하게 대처할 수 있을 것이다.In addition, according to an embodiment of the present invention, it is possible to monitor the work site in real time with VR images if necessary, so that it is possible to more quickly respond to incidents and accidents.

도 1은 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리시스템을 나타내는 도면,
도 2는 도 1의 공사현장 안전관리장치의 세부 구조를 예시한 블록다이어그램,
도 3은 도 2의 VR 영상처리부의 구조를 예시한 블록다이어그램,
도 4는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 구동 과정을 나타내는 흐름도, 그리고
도 5는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 다른 구동 과정을 나타내는 흐름도이다.
1 is a view showing a virtual reality-based workplace safety management system according to an embodiment of the present invention;
Figure 2 is a block diagram illustrating the detailed structure of the construction site safety management device of Figure 1;
3 is a block diagram illustrating the structure of the VR image processing unit of FIG. 2;
4 is a flowchart showing a driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention, and
5 is a flowchart illustrating another driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리시스템을 나타내는 도면이다.1 is a diagram illustrating a virtual reality-based workplace safety management system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리시스템(90)은 사용자장치(100), 현장장치(113, 115, 117), 통신망(120) 및 (가상현실 기반의) 공사현장 안전관리장치(130)의 일부 또는 전부를 포함한다.1, the virtual reality-based workplace safety management system 90 according to an embodiment of the present invention includes a user device 100, field devices 113, 115, 117, a communication network 120 and ( Virtual reality-based) includes a part or all of the construction site safety management device (130).

여기서, "일부 또는 전부를 포함한다"는 것은 현장장치(113, 115, 117)를 구성하는 스캐너장치(115)와 같은 일부 구성요소가 생략되어 시스템(90)이 구성되거나, 공사현장 안전관리장치(130)를 구성하는 구성요소의 일부 또는 전부가 통신망(120)을 구성하는 네트워크장치(예: 무선교환장치 등)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that some components such as the scanner device 115 constituting the field devices 113, 115, and 117 are omitted so that the system 90 is configured, or a construction site safety management device Some or all of the components constituting the communication network 130 are integrated into a network device (eg, a wireless switching device, etc.) constituting the communication network 120 and may be configured to help a sufficient understanding of the invention. In order to be described as including all.

사용자장치(100)는 가령 터널 막장 등과 같은 공사현장(혹은 작업현장)의 작업자나 감독관 등이 착용하는 작업모 등에 구비되는 비콘장치, 또는 작업자가 소지하는 스마트폰 등의 단말장치, 나아가 작업자의 위치를 추적할 수 있는 모듈(예: 근거리통신모듈)이 탑재되는 전용 단말과 같이 다양한 장치를 포함한다. 물론 작업자가 손목 등에 착용하는 국내 S사의 갤*시기어와 같은 웨어러블장치를 포함할 수도 있다. 본 발명의 실시예에서는 작업의 안전성을 위협하지 않으면서 공사비용 등의 측면을 고려할 때 비콘신호를 전송하는 비콘장치를 이용하는 것이 바람직하지만, 이에 특별히 한정하지는 않을 것이다. 즉 현장 내에서 위치 추적이 가능하다면 근거리 무선통신이 가능한 다양한 통신장치가 사용될 수 있을 것이다.The user device 100 is, for example, a beacon device provided in a work cap worn by a worker or supervisor of a construction site (or work site), such as a tunnel block, or a terminal device such as a smart phone possessed by the worker, furthermore, the location of the worker It includes various devices such as a dedicated terminal equipped with a trackable module (eg, short-range communication module). Of course, it may include a wearable device such as a domestic S company's Galaxy Gear that the worker wears on his or her wrist. In an embodiment of the present invention, it is preferable to use a beacon device that transmits a beacon signal in consideration of aspects such as construction cost without threatening the safety of the work, but it will not be particularly limited thereto. That is, if location tracking is possible within the field, various communication devices capable of short-range wireless communication may be used.

현장장치(113, 115, 117)는 카메라(113), 스캐너장치(115) 및 통신중계장치(117)를 포함하며, 이외에도 공사현장 내를 감지할 수 있는 다양한 장치를 더 포함할 수 있다. 대표적으로, 공사현장 내를 이동하며 촬영 등을 통해 감시하고 경고방송 등을 송출하는 이동로봇 등이나 공사현장의 내부 환경을 센싱하는 가스센서 등의 감지센서를 더 포함할 수 있다. 물론 감지센서는 이동로봇에 탑재될 수 있다. 카메라(113)는 3D 카메라, CCTV, IP 카메라 등 다양한 종류의 카메라를 포함할 수 있다. 가령, 도 1에서와 같이 터널 막장 내에는 실제로 복수 개의 카메라가 설치될 수 있다. 또한, 복수의 카메라는 막장 내부에서 VR 영상을 생성하기에 용이하도록 서로 다른 위치에 설치되어 내부를 촬영하고 촬영영상을 통신중계장치(117)를 통해 공사현장 안전관리장치(130)로 제공한다. 가령 3D 카메라의 경우에는 촬영영상으로서 3D 촬영영상을 제공할 수 있지만, 복수의 3D 카메라가 설치되는 경우에는 각각의 3D 카메라에서 3D 촬영영상을 각각 전송할 수 있다. 물론, 각각의 카메라는 촬영영상의 제공시 촬영되는 시간에 대한 정보나 카메라(113)의 식별정보(ID) 등을 함께 전송한다. 3D 카메라는 촬영영상 내의 사물 즉 객체들에 대한 뎁스 정보를 자체적으로 생성하여 더 제공할 수도 있다. 다만, 3D 카메라는 고가이므로, 본 발명의 실시예에서는 CCTV를 적용하는 것이 바람직하지만, 이에 특별히 한정하지는 않을 것이다.The field devices 113 , 115 , and 117 include a camera 113 , a scanner device 115 , and a communication relay device 117 , and may further include various devices capable of detecting the inside of the construction site. Representatively, it may further include a detection sensor such as a mobile robot that moves within the construction site, monitors through shooting, etc. and transmits a warning broadcast, or a gas sensor that senses the internal environment of the construction site. Of course, the detection sensor can be mounted on the mobile robot. The camera 113 may include various types of cameras, such as a 3D camera, a CCTV, and an IP camera. For example, as shown in FIG. 1 , a plurality of cameras may actually be installed in the tunnel curtain wall. In addition, a plurality of cameras are installed at different positions to facilitate the creation of VR images inside the curtain to photograph the interior and provide the captured images to the construction site safety management device 130 through the communication relay device 117 . For example, in the case of a 3D camera, a 3D photographed image may be provided as a photographed image, but when a plurality of 3D cameras are installed, each 3D camera may transmit a 3D photographed image, respectively. Of course, each camera transmits information about the time taken or the identification information (ID) of the camera 113 when providing the captured image. The 3D camera may generate and further provide depth information on objects, ie, objects in the captured image by itself. However, since the 3D camera is expensive, it is preferable to apply CCTV in the embodiment of the present invention, but it will not be particularly limited thereto.

스캐너장치(115)는 주변의 사용자장치(100)와 통신을 수행한다. 스캐너장치(115)는 가령 비콘 스캐너로서 주변의 작업자가 작업모 등에 탑재하고 있는 비콘장치의 비콘신호를 수신하여 통신중계장치(117)로 제공한다. 물론, 비콘 스캐너(115)는 수신한 비콘신호를 제공할 때 자신의 장치식별정보(ID)와 수신한 비콘장치의 장치식별정보, 그리고 신호수신세기 등에 대한 정보를 함께 전송할 수 있다. 해당 정보들은 통신중계장치(117)를 경유하여 공사현장 안전관리장치(130)로 제공된다. 물론 본 발명의 실시예에 따른 스캐너장치(115)는 비콘 스캐너 이외에도 사용자장치(100)와 통신을 수행하여 작업자나 장비 등의 위치를 추적할 수 있다면 근거리 통신이 가능한 다양한 유형의 통신장치를 포함할 수 있다. 비콘은 최대 50m 거리에서 작동할 수 있으며, 적외선, RF 같은 무선통신기술을 이용하여 100m 이하의 짧은 거리의 통신을 수행하기 때문에 공사현장에서는 매우 유용할 수 있다. 스캐너장치(115) 또는 공사현장 내에 복수개의 장치가 설치될 수 있으며, 가령 공사현장 안전관리장치(130)는 어느 스캐너장치(115)에서 특정 비콘장치의 신호가 강하게 감지되는지를 근거로 거리를 측정하여 위치를 확정할 수 있다. 물론, 공사현장 내부에서는 비콘신호의 산란이나 반사 등이 발생할 수 있으며, 복수의 스캐너장치(115)를 그룹으로 설정하여 정확도를 높이는 등 다양한 방식의 측정이 이루어질 수 있다. 가령, 특정 그룹의 스캐너장치(115)에서 신호가 가장 강하고, 지속적으로 신호가 수신되었다면 그를 근거로 위치를 계산할 수 있는 것이다.The scanner device 115 communicates with the surrounding user device 100 . The scanner device 115 is, for example, a beacon scanner, which receives a beacon signal of a beacon device mounted on a worker's hat and the like and provides it to the communication relay device 117 . Of course, the beacon scanner 115 may transmit its own device identification information (ID), device identification information of the received beacon device, and information on signal reception strength when providing the received beacon signal. The information is provided to the construction site safety management device 130 via the communication relay device (117). Of course, the scanner device 115 according to an embodiment of the present invention may include various types of communication devices capable of short-range communication if the location of a worker or equipment can be tracked by performing communication with the user device 100 in addition to the beacon scanner. can The beacon can operate at a distance of up to 50m, and it can be very useful at the construction site because it uses wireless communication technologies such as infrared and RF to communicate at a short distance of less than 100m. A plurality of devices may be installed in the scanner device 115 or the construction site, for example, the construction site safety management device 130 measures the distance based on which scanner device 115 strongly detects a signal of a specific beacon device. location can be confirmed. Of course, scattering or reflection of beacon signals may occur inside the construction site, and various methods of measurement such as setting a plurality of scanner devices 115 as a group to increase accuracy may be performed. For example, if the signal is the strongest from the scanner device 115 of a specific group and the signal is continuously received, the position can be calculated based on the signal.

터널 공사와 같은 막장 내에서는 통신이 원활하지 않을 수 있다. 가령 GPS 통신이 불가능하다. 따라서, 본 발명의 실시예에 따른 통신중계장치(117)는 막장의 입구에 설치되어 막장 외부와 막장 내부의 사용자장치(100)간에 원활한 통신이 이루어지도록 중계할 수 있다. 안테나의 신호 방사 방향을 조절함으로써 내부로의 신호 전송 및 수신이 얼마든지 가능할 수 있다. 통신중계장치(117)는 물론 액세스포인트(AP)일 수 있다. 따라서, 통신망(120)의 개념에 포함될 수 있다. 다만, 통신중계장치(117)는 공사 시공업체 등에서 직접 설치하여 사용할 수 있다는 점에서, 기간 통신사에서 설치하는 통신망(120)과는 구분하고자 하였다.Communication may not be smooth in a closed area such as tunnel construction. For example, GPS communication is not possible. Therefore, the communication relay device 117 according to an embodiment of the present invention can be installed at the entrance of the makjang to relay so that smooth communication is made between the user device 100 outside the makjang and inside the makjang. By adjusting the signal radiation direction of the antenna, it may be possible to transmit and receive signals to the inside. The communication relay device 117 may of course be an access point (AP). Accordingly, it may be included in the concept of the communication network 120 . However, in that the communication relay device 117 can be directly installed and used by a construction company, etc., it was intended to be distinguished from the communication network 120 installed by a key communication company.

통신망(120)은 유무선 통신망을 모두 포함한다. 가령 통신망(120)으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망 등을 포함하는 의미이다. 물론 본 발명의 실시예에 따른 통신망(120)은 이에 한정되는 것이 아니며, 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망, 5G망 등에 사용될 수 있다. 가령, 통신망(120)이 유선 통신망인 경우 통신망(120) 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Station Transmission), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.The communication network 120 includes both wired and wireless communication networks. For example, a wired/wireless Internet network may be used or interlocked as the communication network 120 . Here, the wired network includes an Internet network such as a cable network or a public telephone network (PSTN), and the wireless communication network includes CDMA, WCDMA, GSM, Evolved Packet Core (EPC), Long Term Evolution (LTE), and Wibro networks. meaning to include Of course, the communication network 120 according to the embodiment of the present invention is not limited thereto, and may be used, for example, in a cloud computing network under a cloud computing environment, a 5G network, and the like. For example, if the communication network 120 is a wired communication network, the access point in the communication network 120 may connect to a switching center of a telephone company, etc., but in the case of a wireless communication network, it accesses the SGSN or GGSN (Gateway GPRS Support Node) operated by the communication company to transmit data. or by connecting to various repeaters such as Base Station Transmission (BTS), NodeB, and e-NodeB to process data.

통신망(120)은 액세스포인트를 포함할 수 있다. 여기서의 액세스포인트는 건물 내에 많이 설치되는 펨토(femto) 또는 피코(pico) 기지국과 같은 소형 기지국을 포함한다. 펨토 또는 피코 기지국은 소형 기지국의 분류상 통신중계장치(117) 등을 최대 몇 대까지 접속할 수 있느냐에 따라 구분된다. 물론 액세스포인트는 통신중계장치(117) 등과 지그비(Zig-bee) 및 와이파이(Wi-Fi) 등의 근거리 통신을 수행하기 위한 근거리 통신모듈을 포함할 수 있다. 액세스포인트는 무선통신을 위하여 TCP/IP 혹은 RTSP(Real-Time Streaming Protocol)를 이용할 수 있다. 여기서, 근거리 통신은 와이파이 이외에 블루투스, 지그비, 적외선, UHF(Ultra High Frequency) 및 VHF(Very High Frequency)와 같은 RF(Radio Frequency) 및 초광대역 통신(UWB) 등의 다양한 규격으로 수행될 수 있다. 이에 따라 액세스포인트는 데이터 패킷의 위치를 추출하고, 추출된 위치에 대한 최상의 통신 경로를 지정하며, 지정된 통신 경로를 따라 데이터 패킷을 다음 장치, 예컨대 공사현장 안전관리장치(130) 등으로 전달할 수 있다. 액세스포인트는 일반적인 네트워크 환경에서 여러 회선을 공유할 수 있으며, 예컨대 라우터(router), 리피터(repeater) 및 중계기 등이 포함된다.The communication network 120 may include an access point. Here, the access point includes a small base station such as a femto or pico base station that is often installed in a building. Femto or pico base stations are classified according to the maximum number of communication relay devices 117, etc. that can be connected to the classification of small base stations. Of course, the access point may include a short-distance communication module for performing short-distance communication such as the communication relay device 117 and the like, such as Zig-bee and Wi-Fi. The access point may use TCP/IP or Real-Time Streaming Protocol (RTSP) for wireless communication. Here, short-range communication may be performed in various standards such as Bluetooth, Zigbee, infrared, radio frequency (RF) such as ultra high frequency (UHF) and very high frequency (VHF), and ultra wideband communication (UWB) in addition to Wi-Fi. Accordingly, the access point extracts the location of the data packet, designates the best communication path for the extracted location, and forwards the data packet to the next device, such as the construction site safety management device 130, along the designated communication path. . The access point may share several lines in a general network environment, and includes, for example, a router, a repeater, and a repeater.

공사현장 안전관리장치(130)는 공사현장의 작업자 등을 모니터링하기 위한 다양한 장치를 포함할 수 있다. 대표적으로, 공사현장에서 제공되는 데이터를 처리하기 위한 서버를 포함할 수 있으며, 가령 관제요원이 관제를 수행하는 컴퓨터 본체나 모니터 등을 더 포함할 수 있다. 물론 관제요원이나 관리자의 스마트폰이나 헤드마운팅장치(HMD)와 같은 VR 장치를 포함할 수도 있다. 모니터상에는 공사현장의 내부 모습과 내부에서 작업을 수행하는 작업자 등의 위치가 표시될 수 있다. 다양한 부가 정보들이 표시될 수 있을 것이다. 이러한 모니터링 화면은 '대쉬보드'라 명명될 수도 있다. 물론, 모니터링 화면은 다양한 형태로 구성되어 화면에 구현될 수 있다. 통상 공사현장은 CCTV를 통해 내부 모습이 감시되지만 이를 통해서는 정확한 객체(예: 물건/사람 등)에 대한 위치와 정보를 실시간으로 확인하는 것이 어렵다. 이를 보완하기 위해 비콘 및 비콘스캐너 등을 이용하여 일정 공간 내의 객체에 대한 정보를 확인할 수 있다. 그러나, 이의 경우에도 신호가 감지되지 않는 객체, 또는 신호감지 등에 오류가 발생하는 경우, 뿐만 아니라 다양하게 변화하는 실시간 현장 내의 상황 정보를 확인할 수 없는 경우가 많다.The construction site safety management device 130 may include various devices for monitoring the workers of the construction site. Representatively, it may include a server for processing data provided at a construction site, and may further include, for example, a computer body or a monitor that a control agent performs control. Of course, it may include a VR device such as a controller or manager's smartphone or a head mounting device (HMD). On the monitor, the internal appearance of the construction site and the location of a worker performing work from the inside may be displayed. Various additional information may be displayed. Such a monitoring screen may be called a 'dashboard'. Of course, the monitoring screen may be configured in various forms and implemented on the screen. Usually, the inside of a construction site is monitored through CCTV, but it is difficult to check the location and information of an accurate object (eg, object/person, etc.) in real time through this. To compensate for this, information on an object in a certain space can be checked using a beacon or a beacon scanner. However, even in this case, when an error occurs in an object in which a signal is not detected or a signal detection, as well as variously changing real-time situation information in the field, there are many cases.

이를 위하여 본 발명의 실시예에 따른 공사현장 안전관리장치(130)는 터널 내에 설치된 현장장치(113, 115, 117)들로부터 제공되는 카메라(113)의 촬영영상이나 스캐너장치(115) 등에서 제공하는 사용자장치(100), 가령 비콘장치의 스캔 데이터를 근거로 VR 영상을 생성하여 VR 영상 모드(mode)로 전환하여 감시가 이루어지도록 할 수 있다. 예를 들어, 공사현장에서 사건, 사고가 발생하거나 비콘장치 등에 오류가 발생하였다고 판단될 때, 비콘신호가 없게 되는 객체가 감지될 때, 그리고 관제요원의 요청에 의해서도 VR 영상 모드로 전환될 수 있다. VR 영상은 360도 VR 영상이 바람직하다. 가령 카메라(113)가 설치되는 각 지점을 기준으로 하여 보여주는 3D 영상이 사용될 수 있다. 또한, 관제요원이 특정 위치를 지정하는 경우 해당 위치를 기준으로 3D 영상을 화면에 표시해 줄 수도 있다. 이의 경우 가령 비콘신호가 감지되지 않는 비콘장치의 식별이 좀더 수월하게 이루어질 수 있다.To this end, the construction site safety management device 130 according to the embodiment of the present invention provides a photographed image of the camera 113 provided from the field devices 113, 115, and 117 installed in the tunnel or the scanner device 115, etc. A VR image may be generated based on scan data of the user device 100 , for example, a beacon device, and it may be switched to a VR image mode to be monitored. For example, when it is determined that an incident or accident occurs at the construction site, or an error has occurred in the beacon device, etc., when an object with no beacon signal is detected, and also at the request of the controller, it can be switched to the VR video mode. . The VR image is preferably a 360-degree VR image. For example, a 3D image displayed based on each point where the camera 113 is installed may be used. In addition, when the controller designates a specific location, a 3D image may be displayed on the screen based on the location. In this case, for example, a beacon device in which a beacon signal is not detected can be more easily identified.

공사현장 안전관리장치(130)는 VR 영상을 생성하기 위하여 가령 공사현장에 카메라(113)가 최초 설치될 때 취득되는 촬영영상을 이용하여 공사현장 내부에 대한 VR 배경영상을 제작하여 기저장할 수 있다. 여기서, 배경이란 촬영영상에서 볼 때 객체를 제외한 부분을 의미한다. 따라서, 공사현장의 내부 모습에서 객체를 제외한 부분이라 볼 수 있다. 공사현장 내부 모습은 발파 작업 등을 통해 시간이 경과될 때마다 변화되므로 공사현장 안전관리장치(130)는 이를 고려하여 실시간으로, 또는 일정 시간 간격으로 배경영상을 VR 영상으로 생성할 수 있다. 예를 들어, 공사현장 안전관리장치(130)는 공사 현장의 내부 모습을 3D로 관찰하기 위하여 3D 카메라를 설치하여도 무관하다. 다만, 360도 VR을 구현할 수 있도록 공사현장 안전관리장치(130)는 공사현장의 복수의 카메라로부터 수신되는 촬영영상의 단위 프레임 영상을 시간별, 더 정확하게는 서로 동일 시간의 단위 프레임 영상을 스티칭(stitching)하여 실시간 VR 영상을 생성할 수도 있다. 가령, 시간 t1에 대하여 동일 시간에 해당하는 단위 프레임 영상들을 스티칭하여 VR 영상을 생성할 수 있다. 예를 들어, 카메라 1에서 수신되는 촬영영상에서 시간 t1(가령 1/60초)에 해당하는 단위 프레임 영상과 공사현장의 다른 위치에 구비되는 카메라 2에서 수신되는 동일 시간 t1에 해당하는 단위 프레임 영상을 각각 취득하여 서로 스티칭할 수 있다. 물론 이러한 과정에서 영상을 보정하는 캘리브레이션 동작이 이루어질 수도 있다. 이를 통해 여러 시점에서 촬영한 영상을 이어붙여 다시점에 대한 파노라마 영상으로 변환이 가능하고, 사용자의 의도에 따라 시점(view)을 변경하여 영상을 확인할 수 있다. 이러한 VR 배경 영상의 생성은 실시간으로 전송되는 스트리밍 데이터를 이용하여 생성될 수도 있으므로 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다. 물론, VR 배경 영상은 데이터 연산 처리량을 줄이기 위하여 공사현장 내에서 이벤트 가령, 발파작업 등이 있을 때에 간헐적으로 이루어질 수도 있다.The construction site safety management device 130 may produce a VR background image for the inside of the construction site by using, for example, a captured image obtained when the camera 113 is initially installed at the construction site to generate a VR image, and may be stored in advance. . Here, the background refers to a portion excluding the object when viewed in the captured image. Therefore, it can be seen as a part excluding the object from the internal appearance of the construction site. Since the appearance of the inside of the construction site changes as time elapses through blasting work, etc., the construction site safety management device 130 may generate the background image as a VR image in real time or at regular time intervals in consideration of this. For example, the construction site safety management device 130 may install a 3D camera to observe the interior of the construction site in 3D. However, to implement 360-degree VR, the construction site safety management device 130 stitches unit frame images of captured images received from a plurality of cameras at the construction site by time, more precisely, by stitching unit frame images of the same time to each other. ) to create a real-time VR image. For example, a VR image may be generated by stitching unit frame images corresponding to the same time with respect to time t1. For example, in the captured image received from camera 1, a unit frame image corresponding to time t1 (eg, 1/60 second) and a unit frame image corresponding to the same time t1 received from camera 2 provided at another location on the construction site can be obtained and stitched together. Of course, in this process, a calibration operation for correcting an image may be performed. Through this, it is possible to convert images taken from multiple viewpoints into a panoramic image for multiple viewpoints, and the image can be checked by changing the viewpoint according to the user's intention. Since the VR background image may be generated using streaming data transmitted in real time, the embodiment of the present invention will not be limited to any one form. Of course, the VR background image may be made intermittently when there is an event, such as a blasting operation, in the construction site in order to reduce the data calculation throughput.

또한, 본 발명의 실시예에 따른 공사현장 안전관리장치(130)는 복수의 카메라(113)로부터 수신되는 촬영영상, 그리고 사용자장치(100)와 스캐너장치(115)의 통신신호를 근거로 거리를 측정할 수 있다. 스캐너장치(115)의 경우에도 다양한 위치에 설치될 수 있으며, 사용자장치(100)를 삼각측량 등을 통해 정확한 거리 측정이 이루어질 수 있다. 물론 측정거리는 수신신호세기를 이용하여 계산될 수 있다. 예를 들어, 카메라(113)로서 3D 카메라를 사용하는 경우에는 작업자가 장비에 대한 뎁스(depth) 즉 깊이 정보를 함께 제공하므로, 이를 이용하여 VR 영상을 생성할 수 있다. VR 영상은 VR 배경 영상과 객체가 오버랩되어 형성된 영상에 해당한다. 만약, 3D 카메라가 아닌 IP 카메라나 CCTV의 경우에는 뎁스(혹은 깊이) 정보를 영상 데이터 즉 화소(pixel) 분석을 통해 산출할 수 있다. 예를 들어, 촬영영상의 단위 프레임 영상에서 화소를 이용해 거리를 측정할 수 있지만, 뎁스 정보는 가령 비콘정보 즉 신호의 수신방향이나 수신신호세기에 의해 산출된 거리를 뎁스 정보로 사용할 수도 있다. 여기서, 뎁스 정보는 3차원 공간상에서 어느 위치에 객체가 위치하는지에 대한 위치정보가 될 수 있다. 따라서, 공사현장 안전관리장치(130)는 화소분석을 통해 2차원상의 정보를 취득하였다면, 비콘 등의 정보를 더 이용하여 3차원 정보를 생성할 수도 있다.In addition, the construction site safety management device 130 according to an embodiment of the present invention determines the distance based on the captured image received from the plurality of cameras 113 and the communication signal between the user device 100 and the scanner device 115 . can be measured The scanner device 115 may also be installed in various locations, and accurate distance measurement may be performed by triangulating the user device 100 . Of course, the measurement distance can be calculated using the received signal strength. For example, when a 3D camera is used as the camera 113 , since the operator also provides depth information about the equipment, that is, a VR image can be generated using this. The VR image corresponds to an image formed by overlapping a VR background image and an object. In the case of an IP camera or CCTV other than a 3D camera, depth (or depth) information can be calculated through image data, ie, pixel analysis. For example, a distance may be measured using pixels in a unit frame image of a captured image, but, for the depth information, for example, beacon information, that is, a distance calculated by a signal reception direction or reception signal strength may be used as depth information. Here, the depth information may be position information on which position the object is located in the 3D space. Accordingly, the construction site safety management device 130 may generate three-dimensional information by further using information such as beacons, if two-dimensional information is obtained through pixel analysis.

예를 들어, 공사현장을 모니터링하기 위하여 지정 조건(예: 사건, 사고가 발생한 경우)에서 VR 영상 관제모드로 전환된 경우, 공사현장 안전관리장치(130)는 기생성된 또는 실시간으로 생성되는 VR 배경영상에 공사현장 내의 객체(혹은 객체영상, 이미지파일 등)들을 오버랩(혹은 합성)하여 생성한 공사현장 VR 영상을 모니터에 표시해 줄 수 있다. 여기서 모드(mode)란 지정 조건이 될 때(혹은 선택이 있을 때), 자동으로 지정 동작이 작동되도록 하거나, 기설정된 일련의 동작이 순차적으로 작동하는 것을 의미할 수 있다. 공사현장의 VR 영상을 생성하는 과정에서 공사현장 안전관리장치(130)는 오버랩되는 객체들과 관련하여 오버랩되는 객체들의 정확도를 높이기 위하여 딥러닝 동작을 수행한 후 딥러닝 결과에 의해 최종적으로 확정되는 객체가 오버랩된다고 볼 수 있다. 가령, 실시간으로 감지되던 사용자장치(100)가 갑자기 감지되지 않는 경우, VR 영상 관제모드로 전환하여 사용자장치(100)가 왜 감지되지 않는지에 대한 명확한 판단이 이루어질 수 있다. 이를 통해 조속한 조치가 이루어질 수 있다. 또한, 발파 작업이 있는 공간에서는 발파되는 파편들과 관련한 새로운 객체들을 딥러닝을 통해 정확히 감지하고 이를 VR 영상에 구현함으로써 공사현장의 내부에 대한 모니터링의 정확도를 더욱 높일 수 있게 된다.For example, when the VR video control mode is switched to the VR video control mode under a specified condition (eg, when an incident or accident occurs) in order to monitor the construction site, the construction site safety management device 130 generates a pre-generated or real-time VR The VR image of the construction site created by overlapping (or synthesizing) objects (or object images, image files, etc.) in the construction site on the background image can be displayed on the monitor. Here, the mode may mean that when a specified condition is met (or when there is a selection), a specified operation is automatically operated, or a predetermined series of operations are sequentially operated. In the process of generating the VR image of the construction site, the construction site safety management device 130 performs a deep learning operation to increase the accuracy of the overlapping objects in relation to the overlapping objects, and is finally determined by the deep learning result. Objects can be viewed as overlapping. For example, when the user device 100 that was sensed in real time is suddenly not detected, a clear determination as to why the user device 100 is not detected may be made by switching to the VR image control mode. This allows prompt action to be taken. In addition, in the space where there is a blasting operation, new objects related to the blasted fragments can be accurately detected through deep learning and implemented in a VR image to further increase the accuracy of monitoring the inside of the construction site.

도 2는 도 1의 공사현장 안전관리장치의 세부 구조를 예시한 블록다이어그램이다.FIG. 2 is a block diagram illustrating a detailed structure of the construction site safety management device of FIG. 1 .

도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 공사현장 안전관리장치(130)는 통신 인터페이스부(200), 제어부(210), VR 영상처리부(220) 및 저장부(230)의 일부 또는 전부를 포함한다.As shown in FIG. 2 , the construction site safety management device 130 according to an embodiment of the present invention includes a communication interface unit 200 , a control unit 210 , a VR image processing unit 220 , and a part of the storage unit 230 . or all inclusive.

여기서, "일부 또는 전부를 포함한다"는 것은 저장부(230)와 같은 일부 구성요소가 생략되거나, VR 영상처리부(220)와 같은 일부 구성요소가 제어부(210)와 같은 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that some components such as the storage unit 230 are omitted, or some components such as the VR image processing unit 220 are integrated into other components such as the control unit 210. As meaning that can be configured and the like, it will be described as including all in order to help a sufficient understanding of the invention.

통신 인터페이스부(200)는 도 1의 통신망(120), 통신중계장치(117) 등을 경유하여 사용자장치(100)와 통신할 수 있다. 이러한 통신 동작을 수행하는 과정에서 통신 인터페이스부(200)는 변/복조, 인코딩/디코딩, 먹싱/디먹싱, 해상도를 변환하는 스케일링 등의 동작을 수행할 수 있다. 이와 관련해서는 당업자에게 자명하므로 더 이상의 설명은 생략하도록 한다.The communication interface unit 200 may communicate with the user device 100 via the communication network 120 and the communication relay device 117 of FIG. 1 . In the process of performing such a communication operation, the communication interface unit 200 may perform operations such as modulation/demodulation, encoding/decoding, muxing/demuxing, and scaling for converting resolution. In this regard, since it is obvious to those skilled in the art, further description will be omitted.

통신 인터페이스부(200)는 공사현장의 모니터링 데이터로서 대표적으로 카메라(113)의 촬영영상에 대한 영상 데이터, 그리고 스캐너장치(115)가 제공하는 스캔 데이터를 수신하여 제어부(210)에 제공한다. 스캔 데이터는 가령 비콘장치나 스마트폰과 같은 사용자장치(100)의 위치를 추적하는 위치추적 정보가 될 수 있다.The communication interface unit 200 receives, as monitoring data of the construction site, typically image data for a captured image of the camera 113 and scan data provided by the scanner device 115 , and provides it to the control unit 210 . The scan data may be, for example, location tracking information for tracking the location of the user device 100 such as a beacon device or a smart phone.

또한, 통신 인터페이스부(200)는 가령 공사현장 내에 이벤트(예: 사건, 사고)가 발생하거나 관제요원이나 감독관의 요청이 있을 때 공사현장의 내부를 VR 영상으로 관제하기 위한 동작을 수행할 수 있다. 이를 위하여, 관제요원의 컴퓨터나 모니터, 또는 관제센터의 전광판에 VR 영상이 표시되도록 VR 영상 데이터를 전송할 수 있다.In addition, the communication interface unit 200 may perform an operation for controlling the inside of the construction site with a VR image, for example, when an event (eg, an event, an accident) occurs in the construction site or there is a request from a control agent or supervisor. . To this end, VR image data can be transmitted so that the VR image is displayed on the computer or monitor of the control personnel or the electronic display of the control center.

제어부(210)는 도 1의 공사현장 안전관리장치(130)를 구성하는 도 2의 통신 인터페이스부(200), VR 영상처리부(220) 및 저장부(230)의 전반적인 제어 동작을 수행할 수 있다. 대표적으로 제어부(210)는 통신 인터페이스부(200)를 통해 수신되는 공사현장의 촬영영상에 대한 영상 데이터 및 작업자나 장비 등의 위치를 센싱하는 스캔 데이터를 수신하여 저장부(230)에 임시 저장한 후 필요시 불러내어 VR 영상처리부(220)에 제공할 수 있다.The control unit 210 may perform overall control operations of the communication interface unit 200, the VR image processing unit 220 and the storage unit 230 of FIG. 2 constituting the construction site safety management device 130 of FIG. 1 . . Representatively, the control unit 210 receives the image data for the photographed image of the construction site received through the communication interface unit 200 and the scan data for sensing the position of the worker or equipment, and temporarily stores it in the storage unit 230 . After that, if necessary, it may be called and provided to the VR image processing unit 220 .

제어부(210)는 예를 들어, 공사현장에 카메라(113)의 초기 세팅시 각 카메라의 촬영 영상을 이용하여 공사현장의 VR 배경영상을 생성할 수 있다. 또한, 실시간으로 또는 주기적으로 공사현장의 내부 모습이 변경될 때마다 기생성한 VR 배경 영상을 갱신할 수 있다. 이를 위하여 물론 VR 영상처리부(220)와 연계하여 동작할 수 있다. 또한, 제어부(210)는 공사현장의 VR 영상 관제모드로 전환될 때, 기생성된 VR 배경영상에 객체들을 오버랩하여 생성된 VR 영상을 출력할 수 있다. The controller 210 may, for example, generate a VR background image of the construction site by using the captured image of each camera when the camera 113 is initially set at the construction site. In addition, the pre-generated VR background image can be updated in real time or periodically whenever the internal appearance of the construction site is changed. For this, of course, it may operate in conjunction with the VR image processing unit 220 . Also, when the controller 210 is switched to the VR image control mode of the construction site, the controller 210 may output a VR image generated by overlapping objects on a pre-generated VR background image.

VR 영상처리부(220)는 공사현장에 대한 내부 모습을 실시간 VR로 모니터링할 수 있도록 하기 위한 VR 영상을 생성한다. 여기서, VR 영상은 공사현장의 내부 모습에 객체를 제외한 VR 배경영상과 그 배경영상에 오버랩되는 객체, 또는 객체이미지들로 구성된다. 물론, 여기서의 객체는 비콘 등에 의해 위치가 추적되지 않는 객체들까지 모두 관찰될 수 있다. 예를 들어, 종래의 CCTV의 경우에는 객체들에 대한 정확한 위치나 정보를 실시간으로 확인하는 것이 어려울 수 있다. 대표적으로 해상도의 문제일 수 있다. 또한, IP 카메라, 3D 카메라 등을 사용하는 경우에도 설치 비용이 비싼 것은 차치하고라도 설치된 위치에 한정하여 공사현장의 내부를 관찰할 수밖에 없다. The VR image processing unit 220 generates a VR image for monitoring the inside of the construction site with real-time VR. Here, the VR image is composed of a VR background image excluding an object in the interior of the construction site and an object or object images overlapping the background image. Of course, the object here can be observed all objects whose location is not tracked by a beacon or the like. For example, in the case of a conventional CCTV, it may be difficult to check the exact location or information of the objects in real time. Typically, it may be a problem of resolution. In addition, even when an IP camera, a 3D camera, etc. are used, it is inevitable to observe the inside of the construction site by limiting the installation location aside from the expensive installation cost.

그러나, 본 발명의 실시예에 따른 VR 영상처리부(220)는 복수의 카메라로부터 취득되는 촬영영상을 이용하여 공사현장의 어느 위치에 있던지 그를 기준으로 하는 VR 영상을 제공한다. 360도 VR 영상이 가능하게 된다. 예를 들어, 카메라 1과 카메라 2의 촬영영상에서 시간 t1에 해당하는 단위 프레임 영상을 각각 취득할 수 있다. 그리고, 두 개의 단위 프레임 영상을 이용하여 그 가운데에 위치하는 보간 영상을 생성할 수도 있다. 이와 같은 방식으로 각 각도별 보간 영상을 생성한 후 모든 영상들을 스티칭함으로써 360도 VR 영상을 생성할 수 있는 것이다.However, the VR image processing unit 220 according to the embodiment of the present invention provides a VR image based on the location of the construction site using the captured images obtained from a plurality of cameras. 360 degree VR video is possible. For example, unit frame images corresponding to time t1 may be acquired from the captured images of the camera 1 and the camera 2, respectively. Also, an interpolated image located in the middle may be generated using two unit frame images. In this way, a 360-degree VR image can be created by creating an interpolated image for each angle and then stitching all the images.

또한, VR 영상처리부(220)는 VR 영상의 생성시 생성된 VR 영상에 좌표값을 설정하여 저장함으로써 이를 근거로 VR 영상의 관제가 가능하도록 할 수 있다. 물론 그러한 좌표 즉 관제하고자 하는 시점(view)은 2차원 좌표값으로 제공되지만, 가령 관제요원에 의해 2차원 좌표값으로 요청되지만, 이를 3차원 좌표값으로 변환하여 이를 근거로 VR 영상의 관제가 이루어지도록 할 수 있다. 물론 이러한 동작을 수행하기 위해서는 2차원 좌표값과 3차원 좌표값을 룩업테이블(LUT) 등에 매칭시켜 저장한 후 이를 근거로 VR 영상의 출력이 이루어지도록 할 수 있다.Also, the VR image processing unit 220 may set and store coordinate values in the generated VR image when the VR image is generated, so that the VR image can be controlled based on the set coordinate value. Of course, such coordinates, that is, the view to be controlled, are provided as two-dimensional coordinate values. For example, although a two-dimensional coordinate value is requested by the controller, it is converted into a three-dimensional coordinate value and the VR image is controlled based on this. can make it go away Of course, in order to perform such an operation, the two-dimensional coordinate value and the three-dimensional coordinate value may be matched and stored in a lookup table (LUT), etc., and then the VR image may be output based on this.

무엇보다 VR 영상처리부(220)는 VR 배경영상에 정확한 객체를 삽입 혹은 오버랩하기 위하여 딥러닝 동작에 의해 객체를 정확히 구별한다. 예를 들어, 공사 현장 내에서 발파 작업이 이루어진다고 가정할 때, 이에 의하여 새롭게 생성되는 돌 등의 객체는 정확한 판별이 어려울 수 있다. 특히, CCTV를 통해 취득되는 촬영영상을 통해서는 분별이 더욱 어려울 수 있다. 따라서 이의 경우에는 정확한 판별을 위하여 객체 분류를 위한 딥러닝 동작을 수행하고, 딥러닝에 의해 최종적으로 분류된 객체를 배경영상에 오버랩할 수 있다. 무엇보다 오버랩을 위해서는 객체의 뎁스 정보가 필요하지만, 이는 앞서 다양한 형태로 취득될 수 있음을 설명한 바 있다. 3D 카메라를 사용하는 경우에는 카메라 자체적으로 뎁스 정보를 제공하므로 이를 이용할 수 있다. 만약, IP 카메라나 CCTV를 이용하는 경우에는 화소 분석을 이용하되, 스캐너장치(115)에서 스캔한 스캔 데이터를 더 이용할 수 있다. 예를 들어, 공사현장 내의 A 작업자와 C 작업자 사이에 B 작업자의 비콘장치가 감지되지 않거나, 오류가 발생한 경우를 가정해 보자. 이의 경우 A와 C 작업자의 거리를 근거로 B 작업자의 거리를 유추할 수 있다. 따라서 해당 거리값을 뎁스 정보로 사용할 수 있다.Above all, the VR image processing unit 220 accurately distinguishes an object by a deep learning operation in order to insert or overlap an accurate object in the VR background image. For example, assuming that a blasting operation is performed within a construction site, it may be difficult to accurately identify an object such as a stone newly created by this. In particular, it may be more difficult to distinguish through the captured images obtained through CCTV. Therefore, in this case, a deep learning operation for object classification may be performed for accurate identification, and the object finally classified by deep learning may be overlapped with the background image. Above all, although depth information of an object is required for overlap, it has been described above that it can be acquired in various forms. When a 3D camera is used, the camera itself provides depth information, so it can be used. If an IP camera or CCTV is used, pixel analysis is used, but scan data scanned by the scanner device 115 may be further used. For example, suppose that the beacon device of worker B is not detected or an error occurs between worker A and worker C in the construction site. In this case, the distance of worker B can be inferred based on the distance between workers A and C. Therefore, the corresponding distance value may be used as depth information.

예를 들어, 카메라 1을 지정하여 VR 영상을 시청하면서 공사현장을 관제하는 경우와, 카메라 2를 지정하여 VR 영상을 시청하면서 공사현장을 관제하는 VR 영상은 바라보는 위치 즉 뷰가 다르므로 각각의 VR 영상이 생성되어 이의 영상이 출력된다고 볼 수 있고, 이를 위하여 VR 영상처리부(220)는 각 위치에 해당하는 VR 영상을 기생성할 수 있지만, 실시간으로 생성하여 보여주는 것도 얼마든지 가능할 수 있다. VR 영상의 생성 방법과 관련해서는 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다. 다만, 다시점을 활용하는 경우, VR 영상 생성을 위한 데이터 처리량이 증가하므로, 선택가능한 시점을 디폴트(default)로 설정하고, 다시 말해, 선택 가능한 시점을 줄이고 그 중에서 하나를 선택하여 시청하도록 할 수 있다.For example, in the case of specifying camera 1 to control the construction site while watching VR images, and the case of specifying camera 2 to control the construction site while watching VR images, the viewing position, that is, the view is different, so each It can be seen that a VR image is generated and an image thereof is output. For this purpose, the VR image processing unit 220 may pre-generate a VR image corresponding to each location, but it may be possible to generate and display the VR image in real time. Since the VR image generation method has been sufficiently described above, we will replace it with the contents. However, if multiple views are used, data processing for VR image generation increases, so selectable viewpoints can be set as default, in other words, selectable viewpoints can be reduced and one can be selected for viewing. have.

또한, VR 영상처리부(220)는 제어부(210)와 연계하여 VR 영상을 구현하는 별도의 VR 장치로 VR 영상을 전송할 수도 있다. 따라서, VR 영상처리부(220)는 기존의 공사현장의 촬영영상이나 기타 영상은 전광판과 같은 대쉬보드에 출력하지만, VR 영상은 헤드마운팅장치(HMD)와 같은 VR 장치를 통해 관제가 이루어지도록 할 수도 있다. VR 장치는 3D의 구현이 가능한 (마이크로) 렌티큘러 렌즈 등의 패널(panel)을 구비함으로써 이를 통해 VR 영상의 구현이 가능할 수 있다.Also, the VR image processing unit 220 may transmit the VR image to a separate VR device that implements the VR image in conjunction with the controller 210 . Therefore, the VR image processing unit 220 outputs the existing photographed images or other images of the construction site to a dashboard such as an electric sign board, but the VR image may be controlled through a VR device such as a head mounting device (HMD). have. The VR device may be provided with a panel such as a (micro) lenticular lens capable of realizing 3D, so that it may be possible to implement a VR image.

저장부(230)는 제어부(210)의 제어하에 처리되는 다양한 정보나 데이터를 임시 저장할 수 있으며, 제어부(210)의 요청이 있을 때 출력할 수 있다. 출력된 데이터는 VR 영상처리부(220)에 제공될 수 있다. 여기서, 정보나 데이터의 의미를 구분하는 것은 무의미하며, 혼용되는 것이 일반적이다. 정보는 요청(REQ)이나 응답(ACK)과 같은 제어 명령을 의미할 수 있고, 데이터는 촬영영상의 영상 데이터나 스캐너장치(115)의 스캔 데이터를 의미할 수 있다. 또한, 데이터 패킷을 통해 살펴볼 때 헤더부는 부가 정보 등을 포함하며, 페이로드부는 화소 데이터 등을 포함한다. 이러한 정도로 이해될 수 있지만, 본 발명의 실시예에서는 그러한 용어의 개념에 특별히 한정하지는 않을 것이다.The storage unit 230 may temporarily store various types of information or data processed under the control of the control unit 210 , and may output the information when there is a request from the control unit 210 . The output data may be provided to the VR image processing unit 220 . Here, it is meaningless to distinguish the meaning of information or data, and it is common to mix them. The information may mean a control command such as a request (REQ) or a response (ACK), and the data may mean image data of a captured image or scan data of the scanner device 115 . Also, when viewed through the data packet, the header portion includes additional information and the like, and the payload portion includes pixel data and the like. Although it can be understood to this extent, in the embodiments of the present invention, the concept of such terms is not particularly limited.

한편, 본 발명의 다른 실시예로서, 도 2의 제어부(210)는 CPU와 메모리를 포함하며, CPU와 메모리는 원칩화하여 구성될 수 있다. 제어부(210)는 제어회로, 연산부(ALU), 명령어해석부, 레지스트리 등을 포함할 수 있으며, 메모리는 램(RAM)을 포함할 수 있다. 제어회로는 제어 동작을, 연산부는 2진 비트정보의 연산처리를, 그리고 명령어해석부는 입력된 2진 비트정보가 어떠한 동작의 수행에 관련되는지를 해석할 수 있다. 여기서, 해석은 룩업테이블(LUT)상의 좌측과 우측에 데이터를 매칭한 후 제어회로가 좌측 데이터를 근거로 우측의 데이터를 찾아 동작을 수행하는 것일 수 있다. 레지스트리는 소프트웨어적인 데이터 저장에 관여한다. 상기의 구성에 따라 CPU는 공사현장 안전관리장치(130)의 초기 구동시 VR 영상처리부(220)의 프로그램을 복사하여 메모리에 로딩한 후 이를 실행시켜 데이터 처리 속도를 빠르게 증가시킬 수 있게 된다.Meanwhile, as another embodiment of the present invention, the control unit 210 of FIG. 2 includes a CPU and a memory, and the CPU and the memory may be configured as a single chip. The control unit 210 may include a control circuit, an operation unit (ALU), a command interpretation unit, a registry, and the like, and the memory may include a RAM. The control circuit may perform a control operation, the operation unit may interpret the operation processing of binary bit information, and the instruction interpreter may interpret whether the input binary bit information is related to the performance of any operation. Here, the analysis may be that after matching the data on the left and right sides of the lookup table (LUT), the control circuit finds the data on the right based on the data on the left and performs the operation. The registry is involved in software data storage. According to the above configuration, the CPU copies the program of the VR image processing unit 220 when the construction site safety management device 130 is initially driven, loads it into the memory, and executes it to quickly increase the data processing speed.

도 3은 도 2의 VR 영상처리부의 구조를 예시한 블록다이어그램이다.3 is a block diagram illustrating the structure of the VR image processing unit of FIG. 2 .

도 3의 VR 영상처리부(220')는 도 2의 VR 영상처리부(220)의 변형된 예로서, VR 배경생성부(300), 객체딥러닝부(310), 객체이미지생성부(320), 그리고 (배경 및 객체) VR 영상생성부(330)이 일부 또는 전부를 포함한다.The VR image processing unit 220 ′ of FIG. 3 is a modified example of the VR image processing unit 220 of FIG. 2 , and includes a VR background generation unit 300 , an object deep learning unit 310 , an object image generation unit 320 , And the (background and object) VR image generating unit 330 includes some or all.

여기서, "일부 또는 전부를 포함한다"는 것은 객체이미지 생성부(320)와 같은 일부 구성요소가 생략되어 구성되거나, VR 배경생성부(300) 또는 객체이미지생성부(320)가 VR 영상생성부(330)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, “including some or all” means that some components such as the object image generator 320 are omitted, or the VR background generator 300 or the object image generator 320 is a VR image generator As meaning that can be configured by being integrated in (330), it will be described as including all in order to help a sufficient understanding of the invention.

도 3의 VR 배경생성부(300), 객체딥러닝부(310), 객체이미지생성부(320), 그리고 VR 영상생성부(330)는 하드웨어(H/W) 모듈, 소프트웨어(S/W) 모듈 또는 그 조합에 의해 구성될 수 있다.The VR background generating unit 300, the object deep learning unit 310, the object image generating unit 320, and the VR image generating unit 330 of FIG. 3 are a hardware (H/W) module, a software (S/W) It may be configured by a module or a combination thereof.

VR 배경생성부(300)는 카메라(113)로부터 수신되는 촬영영상을 근거로 공사현장의 내부 모습에 대한 VR 배경영상을 생성한다. 여기서, VR 배경영상은 3D 카메라를 통해 수신되는 3D 촬영영상을 이용할 수 있으며, IP 카메라나 CCTV 등을 통해 촬영된 촬영영상을 이용할 수도 있다. 물론 3D 촬영영상의 경우, VR 영상을 생성하기에 더욱 수월할 수 있다. 수신된 3D 촬영영상을 이용하여 각도별 VR 영상을 생성함으로써 360 VR 배경 영상을 얻을 수 있다.The VR background generating unit 300 generates a VR background image of the interior of the construction site based on the captured image received from the camera 113 . Here, the VR background image may use a 3D captured image received through a 3D camera, or may use a captured image captured through an IP camera or CCTV. Of course, in the case of a 3D photographed image, it may be easier to create a VR image. A 360 VR background image can be obtained by generating a VR image for each angle using the received 3D captured image.

또한, VR 배경생성부(300)는 앞서 언급한 대로, 서로 다른 위치에 설치되는 카메라(113)의 촬영영상들에 대하여 동일 시간에 해당하는 단위 프레임 영상을 스티칭하여 VR 배경영상을 생성할 수 있다. 예를 들어, 카메라 1에 대하여 카메라 2는 특정 각도를 갖는 위치에 해당한다. 따라서, 해당 카메라 2의 단위 프레임 영상을 카메라 1의 단위 프레임 영상과 결합함으로써 각도별 VR 영상을 생성할 수 있다. 물론 두 개의 영상 사이에 보간 영상을 생성하여 결합함으로써 많은 각도 변화에서 좀더 스무드(smooth) 즉 유연한 VR 영상을 구현해 낼 수 있을 것이다.In addition, as mentioned above, the VR background generating unit 300 may generate a VR background image by stitching unit frame images corresponding to the same time to the captured images of the cameras 113 installed at different locations. . For example, with respect to camera 1, camera 2 corresponds to a position having a specific angle. Accordingly, by combining the unit frame image of the corresponding camera 2 with the unit frame image of the camera 1, a VR image for each angle can be generated. Of course, by creating and combining an interpolated image between the two images, it will be possible to realize a smoother, that is, a flexible VR image in many angle changes.

객체딥러닝부(310)는 객체 분류를 위한 가령 탬플릿 기반의 DCNN(Deep Convolution Neural Network) 분류기를 포함할 수 있으며, 분류 결과를 인공지능(AI) 등의 딥러닝을 통해 객체의 판별 정확도를 높일 수 있다. 예를 들어, 공사현장에서 발파 작업이 있을 때 대표적으로 돌이 감지될 수 있지만, 이외에도 다양한 객체들이 감지될 수 있으므로, 딥러닝을 통해 이를 명확히 분류하여 VR 영상에 구현되도록 할 수 있을 것이다.The object deep learning unit 310 may include, for example, a template-based Deep Convolution Neural Network (DCNN) classifier for object classification, and use the classification result to increase the object identification accuracy through deep learning such as artificial intelligence (AI). can For example, a stone can be typically detected when there is a blasting operation at a construction site, but various objects can be detected, so it can be clearly classified through deep learning and implemented in a VR image.

객체이미지생성부(320)는 수신된 촬영영상에서 객체의 뎁스 정보를 산출하거나, 3D 촬영영상에서는 뎁스 정보가 제공되므로, 이를 이용할 수도 있다. 또한, 객체이미지생성부(320)는 수신된 촬영영상의 단위 프레임 영상에서 객체를 이미지 형태로 추출하여 이를 관리할 수 있다. 이미지화는 추출한 객체를 그래픽 처리하거나 보정하는 등의 동작을 포함할 수 있다. 객체이미지생성부(320)는 추출한 객체 이미지를 뎁스 정보에 따라 VR 배경 영상에 삽입하도록 배경 및 객체 VR 영상생성부(330)로 제공할 수 있다.The object image generator 320 calculates depth information of an object from a received captured image or, since depth information is provided from a 3D captured image, it may be used. Also, the object image generating unit 320 may extract an object in the form of an image from a unit frame image of the received captured image and manage it. Imaging may include operations such as graphic processing or correction of the extracted object. The object image generator 320 may provide the extracted object image to the background and object VR image generator 330 to insert the extracted object image into the VR background image according to the depth information.

VR 영상생성부(330)는 VR 배경영상에 객체 영상(혹은 객체 이미지)을 오버랩하여 VR 영상을 생성한다. 오버랩은 통상 증강현실과 같이 VR 배경영상의 레이어(layer)와 객체영상의 레이어가 서로 다르고, 객체영상은 객체를 제외한 나머지 영역이 투명한 상태를 유지함으로써 영상이 구현되는 것을 의미할 수 있다. 그러나, 본 발명의 실시예에서는 그러한 방식에 특별히 한정하지는 않을 것이다. 이를 통해 공사현장의 특정 위치에서 내부 공간을 관제하는 것과 같은 효과를 얻을 수 있다.The VR image generating unit 330 creates a VR image by overlapping the object image (or object image) on the VR background image. The overlap may mean that the layer of the VR background image and the layer of the object image are different from each other like in augmented reality, and the image of the object image is implemented by maintaining a transparent state in the remaining area except for the object. However, in the embodiment of the present invention, it will not be particularly limited to such a method. Through this, it is possible to obtain the same effect as controlling the internal space at a specific location on the construction site.

도 4는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 구동 과정을 나타내는 흐름도이다.4 is a flowchart illustrating a driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention.

설명의 편의상 도 4를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 도 1의 (가상현실 기반의) 공사현장 안전관리장치(130)는 작업현장의 카메라로부터 작업현장을 촬영한 촬영영상을 수신한다(S400).Referring to FIG. 4 together with FIG. 1 for convenience of explanation, the (virtual reality-based) construction site safety management device 130 of FIG. 1 according to an embodiment of the present invention is a photographed image of a work site from a camera of the work site. is received (S400).

또한, 공사현장 안전관리장치(130)는 수신한 촬영영상을 이용해 작업현장의 모습에 대한 가상현실(VR)의 배경영상을 생성하고, 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 객체를 이미지화하며, (기)생성한 VR 배경영상과 이미지화한 객체를 합성(혹은 조합, 오버레이)하여 작업현장의 VR 영상을 생성해 출력한다(S410).In addition, the construction site safety management device 130 generates a virtual reality (VR) background image of the appearance of the work site using the received captured image, and based on the deep learning result of the object extracted from the received captured image, the object image, and synthesize (or combine, overlay) the generated VR background image and the imaged object to generate and output a VR image of the worksite (S410).

여기서, 객체를 이미지화한다는 것은 단위 프레임 영상에서 객체를 추출하고, 추출한 객체에 대하여 GUI 그래픽 처리를 수행하는 것을 의미할 수 있다. 또는 추출한 객체의 화소값을 분석하여 이를 VR 배경영상에 구현할 수 있다.Here, imaging an object may mean extracting an object from a unit frame image and performing GUI graphic processing on the extracted object. Alternatively, by analyzing the pixel value of the extracted object, it can be implemented in the VR background image.

이외에도 작업현장 안전관리장치(130)는 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition, the workplace safety management device 130 may perform various operations, and since the other detailed information has been sufficiently described above, it will be replaced with the contents.

도 5는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 다른 구동 과정을 나타내는 흐름도이다.5 is a flowchart illustrating another driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention.

설명의 편의상 도 5를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 도 1의 작업현장 안전관리장치(130)는 가령 작업현장의 카메라(113)에서 작업현장을 촬영하여 제공하는 영상을 수신한다(S500).Referring to FIG. 5 together with FIG. 1 for convenience of explanation, the workplace safety management device 130 of FIG. 1 according to an embodiment of the present invention provides an image provided by photographing the workplace by, for example, the camera 113 of the workplace. Receive (S500).

또한 작업현장 안전관리장치(130)는 수신한 촬영영상을 이용하여 VR 배경영상을 생성한다(S510). VR 배경영상을 생성하기 위하여 작업현장 안전관리장치(130)는 수신한 촬영영상의 각도별 영상을 생성하고, 이를 결합하는 형태로 VR 배경 영상을 생성할 수 있다. 이와 관련해서는 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition, the workplace safety management device 130 generates a VR background image using the received captured image (S510). In order to generate a VR background image, the workplace safety management device 130 may generate an image for each angle of the received captured image, and may generate a VR background image in the form of combining them. Since this has been sufficiently explained above, we will replace it with those contents.

작업현장 안전관리장치(130)는 수신한 촬영영상의 단위 프레임 영상에서 객체를 추출하고, 추출한 객체에 대하여 학습을 수행하여 객체를 정의한다(S520, S530). 객체는 대표적으로 작업자(예: 비콘정보)나 장비(예: 장비 데이터)일 수 있지만, 가령 각종 공사작업 중에 새롭게 투입되거나, 또는 발파작업 중에 새롭게 발견되는 돌 등이 될 수 있다. 객체 정의를 위하여 학습 DB를 검색할 수 있다.The workplace safety management device 130 extracts an object from the unit frame image of the received captured image, and performs learning on the extracted object to define the object (S520, S530). The object may typically be a worker (eg, beacon information) or equipment (eg, equipment data), but may be, for example, a stone newly introduced during various construction works or newly discovered during a blasting operation. You can search the learning DB for object definition.

또한, 작업현장 안전관리장치(130)는 VR 배경영상에 위의 추출한 객체를 삽입하기 위하여 뎁스 정보를 생성할 수도 있다. 예를 들어, 3D 카메라를 사용하는 경우에는 뎁스 정보를 카메라에서 제공하므로 이를 근거로 360도 VR 영상에 적용하기 위하여 뎁스 정보를 활용할 수 있다. 만약, CCTV나 IP 카메라와 같이 촬영영상의 단위 프레임 영상에서 뎁스 정보를 산출하기가 어려운 경우에는 비콘정보 등을 활용하여 뎁스 정보를 생성할 수 있다. 예를 들어, A 작업자의 위치와 B 작업자의 사이에 추적되지 않는 특정 객체가 위치하는 경우, 가령 화소 분석 결과 A 작업자의 위치에 가까운 경우 이를 근거로 뎁스 정보를 생성할 수 있다. 이와 같이 뎁스 정보를 생성시 비콘 정보를 이용할 수도 있다. 해당 객체에 대한 좌표값은 메모리에 3차원 좌표(x, y, z)로 설정할 수 있다.In addition, the workplace safety management device 130 may generate depth information in order to insert the above extracted object into the VR background image. For example, in the case of using a 3D camera, since the camera provides depth information, the depth information can be utilized to apply it to a 360-degree VR image based on this. If it is difficult to calculate depth information from a unit frame image of a captured image, such as a CCTV or an IP camera, the depth information may be generated by using beacon information or the like. For example, when a specific object that is not tracked is located between the position of the worker A and the position of the worker B, for example, when the pixel analysis result is close to the position of the worker A, depth information may be generated based on this. In this way, when the depth information is generated, beacon information may be used. The coordinate value of the corresponding object can be set in memory as three-dimensional coordinates (x, y, z).

나아가, 작업현장 안전관리장치(130)는 추출한 객체의 화소분석을 통해 객체를 이미지화하고, 생성한 VR 배경영상에 오버랩하여 VR 영상을 생성한다(S540, S550). VR 배경에 객체 이미지를 오버랩할 때 위의 뎁스 정보를 반영하여, 각도별로 360도 VR 영상의 구현이 가능하도록 할 수 있다. 예를 들어, 객체의 경우에도 입체적으로 이미지화를 통해 입체적으로 구현이 될 수 있을 것이다.Furthermore, the workplace safety management device 130 images the object through pixel analysis of the extracted object, and creates a VR image by overlapping the generated VR background image (S540, S550). When overlapping the object image on the VR background, the above depth information may be reflected to enable the realization of a 360-degree VR image for each angle. For example, even in the case of an object, it may be implemented three-dimensionally through three-dimensional imaging.

또한, 작업현장 안전관리장치(130)는 VR 영상을 표시한다(S560). VR 영상은 관제센터의 전광판 등에 구현될 수 있지만, 공사현장을 모니터링하는 관제요원이나 감독관이 별도로 착용하는 VR 장치를 통해 이를 시청하는 것도 얼마든지 가능할 수 있을 것이다.In addition, the workplace safety management device 130 displays the VR image (S560). VR images can be implemented on electronic display boards in the control center, but it will be possible to watch them through a VR device that is separately worn by the control personnel or supervisors monitoring the construction site.

상기한 내용 이외에도 작업현장 안전관리장치(130)와 관련한 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, detailed information related to the workplace safety management device 130 has been sufficiently described above, so it will be replaced with the contents.

한편, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.On the other hand, even though it has been described that all components constituting the embodiment of the present invention are combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more. In addition, although all of the components may be implemented as one independent hardware, some or all of the components are selectively combined to perform some or all functions of the combined components in one or a plurality of hardware program modules It may be implemented as a computer program having Codes and code segments constituting the computer program can be easily deduced by those skilled in the art of the present invention. Such a computer program is stored in a computer-readable non-transitory computer readable media, read and executed by the computer, thereby implementing an embodiment of the present invention.

여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, the non-transitory readable recording medium refers to a medium that stores data semi-permanently and can be read by a device, not a medium that stores data for a short moment, such as a register, cache, memory, etc. . Specifically, the above-described programs may be provided by being stored in a non-transitory readable recording medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and it is common in the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Various modifications may be made by those having the knowledge of, of course, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100: 사용자장치 113, 115, 117: 현장설치장치
120: 통신망 130: 공사현장 안전관리장치
200: 통신 인터페이스부 210: 제어부
220: VR 영상처리부 230: 저장부
300: VR 배경생성부 310: 객체딥러닝부
320: 객체이미지생성부 330: VR 영상생성부
100: user device 113, 115, 117: field installation device
120: communication network 130: construction site safety management device
200: communication interface unit 210: control unit
220: VR image processing unit 230: storage unit
300: VR background generation unit 310: object deep learning unit
320: object image generation unit 330: VR image generation unit

Claims (10)

작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 통신 인터페이스부; 및
상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 제어부;를
포함하는 가상현실 기반의 작업현장 안전관리장치.
a communication interface unit for receiving a photographed image of the work site from a camera of the work site; and
A virtual reality (VR) background image for the appearance of the work site is generated using the received captured image, the object is imaged based on the deep learning result of the object extracted from the received captured image, and the generated VR A control unit for generating and outputting a VR image of the work site by synthesizing the background image and the imaged object;
Virtual reality-based workplace safety management device including.
제1항에 있어서,
상기 제어부는, 상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭(stiching)하여 상기 VR 배경영상을 생성하는 가상현실 기반의 작업현장 안전관리장치.
According to claim 1,
The control unit extracts a unit frame image of the same time from each captured image received from a plurality of cameras installed at different locations in the work site and stitches each extracted unit frame image to the VR background A virtual reality-based workplace safety management device that generates images.
제2항에 있어서,
상기 제어부는 상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이(depth) 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성하는 가상현실 기반의 작업현장 안전관리장치.
3. The method of claim 2,
The control unit analyzes the received captured image to acquire depth information of the extracted object, and applies the acquired depth information to synthesize the imaged object in the VR background image. management device.
제3항에 있어서,
상기 제어부는 상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용하는 가상현실 기반의 작업현장 안전관리장치.
4. The method of claim 3,
The control unit further uses a distance value calculated by beacon information received in relation to the extracted object in order to acquire depth information of the extracted object.
제3항에 있어서,
상기 제어부는, 상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환하는 가상현실 기반의 작업현장 안전관리장치.
4. The method of claim 3,
The control unit, a virtual reality-based workplace safety management device for switching to a VR image control mode when an error is detected in an event or the object in the workplace.
통신 인터페이스부가, 작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 단계; 및
제어부가, 상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 단계;를
포함하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
receiving, by the communication interface unit, a photographed image of the work site from a camera of the work site; and
The control unit generates a virtual reality (VR) background image for the appearance of the work site using the received captured image, and images the object based on the deep learning result of the object extracted from the received captured image, A step of synthesizing the generated VR background image and the imaged object to generate and output a VR image of the work site;
A driving method of a virtual reality-based workplace safety management device including.
제6항에 있어서,
상기 생성해 출력하는 단계는,
상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭하여 상기 VR 배경영상을 생성하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
7. The method of claim 6,
The step of generating and outputting the above is,
Based on virtual reality that extracts unit frame images of the same time from each captured image received from a plurality of cameras installed at different locations in the work site and stitches each extracted unit frame image to generate the VR background image The operation method of the workplace safety management device of
제7항에 있어서,
상기 생성해 출력하는 단계는,
상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
8. The method of claim 7,
The step of generating and outputting the above is,
A method of driving a virtual reality-based workplace safety management device that analyzes the received captured image to acquire depth information of the extracted object, and synthesizes the imaged object with the VR background image by applying the acquired depth information.
제8항에 있어서,
상기 생성해 출력하는 단계는,
상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
9. The method of claim 8,
The step of generating and outputting the above is,
A driving method of a virtual reality-based workplace safety management device further using a distance value calculated by beacon information received in relation to the extracted object in order to acquire depth information of the extracted object.
제8항에 있어서,
상기 생성해 출력하는 단계는,
상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.
9. The method of claim 8,
The step of generating and outputting the above is,
A driving method of a virtual reality-based workplace safety management device for switching to a VR image control mode when an error is detected in an event or the object in the workplace.
KR1020200049834A 2020-04-24 2020-04-24 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof KR102468685B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200049834A KR102468685B1 (en) 2020-04-24 2020-04-24 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200049834A KR102468685B1 (en) 2020-04-24 2020-04-24 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof

Publications (2)

Publication Number Publication Date
KR20210131581A true KR20210131581A (en) 2021-11-03
KR102468685B1 KR102468685B1 (en) 2022-11-21

Family

ID=78505031

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200049834A KR102468685B1 (en) 2020-04-24 2020-04-24 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof

Country Status (1)

Country Link
KR (1) KR102468685B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863489A (en) * 2022-07-05 2022-08-05 河北工业大学 Movable intelligent construction site auxiliary inspection method and system based on virtual reality

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150086278A (en) * 2012-11-16 2015-07-27 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Associating an object with a subject
KR20180095261A (en) * 2017-02-17 2018-08-27 주식회사 영신 IOT Based Safety Management System for Construction Site Using the RTLS and Video Control Technology
KR101944823B1 (en) 2018-06-07 2019-02-07 (주)영신디엔씨 Underground Facilities Detection System Using Augmented Reality and Virtual Reality
KR20190032084A (en) * 2017-09-19 2019-03-27 한국전자통신연구원 Apparatus and method for providing mixed reality content
KR20190056935A (en) * 2017-11-17 2019-05-27 주식회사 코이노 Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same
KR102014652B1 (en) 2018-08-23 2019-08-27 (주)알비디케이 AR/VR based integrated building sales system
KR102074684B1 (en) 2018-03-21 2020-02-20 (주)브이알에이포인트 Method for providing ar or vr image based on location information and direction information
KR20200030784A (en) 2018-09-13 2020-03-23 (주)이노시스 Real time multi-image information providing system
KR20200031312A (en) 2018-09-14 2020-03-24 서광훈 Method for providing interior service based virtual reality

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150086278A (en) * 2012-11-16 2015-07-27 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Associating an object with a subject
KR20180095261A (en) * 2017-02-17 2018-08-27 주식회사 영신 IOT Based Safety Management System for Construction Site Using the RTLS and Video Control Technology
KR20190032084A (en) * 2017-09-19 2019-03-27 한국전자통신연구원 Apparatus and method for providing mixed reality content
KR20190056935A (en) * 2017-11-17 2019-05-27 주식회사 코이노 Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same
KR102074684B1 (en) 2018-03-21 2020-02-20 (주)브이알에이포인트 Method for providing ar or vr image based on location information and direction information
KR101944823B1 (en) 2018-06-07 2019-02-07 (주)영신디엔씨 Underground Facilities Detection System Using Augmented Reality and Virtual Reality
KR102014652B1 (en) 2018-08-23 2019-08-27 (주)알비디케이 AR/VR based integrated building sales system
KR20200030784A (en) 2018-09-13 2020-03-23 (주)이노시스 Real time multi-image information providing system
KR20200031312A (en) 2018-09-14 2020-03-24 서광훈 Method for providing interior service based virtual reality

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863489A (en) * 2022-07-05 2022-08-05 河北工业大学 Movable intelligent construction site auxiliary inspection method and system based on virtual reality
CN114863489B (en) * 2022-07-05 2022-09-20 河北工业大学 Virtual reality-based movable intelligent auxiliary inspection method and system for construction site

Also Published As

Publication number Publication date
KR102468685B1 (en) 2022-11-21

Similar Documents

Publication Publication Date Title
US11710322B2 (en) Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US11867816B2 (en) Laser gas detector and laser gas detection system
EP2613296B1 (en) Mixed reality display system, image providing server, display apparatus, and display program
US10013795B2 (en) Operation support method, operation support program, and operation support system
KR102111935B1 (en) Display control apparatus, display control method, and program
JP2016213815A (en) Method of providing vehicle surrounding view image, and device and computer readable recording medium therefor
US20170185867A1 (en) Image processing apparatus and method
US20200106818A1 (en) Drone real-time interactive communications system
KR101045323B1 (en) Realtime image control system using multiple view point camera and control method therefor
KR101048508B1 (en) System and method for realtime monitoring of harbor image using smart device
CN115597659B (en) Intelligent safety management and control method for transformer substation
WO2019019819A1 (en) Mobile electronic device and method for processing tasks in task region
KR102327872B1 (en) Apparatus for Extracting GPS Coordinate of Image-based Tracking Object and Driving Method Thereof
US20190164325A1 (en) Augmented reality positioning and tracking system and method
KR102468685B1 (en) Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof
CN111199584A (en) Target object positioning virtual-real fusion method and device
KR101410985B1 (en) monitoring system and monitoring apparatus using security camera and monitoring method thereof
CN112528699A (en) Method and system for obtaining identification information of a device or its user in a scene
KR101700651B1 (en) Apparatus for tracking object using common route date based on position information
JP5514062B2 (en) Electronic device, imaging screen display method with information, and program
JP6368503B2 (en) Obstacle monitoring system and program
KR101432512B1 (en) Virtual image displaying apparatus for load control
KR102008672B1 (en) System for Performing Linkage Operation of Augmented Reality and Event in Association with Camera and Driving Method Thereof
KR101356172B1 (en) Apparatus and method for producing three-dimensional image for remote control
WO2021131023A1 (en) Head-mounted information output device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant