KR102468685B1 - Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof - Google Patents
Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof Download PDFInfo
- Publication number
- KR102468685B1 KR102468685B1 KR1020200049834A KR20200049834A KR102468685B1 KR 102468685 B1 KR102468685 B1 KR 102468685B1 KR 1020200049834 A KR1020200049834 A KR 1020200049834A KR 20200049834 A KR20200049834 A KR 20200049834A KR 102468685 B1 KR102468685 B1 KR 102468685B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- work site
- virtual reality
- safety management
- extracted
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S1/00—Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
- G01S1/02—Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using radio waves
- G01S1/68—Marker, boundary, call-sign, or like beacons transmitting signals not carrying directional information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
본 발명은 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법에 관한 것으로서, 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치는, 작업현장의 카메라로부터 작업현장을 촬영한 촬영영상을 수신하는 통신 인터페이스부, 및 수신한 촬영영상을 이용해 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 객체를 이미지화하며, 생성한 VR 배경영상과 이미지화한 객체를 합성하여 작업현장의 VR 영상을 생성해 출력하는 제어부를 포함할 수 있다.The present invention relates to a virtual reality-based workplace safety management device and a driving method of the device. A communication interface unit that receives the captured image, and a virtual reality (VR) background image for the scene of the work site is created using the received captured image, and the object is imaged based on the deep learning result of the object extracted from the received captured image. And, it may include a control unit for generating and outputting a VR image of the work site by synthesizing the generated VR background image and the imaged object.
Description
본 발명은 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법에 관한 것으로서, 가령 터널 공사 등과 같은 작업현장에서 위치 추적을 위한 신호가 감지되지 않는 객체(예: 물건/사람/장비 등)나 신호의 오류시에도 가상현실(VR) 영상 등을 통해 작업 현장을 용이하게 모니터링할 수 있는 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법에 관한 것이다.The present invention relates to a virtual reality-based safety management device at a work site and a method for driving the device, and relates to an object (e.g., object/person/equipment, etc.) for which a signal for location tracking is not detected at a work site such as tunnel construction. It relates to a virtual reality-based workplace safety management device that can easily monitor the workplace through virtual reality (VR) images even in the event of a signal error, and a method for driving the device.
일반적으로 건설, 토목, 플랜트 등 현장에서는 각 작업자별 안전이 최우선적으로 요구된다 할 것이다. 하지만, 현재까지 이러한 작업자들의 개인별 안전은 사전 교육 등이 이루어지는 것이 대부분이고 실제 작업 현장에 투입되는 경우에는 각 개인별로 자기 스스로 안전을 담당하는 것이 일반적이다. 최근 들어서는 스마트기기 및 웨어러블 장치들의 개발들로 인해 작업자들의 위치나 신체 정보 등을 중앙관제서버에서도 확인이 가능하도록 하는 시스템도 일부 제안되어지고 있다.In general, it will be said that the safety of each worker is required as the top priority in construction, civil engineering, and plant sites. However, until now, most of the safety of these workers has been conducted in advance, and in the case of being put into the actual work site, it is common for each individual to be in charge of safety by himself. In recent years, due to the development of smart devices and wearable devices, some systems have been proposed that enable the central control server to check the location or body information of workers.
종래의 터널 등과 같은 작업공간에서의 모니터링 시스템은 일반적으로 CCTV(Closed Circuit Television)를 통해 표시되는 영상을 감시하여 관제센터에서 관리 감독하는 것이 일반적이다. 이러한 CCTV로만 작업 현장을 모니터링하는 경우 정확한 객체에 대한 위치와 정보를 실시간으로 확인하는 것이 어려웠다.A monitoring system in a work space such as a conventional tunnel is generally managed and supervised by a control center by monitoring images displayed through CCTV (Closed Circuit Television). In the case of monitoring the work site only with these CCTVs, it was difficult to check the exact location and information of the object in real time.
이를 보완하기 위해 또한 종래에는 비콘이나 비콘스캐너 등을 이용하여 일정 공간 내의 객체에 대한 정보를 확인할 수는 있으나 비콘신호가 없는 객체나 또는 비콘신호 등에 오류가 발생하는 경우, 나아가 다양하게 변화하는 실시간 현장 내의 상황 정보를 제대로 확인할 수 없는 경우도 많이 발생하고 있다.In order to compensate for this, conventionally, it is possible to check information on an object within a certain space using a beacon or a beacon scanner, but when an error occurs in an object without a beacon signal or a beacon signal, furthermore, variously changing real-time sites There are many cases where it is not possible to properly check the situation information inside.
본 발명의 실시예는 가령 터널 공사 등과 같은 작업현장에서 위치 추적을 위한 신호가 감지되지 않는 객체나 신호의 오류시에도 가상현실(VR) 영상 등을 통해 작업 현장을 용이하게 모니터링할 수 있는 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법을 제공함에 그 목적이 있다.An embodiment of the present invention is a virtual reality that can easily monitor a work site through a virtual reality (VR) image even in the event of an object or signal error in which a signal for position tracking is not detected at a work site such as tunnel construction, etc. Its purpose is to provide a work site safety management device based on the device and a driving method of the device.
본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치는, 작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 통신 인터페이스부, 및 상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 제어부를 포함한다.A virtual reality-based workplace safety management device according to an embodiment of the present invention includes a communication interface unit that receives a photographed image of the work site from a camera at the work site, and a communication interface unit for receiving the captured image of the work site. A virtual reality (VR) background image for the appearance is generated, the object is imaged based on the deep learning result of the object extracted from the received photographed image, and the generated VR background image and the imaged object are synthesized to It includes a control unit that generates and outputs a VR image of the work site.
상기 제어부는, 상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭(stiching)하여 상기 VR 배경영상을 생성할 수 있다.The control unit extracts unit frame images of the same time from each of the captured images received from a plurality of cameras installed at different locations in the work site, and stitches each of the extracted unit frame images to obtain the VR background. You can create video.
상기 제어부는 상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이(depth) 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성할 수 있다.The control unit may obtain depth information of the extracted object by analyzing the received captured image, and may combine the imaged object with the VR background image by applying the obtained depth information.
상기 제어부는 상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용할 수 있다.The control unit may further use a distance value calculated by beacon information received in relation to the extracted object in order to acquire depth information of the extracted object.
상기 제어부는, 상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환할 수 있다.The control unit may switch to the VR video control mode when an event in the work site or an error is detected in the object.
또한, 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 구동방법은, 통신 인터페이스부가, 작업현장의 카메라로부터 상기 작업현장을 촬영한 촬영영상을 수신하는 단계, 및 제어부가, 상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 단계를 포함한다.In addition, the driving method of the virtual reality-based workplace safety management device according to an embodiment of the present invention includes the step of receiving, by a communication interface unit, a photographed image of the workplace from a camera of the workplace, and the control unit, A virtual reality (VR) background image for the scene of the work site is created using the received captured image, the object is imaged based on the deep learning result of the object extracted from the received captured image, and the VR background image is created. and generating and outputting a VR video of the work site by synthesizing the video and the imaged object.
상기 생성해 출력하는 단계는, 상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭하여 상기 VR 배경영상을 생성할 수 있다.In the generating and outputting step, unit frame images of the same time are extracted from each of the captured images received from a plurality of cameras installed at different locations in the work site, and each of the extracted unit frame images is stitched to obtain the VR A background image can be created.
상기 생성해 출력하는 단계는, 상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성할 수 있다.In the generating and outputting step, depth information of the extracted object may be acquired by analyzing the received captured image, and the imaged object may be synthesized with the VR background image by applying the acquired depth information.
상기 생성해 출력하는 단계는, 상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용할 수 있다.The generating and outputting may further use a distance value calculated by beacon information received in relation to the extracted object in order to acquire depth information of the extracted object.
상기 생성해 출력하는 단계는, 상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환할 수 있다.The generating and outputting step may switch to VR video control mode when an event or an error is detected in the object at the work site.
본 발명의 실시예에 따르면, 작업현장(또는 작업공간)에서 가령 비콘 등의 신호가 없는 객체나 비콘 등의 신호에 오류가 발생하는 경우, 나아가 다양하게 변환하는 실시간 현장 내의 상황이나 상황 정보를 VR 영상을 통해 신속하고 정확하게 확인할 수 있을 것이다.According to an embodiment of the present invention, when an error occurs in an object without a signal such as a beacon or a signal such as a beacon in a work site (or work space), the situation or situation information in the field in real time that is further converted into VR You will be able to quickly and accurately check through the video.
또한, 본 발명의 실시예에 따르면 필요시 작업현장을 VR 영상으로 실시간으로 모니터링할 수 있어 사건, 사고에 좀더 신속하게 대처할 수 있을 것이다.In addition, according to an embodiment of the present invention, if necessary, the work site can be monitored in real time with VR images, so that incidents and accidents can be dealt with more quickly.
도 1은 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리시스템을 나타내는 도면,
도 2는 도 1의 공사현장 안전관리장치의 세부 구조를 예시한 블록다이어그램,
도 3은 도 2의 VR 영상처리부의 구조를 예시한 블록다이어그램,
도 4는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 구동 과정을 나타내는 흐름도, 그리고
도 5는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 다른 구동 과정을 나타내는 흐름도이다.1 is a diagram showing a virtual reality-based workplace safety management system according to an embodiment of the present invention;
Figure 2 is a block diagram illustrating the detailed structure of the construction site safety management device of Figure 1,
3 is a block diagram illustrating the structure of the VR image processing unit of FIG. 2;
Figure 4 is a flow chart showing the driving process of the virtual reality-based workplace safety management device according to an embodiment of the present invention, and
5 is a flowchart showing another driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리시스템을 나타내는 도면이다.1 is a diagram showing a virtual reality-based workplace safety management system according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리시스템(90)은 사용자장치(100), 현장장치(113, 115, 117), 통신망(120) 및 (가상현실 기반의) 공사현장 안전관리장치(130)의 일부 또는 전부를 포함한다.As shown in FIG. 1, the virtual reality-based workplace
여기서, "일부 또는 전부를 포함한다"는 것은 현장장치(113, 115, 117)를 구성하는 스캐너장치(115)와 같은 일부 구성요소가 생략되어 시스템(90)이 구성되거나, 공사현장 안전관리장치(130)를 구성하는 구성요소의 일부 또는 전부가 통신망(120)을 구성하는 네트워크장치(예: 무선교환장치 등)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that the
사용자장치(100)는 가령 터널 막장 등과 같은 공사현장(혹은 작업현장)의 작업자나 감독관 등이 착용하는 작업모 등에 구비되는 비콘장치, 또는 작업자가 소지하는 스마트폰 등의 단말장치, 나아가 작업자의 위치를 추적할 수 있는 모듈(예: 근거리통신모듈)이 탑재되는 전용 단말과 같이 다양한 장치를 포함한다. 물론 작업자가 손목 등에 착용하는 국내 S사의 갤*시기어와 같은 웨어러블장치를 포함할 수도 있다. 본 발명의 실시예에서는 작업의 안전성을 위협하지 않으면서 공사비용 등의 측면을 고려할 때 비콘신호를 전송하는 비콘장치를 이용하는 것이 바람직하지만, 이에 특별히 한정하지는 않을 것이다. 즉 현장 내에서 위치 추적이 가능하다면 근거리 무선통신이 가능한 다양한 통신장치가 사용될 수 있을 것이다.The
현장장치(113, 115, 117)는 카메라(113), 스캐너장치(115) 및 통신중계장치(117)를 포함하며, 이외에도 공사현장 내를 감지할 수 있는 다양한 장치를 더 포함할 수 있다. 대표적으로, 공사현장 내를 이동하며 촬영 등을 통해 감시하고 경고방송 등을 송출하는 이동로봇 등이나 공사현장의 내부 환경을 센싱하는 가스센서 등의 감지센서를 더 포함할 수 있다. 물론 감지센서는 이동로봇에 탑재될 수 있다. 카메라(113)는 3D 카메라, CCTV, IP 카메라 등 다양한 종류의 카메라를 포함할 수 있다. 가령, 도 1에서와 같이 터널 막장 내에는 실제로 복수 개의 카메라가 설치될 수 있다. 또한, 복수의 카메라는 막장 내부에서 VR 영상을 생성하기에 용이하도록 서로 다른 위치에 설치되어 내부를 촬영하고 촬영영상을 통신중계장치(117)를 통해 공사현장 안전관리장치(130)로 제공한다. 가령 3D 카메라의 경우에는 촬영영상으로서 3D 촬영영상을 제공할 수 있지만, 복수의 3D 카메라가 설치되는 경우에는 각각의 3D 카메라에서 3D 촬영영상을 각각 전송할 수 있다. 물론, 각각의 카메라는 촬영영상의 제공시 촬영되는 시간에 대한 정보나 카메라(113)의 식별정보(ID) 등을 함께 전송한다. 3D 카메라는 촬영영상 내의 사물 즉 객체들에 대한 뎁스 정보를 자체적으로 생성하여 더 제공할 수도 있다. 다만, 3D 카메라는 고가이므로, 본 발명의 실시예에서는 CCTV를 적용하는 것이 바람직하지만, 이에 특별히 한정하지는 않을 것이다.The
스캐너장치(115)는 주변의 사용자장치(100)와 통신을 수행한다. 스캐너장치(115)는 가령 비콘 스캐너로서 주변의 작업자가 작업모 등에 탑재하고 있는 비콘장치의 비콘신호를 수신하여 통신중계장치(117)로 제공한다. 물론, 비콘 스캐너(115)는 수신한 비콘신호를 제공할 때 자신의 장치식별정보(ID)와 수신한 비콘장치의 장치식별정보, 그리고 신호수신세기 등에 대한 정보를 함께 전송할 수 있다. 해당 정보들은 통신중계장치(117)를 경유하여 공사현장 안전관리장치(130)로 제공된다. 물론 본 발명의 실시예에 따른 스캐너장치(115)는 비콘 스캐너 이외에도 사용자장치(100)와 통신을 수행하여 작업자나 장비 등의 위치를 추적할 수 있다면 근거리 통신이 가능한 다양한 유형의 통신장치를 포함할 수 있다. 비콘은 최대 50m 거리에서 작동할 수 있으며, 적외선, RF 같은 무선통신기술을 이용하여 100m 이하의 짧은 거리의 통신을 수행하기 때문에 공사현장에서는 매우 유용할 수 있다. 스캐너장치(115) 또는 공사현장 내에 복수개의 장치가 설치될 수 있으며, 가령 공사현장 안전관리장치(130)는 어느 스캐너장치(115)에서 특정 비콘장치의 신호가 강하게 감지되는지를 근거로 거리를 측정하여 위치를 확정할 수 있다. 물론, 공사현장 내부에서는 비콘신호의 산란이나 반사 등이 발생할 수 있으며, 복수의 스캐너장치(115)를 그룹으로 설정하여 정확도를 높이는 등 다양한 방식의 측정이 이루어질 수 있다. 가령, 특정 그룹의 스캐너장치(115)에서 신호가 가장 강하고, 지속적으로 신호가 수신되었다면 그를 근거로 위치를 계산할 수 있는 것이다.The
터널 공사와 같은 막장 내에서는 통신이 원활하지 않을 수 있다. 가령 GPS 통신이 불가능하다. 따라서, 본 발명의 실시예에 따른 통신중계장치(117)는 막장의 입구에 설치되어 막장 외부와 막장 내부의 사용자장치(100)간에 원활한 통신이 이루어지도록 중계할 수 있다. 안테나의 신호 방사 방향을 조절함으로써 내부로의 신호 전송 및 수신이 얼마든지 가능할 수 있다. 통신중계장치(117)는 물론 액세스포인트(AP)일 수 있다. 따라서, 통신망(120)의 개념에 포함될 수 있다. 다만, 통신중계장치(117)는 공사 시공업체 등에서 직접 설치하여 사용할 수 있다는 점에서, 기간 통신사에서 설치하는 통신망(120)과는 구분하고자 하였다.Communication may not be smooth in a dead end such as tunnel construction. For example, GPS communication is impossible. Therefore, the
통신망(120)은 유무선 통신망을 모두 포함한다. 가령 통신망(120)으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망 등을 포함하는 의미이다. 물론 본 발명의 실시예에 따른 통신망(120)은 이에 한정되는 것이 아니며, 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망, 5G망 등에 사용될 수 있다. 가령, 통신망(120)이 유선 통신망인 경우 통신망(120) 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Station Transmission), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.The
통신망(120)은 액세스포인트를 포함할 수 있다. 여기서의 액세스포인트는 건물 내에 많이 설치되는 펨토(femto) 또는 피코(pico) 기지국과 같은 소형 기지국을 포함한다. 펨토 또는 피코 기지국은 소형 기지국의 분류상 통신중계장치(117) 등을 최대 몇 대까지 접속할 수 있느냐에 따라 구분된다. 물론 액세스포인트는 통신중계장치(117) 등과 지그비(Zig-bee) 및 와이파이(Wi-Fi) 등의 근거리 통신을 수행하기 위한 근거리 통신모듈을 포함할 수 있다. 액세스포인트는 무선통신을 위하여 TCP/IP 혹은 RTSP(Real-Time Streaming Protocol)를 이용할 수 있다. 여기서, 근거리 통신은 와이파이 이외에 블루투스, 지그비, 적외선, UHF(Ultra High Frequency) 및 VHF(Very High Frequency)와 같은 RF(Radio Frequency) 및 초광대역 통신(UWB) 등의 다양한 규격으로 수행될 수 있다. 이에 따라 액세스포인트는 데이터 패킷의 위치를 추출하고, 추출된 위치에 대한 최상의 통신 경로를 지정하며, 지정된 통신 경로를 따라 데이터 패킷을 다음 장치, 예컨대 공사현장 안전관리장치(130) 등으로 전달할 수 있다. 액세스포인트는 일반적인 네트워크 환경에서 여러 회선을 공유할 수 있으며, 예컨대 라우터(router), 리피터(repeater) 및 중계기 등이 포함된다.The
공사현장 안전관리장치(130)는 공사현장의 작업자 등을 모니터링하기 위한 다양한 장치를 포함할 수 있다. 대표적으로, 공사현장에서 제공되는 데이터를 처리하기 위한 서버를 포함할 수 있으며, 가령 관제요원이 관제를 수행하는 컴퓨터 본체나 모니터 등을 더 포함할 수 있다. 물론 관제요원이나 관리자의 스마트폰이나 헤드마운팅장치(HMD)와 같은 VR 장치를 포함할 수도 있다. 모니터상에는 공사현장의 내부 모습과 내부에서 작업을 수행하는 작업자 등의 위치가 표시될 수 있다. 다양한 부가 정보들이 표시될 수 있을 것이다. 이러한 모니터링 화면은 '대쉬보드'라 명명될 수도 있다. 물론, 모니터링 화면은 다양한 형태로 구성되어 화면에 구현될 수 있다. 통상 공사현장은 CCTV를 통해 내부 모습이 감시되지만 이를 통해서는 정확한 객체(예: 물건/사람 등)에 대한 위치와 정보를 실시간으로 확인하는 것이 어렵다. 이를 보완하기 위해 비콘 및 비콘스캐너 등을 이용하여 일정 공간 내의 객체에 대한 정보를 확인할 수 있다. 그러나, 이의 경우에도 신호가 감지되지 않는 객체, 또는 신호감지 등에 오류가 발생하는 경우, 뿐만 아니라 다양하게 변화하는 실시간 현장 내의 상황 정보를 확인할 수 없는 경우가 많다.The construction site
이를 위하여 본 발명의 실시예에 따른 공사현장 안전관리장치(130)는 터널 내에 설치된 현장장치(113, 115, 117)들로부터 제공되는 카메라(113)의 촬영영상이나 스캐너장치(115) 등에서 제공하는 사용자장치(100), 가령 비콘장치의 스캔 데이터를 근거로 VR 영상을 생성하여 VR 영상 모드(mode)로 전환하여 감시가 이루어지도록 할 수 있다. 예를 들어, 공사현장에서 사건, 사고가 발생하거나 비콘장치 등에 오류가 발생하였다고 판단될 때, 비콘신호가 없게 되는 객체가 감지될 때, 그리고 관제요원의 요청에 의해서도 VR 영상 모드로 전환될 수 있다. VR 영상은 360도 VR 영상이 바람직하다. 가령 카메라(113)가 설치되는 각 지점을 기준으로 하여 보여주는 3D 영상이 사용될 수 있다. 또한, 관제요원이 특정 위치를 지정하는 경우 해당 위치를 기준으로 3D 영상을 화면에 표시해 줄 수도 있다. 이의 경우 가령 비콘신호가 감지되지 않는 비콘장치의 식별이 좀더 수월하게 이루어질 수 있다.To this end, the construction site
공사현장 안전관리장치(130)는 VR 영상을 생성하기 위하여 가령 공사현장에 카메라(113)가 최초 설치될 때 취득되는 촬영영상을 이용하여 공사현장 내부에 대한 VR 배경영상을 제작하여 기저장할 수 있다. 여기서, 배경이란 촬영영상에서 볼 때 객체를 제외한 부분을 의미한다. 따라서, 공사현장의 내부 모습에서 객체를 제외한 부분이라 볼 수 있다. 공사현장 내부 모습은 발파 작업 등을 통해 시간이 경과될 때마다 변화되므로 공사현장 안전관리장치(130)는 이를 고려하여 실시간으로, 또는 일정 시간 간격으로 배경영상을 VR 영상으로 생성할 수 있다. 예를 들어, 공사현장 안전관리장치(130)는 공사 현장의 내부 모습을 3D로 관찰하기 위하여 3D 카메라를 설치하여도 무관하다. 다만, 360도 VR을 구현할 수 있도록 공사현장 안전관리장치(130)는 공사현장의 복수의 카메라로부터 수신되는 촬영영상의 단위 프레임 영상을 시간별, 더 정확하게는 서로 동일 시간의 단위 프레임 영상을 스티칭(stitching)하여 실시간 VR 영상을 생성할 수도 있다. 가령, 시간 t1에 대하여 동일 시간에 해당하는 단위 프레임 영상들을 스티칭하여 VR 영상을 생성할 수 있다. 예를 들어, 카메라 1에서 수신되는 촬영영상에서 시간 t1(가령 1/60초)에 해당하는 단위 프레임 영상과 공사현장의 다른 위치에 구비되는 카메라 2에서 수신되는 동일 시간 t1에 해당하는 단위 프레임 영상을 각각 취득하여 서로 스티칭할 수 있다. 물론 이러한 과정에서 영상을 보정하는 캘리브레이션 동작이 이루어질 수도 있다. 이를 통해 여러 시점에서 촬영한 영상을 이어붙여 다시점에 대한 파노라마 영상으로 변환이 가능하고, 사용자의 의도에 따라 시점(view)을 변경하여 영상을 확인할 수 있다. 이러한 VR 배경 영상의 생성은 실시간으로 전송되는 스트리밍 데이터를 이용하여 생성될 수도 있으므로 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다. 물론, VR 배경 영상은 데이터 연산 처리량을 줄이기 위하여 공사현장 내에서 이벤트 가령, 발파작업 등이 있을 때에 간헐적으로 이루어질 수도 있다.The construction site
또한, 본 발명의 실시예에 따른 공사현장 안전관리장치(130)는 복수의 카메라(113)로부터 수신되는 촬영영상, 그리고 사용자장치(100)와 스캐너장치(115)의 통신신호를 근거로 거리를 측정할 수 있다. 스캐너장치(115)의 경우에도 다양한 위치에 설치될 수 있으며, 사용자장치(100)를 삼각측량 등을 통해 정확한 거리 측정이 이루어질 수 있다. 물론 측정거리는 수신신호세기를 이용하여 계산될 수 있다. 예를 들어, 카메라(113)로서 3D 카메라를 사용하는 경우에는 작업자가 장비에 대한 뎁스(depth) 즉 깊이 정보를 함께 제공하므로, 이를 이용하여 VR 영상을 생성할 수 있다. VR 영상은 VR 배경 영상과 객체가 오버랩되어 형성된 영상에 해당한다. 만약, 3D 카메라가 아닌 IP 카메라나 CCTV의 경우에는 뎁스(혹은 깊이) 정보를 영상 데이터 즉 화소(pixel) 분석을 통해 산출할 수 있다. 예를 들어, 촬영영상의 단위 프레임 영상에서 화소를 이용해 거리를 측정할 수 있지만, 뎁스 정보는 가령 비콘정보 즉 신호의 수신방향이나 수신신호세기에 의해 산출된 거리를 뎁스 정보로 사용할 수도 있다. 여기서, 뎁스 정보는 3차원 공간상에서 어느 위치에 객체가 위치하는지에 대한 위치정보가 될 수 있다. 따라서, 공사현장 안전관리장치(130)는 화소분석을 통해 2차원상의 정보를 취득하였다면, 비콘 등의 정보를 더 이용하여 3차원 정보를 생성할 수도 있다.In addition, the construction site
예를 들어, 공사현장을 모니터링하기 위하여 지정 조건(예: 사건, 사고가 발생한 경우)에서 VR 영상 관제모드로 전환된 경우, 공사현장 안전관리장치(130)는 기생성된 또는 실시간으로 생성되는 VR 배경영상에 공사현장 내의 객체(혹은 객체영상, 이미지파일 등)들을 오버랩(혹은 합성)하여 생성한 공사현장 VR 영상을 모니터에 표시해 줄 수 있다. 여기서 모드(mode)란 지정 조건이 될 때(혹은 선택이 있을 때), 자동으로 지정 동작이 작동되도록 하거나, 기설정된 일련의 동작이 순차적으로 작동하는 것을 의미할 수 있다. 공사현장의 VR 영상을 생성하는 과정에서 공사현장 안전관리장치(130)는 오버랩되는 객체들과 관련하여 오버랩되는 객체들의 정확도를 높이기 위하여 딥러닝 동작을 수행한 후 딥러닝 결과에 의해 최종적으로 확정되는 객체가 오버랩된다고 볼 수 있다. 가령, 실시간으로 감지되던 사용자장치(100)가 갑자기 감지되지 않는 경우, VR 영상 관제모드로 전환하여 사용자장치(100)가 왜 감지되지 않는지에 대한 명확한 판단이 이루어질 수 있다. 이를 통해 조속한 조치가 이루어질 수 있다. 또한, 발파 작업이 있는 공간에서는 발파되는 파편들과 관련한 새로운 객체들을 딥러닝을 통해 정확히 감지하고 이를 VR 영상에 구현함으로써 공사현장의 내부에 대한 모니터링의 정확도를 더욱 높일 수 있게 된다.For example, when the VR video control mode is switched to the VR video control mode under designated conditions (e.g., when an incident or accident occurs) to monitor a construction site, the construction site
도 2는 도 1의 공사현장 안전관리장치의 세부 구조를 예시한 블록다이어그램이다.Figure 2 is a block diagram illustrating the detailed structure of the construction site safety management device of Figure 1.
도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 공사현장 안전관리장치(130)는 통신 인터페이스부(200), 제어부(210), VR 영상처리부(220) 및 저장부(230)의 일부 또는 전부를 포함한다.As shown in FIG. 2, the construction site
여기서, "일부 또는 전부를 포함한다"는 것은 저장부(230)와 같은 일부 구성요소가 생략되거나, VR 영상처리부(220)와 같은 일부 구성요소가 제어부(210)와 같은 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that some components such as the
통신 인터페이스부(200)는 도 1의 통신망(120), 통신중계장치(117) 등을 경유하여 사용자장치(100)와 통신할 수 있다. 이러한 통신 동작을 수행하는 과정에서 통신 인터페이스부(200)는 변/복조, 인코딩/디코딩, 먹싱/디먹싱, 해상도를 변환하는 스케일링 등의 동작을 수행할 수 있다. 이와 관련해서는 당업자에게 자명하므로 더 이상의 설명은 생략하도록 한다.The
통신 인터페이스부(200)는 공사현장의 모니터링 데이터로서 대표적으로 카메라(113)의 촬영영상에 대한 영상 데이터, 그리고 스캐너장치(115)가 제공하는 스캔 데이터를 수신하여 제어부(210)에 제공한다. 스캔 데이터는 가령 비콘장치나 스마트폰과 같은 사용자장치(100)의 위치를 추적하는 위치추적 정보가 될 수 있다.The
또한, 통신 인터페이스부(200)는 가령 공사현장 내에 이벤트(예: 사건, 사고)가 발생하거나 관제요원이나 감독관의 요청이 있을 때 공사현장의 내부를 VR 영상으로 관제하기 위한 동작을 수행할 수 있다. 이를 위하여, 관제요원의 컴퓨터나 모니터, 또는 관제센터의 전광판에 VR 영상이 표시되도록 VR 영상 데이터를 전송할 수 있다.In addition, the
제어부(210)는 도 1의 공사현장 안전관리장치(130)를 구성하는 도 2의 통신 인터페이스부(200), VR 영상처리부(220) 및 저장부(230)의 전반적인 제어 동작을 수행할 수 있다. 대표적으로 제어부(210)는 통신 인터페이스부(200)를 통해 수신되는 공사현장의 촬영영상에 대한 영상 데이터 및 작업자나 장비 등의 위치를 센싱하는 스캔 데이터를 수신하여 저장부(230)에 임시 저장한 후 필요시 불러내어 VR 영상처리부(220)에 제공할 수 있다.The
제어부(210)는 예를 들어, 공사현장에 카메라(113)의 초기 세팅시 각 카메라의 촬영 영상을 이용하여 공사현장의 VR 배경영상을 생성할 수 있다. 또한, 실시간으로 또는 주기적으로 공사현장의 내부 모습이 변경될 때마다 기생성한 VR 배경 영상을 갱신할 수 있다. 이를 위하여 물론 VR 영상처리부(220)와 연계하여 동작할 수 있다. 또한, 제어부(210)는 공사현장의 VR 영상 관제모드로 전환될 때, 기생성된 VR 배경영상에 객체들을 오버랩하여 생성된 VR 영상을 출력할 수 있다. For example, when the
VR 영상처리부(220)는 공사현장에 대한 내부 모습을 실시간 VR로 모니터링할 수 있도록 하기 위한 VR 영상을 생성한다. 여기서, VR 영상은 공사현장의 내부 모습에 객체를 제외한 VR 배경영상과 그 배경영상에 오버랩되는 객체, 또는 객체이미지들로 구성된다. 물론, 여기서의 객체는 비콘 등에 의해 위치가 추적되지 않는 객체들까지 모두 관찰될 수 있다. 예를 들어, 종래의 CCTV의 경우에는 객체들에 대한 정확한 위치나 정보를 실시간으로 확인하는 것이 어려울 수 있다. 대표적으로 해상도의 문제일 수 있다. 또한, IP 카메라, 3D 카메라 등을 사용하는 경우에도 설치 비용이 비싼 것은 차치하고라도 설치된 위치에 한정하여 공사현장의 내부를 관찰할 수밖에 없다. The VR
그러나, 본 발명의 실시예에 따른 VR 영상처리부(220)는 복수의 카메라로부터 취득되는 촬영영상을 이용하여 공사현장의 어느 위치에 있던지 그를 기준으로 하는 VR 영상을 제공한다. 360도 VR 영상이 가능하게 된다. 예를 들어, 카메라 1과 카메라 2의 촬영영상에서 시간 t1에 해당하는 단위 프레임 영상을 각각 취득할 수 있다. 그리고, 두 개의 단위 프레임 영상을 이용하여 그 가운데에 위치하는 보간 영상을 생성할 수도 있다. 이와 같은 방식으로 각 각도별 보간 영상을 생성한 후 모든 영상들을 스티칭함으로써 360도 VR 영상을 생성할 수 있는 것이다.However, the VR
또한, VR 영상처리부(220)는 VR 영상의 생성시 생성된 VR 영상에 좌표값을 설정하여 저장함으로써 이를 근거로 VR 영상의 관제가 가능하도록 할 수 있다. 물론 그러한 좌표 즉 관제하고자 하는 시점(view)은 2차원 좌표값으로 제공되지만, 가령 관제요원에 의해 2차원 좌표값으로 요청되지만, 이를 3차원 좌표값으로 변환하여 이를 근거로 VR 영상의 관제가 이루어지도록 할 수 있다. 물론 이러한 동작을 수행하기 위해서는 2차원 좌표값과 3차원 좌표값을 룩업테이블(LUT) 등에 매칭시켜 저장한 후 이를 근거로 VR 영상의 출력이 이루어지도록 할 수 있다.In addition, the VR
무엇보다 VR 영상처리부(220)는 VR 배경영상에 정확한 객체를 삽입 혹은 오버랩하기 위하여 딥러닝 동작에 의해 객체를 정확히 구별한다. 예를 들어, 공사 현장 내에서 발파 작업이 이루어진다고 가정할 때, 이에 의하여 새롭게 생성되는 돌 등의 객체는 정확한 판별이 어려울 수 있다. 특히, CCTV를 통해 취득되는 촬영영상을 통해서는 분별이 더욱 어려울 수 있다. 따라서 이의 경우에는 정확한 판별을 위하여 객체 분류를 위한 딥러닝 동작을 수행하고, 딥러닝에 의해 최종적으로 분류된 객체를 배경영상에 오버랩할 수 있다. 무엇보다 오버랩을 위해서는 객체의 뎁스 정보가 필요하지만, 이는 앞서 다양한 형태로 취득될 수 있음을 설명한 바 있다. 3D 카메라를 사용하는 경우에는 카메라 자체적으로 뎁스 정보를 제공하므로 이를 이용할 수 있다. 만약, IP 카메라나 CCTV를 이용하는 경우에는 화소 분석을 이용하되, 스캐너장치(115)에서 스캔한 스캔 데이터를 더 이용할 수 있다. 예를 들어, 공사현장 내의 A 작업자와 C 작업자 사이에 B 작업자의 비콘장치가 감지되지 않거나, 오류가 발생한 경우를 가정해 보자. 이의 경우 A와 C 작업자의 거리를 근거로 B 작업자의 거리를 유추할 수 있다. 따라서 해당 거리값을 뎁스 정보로 사용할 수 있다.Above all, the VR
예를 들어, 카메라 1을 지정하여 VR 영상을 시청하면서 공사현장을 관제하는 경우와, 카메라 2를 지정하여 VR 영상을 시청하면서 공사현장을 관제하는 VR 영상은 바라보는 위치 즉 뷰가 다르므로 각각의 VR 영상이 생성되어 이의 영상이 출력된다고 볼 수 있고, 이를 위하여 VR 영상처리부(220)는 각 위치에 해당하는 VR 영상을 기생성할 수 있지만, 실시간으로 생성하여 보여주는 것도 얼마든지 가능할 수 있다. VR 영상의 생성 방법과 관련해서는 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다. 다만, 다시점을 활용하는 경우, VR 영상 생성을 위한 데이터 처리량이 증가하므로, 선택가능한 시점을 디폴트(default)로 설정하고, 다시 말해, 선택 가능한 시점을 줄이고 그 중에서 하나를 선택하여 시청하도록 할 수 있다.For example, the case of controlling the construction site while watching VR images by designating camera 1 and the case of controlling the construction site while watching VR images by designating camera 2 are different from the viewing position, that is, the view. It can be seen that a VR image is generated and the image is output. To this end, the VR
또한, VR 영상처리부(220)는 제어부(210)와 연계하여 VR 영상을 구현하는 별도의 VR 장치로 VR 영상을 전송할 수도 있다. 따라서, VR 영상처리부(220)는 기존의 공사현장의 촬영영상이나 기타 영상은 전광판과 같은 대쉬보드에 출력하지만, VR 영상은 헤드마운팅장치(HMD)와 같은 VR 장치를 통해 관제가 이루어지도록 할 수도 있다. VR 장치는 3D의 구현이 가능한 (마이크로) 렌티큘러 렌즈 등의 패널(panel)을 구비함으로써 이를 통해 VR 영상의 구현이 가능할 수 있다.In addition, the VR
저장부(230)는 제어부(210)의 제어하에 처리되는 다양한 정보나 데이터를 임시 저장할 수 있으며, 제어부(210)의 요청이 있을 때 출력할 수 있다. 출력된 데이터는 VR 영상처리부(220)에 제공될 수 있다. 여기서, 정보나 데이터의 의미를 구분하는 것은 무의미하며, 혼용되는 것이 일반적이다. 정보는 요청(REQ)이나 응답(ACK)과 같은 제어 명령을 의미할 수 있고, 데이터는 촬영영상의 영상 데이터나 스캐너장치(115)의 스캔 데이터를 의미할 수 있다. 또한, 데이터 패킷을 통해 살펴볼 때 헤더부는 부가 정보 등을 포함하며, 페이로드부는 화소 데이터 등을 포함한다. 이러한 정도로 이해될 수 있지만, 본 발명의 실시예에서는 그러한 용어의 개념에 특별히 한정하지는 않을 것이다.The
한편, 본 발명의 다른 실시예로서, 도 2의 제어부(210)는 CPU와 메모리를 포함하며, CPU와 메모리는 원칩화하여 구성될 수 있다. 제어부(210)는 제어회로, 연산부(ALU), 명령어해석부, 레지스트리 등을 포함할 수 있으며, 메모리는 램(RAM)을 포함할 수 있다. 제어회로는 제어 동작을, 연산부는 2진 비트정보의 연산처리를, 그리고 명령어해석부는 입력된 2진 비트정보가 어떠한 동작의 수행에 관련되는지를 해석할 수 있다. 여기서, 해석은 룩업테이블(LUT)상의 좌측과 우측에 데이터를 매칭한 후 제어회로가 좌측 데이터를 근거로 우측의 데이터를 찾아 동작을 수행하는 것일 수 있다. 레지스트리는 소프트웨어적인 데이터 저장에 관여한다. 상기의 구성에 따라 CPU는 공사현장 안전관리장치(130)의 초기 구동시 VR 영상처리부(220)의 프로그램을 복사하여 메모리에 로딩한 후 이를 실행시켜 데이터 처리 속도를 빠르게 증가시킬 수 있게 된다.Meanwhile, as another embodiment of the present invention, the
도 3은 도 2의 VR 영상처리부의 구조를 예시한 블록다이어그램이다.FIG. 3 is a block diagram illustrating the structure of the VR image processing unit of FIG. 2 .
도 3의 VR 영상처리부(220')는 도 2의 VR 영상처리부(220)의 변형된 예로서, VR 배경생성부(300), 객체딥러닝부(310), 객체이미지생성부(320), 그리고 (배경 및 객체) VR 영상생성부(330)이 일부 또는 전부를 포함한다.The VR image processing unit 220' of FIG. 3 is a modified example of the VR
여기서, "일부 또는 전부를 포함한다"는 것은 객체이미지 생성부(320)와 같은 일부 구성요소가 생략되어 구성되거나, VR 배경생성부(300) 또는 객체이미지생성부(320)가 VR 영상생성부(330)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that some components such as the
도 3의 VR 배경생성부(300), 객체딥러닝부(310), 객체이미지생성부(320), 그리고 VR 영상생성부(330)는 하드웨어(H/W) 모듈, 소프트웨어(S/W) 모듈 또는 그 조합에 의해 구성될 수 있다.The VR background generator 300, object
VR 배경생성부(300)는 카메라(113)로부터 수신되는 촬영영상을 근거로 공사현장의 내부 모습에 대한 VR 배경영상을 생성한다. 여기서, VR 배경영상은 3D 카메라를 통해 수신되는 3D 촬영영상을 이용할 수 있으며, IP 카메라나 CCTV 등을 통해 촬영된 촬영영상을 이용할 수도 있다. 물론 3D 촬영영상의 경우, VR 영상을 생성하기에 더욱 수월할 수 있다. 수신된 3D 촬영영상을 이용하여 각도별 VR 영상을 생성함으로써 360 VR 배경 영상을 얻을 수 있다.The VR background generating unit 300 generates a VR background image for the interior of the construction site based on the captured image received from the
또한, VR 배경생성부(300)는 앞서 언급한 대로, 서로 다른 위치에 설치되는 카메라(113)의 촬영영상들에 대하여 동일 시간에 해당하는 단위 프레임 영상을 스티칭하여 VR 배경영상을 생성할 수 있다. 예를 들어, 카메라 1에 대하여 카메라 2는 특정 각도를 갖는 위치에 해당한다. 따라서, 해당 카메라 2의 단위 프레임 영상을 카메라 1의 단위 프레임 영상과 결합함으로써 각도별 VR 영상을 생성할 수 있다. 물론 두 개의 영상 사이에 보간 영상을 생성하여 결합함으로써 많은 각도 변화에서 좀더 스무드(smooth) 즉 유연한 VR 영상을 구현해 낼 수 있을 것이다.In addition, as mentioned above, the VR background generator 300 may create a VR background image by stitching unit frame images corresponding to the same time to the captured images of the
객체딥러닝부(310)는 객체 분류를 위한 가령 탬플릿 기반의 DCNN(Deep Convolution Neural Network) 분류기를 포함할 수 있으며, 분류 결과를 인공지능(AI) 등의 딥러닝을 통해 객체의 판별 정확도를 높일 수 있다. 예를 들어, 공사현장에서 발파 작업이 있을 때 대표적으로 돌이 감지될 수 있지만, 이외에도 다양한 객체들이 감지될 수 있으므로, 딥러닝을 통해 이를 명확히 분류하여 VR 영상에 구현되도록 할 수 있을 것이다.The object
객체이미지생성부(320)는 수신된 촬영영상에서 객체의 뎁스 정보를 산출하거나, 3D 촬영영상에서는 뎁스 정보가 제공되므로, 이를 이용할 수도 있다. 또한, 객체이미지생성부(320)는 수신된 촬영영상의 단위 프레임 영상에서 객체를 이미지 형태로 추출하여 이를 관리할 수 있다. 이미지화는 추출한 객체를 그래픽 처리하거나 보정하는 등의 동작을 포함할 수 있다. 객체이미지생성부(320)는 추출한 객체 이미지를 뎁스 정보에 따라 VR 배경 영상에 삽입하도록 배경 및 객체 VR 영상생성부(330)로 제공할 수 있다.The object
VR 영상생성부(330)는 VR 배경영상에 객체 영상(혹은 객체 이미지)을 오버랩하여 VR 영상을 생성한다. 오버랩은 통상 증강현실과 같이 VR 배경영상의 레이어(layer)와 객체영상의 레이어가 서로 다르고, 객체영상은 객체를 제외한 나머지 영역이 투명한 상태를 유지함으로써 영상이 구현되는 것을 의미할 수 있다. 그러나, 본 발명의 실시예에서는 그러한 방식에 특별히 한정하지는 않을 것이다. 이를 통해 공사현장의 특정 위치에서 내부 공간을 관제하는 것과 같은 효과를 얻을 수 있다.The
도 4는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 구동 과정을 나타내는 흐름도이다.4 is a flowchart illustrating a driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention.
설명의 편의상 도 4를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 도 1의 (가상현실 기반의) 공사현장 안전관리장치(130)는 작업현장의 카메라로부터 작업현장을 촬영한 촬영영상을 수신한다(S400).Referring to FIG. 4 together with FIG. 1 for convenience of explanation, the (virtual reality-based) construction site
또한, 공사현장 안전관리장치(130)는 수신한 촬영영상을 이용해 작업현장의 모습에 대한 가상현실(VR)의 배경영상을 생성하고, 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 객체를 이미지화하며, (기)생성한 VR 배경영상과 이미지화한 객체를 합성(혹은 조합, 오버레이)하여 작업현장의 VR 영상을 생성해 출력한다(S410).In addition, the construction site
여기서, 객체를 이미지화한다는 것은 단위 프레임 영상에서 객체를 추출하고, 추출한 객체에 대하여 GUI 그래픽 처리를 수행하는 것을 의미할 수 있다. 또는 추출한 객체의 화소값을 분석하여 이를 VR 배경영상에 구현할 수 있다.Here, imaging an object may mean extracting an object from a unit frame image and performing GUI graphic processing on the extracted object. Alternatively, the pixel value of the extracted object may be analyzed and implemented in the VR background image.
이외에도 작업현장 안전관리장치(130)는 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition, the workplace
도 5는 본 발명의 실시예에 따른 가상현실 기반의 작업현장 안전관리장치의 다른 구동 과정을 나타내는 흐름도이다.5 is a flowchart showing another driving process of a virtual reality-based workplace safety management device according to an embodiment of the present invention.
설명의 편의상 도 5를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 도 1의 작업현장 안전관리장치(130)는 가령 작업현장의 카메라(113)에서 작업현장을 촬영하여 제공하는 영상을 수신한다(S500).Referring to FIG. 5 together with FIG. 1 for convenience of explanation, the work site
또한 작업현장 안전관리장치(130)는 수신한 촬영영상을 이용하여 VR 배경영상을 생성한다(S510). VR 배경영상을 생성하기 위하여 작업현장 안전관리장치(130)는 수신한 촬영영상의 각도별 영상을 생성하고, 이를 결합하는 형태로 VR 배경 영상을 생성할 수 있다. 이와 관련해서는 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition, the workplace
작업현장 안전관리장치(130)는 수신한 촬영영상의 단위 프레임 영상에서 객체를 추출하고, 추출한 객체에 대하여 학습을 수행하여 객체를 정의한다(S520, S530). 객체는 대표적으로 작업자(예: 비콘정보)나 장비(예: 장비 데이터)일 수 있지만, 가령 각종 공사작업 중에 새롭게 투입되거나, 또는 발파작업 중에 새롭게 발견되는 돌 등이 될 수 있다. 객체 정의를 위하여 학습 DB를 검색할 수 있다.The workplace
또한, 작업현장 안전관리장치(130)는 VR 배경영상에 위의 추출한 객체를 삽입하기 위하여 뎁스 정보를 생성할 수도 있다. 예를 들어, 3D 카메라를 사용하는 경우에는 뎁스 정보를 카메라에서 제공하므로 이를 근거로 360도 VR 영상에 적용하기 위하여 뎁스 정보를 활용할 수 있다. 만약, CCTV나 IP 카메라와 같이 촬영영상의 단위 프레임 영상에서 뎁스 정보를 산출하기가 어려운 경우에는 비콘정보 등을 활용하여 뎁스 정보를 생성할 수 있다. 예를 들어, A 작업자의 위치와 B 작업자의 사이에 추적되지 않는 특정 객체가 위치하는 경우, 가령 화소 분석 결과 A 작업자의 위치에 가까운 경우 이를 근거로 뎁스 정보를 생성할 수 있다. 이와 같이 뎁스 정보를 생성시 비콘 정보를 이용할 수도 있다. 해당 객체에 대한 좌표값은 메모리에 3차원 좌표(x, y, z)로 설정할 수 있다.In addition, the workplace
나아가, 작업현장 안전관리장치(130)는 추출한 객체의 화소분석을 통해 객체를 이미지화하고, 생성한 VR 배경영상에 오버랩하여 VR 영상을 생성한다(S540, S550). VR 배경에 객체 이미지를 오버랩할 때 위의 뎁스 정보를 반영하여, 각도별로 360도 VR 영상의 구현이 가능하도록 할 수 있다. 예를 들어, 객체의 경우에도 입체적으로 이미지화를 통해 입체적으로 구현이 될 수 있을 것이다.Furthermore, the workplace
또한, 작업현장 안전관리장치(130)는 VR 영상을 표시한다(S560). VR 영상은 관제센터의 전광판 등에 구현될 수 있지만, 공사현장을 모니터링하는 관제요원이나 감독관이 별도로 착용하는 VR 장치를 통해 이를 시청하는 것도 얼마든지 가능할 수 있을 것이다.In addition, the workplace
상기한 내용 이외에도 작업현장 안전관리장치(130)와 관련한 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, since the details related to the
한편, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.On the other hand, even if all the components constituting the embodiment of the present invention are described as being combined or operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all of the components may be selectively combined with one or more to operate. In addition, although all of the components may be implemented as a single independent piece of hardware, some or all of the components are selectively combined to perform some or all of the combined functions in one or a plurality of pieces of hardware. It may be implemented as a computer program having. Codes and code segments constituting the computer program may be easily inferred by a person skilled in the art. Such a computer program may implement an embodiment of the present invention by being stored in a computer-readable non-transitory computer readable media, read and executed by a computer.
여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, the non-transitory readable recording medium means a medium that stores data semi-permanently and can be read by a device, not a medium that stores data for a short moment, such as a register, cache, or memory. . Specifically, the above-described programs may be provided by being stored in a non-transitory readable recording medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, or ROM.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and is common in the art to which the present invention pertains without departing from the gist of the present invention claimed in the claims. Of course, various modifications and implementations are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.
100: 사용자장치 113, 115, 117: 현장설치장치
120: 통신망 130: 공사현장 안전관리장치
200: 통신 인터페이스부 210: 제어부
220: VR 영상처리부 230: 저장부
300: VR 배경생성부 310: 객체딥러닝부
320: 객체이미지생성부 330: VR 영상생성부100:
120: communication network 130: construction site safety management device
200: communication interface unit 210: control unit
220: VR image processing unit 230: storage unit
300: VR background generation unit 310: object deep learning unit
320: object image generator 330: VR video generator
Claims (10)
상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 제어부;를 포함하되,
상기 추출한 객체는 상기 작업현장 내의 작업자, 장비 및 발파작업 중에 발견되는 돌을 포함하고,
상기 제어부는, 상기 추출한 객체를 그래픽 처리하거나 보정하여 상기 객체를 입체적으로 이미지화하며,
상기 제어부는, 실시간으로 감지되던 상기 작업현장 내의 사용자 장치가 감지되지 않는 경우 상기 생성한 VR 영상을 이용하는 VR 영상 관제모드로 전환하여 상기 사용자 장치가 왜 감지되지 않는지에 대한 판단을 수행하는 가상현실 기반의 작업현장 안전관리장치.a communication interface unit for receiving a photographed image of the work site from a camera of the work site; and
A virtual reality (VR) background image for the appearance of the work site is created using the received captured image, the object is imaged based on the deep learning result of the object extracted from the received captured image, and the generated VR A control unit for synthesizing a background image and the imaged object to generate and output a VR image of the work site;
The extracted objects include workers, equipment, and stones found during blasting in the work site,
The control unit graphics the extracted object or corrects it to form a three-dimensional image of the object,
The control unit is based on virtual reality for determining why the user device is not detected by switching to a VR video control mode using the generated VR image when the user device in the work site that has been detected in real time is not detected. Work site safety management device.
상기 제어부는, 상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭(stiching)하여 상기 VR 배경영상을 생성하는 가상현실 기반의 작업현장 안전관리장치.According to claim 1,
The control unit extracts unit frame images of the same time from each of the captured images received from a plurality of cameras installed at different locations in the work site, and stitches each of the extracted unit frame images to obtain the VR background. A virtual reality-based workplace safety management device that generates images.
상기 제어부는 상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이(depth) 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성하는 가상현실 기반의 작업현장 안전관리장치.According to claim 2,
The control unit analyzes the received captured image to obtain depth information of the extracted object, and applies the obtained depth information to synthesize the imaged object to the VR background image for virtual reality-based workplace safety. management device.
상기 제어부는 상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용하는 가상현실 기반의 작업현장 안전관리장치.According to claim 3,
The control unit further uses a distance value calculated by beacon information received in relation to the extracted object in order to obtain depth information of the extracted object.
상기 제어부는, 상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환하는 가상현실 기반의 작업현장 안전관리장치.According to claim 3,
The control unit is a virtual reality-based workplace safety management device that switches to a VR video control mode when an event or an error is detected in the object at the workplace.
제어부가, 상기 수신한 촬영영상을 이용해 상기 작업현장의 모습에 대한 가상현실(VR) 배경영상을 생성하고, 상기 수신한 촬영영상에서 추출한 객체의 딥러닝 결과를 근거로 상기 객체를 이미지화하며, 상기 생성한 VR 배경영상과 상기 이미지화한 객체를 합성하여 상기 작업현장의 VR 영상을 생성해 출력하는 단계;를 포함하되,
상기 추출한 객체는 상기 작업현장 내의 작업자, 장비 및 발파작업 중에 발견되는 돌을 포함하고,
상기 제어부는, 상기 추출한 객체를 그래픽 처리하거나 보정하여 상기 객체를 입체적으로 이미지화하며,
상기 제어부는, 실시간으로 감지되던 상기 작업현장 내의 사용자 장치가 감지되지 않는 경우 상기 생성한 VR 영상을 이용하는 VR 영상 관제모드로 전환하여 상기 사용자 장치가 왜 감지되지 않는지에 대한 판단을 수행하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.Receiving, by a communication interface unit, a photographed image of the work site from a camera of the work site; and
The control unit generates a virtual reality (VR) background image for the appearance of the work site using the received captured image, images the object based on a deep learning result of an object extracted from the received captured image, Including; generating and outputting a VR image of the work site by synthesizing the generated VR background image and the imaged object,
The extracted objects include workers, equipment, and stones found during blasting in the work site,
The control unit graphics the extracted object or corrects it to form a three-dimensional image of the object,
The control unit is based on virtual reality for determining why the user device is not detected by switching to a VR video control mode using the generated VR image when the user device in the work site that has been detected in real time is not detected. Operation method of workplace safety management device of
상기 생성해 출력하는 단계는,
상기 작업현장에서 서로 다른 위치에 설치되는 복수의 카메라로부터 수신되는 각각의 촬영영상에서 동일 시간의 단위 프레임 영상을 추출하여 상기 추출한 각각의 단위 프레임 영상을 스티칭하여 상기 VR 배경영상을 생성하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.According to claim 6,
The step of generating and outputting,
Based on virtual reality for generating the VR background image by extracting unit frame images of the same time from each of the captured images received from a plurality of cameras installed at different locations in the work site and stitching each of the extracted unit frame images Operation method of workplace safety management device of
상기 생성해 출력하는 단계는,
상기 수신한 촬영영상을 분석하여 상기 추출한 객체의 깊이 정보를 취득하고, 상기 취득한 깊이 정보를 적용해 상기 VR 배경영상에 상기 이미지화한 객체를 합성하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.According to claim 7,
The step of generating and outputting,
A method of driving a virtual reality-based workplace safety management device for obtaining depth information of the extracted object by analyzing the received captured image, and synthesizing the imaged object to the VR background image by applying the acquired depth information.
상기 생성해 출력하는 단계는,
상기 추출한 객체의 깊이 정보를 취득하기 위하여 상기 추출한 객체와 관련해 수신되는 비콘정보에 의해 계산되는 거리값을 더 이용하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.According to claim 8,
The step of generating and outputting,
A driving method of a virtual reality-based workplace safety management device further using a distance value calculated by beacon information received in relation to the extracted object to obtain depth information of the extracted object.
상기 생성해 출력하는 단계는,
상기 작업현장에 이벤트나 상기 객체에서 오류가 감지될 때 VR 영상 관제모드로 전환하는 가상현실 기반의 작업현장 안전관리장치의 구동방법.According to claim 8,
The step of generating and outputting,
A method of driving a virtual reality-based workplace safety management device that switches to a VR video control mode when an event or an error is detected in the object at the workplace.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200049834A KR102468685B1 (en) | 2020-04-24 | 2020-04-24 | Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200049834A KR102468685B1 (en) | 2020-04-24 | 2020-04-24 | Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210131581A KR20210131581A (en) | 2021-11-03 |
KR102468685B1 true KR102468685B1 (en) | 2022-11-21 |
Family
ID=78505031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200049834A KR102468685B1 (en) | 2020-04-24 | 2020-04-24 | Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102468685B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114863489B (en) * | 2022-07-05 | 2022-09-20 | 河北工业大学 | Virtual reality-based movable intelligent auxiliary inspection method and system for construction site |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9571816B2 (en) * | 2012-11-16 | 2017-02-14 | Microsoft Technology Licensing, Llc | Associating an object with a subject |
KR101914228B1 (en) * | 2017-02-17 | 2018-11-02 | 주식회사 영신 | IOT Based Safety Management System for Construction Site Using the RTLS and Video Control Technology |
KR102434402B1 (en) * | 2017-09-19 | 2022-08-22 | 한국전자통신연구원 | Apparatus and method for providing mixed reality content |
KR102031670B1 (en) * | 2017-11-17 | 2019-10-14 | 주식회사 코이노 | Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same |
KR102074684B1 (en) | 2018-03-21 | 2020-02-20 | (주)브이알에이포인트 | Method for providing ar or vr image based on location information and direction information |
KR101944823B1 (en) | 2018-06-07 | 2019-02-07 | (주)영신디엔씨 | Underground Facilities Detection System Using Augmented Reality and Virtual Reality |
KR102014652B1 (en) | 2018-08-23 | 2019-08-27 | (주)알비디케이 | AR/VR based integrated building sales system |
KR102127921B1 (en) | 2018-09-13 | 2020-06-29 | (주)이노시스 | Real time multi-image information providing system |
KR102171935B1 (en) | 2018-09-14 | 2020-10-30 | (주) 토즈 | Method for providing interior service based virtual reality |
-
2020
- 2020-04-24 KR KR1020200049834A patent/KR102468685B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20210131581A (en) | 2021-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11710322B2 (en) | Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program | |
KR101835434B1 (en) | Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value | |
US10373035B2 (en) | Method and system for determining spatial characteristics of a camera | |
KR102111935B1 (en) | Display control apparatus, display control method, and program | |
CN108737793B (en) | Method, system and device for tracking moving object by using camera network | |
US20170094227A1 (en) | Three-dimensional spatial-awareness vision system | |
JP2016213815A (en) | Method of providing vehicle surrounding view image, and device and computer readable recording medium therefor | |
KR101048508B1 (en) | System and method for realtime monitoring of harbor image using smart device | |
JP2010109452A (en) | Vehicle surrounding monitoring device and vehicle surrounding monitoring method | |
EP3300045A1 (en) | System and method for surveilling a scene comprising an allowed region and a restricted region | |
WO2019019819A1 (en) | Mobile electronic device and method for processing tasks in task region | |
CN115597659B (en) | Intelligent safety management and control method for transformer substation | |
KR102327872B1 (en) | Apparatus for Extracting GPS Coordinate of Image-based Tracking Object and Driving Method Thereof | |
JP2010109451A (en) | Vehicle surrounding monitoring device, and vehicle surrounding monitoring method | |
KR102468685B1 (en) | Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof | |
WO2016135985A1 (en) | Information providing method, information providing program, information providing device, information processing device, and information providing system | |
KR101410985B1 (en) | monitoring system and monitoring apparatus using security camera and monitoring method thereof | |
KR101700651B1 (en) | Apparatus for tracking object using common route date based on position information | |
JP5514062B2 (en) | Electronic device, imaging screen display method with information, and program | |
JP6368503B2 (en) | Obstacle monitoring system and program | |
KR101356172B1 (en) | Apparatus and method for producing three-dimensional image for remote control | |
KR102008672B1 (en) | System for Performing Linkage Operation of Augmented Reality and Event in Association with Camera and Driving Method Thereof | |
JP7437930B2 (en) | Mobile objects and imaging systems | |
CN112528699A (en) | Method and system for obtaining identification information of a device or its user in a scene | |
US20190080179A1 (en) | Monitoring system and terminal device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |