KR102639276B1 - Remote control device and system for remotely controlling robot using various work contents in virtual space - Google Patents

Remote control device and system for remotely controlling robot using various work contents in virtual space Download PDF

Info

Publication number
KR102639276B1
KR102639276B1 KR1020210176065A KR20210176065A KR102639276B1 KR 102639276 B1 KR102639276 B1 KR 102639276B1 KR 1020210176065 A KR1020210176065 A KR 1020210176065A KR 20210176065 A KR20210176065 A KR 20210176065A KR 102639276 B1 KR102639276 B1 KR 102639276B1
Authority
KR
South Korea
Prior art keywords
robot
user terminal
remote control
content
control device
Prior art date
Application number
KR1020210176065A
Other languages
Korean (ko)
Other versions
KR20230087691A (en
Inventor
문종술
김승훈
김근환
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020210176065A priority Critical patent/KR102639276B1/en
Publication of KR20230087691A publication Critical patent/KR20230087691A/en
Application granted granted Critical
Publication of KR102639276B1 publication Critical patent/KR102639276B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치 및 시스템이 개시된다. 본 발명의 원격제어장치는 로봇과 사용자 단말과 통신을 하는 통신부 및 로봇으로부터 영상정보 및 3차원 공간정보를 수신하면 수신된 정보를 이용하여 객체를 검출하고, 검출된 객체를 기반으로 로봇의 이동경로를 생성하며, 영상정보를 기초로 사용자 단말에서 로봇의 작업을 선택하여 제어할 수 있는 사용자 인터페이스, 객체 및 이동경로가 표시되는 콘텐츠를 생성하고, 생성된 콘텐츠를 사용자 단말로 전송시키는 제어부를 포함한다.The present invention discloses a remote control device and system that remotely controls a robot using various work contents in virtual space. The remote control device of the present invention detects an object using the received information when it receives image information and 3D spatial information from the communication unit and robot that communicates with the robot and the user terminal, and determines the robot's movement path based on the detected object. It generates content that displays a user interface, object, and movement path that can be controlled by selecting the task of the robot on the user terminal based on image information, and includes a control unit that transmits the generated content to the user terminal. .

Description

가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치 및 시스템{Remote control device and system for remotely controlling robot using various work contents in virtual space}Remote control device and system for remotely controlling robot using various work contents in virtual space}

본 발명은 로봇의 원격 제어 기술에 관한 것으로, 더욱 상세하게는 원격지에서 실제 영상의 작업 대상물 종류와 영역 등을 가상 공간에 표현하여 원활한 로봇 제어를 할 수 있도록 지원하는 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치 및 시스템에 관한 것이다.The present invention relates to remote control technology for robots, and more specifically, using various work contents in virtual space that support smooth robot control by expressing the type and area of work objects in real images in virtual space from a remote location. This relates to remote control devices and systems that control robots remotely.

산불, 지진, 해일 등과 같은 재난은 그 자체만으로 사람에게 큰 피해를 주기도 하지만 그로 인한 산업 시설의 파손으로 인해 2차 피해가 발생할 뿐만 아니라, 2차 피해로 인한 인명 피해가 발생하는 경우가 많다.Disasters such as forest fires, earthquakes, and tsunamis themselves cause great damage to people, but not only do they cause secondary damage due to damage to industrial facilities, but the secondary damage often causes casualties.

일 예로 2011년 3월 11일에 일본의 동일본해에서 발생한 9.0 강도의 지진은 14m 이상의 쓰나미를 발생시켜 많은 인명 피해를 야기시키고, 후쿠시마 원전에 손상을 입혀 방사능 누출이라는 심각한 피해를 발생시켰다.For example, a magnitude 9.0 earthquake that occurred in Japan's East Japan Sea on March 11, 2011 generated a tsunami of more than 14 meters, causing many casualties and damaging the Fukushima nuclear power plant, causing serious damage from radioactive leaks.

이와 같은 재난 상황에서는 후쿠시마 원전에 손상을 입혀 방사능 누출이라는 심각한 피해를 발생시켰다.In such a disaster situation, the Fukushima nuclear power plant was damaged, causing serious damage in the form of a radioactive leak.

이와 같은 후쿠시마 원전 사고에서는 원전 내부의 상태를 파악하거나 방사능 누출을 차단하기 위한 수리 등의 작업에 사람이 직접 투입되는 것 자체가 큰 위험 요소를 안고 있으므로 사람을 대신할 이동 로봇이 필요하게 되고, 이동 로봇이 재난 상황에서 재난의 확산을 방지하고 피해를 최소화하며 사고 처리를 수행하는 등 다양한 기능을 수행하게 된다.In the case of the Fukushima nuclear power plant accident, the direct involvement of humans in tasks such as assessing the condition of the nuclear power plant or making repairs to block radiation leaks poses a significant risk factor, so mobile robots are needed to replace people. Robots perform various functions in disaster situations, such as preventing the spread of disaster, minimizing damage, and handling accidents.

한편 사람이 투입되기 힘든 상황에서 제어되는 로봇의 경우, 대부분 사람에 의해 원격 제어가 이루어지는 특징이 있다. 따라서 원격지에 위치한 조정자가 로봇의 주변 환경을 확인하면서 조정이 가능하도록 로봇에 카메라를 설치하고, 카메라에 의해 전송된 촬영 영상을 주시하면서 로봇을 제어한다. 하지만 이러한 제어는 조정자가 원격 제어를 하는데 있어서 제약이 많으며, 제어 자체가 어려운 점을 가지고 있다.Meanwhile, in the case of robots controlled in situations where it is difficult for humans to be involved, most robots are controlled remotely by humans. Therefore, a remote coordinator installs a camera on the robot so that it can be adjusted while checking the robot's surrounding environment, and controls the robot while watching the captured images transmitted by the camera. However, this control has many limitations in remote control by the coordinator, and the control itself is difficult.

한국등록특허공보 제10-1478908호 (2015.01.02.)Korean Patent Publication No. 10-1478908 (2015.01.02.)

본 발명이 이루고자 하는 기술적 과제는 원격지에서의 작업이 쉬워지도록 가상 공간에서 실제 영상의 작업 대상물 종류와 영역 등을 표현하는 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치 및 시스템을 제공하는데 목적이 있다.The technical problem to be achieved by the present invention is a remote control device and system that remotely controls a robot using various work contents in virtual space that represent the type and area of the work object in the actual image in virtual space to make work in remote locations easier. The purpose is to provide.

본 발명이 이루고자 하는 다른 기술적 과제는 사용자가 원하는 객체만을 선택적으로 인식할 수 있는 가상 공간에서 다양한 작업 콘텐츠를 제공하여 원격에서 로봇을 제어하는 원격제어장치 및 시스템을 제공하는데 목적이 있다.Another technical problem to be achieved by the present invention is to provide a remote control device and system that remotely controls a robot by providing various work contents in a virtual space where the user can selectively recognize only the desired objects.

상기 목적을 달성하기 위해 본 발명에 따른 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치는 로봇과 사용자 단말과 통신을 하는 통신부 및 상기 로봇으로부터 영상정보 및 3차원 공간정보를 수신하면 상기 수신된 정보를 이용하여 객체를 검출하고, 상기 검출된 객체를 기반으로 상기 로봇의 이동경로를 생성하며, 상기 영상정보를 기초로 상기 사용자 단말에서 상기 로봇의 작업을 선택하여 제어할 수 있는 사용자 인터페이스, 상기 객체 및 상기 이동경로가 표시되는 콘텐츠를 생성하고, 상기 생성된 콘텐츠를 상기 사용자 단말로 전송시키는 제어부를 포함한다.In order to achieve the above object, a remote control device that remotely controls a robot using various work contents in a virtual space according to the present invention includes a communication unit that communicates with the robot and a user terminal, and image information and 3D spatial information from the robot. When received, an object can be detected using the received information, a movement path of the robot can be created based on the detected object, and a task of the robot can be selected and controlled from the user terminal based on the image information. It includes a control unit that generates content that displays a user interface, the object, and the movement path, and transmits the generated content to the user terminal.

또한 상기 제어부는, 딥러닝 기반의 인공지능 모델을 이용하여 상기 객체를 검출하는 것을 특징으로 한다.In addition, the control unit is characterized in that it detects the object using a deep learning-based artificial intelligence model.

또한 상기 제어부는, 상기 사용자 단말로부터 수신된 객체 선택과 관련된 사용자 입력에 따라 원하는 객체만이 선택적으로 표시되도록 상기 콘텐츠를 생성하는 것을 특징으로 한다.In addition, the control unit is characterized in that it generates the content so that only desired objects are selectively displayed according to a user input related to object selection received from the user terminal.

또한 상기 제어부는, 상기 사용자 단말로부터 수신된 작업 선택과 관련된 사용자 입력에 따라 상기 작업과 관련된 객체만이 선택적으로 표시되도록 상기 콘텐츠를 생성하는 것을 특징으로 한다.In addition, the control unit is characterized in that it generates the content so that only objects related to the task are selectively displayed according to a user input related to task selection received from the user terminal.

또한 상기 제어부는, 상기 3차원 공간정보를 이용하여 상기 객체와 상기 로봇의 상대거리가 표시되도록 상기 콘텐츠를 생성하는 것을 특징으로 한다.In addition, the control unit generates the content so that the relative distance between the object and the robot is displayed using the 3D spatial information.

또한 상기 제어부는, 상기 로봇에 장착된 작업 도구의 자세 정보를 더 수신하고, 상기 작업 도구가 상기 객체에 향하는 경우, 연장선을 통해 상기 객체를 조작하는 가이드라인이 표시되도록 상기 콘텐츠를 생성하는 것을 특징으로 한다.In addition, the control unit further receives posture information of the work tool mounted on the robot, and generates the content so that guidelines for manipulating the object are displayed through an extension line when the work tool is directed to the object. Do it as

또한 상기 제어부는, 1인칭 영상정보 및 3인칭 로봇 상태를 동시에 표현되도록 상기 콘텐츠를 생성하는 것을 특징으로 한다.In addition, the control unit is characterized in that it generates the content so that first-person image information and third-person robot status are simultaneously expressed.

본 발명에 따른 원격제어시스템은 이동이 가능하고, 기 설정된 작업을 수행하는 로봇, 상기 로봇을 원격지에서 제어하는 사용자 단말 및 상기 로봇 및 상기 사용자 단말 사이에서 상기 사용자 단말이 상기 로봇을 원격 제어하도록 지원하는 원격제어장치를 포함하되, 상기 원격제어장치는, 상기 로봇과 상기 사용자 단말과 통신을 하는 통신부 및 상기 로봇으로부터 영상정보 및 3차원 공간정보를 수신하면 상기 수신된 정보를 이용하여 객체를 검출하고, 상기 검출된 객체를 기반으로 상기 로봇의 이동경로를 생성하며, 상기 영상정보를 기초로 상기 사용자 단말에서 상기 로봇의 작업을 선택하여 제어할 수 있는 사용자 인터페이스, 상기 객체 및 상기 이동경로가 표시되는 콘텐츠를 생성하고, 상기 생성된 콘텐츠를 상기 사용자 단말로 전송시키는 제어부를 포함하는 것을 특징으로 한다.The remote control system according to the present invention is capable of moving and supports a robot that performs a preset task, a user terminal that remotely controls the robot, and the user terminal remotely controls the robot between the robot and the user terminal. It includes a remote control device, wherein the remote control device receives image information and 3D spatial information from a communication unit that communicates with the robot and the user terminal, and detects an object using the received information. , A user interface that generates a movement path of the robot based on the detected object and can select and control the robot's work at the user terminal based on the image information, and where the object and the movement path are displayed. It is characterized by comprising a control unit that generates content and transmits the generated content to the user terminal.

본 발명의 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치 및 시스템은 격지에서의 작업이 쉬워지도록 가상 공간에서 실제 영상의 작업 대상물 종류와 영역 등을 표현함으로써, 객체의 정보를 다양하고 정확하게 표현할 수 있다.The remote control device and system of the present invention that controls a robot remotely using various work contents in a virtual space expresses the type and area of the work object in the actual image in the virtual space to make work in remote areas easier, thereby providing information on the object. can be expressed diversely and accurately.

또한 사용자가 원하는 객체만을 선택적으로 인식할 수 있도록 별도의 사용자 인터페이스(UI)를 제공하여 작업 편의성을 극대화할 수 있다.Additionally, work convenience can be maximized by providing a separate user interface (UI) so that users can selectively recognize only the objects they want.

도 1은 본 발명의 실시예에 따른 원격제어시스템을 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 원격제어장치를 설명하기 위한 블록도이다.
도 3은 도 2의 제어부를 설명하기 위한 블록도이다.
도 4는 도 3의 가상환경 생성부를 설명하기 위한 블록도이다.
도 5는 본 발명의 실시예에 따른 가상 공간에서 사용자 인터페이스를 표시한 콘텐츠를 설명하기 위한 도면이다.
도 6은 도 5의 콘텐츠가 HMD에서 출력되는 모습을 설명하기 위한 도면이다.
1 is a configuration diagram for explaining a remote control system according to an embodiment of the present invention.
Figure 2 is a block diagram for explaining a remote control device according to an embodiment of the present invention.
FIG. 3 is a block diagram for explaining the control unit of FIG. 2.
FIG. 4 is a block diagram for explaining the virtual environment creation unit of FIG. 3.
Figure 5 is a diagram for explaining content displayed on a user interface in a virtual space according to an embodiment of the present invention.
FIG. 6 is a diagram for explaining how the content of FIG. 5 is output from the HMD.

이하 본 발명의 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 당업자에게 자명하거나 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. First, it should be noted that when adding reference numerals to components in each drawing, the same components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present invention, if a detailed description of a related known configuration or function is determined to be obvious to those skilled in the art or may obscure the gist of the present invention, the detailed description will be omitted.

도 1은 본 발명의 실시예에 따른 원격제어시스템을 설명하기 위한 구성도이다.1 is a configuration diagram for explaining a remote control system according to an embodiment of the present invention.

도 1을 참조하면, 원격제어시스템(400)은 원격지에서의 작업이 쉬워지도록 가상 공간에서 실제 영상의 작업 대상물 종류와 영역 등을 표현한다. 원격제어시스템(400)은 사용자가 원하는 객체만을 선택적으로 인식할 수 있는 가상 공간에서 다양한 작업 콘텐츠를 제공하여 원격에서 로봇을 제어한다. 원격제어시스템(400)는 원격제어장치(100), 로봇(200) 및 사용자 단말(300)을 포함한다.Referring to FIG. 1, the remote control system 400 expresses the type and area of the work object of the actual image in a virtual space to facilitate work in a remote location. The remote control system 400 controls the robot remotely by providing various work contents in a virtual space where the user can selectively recognize only the desired objects. The remote control system 400 includes a remote control device 100, a robot 200, and a user terminal 300.

원격제어장치(100)는 로봇(200) 및 사용자 단말(300) 사이에서 사용자 단말(300)이 로봇(200)을 원격 제어하도록 지원한다. 원격제어장치(100)는 로봇(200)으로부터 수신된 영상정보 및 3차원 공간정보를 기반으로 사용자 단말(300)에서 출력하는 콘텐츠를 생성하고, 생성된 콘텐츠를 사용자 단말(300)로 전송한다. 여기서 콘텐츠는 가상 공간에서 로봇(200)이 다양한 작업을 수행하도록 지원하는 콘텐츠로써, 사용자 입력에 따라 작업, 객체, 이동경로 등을 선택할 수 있는 사용자 인터페이스를 포함한다. 원격제어장치(100)는 데스크톱, 서버 컴퓨터, 클러스터 컴퓨터 등을 포함하는 서버용 컴퓨터일 수 있다.The remote control device 100 supports the user terminal 300 to remotely control the robot 200 between the robot 200 and the user terminal 300. The remote control device 100 generates content to be output from the user terminal 300 based on the image information and 3D spatial information received from the robot 200 and transmits the generated content to the user terminal 300. Here, the content is content that supports the robot 200 to perform various tasks in a virtual space, and includes a user interface that allows selection of tasks, objects, movement paths, etc. according to user input. The remote control device 100 may be a server computer including a desktop, server computer, cluster computer, etc.

로봇(200)은 원격제어장치(100)와의 통신을 하고, 원격제어장치(100)로부터 수신된 사용자 입력에 따라 이동 또는 작업을 수행한다. 이를 위해 로봇(200)는 이동을 가능하게 하는 이동수단과, 기 설정된 작업을 수행하기 위한 로봇 관절, 암 등을 포함한다. 기 설정된 작업은 작업 도구를 통한 객체 조작, 객체 이동 등이 포함될 수 있다. 또한 로봇(200)은 스테레오 카메라(stereo camera) 및 라이다(LiDAR)를 포함하여 영상정보 및 깊이정보를 측정함으로써, 3차원 공간정보를 수집할 수 있으며, 각 관절에 대한 상태를 감지하는 관절 정보도 수집할 수 있다. 로봇(200)는 수집된 정보를 원격제어장치(100)로 전송한다.The robot 200 communicates with the remote control device 100 and moves or performs tasks according to user input received from the remote control device 100. To this end, the robot 200 includes a moving means that enables movement, and robot joints, arms, etc. to perform preset tasks. Preset tasks may include object manipulation using work tools, object movement, etc. In addition, the robot 200 can collect three-dimensional spatial information by measuring image information and depth information, including a stereo camera and LiDAR, and joint information that detects the state of each joint. can also be collected. The robot 200 transmits the collected information to the remote control device 100.

사용자 단말(300)은 원격제어장치(100)와의 통신을 하고, 원격제어장치(100)로부터 로봇(200)과 관련된 콘텐츠를 수신하고, 수신된 콘텐츠를 출력한다. 사용자 단말(300)은 출력된 콘텐츠에 대응되는 사용자 입력이 입력되면 입력된 사용자 입력을 원격제어장치(100)로 전송하여 사용자 입력에 따라 로봇(200)이 제어되도록 한다. 사용자 단말(300)은 HMD(Head Mounted Display), 스마트폰, 랩톱, 데스크톱, 테블릿 PC, 핸드헬드 PC 등을 포함하는 개인용 컴퓨팅 시스템일 수 있고, 바람직하게는 가상 공간을 출력하기에 특화된 HMD일 수 있다.The user terminal 300 communicates with the remote control device 100, receives content related to the robot 200 from the remote control device 100, and outputs the received content. When a user input corresponding to output content is input, the user terminal 300 transmits the input user input to the remote control device 100 so that the robot 200 is controlled according to the user input. The user terminal 300 may be a personal computing system including a Head Mounted Display (HMD), smartphone, laptop, desktop, tablet PC, handheld PC, etc., and is preferably an HMD specialized for outputting virtual space. You can.

한편 원격제어시스템(400)은 원격제어장치(100), 로봇(200) 및 사용자 단말(300) 간의 통신을 수행하기 위한 통신망(450)을 포함한다. 통신망(450)은 백본망과 가입자망으로 구성될 수 있다. 백본망은 X.25 망, Frame Relay 망, ATM망, MPLS(Multi Protocol Label Switching) 망 및 GMPLS(Generalized Multi Protocol Label Switching) 망 중 하나 또는 복수의 통합된 망으로 구성될 수 있다. 가입자망은 FTTH(Fiber To The Home), ADSL(Asymmetric Digital Subscriber Line), 케이블망, 지그비(zigbee), 블루투스(bluetooth), Wireless LAN(IEEE 802.11b, IEEE 802.11a, IEEE 802.11g, IEEE 802.11n), Wireless Hart(ISO/IEC62591-1), ISA100.11a(ISO/IEC 62734), CoAP(Constrained Application Protocol), MQTT(Message Queuing Telemetry Transport), WIBro(Wireless Broadband), Wimax, 3G, HSDPA(High Speed Downlink Packet Access), 4G 및 5G일 수 있다. 일부 실시예로, 통신망(450)은 인터넷망일 수 있고, 이동 통신망일 수 있다. 또한 통신망(450)은 기타 널리 공지되었거나 향후 개발될 모든 무선통신 또는 유선통신 방식을 포함할 수 있다.Meanwhile, the remote control system 400 includes a communication network 450 for communicating between the remote control device 100, the robot 200, and the user terminal 300. The communication network 450 may be composed of a backbone network and a subscriber network. The backbone network can be composed of one of the X.25 network, Frame Relay network, ATM network, MPLS (Multi Protocol Label Switching) network, and GMPLS (Generalized Multi Protocol Label Switching) network, or multiple integrated networks. Subscriber networks include FTTH (Fiber To The Home), ADSL (Asymmetric Digital Subscriber Line), cable network, zigbee, Bluetooth, and Wireless LAN (IEEE 802.11b, IEEE 802.11a, IEEE 802.11g, IEEE 802.11n). ), Wireless Hart (ISO/IEC62591-1), ISA100.11a (ISO/IEC 62734), CoAP (Constrained Application Protocol), MQTT (Message Queuing Telemetry Transport), WIBro (Wireless Broadband), Wimax, 3G, HSDPA (High Speed Downlink Packet Access), 4G and 5G. In some embodiments, the communication network 450 may be an Internet network or a mobile communication network. Additionally, the communication network 450 may include any wireless or wired communication method that is well known or will be developed in the future.

도 2는 본 발명의 실시예에 따른 원격제어장치를 설명하기 위한 블록도이다.Figure 2 is a block diagram for explaining a remote control device according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 원격제어장치(100)는 통신부(10) 및 제어부(30)를 포함하고, 저장부(50)를 더 포함할 수 있다.Referring to Figures 1 and 2, the remote control device 100 includes a communication unit 10 and a control unit 30, and may further include a storage unit 50.

통신부(10)는 로봇(200)과 사용자 단말(300)과 통신을 한다. 통신부(10)는 로봇(200)으로부터 영상정보, 3차원 공간정보, 관절 정보 등을 수신하고, 로봇을 제어하는 사용자 입력을 로봇(200)에 전송한다. 통신부(10)는 로봇과 관련된 콘텐츠를 사용자 단말(300)로 전송하고, 사용자 단말(300)로부터 로봇을 제어하는 사용자 입력을 수신한다.The communication unit 10 communicates with the robot 200 and the user terminal 300. The communication unit 10 receives image information, 3D spatial information, joint information, etc. from the robot 200 and transmits a user input for controlling the robot to the robot 200. The communication unit 10 transmits content related to the robot to the user terminal 300 and receives user input for controlling the robot from the user terminal 300.

제어부(30)는 원격제어장치(100)의 전반적인 제어를 수행한다. 제어부(30)는 로봇(200)으로부터 영상정보 및 3차원 공간정보를 수신하면 수신된 정보를 이용하여 객체를 검출한다. 이때 제어부(30)는 딥러닝 기반의 객체 영역 검출(instance segmentation)을 수행하여 객체를 검출할 수 있다. 제어부(30)는 검출된 객체를 기반으로 로봇(200)의 이동경로를 생성한다. 또한 제어부(30)는 사용자 단말(300)에서 로봇의 작업을 선택하여 제어할 수 있는 사용자 인터페이스, 객체 및 이동경로가 표시되는 콘텐츠를 생성한다. 제어부(30)는 생성된 콘텐츠를 사용자 단말(300)로 전송시킨다. 제어부(30)는 사용자 단말(300)로부터 전송된 콘텐츠에 대응되는 사용자 입력이 수신되면 사용자 입력에 따라 콘텐츠를 제어하고, 로봇(200) 제어에 대한 사용자 입력이 수신되면 해당 사용자 입력을 로봇(200)으로 전달한다. 이를 통해 제어부(30)는 로봇(200)이 사용자 입력에 따라 동작할 수 있도록 할 수 있다.The control unit 30 performs overall control of the remote control device 100. When the control unit 30 receives image information and 3D spatial information from the robot 200, it detects an object using the received information. At this time, the control unit 30 may detect the object by performing deep learning-based object segmentation (instance segmentation). The control unit 30 creates a movement path of the robot 200 based on the detected object. Additionally, the control unit 30 generates content that displays a user interface, objects, and movement paths that can be controlled by selecting a task for the robot on the user terminal 300. The control unit 30 transmits the generated content to the user terminal 300. When a user input corresponding to content transmitted from the user terminal 300 is received, the control unit 30 controls the content according to the user input, and when a user input for controlling the robot 200 is received, the control unit 30 controls the user input to the robot 200. ) is transmitted. Through this, the control unit 30 can enable the robot 200 to operate according to user input.

저장부(50)는 원격제어장치(100)가 구동하기 위한 프로그램 또는 알고리즘이 저장된다. 저장부(50)는 로봇(200)으로부터 수신된 영상정보, 3차원 공간정보, 관절 정보가 저장된다. 저장부(50)는 제어부(30)로부터 생성된 콘텐츠가 저장된다. 또한 저장부(50)는 사용자 단말(300)로부터 수신된 사용자 입력이 저장된다. 저장부(50)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기메모리, 자기 디스크 및 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다. The storage unit 50 stores a program or algorithm for the remote control device 100 to operate. The storage unit 50 stores image information, 3D spatial information, and joint information received from the robot 200. The storage unit 50 stores content generated by the control unit 30. Additionally, the storage unit 50 stores user input received from the user terminal 300. The storage unit 50 includes a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory, etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), magnetic memory, It may include at least one storage medium of a magnetic disk and an optical disk.

도 3은 도 2의 제어부를 설명하기 위한 블록도이고, 도 4는 도 3의 가상환경 생성부를 설명하기 위한 블록도이며, 도 5는 본 발명의 실시예에 따른 가상 공간에서 사용자 인터페이스를 표시한 콘텐츠를 설명하기 위한 도면이고, 도 6은 도 5의 콘텐츠가 HMD에서 출력되는 모습을 설명하기 위한 도면이다.FIG. 3 is a block diagram for explaining the control unit of FIG. 2, FIG. 4 is a block diagram for explaining the virtual environment creation unit of FIG. 3, and FIG. 5 shows a user interface in a virtual space according to an embodiment of the present invention. This is a diagram for explaining content, and FIG. 6 is a diagram for explaining how the content in FIG. 5 is output from the HMD.

도 1 내지 도 5를 참조하면, 제어부(30)는 객체 검출부(31), 이동경로 생성부(33) 및 가상환경 생성부(35)를 포함한다.1 to 5, the control unit 30 includes an object detection unit 31, a movement path creation unit 33, and a virtual environment creation unit 35.

객체 검출부(31)는 로봇(200)으로부터 영상정보 및 3차원 공간정보를 이용하여 객체를 검출한다. 객체 검출부(31)는 딥러닝 기반으로 구현된 을 이용하여 객체 영역을 검출하고, 검출된 객체 영역에 포함된 객체를 인식한다. 여기서 인공지능 모델은 R-CNN, Fast R-CNN, Faster R-CNN, R-FCN, YOLO, SSD 등을 포함할 수 있으나, 이에 한정하지 않는다. The object detection unit 31 detects an object using image information and 3D spatial information from the robot 200. The object detection unit 31 detects the object area using , implemented based on deep learning, and recognizes the object included in the detected object area. Here, the artificial intelligence model may include, but is not limited to, R-CNN, Fast R-CNN, Faster R-CNN, R-FCN, YOLO, SSD, etc.

이동경로 생성부(33)는 사용자 단말(300)로부터 수신된 사용자 입력에 따라 로봇(200)이 이동하는 이동경로를 생성한다. 즉 이동경로 생성부(33)는 로봇(200)의 현재 위치에서 사용자 입력에 포함된 목적지까지 최적의 경로로 이동하는 이동경로를 생성할 수 있다. 예를 들어 이동경로 생성부(33)는 로봇(200)이 위치한 환경에 있는 다양한 장애물을 회피하면서 최종 목적지로 이동하도록 이동경로를 생성할 수 있다. 이때 이동경로 생성부(33)는 검출된 객체, 3차원 공간정보를 기반으로 SLAM(Simultaneous Localization And Mapping) 기술을 접목하여 이동경로를 생성할 수 있다.The movement path generator 33 generates a movement path along which the robot 200 moves according to the user input received from the user terminal 300. That is, the movement path creation unit 33 can create a movement path that moves from the current location of the robot 200 to the destination included in the user input along an optimal path. For example, the movement path generator 33 may generate a movement path so that the robot 200 moves to the final destination while avoiding various obstacles in the environment where the robot 200 is located. At this time, the movement path creation unit 33 may generate a movement path by applying SLAM (Simultaneous Localization And Mapping) technology based on the detected object and 3D spatial information.

가상환경 생성부(35)는 영상정보를 기초로 로봇의 작업을 선택하여 제어할 수 있는 사용자 인터페이스, 객체 및 이동경로가 표시되는 콘텐츠를 생성한다. 가상환경 생성부(35)는 사용자 단말(300)로부터 수신된 객체 선태과 관련된 사용자 입력에 따라 원하는 객체만이 선택적으로 표시되도록 콘텐츠를 생성할 수 있다. 가상환경 생성부(35)는 사용자 단말(300)로부터 수신된 작업 선택과 관련된 사용자 입력에 따라 작업과 관련된 객체만을 선택적으로 표시되도록 콘텐츠를 생성할 수 있다. 예를 들어 작업이 소방 작업인 경우, 소방 물체와 관련된 소화기, 호스, 수돗가 등과 같은 객체만 표시되도록 콘텐츠를 생성할 수 있다. 가상환경 생성부(35)는 3차원 공간정보를 이용하여 객체와 로봇(200)의 상대거리가 표시되도록 콘텐츠를 생성할 수 있다. 또한 가상환경 생성부(35)는 로봇(200)으로부터 로봇(200)에 장착된 작업 도구의 자세 정보를 더 수신하고, 작업 도구가 객체에 향하는 경우, 연장선을 통해 객체를 조작하는 가이드라인이 표시되도록 콘텐츠를 생성할 수 있다. 여기서 가상환경 생성부(35)는 1인칭 영상정보 및 3인칭 로봇 상태를 동시에 표현되도록 콘텐츠를 생성할 수 있다. 이러한 콘텐츠를 제공하기 위해 가상환경 생성부(35)는 개별적인 사용자 인터페이스를 제공하는 모듈을 포함할 수 있고, 바람직하게는 로봇 상태 표시 UI(41), 객체 검출 표시 UI(43), 이동 경로 표시 UI(45), 작업 유형 선택 UI(47)를 포함한다. 예를 들어 가상환경 생성부(35)는 영상정보를 기초로 작업종류를 선택하는 UI, 객체인식 물체를 선택하는 UI, 출력 데이터를 선택하는 UI 등을 표시하고, 3차원 로봇 자세, 이동경로, 상대거리, 객체, 물체조작 가이드라인 등을 표시하는 콘텐츠를 생성할 수 있다(도 4). 특히 가상환경 생성부(35)는 사용자 단말(300)이 HMD인 경우, 콘텐츠가 출력되는 HMD에 맞도록 콘텐츠를 생성함으로써(도 5), 사용자가 현재 로봇의 상태를 간편하면서도 정확하게 인지할 수 있도록 도와준다.The virtual environment creation unit 35 generates content that displays a user interface, objects, and movement paths that can select and control robot tasks based on image information. The virtual environment creation unit 35 may generate content so that only desired objects are selectively displayed according to user input related to object selection received from the user terminal 300. The virtual environment creation unit 35 may generate content so that only objects related to the task are selectively displayed according to a user input related to task selection received from the user terminal 300. For example, if the task is firefighting, you can create content so that only objects related to firefighting, such as fire extinguishers, hoses, taps, etc., are displayed. The virtual environment creation unit 35 may generate content to display the relative distance between the object and the robot 200 using 3D spatial information. In addition, the virtual environment creation unit 35 further receives posture information of the work tool mounted on the robot 200 from the robot 200, and when the work tool is directed to the object, a guideline for manipulating the object is displayed through an extension line. You can create content as much as possible. Here, the virtual environment creation unit 35 can generate content to simultaneously express first-person image information and third-person robot status. In order to provide such content, the virtual environment creation unit 35 may include a module that provides an individual user interface, preferably a robot status display UI 41, an object detection display UI 43, and a movement path display UI. (45), including the task type selection UI (47). For example, the virtual environment creation unit 35 displays a UI for selecting a task type based on image information, a UI for selecting an object recognition object, and a UI for selecting output data, and displays three-dimensional robot posture, movement path, etc. Content that displays relative distances, objects, object manipulation guidelines, etc. can be created (Figure 4). In particular, when the user terminal 300 is an HMD, the virtual environment creation unit 35 generates content to match the HMD on which the content is output (FIG. 5), so that the user can easily and accurately recognize the current state of the robot. help.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것은 아니며, 기술적 사상의 범주를 이탈함없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. Although the preferred embodiments have been described and illustrated above to illustrate the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described, and does not depart from the scope of the technical idea. Those skilled in the art will appreciate that many changes and modifications are possible to the present invention. Accordingly, all such appropriate changes, modifications and equivalents shall be considered to fall within the scope of the present invention.

10: 통신부
30: 제어부
31: 객체 검출부
33: 이동경로 생성부
35: 가상환경 생성부
41: 로봇 상태 표시 UI
43: 객체 검출 표시 UI
45: 이동 경로 표시 UI
47: 작업 유형 선택 UI
50: 저장부
100: 원격제어장치
200: 로봇
300: 사용자 단말
400: 원격제어시스템
450: 통신망
10: Department of Communications
30: control unit
31: object detection unit
33: Movement path creation unit
35: Virtual environment creation unit
41: Robot status display UI
43: Object detection display UI
45: Movement path display UI
47: Task type selection UI
50: storage unit
100: remote control device
200: Robot
300: User terminal
400: remote control system
450: communication network

Claims (8)

로봇과 사용자 단말과 통신을 하는 통신부; 및
상기 로봇으로부터 영상정보 및 3차원 공간정보를 수신하면 상기 수신된 정보를 이용하여 객체를 검출하고, 상기 검출된 객체를 기반으로 상기 로봇의 이동경로를 생성하며, 상기 영상정보를 기초로 상기 사용자 단말에서 상기 로봇의 작업을 선택하여 제어할 수 있는 사용자 인터페이스, 상기 객체 및 상기 이동경로가 표시되는 콘텐츠를 생성하고, 상기 생성된 콘텐츠를 상기 사용자 단말로 전송시키는 제어부;를 포함하고,
상기 제어부는,
상기 사용자 단말로부터 수신된 객체 선택과 관련된 사용자 입력에 따라 원하는 객체만이 선택적으로 표시되도록 상기 콘텐츠를 생성하는 것을 특징으로 하는 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치.
A communication unit that communicates with the robot and the user terminal; and
When image information and 3D spatial information are received from the robot, an object is detected using the received information, a movement path of the robot is generated based on the detected object, and the user terminal is based on the image information. It includes a user interface capable of selecting and controlling the robot's tasks, a control unit that generates content displaying the object and the movement path, and transmits the generated content to the user terminal;
The control unit,
A remote control device for remotely controlling a robot using various work contents in a virtual space, characterized in that the content is generated so that only desired objects are selectively displayed according to a user input related to object selection received from the user terminal.
제 1항에 있어서,
상기 제어부는,
딥러닝 기반의 인공지능 모델을 이용하여 상기 객체를 검출하는 것을 특징으로 하는 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치.
According to clause 1,
The control unit,
A remote control device that remotely controls a robot using various work contents in a virtual space, characterized by detecting the object using a deep learning-based artificial intelligence model.
삭제delete 제 1항에 있어서,
상기 제어부는,
상기 사용자 단말로부터 수신된 작업 선택과 관련된 사용자 입력에 따라 상기 작업과 관련된 객체만이 선택적으로 표시되도록 상기 콘텐츠를 생성하는 것을 특징으로 하는 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치.
According to clause 1,
The control unit,
A remote control for controlling a robot remotely using various task contents in a virtual space, characterized in that the content is generated so that only objects related to the task are selectively displayed according to a user input related to task selection received from the user terminal. Control device.
제 1항에 있어서,
상기 제어부는,
상기 3차원 공간정보를 이용하여 상기 객체와 상기 로봇의 상대거리가 표시되도록 상기 콘텐츠를 생성하는 것을 특징으로 하는 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치.
According to clause 1,
The control unit,
A remote control device for remotely controlling a robot using various work contents in a virtual space, characterized in that the content is generated to display the relative distance between the object and the robot using the 3D spatial information.
제 1항에 있어서,
상기 제어부는,
상기 로봇에 장착된 작업 도구의 자세 정보를 더 수신하고, 상기 작업 도구가 상기 객체에 향하는 경우, 연장선을 통해 상기 객체를 조작하는 가이드라인이 표시되도록 상기 콘텐츠를 생성하는 것을 특징으로 하는 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치.
According to clause 1,
The control unit,
Further receiving posture information of the work tool mounted on the robot, and generating the content so that guidelines for manipulating the object are displayed through an extension line when the work tool is directed to the object. A remote control device that remotely controls a robot using various work contents.
제 1항에 있어서,
상기 제어부는,
1인칭 영상정보 및 3인칭 로봇 상태를 동시에 표현되도록 상기 콘텐츠를 생성하는 것을 특징으로 하는 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치.
According to clause 1,
The control unit,
A remote control device that remotely controls a robot using various work contents in a virtual space, characterized in that the content is generated to simultaneously express first-person image information and third-person robot status.
이동이 가능하고, 기 설정된 작업을 수행하는 로봇;
상기 로봇을 원격지에서 제어하는 사용자 단말; 및
상기 로봇 및 상기 사용자 단말 사이에서 상기 사용자 단말이 상기 로봇을 원격 제어하도록 지원하는 원격제어장치;를 포함하되,
상기 원격제어장치는,
상기 로봇과 상기 사용자 단말과 통신을 하는 통신부; 및
상기 로봇으로부터 영상정보 및 3차원 공간정보를 수신하면 상기 수신된 정보를 이용하여 객체를 검출하고, 상기 검출된 객체를 기반으로 상기 로봇의 이동경로를 생성하며, 상기 영상정보를 기초로 상기 사용자 단말에서 상기 로봇의 작업을 선택하여 제어할 수 있는 사용자 인터페이스, 상기 객체 및 상기 이동경로가 표시되는 콘텐츠를 생성하고, 상기 생성된 콘텐츠를 상기 사용자 단말로 전송시키는 제어부;를 포함하고,
상기 제어부는,
상기 사용자 단말로부터 수신된 객체 선택과 관련된 사용자 입력에 따라 원하는 객체만이 선택적으로 표시되도록 상기 콘텐츠를 생성하는 것을 특징으로 하는 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 것을 특징으로 하는 원격제어시스템.
A robot that can move and perform preset tasks;
a user terminal that remotely controls the robot; and
Includes; a remote control device between the robot and the user terminal that supports the user terminal to remotely control the robot;
The remote control device is,
A communication unit that communicates with the robot and the user terminal; and
When image information and 3D spatial information are received from the robot, an object is detected using the received information, a movement path of the robot is generated based on the detected object, and the user terminal is based on the image information. It includes a user interface capable of selecting and controlling the robot's tasks, a control unit that generates content displaying the object and the movement path, and transmits the generated content to the user terminal;
The control unit,
Characterized in controlling the robot remotely using various work contents in a virtual space, characterized in that the content is generated so that only desired objects are selectively displayed according to user input related to object selection received from the user terminal. Remote control system.
KR1020210176065A 2021-12-09 2021-12-09 Remote control device and system for remotely controlling robot using various work contents in virtual space KR102639276B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210176065A KR102639276B1 (en) 2021-12-09 2021-12-09 Remote control device and system for remotely controlling robot using various work contents in virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210176065A KR102639276B1 (en) 2021-12-09 2021-12-09 Remote control device and system for remotely controlling robot using various work contents in virtual space

Publications (2)

Publication Number Publication Date
KR20230087691A KR20230087691A (en) 2023-06-19
KR102639276B1 true KR102639276B1 (en) 2024-02-22

Family

ID=86988596

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210176065A KR102639276B1 (en) 2021-12-09 2021-12-09 Remote control device and system for remotely controlling robot using various work contents in virtual space

Country Status (1)

Country Link
KR (1) KR102639276B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210081081A1 (en) * 2019-09-13 2021-03-18 Toyota Research Institute, Inc. Methods and systems for assigning force vectors to robotic tasks

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101151787B1 (en) * 2009-11-30 2012-05-31 재단법인대구경북과학기술원 Remotely controlled robot system with enhanced heading determination performance and remote controller in the system
KR101478908B1 (en) 2013-05-14 2015-01-02 고려대학교 산학협력단 Remote navigation system of mobile robot using augmented reality technology
KR101942837B1 (en) * 2016-05-25 2019-01-28 한국기술교육대학교 산학협력단 Cloud system of robot remote-actuation by way of game interface and method thereof
KR102197946B1 (en) * 2018-11-30 2021-01-04 (주)케이아이오티 object recognition and counting method using deep learning artificial intelligence technology

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210081081A1 (en) * 2019-09-13 2021-03-18 Toyota Research Institute, Inc. Methods and systems for assigning force vectors to robotic tasks

Also Published As

Publication number Publication date
KR20230087691A (en) 2023-06-19

Similar Documents

Publication Publication Date Title
US20200310624A1 (en) Augmentable and spatially manipulable 3d modeling
JP7315313B2 (en) 3D mapping of the process control environment
US10134293B2 (en) Systems and methods for autonomous drone navigation
Magid et al. Artificial intelligence based framework for robotic search and rescue operations conducted jointly by international teams
US10532456B2 (en) Creating assembly plans based on triggering events
US20230258463A1 (en) Methods and systems for response vehicle deployment
US20160085518A1 (en) Systems and methods for imaging and generation of executable processor instructions based on ordered objects
CN105252533A (en) Robot interactive system, cloud computing platform, user terminal and robot
KR102384543B1 (en) System and method for managing and controlling disaster situation using drone
US20220301270A1 (en) Systems and methods for immersive and collaborative video surveillance
JPWO2018194137A1 (en) Information processing apparatus, information processing method, and program
KR102356789B1 (en) Communication system and control method that can control device based on voice
CN112949790A (en) High-rise fire escape path planning system, method, equipment and medium
KR102639276B1 (en) Remote control device and system for remotely controlling robot using various work contents in virtual space
Mascareñas et al. Augmented reality for enabling smart nuclear infrastructure
JP6743080B2 (en) Display control system and display control method
KR102319649B1 (en) Remote training method and apparatus for drone flight in mixed reality
Naranjo et al. Intelligent oil field approach using virtual reality and mobile anthropomorphic robots
Kim et al. Mapping system with virtual reality for mobile robot teleoperation
Wu et al. Towards a framework for human factors in underwater robotics
US20180081375A1 (en) Systems, Devices, and Methods for Providing Drone Assistance
KR102543102B1 (en) Method, server and system for providing safety accident prevention service based on digital twin technology
CN113780706A (en) On-site operation and maintenance operation method and device based on visual enhancement
Konstantoudakis et al. Common Operational Picture and Interconnected Tools for Disaster Response: The FASTER Toolkit
KR102613390B1 (en) Method for providing augmented reality and system thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right