KR102422355B1 - An remote control system based on augmented reality for underater robot sterilization robot based on 3d environmental recognition - Google Patents

An remote control system based on augmented reality for underater robot sterilization robot based on 3d environmental recognition Download PDF

Info

Publication number
KR102422355B1
KR102422355B1 KR1020210001820A KR20210001820A KR102422355B1 KR 102422355 B1 KR102422355 B1 KR 102422355B1 KR 1020210001820 A KR1020210001820 A KR 1020210001820A KR 20210001820 A KR20210001820 A KR 20210001820A KR 102422355 B1 KR102422355 B1 KR 102422355B1
Authority
KR
South Korea
Prior art keywords
manipulator
joint
underwater robot
unit
augmented reality
Prior art date
Application number
KR1020210001820A
Other languages
Korean (ko)
Other versions
KR20220099657A (en
Inventor
박재한
배지훈
장가람
이동혁
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020210001820A priority Critical patent/KR102422355B1/en
Publication of KR20220099657A publication Critical patent/KR20220099657A/en
Application granted granted Critical
Publication of KR102422355B1 publication Critical patent/KR102422355B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

본 발명은 수중로봇 제어 시스템에 관한 것으로, 구체적으로는 증강현실기술을 활용하여 수중로봇을 원격으로 제어할 수 있는 로봇 제어 시스템에 관한 것이다. The present invention relates to an underwater robot control system, and more particularly, to a robot control system capable of remotely controlling an underwater robot using augmented reality technology.

Description

증강현실 기반의 수중로봇 원격제어 시스템{AN REMOTE CONTROL SYSTEM BASED ON AUGMENTED REALITY FOR UNDERATER ROBOT STERILIZATION ROBOT BASED ON 3D ENVIRONMENTAL RECOGNITION}AR-based underwater robot remote control system {AN REMOTE CONTROL SYSTEM BASED ON AUGMENTED REALITY FOR UNDERATER ROBOT STERILIZATION ROBOT BASED ON 3D ENVIRONMENTAL RECOGNITION}

본 발명은 수중로봇 제어 시스템에 관한 것으로, 구체적으로는 증강현실기술을 활용하여 수중로봇을 원격으로 제어할 수 있는 로봇 제어 시스템에 관한 것이다. The present invention relates to an underwater robot control system, and more particularly, to a robot control system capable of remotely controlling an underwater robot using augmented reality technology.

수중에서 진행이 필요한 작업의 경우, 잠수부 등의 사람이 진행하기에는 시간 및 비용이 많이 소요되며, 나아가 많은 위험성이 있으며, 이러한 여러가지 제약 때문에 수중 환경 작업은 로봇의 도입을 필요로 하는 대표적인 분야라고 할 수 있다.In the case of work that requires progress underwater, it takes a lot of time and money for a person such as a diver to proceed, and furthermore, there are many risks. have.

현재 수중에서 사람을 대신하여 작업을 수행하는 수중로봇의 경우, 통합되지 않은 정보를 다수 개의 모니터에 표시하고, 직관적이지 않은 조종장치로 다관절 로봇팔을 제어하며, 조종의 편이성이 개선된 조종장치의 경우 그 구조가 과도하게 복잡하다는 문제점이 있다.In the case of underwater robots that currently perform tasks on behalf of humans in the water, unintegrated information is displayed on multiple monitors, the multi-joint robot arm is controlled with a non-intuitive control device, and the handling convenience is improved. In the case of , there is a problem that the structure is excessively complicated.

나아가 다수의 작업자가 함께 협업하여 하나의 수중로봇을 조종하는 방식으로 운용되고 있어, 운용의 효율성이 떨어지고 수중로봇을 조정하기 위한 교육시간이 과도하게 길어진다는 문제점이 있다. Furthermore, since it is operated in such a way that a plurality of workers cooperate to control one underwater robot, there is a problem that the operation efficiency is reduced and the training time for adjusting the underwater robot is excessively long.

따라서 효율적인 수중로봇 조작 및 운용을 위한 컨트롤 시스템의 개발이 시급한 상황이다. Therefore, there is an urgent need to develop a control system for efficient operation and operation of underwater robots.

한편 하기 선행기술문헌에는 수중터널을 조사하는 수중로봇 및 수중로봇의 제어방법에 관한 기술을 개시하고 있으며, 본 발명의 기술적 요지는 개시하고 있지 않다. On the other hand, the following prior art document discloses a technology related to an underwater robot for irradiating an underwater tunnel and a method for controlling an underwater robot, but the technical gist of the present invention is not disclosed.

대한민국 공개특허공보 제20-2019-0136384호Republic of Korea Patent Publication No. 20-2019-0136384

본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템 은 전술한 문제점을 해결하기 위하여 다음과 같은 해결과제를 목적으로 한다.The augmented reality-based underwater robot remote control system according to an embodiment of the present invention aims to solve the following problems in order to solve the above problems.

사람의 움직임을 로봇제어에 그대로 적용되도록 직관적 인터페이스를 구축함으로써 로봇의 작업 현장에 작업자의 작업 효율을 높일 수 있는 수중로봇 원격제어 시스템을 제공하는 것이다.It is to provide an underwater robot remote control system that can increase the work efficiency of workers at the robot's work site by building an intuitive interface so that human movements are directly applied to robot control.

아울러 로봇 운용에 필요한 다양한 정보를 증강현실로 통합하여 조종자에게 제공함으로써 한명 또는 소수의 작업자만으로도 수중로봇의 조종이 가능한 수중로봇 원격제어 시스템을 제공하는 것이다. In addition, by integrating various information required for robot operation into augmented reality and providing the operator with an underwater robot remote control system, only one or a few workers can control the underwater robot.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당해 기술분야에 있어서의 통상의 지식을 가진 자에게 명확하게 이해되어 질 수 있을 것이다. The problems to be solved of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템 은, 수중의 환경정보를 검출하는 카메라와, 말단작업부, 실린더 액추에이터 및 관절을 구비하는 머니퓰레이터를 포함하는 수중로봇; 상기 말단작업부의 위치 및 방향의 조정을 위하여 사용자의 손으로 조작 가능하도록 구비되는 조정장치; 내부에 구비된 디스플레이를 통하여 상기 카메라가 검출한 수중의 환경정보에 상기 머니퓰레이터, 가상의 머니퓰레이터 및 상기 머니퓰레이터의 가상의 작업경로를 포함하는 가상정보를 렌더링하여 출력하되, 상기 사용자가 착용 가능하도록 구비되는 VR 디바이스; 및 상기 조정장치의 조작결과에 기초하여 상기 실린더 액추에이터의 구동명령을 생성하여 상기 실린더 액추에이터를 구동시키는 제어모듈;을 포함한다.An augmented reality-based underwater robot remote control system according to an embodiment of the present invention includes: an underwater robot including a camera for detecting underwater environmental information, and a manipulator having an end working part, a cylinder actuator, and a joint; an adjustment device provided to be operable by a user's hand to adjust the position and direction of the end working part; Rendering and outputting virtual information including the manipulator, the virtual manipulator, and a virtual working path of the manipulator to the underwater environment information detected by the camera through a display provided therein, provided so that the user can wear it VR devices; and a control module configured to generate a driving command for the cylinder actuator based on an operation result of the adjustment device to drive the cylinder actuator.

상기 카메라는 3DoF 능동 카메라이고, 상기 VR 디바이스의 회전에 기초하여 상기 카메라가 회전하는 것이 바람직하다.Preferably, the camera is a 3DoF active camera, and the camera rotates based on rotation of the VR device.

상기 제어모듈은, 상기 조정장치로부터 전달받은 상기 말단작업부의 목표위치정보에 기초하여 상기 말단작업부의 목표 이동속도를 산출하는 말단작업부 목표 이동속도 산출유닛; 상기 말단작업부의 목표 이동속도에 기초하여 상기 관절의 목표 회전각속도를 산출하는 목표 회전각속도 산출유닛; 상기 목표 회전각속도에 기초하여 상기 실린더 액추에이터의 실린더 로드의 목표 속도를 산출하는 실린더 로드 목표속도 산출유닛; 상기 실린더 로드 목표속도 산출유닛에 의하여 구동된 상기 머니퓰레이터의 구동상황을 실시간으로 검출하여 상기 관절의 실제각도를 산출하는 관절각도 산출유닛; 상기 관절의 실제각도에 기초하여 상기 말단작업부의 실제위치를 산출하는 실제위치 산출유닛;을 포함하는 것이 바람직하다.The control module may include: an end working part target moving speed calculating unit configured to calculate a target moving speed of the end working part based on the target position information of the end working part received from the adjusting device; a target rotational angular velocity calculating unit for calculating a target rotational angular velocity of the joint based on the target moving velocity of the end work unit; a cylinder rod target speed calculation unit for calculating a target speed of the cylinder rod of the cylinder actuator based on the target rotational angular speed; a joint angle calculation unit for calculating the actual angle of the joint by detecting the driving condition of the manipulator driven by the cylinder rod target speed calculating unit in real time; It is preferable to include; an actual position calculation unit for calculating the actual position of the end work part based on the actual angle of the joint.

상기 관절의 실제각도는 상기 목표 회전각속도 산출유닛 및 상기 실린더 로드 목표속도 산출유닛 중 적어도 하나에 피드백되는 것이 바람직하다.It is preferable that the actual angle of the joint is fed back to at least one of the target rotational angular velocity calculating unit and the cylinder rod target speed calculating unit.

상기 말단작업부의 실제위치는 상기 말단작업부 목표 이동속도 산출유닛으로 피드백되는 것이 바람직하다.It is preferable that the actual position of the end working part is fed back to the target moving speed calculating unit of the end working part.

사용자는 상기 조정장치를 이용하여 상기 증강현실 기반의 수중로봇 원격제어 시스템의 구동모드를 선택하도록 구성되되, 상기 구동모드는, 트레이닝 모드, 컨트롤 모드 및 환경검출 모드 중 적어도 하나인 것이 바람직하다.The user is configured to select a driving mode of the augmented reality-based underwater robot remote control system using the control device, and the driving mode is preferably at least one of a training mode, a control mode, and an environment detection mode.

사용자가 상기 구동모드로 트레이닝 모드를 선택할 경우, 상기 VR 디바이스의 디스플레이에는 상기 카메라가 검출한 수중의 환경정보에 상기 가상의 머니퓰레이터 및 상기 머니퓰레이터의 가상의 작업경로를 렌더링하여 출력하되, 상기 제어모듈은 상기 조정장치로부터 전달받은 상기 말단작업부의 목표위치정보에 기초하여 상기 가상의 머니퓰레이터로 시뮬레이션 제어를 수행하되, 상기 시뮬레이션 제어 과정에서 산출되는 상기 관절의 실제각도 및 상기 말단작업부의 실제위치에 기초하여 상기 수중로봇의 작용점이 상기 머니퓰레이터의 작업 범위 내에 있는지 여부를 실시간으로 판단하는 제어가능여부 판단유닛;을 더 포함하는 것이 바람직하다. When the user selects the training mode as the driving mode, the virtual manipulator and the virtual working path of the manipulator are rendered and output on the display of the VR device on the underwater environment information detected by the camera, wherein the control module includes: Simulation control is performed with the virtual manipulator based on the target position information of the end work unit received from the adjustment device, and based on the actual angle of the joint calculated in the simulation control process and the actual position of the end work unit, the It is preferable to further include a controllability determination unit that determines in real time whether the operating point of the underwater robot is within the working range of the manipulator.

사용자가 상기 구동모드로 컨트롤 모드를 선택할 경우, 상기 VR 디바이스의 디스플레이에는 상기 카메라가 검출한 수중의 환경정보 및 상기 머니퓰레이터를 출력하되, 상기 제어모듈은, 상기 관절의 목표 회전각속도 및 상기 관절의 실제각도에 기초하여 상기 관절의 향후 각도를 실시간으로 예측하는 관절각도 예측유닛; 및 상기 관절의 향후 각도에 기초하여 미리 설정된 시간 이내에 상기 머니퓰레이터 내의 충돌 발생여부를 실시간으로 판단하는 충돌발생여부 판단유닛;을 더 포함하는 것이 바람직하다.When the user selects the control mode as the driving mode, the underwater environment information detected by the camera and the manipulator are output to the display of the VR device, and the control module, the target rotational angular velocity of the joint and the actual joint a joint angle prediction unit for predicting the future angle of the joint in real time based on the angle; and a collision occurrence determination unit configured to determine in real time whether a collision has occurred within the manipulator within a preset time based on the future angle of the joint.

사용자가 상기 구동모드로 환경검출 모드를 선택할 경우, 상기 제어모듈은 상기 말단작업부를 미리 설정된 속도 미만으로 구동시키면서 상기 머니퓰레이터를 구동시키는 모터의 부하량을 실시간으로 검출하고, 상기 말단작업부의 위치 및 상기 모터의 부하량에 기초하여 상기 수중로봇 주변의 환경정보를 생성하는 환경정보 생성유닛을 더 포함하는 것이 바람직하다.When the user selects the environment detection mode as the driving mode, the control module detects in real time the load amount of the motor driving the manipulator while driving the end work unit at a speed less than a preset speed, and determines the position of the end work unit and the motor. It is preferable to further include an environmental information generating unit that generates environmental information around the underwater robot based on the load amount of .

사용자가 상기 구동모드로 환경검출 모드를 선택할 경우, 상기 VR 디바이스의 디스플레이에는 상기 환경정보 생성유닛이 생성한 수중의 환경정보에 상기 머니퓰레이터, 가상의 머니퓰레이터 및 상기 머니퓰레이터의 가상의 작업경로를 포함하는 가상정보를 랜더링하여 출력되는 것이 바람직하다.When the user selects the environment detection mode as the driving mode, the display of the VR device includes the manipulator, the virtual manipulator, and a virtual work path of the manipulator in the underwater environment information generated by the environment information generating unit. It is preferable that the information is rendered and output.

본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템은, 증강현실 기술을 활용하여 VR 장치를 통해 실제 작업 현장에 통합된 정보를 제공함으로써 한 명의 조정자가 증강현실로 통합된 정보들에 기초하여 직관적인 조정장치로 수중로봇을 원격으로 조정할 수 있다는 장점이 있다. The augmented reality-based underwater robot remote control system according to an embodiment of the present invention utilizes augmented reality technology to provide integrated information to the actual work site through a VR device, thereby providing information integrated into augmented reality by one coordinator It has the advantage of being able to remotely control the underwater robot with an intuitive control device based on the

또한 직관적인 제어 인터페이스의 구축으로 인하여 조정자가 카메라 및 다관절 로봇팔을 용이하게 제어할 수 있는 효과가 있다. In addition, there is an effect that the coordinator can easily control the camera and the articulated robot arm due to the construction of an intuitive control interface.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당해 기술분야에 있어서의 통상의 지식을 가진 자에게 명확하게 이해되어질 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템의 개략도이다.
도 2는 본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템에서, VR 디바이스의 디스플레이를 통하여 출력되는 영상의 생성을 설명하기 위한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템에서, 수중로봇의 실린더 액추에이터의 제어를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템에서의 기본적인 제어모듈을 도시한 블록도이다.
도 5는 본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템에서 트레이닝 모드에서의 제어 알고리즘을 설명하기 위한 블록도이다.
도 6은 본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템에서 컨트롤 모드에서의 제어 알고리즘을 설명하기 위한 블록도이다.
1 is a schematic diagram of an augmented reality-based underwater robot remote control system according to an embodiment of the present invention.
2 is a conceptual diagram for explaining generation of an image output through a display of a VR device in an augmented reality-based underwater robot remote control system according to an embodiment of the present invention.
3 is a view for explaining the control of the cylinder actuator of the underwater robot in the augmented reality-based underwater robot remote control system according to an embodiment of the present invention.
4 is a block diagram illustrating a basic control module in an augmented reality-based underwater robot remote control system according to an embodiment of the present invention.
5 is a block diagram illustrating a control algorithm in a training mode in an augmented reality-based underwater robot remote control system according to an embodiment of the present invention.
6 is a block diagram for explaining a control algorithm in a control mode in an augmented reality-based underwater robot remote control system according to an embodiment of the present invention.

첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. A preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in the description of the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

이하 도 1 내지 도 7을 참조하여 본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템의 구성들에 대하여 설명하도록 한다. Hereinafter, the configurations of the augmented reality-based underwater robot remote control system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 7 .

본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템은 도 1에 도시된 바와 같이 수중로봇(100), 조정장치(200), VR 디바이스(300) 및 제어모듈(400)을 포함하도록 구성된다. The augmented reality-based underwater robot remote control system according to an embodiment of the present invention includes an underwater robot 100, an adjustment device 200, a VR device 300 and a control module 400 as shown in FIG. configured to do

수중로봇(100)은 카메라(110) 및 머니퓰레이터(120)를 포함하도록 구성되며, 여기에서 카메라(110)는 수중의 환경정보를 검출하는 기능을 수행하며, Yaw, Pitch, Roll의 공간의 회전을 감지할 수 있는 스테레오 카메라인 것이 바람직하며, 가능한 3DoF(Degree of Freedom) 카메라이며, 후술할 VR 디바이스(300)의 회전에 기초하여 회전하도록 구성된다.The underwater robot 100 is configured to include a camera 110 and a manipulator 120, wherein the camera 110 performs a function of detecting underwater environmental information, and rotates the space of Yaw, Pitch, and Roll. It is preferably a stereo camera that can sense, and is a possible 3DoF (Degree of Freedom) camera, which is configured to rotate based on the rotation of the VR device 300 , which will be described later.

머니퓰레이터(120)는 말단작업부(121), 실린더 액추에이터(122) 및 관절(123)을 구비하도록 구성되며, 후술할 조정장치(200)의 조작에 기초하여 구동되며, 이에 대한 자세한 내용은 후술하도록 한다. The manipulator 120 is configured to include an end work part 121, a cylinder actuator 122, and a joint 123, and is driven based on an operation of the adjustment device 200 to be described later, details of which will be described later. do.

조정장치(200)는 말단작업부(121)의 위치 및 방향의 조정을 위하여 사용자의 손으로 조작 가능하도록 구비되는 구성이다. The adjustment device 200 is configured to be operable by a user's hand in order to adjust the position and direction of the end operation part 121 .

VR 디바이스(300)는 사용자가 착용 가능하도록 형성되되, 내부에 구비된 디스플레이를 통하여 상기 카메라(110)가 검출한 수중의 환경정보에 상기 머니퓰레이터(120), 가상의 머니퓰레이터 및 상기 머니퓰레이터(120)의 가상의 작업경로를 포함하는 가상정보를 렌더링하여 출력하도록 구성된다.The VR device 300 is formed so that a user can wear it, and the manipulator 120, the virtual manipulator, and the manipulator 120 are based on underwater environmental information detected by the camera 110 through a display provided therein. It is configured to render and output virtual information including a virtual working path.

즉 도 2에 도시된 바와 같이 3-DOF 능동 카메라(110)에서 제공하는 stereo image에 머니퓰레이터 정보 및 3차원 환경 정보를 렌더링하여 VR 디바이스(300)에 실제 환경정보와 가상정보가 입체적으로 가시화되도록 구성된다. That is, as shown in FIG. 2 , the manipulator information and the 3D environment information are rendered on the stereo image provided by the 3-DOF active camera 110 so that the real environment information and the virtual information are three-dimensionally visualized on the VR device 300 . do.

제어모듈(400)은 상술한 조정장치(200)의 조작결과에 기초하여 실린더 액추에이터(122)의 구동명령을 생성하여 실린더 액추에이터를 구동시키는 기능을 수행하여, 이러한 제어모듈(400)은 별도로 구성될 수 있거나 또는 수중로봇(100) 내부에 구비될 수도 있다.The control module 400 generates a driving command of the cylinder actuator 122 based on the operation result of the above-described adjustment device 200 to perform a function of driving the cylinder actuator, and this control module 400 may be configured separately. Or it may be provided inside the underwater robot 100.

이러한 실린더 액추에이터(122)의 제어요소는 도 3에 도시된 바와 같이 관절각도(qk) 및 로드(122a)의 속도(dk)인데, 도 3에 표기된 부호를 참조하여 관절각도(qk) 및 로드(122a)의 속도(dk)에 대한 수식은 각각 하기 수식 (1) 및 수식 (2)와 같다. The control element of this cylinder actuator 122 is the joint angle (q k ) and the speed (d k ) of the rod (122a ) as shown in FIG. And the equations for the speed (d k ) of the rod 122a are the same as the following Equations (1) and (2), respectively.

<수식 (1)><Formula (1)>

Figure 112021001901491-pat00001
Figure 112021001901491-pat00001

<수식 (2)><Formula (2)>

Figure 112021001901491-pat00002
Figure 112021001901491-pat00002

본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템의 제어모듈(400)은 조정장치(200)를 통하여 생성되는 말단작업부(121)의 목표위치정보에 기초하여 상기 관절(123)의 목표 회전각속도 및 실린더 로드(122a)의 목표속도를 산출하고, 이에 기초하여 머니퓰레이터(120)의 구동을 제어한다. The control module 400 of the augmented reality-based underwater robot remote control system according to an embodiment of the present invention is based on the target position information of the end work unit 121 generated through the adjustment device 200, the joint 123 ) and the target speed of the cylinder rod 122a are calculated, and the driving of the manipulator 120 is controlled based on the calculation.

이를 위하여 제어모듈(400)은 도 4에 도시된 바와 같이 말단작업부 목표 이동속도 산출유닛(410), 목표 회전각속도 산출유닛(420), 실린더 로드 목표속도 산출유닛(430), 관절각도 산출유닛(440) 및 실제위치 산출유닛(450)을 포함하도록 구성된다. To this end, the control module 400 includes a target movement speed calculation unit 410 for the end work part, a target rotation angular speed calculation unit 420, a target cylinder rod speed calculation unit 430, and a joint angle calculation unit as shown in FIG. It is configured to include a 440 and an actual position calculation unit 450 .

말단작업부 목표 이동속도 산출유닛(410)은 조정장치(200)로부터 전달받은 상기 말단작업부(121)의 목표위치정보에 기초하여 상기 말단작업부(121)의 목표 이동속도를 산출하는 기능을 수행한다. The end working part target moving speed calculation unit 410 has a function of calculating the target moving speed of the end working part 121 based on the target position information of the end working part 121 received from the adjusting device 200 . carry out

목표 회전각속도 산출유닛(420)은 말단작업부 목표 이동속도 산출유닛(410)에서 산출한 말단작업부(121)의 목표 이동속도에 기초하여 관절(123)의 목표 회전각속도를 산출하는 기능을 수행한다. The target rotational angular velocity calculation unit 420 performs a function of calculating the target rotational angular velocity of the joint 123 based on the target movement speed of the end operation unit 121 calculated by the end operation unit target movement speed calculation unit 410 . do.

실린더 로드 목표속도 산출유닛(430)은 목표 회전각속도 산출유닛(420)이 산출한 관절(123)의 목표 회전각속도에 기초하여 실린더 액추에이터(122)의 실린더 로드(122a)의 목표 속도를 산출하는 기능을 수행한다. The cylinder rod target speed calculation unit 430 is a function of calculating the target speed of the cylinder rod 122a of the cylinder actuator 122 based on the target rotational angular speed of the joint 123 calculated by the target rotational angular speed calculation unit 420 carry out

관절각도 산출유닛(440)의 실린더 로드 목표속도 산출유닛(430)에 의하여 구동되는 머니퓰레이터(120)의 구동상황을 실시간으로 검출하여 관절(123)의 실제각도를 산출하는 기능을 수행한다.The operation of the manipulator 120 driven by the cylinder rod target speed calculation unit 430 of the joint angle calculation unit 440 is detected in real time to calculate the actual angle of the joint 123 .

실제위치 산출유닛(450)은 관절각도 산출유닛(440)이 산출한 관절(123)의 실제각도에 기초하여 말단작업부(121)의 실제위치를 산출하는 기능을 수행한다.The actual position calculation unit 450 performs a function of calculating the actual position of the end work unit 121 based on the actual angle of the joint 123 calculated by the joint angle calculation unit 440 .

실제위치 산출유닛(450)에서 산출된 말단작업부(121)의 실제위치는 말단작업부 목표 이동속도 산출유닛(410)으로 피드백되도록 구성된다.The actual position of the end work unit 121 calculated by the actual position calculating unit 450 is configured to be fed back to the end work unit target moving speed calculating unit 410 .

한편, 본 발명의 일 실시예에 따른 증강현실 기반의 수중로봇 원격제어 시스템에서는 여러가지 구동모드를 구비하고 있으며, 사용자가 조정장치(200)를 이용하여 구동모드를 선택하도록 구성될 수 있다.On the other hand, the augmented reality-based underwater robot remote control system according to an embodiment of the present invention has various driving modes, and may be configured so that the user selects the driving mode by using the control device 200 .

특히 구동모드로는 트레이닝 모드, 컨트롤 모드 및 환경검출 모드 중 적어도 하나로 구성되는 것이 바람직하다. In particular, the driving mode is preferably composed of at least one of a training mode, a control mode, and an environment detection mode.

트레이닝 모드는 실제 머니퓰레이터(120)를 구동하기 전에 작업 가능 여부를 판단하기 위한 모드로, 가상의 머니퓰레이터로 시뮬레이션으로 제어를 수행하며 그 결과를 사용자에게 3D 시각화 및 Haptic으로 제공하는 기능을 수행한다.The training mode is a mode for determining whether work is possible before the actual manipulator 120 is driven, and performs a function of controlling the virtual manipulator through simulation and providing the result as 3D visualization and haptic to the user.

이때 제어모듈(400)은 도 5에 도시된 바와 같이 조정장치(200)로부터 전달받은 상기 말단작업부의 목표위치정보에 기초하여 상기 가상의 머니퓰레이터로 시뮬레이션 제어를 수행하되, 도 5에 도시된 바와 같이 시뮬레이션 제어 과정에서 산출되는 상기 관절(123)의 실제각도 및 상기 말단작업부(121)의 실제위치에 기초하여 상기 수중로봇(100)의 작용점이 상기 머니퓰레이터(120)의 작업 범위 내에 있는지 여부를 실시간으로 판단하는 제어가능여부 판단유닛(460)을 더 포함하도록 구성된다. At this time, as shown in FIG. 5 , the control module 400 performs simulation control with the virtual manipulator based on the target position information of the end work part received from the adjustment device 200 , as shown in FIG. 5 . Based on the actual angle of the joint 123 and the actual position of the end work part 121 calculated in the simulation control process, it is determined whether the operating point of the underwater robot 100 is within the working range of the manipulator 120 in real time. It is configured to further include a controllability determination unit 460 to determine.

제어가능여부 판단유닛(460)에서 수중로봇(100)의 작용점이 머니퓰레이터(120)의 작업 범위 내에 있지 않다고 판단할 경우, VR 디바이스(300)의 디스플레이에는 작업 범위를 벗어났다는 취지의 경고 메시지가 출력되도록 구성되는 것이 바람직하다. When the controllability determination unit 460 determines that the operating point of the underwater robot 100 is not within the working range of the manipulator 120 , a warning message indicating that the working range is out of the working range is displayed on the display of the VR device 300 . It is preferably configured to be output.

컨트롤 모드는 사용자의 조정장치(200)의 조작에 의하여 실제 머니퓰레이터(120)를 구동시키는 모드로, 로봇의 제어명령에 따른 미래의 동작을 시뮬레이션을 통해 충돌검사를 수행하며 그 결과를 사용자에게 제공하도록 구성된다.The control mode is a mode in which the actual manipulator 120 is driven by the manipulation of the control device 200 by the user, and a collision test is performed through simulation of future motion according to the control command of the robot and the result is provided to the user. is composed

이때 현재 사용자의 조작에 의한 제어명령을 지속할 경우, 미리 설정된 T 시간 내 충돌이 발생하는지를 실시간으로 판단하여 충돌 발생 가능성을 사용자에게 알려주는 기능을 구비한다. In this case, if the control command by the current user's operation is continued, it is determined in real time whether a collision occurs within a preset time T and has a function of notifying the user of the possibility of a collision.

즉, 사용자가 상기 구동모드로 컨트롤 모드를 선택할 경우, 상기 VR 디바이스(300)의 디스플레이에는 상기 카메라(110)가 검출한 수중의 환경정보 및 상기 머니퓰레이터(120)를 출력하게 된다.That is, when the user selects the control mode as the driving mode, the underwater environment information detected by the camera 110 and the manipulator 120 are output on the display of the VR device 300 .

이때 제어모듈(400)은, 도 6에 도시된 바와 같이 관절(123)의 목표 회전각속도 및 관절(123)의 실제각도에 기초하여 관절(123)의 향후 각도를 실시간으로 예측하는 관절각도 예측유닛(470)과, 관절(123)의 향후 각도에 기초하여 미리 설정된 시간 이내에 머니퓰레이터(120) 내의 충돌 발생여부를 실시간으로 판단하는 충돌발생여부 판단유닛(480)을 더 포함하도록 구성된다. At this time, the control module 400 is a joint angle prediction unit that predicts the future angle of the joint 123 in real time based on the target rotational angular velocity of the joint 123 and the actual angle of the joint 123 as shown in FIG. 6 . It is configured to further include a 470 and a collision occurrence determination unit 480 which determines in real time whether a collision has occurred in the manipulator 120 within a preset time based on the future angle of the joint 123 .

특히 충돌발생여부 판단유닛(480)이 미리 설정된 시간 내에 머니퓰레이터(120) 내의 충돌이 발생하는 것으로 판단할 경우, VR 디바이스(300)의 디스플레이에는 미리 설정된 시간 내에 머니퓰레이터(120) 내의 충돌이 발생한다는 취지의 경고 메시지가 출력되도록 구성되는 것이 바람직하다.In particular, when the collision occurrence determination unit 480 determines that a collision within the manipulator 120 occurs within a preset time, the display of the VR device 300 indicates that a collision within the manipulator 120 occurs within a preset time. It is preferable to be configured to output a warning message of

환경검출 모드는, 수중로봇(100)이 시야가 제대로 확보되지 않는 환경에서 작업을 수행할 경우 카메라(110)에 의한 환경정보의 검출이 불가능한 상황일 때 활용될 수 있는 모드이다. The environment detection mode is a mode that can be utilized when the underwater robot 100 performs an operation in an environment in which the field of view is not properly secured, and when the detection of the environmental information by the camera 110 is impossible.

즉, 사용자가 환경검출 모드를 선택할 경우, 제어모듈(400)은 말단작업부(121)를 미리 설정된 속도 미만으로 구동시키면서 상기 머니퓰레이터(120)를 구동시키는 모터의 부하량을 실시간으로 검출하고, 말단작업부(121)의 위치 및 상기 모터의 부하량에 기초하여 상기 수중로봇(100) 주변의 환경정보를 생성하는 환경정보 생성유닛을 더 포함하도록 구성될 수 있다.That is, when the user selects the environment detection mode, the control module 400 drives the end work unit 121 at a speed less than a preset speed while detecting the load amount of the motor driving the manipulator 120 in real time, and the end work It may be configured to further include an environmental information generating unit that generates environmental information around the underwater robot 100 based on the position of the part 121 and the load amount of the motor.

특히 머니퓰레이터(120)가 어느 한 방향으로 이동하다가 수중의 바위 등 장애물과 맞닿게 되는 경우 머니퓰레이터(120)는 더 이상 상기 방향으로의 이동이 불가능하게 되며, 이때 모터의 부하량이 커지게되며, 이를 통하여 해당 위치에 장애물이 있음을 파악할 수 있게 되며, 이 상태에서 환경정보 생성유닛은 머니퓰레이터(120)를 장애물의 표면을 따라 이동시키면서 획득되는 말단작업부(121)의 위치 및 모터의 부하량에 기초하여 해당 장애물의 형상 등을 파악한 후 이를 생성할 수 있게 된다. In particular, when the manipulator 120 moves in one direction and comes into contact with an obstacle such as a rock in the water, the manipulator 120 is no longer able to move in that direction. It is possible to recognize that there is an obstacle at the corresponding position, and in this state, the environmental information generating unit is based on the position of the end work unit 121 and the load amount of the motor obtained while moving the manipulator 120 along the surface of the obstacle. After identifying the shape of the obstacle, it is possible to create it.

이때 VR 디바이스(300)의 디스플레이에는 환경정보 생성유닛이 생성한 수중의 환경정보에 상기 머니퓰레이터, 가상의 머니퓰레이터 및 상기 머니퓰레이터의 가상의 작업경로를 포함하는 가상정보를 랜더링하여 출력되도록 함으로써 카메라(110)에 의한 수중 환경정보의 검출이 불가능한 상황에서도 수중 환경정보를 획득할 수 있게 된다.At this time, on the display of the VR device 300, the virtual information including the manipulator, the virtual manipulator, and the virtual work path of the manipulator is rendered on the underwater environmental information generated by the environment information generating unit, so that the camera 110 is output. It is possible to acquire underwater environmental information even in a situation where it is impossible to detect underwater environmental information.

특히 환경검출 모드에서의 말단작업부(121)의 이동속도를 너무 빠르게 설정하게 되면 말단작업부(121)의 장애물 도달시 장애물과의 충돌로 인하여 파손될 수 있으며, 말단작업부(121)의 이동속도를 너무 느리게 설정하게 되면 수중 환경검출에 필요한 시간이 너무 많이 소요되므로, 말단작업부(121)를 포함하는 머니퓰레이터(120) 전체의 내구성을 고려하여 말단작업부(121)의 이동속도를 결정하여야 할 것이다. In particular, if the moving speed of the end work unit 121 in the environment detection mode is set too fast, the end work unit 121 may be damaged due to a collision with the obstacle upon reaching the obstacle, and the moving speed of the end work unit 121 If is set too slowly, the time required to detect the underwater environment is too long. Therefore, it is necessary to determine the moving speed of the end work unit 121 in consideration of the durability of the manipulator 120 including the end work unit 121. will be.

본 명세서에서 설명되는 실시예와 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 예시적으로 설명하는 것에 불과하다. 따라서 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것이 아님은 자명하다. 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당해 기술분야에 있어서의 통상의 지식을 가진 자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시예는 모두 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다. The embodiments described in this specification and the accompanying drawings are merely illustrative of some of the technical ideas included in the present invention. Therefore, since the embodiments disclosed in the present specification are for explanation rather than limitation of the technical spirit of the present invention, it is obvious that the scope of the technical spirit of the present invention is not limited by these embodiments. Modifications and specific embodiments that can be easily inferred by a person of ordinary skill in the art within the scope of the technical idea included in the specification and drawings of the present invention are included in the scope of the present invention. will have to be interpreted.

100: 수중로봇
200: 조정장치
300: VR 디바이스
400: 제어모듈
100: underwater robot
200: adjuster
300: VR device
400: control module

Claims (10)

수중의 환경정보를 검출하는 카메라와, 말단작업부, 실린더 액추에이터 및 관절을 구비하는 머니퓰레이터를 포함하는 수중로봇;
상기 말단작업부의 위치 및 방향의 조정을 위하여 사용자의 손으로 조작 가능하도록 구비되는 조정장치;
내부에 구비된 디스플레이를 통하여 상기 카메라가 검출한 수중의 환경정보에 상기 머니퓰레이터, 가상의 머니퓰레이터 및 상기 머니퓰레이터의 가상의 작업경로를 포함하는 가상정보를 렌더링하여 출력하되, 상기 사용자가 착용 가능하도록 구비되는 VR 디바이스; 및
상기 조정장치의 조작결과에 기초하여 상기 실린더 액추에이터의 구동명령을 생성하여 상기 실린더 액추에이터를 구동시키는 제어모듈;
을 포함하고,
사용자는 상기 조정장치를 이용하여 증강현실 기반의 수중로봇 원격제어 시스템의 구동모드를 선택하도록 구성되되,
상기 구동모드는, 트레이닝 모드, 컨트롤 모드 및 환경검출 모드 중 적어도 하나이며,
사용자가 상기 구동모드로 환경검출 모드를 선택할 경우, 상기 제어모듈은 상기 말단작업부를 미리 설정된 속도 미만으로 구동시키면서 상기 머니퓰레이터를 구동시키는 모터의 부하량을 실시간으로 검출하고, 상기 말단작업부의 위치 및 상기 모터의 부하량에 기초하여 상기 수중로봇 주변의 환경정보를 생성하는 환경정보 생성유닛을 포함하는 증강현실 기반의 수중로봇 원격제어 시스템.
An underwater robot including a camera for detecting underwater environmental information, and a manipulator having an end work part, a cylinder actuator, and a joint;
an adjustment device provided to be operable by a user's hand to adjust the position and direction of the end working part;
Rendering and outputting virtual information including the manipulator, the virtual manipulator, and a virtual working path of the manipulator to the underwater environment information detected by the camera through a display provided therein, provided so that the user can wear it VR devices; and
a control module for generating a driving command for the cylinder actuator based on an operation result of the adjusting device to drive the cylinder actuator;
including,
The user is configured to select a driving mode of the augmented reality-based underwater robot remote control system using the control device,
The driving mode is at least one of a training mode, a control mode, and an environment detection mode,
When the user selects the environment detection mode as the driving mode, the control module detects in real time the load amount of the motor driving the manipulator while driving the end work unit at a speed less than a preset speed, and determines the position of the end work unit and the motor. Augmented reality-based underwater robot remote control system comprising an environment information generating unit for generating environmental information around the underwater robot based on the load of
청구항 1에 있어서,
상기 카메라는 3DoF 능동 카메라이고, 상기 VR 디바이스의 회전에 기초하여 상기 카메라가 회전하는 증강현실 기반의 수중로봇 원격제어 시스템.
The method according to claim 1,
The camera is a 3DoF active camera, and an augmented reality-based underwater robot remote control system in which the camera rotates based on the rotation of the VR device.
청구항 1에 있어서, 상기 제어모듈은,
상기 조정장치로부터 전달받은 상기 말단작업부의 목표위치정보에 기초하여 상기 말단작업부의 목표 이동속도를 산출하는 말단작업부 목표 이동속도 산출유닛;
상기 말단작업부의 목표 이동속도에 기초하여 상기 관절의 목표 회전각속도를 산출하는 목표 회전각속도 산출유닛;
상기 목표 회전각속도에 기초하여 상기 실린더 액추에이터의 실린더 로드의 목표 속도를 산출하는 실린더 로드 목표속도 산출유닛;
상기 실린더 로드 목표속도 산출유닛에 의하여 구동된 상기 머니퓰레이터의 구동상황을 실시간으로 검출하여 상기 관절의 실제각도를 산출하는 관절각도 산출유닛;
상기 관절의 실제각도에 기초하여 상기 말단작업부의 실제위치를 산출하는 실제위치 산출유닛;
을 더 포함하는 증강현실 기반의 수중로봇 원격제어 시스템.
The method according to claim 1, wherein the control module,
a target moving speed calculating unit for the end working part for calculating a target moving speed of the end working part based on the target position information of the end working part received from the adjusting device;
a target rotational angular velocity calculating unit for calculating a target rotational angular velocity of the joint based on the target moving velocity of the end work unit;
a cylinder rod target speed calculation unit for calculating a target speed of the cylinder rod of the cylinder actuator based on the target rotational angular speed;
a joint angle calculation unit for calculating the actual angle of the joint by detecting the driving condition of the manipulator driven by the cylinder rod target speed calculating unit in real time;
an actual position calculation unit for calculating the actual position of the end work part based on the actual angle of the joint;
Augmented reality-based underwater robot remote control system further comprising a.
청구항 3에 있어서,
상기 관절의 실제각도는 상기 목표 회전각속도 산출유닛 및 상기 실린더 로드 목표속도 산출유닛 중 적어도 하나에 피드백되는 증강현실 기반의 수중로봇 원격제어 시스템.
4. The method of claim 3,
The actual angle of the joint is fed back to at least one of the target rotational angular velocity calculating unit and the cylinder rod target speed calculating unit, an augmented reality-based underwater robot remote control system.
청구항 3에 있어서,
상기 말단작업부의 실제위치는 상기 말단작업부 목표 이동속도 산출유닛으로 피드백되는 증강현실 기반의 수중로봇 원격제어 시스템.
4. The method of claim 3,
The actual position of the end work unit is an augmented reality-based underwater robot remote control system that is fed back to the end work unit target movement speed calculation unit.
삭제delete 청구항 1에 있어서,
사용자가 상기 구동모드로 트레이닝 모드를 선택할 경우, 상기 VR 디바이스의 디스플레이에는 상기 카메라가 검출한 수중의 환경정보에 상기 가상의 머니퓰레이터 및 상기 머니퓰레이터의 가상의 작업경로를 렌더링하여 출력하되,
상기 제어모듈은 상기 조정장치로부터 전달받은 상기 말단작업부의 목표위치정보에 기초하여 상기 가상의 머니퓰레이터로 시뮬레이션 제어를 수행하되, 상기 시뮬레이션 제어 과정에서 산출되는 상기 관절의 실제각도 및 상기 말단작업부의 실제위치에 기초하여 상기 수중로봇의 작용점이 상기 머니퓰레이터의 작업 범위 내에 있는지 여부를 실시간으로 판단하는 제어가능여부 판단유닛;을 더 포함하는 증강현실 기반의 수중로봇 원격제어 시스템.
The method according to claim 1,
When the user selects the training mode as the driving mode, the virtual manipulator and the virtual working path of the manipulator are rendered and output on the display of the VR device on the underwater environment information detected by the camera,
The control module performs simulation control with the virtual manipulator based on the target position information of the end work part received from the adjustment device, and the actual angle of the joint calculated in the simulation control process and the actual position of the end work part Augmented reality-based underwater robot remote control system further comprising a; a controllability determination unit for determining in real time whether the action point of the underwater robot is within the working range of the manipulator based on the
청구항 1에 있어서,
사용자가 상기 구동모드로 컨트롤 모드를 선택할 경우, 상기 VR 디바이스의 디스플레이에는 상기 카메라가 검출한 수중의 환경정보 및 상기 머니퓰레이터를 출력하되,
상기 제어모듈은,
상기 관절의 목표 회전각속도 및 상기 관절의 실제각도에 기초하여 상기 관절의 향후 각도를 실시간으로 예측하는 관절각도 예측유닛; 및
상기 관절의 향후 각도에 기초하여 미리 설정된 시간 이내에 상기 머니퓰레이터 내의 충돌 발생여부를 실시간으로 판단하는 충돌발생여부 판단유닛;
을 더 포함하는 증강현실 기반의 수중로봇 원격제어 시스템.
The method according to claim 1,
When the user selects the control mode as the driving mode, the underwater environment information detected by the camera and the manipulator are output to the display of the VR device,
The control module is
a joint angle prediction unit for predicting a future angle of the joint in real time based on the target rotational angular velocity of the joint and the actual angle of the joint; and
a collision occurrence determination unit configured to determine in real time whether a collision has occurred in the manipulator within a preset time based on the future angle of the joint;
Augmented reality-based underwater robot remote control system further comprising a.
삭제delete 청구항 1에 있어서,
사용자가 상기 구동모드로 환경검출 모드를 선택할 경우, 상기 VR 디바이스의 디스플레이에는 상기 환경정보 생성유닛이 생성한 수중의 환경정보에 상기 머니퓰레이터, 가상의 머니퓰레이터 및 상기 머니퓰레이터의 가상의 작업경로를 포함하는 가상정보를 랜더링하여 출력되는 증강현실 기반의 수중로봇 원격제어 시스템.
The method according to claim 1,
When the user selects the environment detection mode as the driving mode, the display of the VR device includes the manipulator, the virtual manipulator, and a virtual work path of the manipulator in the underwater environment information generated by the environment information generating unit. An augmented reality-based underwater robot remote control system that is output by rendering information.
KR1020210001820A 2021-01-07 2021-01-07 An remote control system based on augmented reality for underater robot sterilization robot based on 3d environmental recognition KR102422355B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210001820A KR102422355B1 (en) 2021-01-07 2021-01-07 An remote control system based on augmented reality for underater robot sterilization robot based on 3d environmental recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210001820A KR102422355B1 (en) 2021-01-07 2021-01-07 An remote control system based on augmented reality for underater robot sterilization robot based on 3d environmental recognition

Publications (2)

Publication Number Publication Date
KR20220099657A KR20220099657A (en) 2022-07-14
KR102422355B1 true KR102422355B1 (en) 2022-07-19

Family

ID=82407166

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210001820A KR102422355B1 (en) 2021-01-07 2021-01-07 An remote control system based on augmented reality for underater robot sterilization robot based on 3d environmental recognition

Country Status (1)

Country Link
KR (1) KR102422355B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11807349B1 (en) 2022-09-16 2023-11-07 Fmc Technologies, Inc. Submersible remote operated vehicle vision assistance and control
WO2024058811A1 (en) * 2022-09-16 2024-03-21 Fmc Technologies, Inc. Submersible remote operated vehicle vision assistance and control

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019034352A (en) * 2017-08-10 2019-03-07 セイコーエプソン株式会社 Simulation device, robot control device, and robot
WO2020094205A1 (en) * 2018-11-08 2020-05-14 Mcs Free Zone An enhanced reality underwater maintenance syestem by using a virtual reality manipulator (vrm)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10843330B2 (en) * 2017-12-07 2020-11-24 Sarcos Corp. Resistance-based joint constraint for a master robotic system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019034352A (en) * 2017-08-10 2019-03-07 セイコーエプソン株式会社 Simulation device, robot control device, and robot
WO2020094205A1 (en) * 2018-11-08 2020-05-14 Mcs Free Zone An enhanced reality underwater maintenance syestem by using a virtual reality manipulator (vrm)

Also Published As

Publication number Publication date
KR20220099657A (en) 2022-07-14

Similar Documents

Publication Publication Date Title
KR102584754B1 (en) Robotic system and method of reversing it
KR102422355B1 (en) An remote control system based on augmented reality for underater robot sterilization robot based on 3d environmental recognition
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
US20190329405A1 (en) Robot simulation device
JP2008229800A (en) Arm-mounted mobile robot and its control method
KR20180038479A (en) Robot system
JP6807280B2 (en) Remote work robot control system and remote work robot control method
JP2012011498A (en) System and method for operating robot arm
KR20120082881A (en) Robotic apparatus implementing collision avoidance scheme and associated methods
JP4444884B2 (en) Construction machine and control device used for construction machine
KR102418451B1 (en) Robot control system
JP6739544B2 (en) Medical system and control method
CN114728413A (en) Method and system for controlling graphical user interface of remote robot
JP2019181611A (en) Robot control apparatus
WO2019046559A1 (en) Using augmented reality for controlling intelligent devices
JP7160118B2 (en) Control device, control method, program
Ryu et al. Multi-modal user interface for teleoperation of ROBHAZ-DT2 field robot system
WO2015137162A1 (en) Control device, robot system, and method for generating control data
JP2012051043A (en) Robot system or robot control device
KR101475210B1 (en) Appraratus for simulation of vitural robot
JP2017099820A (en) Operation system
JP2005161498A (en) Robot remote operation control device
JP2009045678A (en) Method for judging success or failure of operation of robot, and robot system
JP5904445B2 (en) Robot controller
JP2017205835A (en) Control device of manipulator device, control method of the manipulator device, and control program of the manipulator device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant