KR20220060064A - 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법 - Google Patents

햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법 Download PDF

Info

Publication number
KR20220060064A
KR20220060064A KR1020200145067A KR20200145067A KR20220060064A KR 20220060064 A KR20220060064 A KR 20220060064A KR 1020200145067 A KR1020200145067 A KR 1020200145067A KR 20200145067 A KR20200145067 A KR 20200145067A KR 20220060064 A KR20220060064 A KR 20220060064A
Authority
KR
South Korea
Prior art keywords
unit
information
processing
robot
workpiece
Prior art date
Application number
KR1020200145067A
Other languages
English (en)
Other versions
KR102415427B1 (ko
Inventor
김효영
이석우
김태곤
남정수
신강우
이진호
홍태화
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020200145067A priority Critical patent/KR102415427B1/ko
Publication of KR20220060064A publication Critical patent/KR20220060064A/ko
Application granted granted Critical
Publication of KR102415427B1 publication Critical patent/KR102415427B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • B25J13/025Hand grip control means comprising haptic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 작업자의 안면과 손에 착용되어 작업자의 모션을 감지한 모션정보를 생성하고 작업자에게 멀티모달정보를 제공하는 조작부, 조작부와 인터페이스에 의해 조작부로 센서정보를 기반으로 생성한 멀티모달정보를 전송하고 조작부로부터 전송되는 모션정보를 기반으로 가공정보 및 위치정보를 생성하는 피드백 랜더링 서버부 및 피드백 랜더링 서버부와 인터페이스에 의해 피드백 랜더링 서버부로부터 전송되는 가공정보 및 위치정보를 기반으로 가공물을 가공하고 가공물에 가해지는 센서정보를 감지하여 피드백 랜더링 서버부로 전송하는 로봇부를 포함하고, 조작부는 햅틱기술이 적용되어 멀티모달정보가 작업자에게 전달하여 작업자가 가공물과 로봇부를 보면서 상기 후가공하는 것을 지원하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법을 제공한다.

Description

햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법{A robot post-processing system using haptic technology and control method thereof}
본 발명은 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법에 관한 것으로, 보다 상세하게는 햅틱 기술을 적용하여 작업자가 조작부를 착용한 상태에서 취하는 작업자의 모션에 따라 로봇부가 가공물을 후가공하는 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법에 관한 것이다.
주조를 통한 가공품은 경계면을 매끄럽게 하기 위해 사람이 툴을 들고 필요한 부분을 디버링 가공하여 완성된다.
특히, 선박 및 항공 프로펠러의 경우, 조금이라도 잘못 동작하게 되면, 많은 인명 피해가 예상되는 만큼 사람이 직접 후가공을 정교하게 수행한다. 상기한 후가공 작업 중 작업자는 결함이 있는 부분을 눈으로 직접 보고 툴을 이용하여 작업하게 되는데, 이때 작업자의 경험을 통해 후가공 작업할 시 손으로 전달되는 힘을 잘 조절하여 후가공을 수행하게 된다.
그러나, 상기한 후가공 작업은 사람에 의해 진행되기 때문에 작업자의 경험이나 컨디션에 따라 가공품질이나 생산성 등의 편차가 심하게 나타날 뿐만 아니라 작업자의 작업환경이 열악함에 따른 건강문제가 빈번하게 발생하는 문제점이 있었다.
(특허문헌 1) 등록특허공보 제10-2026703호(2019.09.24.)
(특허문헌 2) 공개특허공보 제10-2014-032649호(2014.11.18.)
상기와 같은 문제를 해결하기 위한 본 발명의 목적은 작업자의 안면에 착용되는 HMD부가 가공물 및 로봇부의 움직임을 디스플레이함과 동시에 음향정보를 제공하고 작업자의 손에 착용되는 햅틱글러브가 작업자에게 멀티모달정보를 전달함과 동시에 작업자의 모션정보를 피드백 랜더링 서버부로 전송하여 가공부가 모션정보를 기반으로 생성된 가공정보 및 위치정보에 따라 가공물을 후가공하는 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법을 제공하는 것이다.
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기와 같은 목적을 달성하기 위한 본 발명의 구성은 작업자의 안면과 손에 착용되어 상기 작업자의 모션을 감지한 모션정보를 생성하고 상기 작업자에게 멀티모달정보를 제공하는 조작부; 상기 조작부와 인터페이스에 의해 상기 조작부로 센서정보를 기반으로 생성한 상기 멀티모달정보를 전송하고 상기 조작부로부터 전송되는 상기 모션정보를 기반으로 가공정보 및 위치정보를 생성하는 피드백 랜더링 서버부; 및 상기 피드백 랜더링 서버부와 인터페이스에 의해 상기 피드백 랜더링 서버부로부터 전송되는 상기 가공정보 및 상기 위치정보를 기반으로 가공물을 가공하고 상기 가공물에 가해지는 상기 센서정보를 감지하여 상기 피드백 랜더링 서버부로 전송하는 로봇부;를 포함하고, 상기 조작부는 햅틱기술이 적용되어 상기 멀티모달정보가 상기 작업자에게 전달하여 상기 작업자가 상기 가공물과 상기 로봇부를 보면서 상기 후가공하는 것을 지원하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템을 제공한다.
본 발명의 실시예에 있어서, 상기 멀티모달정보는 상기 가공물 및 상기 로봇부를 촬영한 동영상, 상기 로봇부가 상기 가공물을 가공 시 상기 가공물에 가해지는 가공 부하 및 상기 로봇부가 상기 가공물을 가공하면서 발생하는 음향에 대한 음향정보를 포함하고, 상기 조작부는, 상기 작업자의 안면에 착용되고 상기 시각정보에 따라 상기 가공물, 상기 로봇부 및 상기 로봇부가 상기 가공물을 가공하는 것을 디스플레이하는 가공 HMD부; 상기 작업자의 손에 착용되고 상기 피드백 랜더링 서버부로부터 전송되는 상기 멀티모달정보에 따라 동작하여 상기 가공 부하에 대한 전기자극, 진동자극, 압력자극 및 온도자극 중 적어도 어느 하나를 상기 작업자의 손에 전달하는 햅틱글러브; 및 상기 피드백 랜더링 서버부로부터 전송되는 상기 멀티모달정보를 수신하여 상기 햅틱글러브로 전송하는 자극전달부;를 포함하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 피드백 랜더링 서버부는, 상기 햅틱글러브로부터 전송되는 상기 모션정보를 저장하는 정보저장부; 상기 로봇부로부터 전송되는 상기 센서정보를 기반으로 상기 멀티모달정보를 생성하고 상기 조작부로부터 전송되는 상기 모션정보를 기반으로 상기 위치정보를 생성하는 딥러닝부; 및 기설정된 가공경로정보가 저장되는 가공경로부;를 포함하고, 상기 정보저장부는 상기 딥러닝부로부터 전송되는 상기 멀티모달정보를 상기 자극전달부로 전송하고, 상기 딥러닝부는 상기 모션정보를 기반으로 생성한 상기 가공정보 및 상기 위치정보를 상기 로봇부로 전송하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 로봇부는, 상기 가공물을 가공하는 가공부; 상기 가공부가 상기 가공물을 가공 시 상기 가공물에 가해지는 가공 부하를 감지한 상기 센서정보를 생성하는 센서부; 및 상기 딥러닝부로부터 전송되는 상기 위치정보 및 상기 가공정보를 기반으로 가공신호를 생성하여 상기 가공부로 전송함으로써 상기 가공부가 상기 가공물을 가공하도록 제어하는 제어부;를 포함하고, 상기 가공부는 상기 작업자의 모션을 따라 상기 가공물을 가공하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 딥러닝부는 상기 모션정보를 기반으로 딥러닝하여 상기 작업자의 노하우를 학습함에 따라 최적가공조건정보를 생성하고, 상기 작업자가 미존재할 경우, 상기 딥러닝부는 상기 최적가공조건을 상기 제어부로 전송하며, 상기 가공부는 상기 제어부가 상기 최적가공조건정보를 기반으로 생성한 최적가공신호에 따라 상기 가공물을 가공하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 기설정된 가공경로정보는 가공 프로그램에 의해 정해진 가공경로로서, 상기 로봇부의 안전을 위한 가이드 레퍼런스인 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 센서부는 포스센서, 토크센서, 광센서, 음향센서, 진동센서, 온도센서 및 압력센서 중 적어도 어느 하나를 포함하여 상기 센서정보를 감지함에 따라 상기 작업자가 시각, 청각 및 촉각으로 감지하도록 지원하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 HMD부는 상기 자극전달부로부터 전송되는 멀티모달정보 중 음향자극을 출력하여 상기 작업자에게 전달하는 것을 특징으로 할 수 있다.
또한, 상기와 같은 문제를 해결하기 위한 본 발명의 목적은 전술한 바에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법에 있어서, (a) 상기 조작부가 상기 작업자에게 상기 멀티모달정보를 전달하는 단계; (b) 상기 조작부가 상기 작업자의 모션에 의해 동작하면서 상기 모션정보를 생성하여 상기 피드백 랜더링 서버부로 전송하는 단계; (c) 상기 피드백 랜더링 서버부가 상기 모션정보의 유무에 따라 상기 로봇부의 동작 여부를 결정하는 단계; (d) 상기 피드백 랜더링 서버부가 상기 모션정보를 기반으로 가공정보 및 위치정보를 생성하여 상기 로봇부로 전송하는 단계; (e) 상기 로봇부가 상기 가공정보 및 상기 위치정보를 기반으로 상기 가공물을 후가공하는 단계; 및 (f) 상기 로봇부가 상기 가공물에 가해지는 가공부하를 감지한 센서정보를 생성하여 상기 피드백 랜더링 서버부로 전송하는 단계; 및 (g) 상기 피드백 랜더링 서버부가 상기 조작부로 상기 센서정보를 기반으로 생성한 상기 멀티모달정보를 전송하는 단계;를 포함하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법을 제공한다.
본 발명의 실시예에 있어서, 상기 멀티모달정보는 상기 가공물 및 상기 로봇부를 촬영한 시각정보, 상기 로봇부가 상기 가공물을 가공 시 상기 가공물에 가해지는 가공 부하에 대한 촉각정보 및 상기 로봇부가 상기 가공물을 가공하면서 발생하는 음향에 대한 음향정보를 포함하고, 상기 (a) 단계는, (a1) 상기 조작부에 구비된 자극전달부가 상기 멀티모달정보를 수신하는 단계; (a2) 상기 조작부에 구비된 햅틱글러브가 상기 자극전달부로부터 전송되는 상기 촉각정보를 수신하여 상기 작업자의 손에 전달하는 단계; 및 (a3) 상기 조작부에 구비된 HMD부가 상기 자극전달부로부터 전송되는 상기 시각정보를 수신하여 상기 작업자에게 디스플레이하는 단계;를 포함하고, 상기 햅틱글러브 및 상기 HMD부는 상기 촉각정보 및 상기 시각정보를 상기 작업자에게 실시간으로 전달함에 따라 상기 작업자가 상기 가공물을 후가공하는 것을 지원하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 (b) 단계에서, 상기 모션정보는 상기 작업자가 가공하는 손의 위치, 각도, 이동속도, 이동경로, 작업순서 중 적어도 어느 하나를 포함하는 상기 작업자의 노하우인 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 (c) 단계는, (c1) 상기 피드백 랜더링 서버부가 상기 모션정보의 유무를 판단하여 상기 로봇부의 동작을 결정하는 단계; 및 (c2) 상기 모션정보가 존재하는 경우, 상기 (d) 단계를 수행하는 단계;를 포함하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 (d) 단계는, (d1) 상기 피드백 랜더링 서버부에 구비된 정보저장부가 상기 햅틱글러브로부터 전송되는 상기 모션정보를 수신하는 단계; (d2) 상기 피드백 랜더링 서버부에 구비된 딥러닝부가 상기 햅틱글러브로부터 전송되는 상기 모션정보를 기반으로 상기 가공정보 및 상기 위치정보를 생성하는 단계; 및 (d3) 상기 딥러닝부가 상기 로봇부에 구비된 제어부로 상기 가공정보 및 상기 위치정보를 전송하는 단계;를 포함하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 있어서, 상기 (d) 단계는, (d4) 상기 딥러닝부가 상기 모션정보를 기반으로 딥러닝하여 상기 작업자의 노하우를 학습함에 따라 최적가공조건정보를 생성하는 단계;를 더 포함하고, 상기 작업자가 미존재할 경우, 상기 딥러닝부는 상기 최적가공조건을 상기 제어부로 전송하며, 상기 로봇부에 구비된 가공부는 상기 제어부가 상기 최적가공조건정보를 기반으로 생성한 최적가공신호에 따라 상기 가공물을 가공하는 것을 특징으로 할 수 있다.
상기와 같은 구성에 따르는 본 발명의 효과는, 작업자의 안면에 착용되는 HMD부가 가공물 및 로봇부의 움직임을 디스플레이함과 동시에 음향정보를 제공하고 작업자의 손에 착용되는 햅틱글러브가 작업자에게 멀티모달정보를 전달함과 동시에 작업자의 모션정보를 피드백 랜더링 서버부로 전송하여 가공부가 모션정보를 기반으로 생성된 가공정보 및 위치정보에 따라 가공물을 후가공하여 작업자가 작업 현장에 있지 않더라도 원격으로 가공물을 후가공할 수 있다.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템을 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템과 정보 공유를 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템과 정보 공유를 나타낸 개념도이다.
도 4의 (a), (b)는 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템에 의해 제조되는 가공물을 나타낸 실제 도면이다.
도 5는 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템의 조작부, 피드백 랜더링 서버부 및 로봇부의 순서로 동작되는 것을 나타낸 동작흐름도이다.
도 6은 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템의 로봇부, 피드백 랜더링 서버부 및 조작부의 순서로 동작되는 것을 나타낸 동작흐름도이다.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템을 나타낸 블록도이다. 도 2는 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템과 정보 공유를 나타낸 블록도이다. 도 3은 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템과 정보 공유를 나타낸 개념도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템은 조작부(100), 피드백 랜더링 서버부(200) 및 로봇부(300)를 포함하고, 햅틱기술이 적용되어 멀티모달정보가 작업자(10)에게 전달하여 작업자(10)가 가공물과 로봇부(300)를 보면서 가공물을 후가공하는 것을 지원한다.
도 2 및 도 3을 참조하면, 조작부(100)는 작업자의 안면과 손에 착용되어 작업자(10)의 모션을 감지한 모션정보를 생성하고 작업자(10)에게 멀티모달정보를 제공한다. 여기서, 모션정보는 작업자(10)가 가공하는 손의 위치, 각도, 이동속도, 이동경로, 작업순서 중 적어도 어느 하나를 포함하는 작업자(10)의 노하우에 대한 정보이다.
또한, 멀티모달정보는 가공물 및 로봇부(300)를 촬영한 동영상, 이미지를 포함하는 시각정보, 로봇부(300)가 가공물을 가공 시 가공물에 가해지는 가공 부하에 대한 정보 및 로봇부(300)가 가공물을 가공하면서 발생하는 음향에 대한 음향정보를 포함한다.
조작부(100)는 HMD부(110), 햅틱글러브(120) 및 자극전달부(130)를 포함한다.
HMD부(110)는 작업자(10)의 안면에 착용되고 시각정보에 따라 가공물, 로봇부(300) 및 로봇부(300)가 가공물을 가공하는 것을 디스플레이한다. 이에 따라 작업자(10)는 HMD부(110)를 통하여 가공현장에 위치한 가공물 및 로봇부(300)를 실시간으로 보면서 실제 가공현장에 있는 것과 동일하게 후가공 작업을 수행할 수 있다.
또한, HMD부(110)는 자극전달부(130)로부터 전송되는 멀티모달정보 중 음향자극을 출력하여 작업자에게 전달한다. 이에 따라 작업자(110)는 후가공 작업을 수행하는 과정에서 발생하는 마찰음, 파열음, 접합음 등을 실시간으로 들을 수 있게 됨에 따라 소리에 따라 후가공 작업이 원만하게 진행되는지 여부를 추가적으로 판단할 수 있다.
이를 위한 HMD부(110)는 가상현실 분야에서 널리 사용되는 머리 착용 디스플레이(Head Mounted Display)일 수 있다.
햅틱글러브(120)는 작업자(10)의 손에 착용되고 피드백 랜더링 서버부(200)로부터 전송되는 멀티모달정보에 따라 동작하여 가공 부하에 대한 전기자극, 진동자극, 압력자극 및 온도자극 중 적어도 어느 하나를 작업자의 손에 전달한다.
이에 따라 작업자(10)는 로봇부(300)에 의해 가공물이 가공되는 과정에서 발생하는 촉각에 대한 정보를 그대로 느끼면서 다음 후가공 작업을 실제와 유사하게 진행할 수 있게 된다.
자극전달부(130)는 피드백 랜더링 서버부(200)로부터 전송되는 멀티모달정보를 수신하여 햅틱글러브(120)로 전송한다.
피드백 랜더링 서버부(200)는 조작부(100)와 인터페이스에 의해 조작부(100)로 멀티모달정보를 전송하고 조작부(100)로부터 전송되는 모션정보를 기반으로 가공정보를 생성한다. 여기서, 가공정보는 작업자의 모션정보를 기반으로 한 가공경로, 가공방향, 가공속도, 가공위치 등에 대한 정보를 포함할 수 있다. 이를 위한 피드백 랜더링 서버부(200)는 정보저장부(210), 가공경로부(220) 및 딥러닝부(230)를 포함한다.
도 2 및 도 3에 도시된 바와 같이 정보저장부(210)는 햅틱글러브(120)로부터 전송되는 모션정보를 저장한다.
또한, 정보저장부(210)는 딥러닝부(230)로부터 전송되는 멀티모달정보를 자극전달부(130)로 전송한다.
가공경로부(220)는 기설정된 가공경로정보가 저장된다. 여기서, 기설정된 가공경로정보는 가공 프로그램에 의해 정해진 가공경로로서, 로봇부(300)의 안전을 위한 가이드 레퍼런스이다. 다만, 기설정된 가공경로정보는 로봇부(300)의 안전을 위한 가이드 가공경로로서, 상기한 가공정보가 기설정된 가공경로정보를 벗어나지 않는 한 사용되지 않는다.
상기한 가공경로부(220)는 가공정보가 안전 범위를 벗어날 경우에만 기설정된 가공경로정보를 딥러닝부(230)로 전송하여 반영시켜 로봇부(300)를 안전하게 보호한다.
딥러닝부(230)는 로봇부(300)로부터 전송되는 센서정보를 기반으로 멀티모달정보를 생성하고 조작부(100)로부터 전송되는 모션정보를 기반으로 위치정보를 생성한다. 여기서, 위치정보는 모션정보에서 추출한 작업자의 손의 위치에 대한 정보로서, 좌표계로 나타낸 3차원 위치정보일 수 있다.
또한, 딥러닝부(230)는 모션정보를 기반으로 생성한 가공정보 및 위치정보를 로봇부(300)로 전송한다.
추가적으로 딥러닝부(230)는 모션정보를 기반으로 딥러닝하여 작업자(10)의 노하우를 학습함에 따라 최적가공조건정보를 생성하고, 작업자(10)가 미존재할 경우, 딥러닝부(230)는 최적가공조건을 제어부(330)로 전송한다. 그에 따른 가공부(310)는 제어부(330)가 최적가공조건정보를 기반으로 생성한 최적가공신호에 따라 가공물을 가공한다.
상기한 딥러닝부(230)는 작업자의 노하우에 대한 정보들을 지속적으로 기계학습을 통하여 딥러닝하고, 딥러닝된 결과를 보완하면서 가공결함을 최소화할 수 있는 최적가공조건을 생성하여 로봇부(300)로 전송함에 따라 작업자(10)가 미존재할 경우에도 가공물을 가공할 수 있도록 한다.
여기서, 최적가공조건정보는 가공결함을 최소화시킬 수 있는 가공경로, 가공방향, 가공속도, 가공위치 등에 대한 정보를 포함할 수 있다.
로봇부(300)는 피드백 랜더링 서버부(200)와 인터페이스에 의해 피드백 랜더링 서버부(200)로부터 전송되는 가공정보 및 위치정보를 기반으로 가공물을 가공하고 가공물에 가해지는 멀티모달정보를 감지하여 피드백 랜더링 서버부(200)로 전송한다.
이를 위한 로봇부(300)는 가공부(310), 센서부(320) 및 제어부(330)를 포함한다.
가공부(310)는 딥러닝부(230)로부터 전송되는 가공정보 및 위치정보를 기반으로 가공물을 가공한다. 즉, 가공부(310)는 작업자(10)의 모션정보를 기반으로 생성된 가공정보 및 위치정보에 따라 후가공하므로 결과적으로 작업자(10)의 모션을 따라 가공물을 후가공하게 되는 것이다.
이를 위한 가공부(310)는 폴리싱, 사상가공, 연삭, 디버링 가공 중 적어도 어느 하나를 포함하는 후가공을 수행하기 위한 로봇암이다.
센서부(320)는 가공부(310)가 가공물을 가공 시 가공물에 가해지는 가공 부하를 감지한 센서정보를 생성한다.
구체적으로 센서부(320)는 포스센서, 토크센서, 광센서, 음향센서, 진동센서, 온도센서 및 압력센서 중 적어도 어느 하나를 포함하여 센서정보를 감지함에 따라 작업자가 시각, 청각 및 촉각으로 감지하도록 지원한다.
상기한 센서부(320)에서 획득된 센서정보는 피드백 랜더링 서버부(200)로 전송되고, 그에 따라 딥러닝부(230)는 센서정보를 기반으로 멀티모달정보로 생성하여 조작부(100)로 전송한다.
제어부(330)는 딥러닝부(230)로부터 전송되는 위치정보 및 가공정보를 기반으로 가공신호를 생성하여 가공부(310)로 전송함으로써 가공부(310)가 가공물을 가공하도록 제어한다.
도 4의 (a), (b)는 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템에 의해 제조되는 가공물을 나타낸 실제 도면이다.
상기한 본 발명은 도 4의 (a)에 도시된 대형 프로펠러 및 도 4의 (b)에 도시된 항공 엔진을 정교하게 후가공할 수 있다.
2. 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법
이하, 도 1 내지 도 6을 참조하여 본 발명의 일 실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법을 설명하도록 한다.
도 5는 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템의 조작부, 피드백 랜더링 서버부 및 로봇부의 순서로 동작되는 것을 나타낸 동작흐름도이다. 도 6은 본 발명의 일실시예에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템의 로봇부, 피드백 랜더링 서버부 및 조작부의 순서로 동작되는 것을 나타낸 동작흐름도이다.
본 발명의 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법은 전술한 바에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법에 있어서, (a) 조작부(100)가 작업자(10)에게 멀티모달정보를 전달하는 단계, (b) 조작부(100)가 작업자(10)의 모션에 의해 동작하면서 모션정보를 생성하여 피드백 랜더링 서버부(200)로 전송하는 단계, (c) 피드백 랜더링 서버부(200)가 모션정보의 유무에 따라 로봇부(300)의 동작 여부를 결정하는 단계, (d) 피드백 랜더링 서버부(200)가 모션정보를 기반으로 가공정보 및 위치정보를 생성하여 로봇부(300)로 전송하는 단계, (e) 로봇부(300)가 가공정보 및 위치정보를 기반으로 가공물을 후가공하는 단계 및 (f) 로봇부(300)가 가공물에 가해지는 멀티모달정보를 감지하여 피드백 랜더링 서버부(200)로 전송하는 단계 및 (g) 피드백 랜더링 서버부(200)가 조작부(100)로 멀티모달정보를 전송하는 단계를 포함한다.
여기서, 멀티모달정보는 전술한 바와 같이 가공물 및 로봇부(300)를 촬영한 시각정보, 로봇부(300)가 가공물을 가공 시 가공물에 가해지는 가공 부하에 대한 촉각정보 및 로봇부(300)가 가공물을 가공하면서 발생하는 음향에 대한 음향정보를 포함한다.
상기 (a) 단계는, (a1) 조작부(100)에 구비된 자극전달부(130)가 멀티모달정보를 수신하는 단계, (a2) 조작부(100)에 구비된 햅틱글러브(120)가 자극전달부(130)로부터 전송되는 촉각정보를 수신하여 작업자(10)의 손에 전달하는 단계 및 (a3) 조작부(100)에 구비된 HMD부(110)가 자극전달부(130)로부터 전송되는 시각정보를 수신하여 작업자(10)에게 디스플레이하는 단계를 포함하고, 햅틱글러브(120) 및 HMD부(110)는 촉각정보 및 시각정보를 작업자(10)에게 실시간으로 전달함에 따라 작업자(10)가 가공물을 후가공하는 것을 지원한다.
다음, 상기 (b) 단계에서, 모션정보는 작업자(10)가 가공하는 손의 위치, 각도, 이동속도, 이동경로, 작업순서 중 적어도 어느 하나를 포함하는 작업자(10)의 노하우에 대한 정보이다.
다음, 상기 (c) 단계는, (c1) 피드백 랜더링 서버부(200)가 모션정보의 유무를 판단하여 로봇부(300)의 동작을 결정하는 단계 및 (c2) 모션정보가 존재하는 경우, 상기 (d) 단계를 수행하는 단계를 포함한다.
다음, 상기 (d) 단계는, (d1) 피드백 랜더링 서버부(200)에 구비된 정보저장부(210)가 햅틱글러브(120)로부터 전송되는 모션정보를 수신하는 단계, (d2) 피드백 랜더링 서버부(200)에 구비된 딥러닝부(230)가 햅틱글러브(120)로부터 전송되는 모션정보를 기반으로 가공정보 및 위치정보를 생성하는 단계 및 (d3) 딥러닝부(230)가 로봇부(300)에 구비된 제어부(330)로 가공정보 및 위치정보를 전송하는 단계를 포함한다.
한편, 상기 (d) 단계는, 작업자가 미존재할 경우, (d4) 딥러닝부(230)가 모션정보를 기반으로 딥러닝하여 작업자(10)의 노하우를 학습함에 따라 최적가공조건정보를 생성하는 단계를 더 포함하고, 작업자(10)가 미존재할 경우, 딥러닝부(230)는 최적가공조건을 제어부(330)로 전송하며, 이에 따라 로봇부(300)에 구비된 가공부(310)는 제어부(330)가 최적가공조건정보를 기반으로 생성한 최적가공신호에 따라 가공물을 가공하게 된다.
상기한 딥러닝부(230)는 작업자의 노하우에 대한 정보들을 지속적으로 기계학습을 통하여 딥러닝하고, 딥러닝된 결과를 보완하면서 가공결함을 최소화할 수 있는 최적가공조건을 생성하여 로봇부(300)로 전송함에 따라 작업자(10)가 미존재할 경우에도 가공물을 가공할 수 있도록 한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 조작부
110: HMD부
120: 햅틱글러브
130: 자극전달부
200: 피드백 랜더링 서버부
210: 정보저장부
220: 가공경로부
230: 딥러닝부
300: 로봇부
310: 가공부
320: 센서부
330: 제어부

Claims (14)

  1. 작업자의 안면과 손에 착용되어 상기 작업자의 모션을 감지한 모션정보를 생성하고 상기 작업자에게 멀티모달정보를 제공하는 조작부;
    상기 조작부와 인터페이스에 의해 상기 조작부로 센서정보를 기반으로 생성한 상기 멀티모달정보를 전송하고 상기 조작부로부터 전송되는 상기 모션정보를 기반으로 가공정보 및 위치정보를 생성하는 피드백 랜더링 서버부; 및
    상기 피드백 랜더링 서버부와 인터페이스에 의해 상기 피드백 랜더링 서버부로부터 전송되는 상기 가공정보 및 상기 위치정보를 기반으로 가공물을 가공하고 상기 가공물에 가해지는 상기 센서정보를 감지하여 상기 피드백 랜더링 서버부로 전송하는 로봇부;를 포함하고,
    상기 조작부는 햅틱기술이 적용되어 상기 멀티모달정보가 상기 작업자에게 전달하여 상기 작업자가 상기 가공물과 상기 로봇부를 보면서 상기 후가공하는 것을 지원하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템.
  2. 제1 항에 있어서,
    상기 멀티모달정보는 상기 가공물 및 상기 로봇부를 촬영한 동영상, 상기 로봇부가 상기 가공물을 가공 시 상기 가공물에 가해지는 가공 부하 및 상기 로봇부가 상기 가공물을 가공하면서 발생하는 음향에 대한 음향정보를 포함하고,
    상기 조작부는,
    상기 작업자의 안면에 착용되고 상기 시각정보에 따라 상기 가공물, 상기 로봇부 및 상기 로봇부가 상기 가공물을 가공하는 것을 디스플레이하는 가공 HMD부;
    상기 작업자의 손에 착용되고 상기 피드백 랜더링 서버부로부터 전송되는 상기 멀티모달정보에 따라 동작하여 상기 가공 부하에 대한 전기자극, 진동자극, 압력자극 및 온도자극 중 적어도 어느 하나를 상기 작업자의 손에 전달하는 햅틱글러브; 및
    상기 피드백 랜더링 서버부로부터 전송되는 상기 멀티모달정보를 수신하여 상기 햅틱글러브로 전송하는 자극전달부;를 포함하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템.
  3. 제2 항에 있어서,
    상기 피드백 랜더링 서버부는,
    상기 햅틱글러브로부터 전송되는 상기 모션정보를 저장하는 정보저장부;
    상기 로봇부로부터 전송되는 상기 센서정보를 기반으로 상기 멀티모달정보를 생성하고 상기 조작부로부터 전송되는 상기 모션정보를 기반으로 상기 위치정보를 생성하는 딥러닝부; 및
    기설정된 가공경로정보가 저장되는 가공경로부;를 포함하고,
    상기 정보저장부는 상기 딥러닝부로부터 전송되는 상기 멀티모달정보를 상기 자극전달부로 전송하고,
    상기 딥러닝부는 상기 모션정보를 기반으로 생성한 상기 가공정보 및 상기 위치정보를 상기 로봇부로 전송하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템.
  4. 제3 항에 있어서,
    상기 로봇부는,
    상기 가공물을 가공하는 가공부;
    상기 가공부가 상기 가공물을 가공 시 상기 가공물에 가해지는 가공 부하를 감지한 상기 센서정보를 생성하는 센서부; 및
    상기 딥러닝부로부터 전송되는 상기 위치정보 및 상기 가공정보를 기반으로 가공신호를 생성하여 상기 가공부로 전송함으로써 상기 가공부가 상기 가공물을 가공하도록 제어하는 제어부;를 포함하고,
    상기 가공부는 상기 작업자의 모션을 따라 상기 가공물을 가공하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템.
  5. 제3 항에 있어서,
    상기 딥러닝부는 상기 모션정보를 기반으로 딥러닝하여 상기 작업자의 노하우를 학습함에 따라 최적가공조건정보를 생성하고,
    상기 작업자가 미존재할 경우, 상기 딥러닝부는 상기 최적가공조건을 상기 제어부로 전송하며,
    상기 가공부는 상기 제어부가 상기 최적가공조건정보를 기반으로 생성한 최적가공신호에 따라 상기 가공물을 가공하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템.
  6. 제3 항에 있어서,
    상기 기설정된 가공경로정보는 가공 프로그램에 의해 정해진 가공경로로서, 상기 로봇부의 안전을 위한 가이드 레퍼런스인 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템.
  7. 제4 항에 있어서,
    상기 센서부는 포스센서, 토크센서, 광센서, 음향센서, 진동센서, 온도센서 및 압력센서 중 적어도 어느 하나를 포함하여 상기 센서정보를 감지함에 따라 상기 작업자가 시각, 청각 및 촉각으로 감지하도록 지원하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템.
  8. 제2 항에 있어서,
    상기 HMD부는 상기 자극전달부로부터 전송되는 멀티모달정보 중 음향자극을 출력하여 상기 작업자에게 전달하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템.
  9. 제1 항에 따른 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법에 있어서,
    (a) 상기 조작부가 상기 작업자에게 상기 멀티모달정보를 전달하는 단계;
    (b) 상기 조작부가 상기 작업자의 모션에 의해 동작하면서 상기 모션정보를 생성하여 상기 피드백 랜더링 서버부로 전송하는 단계;
    (c) 상기 피드백 랜더링 서버부가 상기 모션정보의 유무에 따라 상기 로봇부의 동작 여부를 결정하는 단계;
    (d) 상기 피드백 랜더링 서버부가 상기 모션정보를 기반으로 가공정보 및 위치정보를 생성하여 상기 로봇부로 전송하는 단계;
    (e) 상기 로봇부가 상기 가공정보 및 상기 위치정보를 기반으로 상기 가공물을 후가공하는 단계; 및
    (f) 상기 로봇부가 상기 가공물에 가해지는 가공부하를 감지한 센서정보를 생성하여 상기 피드백 랜더링 서버부로 전송하는 단계; 및
    (g) 상기 피드백 랜더링 서버부가 상기 조작부로 상기 센서정보를 기반으로 생성한 상기 멀티모달정보를 전송하는 단계;를 포함하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법.
  10. 제9 항에 있어서,
    상기 멀티모달정보는 상기 가공물 및 상기 로봇부를 촬영한 시각정보, 상기 로봇부가 상기 가공물을 가공 시 상기 가공물에 가해지는 가공 부하에 대한 촉각정보 및 상기 로봇부가 상기 가공물을 가공하면서 발생하는 음향에 대한 음향정보를 포함하고,
    상기 (a) 단계는,
    (a1) 상기 조작부에 구비된 자극전달부가 상기 멀티모달정보를 수신하는 단계;
    (a2) 상기 조작부에 구비된 햅틱글러브가 상기 자극전달부로부터 전송되는 상기 촉각정보를 수신하여 상기 작업자의 손에 전달하는 단계; 및
    (a3) 상기 조작부에 구비된 HMD부가 상기 자극전달부로부터 전송되는 상기 시각정보를 수신하여 상기 작업자에게 디스플레이하는 단계;를 포함하고,
    상기 햅틱글러브 및 상기 HMD부는 상기 촉각정보 및 상기 시각정보를 상기 작업자에게 실시간으로 전달함에 따라 상기 작업자가 상기 가공물을 후가공하는 것을 지원하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법.
  11. 제9 항에 있어서,
    상기 (b) 단계에서,
    상기 모션정보는 상기 작업자가 가공하는 손의 위치, 각도, 이동속도, 이동경로, 작업순서 중 적어도 어느 하나를 포함하는 상기 작업자의 노하우인 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법.
  12. 제9 항에 있어서,
    상기 (c) 단계는,
    (c1) 상기 피드백 랜더링 서버부가 상기 모션정보의 유무를 판단하여 상기 로봇부의 동작을 결정하는 단계; 및
    (c2) 상기 모션정보가 존재하는 경우, 상기 (d) 단계를 수행하는 단계;를 포함하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법.
  13. 제12 항에 있어서,
    상기 (d) 단계는,
    (d1) 상기 피드백 랜더링 서버부에 구비된 정보저장부가 상기 햅틱글러브로부터 전송되는 상기 모션정보를 수신하는 단계;
    (d2) 상기 피드백 랜더링 서버부에 구비된 딥러닝부가 상기 햅틱글러브로부터 전송되는 상기 모션정보를 기반으로 상기 가공정보 및 상기 위치정보를 생성하는 단계; 및
    (d3) 상기 딥러닝부가 상기 로봇부에 구비된 제어부로 상기 가공정보 및 상기 위치정보를 전송하는 단계;를 포함하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템의 제어방법.
  14. 제13 항에 있어서,
    상기 (d) 단계는,
    (d4) 상기 딥러닝부가 상기 모션정보를 기반으로 딥러닝하여 상기 작업자의 노하우를 학습함에 따라 최적가공조건정보를 생성하는 단계;를 더 포함하고,
    상기 작업자가 미존재할 경우, 상기 딥러닝부는 상기 최적가공조건을 상기 제어부로 전송하며,
    상기 로봇부에 구비된 가공부는 상기 제어부가 상기 최적가공조건정보를 기반으로 생성한 최적가공신호에 따라 상기 가공물을 가공하는 것을 특징으로 하는 햅틱 기술을 이용한 로봇의 후가공 시스템.
KR1020200145067A 2020-11-03 2020-11-03 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법 KR102415427B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200145067A KR102415427B1 (ko) 2020-11-03 2020-11-03 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200145067A KR102415427B1 (ko) 2020-11-03 2020-11-03 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법

Publications (2)

Publication Number Publication Date
KR20220060064A true KR20220060064A (ko) 2022-05-11
KR102415427B1 KR102415427B1 (ko) 2022-07-04

Family

ID=81607024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200145067A KR102415427B1 (ko) 2020-11-03 2020-11-03 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법

Country Status (1)

Country Link
KR (1) KR102415427B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11202928A (ja) * 1998-01-08 1999-07-30 Nippon Telegr & Teleph Corp <Ntt> 作業支援装置
KR20020027707A (ko) * 2000-10-04 2002-04-15 안성용 인공 지능형 에이젼트 시스템과 이의 구동 방법 및 이를저장한 컴퓨터가 판독 가능한 기록매체
KR20110060705A (ko) * 2009-11-30 2011-06-08 재단법인대구경북과학기술원 조향 결정 성능이 향상된 원격 조종 로봇 시스템 및 이에 사용되는 원격 조종기
KR101343860B1 (ko) * 2013-01-03 2013-12-20 재단법인대구경북과학기술원 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템과 로봇 아바타 시스템에서 사용되는 명령 서버, 학습 서버 및 지각 서버
KR20190070386A (ko) * 2017-12-12 2019-06-21 한국로봇융합연구원 시각 정보와 촉각 정보를 함께 이용하여 객체를 파지하는 로봇 핸드 및 그 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11202928A (ja) * 1998-01-08 1999-07-30 Nippon Telegr & Teleph Corp <Ntt> 作業支援装置
KR20020027707A (ko) * 2000-10-04 2002-04-15 안성용 인공 지능형 에이젼트 시스템과 이의 구동 방법 및 이를저장한 컴퓨터가 판독 가능한 기록매체
KR20110060705A (ko) * 2009-11-30 2011-06-08 재단법인대구경북과학기술원 조향 결정 성능이 향상된 원격 조종 로봇 시스템 및 이에 사용되는 원격 조종기
KR101343860B1 (ko) * 2013-01-03 2013-12-20 재단법인대구경북과학기술원 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템과 로봇 아바타 시스템에서 사용되는 명령 서버, 학습 서버 및 지각 서버
KR20190070386A (ko) * 2017-12-12 2019-06-21 한국로봇융합연구원 시각 정보와 촉각 정보를 함께 이용하여 객체를 파지하는 로봇 핸드 및 그 제어방법

Also Published As

Publication number Publication date
KR102415427B1 (ko) 2022-07-04

Similar Documents

Publication Publication Date Title
US11345042B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
US10052765B2 (en) Robot system having augmented reality-compatible display
US20190329405A1 (en) Robot simulation device
CN110784708B (zh) 感测系统、作业系统、扩展现实图像的显示方法、扩展现实图像的存储方法以及程序
US20180210434A1 (en) Robot system including force-controlled pushing device
US10413994B2 (en) Laser processing robot system for performing laser processing using robot
CN110505947B (zh) 机器人系统及其运行方法
US20220266449A1 (en) Control device, control system, robot system and controlling method
JP7396872B2 (ja) 拡張現実を用いたシミュレーション装置及びロボットシステム
JP2013016020A (ja) 作業支援システム、装置、方法及びプログラム
US20180290304A1 (en) Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
JP2017100234A (ja) ティーチング結果表示システム
EP3224681B1 (en) System for virtual commissioning
KR102415427B1 (ko) 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법
JP7167518B2 (ja) 制御装置、ヘッドマウントディスプレイおよびロボットシステム
JPH0421105A (ja) マニピユレータの立体教示装置
CN115003463A (zh) 机器人模拟装置
US20190286108A1 (en) System for the virtual assistance of an operator for wood processing machines
CN111448502A (zh) 可靠的眼镜式设备和方法
KR101485075B1 (ko) 원격로봇 시스템
US20220281109A1 (en) Robot system, terminal, control method for robot system, and control method for terminal
WO2021033400A1 (ja) 情報処理装置、情報処理方法および記録媒体
JP2020175453A (ja) 遠隔操作装置
US20220184814A1 (en) Robot system
TWI723309B (zh) 加工控制系統以及加工控制方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant