KR20010076786A - 가상현실기술을 이용한 로봇 원격제어 시스템 및 방법 - Google Patents

가상현실기술을 이용한 로봇 원격제어 시스템 및 방법 Download PDF

Info

Publication number
KR20010076786A
KR20010076786A KR1020000004141A KR20000004141A KR20010076786A KR 20010076786 A KR20010076786 A KR 20010076786A KR 1020000004141 A KR1020000004141 A KR 1020000004141A KR 20000004141 A KR20000004141 A KR 20000004141A KR 20010076786 A KR20010076786 A KR 20010076786A
Authority
KR
South Korea
Prior art keywords
robot
information
controller
data
providing
Prior art date
Application number
KR1020000004141A
Other languages
English (en)
Inventor
김상원
이지형
박찬종
Original Assignee
오길록
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오길록, 한국전자통신연구원 filed Critical 오길록
Priority to KR1020000004141A priority Critical patent/KR20010076786A/ko
Publication of KR20010076786A publication Critical patent/KR20010076786A/ko

Links

Classifications

    • EFIXED CONSTRUCTIONS
    • E06DOORS, WINDOWS, SHUTTERS, OR ROLLER BLINDS IN GENERAL; LADDERS
    • E06BFIXED OR MOVABLE CLOSURES FOR OPENINGS IN BUILDINGS, VEHICLES, FENCES OR LIKE ENCLOSURES IN GENERAL, e.g. DOORS, WINDOWS, BLINDS, GATES
    • E06B1/00Border constructions of openings in walls, floors, or ceilings; Frames to be rigidly mounted in such openings
    • E06B1/04Frames for doors, windows, or the like to be fixed in openings
    • E06B1/06Wooden frames
    • E06B1/08Wooden frames composed of several parts with respect to the cross-section of the frame itself
    • E06B1/10Wooden frames composed of several parts with respect to the cross-section of the frame itself adjustable with respect to the thickness of walls
    • EFIXED CONSTRUCTIONS
    • E06DOORS, WINDOWS, SHUTTERS, OR ROLLER BLINDS IN GENERAL; LADDERS
    • E06BFIXED OR MOVABLE CLOSURES FOR OPENINGS IN BUILDINGS, VEHICLES, FENCES OR LIKE ENCLOSURES IN GENERAL, e.g. DOORS, WINDOWS, BLINDS, GATES
    • E06B1/00Border constructions of openings in walls, floors, or ceilings; Frames to be rigidly mounted in such openings
    • E06B1/04Frames for doors, windows, or the like to be fixed in openings
    • E06B1/32Frames composed of parts made of different materials
    • EFIXED CONSTRUCTIONS
    • E06DOORS, WINDOWS, SHUTTERS, OR ROLLER BLINDS IN GENERAL; LADDERS
    • E06BFIXED OR MOVABLE CLOSURES FOR OPENINGS IN BUILDINGS, VEHICLES, FENCES OR LIKE ENCLOSURES IN GENERAL, e.g. DOORS, WINDOWS, BLINDS, GATES
    • E06B1/00Border constructions of openings in walls, floors, or ceilings; Frames to be rigidly mounted in such openings
    • E06B1/56Fastening frames to the border of openings or to similar contiguous frames
    • E06B1/58Fastening frames to the border of openings or to similar contiguous frames by filling up the joints, e.g. by cementing
    • EFIXED CONSTRUCTIONS
    • E06DOORS, WINDOWS, SHUTTERS, OR ROLLER BLINDS IN GENERAL; LADDERS
    • E06BFIXED OR MOVABLE CLOSURES FOR OPENINGS IN BUILDINGS, VEHICLES, FENCES OR LIKE ENCLOSURES IN GENERAL, e.g. DOORS, WINDOWS, BLINDS, GATES
    • E06B7/00Special arrangements or measures in connection with doors or windows
    • E06B7/16Sealing arrangements on wings or parts co-operating with the wings
    • E06B7/22Sealing arrangements on wings or parts co-operating with the wings by means of elastic edgings, e.g. elastic rubber tubes; by means of resilient edgings, e.g. felt or plush strips, resilient metal strips
    • E06B7/23Plastic, sponge rubber, or like strips or tubes

Landscapes

  • Engineering & Computer Science (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Wood Science & Technology (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 원격지의 시청각적 환경 정보를 제어자에게 전달하고 제어자의 자세 정보를 운동 정보로 바꾸어 로봇에게 전달하는 로봇 원격제어 시스템 및 방법에 관한 것이다.
원격지의 로봇을 제어하는 데 있어서, 원격지의 상황을 인간이 공감할 수 있도록 하기 위하여 가상현실기술을 응용한다. 즉, 입체적인 시각효과를 위해 모니터 대신 HMD(Head Mounted Display)를 이용하고, 입체음향기술, 물체를 만지거나 이동시킬 때 전달되는 역감 등을 표현하기 위해 바이브레이터를 이용한다. 또한, 로봇을 보다 직관적으로 제어하기 위해 중량감있는 보철기구 대신 가벼운 자기방식 3차원 위치추적기, 즉 자기센서를 부착하여 인간의 움직임을 실시간으로 얻어내고, 이 정보를 로봇에게 전달한다. 이로써, 제어자는 원격지의 로봇을 보다 정확하게 움직일 수 있게 된다.

Description

가상현실기술을 이용한 로봇 원격제어 시스템 및 방법 { Remote-Controlled Robot System and Method using VR technology }
본 발명은 원격지의 로봇을 제어하는 시스템 및 방법에 관한 것으로서, 원격지의 시청각적 환경 정보를 제어자에게 전달하고 제어자의 자세 정보를 운동 정보로 바꾸어 로봇에게 전달하는 로봇 원격제어 시스템 및 방법에 관한 것이다.
도 1은 제어자와 로봇간에 주고받는 정보들의 흐름을 개략적으로 도시한 도면이고, 도 2는 종래에 제어자와 로봇간에 주고받던 정보들의 흐름을 도시한 도면이다. 도면을 참고하면서 종래의 로봇 원격제어 방법을 설명한다.
먼저, 원격지에 있는 로봇(2)에 부착된 하나의 카메라(13)를 통해 전달되는 영상들이 모니터(11)에 나타난다. 제어자(1)는 모니터(11)를 통해 원격지의 영상을 보며, 자신의 신체에 부착된 보철장치(12)를 움직인다. 보철장치(12)에 달린 센서는 제어자의 운동을 신호화하여 이를 원격지의 로봇(2)에게 전달한다. 로봇(2)은 전달된 신호를 분석하여 제어자의 같이 운동한다.
그러나, 이러한 종래의 방법은 원격지의 환경을 이해하기 위해, 하나의 카메라만을 이용한 단순 2차원 영상정보만을 이용한다. 그리고, 무겁고 움직이기 힘든 보철장치를 사용함으로써 로봇을 제어하는데 많은 힘이 소요되고 직관적이지 못하다는 문제점이 있다.
따라서, 본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로서, 입체적인 3차원 영상 정보와 청각 및 촉각 정보를 이용하여 원격지의 환경 정보를 파악하고, 로봇을 보다 쉽고 직관적으로 제어하는 로봇 원격제어 시스템 및 방법을 제공하기 위한 것이다.
도 1은 로봇 원격제어 방법을 나타낸 개략적 블록도,
도 2는 종래의 로봇 원격제어 방법을 나타낸 블록도,
도 3은 본 발명의 한 실시예에 따른 로봇 원격제어 방법을 나타낸 블록도,
도 4는 제어자와 로봇간에 주고받는 정보들의 채널 구성도,
도 5는 도 3을 구현하기 위한 로봇의 동작 흐름도,
도 6은 도 3을 구현하기 위한 제어자의 동작 흐름도,
도 7은 도 6의 동작 흐름도의 단계 S59의 상세 흐름도,
도 8은 도 7을 통해 생성되는 자세 데이터 포맷을 도시한 도면,
도 9는 도 5의 동작 흐름도에서 단계 S49를 수행하기 위한 상세 흐름도이다.
상기한 목적을 달성하기 위하여 본 발명에 따른 로봇 원격제어 시스템은, 가상현실 기술을 이용하여 제어자가 원격지에 위치한 로봇을 제어하는 시스템에 있어서, 상기 로봇이 위치한 원격지의 좌, 우 영상들을 획득하여 상기 제어자에게 제공하는 시각정보 획득 및 제공수단과, 상기 로봇이 위치한 원격지의 청각정보를 획득하여 상기 제어자에게 제공하는 청각정보 획득 및 제공수단, 상기 로봇의 촉각정보를 획득하여 상기 제어자에게 제공하는 촉각정보 획득 및 제공수단, 및 상기 제어자의 움직임 정보를 획득하여 자세 데이터로 수치화하여 상기 로봇에게 제공하는 운동정보 획득 및 제공수단을 포함하며, 상기 제어자가 상기 로봇으로부터 제공되는 시각정보와 청각정보와 촉각정보를 이용하여 상기 로봇의 상태를 파악하고, 상기 제어자의 움직임 정보에 따라 상기 로봇이 구동하는 것을 특징으로 한다.
또한, 본 발명의 한 실시예에 따른 가상현실기술을 이용한 로봇 원격제어 방법은, 가상현실 기술을 이용하여 제어자가 원격지에 위치한 로봇을 제어하는 방법에 있어서, 상기 로봇이 위치한 원격지의 좌, 우 영상들과 청각정보, 및 상기 로봇의 촉각정보를 획득하여 상기 제어자에게 제공하는 정보획득 및 제공단계와, 상기 제어자가 상기 로봇으로부터 제공되는 시각정보와 청각정보와 촉각정보를 이용하여 상기 로봇의 상태를 파악하는 로봇 상태 파악단계, 상기 제어자가 움직이면 그 움직임 정보를 획득하여 상기 로봇에게 제공하는 운동정보 획득 및 제공단계, 및 상기 제어자의 움직임 정보에 따라 상기 로봇이 구동하는 로봇 구동단계를 포함한 것을 특징으로 한다.
이하, 첨부된 도면을 참조하면서 본 발명의 한 실시예에 따른 "가상현실기술을 이용한 로봇 원격제어 시스템 및 방법"을 보다 상세하게 설명하면 다음과 같다.
도 1은 일반적인 로봇 원격제어 방법을 도시한 도면이다. 제어자(1)와 로봇(2)이 떨어져 있는 상황에서, 로봇(2)은 제어자(1)에게 원격지의 환경 정보를 보내고, 제어자(1)는 환경 정보를 토대로 로봇(2)을 움직인다.
도 3은 본 발명의 한 실시예에 따른 로봇 원격제어 시스템을 도시한 구성도이다. 원격지의 로봇(2)은 제어자(1)에게 보내는 환경 정보들을 보내는 바, 이 환경 정보에는 시각, 청각, 촉각 정보들로 구성된다. 제어자(1)는 로봇(2)에게 운동 정보를 전송하여 로봇의 자세를 제어한다.
이를 위하여, 원격지의 로봇에는 두 대의 카메라(25, 26)와, 마이크(27), 및 역감센서(28)가 추가되는 바, 두 대의 카메라(25, 26)를 이용하여 시각 정보를, 마이크(27)를 이용하여 청각 정보를, 역감센서(28)를 이용하여 촉각 정보를 각각 제공한다. 또한, 이 각 정보들은 각각 HMD(Head Mounted Display)(21)와 스피커(22)와 바이브레이터(23)를 이용하여 제어자(1)에게 전달된다. 그리고, 제어자(1)의 운동 정보를 자기센서(24)를 통해 로봇(2)에게 전달되는데, 이로써 로봇을 보다 쉽게 제어할 수 있다.
카메라_좌(25)와 카메라_우(26)를 통해 들어오는 원격지의 좌, 우 영상들은 제어자(1)에게 부착된 HMD(21)의 각각 좌, 우 스크린으로 보내진다. 제어자(1)는 HMD(21)의 좌, 우 영상 정보들을 통해 원격지를 입체적으로 볼 수 있는 시각 정보들을 제공받는다. 마이크(27)를 통해 들어오는 원격지의 소리들은 제어자(1)에게 부착된 스피커(22)로 보내진다. 제어자(1)는 스피커(22)를 통해 원격지의 소리를 들을 수 있는 청각 정보를 제공받는다.
로봇(2)의 각 관절부위에 달린 역감센서(28)들은 관절들의 운동을 방해하는 힘을 조사하여 이러한 힘들이 발생하였을 때 이 힘들의 세기를 조사하여 이 정보들을 제어자에게 부착된 바이브레이터(23)로 보낸다. 제어자(1)는 바이브레이터(23)를 통해 로봇 관절 운동을 방해하는 힘에 대한 촉각 정보들을 제공받는다.
카메라_좌(25)와 카메라_우(26)와 마이크(27)는 로봇(2)의 머리 부분에 달려 있기 때문에, 제어자(1)가 원하는 곳으로 머리를 움직이면 로봇(2)의 머리부분 또한 같이 움직여서 원하는 부분의 환경정보를 수집할 수 있도록 한다.
제어자(1)는 로봇(2)을 제어하기 위해 신체를 움직이고, 이러한 신체의 운동 정보들은 자기센서(24)를 통해 수치데이터로 바뀌고 이 데이터들은 원격지의 로봇을 움직인다.
도 4는 원격지에 위치한 제어자(1)와 로봇(2)이 서로 통신하기 위해 필요한 채널을 도시한 도면이다. 도 3을 참조하면, 시각, 청각, 촉각, 운동 정보들을 주고받기 위한 5개의 채널들이 필요하다. 시각 정보는 시각정보_좌 채널(31)과 시각정보_우 채널(32)을 통해 이미지 프레임 별로 전송된다. 청각 정보는 일정 시간 분의 소리 데이터들을 청각정보 채널(33)을 통해 계속적으로 전송된다. 촉각 정보는 촉각정보 채널(34)을 통해 전송된다. 운동 정보는 자세정보 채널(35)을 통해 전송된다.
도 5는 본 발명의 한 실시예에 따른 로봇 원격제어 방법을 실현하기 위한 로봇의 동작 흐름도이다. 로봇측은 제어자측과 통신하기 전에 우선 서로의 통신연결에 대해 초기화한다(S41). 그리고, 4개의 프로세스를 독립적으로 수행시킨다. 각각의 프로세스는 카메라_좌(25)와 카메라_우(26)로부터 영상 이미지들을 획득하여(S42) 시각정보 채널을 통해 전송하는(S43) 프로세스와, 마이크(27)로부터 소리데이터를 획득하여(S44) 청각정보 채널을 통해 전송하는(S45) 프로세스와, 역감센서(28)들로부터 역감 데이터를 획득하여(S46) 촉각정보 채널을 통해 전송하는(S47) 프로세스와, 자세정보 채널을 통해 자세 정보들을 수신한 다음(S48), 이 정보들로부터 로봇을 움직이는(S49) 프로세스로 구성된다.
도 6은 본 발명의 한 실시예에 따른 로봇 원격제어 방법을 실현하기 위한 제어자의 동작 흐름도이다. 제어자(1)측은 로봇(2)측과 통신하기 전에 우선 서로의 통신연결에 대한 초기화(S51)를 수행한다. 그리고, 4개의 프로세스를 독립적으로 수행시킨다. 각각의 프로세스는 시각정보 채널을 통해 좌, 우 영상 이미지가 수신되면(S52), 이 좌, 우 영상 이미지를 HMD(21)로 주사하는(S53) 프로세스와, 청각정보 채널을 통해 소리 데이터가 수신되면(S54), 이 소리 데이터를 스피커(22)로 보내는(S55) 프로세스와, 촉각정보 채널을 통해 역감 데이터들이 수신되면(S56), 이 역감 데이터들을 바이브레이터로 보내는(S57) 프로세스와, 제어자(1)가 신체 움직이면(S58), 이 신체 움직임을 자기센서를 통해 자세 데이터로 수치화하여 자세정보 채널로 전송하는(S59) 프로세스로 구성된다.
도 7은 도 6의 동작 흐름도에서 자기센서로부터 자세 데이터를 획득하는 과정(S59)의 상세 흐름도이다. 각 자기센서(24)의 절대 좌표계에 대한 변위값들과 회전 값들을 구한다(S61). 로봇의 위치를 결정하기 위한 0번 센서를 제외한 모든 센서에 대해서 상위 분절에 부착된 센서에 대한 상대 회전값을 구한다(S62).
도 8은 도 7의 자세 데이터 획득과정을 통해 구해진 자세정보 데이터의 포맷을 도시한 도면이다. 이 포맷은 3 개의 Float형 데이터로 이루어진 다수 개의 벡터 데이터로 구성된다. 처음 두 개 벡터 데이터는 센서 0번의 절대 회전값(71)과 절대 변위값(72)을 포함한다. 이후의 벡터 데이터들은 나머지 센서들의 상대 회전값(73)을 갖는다.
도 9는 도 5의 동작 흐름도에서, 제어자의 자세 데이터를 이용해 로봇을 움직이는 과정(S49)의 상세 흐름도이다. 먼저, 제어자의 자세 데이터와 로봇의 현재 자세데이터를 비교하여 그 차(D)를 구하고, 로봇의 반응속도와 상기 차(D)에 따라 상기 로봇의 구동시간과 구동방향을 결정하며, 상기 로봇을 구동방향으로 구동시간만큼 움직인다.
로봇은 항상 제어자로부터 수신되는 자세정보와 자신의 자세정보간의 차(D)를 상쇄시키는 방향으로 동작한다. 또한, 이러한 동작은 로봇에 설정된 반응속도(V)를 변화함에 따라 그 결과가 다르게 나타난다. 만일 로봇의 반응속도(V)를 최대값으로 설정하면, 로봇은 제어자의 동작과 거의 같은 속도로 동작하여 빠른 반응을 보인다. 이러한 빠른 반응은 정밀도가 요구되지 않으면서 대량의 작업을 처리하는 데 효율적일 것이다. 그러나, 로봇의 반응속도(V)를 작은 값으로 설정한다면, 동작 반응이 느려서 제어자의 느린 동작은 같은 속도로 반응하지만 제어자가 재빨리 동작한다면 제어자의 자세를 향해 반응속도(V)만큼 천천히 동작한다. 이러한 느린 반응은 갑작스럽게 동작이 튀는 것을 방지할 수 있으므로 정밀도가 요구되는 작업에 적당할 것이다.
위에서 양호한 실시예에 근거하여 이 발명을 설명하였지만, 이러한 실시예는 이 발명을 제한하려는 것이 아니라 예시하려는 것이다. 이 발명이 속하는 분야의 숙련자에게는 이 발명의 기술사상을 벗어남이 없이 위 실시예에 대한 다양한 변화나 변경 또는 조절이 가능함이 자명할 것이다. 그러므로, 이 발명의 보호범위는 첨부된 청구범위에 의해서만 한정될 것이며, 위와 같은 변화예나 변경예 또는 조절예를 모두 포함하는 것으로 해석되어야 할 것이다.
이상과 같이 본 발명에 의하면, 원격지에서 로봇이 처한 환경에 대한 정보를 최대한 제공하고, 제어자는 로봇을 보다 쉽게 제어할 수 있다. 따라서, 로봇을 제어하는데 있어 실수의 가능성이 줄고, 보다 직관적인 제어가 가능하다는 효과가 있다.

Claims (7)

  1. 가상현실 기술을 이용하여 제어자가 원격지에 위치한 로봇을 제어하는 시스템에 있어서,
    상기 로봇이 위치한 원격지의 좌, 우 영상들을 획득하여 상기 제어자에게 제공하는 시각정보 획득 및 제공수단과,
    상기 로봇이 위치한 원격지의 청각정보를 획득하여 상기 제어자에게 제공하는 청각정보 획득 및 제공수단,
    상기 로봇의 촉각정보를 획득하여 상기 제어자에게 제공하는 촉각정보 획득 및 제공수단, 및
    상기 제어자의 움직임 정보를 획득하여 자세 데이터로 수치화하여 상기 로봇에게 제공하는 운동정보 획득 및 제공수단을 포함하며,
    상기 제어자가 상기 로봇으로부터 제공되는 시각정보와 청각정보와 촉각정보를 이용하여 상기 로봇의 상태를 파악하고, 상기 제어자의 움직임 정보에 따라 상기 로봇이 구동하는 것을 특징으로 하는 가상현실기술을 이용한 로봇 원격제어 시스템.
  2. 제 1 항에 있어서, 상기 시간정보 획득수단은 로봇에 부착된 카메라들이고, 상기 시각정보 제공수단은 HMD(Head Mounted Display)인 것을 특징으로 하는 가상현실기술을 이용한 로봇 원격제어 시스템.
  3. 제 1 항에 있어서, 상기 촉각정보 획득수단은 로봇의 각 관절부에 부착된 역감센서이고, 상기 촉각정보 제공수단은 제어자의 신체 각 분절에 부착된 바이브레이터인 것을 특징으로 하는 가상현실기술을 이용한 로봇 원격제어 시스템.
  4. 제 1 항에 있어서, 상기 운동정보 획득수단은 자기방식의 3차원 위치추적기인 것을 특징으로 하는 가상현실기술을 이용한 로봇 원격제어 시스템.
  5. 가상현실 기술을 이용하여 제어자가 원격지에 위치한 로봇을 제어하는 방법에 있어서,
    상기 로봇이 위치한 원격지의 좌, 우 영상들과 청각정보, 및 상기 로봇의 촉각정보를 획득하여 상기 제어자에게 제공하는 정보획득 및 제공단계와,
    상기 제어자가 상기 로봇으로부터 제공되는 시각정보와 청각정보와 촉각정보를 이용하여 상기 로봇의 상태를 파악하는 로봇 상태 파악단계,
    상기 제어자가 움직이면 그 움직임 정보를 획득하여 상기 로봇에게 제공하는 운동정보 획득 및 제공단계, 및
    상기 제어자의 움직임 정보에 따라 상기 로봇이 구동하는 로봇 구동단계를 포함한 것을 특징으로 하는 가상현실기술을 이용한 로봇 원격제어 방법.
  6. 제 5 항에 있어서, 상기 운동정보 획득 및 제공단계는, 상기 제어자의 움직임 정보를 자세데이터로 변환하여 상기 로봇에게 제공하는 것을 특징으로 하는 가상현실기술을 이용한 로봇 원격제어 방법.
  7. 제 6 항에 있어서, 상기 로봇 구동단계는, 상기 자세데이터와 로봇의 현재 자세데이터를 비교하여 그 차(D)를 구하는 제 1 단계와,
    로봇의 반응속도와 상기 차(D)에 따라 상기 로봇의 구동시간과 구동방향을 결정하는 제 2 단계, 및
    상기 로봇을 구동방향으로 구동시간만큼 움직이는 제 3 단계를 포함한 것을 특징으로 하는 가상현실기술을 이용한 로봇 원격제어 방법.
KR1020000004141A 2000-01-28 2000-01-28 가상현실기술을 이용한 로봇 원격제어 시스템 및 방법 KR20010076786A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000004141A KR20010076786A (ko) 2000-01-28 2000-01-28 가상현실기술을 이용한 로봇 원격제어 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000004141A KR20010076786A (ko) 2000-01-28 2000-01-28 가상현실기술을 이용한 로봇 원격제어 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20010076786A true KR20010076786A (ko) 2001-08-16

Family

ID=19642291

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000004141A KR20010076786A (ko) 2000-01-28 2000-01-28 가상현실기술을 이용한 로봇 원격제어 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20010076786A (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100746118B1 (ko) * 2006-09-26 2007-08-06 후지쯔 가부시끼가이샤 로봇
US9579799B2 (en) 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input
CN107030703A (zh) * 2017-06-09 2017-08-11 上海岭先机器人科技股份有限公司 一种移动机器人系统
CN108008818A (zh) * 2017-12-04 2018-05-08 中国人民解放军陆军工程大学 一种基于虚拟现实的头盔式人机交互系统及方法
CN108058163A (zh) * 2018-02-12 2018-05-22 东北大学 一种具有知识共享与自主学习的云机器人系统
KR20190115483A (ko) 2018-03-12 2019-10-14 한국기계연구원 증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법
CN111736694A (zh) * 2020-06-11 2020-10-02 上海境腾信息科技有限公司 一种远程会议的全息呈现方法、存储介质及系统
KR20210011098A (ko) 2019-07-22 2021-02-01 전주대학교 산학협력단 인공지능을 이용한 스마트 팜 원격 경보 시스템

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100746118B1 (ko) * 2006-09-26 2007-08-06 후지쯔 가부시끼가이샤 로봇
US9579799B2 (en) 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input
CN107030703A (zh) * 2017-06-09 2017-08-11 上海岭先机器人科技股份有限公司 一种移动机器人系统
CN108008818A (zh) * 2017-12-04 2018-05-08 中国人民解放军陆军工程大学 一种基于虚拟现实的头盔式人机交互系统及方法
CN108058163A (zh) * 2018-02-12 2018-05-22 东北大学 一种具有知识共享与自主学习的云机器人系统
KR20190115483A (ko) 2018-03-12 2019-10-14 한국기계연구원 증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법
KR20210011098A (ko) 2019-07-22 2021-02-01 전주대학교 산학협력단 인공지능을 이용한 스마트 팜 원격 경보 시스템
CN111736694A (zh) * 2020-06-11 2020-10-02 上海境腾信息科技有限公司 一种远程会议的全息呈现方法、存储介质及系统

Similar Documents

Publication Publication Date Title
US6009381A (en) Remote control measuring system
US9002517B2 (en) Telematic interface with directional translation
Fisher et al. Virtual interface environment workstations
US6016385A (en) Real time remotely controlled robot
US20030180697A1 (en) Multi-degree of freedom telerobotic system for micro assembly
JP2006502675A (ja) 生物の眼球運動神経システムに基づいたバイオ型自動視覚と視線制御システム
JP2017041262A (ja) 移動ロボット用の制御機器、移動ロボット用のシステム及び移動ロボットを制御する方法
EP1632317A1 (en) Robot remote control system
US6958746B1 (en) Systems and methods for improved telepresence
KR20010076786A (ko) 가상현실기술을 이용한 로봇 원격제어 시스템 및 방법
JP2003181785A (ja) 遠隔操作装置
JPH0421105A (ja) マニピユレータの立体教示装置
Fernando et al. Effectiveness of Spatial Coherent Remote Drive Experience with a Telexistence Backhoe for Construction Sites.
JP3217383B2 (ja) 臨場感再現システムおよび加工システム
KR20190091870A (ko) 모션센서와 vr을 활용한 로봇 제어 시스템
JP2001315080A (ja) 遠隔地観測装置
JPH07328971A (ja) Tvカメラ付マニピュレータ
WO2021230364A1 (ja) 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム
JPH09305788A (ja) 情報処理装置
US20230415346A1 (en) Operation system, operation method, and storage medium
JP2001001284A (ja) オペレータの視野情報を用いたロボット制御装置
JP2920788B2 (ja) 遠隔操作用監視方法と装置
JPH0577174A (ja) ロボツト制御装置
JPH05285880A (ja) 高所作業装置
Ikeuchi et al. The guidance subsystem of a remotely controlled autonomous robot in the physical agent system (PAS)

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application