KR101215720B1 - 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템 - Google Patents

로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템 Download PDF

Info

Publication number
KR101215720B1
KR101215720B1 KR1020110034140A KR20110034140A KR101215720B1 KR 101215720 B1 KR101215720 B1 KR 101215720B1 KR 1020110034140 A KR1020110034140 A KR 1020110034140A KR 20110034140 A KR20110034140 A KR 20110034140A KR 101215720 B1 KR101215720 B1 KR 101215720B1
Authority
KR
South Korea
Prior art keywords
robot
virtual
server
autonomous
sensor
Prior art date
Application number
KR1020110034140A
Other languages
English (en)
Other versions
KR20120116606A (ko
Inventor
홍성용
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020110034140A priority Critical patent/KR101215720B1/ko
Publication of KR20120116606A publication Critical patent/KR20120116606A/ko
Application granted granted Critical
Publication of KR101215720B1 publication Critical patent/KR101215720B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Acoustics & Sound (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템에 관한 것으로서, 보다 구체적으로는 센서를 부착한 자율 주행 로봇과, 상기 자율 주행 로봇과 양방향 통신이 가능한 서버와, 상기 자율 주행 로봇의 주변 환경을 가상공간으로 실시간으로 재구축하는 가상 시뮬레이션 환경을 포함하는 로봇을 이용한 가상 사물 자동 생성 동기화 시스템에 있어서, 상기 자율 주행 로봇은, 주행 중 상기 센서를 이용하여 주변으로부터 정보를 수집하고, 이를 상기 서버로 전송하고, 상기 서버는, 상기 전송받은 정보를 기반으로 상기 가상 시뮬레이션 환경에게 가상 로봇을 포함하는 가상 공간을 실시간으로 구축하도록 제어하고, 상기 자율 주행 로봇에 제어 명령을 전송함과 동시에, 동일한 제어 명령을 상기 가상 시뮬레이션 환경의 상기 가상 로봇에게 전송하는 것을 특징으로 하는 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템에 관한 것이다.

Description

로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템{A SYNCHRONIZATION METHOD OF VIRTUAL OBJECT USING ROBOT AND A SYNCHRONIZATION SYSTEM OF VIRTUAL OBJECT USING ROBOT}
본 발명은 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템에 관한 것으로서, 보다 구체적으로는 센서를 부착한 자율 주행 로봇과, 상기 자율 주행 로봇과 양방향 통신이 가능한 서버와, 상기 자율 주행 로봇의 주변 환경을 가상공간으로 실시간으로 재구축하는 가상 시뮬레이션 환경을 포함하는 로봇을 이용한 가상 사물 자동 생성 동기화 시스템에 있어서, 상기 자율 주행 로봇은, 주행 중 상기 센서를 이용하여 주변으로부터 정보를 수집하고, 이를 상기 서버로 전송하고, 상기 서버는, 상기 전송받은 정보를 기반으로 상기 가상 시뮬레이션 환경에게 가상 로봇을 포함하는 가상 공간을 실시간으로 구축하도록 제어하고, 상기 자율 주행 로봇에 제어 명령을 전송함과 동시에, 동일한 제어 명령을 상기 가상 시뮬레이션 환경의 상기 가상 로봇에게 전송하는 것을 특징으로 하는 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템에 관한 것이다.
산업용 로봇을 시작으로 최근에는 임의의 환경에서도 동작할 수 있는 지능형 로봇의 형태로 그 영역을 넓혀가고 있다. 지능형 로봇은 서비스, 군사, 경비, 위험지역 탐사와 같은 다양한 분야에 응용이 가능하며, 이러한 지능형 로봇에 있어서 로봇의 자율 주행기술의 확보는 필수적이라고 할 수 있다. 그 중에서 로봇이 주위 환경에 대한 정보를 확보하지 못한 공간에 위치했을 때, 스스로 정보를 획득하고 지도를 생산하면서 이동하는 탐사 기술은 핵심요소가 된다.
이러한 로봇의 탐사기술은 기본적으로 지도 생성과 함께 이루어지며, 어떤 지도를 사용하느냐와 어떤 종류의 센서를 사용하느냐에 따라 다양한 방법이 존재한다. 최근에는 위상적 지도를 주로 사용하고, 센서로는 레이저 및 초음파 센서와 같은 거리 정보를 획득하는 센서를 주로 사용한다.
일반적으로 로봇은 자체에 부착된 초음파센서, 적외선센서 또는 레이저센서와 같은 거리센서를 사용하여 주변의 장애물을 탐지하고, 로봇과 장애물 사이의 방향과 거리를 측정함으로써 주위환경에 대한 정보를 획득한다.
본 발명에서는 3차원 가상공간에서 다중센서융합(MSF) 지능로봇을 시뮬레이션으로 개발하여 활용하는 방법을 제공한다. 이를 통해 실제 환경에서 로봇이 지능적으로 주어진 환경에 대처할 수 있는 다중센서 융합 기술을 적용하여 지능 로봇을 3차원 시뮬레이션 공간에서 활용할 수 있는 방법을 제공한다.
본 발명은 상기의 과제를 해결하기 위해 다음과 같은 과제 해결 수단을 제공한다.
본 발명에 따르면, 센서(10)를 부착한 자율 주행 로봇(1)과, 상기 자율 주행 로봇(1)과 양방향 통신이 가능한 서버(30)와, 상기 자율 주행 로봇(1)의 주변 환경을 가상공간으로 실시간으로 재구축하는 가상 시뮬레이션 환경(20)을 포함하는 로봇을 이용한 가상 사물 자동 생성 동기화 방법을 제공한다.
이는, 상기 자율 주행 로봇(1)의 주행 중에 상기 센서로부터 수집한 정보를 상기 서버(30)가 전송받는 제1 단계와,
상기 수집한 정보를 근거로 하여 상기 서버(30)가 상기 가상 시뮬레이션 환경(20)에게 가상 로봇(2)을 포함하는 가상 공간을 실시간으로 구축하도록 하는 제2 단계와,
상기 서버(30)가 상기 자율 주행 로봇(1)에 제어 명령을 전송함과 동시에, 동일한 제어 명령을 상기 가상 시뮬레이션 환경(20)의 상기 가상 로봇(2)에게 전송하는 제3 단계를 포함한다.
또한, 상기 제어 명령은 상기 서버(30)에서 수집하고 판단한 상기 자율 주행 로봇(1) 및 상기 가상 로봇(2)의 움직임을 위한 명령이고, 상기 가상 시뮬레이션 환경(20)은 상기 제어 명령에 따라서만 가상 로봇(2)을 움직임을 생성하는 것을 특징으로 한다.
이 경우, 상기 센서(10)는 초음파 센서이고, 상기 제2 단계에 있어서, 상기 초음파 센서로부터 소정의 거리 이내에 장애물이 감지되면, 상기 서버(30)가 상기 가상 시뮬레이션 환경(20)에 가상의 장애물을 생성하는 것을 특징으로 한다.
또한, 본 발명의 다른 실시예로서, 센서(10)를 부착한 자율 주행 로봇(1)과, 상기 자율 주행 로봇(1)과 양방향 통신이 가능한 서버(30)와, 상기 자율 주행 로봇(1)의 주변 환경을 가상공간으로 실시간으로 재구축하는 가상 시뮬레이션 환경(20)을 포함하는 로봇을 이용한 가상 사물 자동 생성 동기화 시스템을 제공한다.
상기 자율 주행 로봇(1)은, 주행 중 상기 센서(10)를 이용하여 주변으로부터 정보를 수집하고, 이를 상기 서버(30)로 전송한다.
상기 서버(30)는, 상기 전송받은 정보를 기반으로 상기 가상 시뮬레이션 환경(20)에게 가상 로봇(2)을 포함하는 가상 공간을 실시간으로 구축하도록 제어하고, 상기 자율 주행 로봇(1)에 제어 명령을 전송함과 동시에, 동일한 제어 명령을 상기 가상 시뮬레이션 환경(20)의 상기 가상 로봇(2)에게 전송한다.
이 경우, 상기 제어 명령은 상기 서버(30)에서 수집하고 판단한 상기 자율 주행 로봇(1) 및 상기 가상 로봇(2)의 움직임을 위한 명령이고, 상기 가상 시뮬레이션 환경(20)은 상기 제어 명령에 따라서만 가상 로봇(2)을 움직임을 생성하는 것을 특징으로 한다.
또한, 상기 센서(10)는 초음파 센서이고, 상기 초음파 센서로부터 소정의 거리 이내에 장애물이 감지되면, 상기 서버(30)가 상기 가상 시뮬레이션 환경(20)에 가상의 장애물을 생성하는 것을 특징으로 한다.
본 발명에 따르면, 차세대 센서 네트워크 시대에 가상공간 뿐만 아니라, 경제적 파급효과와 3차원 그래픽 산업발전 등 다양한 IT 분야에 활용될 수 있다.
또한, 3차원 프린터, 3차원 디스플레이 장치 등과 같이 3차원 기반의 모형 활용과 그래픽 기반의 시뮬레이션 활용에 적용될 수 있다.
도 1은 본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 시스템의 구성도.
도 2는 본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 시스템의 실제 환경을 도시한 도면.
도 3은 본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 시스템의 실제 환경을 도시한 도면.
도 4는은 본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 시스템의 가상 환경을 도시한 도면.
도 5는 본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 시스템에서 자율 주행 로봇의 도면.
도 6은 본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 방법의 흐름도.
이하 첨부된 도면을 참조하여 본 발명에 대해 구체적으로 살펴보기로 한다.
다만, 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 용어가 동일하더라도 표시하는 부분이 상이하면 도면 부호가 일치하지 않음을 미리 말해두는 바이다.
그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 설정된 용어들로서 이는 실험자 및 측정자와 같은 사용자의 의도 또는 관례에 따라 달라질 수 있으므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 시스템의 구성도를 나타낸다.
본 발명에 따르면, 센서(10)를 부착한 자율 주행 로봇(1)과, 상기 자율 주행 로봇(1)과 양방향 통신이 가능한 서버(30)와, 상기 자율 주행 로봇(1)의 주변 환경을 가상공간으로 실시간으로 재구축하는 가상 시뮬레이션 환경(20)을 포함하는 로봇을 이용한 가상 사물 자동 생성 동기화 방법을 제공한다.
보다 구체적으로는 자율 주행 로봇(1)은 센서(10)와, 자율 주행 로봇(1)의 이동 및 방향 전환을 담당하는 구동부(11)와, 서버(30)와의 통신을 담당하는 통신부(12)를 포함한다.
센서(10)는 자율 주행 로봇(1)이 특정 신호를 따라서 이동하도록 설계된 경우에는 특정 신호를 인식하는 센서가 될 수 있다. 특정 색상을 인식하는 칼라 센서 또는 빛을 인식하는 빛 센서가 될 수 있다. 이외에도 다양한 센서가 가능하다.
또한, 센서는 자율 주행 로봇(1)의 주행중에 장애물을 인식하는 센서가 될 수 있다. 이 경우에는 초음파 센서인 것이 바람직하다. 로봇과 장애물 사이의 거리가 소정의 거리 이내로 줄어드는 경우에는 그 장애물의 존재를 인식하게 되고, 이를 서버(30)에 전송하게 된다. 또한, 본 발명은 3차원의 가상 시뮬레이션을 생성하고 동기화하는 것에 있으므로, 센서는 복수 개를 사용하는 것이 바람직하다. 특히, 장애물의 폭과 높이를 동시에 인식하여 이를 표현하여야 하므로 이를 감안하여 센서의 위치 및 방향이 결정되어야 한다.
자율 주행 로봇(1)의 크기 또한 제한되지 않고, 적용 환경에 맞추어 다양하게 제작될 수 있음은 자명하다.
자율 주행 로봇(1)은 서버(30)와 양방향 통신이 가능하도록 제공된다. 본 발명에서 자율 주행 로봇(1)이 주행 중에 수집한 정보는 자율 주행 로봇(1) 내에서 가공되지 않고, 서버(30)에서 가공되어야 한다. 따라서 많은 데이터의 전송이 필요하다.
구동부(11)는 로봇의 이동 및 회전을 위한 액츄에이터와 바퀴부재 등으로 구성된다. 이에 대해서는 일반적인 것이므로 자세한 설명은 생략하기로 한다.
서버(30)는 자율 주행 로봇(1) 및 가상 시뮬레이션 환경(20)과 통신을 수행하기 위한 통신부(31)와, 자율 주행 로봇(1)으로부터 수집되어 전송된 신호를 가공하고, 이를 기반으로 자율 주행 로봇(1)과 가상 로봇(2)의 제어를 위한 제어 명령을 생성하는 제어부(32)를 포함한다.
가상 시뮬레이션 환경(20)은 본 발명에 따라 3차원 가상 환경을 구현하는 시스템 또는 구현된 시스템을 의미한다. 이는 자율 주행 로봇(1)이 주행 중에 수집하는 정보를 기반으로 하는 것으로서, 주로 장애물의 구현이 핵심이다. 또한, 상기 장애물에 대한 상대 위치에 존재하는 가상 로봇(2) 또한 핵심이다.
본 발명에서의 가상 시뮬레이션 환경(20)은 주어진 정보를 직접 해석하지 않고, 서버(30)로부터의 신호 및 제어 명령에 따라 처리되는 것이 바람직하다.
본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 방법의 주요한 구성은 다음으로 이루어진다.
상기 자율 주행 로봇(1)의 주행 중에 상기 센서로부터 수집한 정보를 상기 서버(30)가 전송받는 제1 단계와, 상기 수집한 정보를 근거로 하여 상기 서버(30)가 상기 가상 시뮬레이션 환경(20)에게 가상 로봇(2)을 포함하는 가상 공간을 실시간으로 구축하도록 하는 제2 단계와, 상기 서버(30)가 상기 자율 주행 로봇(1)에 제어 명령을 전송함과 동시에, 동일한 제어 명령을 상기 가상 시뮬레이션 환경(20)의 상기 가상 로봇(2)에게 전송하는 제3 단계를 포함한다.
본 발명의 핵심은 자율 주행 로봇(1)에 GPS 등의 위치 인식 장치가 없어도 장애물의 정보를 획득할 수 있음에 있다. 이는 위치 인식 장치가 작동할 수 없는 상황에서도 본 발명이 적용될 수 있는 장점이 있다.
이를 위해 본 발명에서는 자율 주행 로봇(1)에서 수집한 정보를 서버(30)가 분석하고, 서버(30)가 자율 주행 로봇(1)과 가상 시뮬레이션 환경(20) 상의 가상 로봇(2)에 동시에 동일한 제어 명령을 전달하는 것을 특징으로 한다. 즉, 자율 주행 로봇(1)과 가상 로봇(2)의 완전한 동기화를 이루는 것을 특징으로 한다.
제3 단계에서의 제어 명령은, 상기 서버(30)에서 수집하고 판단한 상기 자율 주행 로봇(1) 및 상기 가상 로봇(2)의 움직임을 위한 명령이고, 상기 가상 시뮬레이션 환경(20)은 상기 제어 명령에 따라서만 가상 로봇(2)의 움직임을 생성하는 것을 특징으로 한다.
도 2 내지 도 5는 본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 시스템의 실제 환경을 도시한 도면을 도시하고 있다.
본 발명에 따른 동기화에 대해서 자세하게 설명하기로 한다.
실제 환경에서 하드웨어 로봇은 주변 환경의 조건에 따라 센서 기능을 통해 자율주행 혹은 라인 주행을 할 것이다. 이런 주행의 경로를 실시간으로 무선네트워크 통신을 통해 가상 로봇 시뮬레이션 시스템으로 데이터를 전송한다. 전송받은 시뮬레이션 시스템은 로봇의 경로와 위치를 파악하여 시뮬레이션 공간에서 동기화되어 제어한다.
즉, 현실 세계의 하드웨어 로봇과 가상공간의 로봇은 똑같은 역할을 하게되는 로봇이 된다. 이러한 제어 동기화에 내부 구조는 멀티 스레드(thread)를 기반으로 설계되어 있다. 각 스레드는 하드웨어 로봇으로부터 전달받은 데이터를 처리하기 위한 부분으로 다중처리 구조로 구현되어 있다.
이러한 연구의 결과는 실시간으로 로봇이 제어 동기화되기 때문에 로봇의 움직임이나 문제 발생을 바로 알 수 있을 뿐만 아니라, 로봇이 현재 위치한 환경을 시뮬레이션 환경으로 바로 생성할 수 있어, 로봇이 상황인식을 자세하게 표현할 수 있다.
동기화 모델은 3차원 가상 시뮬레이션 환경, 로봇(1), 서버(30)로 이루어진다. 로봇(1)은 주변 환경으로부터 정보를 수집하여 서버(30)에 전송하는 역할을 수행하고, 서버(30)는 이를 받아 시뮬레이션 환경으로 제어 명령을 보내는 역할을 수행한다. 시뮬레이션 환경은 서버(30)로부터 제어 명령을 받아 가상공간을 실시간 재구축한다.
서버(30)에서 로봇(1)으로부터 수집한 정보를 직접 처리하고 시뮬레이션 환경과 로봇(1)을 직접 제어하여 동기화를 할 수 있다. 로봇(1)은 주변 환경으로부터 수집한 정보를 직접 분석하지 않고, 통신을 위한 간단한 처리만을 한 후 서버로 전송한다. 또한, 서버(30)로부터 제어 명령을 받아서 그대로 수행하게 된다.
서버(30)는 시뮬레이션 환경과 로봇(1)에 같은 제어 명령을 내린다. 서버(30)에서 동시에 제어를 하기 때문에 시간적인 동기를 맞추기가 용이하다는 장점이 있다. 다만, 로봇(1)과 서버(30) 사이의 정보 교환이 비교적 만아야 한다는 단점이 있다.
동기화를 위하여 시뮬레이션은 직접 판단하여 로봇을 움직이면 안 된다. 들어오는 정보를 이용하여 로봇을 움직여주어야 한다. 여기에서의 "들어오는 정보"란 서버에서 수집하고 판단하여 움직이는 정보를 의미한다.
따라서 시뮬레이션에는 판단하는 함수는 필요하지 않고, 그림을 그릴 수 있는 장치와 정보를 받아오는 함수만 있으면 된다.
로봇의 주행은 트레이서를 추적하여 주행하게 할 수도 있고, 자율 주행을 하게 할 수도 있다. 라인 트레이서 로봇을 제어하기 위해서는 라인 트레이서의 역할을 하는 알고리즘을 서버에서 제어해 주고 그대로 시뮬레이션으로 그 정보를 보내준다. 조금 더 구체적으로 이야기하자면 라인 트레이서로의 역할을 하는 컬러 센서 혹은 빛 센서의 값으로 판단을 해준 후에 로봇의 왼쪽과 오른쪽 모터를 제어해 주면서 동시에 시뮬레이션에서 구현한 움직이는 함수를 3차원 가상 시뮬레이션으로 보낸 정보에 따라 공간상에 장애물을 자동생성 시켜준다.
또 다른 예로서, 로봇의 초음파 센서를 사용하여 각각 포트를 지정하는 것만으로도 장애물의 인식이 가능하다. 각각 설계 프로시져를 호출하여 하드웨어 로봇의 장애물 인식을 시뮬레이션 공간상에 실시간으로 자동 생성시킨다. 예를 들어, 초음파 센서가 모두 20cm 이하의 거리에서 장애물이 감지되면 시뮬레이션 상에서 그 방향에 맞게 물체 생성을 수행하게 된다.
이 경우, 상기 센서(10)는 초음파 센서이고, 상기 제2 단계에 있어서, 상기 초음파 센서로부터 소정의 거리 이내에 장애물이 감지되면, 상기 서버(30)가 상기 가상 시뮬레이션 환경(20)에 가상의 장애물을 생성하는 것을 특징으로 한다.
도 6은 본 발명에 따른 로봇을 이용한 가상 사물 자동 생성 동기화 방법의 흐름도를 도시하고 있다.
또한, 본 발명의 다른 실시예로서, 센서(10)를 부착한 자율 주행 로봇(1)과, 상기 자율 주행 로봇(1)과 양방향 통신이 가능한 서버(30)와, 상기 자율 주행 로봇(1)의 주변 환경을 가상공간으로 실시간으로 재구축하는 가상 시뮬레이션 환경(20)을 포함하는 로봇을 이용한 가상 사물 자동 생성 동기화 시스템을 제공한다.
상기 자율 주행 로봇(1)은, 주행 중 상기 센서(10)를 이용하여 주변으로부터 정보를 수집하고, 이를 상기 서버(30)로 전송한다.
상기 서버(30)는, 상기 전송받은 정보를 기반으로 상기 가상 시뮬레이션 환경(20)에게 가상 로봇(2)을 포함하는 가상 공간을 실시간으로 구축하도록 제어하고, 상기 자율 주행 로봇(1)에 제어 명령을 전송함과 동시에, 동일한 제어 명령을 상기 가상 시뮬레이션 환경(20)의 상기 가상 로봇(2)에게 전송한다.
이 경우, 상기 제어 명령은 상기 서버(30)에서 수집하고 판단한 상기 자율 주행 로봇(1) 및 상기 가상 로봇(2)의 움직임을 위한 명령이고, 상기 가상 시뮬레이션 환경(20)은 상기 제어 명령에 따라서만 가상 로봇(2)을 움직임을 생성하는 것을 특징으로 한다.
또한, 상기 센서(10)는 초음파 센서이고, 상기 초음파 센서로부터 소정의 거리 이내에 장애물이 감지되면, 상기 서버(30)가 상기 가상 시뮬레이션 환경(20)에 가상의 장애물을 생성하는 것을 특징으로 한다.
이에 대한 설명은 앞에서 한 것과 동일하므로 자세한 설명은 생략하기로 한다.
본 발명은 상기와 같은 실시예에 의해 권리범위가 한정되는 것은 아니며, 본 발명의 기술적인 사상을 가지고 있다면 모두 본 발명의 권리범위에 해당된다고 볼 수 있으며, 본 발명은 특허청구범위에 의해 권리범위가 정해짐을 밝혀둔다.
1 : 자율 주행 로봇, 2 : 가상 로봇, 10 : 센서, 11 : 구동부, 12 : 통신부, 20 : 가상 시뮬레이션 환경, 21 : 통신부, 21 : 처리부, 30 : 서버, 31 : 통신부, 32 : 제어부

Claims (6)

  1. 센서를 부착한 자율 주행 로봇과, 상기 자율 주행 로봇과 양방향 통신이 가능한 서버와, 상기 자율 주행 로봇의 주변 환경을 가상공간으로 실시간으로 재구축하는 가상 시뮬레이션 환경을 포함하는 로봇을 이용한 가상 사물 자동 생성 동기화 방법에 있어서,
    상기 자율 주행 로봇의 주행 중에 상기 센서로부터 수집한 정보를 상기 서버가 전송받는 제1 단계와,
    상기 수집한 정보를 근거로 하여 상기 서버가 상기 가상 시뮬레이션 환경에게 가상 로봇을 포함하는 가상 공간을 실시간으로 구축하도록 하는 제2 단계와,
    상기 서버가 상기 자율 주행 로봇에 제어 명령을 전송함과 동시에, 동일한 제어 명령을 상기 가상 시뮬레이션 환경의 상기 가상 로봇에게 전송하는 제3 단계를 포함하는,
    로봇을 이용한 가상 사물 자동 생성 동기화 방법.
  2. 삭제
  3. 청구항 1에 있어서,
    상기 센서는 초음파 센서이고,
    상기 제2 단계에 있어서, 상기 초음파 센서로부터 소정의 거리 이내에 장애물이 감지되면, 상기 서버가 상기 가상 시뮬레이션 환경에 가상의 장애물을 생성하는 것을 특징으로 하는,
    로봇을 이용한 가상 사물 자동 생성 동기화 방법.
  4. 센서를 부착한 자율 주행 로봇과, 상기 자율 주행 로봇과 양방향 통신이 가능한 서버와, 상기 자율 주행 로봇의 주변 환경을 가상공간으로 실시간으로 재구축하는 가상 시뮬레이션 환경을 포함하는 로봇을 이용한 가상 사물 자동 생성 동기화 시스템에 있어서,
    상기 자율 주행 로봇은,
    주행 중 상기 센서를 이용하여 주변으로부터 정보를 수집하고, 이를 상기 서버로 전송하고,
    상기 서버는,
    상기 전송받은 정보를 기반으로 상기 가상 시뮬레이션 환경에게 가상 로봇을 포함하는 가상 공간을 실시간으로 구축하도록 제어하고, 상기 자율 주행 로봇에 제어 명령을 전송함과 동시에, 동일한 제어 명령을 상기 가상 시뮬레이션 환경의 상기 가상 로봇에게 전송하는,
    로봇을 이용한 가상 사물 자동 생성 동기화 시스템.
  5. 삭제
  6. 청구항 4에 있어서,
    상기 센서는 초음파 센서이고,
    상기 초음파 센서로부터 소정의 거리 이내에 장애물이 감지되면, 상기 서버가 상기 가상 시뮬레이션 환경에 가상의 장애물을 생성하는 것을 특징으로 하는,
    로봇을 이용한 가상 사물 자동 생성 동기화 시스템.
KR1020110034140A 2011-04-13 2011-04-13 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템 KR101215720B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110034140A KR101215720B1 (ko) 2011-04-13 2011-04-13 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110034140A KR101215720B1 (ko) 2011-04-13 2011-04-13 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템

Publications (2)

Publication Number Publication Date
KR20120116606A KR20120116606A (ko) 2012-10-23
KR101215720B1 true KR101215720B1 (ko) 2012-12-26

Family

ID=47284826

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110034140A KR101215720B1 (ko) 2011-04-13 2011-04-13 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템

Country Status (1)

Country Link
KR (1) KR101215720B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475210B1 (ko) * 2013-10-16 2014-12-30 삼성중공업 주식회사 가상로봇 시뮬레이션 장치
KR101925203B1 (ko) * 2017-02-01 2019-02-28 한국기술교육대학교 산학협력단 무인 화재 진압 시뮬레이션 장치 및 그 방법
KR20210040613A (ko) 2019-10-04 2021-04-14 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20210129519A (ko) * 2020-04-20 2021-10-28 삼성전자주식회사 로봇 장치 및 그 제어 방법
KR102635903B1 (ko) * 2023-04-04 2024-02-13 소니드로보틱스 주식회사 다중 센서 로봇을 이용한 산업 현장 응급 상황 대처 시스템 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10208073A (ja) 1997-01-16 1998-08-07 Hitachi Ltd 仮想現実作成装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10208073A (ja) 1997-01-16 1998-08-07 Hitachi Ltd 仮想現実作成装置

Also Published As

Publication number Publication date
KR20120116606A (ko) 2012-10-23

Similar Documents

Publication Publication Date Title
EP3535636B1 (en) Method and system for controlling vehicle
US10943355B2 (en) Systems and methods for detecting an object velocity
Iacono et al. Path following and obstacle avoidance for an autonomous UAV using a depth camera
US20200041276A1 (en) End-To-End Deep Generative Model For Simultaneous Localization And Mapping
CN106323269B (zh) 自主定位导航设备、定位导航方法及自主定位导航系统
Göhring et al. Semi-autonomous car control using brain computer interfaces
US20190329790A1 (en) Systems and Methods for Using Machine Learning to Determine Passenger Ride Experience
US20210146540A1 (en) Method of identifying dynamic obstacle and robot implementing same
KR101215720B1 (ko) 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템
CN103389699A (zh) 基于分布式智能监测控制节点的机器人监控及自主移动系统的运行方法
KR102597216B1 (ko) 공항용 안내 로봇 및 그의 동작 방법
CN105589459B (zh) 无人车半自主遥控方法
US20210009166A1 (en) Systems and Methods for Generating Motion Forecast Data for a Plurality of Actors with Respect to an Autonomous Vehicle
KR20190098734A (ko) 센서 데이터를 이용하여 청소 동선을 결정하는 인공 지능 로봇 및 그 방법
WO2014064431A3 (en) Micro unmanned aerial vehicle and method of control therefor
EP3167342A1 (en) Virtual line-following and retrofit method for autonomous vehicles
CA3136909A1 (en) SYSTEMS AND METHODS FOR SIMULTANEOUS LOCATION AND MAPPING USING ASYNCHRONOUS MULTI-ANGLE CAMERAS
CN103105851A (zh) 一种遥操纵机器人基于视觉的动觉示教控制方法
CN105373130A (zh) 基于立体建模的特种设备事故现场信息探测系统
KR20210057886A (ko) 차량 충돌 방지 장치 및 그 방법
Wang et al. An intelligent ground-air cooperative navigation framework based on visual-aided method in indoor environments
KR20190105534A (ko) 로봇에 대한 공간정보를 이용하여 보안을 해제하는 방법 및 그 로봇
KR20190098930A (ko) 사용자에게 음식을 제공하는 방법 및 그 장치
KR20190094311A (ko) 인공 지능 로봇 및 그의 동작 방법
KR20190095186A (ko) 지능형 게이트웨이 장치 및 그를 포함하는 제어 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161129

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171124

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181203

Year of fee payment: 7