KR101487784B1 - Robot system and embodiment method thereof - Google Patents
Robot system and embodiment method thereof Download PDFInfo
- Publication number
- KR101487784B1 KR101487784B1 KR20080131034A KR20080131034A KR101487784B1 KR 101487784 B1 KR101487784 B1 KR 101487784B1 KR 20080131034 A KR20080131034 A KR 20080131034A KR 20080131034 A KR20080131034 A KR 20080131034A KR 101487784 B1 KR101487784 B1 KR 101487784B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- environment
- storage unit
- driving
- user interface
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1682—Dual arm manipulator; Coordination of several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Fuzzy Systems (AREA)
- Manipulator (AREA)
Abstract
본 발명은 로봇의 구동환경에 적용시킬 수 있는 환경 객체와 환경 객체 간의 물리특성이 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축하고, 로봇의 구동환경으로 로봇을 구동시키는 실행부를 포함하는 로봇 시스템의 구성으로 정확하게 로봇을 구동 및 시뮬레이션할 수 있다.The present invention includes an execution unit that creates a plurality of drive environment packages in which physical characteristics between environment objects and environmental objects applicable to a driving environment of a robot are combined to construct a driving environment of the robot and drives the robot in a driving environment of the robot It is possible to accurately drive and simulate the robot.
Description
본 발명은 로봇 시스템 및 그 구현방법에 관한 것이다.The present invention relates to a robot system and an implementation method thereof.
산업과 기술이 발전함에 따라 다양한 형태의 로봇들이 만들어지고 있으며, 사회의 모든 분야에서 다양하게 사용되고 있다. 이러한 로봇으로는 산업용 로봇, 개인용 로봇, 군사용 로봇, 의료용 로봇 등이 있다.As the industry and technology develop, various types of robots are being created and used in various fields of society. Such robots include industrial robots, personal robots, military robots, and medical robots.
로봇을 개발하기 위해서는 로봇을 구성하는 하드웨어와, 이를 제어하는 소프트웨어를 동시에 구현하여야 하며, 하드웨어적으로 구현된 로봇을 제어하는 소프트웨어에 에러가 있거나 실제 하드웨어의 구조와 부합하지 않을 때에는 하드웨어 또는 소프트웨어를 다시 설계하여야 한다.In order to develop a robot, it is necessary to simultaneously implement the hardware constituting the robot and the software for controlling the robot. When the software controlling the robot implemented in hardware is in error or does not match the actual hardware structure, Should be designed.
따라서, 이러한 문제점을 해결하기 위하여 실제 로봇을 제작하기 전에 소프트웨어상에 가상 로봇을 제작하고, 이를 3차원적으로 시뮬레이션하면서 실제 동작과 비교할 수 있는 시뮬레이터가 개발되고 있다.Therefore, in order to solve such a problem, a simulator is developed which can compose a virtual robot on software before the actual robot is manufactured, and can simulate the robot in three dimensions and compare with the actual operation.
이러한 시뮬레이터는 시뮬레이션 환경을 구성하여 로봇이 시뮬레이션될 수 있도록 하였다.These simulators constitute a simulation environment so that robots can be simulated.
그러나, 종래기술에 따른 시뮬레이터는 로봇이 사무실 내에서 책을 들어 올 리는 것과 같이 단순한 동작에 대해서만 시뮬레이션할 수 있으며, 로봇이 보행하면서 물건을 잡는 것과 같은 동시 다발적으로 수행하는 복합적인 동작에 대해서는 시뮬레이션할 수 없는 문제점이 있었다. 즉, 시뮬레이션 환경을 구성하는 각 구성요소에 대하여 다른 물리특성을 선택하여 시뮬레이션할 수가 없었다.However, the simulator according to the prior art can simulate only a simple operation such as a robot lifting a book in an office, and for a complex operation to be carried out concurrently, such as holding a robot while walking There is a problem that can not be simulated. That is, different physical characteristics can not be selected and simulated for each component constituting the simulation environment.
또한, 사용자 인터페이스는 3인칭 관점의 인터페이스만 제공할 뿐 시뮬레이션 환경 내에 사용자가 직접 존재하는 것과 같은 1인칭 관점을 제공하는 인터페이스는 없었다.Also, the user interface provided only an interface of the third person perspective, and there was no interface providing the first person perspective such that the user existed directly in the simulation environment.
본 발명의 사상은 환경 객체, 물리특성 및 사용자 인터페이스가 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축하고, 로봇의 구동환경으로 로봇을 구동시키는 로봇 시스템 및 그 구현방법을 제공함에 있다. The idea of the present invention is to provide a robot system for constructing a driving environment of a robot by creating a plurality of driving environment packages in which environmental objects, physical characteristics and a user interface are combined, and driving the robot in a driving environment of the robot, and an implementation method thereof .
이를 위해 본 발명의 일실시예에 의한 로봇 시스템은 로봇의 구동환경에 적용시킬 수 있는 환경 객체와 환경 객체 간의 물리특성이 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축하고, 로봇의 구동환경으로 로봇을 구동시키는 실행부를 포함한다.To this end, the robot system according to an embodiment of the present invention creates a plurality of drive environment packages in which physical characteristics between environment objects and environmental objects applicable to the driving environment of the robot are combined, thereby constructing a driving environment of the robot, And an execution unit for driving the robot in the driving environment.
또한, 실행부는 각 환경 객체의 상태를 보여 주기 위한 사용자 인터페이스가 더 조합된 구동환경 패키지를 만들어 로봇의 구동환경을 구축한다.In addition, the execution unit creates a driving environment package in which a user interface for showing the state of each environmental object is further combined, thereby establishing a driving environment of the robot.
그리고, 사용자 인터페이스는 로봇의 구동환경에서 환경 객체를 바라보는 1인칭 관점을 제공한다.The user interface provides a first-person perspective to view environmental objects in the driving environment of the robot.
또, 로봇에 대한 정보를 저장하는 로봇 저장부, 사람에 대한 정보를 저장하는 사람 저장부 및 물체에 대한 정보를 저장하는 물체 저장부를 포함하는 환경 객체 저장부와, 환경 객체 간의 물리특성에 대한 정보를 저장하는 물리특성 저장부를 더 포함한다.In addition, an environment object storage unit including a robot storage unit for storing information on the robot, a person storage unit for storing information on a person, and an object storage unit for storing information on the object, And a physical property storage unit for storing the physical property information.
또한, 사용자 인터페이스에 대한 정보를 저장하는 인터페이스 저장부를 더 포함한다.The apparatus further includes an interface storage unit for storing information on the user interface.
로봇 시스템은 로봇을 가상으로 시뮬레이션하는 시뮬레이션 시스템이거나 실 제로 로봇을 구동시키는 구동 시스템인 것을 특징으로 한다.The robot system is either a simulation system that simulates a robot virtually or a drive system that actually drives the robot.
이를 위해 본 발명의 일실시예에 의한 로봇 시스템의 구현방법은 로봇의 구동환경에 적용시킬 수 있는 환경 객체와 환경 객체 간의 물리특성이 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축하고, 로봇의 구동환경으로 로봇을 구동시킨다.To this end, a method for implementing a robot system according to an embodiment of the present invention includes creating a plurality of drive environment packages in which physical characteristics between environment objects and environmental objects applicable to a driving environment of the robot are combined, , The robot is driven by the driving environment of the robot.
여기서, 구동환경 패키지는 각 환경 객체의 상태를 보여 주기 위한 사용자 인터페이스가 더 조합된 것이다.Here, the driving environment package is further combined with a user interface for displaying the state of each environmental object.
그리고, 사용자 인터페이스는 로봇의 구동환경에서 환경 객체를 바라보는 1인칭 관점을 제공한다.The user interface provides a first-person perspective to view environmental objects in the driving environment of the robot.
상술한 바와 같이 본 발명의 일실시예에 의한 로봇 시스템 및 그 구현방법에 따르면, 환경 객체, 물리특성 및 사용자 인터페이스가 다양하게 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축함으로써 정확하게 로봇을 구동 및 시뮬레이션할 수 있으며, 기존 방식에 비해 물리특성 및 사용자 인터페이스의 확장력을 높일 수 있는 장점이 있다.As described above, according to the robot system and its implementing method according to an embodiment of the present invention, by creating a plurality of drive environment packages in which environmental objects, physical characteristics, and user interfaces are variously combined, And it is advantageous in that the physical characteristics and the expandability of the user interface can be enhanced as compared with the conventional method.
그리고, 사용자가 로봇의 구동환경상에 존재하는 가상 인물(virtual human)과 로봇을 바라보는 3인칭 관점의 인터페이스를 제공할 뿐만 아니라 가상 인물이 로봇의 구동환경에 존재하여 그 가상 사람의 관점에서 로봇을 바라보는 1인칭 관점의 인터페이스를 더 제공함으로써 사용자 인터페이스에 대해서 직접적인 구동 및 시뮬레이션이 가능해지며, 사용자 인터페이스를 보다 용이하게 확장할 수 있는 장점이 있다.In addition, not only does the user provide a virtual person who exists in the driving environment of the robot and an interface of the third person view that looks at the robot, but also a virtual person exists in the driving environment of the robot, It is possible to directly drive and simulate the user interface by providing the first-person viewpoint interface, and to easily expand the user interface.
도 1은 본 발명의 일실시예에 의한 로봇 시스템의 제어 블록도이다.1 is a control block diagram of a robot system according to an embodiment of the present invention.
도 1을 참조하면, 로봇 시스템(1)은 환경 저장부(20), 실행부(40), 시뮬레이터(60) 및 하드웨어(80)를 포함하여 구성된다. 1, the
이러한 로봇 시스템(1)은 로봇을 가상으로 시뮬레이션하기 위한 시뮬레이션 시스템일 수 있으며, 또한 실제로 로봇을 구동하기 위한 구동 시스템일 수 있다. 시뮬레이션 시스템일 경우에는 로봇 시스템(1)을 구성하는 각 구성요소들은 프로그램으로 구성되어 컴퓨터 등에서 실행되고, 구동 시스템일 경우에는 로봇 내에서 실행된다. The
환경 저장부(20)는 로봇의 구동환경에 적용시킬 수 있는 환경 객체와 관련된 정보, 물리특성에 대한 정보 및 사용자 인터페이스에 대한 정보를 저장하는 것으로, 로봇 저장부(21), 사람 저장부(22) 및 물체 저장부(23)를 포함하는 환경 객체 저장부(26)로 구성된다.The
로봇 저장부(21)는 로봇에 대한 정보를 저장한다. 이러한 로봇 저장부(21)는 로봇을 구성하는 구성요소들 예컨대, 머리, 몸통, 팔, 다리 등에 대한 구성요소와, 이 구성요소에 대한 이미지 파일, 크기정보, 무게정보, 위치정보, 재질정보, 다른 구성요소들과의 결합도 및 기타 속성에 대한 정보들을 저장한다.The
사람 저장부(22)는 사람에 대한 정보를 저장하고, 물체 저장부(26)는 물체에 대한 정보를 저장한다. 물체 저장부(26)는 물체(Object) 즉, 책상, 의자, 나무, 컵, 테이블 등과 같이 로봇의 구동환경에 배치시킬 수 있는 물건을 저장하며, 이들 의 이미지 파일 및 기타 속성에 대한 정보들을 저장한다.The
이러한 환경 저장부(20)는 로봇 저장부(21), 사람 저장부(22) 및 물체 저장부(23) 외에 물, 공기 등과 같이 환경 객체가 존재하는 환경에 대한 정보를 더 저장할 수 있다.The
또한, 환경 저장부(20)는 물리특성 저장부(24) 및 인터페이스 저장부(25)를 더 포함하여 구성된다.The
물리특성 저장부(24)는 환경 객체 간의 상호작용(interaction)에 대한 운동량 또는 물리량과 같은 물리특성을 저장한다. 즉, 환경 객체마다 내부적인 물리특성이 다르고, 환경 객체 간 상호작용에 대한 물리특성이 다르기 때문에 모든 환경 객체 간의 상호작용에 대해서 다른 물리적 특성을 적용할 필요가 있으므로 다양한 조건에서 적용시킬 수 있는 물리특성을 저장한다.The physical property storage unit 24 stores physical characteristics such as momentum or physical quantity for interaction between environmental objects. In other words, it is necessary to apply different physical characteristics to the interaction between all environment objects because the physical characteristics of the environment objects are different from each other and the physical characteristics of the interaction between environment objects are different. Therefore, .
인터페이스 저장부(25)는 각 환경 객체의 상태를 보여 주기 위한 사용자 인터페이스를 저장하며, 사용자 인터페이스는 카메라, 모니터, 마이크, 스피커 등으로 구성된다.The
사용자 인터페이스에 대하여 보다 상세하게 설명하면, 사용자 인터페이스가 모니터일 경우, 로봇의 구동환경에 존재하는 각 환경 객체의 상태를 보여 주고, 사용자 인터페이스가 스피커일 경우, 로봇의 구동환경에서 발생하는 소리를 출력한다. 예컨대, 사용자 인터페이스는 상황에 따라 다르게 제공하는데, 마이크일 경우에는 거리와 방향에 따라서 다르게 소리가 입력되고, 스피커 출력의 경우에는 거리와 방향에 따라서 다르게 소리가 출력되도록 한다.More specifically, if the user interface is a monitor, the state of each environmental object in the driving environment of the robot is shown. If the user interface is a speaker, sound output in the driving environment of the robot is output do. For example, the user interface may be provided differently depending on the situation. In the case of a microphone, sound is inputted differently depending on the distance and direction, and in the case of speaker output, sound is outputted differently according to distance and direction.
또한, 사용자 인터페이스는 로봇의 구동환경에서 환경 객체를 바라보는 관점을 다르게 제공할 수 있다.In addition, the user interface can provide a different viewpoint of the environment object in the driving environment of the robot.
도 2는 3인칭 관점에서 제공하는 사용자 인터페이스와 1인칭 관점에서 제공하는 사용자 인터페이스에 대한 도면으로서, 도 2에서 사용자 인터페이스는 사용자가 로봇의 구동환경상에 존재하는 가상 인물(virtual human)과 로봇을 바라보는 3인칭 관점의 인터페이스를 제공할 뿐만 아니라 가상 인물이 로봇의 구동환경에 존재하여 그 가상 사람의 관점에서 로봇을 바라보는 1인칭 관점의 인터페이스를 더 제공할 수 있도록 한다.FIG. 2 is a diagram of a user interface provided from a third person perspective and a user interface provided from a first person perspective. In FIG. 2, the user interface refers to a virtual person and a robot that exist in a driving environment of the robot. In addition to providing the interface of the third person perspective, the virtual person is present in the driving environment of the robot so that it can further provide a first-person viewpoint that looks at the robot from the viewpoint of the virtual person.
이로 인해, 로봇의 구동환경에서 로봇이 제공하는 사용자 인터페이스에 대해서 직접적인 구동 및 시뮬레이션이 가능해지며, 사용자 인터페이스를 보다 용이하게 확장할 수 있다.Therefore, it is possible to directly drive and simulate the user interface provided by the robot in the driving environment of the robot, and it is possible to expand the user interface more easily.
이러한 환경 저장부(20)는 디램(Dynamic Random Access Memory: DRAM), 에스디램(Synchronous DRAM: SDRAM), 알디램(Rambus DRAM: RDRAM), 디디알램(Double data rate DRAM: DDRAM), 에스램(Static Random Access Memory: SRAM)과 또는 하드디스크, 플래시 메모리와 같은 각 관련정보를 저장할 수 있는 다양한 저장매체로 구성된다.The
실행부(40)는 환경 객체, 물리특성 및 사용자 인터페이스가 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축한다.The
보다 상세하게 예를 들어 설명하면, 물에 반쯤 왼쪽 다리가 잠기고, 지면에 오른쪽 다리가 닿아 있는 로봇에 대하여 물에 잠긴 부분에 대한 물리특성, 지면에 닿아 있는 물리특성 및 공기 중에 있는 물리특성은 다르므로 실행부(40)는 물 및 로봇의 왼쪽 다리의 환경 객체와 이 환경 객체 간의 물리특성이 조합된 제1 구동환경 패키지를 만든다.More specifically, for example, the physical characteristics of a submerged portion, the physical characteristics of the robot touching the ground, and the physical characteristics of the air are different from each other with respect to a robot in which the left leg is halfway immersed in water and the right leg is touching the ground The
또한, 실행부(40)는 지면 및 로봇의 오른 쪽 다리의 환경 객체와 이 환경 객체 간의 물리특성이 조합된 제2 구동환경 패키지를 만들고, 공기 및 공기 중에 존재하는 로봇과 이들간의 물리특성이 조합된 제3 구동환경 패키지를 만듦으로써 제1 내지 제3 구동환경 패키지를 포함하는 로봇의 구동환경을 구축한다. The
실행부(40)에서 환경 객체, 물리특성 및 사용자 인터페이스를 조합한 구동환경 패키지를 실행하기 위해서는 이들을 만들기 위한 기본 단위인 모듈이 존재하여야 하며, 구동환경 패키지에 대한 모듈을 연결함으로써 로봇의 구동환경이 구성된다. 이러한 모듈은 조합하면 실제 로봇의 구동이 가능한 로봇 구동 모듈과 조합하면 로봇의 시뮬레이션이 가능한 시뮬레이션 모듈로 나누어지는데, 로봇 구동 모듈은 기능을 수행하는 스크립트(script)나 코드(code)가 직접적으로 실제 하드웨어를 구동하거나 실제 하드웨어를 구동하는 프로세스와 연결된다. 시뮬레이션 모듈은 로봇의 구동을 표현하지만 실제 하드웨어와 연결되지 않고 가상으로 구동을 표현한다.In the
이 모듈의 기본 모듈로는 기본 객체 모듈(base object module)이 있는데, 이 기본 객체 모듈은 포트(port)로 들어온 데이터를 처리하여 그 결과를 포트로 출력하며, 스크립트나 코드를 통해 알고리즘으로 기능을 표현하거나 실제 기능을 수행하는 외부 프로세스와 연결로 기능을 수행한다. The basic module of this module is a base object module, which processes the data coming in as a port and outputs the result to the port. And functions as a connection with external processes that represent or perform actual functions.
한편, 하나의 시간의 흐름에 대해서 각각의 모듈이 서로 다른 물리특성을 적용하기 위해서는 서로 다른 수학적인 방법(numerical method)을 사용해야 하는데, 본 발명의 일실시예에서는 동일한 수학적인 방법을 사용하는 물리특성을 같이 묶어서 처리하며, 이들은 물리특성의 실행 순서 할당 과정에서 이루어진다.On the other hand, in order to apply different physical properties to each module for a single time flow, a different numerical method should be used. In an embodiment of the present invention, physical characteristics And these are performed in the process of assigning the execution order of the physical characteristics.
이처럼, 환경 객체, 물리특성 및 사용자 인터페이스가 다양하게 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축함으로써 로봇을 구동 및 시뮬레이션하는데 있어서, 정확한 구동 및 시뮬레이션이 가능해지며, 기존에 비해 물리특성 및 사용자 인터페이스의 확장력을 높일 수 있다.As described above, by creating a plurality of drive environment packages in which environmental objects, physical characteristics, and user interfaces are variously combined, the driving environment of the robot can be constructed to enable accurate driving and simulation in driving and simulating the robot, And the expandability of the user interface.
실행부(40)는 로봇의 구동환경으로 로봇을 구동시킨다. 즉, 실행부(40)는 실제로 로봇을 구동할 경우에는 로봇의 하드웨어(80)를 제어하여 로봇을 구동시키고, 로봇을 시뮬레이션할 경우에는 시뮬레이터(60)를 제어하여 시뮬레이션을 실행한다.The execution unit (40) drives the robot in the driving environment of the robot. That is, when the robot is actually driven, the
실행부(40)는 복수의 세부 실행부로 구성되어 세부 실행부의 실행 순서를 결정하고, 시간의 흐름에 따라 다음의 과정을 반복 수행한다. 즉, 로봇의 구동환경에서 구동될 로봇의 상태 데이터를 세부 실행부로 전달하고, 세부 실행부 간에 데이터를 전달하며, 세부 실행부별로 각 기능을 수행한다. 기능 수행결과에 따라 데이터를 업데이트하는 과정을 반복한다.The
실행부(40)에서 로봇의 구동이 완료되면, 실행 중에 제공되는 사용자 인터페이스를 통해 시뮬레이션 또는 로봇의 구동 결과를 확인할 수 있으며, 사용자 인터페이스가 없을 경우에는 실행 결과를 파일로 기록하고 실행이 끝난 후에 그 결과를 확인할 수 있다.When the execution of the robot is completed in the
시뮬레이터(60)는 로봇을 가상으로 시뮬레이션하기 위한 것으로, 로봇을 시뮬레이션 할 경우에는 실행부(40)에 의해 제어되고, 하드웨어(80)는 실제 로봇을 구성하는 하드웨어로서, 실제로 로봇을 구동시킬 경우에는 실행부(40)에 의해 실제로 로봇의 하드웨어(80)가 제어된다.The
이하에서는 본 발명의 일실시예에 의한 로봇 시스템의 구현과정에 대하여 설명하도록 한다.Hereinafter, an implementation process of a robot system according to an embodiment of the present invention will be described.
도 3은 본 발명의 일실시예에 의한 로봇 시스템의 구현과정을 설명하기 위한 제어 흐름도로서, 도 3에서 실행부(40)는 환경 객체, 물리특성 및 사용자 인터페이스가 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축한다(300). 그리고, 실행부(40)는 구축된 로봇의 구동환경을 미리 정의된 데이터 형식으로 변환한다(310). 3, the
그리고, 실행부(40)는 로봇의 구동환경으로 로봇을 구동시킨다(320). 즉, 로봇의 구동환경에 대해서 실제로 로봇을 구동하거나 시뮬레이션을 실행한다. 만약, 로봇을 구동할 경우에는 로봇에서 실행하고, 시뮬레이션을 실행할 경우에는 컴퓨터에서 실행한다.Then, the
다음으로, 사용자 인터페이스가 있는지 판단(330)하여 사용자 인터페이스가 존재하면, 실행 중에 제공되는 사용자 인터페이스를 통해 시뮬레이션 또는 로봇의 구동 결과를 확인한다(340).Next, it is determined whether there is a user interface (330). If a user interface exists, a simulation result or a driving result of the robot is confirmed through a user interface provided during execution (340).
330단계에서 사용자 인터페이스가 없을 경우에는 실행 결과를 파일로 기록하고 실행이 끝난 후에 그 결과를 확인한다(350).If the user interface does not exist in
도 1은 본 발명의 일실시예에 의한 로봇 시스템의 제어 블록도이다.1 is a control block diagram of a robot system according to an embodiment of the present invention.
도 2는 3인칭 관점에서 제공하는 사용자 인터페이스와 1인칭 관점에서 제공하는 사용자 인터페이스에 대한 도면이다.2 is a diagram illustrating a user interface provided from the third person perspective and a user interface provided from the first person perspective.
도 3은 본 발명의 일실시예에 의한 로봇 시스템의 구현과정을 설명하기 위한 제어 흐름도이다.3 is a control flowchart for explaining an implementation process of a robot system according to an embodiment of the present invention.
*도면의 주요부분에 대한 부호 설명*Description of the Related Art [0002]
1...로봇 시스템 20...저장부1 ...
40...실행부 60...시뮬레이터40 ...
80...하드웨어80 ... hardware
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20080131034A KR101487784B1 (en) | 2008-12-22 | 2008-12-22 | Robot system and embodiment method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20080131034A KR101487784B1 (en) | 2008-12-22 | 2008-12-22 | Robot system and embodiment method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100072589A KR20100072589A (en) | 2010-07-01 |
KR101487784B1 true KR101487784B1 (en) | 2015-01-29 |
Family
ID=42635743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20080131034A KR101487784B1 (en) | 2008-12-22 | 2008-12-22 | Robot system and embodiment method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101487784B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11697203B2 (en) | 2019-10-04 | 2023-07-11 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07328968A (en) * | 1994-06-10 | 1995-12-19 | Gijutsu Kenkyu Kumiai Shinjiyouhou Shiyori Kaihatsu Kiko | Robot device |
JPH11104984A (en) * | 1997-10-06 | 1999-04-20 | Fujitsu Ltd | Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer |
JP2000081906A (en) * | 1998-09-04 | 2000-03-21 | Mitsubishi Electric Corp | Virtual plant simulation device and its method |
JP2007136665A (en) * | 2005-11-17 | 2007-06-07 | Korea Electronics Telecommun | Robot server for controlling robot, content providing system containing same, and method therefor |
-
2008
- 2008-12-22 KR KR20080131034A patent/KR101487784B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07328968A (en) * | 1994-06-10 | 1995-12-19 | Gijutsu Kenkyu Kumiai Shinjiyouhou Shiyori Kaihatsu Kiko | Robot device |
JPH11104984A (en) * | 1997-10-06 | 1999-04-20 | Fujitsu Ltd | Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer |
JP2000081906A (en) * | 1998-09-04 | 2000-03-21 | Mitsubishi Electric Corp | Virtual plant simulation device and its method |
JP2007136665A (en) * | 2005-11-17 | 2007-06-07 | Korea Electronics Telecommun | Robot server for controlling robot, content providing system containing same, and method therefor |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11697203B2 (en) | 2019-10-04 | 2023-07-11 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20100072589A (en) | 2010-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
De Giorgio et al. | Human-machine collaboration in virtual reality for adaptive production engineering | |
US9472119B2 (en) | Computer-implemented operator training system and method of controlling the system | |
JP2000515272A (en) | Modeling and control of adaptive processes | |
WO2012009817A1 (en) | A non-programmer method for creating simulation-enabled 3d robotic models for immediate robotic simulation, without programming intervention | |
WO2019057019A1 (en) | Robot interaction method and device | |
CN106600666A (en) | Underwater robot simulation demonstration system and simulation method | |
Diewald et al. | Towards a holistic approach for mobile application development in intelligent environments | |
Seth et al. | A desktop networked haptic VR interface for mechanical assembly | |
KR100880613B1 (en) | System and method for supporting emotional expression of intelligent robot and intelligent robot system using the same | |
KR101487784B1 (en) | Robot system and embodiment method thereof | |
Sanfilippo et al. | A coupling library for the force dimension haptic devices and the 20-sim modelling and simulation environment | |
Alers et al. | Admoveo: A robotic platform for teaching creative programming to designers | |
Kammer et al. | Simulating LEGO mindstorms robots to facilitate teaching computer programming to school students | |
Osuagwu et al. | Integrating Virtual Reality (VR) into traditional instructional design | |
Willans et al. | Prototyping pre-implementation designs of virtual environment behaviour | |
TWI826764B (en) | Method for producing and replaying courses based on virtual reality and system thereof | |
Vandevelde et al. | Demonstration of OPSORO-an open platform for social robots | |
Yusof et al. | Development of an Educational Virtual Mobile Robot Simulation | |
JP2022543556A (en) | Authoring system for interactive virtual reality environments | |
Kumar et al. | Simulation in robotics | |
Deatcu et al. | PDEVS-based hybrid system simulation toolbox for MATLAB. | |
Fellmann et al. | Vair: System architecture of a generic virtual reality engine | |
Ardiyanto et al. | Rt components for using morse realistic simulator for robotics | |
Vanjari et al. | Indian AR Space Expedition-Immersive learning using Augmented Reality | |
Langel et al. | A virtual reality framework to validate persuasive interactive systems to change work habits |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20171219 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20181220 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20191217 Year of fee payment: 6 |