KR101487784B1 - Robot system and embodiment method thereof - Google Patents

Robot system and embodiment method thereof Download PDF

Info

Publication number
KR101487784B1
KR101487784B1 KR20080131034A KR20080131034A KR101487784B1 KR 101487784 B1 KR101487784 B1 KR 101487784B1 KR 20080131034 A KR20080131034 A KR 20080131034A KR 20080131034 A KR20080131034 A KR 20080131034A KR 101487784 B1 KR101487784 B1 KR 101487784B1
Authority
KR
South Korea
Prior art keywords
robot
environment
storage unit
driving
user interface
Prior art date
Application number
KR20080131034A
Other languages
Korean (ko)
Other versions
KR20100072589A (en
Inventor
하태신
한우섭
고원준
최병권
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR20080131034A priority Critical patent/KR101487784B1/en
Publication of KR20100072589A publication Critical patent/KR20100072589A/en
Application granted granted Critical
Publication of KR101487784B1 publication Critical patent/KR101487784B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇의 구동환경에 적용시킬 수 있는 환경 객체와 환경 객체 간의 물리특성이 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축하고, 로봇의 구동환경으로 로봇을 구동시키는 실행부를 포함하는 로봇 시스템의 구성으로 정확하게 로봇을 구동 및 시뮬레이션할 수 있다.The present invention includes an execution unit that creates a plurality of drive environment packages in which physical characteristics between environment objects and environmental objects applicable to a driving environment of a robot are combined to construct a driving environment of the robot and drives the robot in a driving environment of the robot It is possible to accurately drive and simulate the robot.

Description

로봇 시스템 및 그 구현방법{ROBOT SYSTEM AND EMBODIMENT METHOD THEREOF}[0001] ROBOT SYSTEM AND EMBODIMENT METHOD THEREOF [0002]

본 발명은 로봇 시스템 및 그 구현방법에 관한 것이다.The present invention relates to a robot system and an implementation method thereof.

산업과 기술이 발전함에 따라 다양한 형태의 로봇들이 만들어지고 있으며, 사회의 모든 분야에서 다양하게 사용되고 있다. 이러한 로봇으로는 산업용 로봇, 개인용 로봇, 군사용 로봇, 의료용 로봇 등이 있다.As the industry and technology develop, various types of robots are being created and used in various fields of society. Such robots include industrial robots, personal robots, military robots, and medical robots.

로봇을 개발하기 위해서는 로봇을 구성하는 하드웨어와, 이를 제어하는 소프트웨어를 동시에 구현하여야 하며, 하드웨어적으로 구현된 로봇을 제어하는 소프트웨어에 에러가 있거나 실제 하드웨어의 구조와 부합하지 않을 때에는 하드웨어 또는 소프트웨어를 다시 설계하여야 한다.In order to develop a robot, it is necessary to simultaneously implement the hardware constituting the robot and the software for controlling the robot. When the software controlling the robot implemented in hardware is in error or does not match the actual hardware structure, Should be designed.

따라서, 이러한 문제점을 해결하기 위하여 실제 로봇을 제작하기 전에 소프트웨어상에 가상 로봇을 제작하고, 이를 3차원적으로 시뮬레이션하면서 실제 동작과 비교할 수 있는 시뮬레이터가 개발되고 있다.Therefore, in order to solve such a problem, a simulator is developed which can compose a virtual robot on software before the actual robot is manufactured, and can simulate the robot in three dimensions and compare with the actual operation.

이러한 시뮬레이터는 시뮬레이션 환경을 구성하여 로봇이 시뮬레이션될 수 있도록 하였다.These simulators constitute a simulation environment so that robots can be simulated.

그러나, 종래기술에 따른 시뮬레이터는 로봇이 사무실 내에서 책을 들어 올 리는 것과 같이 단순한 동작에 대해서만 시뮬레이션할 수 있으며, 로봇이 보행하면서 물건을 잡는 것과 같은 동시 다발적으로 수행하는 복합적인 동작에 대해서는 시뮬레이션할 수 없는 문제점이 있었다. 즉, 시뮬레이션 환경을 구성하는 각 구성요소에 대하여 다른 물리특성을 선택하여 시뮬레이션할 수가 없었다.However, the simulator according to the prior art can simulate only a simple operation such as a robot lifting a book in an office, and for a complex operation to be carried out concurrently, such as holding a robot while walking There is a problem that can not be simulated. That is, different physical characteristics can not be selected and simulated for each component constituting the simulation environment.

또한, 사용자 인터페이스는 3인칭 관점의 인터페이스만 제공할 뿐 시뮬레이션 환경 내에 사용자가 직접 존재하는 것과 같은 1인칭 관점을 제공하는 인터페이스는 없었다.Also, the user interface provided only an interface of the third person perspective, and there was no interface providing the first person perspective such that the user existed directly in the simulation environment.

본 발명의 사상은 환경 객체, 물리특성 및 사용자 인터페이스가 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축하고, 로봇의 구동환경으로 로봇을 구동시키는 로봇 시스템 및 그 구현방법을 제공함에 있다. The idea of the present invention is to provide a robot system for constructing a driving environment of a robot by creating a plurality of driving environment packages in which environmental objects, physical characteristics and a user interface are combined, and driving the robot in a driving environment of the robot, and an implementation method thereof .

이를 위해 본 발명의 일실시예에 의한 로봇 시스템은 로봇의 구동환경에 적용시킬 수 있는 환경 객체와 환경 객체 간의 물리특성이 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축하고, 로봇의 구동환경으로 로봇을 구동시키는 실행부를 포함한다.To this end, the robot system according to an embodiment of the present invention creates a plurality of drive environment packages in which physical characteristics between environment objects and environmental objects applicable to the driving environment of the robot are combined, thereby constructing a driving environment of the robot, And an execution unit for driving the robot in the driving environment.

또한, 실행부는 각 환경 객체의 상태를 보여 주기 위한 사용자 인터페이스가 더 조합된 구동환경 패키지를 만들어 로봇의 구동환경을 구축한다.In addition, the execution unit creates a driving environment package in which a user interface for showing the state of each environmental object is further combined, thereby establishing a driving environment of the robot.

그리고, 사용자 인터페이스는 로봇의 구동환경에서 환경 객체를 바라보는 1인칭 관점을 제공한다.The user interface provides a first-person perspective to view environmental objects in the driving environment of the robot.

또, 로봇에 대한 정보를 저장하는 로봇 저장부, 사람에 대한 정보를 저장하는 사람 저장부 및 물체에 대한 정보를 저장하는 물체 저장부를 포함하는 환경 객체 저장부와, 환경 객체 간의 물리특성에 대한 정보를 저장하는 물리특성 저장부를 더 포함한다.In addition, an environment object storage unit including a robot storage unit for storing information on the robot, a person storage unit for storing information on a person, and an object storage unit for storing information on the object, And a physical property storage unit for storing the physical property information.

또한, 사용자 인터페이스에 대한 정보를 저장하는 인터페이스 저장부를 더 포함한다.The apparatus further includes an interface storage unit for storing information on the user interface.

로봇 시스템은 로봇을 가상으로 시뮬레이션하는 시뮬레이션 시스템이거나 실 제로 로봇을 구동시키는 구동 시스템인 것을 특징으로 한다.The robot system is either a simulation system that simulates a robot virtually or a drive system that actually drives the robot.

이를 위해 본 발명의 일실시예에 의한 로봇 시스템의 구현방법은 로봇의 구동환경에 적용시킬 수 있는 환경 객체와 환경 객체 간의 물리특성이 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축하고, 로봇의 구동환경으로 로봇을 구동시킨다.To this end, a method for implementing a robot system according to an embodiment of the present invention includes creating a plurality of drive environment packages in which physical characteristics between environment objects and environmental objects applicable to a driving environment of the robot are combined, , The robot is driven by the driving environment of the robot.

여기서, 구동환경 패키지는 각 환경 객체의 상태를 보여 주기 위한 사용자 인터페이스가 더 조합된 것이다.Here, the driving environment package is further combined with a user interface for displaying the state of each environmental object.

그리고, 사용자 인터페이스는 로봇의 구동환경에서 환경 객체를 바라보는 1인칭 관점을 제공한다.The user interface provides a first-person perspective to view environmental objects in the driving environment of the robot.

상술한 바와 같이 본 발명의 일실시예에 의한 로봇 시스템 및 그 구현방법에 따르면, 환경 객체, 물리특성 및 사용자 인터페이스가 다양하게 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축함으로써 정확하게 로봇을 구동 및 시뮬레이션할 수 있으며, 기존 방식에 비해 물리특성 및 사용자 인터페이스의 확장력을 높일 수 있는 장점이 있다.As described above, according to the robot system and its implementing method according to an embodiment of the present invention, by creating a plurality of drive environment packages in which environmental objects, physical characteristics, and user interfaces are variously combined, And it is advantageous in that the physical characteristics and the expandability of the user interface can be enhanced as compared with the conventional method.

그리고, 사용자가 로봇의 구동환경상에 존재하는 가상 인물(virtual human)과 로봇을 바라보는 3인칭 관점의 인터페이스를 제공할 뿐만 아니라 가상 인물이 로봇의 구동환경에 존재하여 그 가상 사람의 관점에서 로봇을 바라보는 1인칭 관점의 인터페이스를 더 제공함으로써 사용자 인터페이스에 대해서 직접적인 구동 및 시뮬레이션이 가능해지며, 사용자 인터페이스를 보다 용이하게 확장할 수 있는 장점이 있다.In addition, not only does the user provide a virtual person who exists in the driving environment of the robot and an interface of the third person view that looks at the robot, but also a virtual person exists in the driving environment of the robot, It is possible to directly drive and simulate the user interface by providing the first-person viewpoint interface, and to easily expand the user interface.

도 1은 본 발명의 일실시예에 의한 로봇 시스템의 제어 블록도이다.1 is a control block diagram of a robot system according to an embodiment of the present invention.

도 1을 참조하면, 로봇 시스템(1)은 환경 저장부(20), 실행부(40), 시뮬레이터(60) 및 하드웨어(80)를 포함하여 구성된다. 1, the robot system 1 includes an environment storage unit 20, an execution unit 40, a simulator 60, and hardware 80.

이러한 로봇 시스템(1)은 로봇을 가상으로 시뮬레이션하기 위한 시뮬레이션 시스템일 수 있으며, 또한 실제로 로봇을 구동하기 위한 구동 시스템일 수 있다. 시뮬레이션 시스템일 경우에는 로봇 시스템(1)을 구성하는 각 구성요소들은 프로그램으로 구성되어 컴퓨터 등에서 실행되고, 구동 시스템일 경우에는 로봇 내에서 실행된다. The robot system 1 may be a simulation system for virtually simulating a robot, or may be a drive system for actually driving the robot. In the case of a simulation system, each component constituting the robot system 1 is constituted by a program and executed in a computer or the like, and in the case of a drive system, it is executed in the robot.

환경 저장부(20)는 로봇의 구동환경에 적용시킬 수 있는 환경 객체와 관련된 정보, 물리특성에 대한 정보 및 사용자 인터페이스에 대한 정보를 저장하는 것으로, 로봇 저장부(21), 사람 저장부(22) 및 물체 저장부(23)를 포함하는 환경 객체 저장부(26)로 구성된다.The environment storage unit 20 stores information related to an environment object applicable to the driving environment of the robot, information on physical characteristics, and information on the user interface. The environment storage unit 20 includes a robot storage unit 21, a human storage unit 22 And an environment object storage unit 26 including an object storage unit 23.

로봇 저장부(21)는 로봇에 대한 정보를 저장한다. 이러한 로봇 저장부(21)는 로봇을 구성하는 구성요소들 예컨대, 머리, 몸통, 팔, 다리 등에 대한 구성요소와, 이 구성요소에 대한 이미지 파일, 크기정보, 무게정보, 위치정보, 재질정보, 다른 구성요소들과의 결합도 및 기타 속성에 대한 정보들을 저장한다.The robot storage unit 21 stores information about the robot. The robot storage unit 21 stores the image file, the size information, the weight information, the position information, the material information, the image information, and the like of the components constituting the robot such as a head, a torso, And information about the degree of coupling with other components and other attributes.

사람 저장부(22)는 사람에 대한 정보를 저장하고, 물체 저장부(26)는 물체에 대한 정보를 저장한다. 물체 저장부(26)는 물체(Object) 즉, 책상, 의자, 나무, 컵, 테이블 등과 같이 로봇의 구동환경에 배치시킬 수 있는 물건을 저장하며, 이들 의 이미지 파일 및 기타 속성에 대한 정보들을 저장한다.The person storage unit 22 stores information about a person, and the object storage unit 26 stores information about an object. The object storage unit 26 stores objects that can be placed in the driving environment of the robot such as a desk, a chair, a tree, a cup, a table, etc., and stores information about the image files and other properties of the objects do.

이러한 환경 저장부(20)는 로봇 저장부(21), 사람 저장부(22) 및 물체 저장부(23) 외에 물, 공기 등과 같이 환경 객체가 존재하는 환경에 대한 정보를 더 저장할 수 있다.The environment storage unit 20 may further store information on an environment where environmental objects such as water and air are present in addition to the robot storage unit 21, the human storage unit 22, and the object storage unit 23.

또한, 환경 저장부(20)는 물리특성 저장부(24) 및 인터페이스 저장부(25)를 더 포함하여 구성된다.The environment storage unit 20 further includes a physical property storage unit 24 and an interface storage unit 25.

물리특성 저장부(24)는 환경 객체 간의 상호작용(interaction)에 대한 운동량 또는 물리량과 같은 물리특성을 저장한다. 즉, 환경 객체마다 내부적인 물리특성이 다르고, 환경 객체 간 상호작용에 대한 물리특성이 다르기 때문에 모든 환경 객체 간의 상호작용에 대해서 다른 물리적 특성을 적용할 필요가 있으므로 다양한 조건에서 적용시킬 수 있는 물리특성을 저장한다.The physical property storage unit 24 stores physical characteristics such as momentum or physical quantity for interaction between environmental objects. In other words, it is necessary to apply different physical characteristics to the interaction between all environment objects because the physical characteristics of the environment objects are different from each other and the physical characteristics of the interaction between environment objects are different. Therefore, .

인터페이스 저장부(25)는 각 환경 객체의 상태를 보여 주기 위한 사용자 인터페이스를 저장하며, 사용자 인터페이스는 카메라, 모니터, 마이크, 스피커 등으로 구성된다.The interface storage unit 25 stores a user interface for displaying the status of each environment object, and the user interface includes a camera, a monitor, a microphone, and a speaker.

사용자 인터페이스에 대하여 보다 상세하게 설명하면, 사용자 인터페이스가 모니터일 경우, 로봇의 구동환경에 존재하는 각 환경 객체의 상태를 보여 주고, 사용자 인터페이스가 스피커일 경우, 로봇의 구동환경에서 발생하는 소리를 출력한다. 예컨대, 사용자 인터페이스는 상황에 따라 다르게 제공하는데, 마이크일 경우에는 거리와 방향에 따라서 다르게 소리가 입력되고, 스피커 출력의 경우에는 거리와 방향에 따라서 다르게 소리가 출력되도록 한다.More specifically, if the user interface is a monitor, the state of each environmental object in the driving environment of the robot is shown. If the user interface is a speaker, sound output in the driving environment of the robot is output do. For example, the user interface may be provided differently depending on the situation. In the case of a microphone, sound is inputted differently depending on the distance and direction, and in the case of speaker output, sound is outputted differently according to distance and direction.

또한, 사용자 인터페이스는 로봇의 구동환경에서 환경 객체를 바라보는 관점을 다르게 제공할 수 있다.In addition, the user interface can provide a different viewpoint of the environment object in the driving environment of the robot.

도 2는 3인칭 관점에서 제공하는 사용자 인터페이스와 1인칭 관점에서 제공하는 사용자 인터페이스에 대한 도면으로서, 도 2에서 사용자 인터페이스는 사용자가 로봇의 구동환경상에 존재하는 가상 인물(virtual human)과 로봇을 바라보는 3인칭 관점의 인터페이스를 제공할 뿐만 아니라 가상 인물이 로봇의 구동환경에 존재하여 그 가상 사람의 관점에서 로봇을 바라보는 1인칭 관점의 인터페이스를 더 제공할 수 있도록 한다.FIG. 2 is a diagram of a user interface provided from a third person perspective and a user interface provided from a first person perspective. In FIG. 2, the user interface refers to a virtual person and a robot that exist in a driving environment of the robot. In addition to providing the interface of the third person perspective, the virtual person is present in the driving environment of the robot so that it can further provide a first-person viewpoint that looks at the robot from the viewpoint of the virtual person.

이로 인해, 로봇의 구동환경에서 로봇이 제공하는 사용자 인터페이스에 대해서 직접적인 구동 및 시뮬레이션이 가능해지며, 사용자 인터페이스를 보다 용이하게 확장할 수 있다.Therefore, it is possible to directly drive and simulate the user interface provided by the robot in the driving environment of the robot, and it is possible to expand the user interface more easily.

이러한 환경 저장부(20)는 디램(Dynamic Random Access Memory: DRAM), 에스디램(Synchronous DRAM: SDRAM), 알디램(Rambus DRAM: RDRAM), 디디알램(Double data rate DRAM: DDRAM), 에스램(Static Random Access Memory: SRAM)과 또는 하드디스크, 플래시 메모리와 같은 각 관련정보를 저장할 수 있는 다양한 저장매체로 구성된다.The environment storage unit 20 may be a DRAM, a DRAM, a DRAM, a RDRAM, a DDRAM, a DDRAM, A static random access memory (SRAM), and various storage media capable of storing related information such as a hard disk and a flash memory.

실행부(40)는 환경 객체, 물리특성 및 사용자 인터페이스가 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축한다.The execution unit 40 constructs a driving environment of the robot by creating a plurality of driving environment packages in which an environment object, physical characteristics, and a user interface are combined.

보다 상세하게 예를 들어 설명하면, 물에 반쯤 왼쪽 다리가 잠기고, 지면에 오른쪽 다리가 닿아 있는 로봇에 대하여 물에 잠긴 부분에 대한 물리특성, 지면에 닿아 있는 물리특성 및 공기 중에 있는 물리특성은 다르므로 실행부(40)는 물 및 로봇의 왼쪽 다리의 환경 객체와 이 환경 객체 간의 물리특성이 조합된 제1 구동환경 패키지를 만든다.More specifically, for example, the physical characteristics of a submerged portion, the physical characteristics of the robot touching the ground, and the physical characteristics of the air are different from each other with respect to a robot in which the left leg is halfway immersed in water and the right leg is touching the ground The execution unit 40 creates a first drive environment package in which water and an environmental object of the left leg of the robot are combined with physical characteristics of the environment object.

또한, 실행부(40)는 지면 및 로봇의 오른 쪽 다리의 환경 객체와 이 환경 객체 간의 물리특성이 조합된 제2 구동환경 패키지를 만들고, 공기 및 공기 중에 존재하는 로봇과 이들간의 물리특성이 조합된 제3 구동환경 패키지를 만듦으로써 제1 내지 제3 구동환경 패키지를 포함하는 로봇의 구동환경을 구축한다. The execution unit 40 also creates a second drive environment package in which physical characteristics of the environmental object on the ground and the robot are combined with the physical characteristics of the environment object, Thereby creating a driving environment of the robot including the first to third driving environment packages.

실행부(40)에서 환경 객체, 물리특성 및 사용자 인터페이스를 조합한 구동환경 패키지를 실행하기 위해서는 이들을 만들기 위한 기본 단위인 모듈이 존재하여야 하며, 구동환경 패키지에 대한 모듈을 연결함으로써 로봇의 구동환경이 구성된다. 이러한 모듈은 조합하면 실제 로봇의 구동이 가능한 로봇 구동 모듈과 조합하면 로봇의 시뮬레이션이 가능한 시뮬레이션 모듈로 나누어지는데, 로봇 구동 모듈은 기능을 수행하는 스크립트(script)나 코드(code)가 직접적으로 실제 하드웨어를 구동하거나 실제 하드웨어를 구동하는 프로세스와 연결된다. 시뮬레이션 모듈은 로봇의 구동을 표현하지만 실제 하드웨어와 연결되지 않고 가상으로 구동을 표현한다.In the execution unit 40, environment objects, physical characteristics, and user interfaces In order to execute the combined driving environment package, a module which is a basic unit for making them must exist, and a driving environment of the robot is constituted by connecting modules for the driving environment package. These modules are divided into a simulation module that can simulate a robot when combined with a robot driving module capable of driving an actual robot. The robot driving module is a module in which a script or code that performs a function is directly connected to a real hardware Or to the process that drives the actual hardware. The simulation module expresses the driving of the robot but does not connect to the actual hardware and expresses the driving in a virtual way.

이 모듈의 기본 모듈로는 기본 객체 모듈(base object module)이 있는데, 이 기본 객체 모듈은 포트(port)로 들어온 데이터를 처리하여 그 결과를 포트로 출력하며, 스크립트나 코드를 통해 알고리즘으로 기능을 표현하거나 실제 기능을 수행하는 외부 프로세스와 연결로 기능을 수행한다. The basic module of this module is a base object module, which processes the data coming in as a port and outputs the result to the port. And functions as a connection with external processes that represent or perform actual functions.

한편, 하나의 시간의 흐름에 대해서 각각의 모듈이 서로 다른 물리특성을 적용하기 위해서는 서로 다른 수학적인 방법(numerical method)을 사용해야 하는데, 본 발명의 일실시예에서는 동일한 수학적인 방법을 사용하는 물리특성을 같이 묶어서 처리하며, 이들은 물리특성의 실행 순서 할당 과정에서 이루어진다.On the other hand, in order to apply different physical properties to each module for a single time flow, a different numerical method should be used. In an embodiment of the present invention, physical characteristics And these are performed in the process of assigning the execution order of the physical characteristics.

이처럼, 환경 객체, 물리특성 및 사용자 인터페이스가 다양하게 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축함으로써 로봇을 구동 및 시뮬레이션하는데 있어서, 정확한 구동 및 시뮬레이션이 가능해지며, 기존에 비해 물리특성 및 사용자 인터페이스의 확장력을 높일 수 있다.As described above, by creating a plurality of drive environment packages in which environmental objects, physical characteristics, and user interfaces are variously combined, the driving environment of the robot can be constructed to enable accurate driving and simulation in driving and simulating the robot, And the expandability of the user interface.

실행부(40)는 로봇의 구동환경으로 로봇을 구동시킨다. 즉, 실행부(40)는 실제로 로봇을 구동할 경우에는 로봇의 하드웨어(80)를 제어하여 로봇을 구동시키고, 로봇을 시뮬레이션할 경우에는 시뮬레이터(60)를 제어하여 시뮬레이션을 실행한다.The execution unit (40) drives the robot in the driving environment of the robot. That is, when the robot is actually driven, the execution unit 40 controls the hardware 80 of the robot to drive the robot, and when simulating the robot, the execution unit 40 controls the simulator 60 to execute the simulation.

실행부(40)는 복수의 세부 실행부로 구성되어 세부 실행부의 실행 순서를 결정하고, 시간의 흐름에 따라 다음의 과정을 반복 수행한다. 즉, 로봇의 구동환경에서 구동될 로봇의 상태 데이터를 세부 실행부로 전달하고, 세부 실행부 간에 데이터를 전달하며, 세부 실행부별로 각 기능을 수행한다. 기능 수행결과에 따라 데이터를 업데이트하는 과정을 반복한다.The execution unit 40 is composed of a plurality of detailed execution units, determines the execution order of the detailed execution units, and repeats the following process according to the flow of time. That is, the state data of the robot to be driven in the driving environment of the robot is transmitted to the detailed execution unit, the data is transmitted between the detailed execution units, and each function is performed by the detailed execution units. And repeats the process of updating the data according to the result of performing the function.

실행부(40)에서 로봇의 구동이 완료되면, 실행 중에 제공되는 사용자 인터페이스를 통해 시뮬레이션 또는 로봇의 구동 결과를 확인할 수 있으며, 사용자 인터페이스가 없을 경우에는 실행 결과를 파일로 기록하고 실행이 끝난 후에 그 결과를 확인할 수 있다.When the execution of the robot is completed in the execution unit 40, the result of the simulation or the operation of the robot can be confirmed through the user interface provided during execution. If there is no user interface, the execution result is recorded as a file. You can see the results.

시뮬레이터(60)는 로봇을 가상으로 시뮬레이션하기 위한 것으로, 로봇을 시뮬레이션 할 경우에는 실행부(40)에 의해 제어되고, 하드웨어(80)는 실제 로봇을 구성하는 하드웨어로서, 실제로 로봇을 구동시킬 경우에는 실행부(40)에 의해 실제로 로봇의 하드웨어(80)가 제어된다.The simulator 60 is for virtually simulating a robot. When the robot is simulated, the simulator 60 is controlled by the execution unit 40. The hardware 80 is hardware that constitutes an actual robot. The execution unit 40 actually controls the hardware 80 of the robot.

이하에서는 본 발명의 일실시예에 의한 로봇 시스템의 구현과정에 대하여 설명하도록 한다.Hereinafter, an implementation process of a robot system according to an embodiment of the present invention will be described.

도 3은 본 발명의 일실시예에 의한 로봇 시스템의 구현과정을 설명하기 위한 제어 흐름도로서, 도 3에서 실행부(40)는 환경 객체, 물리특성 및 사용자 인터페이스가 조합된 복수의 구동환경 패키지를 만들어 로봇의 구동환경을 구축한다(300). 그리고, 실행부(40)는 구축된 로봇의 구동환경을 미리 정의된 데이터 형식으로 변환한다(310). 3, the execution unit 40 includes a plurality of drive environment packages in which an environment object, physical characteristics, and a user interface are combined. And creates a driving environment of the robot (300). Then, the execution unit 40 converts the driving environment of the constructed robot into a predefined data format (310).

그리고, 실행부(40)는 로봇의 구동환경으로 로봇을 구동시킨다(320). 즉, 로봇의 구동환경에 대해서 실제로 로봇을 구동하거나 시뮬레이션을 실행한다. 만약, 로봇을 구동할 경우에는 로봇에서 실행하고, 시뮬레이션을 실행할 경우에는 컴퓨터에서 실행한다.Then, the execution unit 40 drives the robot in the driving environment of the robot (320). That is, the robot is actually driven or simulated with respect to the driving environment of the robot. If the robot is driven, it is executed by the robot, and when the simulation is executed, the robot is executed by the computer.

다음으로, 사용자 인터페이스가 있는지 판단(330)하여 사용자 인터페이스가 존재하면, 실행 중에 제공되는 사용자 인터페이스를 통해 시뮬레이션 또는 로봇의 구동 결과를 확인한다(340).Next, it is determined whether there is a user interface (330). If a user interface exists, a simulation result or a driving result of the robot is confirmed through a user interface provided during execution (340).

330단계에서 사용자 인터페이스가 없을 경우에는 실행 결과를 파일로 기록하고 실행이 끝난 후에 그 결과를 확인한다(350).If the user interface does not exist in step 330, the execution result is recorded as a file, and the result is confirmed after execution (350).

도 1은 본 발명의 일실시예에 의한 로봇 시스템의 제어 블록도이다.1 is a control block diagram of a robot system according to an embodiment of the present invention.

도 2는 3인칭 관점에서 제공하는 사용자 인터페이스와 1인칭 관점에서 제공하는 사용자 인터페이스에 대한 도면이다.2 is a diagram illustrating a user interface provided from the third person perspective and a user interface provided from the first person perspective.

도 3은 본 발명의 일실시예에 의한 로봇 시스템의 구현과정을 설명하기 위한 제어 흐름도이다.3 is a control flowchart for explaining an implementation process of a robot system according to an embodiment of the present invention.

*도면의 주요부분에 대한 부호 설명*Description of the Related Art [0002]

1...로봇 시스템 20...저장부1 ... robot system 20 ... storage

40...실행부 60...시뮬레이터40 ... Execution part 60 ... Simulator

80...하드웨어80 ... hardware

Claims (9)

로봇의 구동환경에 적용시킬 수 있는 복수의 환경 객체에 대한 정보 및 상기 환경 객체 간의 물리특성에 대한 정보를 저장하는 환경 저장부; 및An environment storage unit for storing information on a plurality of environmental objects applicable to a driving environment of the robot and information on physical characteristics between the environmental objects; And 상기 환경 저장부에 저장된 정보에 기초하여 상기 환경 객체와 상기 환경 객체 간의 물리특성이 조합된 복수의 구동환경 패키지를 만들어 상기 로봇의 구동환경을 구축하고, 상기 구축된 상기 로봇의 구동환경으로 상기 로봇을 구동시키는 실행부를 포함하는 로봇 시스템.A plurality of drive environment packages each having a combination of physical characteristics between the environment object and the environment object based on the information stored in the environment storage unit to construct a drive environment of the robot, And an execution unit that drives the robot. 제 1 항에 있어서, The method according to claim 1, 상기 환경 저장부는 각 환경 객체의 상태를 보여주기 위한 사용자 인터페이스에 대한 정보를 저장하는 인터페이스 저장부를 포함하고,Wherein the environment storage unit includes an interface storage unit for storing information on a user interface for displaying the status of each environment object, 상기 실행부는 상기 사용자 인터페이스가 더 조합된 상기 구동환경 패키지를 만들어 상기 로봇의 구동환경을 구축하는 로봇 시스템.Wherein the execution unit constructs the driving environment of the robot by creating the driving environment package in which the user interface is further combined. 제 2 항에 있어서, 상기 사용자 인터페이스는,3. The apparatus of claim 2, 상기 로봇의 구동환경에서 상기 환경 객체를 바라보는 1인칭 관점을 제공하는 로봇 시스템.And a first person perspective for viewing the environment object in a driving environment of the robot. 제 1 항에 있어서, 상기 환경 저장부는,The apparatus according to claim 1, 상기 로봇에 대한 정보를 저장하는 로봇 저장부, 사람에 대한 정보를 저장하는 사람 저장부 및 물체에 대한 정보를 저장하는 물체 저장부를 포함하는 환경객체 저장부; 및An environment object storage unit including a robot storage unit for storing information on the robot, a person storage unit for storing information on a person, and an object storage unit for storing information on the object; And 상기 환경 객체 간의 물리특성에 대한 정보를 저장하는 물리특성 저장부를 포함하는 로봇 시스템.And a physical property storage unit for storing information on physical characteristics between the environment objects. 삭제delete 제 1 항에 있어서, 상기 로봇 시스템은,The robot system according to claim 1, 상기 로봇을 가상으로 시뮬레이션하는 시뮬레이션 시스템 또는 상기 로봇을 구동시키는 구동 시스템인 로봇 시스템.A simulation system for virtually simulating the robot or a robot system that is a drive system for driving the robot. 로봇의 구동환경에 적용시킬 수 있는 복수의 환경 객체와 상기 환경 객체 간의 물리특성이 조합된 복수의 구동환경 패키지를 만들어 상기 로봇의 구동환경을 구축하고,A plurality of drive environment packages in which a plurality of environment objects applicable to the driving environment of the robot and a physical characteristic between the environment objects are combined to construct a driving environment of the robot, 상기 구축된 상기 로봇의 구동환경으로 상기 로봇을 구동시키는 로봇 시스템의 구현방법.And driving the robot in a driving environment of the robot. 제 7 항에 있어서, 상기 구동환경 패키지는,8. The driving environment package according to claim 7, 각 환경 객체의 상태를 보여주기 위한 사용자 인터페이스가 더 조합된 것인 로봇 시스템의 구현방법.And a user interface for showing the state of each environment object is further combined. 제 8 항에 있어서, 상기 사용자 인터페이스는,9. The apparatus of claim 8, 상기 로봇의 구동환경에서 상기 환경 객체를 바라보는 1인칭 관점을 제공하는 로봇 시스템의 구현방법.And providing a first-person perspective for viewing the environment object in a driving environment of the robot.
KR20080131034A 2008-12-22 2008-12-22 Robot system and embodiment method thereof KR101487784B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20080131034A KR101487784B1 (en) 2008-12-22 2008-12-22 Robot system and embodiment method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20080131034A KR101487784B1 (en) 2008-12-22 2008-12-22 Robot system and embodiment method thereof

Publications (2)

Publication Number Publication Date
KR20100072589A KR20100072589A (en) 2010-07-01
KR101487784B1 true KR101487784B1 (en) 2015-01-29

Family

ID=42635743

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20080131034A KR101487784B1 (en) 2008-12-22 2008-12-22 Robot system and embodiment method thereof

Country Status (1)

Country Link
KR (1) KR101487784B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11697203B2 (en) 2019-10-04 2023-07-11 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07328968A (en) * 1994-06-10 1995-12-19 Gijutsu Kenkyu Kumiai Shinjiyouhou Shiyori Kaihatsu Kiko Robot device
JPH11104984A (en) * 1997-10-06 1999-04-20 Fujitsu Ltd Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
JP2000081906A (en) * 1998-09-04 2000-03-21 Mitsubishi Electric Corp Virtual plant simulation device and its method
JP2007136665A (en) * 2005-11-17 2007-06-07 Korea Electronics Telecommun Robot server for controlling robot, content providing system containing same, and method therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07328968A (en) * 1994-06-10 1995-12-19 Gijutsu Kenkyu Kumiai Shinjiyouhou Shiyori Kaihatsu Kiko Robot device
JPH11104984A (en) * 1997-10-06 1999-04-20 Fujitsu Ltd Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
JP2000081906A (en) * 1998-09-04 2000-03-21 Mitsubishi Electric Corp Virtual plant simulation device and its method
JP2007136665A (en) * 2005-11-17 2007-06-07 Korea Electronics Telecommun Robot server for controlling robot, content providing system containing same, and method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11697203B2 (en) 2019-10-04 2023-07-11 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Also Published As

Publication number Publication date
KR20100072589A (en) 2010-07-01

Similar Documents

Publication Publication Date Title
De Giorgio et al. Human-machine collaboration in virtual reality for adaptive production engineering
US9472119B2 (en) Computer-implemented operator training system and method of controlling the system
JP2000515272A (en) Modeling and control of adaptive processes
WO2012009817A1 (en) A non-programmer method for creating simulation-enabled 3d robotic models for immediate robotic simulation, without programming intervention
WO2019057019A1 (en) Robot interaction method and device
CN106600666A (en) Underwater robot simulation demonstration system and simulation method
Diewald et al. Towards a holistic approach for mobile application development in intelligent environments
Seth et al. A desktop networked haptic VR interface for mechanical assembly
KR100880613B1 (en) System and method for supporting emotional expression of intelligent robot and intelligent robot system using the same
KR101487784B1 (en) Robot system and embodiment method thereof
Sanfilippo et al. A coupling library for the force dimension haptic devices and the 20-sim modelling and simulation environment
Alers et al. Admoveo: A robotic platform for teaching creative programming to designers
Kammer et al. Simulating LEGO mindstorms robots to facilitate teaching computer programming to school students
Osuagwu et al. Integrating Virtual Reality (VR) into traditional instructional design
Willans et al. Prototyping pre-implementation designs of virtual environment behaviour
TWI826764B (en) Method for producing and replaying courses based on virtual reality and system thereof
Vandevelde et al. Demonstration of OPSORO-an open platform for social robots
Yusof et al. Development of an Educational Virtual Mobile Robot Simulation
JP2022543556A (en) Authoring system for interactive virtual reality environments
Kumar et al. Simulation in robotics
Deatcu et al. PDEVS-based hybrid system simulation toolbox for MATLAB.
Fellmann et al. Vair: System architecture of a generic virtual reality engine
Ardiyanto et al. Rt components for using morse realistic simulator for robotics
Vanjari et al. Indian AR Space Expedition-Immersive learning using Augmented Reality
Langel et al. A virtual reality framework to validate persuasive interactive systems to change work habits

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171219

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181220

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191217

Year of fee payment: 6