WO2011074838A2 - 로봇 동기화 장치 및 그 방법 - Google Patents

로봇 동기화 장치 및 그 방법 Download PDF

Info

Publication number
WO2011074838A2
WO2011074838A2 PCT/KR2010/008879 KR2010008879W WO2011074838A2 WO 2011074838 A2 WO2011074838 A2 WO 2011074838A2 KR 2010008879 W KR2010008879 W KR 2010008879W WO 2011074838 A2 WO2011074838 A2 WO 2011074838A2
Authority
WO
WIPO (PCT)
Prior art keywords
robot
real
virtual
unit
actual
Prior art date
Application number
PCT/KR2010/008879
Other languages
English (en)
French (fr)
Other versions
WO2011074838A3 (ko
Inventor
박창현
Original Assignee
(주) 아이알로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 아이알로봇 filed Critical (주) 아이알로봇
Publication of WO2011074838A2 publication Critical patent/WO2011074838A2/ko
Publication of WO2011074838A3 publication Critical patent/WO2011074838A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/40Data acquisition and logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39014Match virtual world with real world
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40121Trajectory planning in virtual space
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40129Virtual graphic 3-D pointer, manipulator commands real manipulator

Definitions

  • One aspect of the invention relates to a robot, and more particularly to a robot synchronization technology.
  • the robot industry is developing day by day and is expected to be one of the important industries that determine national competitiveness in the near future. Accordingly, interest in educational and toy robots, including home robots for the popularization of the robot industry and robot technology, is increasing. Many companies are contributing greatly to the industrialization of robots, not only industrial robots, but also home, education, and toy robots, and it is expected that investment and technology development for intelligent robots will accelerate in the future.
  • a robot synchronization device and a method for providing an image of a virtual robot in operation in conjunction with an operation of an actual robot are provided.
  • the present invention also proposes a robot synchronization device and method for synchronizing a virtual robot and a real robot with each other.
  • a robot synchronization device according to an operation command input through an operation unit based on data stored in a storage unit, an operation unit, an output unit, and a storage unit storing data in which physical models and operations of an actual robot are defined. It includes a control unit for modeling the operation of the virtual robot, and outputs the modeled virtual robot through the output unit.
  • the robot synchronization apparatus further comprises a communication unit for performing wired and wireless communication with the actual robot or server, the control unit converts the robot operation command protocol that can operate the actual robot according to the operation command of the operation unit, the converted Using the robot manipulation command protocol, the model and motion data of the virtual robot modeled through the communication unit are transmitted to the actual robot.
  • control unit receives data operated according to the operation result of the actual robot from the real robot through the communication unit, stores it in the storage unit, and controls the operation of the virtual robot using the stored data of the actual robot. .
  • control unit integrates a plurality of operation commands input through the operation unit to store in the form of one continuous operation command in the storage unit, and one continuous operation command stored in the storage unit to the actual robot through the communication unit By controlling the movement of the actual robot.
  • a robot synchronization method includes storing data in which a physical model and an operation of an actual robot are defined, receiving an operation command of a virtual robot, and storing the data based on the stored data according to the input operation command. Modeling the operation of the robot and outputting the modeled virtual robot.
  • the virtual robot linked to the operation of the actual robot may be output in real time. Therefore, the user is provided with a lively feeling as if the actual robot is operating through the virtual robot output in real time, it can increase the interest and fun of the user. Furthermore, non-professional people can easily manipulate the robot without the need for complicated control devices through manipulation using a virtual robot.
  • the user can easily operate the real robot using the virtual robot or operate the virtual robot using the real robot.
  • a plurality of operation commands may be integrated and stored in the form of one continuous operation command, and the operation of the actual robot may be controlled through one stored operation command. Accordingly, the user can easily and quickly operate the actual robot.
  • the real robot can be tested through the simulation of the virtual robot, the possibility of changing the components of the real robot again in a state where the production is completed due to the abnormality of the real robot is reduced.
  • it is efficient in terms of time and cost since it is possible to accurately grasp any problem in the operation or structure of the actual robot before completing the actual robot.
  • FIG. 1 is a reference diagram illustrating a robot synchronization device and an actual robot according to an embodiment of the present invention
  • FIG. 2 is a block diagram of a robot synchronization device according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a robot synchronization method according to an embodiment of the present invention
  • FIG. 4 is a flowchart illustrating a method in which a virtual robot synchronizes an actual robot according to one embodiment of the present invention
  • FIG. 5 is a flowchart illustrating a method in which a virtual robot is synchronized by a real robot according to an embodiment of the present invention.
  • FIG. 1 is a reference diagram showing a robot synchronization device 2 and an actual robot 1 according to an embodiment of the present invention.
  • the robot synchronization apparatus 2 includes all electronic devices capable of displaying a virtual robot in real time in a virtual world.
  • the robot synchronization device 2 may be a computer, a laptop, a television, or the like, and may be a portable cellular phone, a personal digital assistant (PDA), and a portable multimedia player (PMP), but is not limited thereto.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • the virtual robot of the robot synchronization device 2 of the present invention and the real robot of the real world are synchronized in real time through interworking. That is, the motion of the virtual robot is reflected in real time to the motion of the real robot or the motion of the real robot is reflected in the motion of the virtual robot in real time so that the virtual robot and the real robot can perform the same operation.
  • Real robots include all types of robots that can operate in the real world.
  • the robot may be implemented by connecting and assembling a plurality of actuators (electrically or mechanically).
  • it may be a modular robot, which may be an educational robot, a toy robot, a household robot, a robot, a robot, a humanoid robot, a humanoid robot, or an educational robot.
  • FIG. 2 is a block diagram of a robot synchronization device 2 according to an embodiment of the present invention.
  • the robot synchronization apparatus 2 includes a storage unit 200, an operation unit 220, an output unit 240, and a control unit 260, and further includes a communication unit 280. can do.
  • the storage unit 200 stores data in which the physical model and the motion of the actual robot 1 are defined.
  • the storage unit 200 stores a program capable of driving the virtual robot 20 according to a predetermined operation pattern of the robot.
  • the data in which the physical model and the operation are defined as described above is limited to a constraint value such as a position value of each actuator of the virtual robot 20, a rotation direction and a rotation speed of the virtual robot 20, and a limiting angle at which each actuator can move. Data necessary for the operation of the virtual robot 20, etc.).
  • the storage unit 200 may be a removable memory or implemented as an external database device.
  • the storage unit 200 may store data in which the above-described physical model and operation are defined in an encrypted form.
  • the operation unit 220 includes all input interfaces that can be operated by the user.
  • the operation unit 220 may be a key input form including a direction key and a confirmation key such as left and right and up and down.
  • the manipulation unit 220 may be in the form of a joystick or a touch pad capable of sensing a touch signal through a touch sensor.
  • the operation unit 220 may be in the form of a mouse, a pointing stick, a figure input panel (tablet), a trackball, a light pen, and a figure processing flat panel (graphics tablet).
  • the manipulation unit 220 may be a form in which the above-described input interfaces are embedded as an input device of a portable electronic device.
  • the output unit 240 outputs the virtual robot 20 on the screen according to the control signal of the controller 260.
  • the output unit 240 may output the virtual robot 20 as a 3D video.
  • the output unit 240 may output light, a warning sound, and the like, respectively.
  • the output unit 240 may include a light emitting diode (LED), a buzzer, a liquid crystal display (LCD), and the like. Can be.
  • the output unit 240 may be integrally formed with the operation unit 220.
  • the output unit 240 provides an interface for controlling the display functions according to the touch signal through the touch sensor. For example, it may be used to perform an operation of the virtual robot 20 on a screen or to transmit commands associated with the operation.
  • the communication unit 280 performs wired / wireless communication with the actual robot 1 or a server (not shown).
  • the control unit 260 controls the overall operation of the robot synchronization device 2, and controls the storage unit 200, the operation unit 220, the output unit 240, and the communication unit 280 described above.
  • the controller 260 models the operation of the virtual robot 20 according to the manipulation command input through the manipulation unit 220 based on the data stored in the storage 200. Then, the modeled virtual robot 20 is output through the output unit 240.
  • the manipulation command includes all types of instructions that can be manipulated by the user through the manipulation unit 220.
  • the manipulation command may be a walking instruction, a non-walking instruction, or a joint unit instruction of the virtual robot 20.
  • the modeling work of the controller 26 is a work of shaping the actual robot 1 in the form of a virtual robot 20 in a virtual space.
  • the controller 260 may refer to the operation data of the actual robot 1 stored in the storage 200 according to an operation command input from the manipulation unit 220 to determine the rotation direction and the rotation speed of the virtual robot 20. Can be calculated And the movement angle at the time of driving the actuator of the virtual robot 20 can be calculated. Subsequently, the virtual robot 20 may be modeled according to the calculated result.
  • the controller 26 models the virtual robot 20 to fit the screen so that the virtual robot 20 may move to a corresponding position on the screen of the output unit 240 or the actuator may be operated.
  • the rotation direction, rotation speed, and movement angle of the virtual robot 20 can be calculated appropriately for the screen.
  • the controller 26 forms a foot height, a stride length, an angle, and a speed of the virtual robot 20 on the screen. Calculate the rotation direction, rotation speed and moving angle. Then, the virtual robot 20 is output through the output unit 240 according to the calculated result.
  • the controller 260 converts a robot manipulation command protocol capable of manipulating the actual robot 1 according to the manipulation command of the manipulation unit 220.
  • the robot operation command protocol defines a parameter that enables communication between the virtual robot 20 and the actual robot 1 of the robot synchronization device 2 or between the virtual robot 20 and a server (not shown).
  • the controller 260 transmits the model and motion data of the modeled virtual robot 20 to the real robot 1 through the communication unit 280 using the converted robot manipulation command protocol.
  • the real robot 1 may be operated in real time using the model and motion data of the virtual robot 20.
  • the controller 260 receives data operated according to the operation result of the actual robot 1 from the actual robot 1 through the communication unit 280 and stores it in the storage unit 200. Then, the operation of the virtual robot 20 being output through the output unit 240 is controlled using the stored data of the actual robot 1. Accordingly, the robot synchronization device 2 may reflect the operation result of the actual robot 1 to the operation of the virtual robot 20 output through the output unit 240.
  • the robot synchronization device 2 reflecting the operation result of the actual robot 1, the robot synchronization device 2 is a physical posture (standing or sitting) of the real robot 1 via the communication unit 280.
  • the physical position of the real robot 1 through the control unit 260, and accordingly the virtual robot 20 output through the output unit 240 is a real robot.
  • the above-described correction operation may be implemented in a form in which the virtual robot 20 is automatically returned.
  • the control unit 260 integrates a plurality of operation commands input through the operation unit 220 and stores them in the storage unit 200 in the form of one continuous operation command.
  • One continuous operation command is a command defined by a macro that processes several unit operations possible in the actual robot 1 into one continuous operation. For example, to implement the greeting of the real robot 1, the bowing, lifting and shaking hands are integrated into a series of continuous motions in the standing basic posture of the real robot 1. This can be stored in the storage unit 200.
  • the controller 260 may control the operation of the real robot 1 by transmitting one continuous operation command stored in the storage 200 to the real robot 1 through the communication unit 280.
  • the controller 260 transmits one continuous greeting operation command of the real robot 1 to the real robot 1 through the communication unit 280, the real robot 1 continues a series of greeting operations. It can be done with
  • the controller 260 recognizes a real robot to be communicated using a unique identifier or a robot auto recognition code which is distinguished from different real robots, and recognizes the real robot and the communication unit 280. ) To communicate with. This is to prevent confusion in communication with other real robots other than the real robot to communicate with.
  • the controller 260 may group a plurality of real robots.
  • the model and the motion data of the virtual robot modeled through the communication unit 280 may be transmitted to the grouped real robots using the converted robot manipulation command protocol.
  • the grouped real robots are linked and controlled according to the model and motion data of the above-described virtual robot.
  • the output unit 240 outputs the actuator information and sensor information of the real robot 1 received from the real robot 1, the storage unit 200 may store it.
  • the manipulation unit 220 may receive a command for manipulating the virtual robot 20 from the user by using the joint actuator information and the sensor information output through the output unit 240.
  • the actuator information is information about a robot joint which is a basic unit constituting the robot.
  • the sensor information includes a position sensor for detecting the position of the robot, an optical sensor, a gas sensor for detecting the surrounding gas, a temperature sensor for detecting the temperature, a vibration sensor for detecting the vibration, and a pressure sensor for detecting the pressure.
  • it includes information detected from various sensors for detecting a specific situation of the surrounding and outputting the value.
  • the output unit 240 may output error information.
  • the error information may include an error occurring during communication through the communication unit 280, a recognition error of an operation command input through the operation unit 220, and the like.
  • FIG. 3 is a flowchart illustrating a robot synchronization method according to an embodiment of the present invention.
  • the robot synchronizing apparatus 2 stores data in which physical models and operations of the actual robot 1 are defined (300). Subsequently, the robot synchronization device 2 receives a command to manipulate the virtual robot 20 (310). In operation 320, an operation of the virtual robot 20 is modeled based on the pre-stored data according to the input operation command. Subsequently, the robot synchronization device 2 outputs the modeled virtual robot 20 (330).
  • the user is provided with a lively feeling as if the actual robot is operating through the virtual robot, it can increase the interest and fun of the user. Furthermore, non-professional people can easily manipulate the robot without the need for complicated control devices through manipulation using a virtual robot.
  • FIG. 4 is a flowchart illustrating a method in which the virtual robot 20 synchronizes the real robot 1 according to an embodiment of the present invention.
  • the robot synchronization device 2 receives an operation command of the virtual robot 20 (400). Subsequently, the robot synchronizing apparatus 2 converts the robot manipulation command protocol capable of manipulating the actual robot 1 according to the input manipulation instruction (410). In operation 420, the model and motion data of the virtual robot 20 modeled according to the robot manipulation command are transmitted to the actual robot 1 using the converted robot manipulation command protocol. Then, the real robot 1 receives the model and the motion data of the modeled virtual robot 20 and operates in the same manner as the virtual robot 20 by using the same (430).
  • FIG. 5 is a flowchart illustrating how the virtual robot 20 is synchronized by the real robot 1 in accordance with an embodiment of the present invention.
  • the robot synchronization apparatus 2 receives operation data of the actual robot 1 from the real robot 1 (500). In operation 510, operation data of the received actual robot 1 is stored. Subsequently, the robot synchronization device 2 operates the virtual robot 20 using the stored motion data of the actual robot 1 (520). Accordingly, the virtual robot 20 may be operated in the same manner as the movement of the actual robot 1.
  • the user can easily operate the real robot 1 using the virtual robot 20 or use the real robot 1 to virtualize the virtual robot 20 and the real robot 1.
  • the robot 20 can be operated.
  • the robot synchronization device 2 may integrate a plurality of input operation commands and store them in the form of one continuous operation command.
  • the robot synchronizing apparatus 2 may control the operation of the real robot 1 by transmitting one stored operation command to the real robot 1. Accordingly, the user can easily and quickly operate the actual robot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

로봇 동기화 장치 및 그 방법이 개시된다. 본 발명의 일 실시예에 따른 로봇 동기화 장치는 가상 로봇을 조작하는 명령을 입력받아 입력된 조작명령에 따라 실제 로봇의 물리적인 모델 및 동작이 정의된 데이터를 기초로 하여 가상 로봇의 동작을 모델링하고 모델링된 가상 로봇을 출력한다.

Description

로봇 동기화 장치 및 그 방법
본 발명의 일 양상은 로봇에 관한 것으로, 보다 상세하게는 로봇 동기화 기술에 관한 것이다.
로봇(Robot) 산업은 나날이 발전하고 있고 가까운 미래에 국가 경쟁력을 결정짓는 중요한 산업 중 하나가 될 것이라 예상된다. 이에 따라 로봇 산업과 로봇 기술의 대중화를 위한 가정용 로봇을 비롯하여, 교육용 및 완구용 로봇에 대한 관심이 증대되고 있다. 현재 다수의 업체가 산업용 로봇뿐만 아니라 가정, 교육, 완구 로봇을 중심으로 로봇 산업화에 크게 기여하고 있으며 향후에 지능형 로봇에 대한 투자 및 기술 개발이 가속화될 것으로 기대된다.
한편, 로봇을 시뮬레이션할 수 있는 기술들이 제안되고 있다. 일 예로, 소프트웨어 상에서 가상 로봇을 제작하고, 이를 시뮬레이션하면서 실제 로봇의 동작과 비교할 수 있는 도구들이 개시되고 있다.
한편 일반인들은 다양한 디스플레이 장치에 의해 디스플레이되는 영상을 통해 게임 등을 즐기는 것에 익숙해져 있다. 따라서 별도의 복잡한 제어장치를 이용하여 다수의 로봇들을 무선으로 제어하는 것은 일반인에게 쉽지 않은 일이다. 따라서 로봇의 동작과 연동하여 로봇의 동작이 디스플레이되는 영상을 보면서 로봇을 제어할 수 있는 기술이 개발될 필요가 있다.
일 양상에 따라, 실제 로봇의 동작과 연동하여 가상 로봇의 동작을 영상으로 제공할 수 있는 로봇 동기화 장치 및 그 방법을 제안한다. 또한, 가상 로봇 및 실제 로봇을 상호 간에 동기화할 수 있는 로봇 동기화 장치 및 그 방법을 제안한다.
일 양상에 따른 로봇 동기화 장치는, 실제 로봇의 물리적인 모델 및 동작이 정의된 데이터를 저장하는 저장부, 조작부, 출력부 및 저장부에 저장된 데이터를 기초로 하여 조작부를 통해 입력된 조작명령에 따라 가상 로봇의 동작을 모델링하고, 모델링된 가상 로봇을 출력부를 통해 출력하는 제어부를 포함한다.
추가 양상에 따르면, 로봇 동기화 장치는 실제 로봇 또는 서버와 유무선 통신을 수행하는 통신부를 더 포함하며, 제어부는 조작부의 조작명령에 따라 실제 로봇을 조작할 수 있는 로봇 조작명령 프로토콜을 변환하고, 변환된 로봇 조작명령 프로토콜을 이용하여 통신부를 통해 모델링된 가상 로봇의 모델 및 동작 데이터를 실제 로봇에 전송한다.
추가 양상에 따르면, 제어부는 실제 로봇의 동작 결과에 따라 동작된 데이터를 실제 로봇으로부터 통신부를 통해 수신하여 이를 저장부에 저장하고, 저장된 실제 로봇의 동작된 데이터를 이용하여 가상 로봇의 동작을 통제한다.
추가 양상에 따르면, 제어부는 조작부를 통해 입력된 복수의 조작명령을 통합하여 하나의 연속된 조작명령 형태로 저장부에 저장하고, 저장부에 저장된 하나의 연속된 조작명령을 통신부를 통해 실제 로봇에 전송하여 실제 로봇의 동작을 통제한다.
한편 다른 양상에 따른 로봇 동기화 방법은, 실제 로봇의 물리적인 모델 및 동작이 정의된 데이터를 저장하는 단계, 가상 로봇의 조작명령을 입력받는 단계, 입력된 조작명령에 따라 저장된 데이터를 기초로 하여 가상 로봇의 동작을 모델링하는 단계 및 모델링된 가상 로봇을 출력하는 단계를 포함한다.
일 실시예에 따르면, 실제 로봇의 동작과 연동된 가상 로봇을 실시간 출력할 수 있다. 따라서, 사용자는 실시간으로 출력되는 가상 로봇을 통해 마치 실제 로봇을 동작하는 것과 같은 생동감을 제공받으므로, 사용자의 흥미와 재미를 증대시킬 수 있다. 나아가 전문가가 아닌 일반인들도 가상 로봇을 이용한 조작을 통해 별도의 복잡한 제어장치가 필요 없이도 쉽게 로봇을 조정할 수 있다.
나아가, 가상 로봇 및 실제 로봇을 상호 간에 동기화함에 따라, 사용자는 쉽게 가상 로봇을 이용하여 실제 로봇을 동작시키거나 실제 로봇을 이용하여 가상 로봇을 동작시킬 수 있다.
나아가, 복수의 조작명령을 통합하여 하나의 연속된 조작명령 형태로 저장하고, 저장된 하나의 연속된 조작명령을 통해 실제 로봇의 동작을 통제할 수 있다. 이에 따라, 사용자는 실제 로봇을 쉽고 빠르게 조작할 수 있다.
나아가, 가상 로봇의 시뮬레이션을 통해 실제 로봇을 테스트할 수 있으므로, 실제 로봇의 이상으로 인하여 제작이 완료된 상태에서 다시 실제 로봇의 구성요소를 변경할 가능성이 적어진다. 또한, 실제 로봇을 완성하기 전에 실제 로봇의 동작이나 구조에 어떠한 문제가 있는지를 정확하게 파악할 수 있으므로 시간적, 비용적인 측면에서도 효율적이다.
도 1은 본 발명의 일 실시예에 따른 로봇 동기화 장치 및 실제 로봇을 도시한 참조도,
도 2는 본 발명의 일 실시예에 따른 로봇 동기화 장치의 구성도,
도 3은 본 발명의 일 실시예에 따른 로봇 동기화 방법을 도시한 흐름도,
도 4는 본 발명의 일 실시예에 따라 가상 로봇이 실제 로봇을 동기화하는 방법을 도시한 흐름도,
도 5는 본 발명의 일 실시예에 따라 가상 로봇이 실제 로봇에 의해 동기화되는 방법을 도시한 흐름도이다.
◎도면의 주요부분에 대한 부호의 설명◎
1 : 실제 로봇
2 : 로봇 동기화 장치
20 : 가상 로봇
200 : 저장부
220 : 조작부
240 : 출력부
260 : 제어부
280 : 통신부
이하에서는 첨부한 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 로봇 동기화 장치(2) 및 실제 로봇(1)을 도시한 참조도이다.
도 1을 참조하면, 로봇 동기화 장치(2)는 가상 세계(virtual world)에서 가상 로봇(virtual robot)을 실시간으로 디스플레이할 수 있는 모든 전자장치를 포함한다. 예를 들면, 로봇 동기화 장치(2)는 컴퓨터, 노트북, 텔레비전 등일 수 있고, 휴대 가능한 휴대 전화, 개인 휴대정보 단말기(PDA) 및 휴대용 멀티미디어 플레이어(PMP)일 수 있으나, 이에 한정되지 않는다.
본 발명의 로봇 동기화 장치(2)의 가상 로봇 및 실제 세계(real world)의 실제 로봇(real robot)은 상호 연동을 통해 실시간으로 동기화된다. 즉, 가상 로봇의 동작이 실제 로봇의 동작에 실시간으로 반영되거나 실제 로봇의 동작이 가상 로봇의 동작에 실시간으로 반영되어 가상 로봇 및 실제 로봇이 동일한 동작을 수행할 수 있다.
실제 로봇은 실제 세계에서 동작 가능한 모든 형태의 로봇을 포함한다. 이때 로봇은 다수의 액츄에이터(actuator)를 전기적 또는 기계적으로 연결 및 조립하여 구현되는 형태일 수 있다. 예를 들면 모듈러 로봇(Modular robot)일 수 있는데, 모듈러 로봇은 인간형 로봇인 휴머노이드(humanoid), 강아지 로봇 또는 공룡 로봇 등으로 제작되는 교육용, 완구용, 가정용, 게임용 또는 산업용 로봇일 수 있다.
도 2는 본 발명의 일 실시예에 따른 로봇 동기화 장치(2)의 구성도이다.
도 2를 참조하면, 일 실시예에 따른 로봇 동기화 장치(2)는 저장부(200), 조작부(220), 출력부(240) 및 제어부(260)를 포함하며, 통신부(280)를 더 포함할 수 있다.
저장부(200)에는 실제 로봇(1)의 물리적인 모델 및 동작이 정의된 데이터가 저장된다. 또한, 저장부(200)에는 미리 설정된 로봇의 동작 패턴대로 가상 로봇(20)을 구동할 수 있는 프로그램이 저장된다. 전술한 물리적인 모델 및 동작이 정의된 데이터는 가상 로봇(20)의 각 액츄에이터의 위치 값, 가상 로봇(20)의 회전방향 및 회전속도, 각 액츄에이터가 움직일 수 있는 제한각도 등의 제한범위(constraint) 등 가상 로봇(20)의 동작에 필요한 데이터를 포함한다. 저장부(200)는 탈부착 가능한 메모리이거나 외부 데이터베이스 장치로 구현될 수 있다. 나아가 저장부(200)는 전술한 물리적인 모델 및 동작이 정의된 데이터를 암호화된 형태로 저장할 수 있다.
조작부(220)는 사용자가 조작할 수 있는 모든 입력 인터페이스를 포함한다. 예를 들면, 조작부(220)는 좌우상하 등의 방향키 및 확인키를 포함하는 키 입력형태일 수 있다. 또는 조작부(220)는 조이스틱 형태이거나 터치 센서를 통한 터치 신호를 감지할 수 있는 터치 패드 형태일 수도 있다. 나아가, 조작부(220)는 마우스, 포인팅 스틱, 도형 입력판(태블릿), 트랙볼, 라이트 펜, 도형 처리 평판(그래픽스 태블릿) 형태일 수도 있다. 한편, 조작부(220)는 휴대 가능한 전자기기의 입력 장치(input device) 형태로서 전술한 입력 인터페이스들이 내장된 형태일 수 있다.
출력부(240)는 제어부(260)의 제어신호에 따라 가상 로봇(20)을 화면에 출력한다. 이때 출력부(240)는 3차원 동영상으로 가상 로봇(20)을 출력할 수 있다. 나아가, 출력부(240)는 빛, 경고음 등을 외부로 각각 출력할 수 있는데, 이를 위해 출력부(240)는 발광다이오드(LED), 부저(buzzer) 및 액정표시장치(LCD) 등을 포함할 수 있다.
출력부(240)는 전술한 터치 센서를 포함함에 따라, 조작부(220)와 일체로 구성될 수 있다. 이 경우 출력부(240)는 터치 센서를 통한 터치 신호에 따라 디스플레이 기능들을 제어하기 위한 인터페이스를 제공한다. 예를 들어, 화면 상에서 가상 로봇(20)의 동작을 수행하거나 동작과 연관된 명령들을 전달하는 데 사용될 수 있다. 한편, 통신부(280)는 실제 로봇(1) 또는 서버(미도시)와 유무선 통신을 수행한다.
제어부(260)는 로봇 동기화 장치(2)의 전반적인 동작을 제어하는데, 전술한 저장부(200), 조작부(220), 출력부(240) 및 통신부(280)를 제어한다. 이때, 제어부(260)는 저장부(200)에 저장된 데이터를 기초로 하여 조작부(220)를 통해 입력된 조작명령에 따라 가상 로봇(20)의 동작을 모델링(modeling)한다. 그리고, 모델링된 가상 로봇(20)을 출력부(240)를 통해 출력한다. 조작명령은 조작부(220)를 통해 사용자로부터 조작 가능한 모든 형태의 명령을 포함하는데, 예를 들면, 가상 로봇(20)의 보행 명령, 보행 외 명령 또는 관절 단위 명령일 수 있다.
제어부(26)의 모델링 작업은 실제 로봇(1)을 가상의 공간에 가상 로봇(20) 형태로 형상화하는 작업이다. 예를 들면, 제어부(260)는 조작부(220)로부터 입력된 조작명령에 따라 저장부(200)에 저장된 실제 로봇(1)의 동작 데이터를 참조하여 가상 로봇(20)의 회전방향 및 회전속도를 계산할 수 있다. 그리고, 가상 로봇(20)의 액츄에이터를 구동할 때의 이동각도를 계산할 수 있다. 이어서, 연산된 결과에 따라 가상 로봇(20)을 모델링할 수 있다.
이때 제어부(26)는 가상 로봇(20)이 출력부(240)의 화면 상에서 해당되는 위치로 이동하거나 액츄에이터가 동작될 수 있도록, 화면에 적합하게 가상 로봇(20)을 모델링한다. 예를 들면 가상 로봇(20)의 회전방향, 회전속도 및 이동각도를 화면에 적합하게 계산할 수 있다. 가령, 조작부(220)를 통해 입력된 조작명령이 가상 로봇(20)의 보행 명령에 해당되는 경우, 제어부(26)는 화면 상의 가상 로봇(20)의 발 높이, 보폭, 각도 및 속도를 형성하는 회전방향, 회전속도 및 이동각도를 계산한다. 그리고, 계산된 결과에 따라 출력부(240)를 통해 가상 로봇(20)을 출력한다.
일 실시예에 따르면, 제어부(260)는 조작부(220)의 조작명령에 따라 실제 로봇(1)을 조작할 수 있는 로봇 조작명령 프로토콜을 변환한다. 이때 로봇 조작명령 프로토콜은 로봇 동기화 장치(2)의 가상 로봇(20)과 실제 로봇(1) 간 또는 가상 로봇(20)과 서버(미도시) 간의 통신을 가능하게 하는 파라미터를 정의한다. 이어서, 제어부(260)는 변환된 로봇 조작명령 프로토콜을 이용하여, 모델링된 가상 로봇(20)의 모델 및 동작 데이터를 통신부(280)를 통해 실제 로봇(1)에 전송한다. 이때 실제 로봇(1)은 가상 로봇(20)의 모델 및 동작 데이터를 이용하여 실시간으로 동작될 수 있다.
나아가, 제어부(260)는 실제 로봇(1)의 동작 결과에 따라 동작된 데이터를 실제 로봇(1)으로부터 통신부(280)를 통해 수신하여 이를 저장부(200)에 저장한다. 그리고, 저장된 실제 로봇(1)의 동작된 데이터를 이용하여 출력부(240)를 통해 출력되고 있는 가상 로봇(20)의 동작을 통제한다. 이에 따라, 로봇 동기화 장치(2)는 실제 로봇(1)의 동작 결과를 출력부(240)를 통해 출력되는 가상 로봇(20)의 동작에 반영할 수 있다.
실제 로봇(1)의 동작 결과를 반영하는 로봇 동기화 장치(2)의 일 실시예를 들면, 로봇 동기화 장치(2)가 통신부(280)를 통해 실제 로봇(1)의 물리적인 자세(서 있거나 앉아 있는 자세 등)에 대한 데이터를 수신하면, 제어부(260)를 통해 실제 로봇(1)의 물리적인 자세를 인식하고, 이에 따라 출력부(240)를 통해 출력되고 있는 가상 로봇(20)을 실제 로봇(1)의 물리적인 자세와 동일하게 수정할 수 있다. 전술한 수정 작업은 가상 로봇(20)이 자동으로 복귀되는 형태로 구현될 수 있다.
한편, 일 실시예에 따르면 제어부(260)는 조작부(220)를 통해 입력된 복수의 조작명령을 통합하여 하나의 연속된 조작명령 형태로 저장부(200)에 저장한다. 하나의 연속된 조작명령은 실제 로봇(1)에서 가능한 여러 개의 단위 동작들을 하나의 연속된 동작으로 처리하는 매크로(macro)로 정의된 명령이다. 예를 들면, 실제 로봇(1)의 인사하는 동작을 구현하기 위해, 실제 로봇(1)의 서 있는 기본 자세에서 고개를 숙이는 자세, 고개를 드는 자세 및 양손을 흔드는 자세를 일련의 연속동작으로 통합하여 이를 저장부(200)에 저장할 수 있다.
이 경우, 제어부(260)는 저장부(200)에 저장된 하나의 연속된 조작명령을 통신부(280)를 통해 실제 로봇(1)에 전송하여 실제 로봇(1)의 동작을 통제할 수 있다. 예를 들면, 제어부(260)가 통신부(280)를 통해 실제 로봇(1)의 하나의 연속된 인사 동작명령을 실제 로봇(1)에 전송하면, 실제 로봇(1)이 일련의 인사 동작을 연속으로 수행할 수 있다.
한편, 본 발명의 일 실시예에 따르면, 제어부(260)는 서로 다른 실제 로봇과 구별되는 고유 식별자 또는 로봇 자동인식 코드를 이용하여 통신하고자 하는 실제 로봇을 인식하고, 인식된 실제 로봇과 통신부(280)를 통해 통신할 수 있다. 이는 통신하고자 하는 실제 로봇이 아닌 다른 실제 로봇과 통신되는 혼돈을 방지하기 위함이다.
일 실시예에 따른 제어부(260)는 복수의 실제 로봇을 그룹화할 수 있다. 그리고, 변환된 로봇 조작명령 프로토콜을 이용하여 통신부(280)를 통해 모델링된 가상 로봇의 모델 및 동작 데이터를 그룹화된 복수의 실제 로봇에 전송할 수 있다. 이때 그룹화된 복수의 실제 로봇은 전술한 가상 로봇의 모델 및 동작 데이터에 따라 연동되어 통제되게 된다.
한편, 본 발명의 일 실시예에 따른 출력부(240)는 실제 로봇(1)으로부터 수신한 실제 로봇(1)의 액츄에이터 정보 및 센서정보를 출력하고, 저장부(200)는 이를 저장할 수 있다. 그리고, 조작부(220)는 출력부(240)를 통해 출력된 관절 액츄에이터 정보 및 센서정보를 이용하여 사용자로부터 가상 로봇(20)을 조작하는 명령을 입력받을 수 있다.
이때 액츄에이터 정보는 로봇을 구성하는 기본단위인 로봇 관절에 대한 정보이다. 센서정보는 로봇의 위치를 감지하는 위치 감지센서, 광센서(optical sensor), 주변의 가스를 감지하는 가스센서, 온도를 감지하는 온도센서, 진동을 감지하는 진동센서, 압력을 감지하는 압력센서 등과 같이 주변의 특정 상황을 감지하여 그 값을 출력하는 각종 센서로부터 감지된 정보를 포함한다.
나아가 출력부(240)는 오류 정보를 출력할 수 있다. 오류 정보는 통신부(280)를 통한 통신시에 발생한 오류, 조작부(220)를 통한 입력된 조작명령의 인식 오류 등을 포함할 수 있다.
도 3은 본 발명의 일 실시예에 따른 로봇 동기화 방법을 도시한 흐름도이다.
도 3을 참조하면, 로봇 동기화 장치(2)는 실제 로봇(1)의 물리적인 모델 및 동작이 정의된 데이터를 저장한다(300). 이어서, 로봇 동기화 장치(2)는 가상 로봇(20)을 조작하는 명령을 입력받는다(310). 그리고, 입력된 조작명령에 따라, 기저장된 데이터를 기초로 하여 가상 로봇(20)의 동작을 모델링한다(320). 이어서, 로봇 동기화 장치(2)는 모델링된 가상 로봇(20)을 출력한다(330).
전술한 로봇 동기화 방법에 따르면, 사용자는 가상 로봇을 통해 마치 실제 로봇을 동작하는 것과 같은 생동감을 제공받으므로, 사용자의 흥미와 재미를 증대시킬 수 있다. 나아가 전문가가 아닌 일반인들도 가상 로봇을 이용한 조작을 통해 별도의 복잡한 제어장치가 필요 없이도 쉽게 로봇을 조정할 수 있다.
도 4는 본 발명의 일 실시예에 따라 가상 로봇(20)이 실제 로봇(1)을 동기화하는 방법을 도시한 흐름도이다.
도 4를 참조하면, 로봇 동기화 장치(2)는 가상 로봇(20)의 조작명령을 입력받는다(400). 이어서, 로봇 동기화 장치(2)는 입력된 조작명령에 따라 실제 로봇(1)을 조작할 수 있는 로봇 조작명령 프로토콜을 변환한다(410). 그리고, 변환된 로봇 조작명령 프로토콜을 이용하여 로봇 조작명령에 따라 모델링된 가상 로봇(20)의 모델 및 동작 데이터를 실제 로봇(1)에 전송한다(420). 그러면, 실제 로봇(1)은 모델링된 가상 로봇(20)의 모델 및 동작 데이터를 수신하고 이를 이용하여 가상 로봇(20)과 동일하게 동작한다(430).
도 5는 본 발명의 일 실시예에 따라 가상 로봇(20)이 실제 로봇(1)에 의해 동기화되는 방법을 도시한 흐름도이다.
도 5를 참조하면, 로봇 동기화 장치(2)는 실제 로봇(1)의 동작 데이터를 실제 로봇(1)으로부터 수신한다(500). 그리고, 수신된 실제 로봇(1)의 동작 데이터를 저장한다(510). 이어서, 로봇 동기화 장치(2)는 저장된 실제 로봇(1)의 동작 데이터를 이용하여 가상 로봇(20)을 동작시킨다(520). 이에 따라, 가상 로봇(20)은 실제 로봇(1)의 움직임과 동일하게 동작될 수 있다.
이에 따라, 가상 로봇(20) 및 실제 로봇(1)을 상호 간에 동기화함에 따라, 사용자는 쉽게 가상 로봇(20)을 이용하여 실제 로봇(1)을 동작시키거나 실제 로봇(1)을 이용하여 가상 로봇(20)을 동작시킬 수 있다.
한편, 로봇 동기화 장치(2)는 입력된 복수의 조작명령을 통합하여 하나의 연속된 조작명령 형태로 저장할 수 있다. 이때 로봇 동기화 장치(2)는 저장된 하나의 연속된 조작명령을 실제 로봇(1)에 전송하여 실제 로봇(1)의 동작을 통제할 수 있다. 이에 따라, 사용자는 실제 로봇을 쉽고 빠르게 조작할 수 있다.
이제까지 본 발명에 대하여 그 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (12)

  1. 실제 로봇의 물리적인 모델 및 동작이 정의된 데이터를 저장하는 저장부;
    조작부;
    출력부;
    상기 실제 로봇 또는 서버와 유무선 통신을 수행하는 통신부; 및
    상기 저장부에 저장된 데이터를 기초로 하여 상기 조작부를 통해 입력된 조작명령에 따라 상기 실제 로봇의 형상과 동작을 갖는 가상 로봇의 크기 및 동작을 모델링하고, 상기 모델링된 가상 로봇을 상기 출력부를 통해 출력하며, 상기 통신부를 통한 실제 로봇과의 통신시에 상기 실제 로봇의 동작대로 상기 가상 로봇의 동작을 통제하는 제어부;
    를 포함하는 휴대형 로봇 동기화 장치.
  2. 제 1 항에 있어서,
    상기 제어부는 상기 조작부의 조작명령에 따라 상기 실제 로봇을 조작할 수 있는 로봇 조작명령 프로토콜을 변환하고, 상기 변환된 로봇 조작명령 프로토콜을 이용하여 상기 통신부를 통해 상기 모델링된 가상 로봇의 모델 및 동작 데이터를 상기 실제 로봇에 전송하는 휴대형 로봇 동기화 장치.
  3. 제 2 항에 있어서, 상기 제어부는
    상기 실제 로봇의 동작 결과에 따라 동작된 데이터를 상기 실제 로봇으로부터 상기 통신부를 통해 수신하여 이를 상기 저장부에 저장하고, 상기 저장된 실제 로봇의 동작된 데이터를 이용하여 상기 가상 로봇의 동작을 통제하는 휴대형 로봇 동기화 장치.
  4. 제 2 항에 있어서, 상기 제어부는,
    상기 조작부를 통해 입력된 복수의 조작명령을 통합하여 하나의 연속된 조작명령 형태로 상기 저장부에 저장하고, 상기 저장부에 저장된 하나의 연속된 조작명령을 상기 통신부를 통해 상기 실제 로봇에 전송하여 상기 실제 로봇의 동작을 통제하는 휴대형 로봇 동기화 장치.
  5. 제 2 항에 있어서, 상기 제어부는
    서로 다른 실제 로봇과 구별되는 고유 식별자 또는 로봇 자동인식 코드를 이용하여 통신하고자 하는 실제 로봇을 인식하고, 상기 인식된 실제 로봇과 상기 통신부를 통해 통신하는 휴대형 로봇 동기화 장치.
  6. 제 2 항에 있어서, 상기 제어부는,
    복수의 실제 로봇을 그룹화하고, 상기 변환된 로봇 조작명령 프로토콜을 이용하여 상기 통신부를 통해 상기 모델링된 가상 로봇의 모델 및 동작 데이터를 상기 그룹화된 복수의 실제 로봇에 전송하여 상기 그룹화된 복수의 실제 로봇을 통제하는 휴대형 로봇 동기화 장치.
  7. 제 1 항에 있어서, 상기 출력부는,
    상기 모델링된 가상 로봇을 3차원 동영상으로 출력하는 휴대형 로봇 동기화 장치.
  8. 제 1 항에 있어서, 상기 저장부는,
    탈부착 가능한 메모리이거나 외부 데이터베이스 장치인 휴대형 로봇 동기화 장치.
  9. 실제 로봇의 물리적인 모델 및 동작이 정의된 데이터를 저장하는 단계;
    상기 실제 로봇의 형상과 동작을 갖는 가상 로봇을 조작하는 명령을 입력받는 단계;
    상기 입력된 조작명령에 따라 상기 저장된 데이터를 기초로 하여 상기 가상 로봇의 크기 및 동작을 모델링하는 단계;
    상기 모델링된 가상 로봇을 출력하는 단계; 및
    실제 로봇과의 통신을 통해 상기 실제 로봇의 동작대로 상기 가상 로봇의 동작을 통제하는 단계;
    를 포함하는 휴대형 로봇 동기화 장치를 이용한 로봇 동기화 방법.
  10. 제 9 항에 있어서,
    상기 입력된 조작명령에 따라 상기 실제 로봇을 조작할 수 있는 로봇 조작명령 프로토콜을 변환하는 단계; 및
    상기 변환된 로봇 조작명령 프로토콜을 이용하여 상기 모델링된 가상 로봇의 모델 및 동작 데이터를 상기 실제 로봇에 전송하는 단계를 더 포함하는 휴대형 로봇 동기화 장치를 이용한 로봇 동기화 방법.
  11. 제 10 항에 있어서, 상기 가상 로봇의 동작을 통제하는 단계는,
    상기 실제 로봇의 동작 결과에 따라 동작된 데이터를 상기 실제 로봇으로부터 수신하여 이를 저장하는 단계; 및
    상기 저장된 실제 로봇의 동작된 데이터를 이용하여 상기 가상 로봇의 동작을 통제하는 단계를 포함하는 휴대형 로봇 동기화 장치를 이용한 로봇 동기화 방법.
  12. 제 9 항에 있어서,
    상기 입력된 복수의 조작명령을 통합하여 하나의 연속된 조작명령 형태로 저장하는 단계; 및
    상기 저장된 하나의 연속된 조작명령을 상기 실제 로봇에 전송하여 상기 실제 로봇의 동작을 통제하는 단계를 더 포함하는 휴대형 로봇 동기화 장치를 이용한 로봇 동기화 방법.
PCT/KR2010/008879 2009-12-14 2010-12-13 로봇 동기화 장치 및 그 방법 WO2011074838A2 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2009-0123954 2009-12-14
KR1020090123954A KR100968944B1 (ko) 2009-12-14 2009-12-14 로봇 동기화 장치 및 그 방법

Publications (2)

Publication Number Publication Date
WO2011074838A2 true WO2011074838A2 (ko) 2011-06-23
WO2011074838A3 WO2011074838A3 (ko) 2011-11-03

Family

ID=42645346

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/008879 WO2011074838A2 (ko) 2009-12-14 2010-12-13 로봇 동기화 장치 및 그 방법

Country Status (5)

Country Link
US (1) US8706295B2 (ko)
JP (1) JP2011121171A (ko)
KR (1) KR100968944B1 (ko)
CN (1) CN102156452A (ko)
WO (1) WO2011074838A2 (ko)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
JP5574865B2 (ja) * 2010-01-29 2014-08-20 株式会社セガ トイズ 玩具セット、ゲーム制御プログラム
JP2013058059A (ja) * 2011-09-08 2013-03-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
KR101416343B1 (ko) * 2012-04-06 2014-08-06 (주)에프에스알엔티 가상 로봇을 포함하는 이동통신단말장치 및 상기 가상 로봇과 동기화되는 애완 로봇
WO2013147360A1 (ko) * 2012-03-30 2013-10-03 Lee Seongjong 가상로봇을 포함하는 이동통신단말장치 및 상기 가상로봇과 동기화되는 애완로봇
KR101358585B1 (ko) * 2012-03-30 2014-02-04 이성종 교감형 로봇 및 상기 로봇과 통신하는 이동통신단말장치
JPWO2014013605A1 (ja) * 2012-07-20 2016-06-30 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
JP5716769B2 (ja) * 2013-02-21 2015-05-13 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
CN103213115A (zh) * 2013-04-15 2013-07-24 李博 手机手柄式状态模拟机器人
KR101475210B1 (ko) * 2013-10-16 2014-12-30 삼성중공업 주식회사 가상로봇 시뮬레이션 장치
CN104240580A (zh) * 2013-12-18 2014-12-24 南京旭上数控技术有限公司 一种工业机器人教学装置
US20170043478A1 (en) * 2015-08-14 2017-02-16 Sphero, Inc. Data exchange system
JP6754364B2 (ja) * 2015-08-25 2020-09-09 川崎重工業株式会社 ロボットシステム
US11112776B2 (en) 2016-09-26 2021-09-07 Fanuc America Corporation Automatic synchronization of press machines and robots
JP2018176387A (ja) * 2017-04-19 2018-11-15 富士ゼロックス株式会社 ロボット装置及びプログラム
JP2018176386A (ja) * 2017-04-19 2018-11-15 富士ゼロックス株式会社 情報処理装置及びプログラム
US11385613B2 (en) 2017-05-03 2022-07-12 Siemens Aktiengesellschaft Process image within controllers enabling visibility and accessibility of real world objects
US11498206B2 (en) 2017-12-14 2022-11-15 Sony Interactive Entertainment Inc. Entertainment system, robot device, and server device
CN108356796A (zh) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 一种可适配多种工业机器人的示教系统
CN108356817A (zh) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 一种基于3d模型的示教方法
CN109664293A (zh) * 2018-01-20 2019-04-23 鲁东大学 基于虚拟仿真技术的操作臂远程监控系统
KR101912096B1 (ko) 2018-05-10 2018-12-28 주식회사비엠테크 화재/재난 상황 정찰로봇
JP7298860B2 (ja) * 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
US11135720B2 (en) * 2018-10-23 2021-10-05 Siemens Industry Software Ltd. Method and system for programming a cobot for a plurality of industrial cells
CN110869881A (zh) * 2018-10-31 2020-03-06 深圳市大疆创新科技有限公司 虚拟交互的方法、实体机器人、显示终端及系统
JP7456165B2 (ja) * 2020-01-16 2024-03-27 オムロン株式会社 制御装置
CN113878595B (zh) * 2021-10-27 2022-11-01 上海清宝引擎机器人有限公司 基于树莓派的仿人实体机器人系统
CN116619384A (zh) * 2023-07-03 2023-08-22 武昌首义学院 一种智能机器人远程管理系统
CN117021118B (zh) * 2023-10-08 2023-12-15 中北大学 一种并联机器人数字孪生轨迹误差动态补偿方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330493B1 (en) * 1999-09-16 2001-12-11 Fanuc Ltd. Control system for synchronously cooperative operation of plurality of robots
US20070112463A1 (en) * 2005-11-17 2007-05-17 Roh Myung C Robot server for controlling robot, system having the same for providing content, and method thereof
KR100758289B1 (ko) * 2006-05-15 2007-09-12 주식회사 윌링스 고속 네트워크를 이용한 로봇 제어 시스템 및 제어 방법

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
WO1997014102A1 (en) * 1995-10-13 1997-04-17 Na Software, Inc. Creature animation and simulation technique
US6751526B2 (en) * 1997-08-22 2004-06-15 Sony Corporation Method for describing robot structure and part of robot
JPH1158274A (ja) * 1997-08-22 1999-03-02 Sony Corp ロボット装置の制御システム及びロボット装置の制御方法
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
US6560511B1 (en) * 1999-04-30 2003-05-06 Sony Corporation Electronic pet system, network system, robot, and storage medium
CN1151016C (zh) * 1999-11-30 2004-05-26 索尼公司 机器人设备及其控制方法,和机器人性格判别方法
US6845297B2 (en) * 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
AU2001292634A1 (en) * 2000-09-13 2002-03-26 University Of Washington Time domain passivity control of haptic interfaces
JP4765155B2 (ja) * 2000-09-28 2011-09-07 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
JP4670136B2 (ja) * 2000-10-11 2011-04-13 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
US6697708B2 (en) * 2000-10-11 2004-02-24 Sony Corporation Robot apparatus and robot apparatus motion control method
EP1254688B1 (en) * 2001-04-30 2006-03-29 Sony France S.A. autonomous robot
JP2002337079A (ja) * 2001-05-11 2002-11-26 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
EP1262844A1 (en) * 2001-06-01 2002-12-04 Sony International (Europe) GmbH Method for controlling a man-machine-interface unit
JP3673749B2 (ja) * 2001-11-12 2005-07-20 ファナック株式会社 シミュレーション装置
JP2003334779A (ja) * 2002-05-13 2003-11-25 Canon Inc 動作コード発生方法
NO317898B1 (no) * 2002-05-24 2004-12-27 Abb Research Ltd Fremgangsmate og system for a programmere en industrirobot
JP3932449B2 (ja) * 2002-06-19 2007-06-20 財団法人大阪産業振興機構 ロボット及びロボット操作システム
EP2070487B1 (en) * 2002-08-13 2014-03-05 NeuroArm Surgical, Ltd. Microsurgical robot system
JP2004130406A (ja) * 2002-10-08 2004-04-30 Incs Inc 人型ロボット用コントローラ
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE10354642A1 (de) * 2003-11-22 2005-06-16 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zum Programmieren eines Industrieroboters
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
WO2006062948A2 (en) * 2004-12-06 2006-06-15 Honda Motor Co., Ltd. Interface for robot motion control
JP2007015037A (ja) * 2005-07-05 2007-01-25 Sony Corp ロボットのモーション編集装置及びモーション編集方法、コンピュータ・プログラム、並びにロボット装置
US7688016B2 (en) * 2005-09-28 2010-03-30 Canadian Space Agency Robust impedance-matching of manipulators interacting with unknown environments
KR20070052641A (ko) * 2005-11-17 2007-05-22 한국전자통신연구원 로봇 제어를 위한 로봇 서버, 이를 포함하는 컨텐츠 제공시스템 및 그 방법
JP4153528B2 (ja) * 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP2008254074A (ja) * 2007-03-30 2008-10-23 Sega Corp ロボットのモーション編集装置及びそのプログラム
US20090234788A1 (en) * 2007-03-31 2009-09-17 Mitchell Kwok Practical Time Machine Using Dynamic Efficient Virtual And Real Robots
FR2918477A1 (fr) * 2007-07-04 2009-01-09 Aldebaran Robotics Soc Par Act Procede d'edition de mouvements d'un robot
US20090082879A1 (en) * 2007-09-20 2009-03-26 Evolution Robotics Transferable intelligent control device
KR101178847B1 (ko) * 2008-12-08 2012-08-31 한국전자통신연구원 가상공간과 연계된 다중 로봇 제어 장치 및 방법
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330493B1 (en) * 1999-09-16 2001-12-11 Fanuc Ltd. Control system for synchronously cooperative operation of plurality of robots
US20070112463A1 (en) * 2005-11-17 2007-05-17 Roh Myung C Robot server for controlling robot, system having the same for providing content, and method thereof
KR100758289B1 (ko) * 2006-05-15 2007-09-12 주식회사 윌링스 고속 네트워크를 이용한 로봇 제어 시스템 및 제어 방법

Also Published As

Publication number Publication date
US8706295B2 (en) 2014-04-22
KR100968944B1 (ko) 2010-07-14
WO2011074838A3 (ko) 2011-11-03
JP2011121171A (ja) 2011-06-23
US20120150352A1 (en) 2012-06-14
CN102156452A (zh) 2011-08-17

Similar Documents

Publication Publication Date Title
WO2011074838A2 (ko) 로봇 동기화 장치 및 그 방법
WO2022166264A1 (zh) 作业机械的模拟训练系统、方法、装置和电子设备
CN104002296B (zh) 机器人模拟器、机器人示教装置以及机器人示教方法
CN104602868B (zh) 用于机器人训练的用户接口
WO2011111910A1 (en) Telepresence robot, telepresence system comprising the same and method for controlling the same
WO2014010004A1 (ja) 入力装置、情報処理システム、情報処理装置、および情報処理方法
CN104765443B (zh) 影像式虚拟互动装置及其实施方法
CN103921265A (zh) 机器人示教系统和机器人示教方法
WO2018062679A2 (ko) 기초 응급 구조 훈련 시뮬레이션 시스템
JP3785349B2 (ja) シミュレーション装置
US20190366554A1 (en) Robot interaction system and method
Avizzano et al. A multi-finger haptic interface for visually impaired people
CN1991691B (zh) 交互式控制平台系统
WO2019048300A1 (en) TESTIBLE INTERACTIVE BODY GOODS
CN109213306A (zh) 一种机器人远程控制平台及其设计方法
Overholt Musical interaction design with the create usb interface
CN112947238B (zh) 一种基于vr技术的工业机器人实时控制系统
KR100536537B1 (ko) 로보트의구조기술방법과로보트장치및로보트의구성부품
Vamos et al. Collaboration in virtual reality of intelligent agents
KR20150124009A (ko) 손동작을 이용한 로봇 코칭 시스템
KR20200101300A (ko) 증강현실과 연계 동작 가능한 스마트 코딩블록 시스템
JP4569653B2 (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム
KR20150014127A (ko) 수술 시뮬레이팅 장치
Vicaria et al. Academical and research wiimote applications
CN117251058B (zh) 一种多信息体感交互系统的控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10837834

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10837834

Country of ref document: EP

Kind code of ref document: A2