KR20210041048A - Data generation device, data generation method, data generation program and remote operation system - Google Patents

Data generation device, data generation method, data generation program and remote operation system Download PDF

Info

Publication number
KR20210041048A
KR20210041048A KR1020217006823A KR20217006823A KR20210041048A KR 20210041048 A KR20210041048 A KR 20210041048A KR 1020217006823 A KR1020217006823 A KR 1020217006823A KR 20217006823 A KR20217006823 A KR 20217006823A KR 20210041048 A KR20210041048 A KR 20210041048A
Authority
KR
South Korea
Prior art keywords
robot
actual
model
surrounding object
data
Prior art date
Application number
KR1020217006823A
Other languages
Korean (ko)
Other versions
KR102518766B1 (en
Inventor
야스히코 하시모토
마사유키 카몬
시게츠구 타나카
요시히코 마루야마
Original Assignee
카와사키 주코교 카부시키 카이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019105754A external-priority patent/JP7281349B2/en
Application filed by 카와사키 주코교 카부시키 카이샤 filed Critical 카와사키 주코교 카부시키 카이샤
Publication of KR20210041048A publication Critical patent/KR20210041048A/en
Application granted granted Critical
Publication of KR102518766B1 publication Critical patent/KR102518766B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Abstract

데이터 생성 장치는, 표시기에 표시되는 화상의 생성에 사용되는 적어도 일부의 데이터를 생성하는 데이터 생성 장치로서, 표시기에는, 실제 작업 공간을 모델화한 작업 공간 모델이 동영상으로서 표시되고, 작업 공간 모델은, 실제 로봇을 모델화한 로봇 모델과, 실제 로봇의 주변에 있는 실제 주변물을 모델화한 주변물 모델을 포함하고, 로봇 모델은, 조작기에 대한 조작자의 조작에 따라 동작하도록 작성되고, 데이터 생성 장치는, 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득부와, 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 주변물의 상태를 예측하는 한편, 예측한 결과를, 표시기에 표시되는 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측부를 구비한다.The data generating device is a data generating device that generates at least a portion of data used to generate an image displayed on a display, wherein a working space model modeling an actual working space is displayed as a moving picture, and the working space model, A robot model modeling an actual robot and a surrounding object model modeling an actual surrounding object around an actual robot. The robot model is created to operate according to the operator's manipulation of the manipulator, and the data generating device, A state information acquisition unit that acquires state information indicating the state of the surrounding objects, and predicts the state of the surrounding objects by a predetermined time after the current point, based on the state information, and displays the predicted result as a surrounding object model displayed on the display. It includes a prediction unit that generates data from the surrounding object model used for creation.

Description

데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템Data generation device, data generation method, data generation program and remote operation system

본 발명은, 조작자가 네트워크를 통해 원격지의 로봇을 원격 조작하는 시스템에서 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템에 관한 것이다.The present invention relates to a data generating apparatus, a data generating method, a data generating program, and a remote operation system in a system in which an operator remotely manipulates a remote robot through a network.

종래에, 조작자가 네트워크를 통해 원격지의 로봇을 원격 조작하는 시스템이 알려져 있다. 이러한 시스템에서는, 조작자가 조작하는 조작 장치와 로봇 사이에서 통신 지연이 발생할 우려가 있다. 예를 들어, 특허문헌 1에는, 슬레이브 장치와 마스터 장치 사이의 통신 지연을 파악할 수 있는 원격 조작 시스템이 개시되어 있다.BACKGROUND ART Conventionally, a system in which an operator remotely operates a robot at a remote location through a network is known. In such a system, there is a concern that a communication delay may occur between the robot and the operating device operated by the operator. For example, Patent Document 1 discloses a remote operation system capable of grasping a communication delay between a slave device and a master device.

특허문헌 1에 개시된 원격 조작 시스템에서는, 마스터 장치와 슬레이브 장치를 구비하고 있다. 슬레이브 장치는, 마스터 장치로부터 보내진 조작자의 조작에 대응하는 조작 정보에 따라 동작하는 슬레이브 로봇을 구비한다. 슬레이브 로봇은, 자신의 작업 환경을 촬상하는 촬상 장치를 구비하고 있고, 슬레이브 장치는, 작업 환경을 순차적으로 촬영하고, 촬영한 실제 화상을 마스터 장치로 송신한다. 마스터 장치는, 슬레이브 로봇에 보내진 조작 정보에 기초하여 동작 시뮬레이션을 수행하는 시뮬레이터를 구비하고 있고, 슬레이브 장치로부터 보내진 실제 화상과 동작 시뮬레이션을 통해 얻어진 시뮬레이션 화상을 합성함으로써 표시 화상을 생성한다. 표시 화상에서 실제 화상과 시뮬레이션 화상의 합성의 비율은, 마스터 장치와 슬레이브 장치 사이의 통신 지연에 따라 변하고 있다. 구체적으로는, 통신 지연이 큰 경우는, 시뮬레이션 화상의 비율을 크게 하여 표시 화상이 생성된다. 실제 화상이, 슬레이브 로봇의 상태와 함께 작업 환경의 배경 등에 대해서도 비춰넣는 화상인 반면, 시뮬레이션 화상은, 슬레이브 로봇의 상황만을 표시하는 화상이다. 따라서, 조작자가, 표시 화상에서 예를 들어 작업 환경의 배경이 짙게 비춰지는지 등으로부터 통신 지연이 어느 정도 발생하였는가를 용이하게 파악하는 것을 가능하게 하고 있다.The remote operation system disclosed in Patent Document 1 includes a master device and a slave device. The slave device includes a slave robot that operates according to operation information corresponding to an operator's operation sent from the master device. The slave robot is provided with an imaging device that captures its own work environment, and the slave device sequentially captures the work environment and transmits the captured actual image to the master device. The master device includes a simulator that performs motion simulation based on operation information sent to the slave robot, and generates a display image by synthesizing an actual image sent from the slave device with a simulation image obtained through motion simulation. The ratio of the synthesis of the actual image and the simulated image in the display image varies depending on the communication delay between the master device and the slave device. Specifically, when the communication delay is large, a display image is generated by increasing the ratio of the simulated image. The actual image is an image that is projected not only to the state of the slave robot, but also to the background of the work environment, while the simulated image is an image that displays only the state of the slave robot. Accordingly, it is possible for the operator to easily grasp how much communication delay has occurred from whether the background of the work environment is darkly lit in the display image, for example.

일본 공개특허 특개2015-47666호 공보Japanese Unexamined Patent Application Publication No. 2015-47666

그러나, 특허문헌 1의 시스템에서는, 조작자는, 실제 화상과 시뮬레이션 화상의 합성 비율로부터 통신 지연의 정도를 판단할 필요가 있고, 또한 통신 지연이 크다고 판단한 경우에는, 마스터 장치에 주어지는 조작량을 줄이는 등의 대응을 적절히 할 필요가 있다. 따라서, 상술한 시스템에서는, 조작자는, 로봇의 조작 이외에 통신 지연에 따른 상황 판단을 수행할 필요가 있어서, 조작자가 로봇의 작업에 집중할 수 없는 우려가 있다.However, in the system of Patent Document 1, the operator needs to determine the degree of communication delay from the combination ratio of the actual image and the simulated image, and when it is determined that the communication delay is large, the amount of operation given to the master device is reduced. You need to respond appropriately. Therefore, in the above-described system, the operator needs to perform a situational determination according to communication delay in addition to the operation of the robot, and there is a fear that the operator cannot concentrate on the operation of the robot.

따라서, 본 발명은, 조작자가 조작하는 조작 단말과 로봇 사이의 통신 지연이 조작자의 조작에 주는 영향을 억제할 수 있는 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템을 제공하는 것을 목적으로 한다.Accordingly, it is an object of the present invention to provide a data generating device, a data generating method, a data generating program, and a remote operation system capable of suppressing the influence of a communication delay between an operator operated terminal and a robot on the operator's operation. It is done.

상기의 과제를 해결하기 위하여, 본 발명의 일 측면에 따른 데이터 생성 장치는, 조작자의 조작을 접수하는 조작기 및 상기 조작자가 눈으로 확인 가능한 표시기를 구비하는 조작 단말과, 실제 작업 공간 내에 설치되고, 상기 조작 단말과 데이터 통신 가능한 네트워크를 통해 접속된 실제 로봇을 구비하는 원격 조작 시스템에서, 상기 표시기에 표시되는 화상의 생성에 사용되는 적어도 일부의 데이터를 생성하는 데이터 생성 장치로서, 상기 표시기에는, 상기 실제 작업 공간을 모델화한 작업 공간 모델이 동영상(time-varying image)으로서 표시되고, 상기 작업 공간 모델은, 상기 실제 로봇을 모델화한 로봇 모델과, 상기 실제 로봇의 주변에 있는 실제 주변물을 모델화한 주변물 모델을 포함하고, 상기 로봇 모델은, 상기 조작기에 대한 상기 조작자의 조작에 따라 동작하도록 작성되고, 상기 데이터 생성 장치는, 상기 실제 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득부와, 상기 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 상기 실제 주변물의 상태를 예측하는 한편, 예측한 결과를, 상기 표시기에 표시되는 상기 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측부를 구비한다.In order to solve the above problems, a data generating apparatus according to an aspect of the present invention includes an operation terminal having a manipulator that accepts an operator's operation and an indicator that the operator can visually check, and is installed in an actual work space, In a remote control system including an actual robot connected through a network capable of data communication with the operation terminal, a data generating device for generating at least part of data used for generating an image displayed on the display, wherein the display comprises: A work space model modeled on an actual work space is displayed as a time-varying image, and the work space model is a robot model modeled on the real robot and a real surrounding object in the vicinity of the real robot. A peripheral object model is included, wherein the robot model is created to operate according to an operation of the operator on the manipulator, and the data generating device includes a state information acquisition unit for acquiring state information indicating a state of the actual surrounding object; , Based on the state information, predicts the actual state of the surrounding object after a predetermined time from the current point, while generating the predicted result as surrounding object model data used to create the surrounding object model displayed on the indicator. It is equipped with a predicting unit.

조작 단말과 실제 로봇 사이에 통신 지연이 있는 경우, 조작자가 조작기를 조작하고 그 조작에 대응하는 동작을 실제 로봇이 수행할 때까지 사이의 타이밍에 의해, 동시각에서 로봇 모델의 동작과 실제 로봇의 동작 사이에 어긋남이 발생할 수 있다. 상기 구성에 따르면, 예측부에 의해, 현시점보다 소정 시간만큼 후의 실제 주변물의 상태가 예측되고, 그 예측 결과가 표시기에 표시되는 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성된다. 따라서, 주변물 모델의 상태와 실제 주변물의 상태 사이에도, 로봇 모델과 실제 로봇 사이와 동일한 시간 어긋남을 생기게 할 수 있다. 이에 따라서, 로봇 모델과 주변물 모델의 시간축을 일치시킬 수 있기 때문에, 통신 지연이 조작자의 조작에 주는 영향을 억제할 수 있다.When there is a communication delay between the operation terminal and the actual robot, the operation of the robot model and the actual robot at the same time is determined by the timing between the operator manipulating the manipulator and the actual robot performing the corresponding operation. Mismatches may occur between motions. According to the above configuration, by the prediction unit, the state of the actual surrounding object after a predetermined time from the present point is predicted, and the prediction result is generated as surrounding object model data used to create the surrounding object model displayed on the display. Accordingly, even between the state of the surrounding object model and the actual state of the surrounding object, it is possible to generate the same time difference as between the robot model and the actual robot. Accordingly, since the time axis of the robot model and the surrounding object model can be matched, the influence of the communication delay on the operator's operation can be suppressed.

상기 실제 주변물은, 상기 실제 로봇의 작업 대상인 워크(work), 상기 워크를 반송하는 반송 장치 및 상기 실제 로봇을 이동시키는 이동 장치 중 적어도 하나를 포함하여도 좋다.The actual surroundings may include at least one of a work target of the actual robot, a transport device for transporting the work, and a moving device for moving the actual robot.

상기 상태 정보는, 상기 작업 공간에 설치된 촬상 장치가 상기 실제 주변물을 촬상함으로써 생성되는 촬상 정보를 포함하여도 좋다.The state information may include imaging information generated by an imaging device installed in the working space to capture the actual surrounding object.

상기 상태 정보는, 상기 실제 주변물로서의 주변 기기에 설정된 설정 정보를 포함하여도 좋다.The state information may include setting information set in the peripheral device as the actual surrounding object.

상기 데이터 생성 장치는, 소정의 시점에서 상기 표시기에 표시된 상기 작업 공간 모델의 상황과, 상기 소정의 시점보다 상기 소정 시간만큼 후의 상기 실제 작업 공간의 상황 사이의 어긋남의 정도를 검지하는 어긋남 검지부를 더 구비하여도 좋다. 예를 들어, 어긋남 검지부에 의해 검지되는 어긋남이 소정의 값보다 큰 경우에, 실제 로봇의 작업을 정지시키거나, 또는 표시기에 표시되는 모델을 보정하는 등의 대응이 가능하게 된다.The data generating device further includes a deviation detection unit configured to detect a degree of a deviation between the situation of the working space model displayed on the display at a predetermined time point and the condition of the actual work space after the predetermined time period from the predetermined time point. You may have it. For example, when the shift detected by the shift detection unit is greater than a predetermined value, countermeasures such as stopping the work of the actual robot or correcting the model displayed on the display become possible.

상기 데이터 생성 장치는, 상기 어긋남 검지부에 의해 검지된 어긋남이 미리 설정된 범위를 초과하는 경우, 상기 어긋남이 해소되도록 상기 작업 공간 모델을 보정하는 모델 보정부를 더 구비하여도 좋다.The data generating device may further include a model correction unit for correcting the working space model so that the shift is eliminated when the shift detected by the shift detection unit exceeds a preset range.

상기 조작 단말은, 상기 조작기로서의 컨트롤러를 포함하는 게임 장치라도 좋다.The operation terminal may be a game device including a controller as the operation device.

상기 조작 단말은, 개인 정보 단말(PDA(Personal Data Assistant)), 스마트 폰, 퍼스널 컴퓨터, 태블릿 및 로봇 전용 원격 조작기 중 적어도 하나라도 좋다. The operation terminal may be at least one of a personal information terminal (PDA (Personal Data Assistant)), a smart phone, a personal computer, a tablet, and a robot-only remote control unit.

또한, 본 발명의 일 측면에 따른 데이터 생성 방법은, 조작자의 조작을 접수하는 조작기 및 상기 조작자가 눈으로 확인 가능한 표시기를 구비하는 조작 단말과, 실제 작업 공간 내에 설치되고, 상기 조작 단말과 데이터 통신 가능한 네트워크를 통해 접속된 실제 로봇을 구비하는 원격 조작 시스템에서, 상기 표시기에 표시되는 화상의 생성에 사용되는 적어도 일부의 데이터를 생성하는 데이터 생성 방법으로서, 상기 표시기에는, 상기 실제 작업 공간을 모델화한 작업 공간 모델이 동영상으로서 표시되고, 상기 작업 공간 모델은, 상기 실제 로봇을 모델화한 로봇 모델과, 상기 실제 로봇의 주변에 있는 실제 주변물을 모델화한 주변물 모델을 포함하고, 상기 로봇 모델은, 상기 조작기에 대한 상기 조작자의 조작에 따라 동작하도록 작성되고, 상기 데이터 생성 방법은, 상기 실제 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득 스텝과, 상기 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 상기 실제 주변물의 상태를 예측하는 한편, 예측한 결과를, 상기 표시기에 표시되는 상기 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측 스텝을 포함한다.In addition, a data generation method according to an aspect of the present invention includes an operation terminal having a manipulator that accepts an operator's operation and an indicator that the operator can visually check, and is installed in an actual work space, and data communication with the operation terminal A data generation method for generating at least some data used for generating an image displayed on the display in a remote control system including an actual robot connected through a possible network, wherein the display includes modeling the actual work space. A work space model is displayed as a video, and the work space model includes a robot model modeling the real robot, and a surrounding object model modeling the real surroundings around the real robot, and the robot model, It is created to operate according to the operation of the operator on the manipulator, and the data generation method includes a state information acquisition step of acquiring state information indicating a state of the actual surrounding object, and a predetermined value from the current point based on the state information. And a prediction step of predicting the state of the actual surrounding object after a period of time, and generating a predicted result as surrounding object model data used to create the surrounding object model displayed on the display.

또한, 본 발명의 일 측면에 따른 데이터 생성 프로그램은, 조작자의 조작을 접수하는 조작기 및 상기 조작자가 눈으로 확인 가능한 표시기를 구비하는 조작 단말과, 실제 작업 공간 내에 설치되고, 상기 조작 단말과 데이터 통신 가능한 네트워크를 통해 접속된 실제 로봇을 구비하는 원격 조작 시스템에서, 컴퓨터로 실행시킴으로써, 상기 표시기에 표시되는 화상의 생성에 사용되는 적어도 일부의 데이터를 생성하는 데이터 생성 프로그램으로서, 상기 표시기에는, 상기 실제 작업 공간을 모델화한 작업 공간 모델이 동영상으로서 표시되고, 상기 작업 공간 모델은, 상기 실제 로봇을 모델화한 로봇 모델과, 상기 실제 로봇의 주변에 있는 실제 주변물을 모델화한 주변물 모델을 포함하고, 상기 로봇 모델은, 상기 조작기에 대한 상기 조작자의 조작에 따라 동작하도록 작성되고, 상기 데이터 생성 프로그램은, 상기 실제 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득 스텝과, 상기 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 상기 실제 주변물의 상태를 예측하는 한편, 예측한 결과를, 상기 표시기에 표시되는 상기 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측 스텝을, 상기 컴퓨터로 실행시킨다.In addition, a data generation program according to an aspect of the present invention includes an operation terminal having an operator that accepts an operator's operation and an indicator that the operator can visually check, and is installed in an actual work space, and data communication with the operation terminal A data generation program that generates at least part of data used for generation of an image displayed on the display by executing it on a computer in a remote control system including an actual robot connected via a network, wherein the display includes: A work space model modeling the work space is displayed as a video, and the work space model includes a robot model modeling the real robot and a surrounding object model modeling the real surroundings around the real robot, The robot model is created to operate according to an operation of the operator on the manipulator, and the data generation program includes a state information acquisition step of acquiring state information indicating a state of the actual surrounding object, and based on the state information , A prediction step of predicting the state of the actual surrounding object after a predetermined time from the current point, and generating the predicted result as peripheral object model data used to create the peripheral object model displayed on the display, the computer. Run with

여기서, 상기 데이터 생성 프로그램은 기억 장치에 기억된다. 상기 기억 장치는, 컴퓨터에 내장 또는 외장되는 읽기 쓰기 가능한 읽기 가능한 장치이고, 예를 들어, 하드 디스크, 플래시 메모리, 광디스크 등을 이용할 수 있다. 상기 기억 장치에 기억된 프로그램은, 상기 기억 장치가 직접 접속되는 컴퓨터에서 실행되어도 좋고, 상기 기억 장치와 네트워크(예를 들어, 인터넷)를 통해 접속된 컴퓨터에서 다운로드되어 실행되어도 좋다.Here, the data generation program is stored in a storage device. The memory device is a readable and writable device built-in or external to a computer, and for example, a hard disk, a flash memory, an optical disk, or the like may be used. The program stored in the storage device may be executed on a computer to which the storage device is directly connected, or may be downloaded and executed on a computer connected to the storage device through a network (for example, the Internet).

또한, 본 발명의 일 측면에 따른 원격 조작 시스템은, 조작자의 조작을 접수하는 조작기 및 상기 조작자가 눈으로 확인 가능한 표시기를 구비하는 조작 단말과, 실제 작업 공간 내에 설치되고, 상기 조작 단말과 데이터 통신 가능한 네트워크를 통해 접속된 실제 로봇을 구비하는 원격 조작 시스템으로서, 상기 표시기에는, 상기 실제 작업 공간을 모델화한 작업 공간 모델이 동영상으로서 표시되고, 상기 작업 공간 모델은, 상기 실제 로봇을 모델화한 로봇 모델과, 상기 실제 로봇의 주변에 있는 실제 주변물을 모델화한 주변물 모델을 포함하고, 상기 로봇 모델은, 상기 조작기에 대한 상기 조작자의 조작에 따라 동작하도록 작성되고, 상기 원격 조작 시스템은, 상기 실제 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득부와, 상기 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 상기 실제 주변물의 상태를 예측하는 한편, 예측한 결과를, 상기 표시기에 표시되는 상기 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측부를 구비하는 데이터 생성 장치를 구비한다.In addition, a remote control system according to an aspect of the present invention includes an operation terminal having a manipulator that accepts an operator's operation and an indicator that the operator can visually check, and is installed in an actual work space, and data communication with the operation terminal A remote control system having a real robot connected through a possible network, wherein a working space model modeled on the real work space is displayed as a moving picture on the display, and the work space model is a robot model modeled on the real robot. And, a peripheral object model modeled of an actual peripheral object in the vicinity of the real robot, the robot model is created to operate according to the operator's manipulation of the manipulator, and the remote control system A state information acquisition unit that acquires state information indicating a state of a surrounding object; and, based on the state information, predicts the state of the actual surrounding object by a predetermined time after the present point, and displays the predicted result on the display. And a data generation device including a prediction unit that generates the surrounding object model data used to create the surrounding object model.

본 발명에 따르면, 조작자가 조작하는 조작 단말과 로봇 사이의 통신 지연이 조작자의 조작에 주는 영향을 억제할 수 있다.According to the present invention, the influence of the communication delay between the robot and the operation terminal operated by the operator on the operation of the operator can be suppressed.

[도 1] 본 발명의 일 실시예에 따른 원격 조작 시스템의 전체 구성을 도시하는 블록도이다.
[도 2] 도 1의 게임 장치, 중계 장치 및 중계 장치의 하드웨어 구성의 일례를 도시하는 블록도이다.
[도 3] 도 1의 로봇 시스템의 일례를 모식적으로 도시하는 도면이다.
[도 4] 도 1의 게임 장치의 제어부의 기능적 구성을 도시하는 블록도이다.
[도 5] 도 1의 중계 장치의 제어부의 기능적 구성을 도시하는 블록도이다.
[도 6] 게임 장치 및 중계 장치의 각각에서 로봇의 작업 개시 전의 처리 플로우를 도시하는 도면이다.
[도 7] 게임 장치 및 중계 장치의 각각에서 로봇 작업 개시 후 처리 플로우를 도시하는 도면이다.
[도 8] 게임 장치 및 중계 장치의 각각에서 시간의 경과에 따라 실행되는 처리의 일례를 설명하기 위한 도면이다.
1 is a block diagram showing the overall configuration of a remote control system according to an embodiment of the present invention.
2 is a block diagram showing an example of a hardware configuration of the game device, the relay device, and the relay device of FIG. 1.
3 is a diagram schematically showing an example of the robot system of FIG. 1.
Fig. 4 is a block diagram showing a functional configuration of a control unit of the game device of Fig. 1.
Fig. 5 is a block diagram showing a functional configuration of a control unit of the relay device of Fig. 1.
[Fig. 6] Fig. 6 is a diagram showing a processing flow of a game device and a relay device before starting work of the robot.
Fig. 7 is a diagram showing a processing flow after starting a robot operation in each of the game device and the relay device.
Fig. 8 is a diagram for explaining an example of processing executed over time in each of the game device and the relay device.

이하에서, 본 발명의 실시예에 대하여 도면을 참조하면서 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(시스템의 개요)(System overview)

먼저 본 실시예에 따른 원격 조작 시스템(1)의 개요를 도 1을 참조하여 설명한다. 도 1은 원격 조작 시스템(1)의 전체 구성을 도시하는 블록도이다. 본 실시예의 원격 조작 시스템(1)은, 공지의 각종 게임 장치(2)(조작 단말)와, 조작자가 있는 장소와 다른 원격지의 작업 현장(작업 공간. 이하, 「실제 작업 공간」이라고도 한다.)에 설치된 로봇(51)을 통신 네트워크(4)를 통해 접속한다. 그리고, 조작자에 게임 장치(2)를 이용하여 로봇(51)을 원격 조작시켜서, 당해 로봇(51)에 소정의 작업을 수행시킨다.First, an overview of the remote control system 1 according to the present embodiment will be described with reference to FIG. 1. 1 is a block diagram showing the overall configuration of a remote operation system 1. The remote operation system 1 of the present embodiment is a known various game device 2 (operation terminal), and a work site (work space, hereinafter also referred to as "actual work space") in a remote place different from the place where the operator is located. The robot 51 installed in is connected through the communication network 4. Then, the robot 51 is remotely operated by the operator using the game device 2, and the robot 51 performs a predetermined operation.

원격 조작 시스템(1)은, 복수의 게임 장치(2)와, 1 개의 중개 장치(6)와, 복수의 로봇 시스템(5)을 포함하고, 이들은 예를 들어 인터넷 등의 통신 네트워크(4)를 통해 서로 통신 가능하게 되어 있다. 게임 장치(2)는, 예를 들어 조작자의 자택 등 놓인 거치형의 게임 장치 또는 조작자가 휴대하는 휴대형 게임 장치이다.The remote control system 1 includes a plurality of game devices 2, one intermediary device 6, and a plurality of robot systems 5, and these include, for example, a communication network 4 such as the Internet. It is possible to communicate with each other through. The game device 2 is, for example, a stationary game device placed in the operator's home or a portable game device carried by the operator.

로봇 시스템(5)은, 조작자에 원격 조작시키는 대상인 로봇(51)과, 로봇(51)의 주변에 설치된 1 이상의 주변 기기(52)와, 중계 장치(53)를 포함한다. 로봇(51), 주변 기기(52) 및 중계 장치(53)는 모두 게임 장치(2)를 조작하는 조작자가 있는 장소로부터 떨어진 원격지의 작업 현장에 설치되어 있다. 작업 현장에는, 1 이상의 로봇 시스템(5)이 존재한다.The robot system 5 includes a robot 51 that is a target to be remotely operated by an operator, one or more peripheral devices 52 installed around the robot 51, and a relay device 53. The robot 51, the peripheral device 52, and the relay device 53 are all installed at a work site in a remote place away from a place where an operator who operates the game device 2 is located. At the work site, there are one or more robot systems 5.

여기서, 원격 조작 시스템(1)이 구비하는 복수의 로봇 시스템(5)의 일부 또는 전부는 서로 동일한 현장에 설치되어 있어도 좋고 다른 작업 현장에 설치되어 있어도 좋다. 또한, 동일한 작업 현장에 설치된 복수의 로봇 시스템(5)이, 서로 공유하는 주변 기기(52)를 구비하고 있어도 좋다. 여기서, 복수의 로봇 시스템(5)은, 서로 종류가 같거나 다른 복수의 주변 기기(52)를 포함할 수 있지만, 도 1에서는, 도시의 단순화를 위해, 주변 기기를 나타내는 블록을 하나의 로봇 시스템(5)에 대해서는 1 개만 도시한다.Here, some or all of the plurality of robot systems 5 included in the remote operation system 1 may be installed at the same site or may be installed at different work sites. Further, a plurality of robot systems 5 installed in the same work site may be provided with peripheral devices 52 shared with each other. Here, the plurality of robot systems 5 may include a plurality of peripheral devices 52 of the same type or different from each other, but in FIG. 1, for simplicity of illustration, a block representing the peripheral devices is referred to as one robot system. For (5), only one is shown.

중계 장치(53)는, 당해 중계 장치(53)를 포함하는 동일한 로봇 시스템(5)의 로봇(51) 및 주변 기기(52)의 각각에 통신 가능하게 접속되어 있다. 중계 장치(53)는, 통신 네트워크(4)를 통해서, 게임 장치(2) 또는 중개 장치(6)로부터 보내지는 정보를 로봇(51) 또는 주변 기기(52)에 보내거나, 로봇(51) 또는 주변 기기(52)의 정보를 게임 장치(2) 또는 중개 장치(6)에 보내거나 한다.The relay device 53 is communicatively connected to each of the robot 51 and the peripheral device 52 of the same robot system 5 including the relay device 53. The relay device 53 sends information sent from the game device 2 or the mediation device 6 to the robot 51 or peripheral device 52 via the communication network 4, or the robot 51 or Information on the peripheral device 52 is sent to the game device 2 or the intermediary device 6.

중개 장치(6)는, 하나의 조작자(하나의 게임 장치(2))에 대해 하나의 로봇 시스템(5)을 할당한다. 더 자세하게는, 조작자는, 게임 장치(2)로부터 중개 장치(6)를 액세스하여 미리 유저(user) 등록을 수행하고, 유저 등록을 통해 조작자에는 유저 ID가 부여되어 있다. 조작자는 게임 장치(2)에서 자신의 유저 ID를 입력하여 중개 장치(6)에 대해 조작 요구를 보내면, 조작 요구를 수신한 중개 장치(6)는, 게임 장치(2)를 어나 하나의 로봇 시스템(5)에 대응시키는 동시에, 게임 장치(2)와 대응시켜진 로봇 시스템(5)의 중계 장치(53)를, 통신 네트워크(4)를 통해 서로 통신 접속시킨다.The intermediary device 6 allocates one robot system 5 to one operator (one game device 2). In more detail, the operator accesses the intermediary device 6 from the game device 2 to perform user registration in advance, and the operator is given a user ID through user registration. The operator inputs his/her user ID from the game device 2 and sends an operation request to the intermediary device 6, and the intermediary device 6 receiving the operation request passes the game device 2 to a robot system. At the same time as corresponding to (5), the game device 2 and the relay device 53 of the robot system 5 associated with each other are communicated with each other via the communication network 4.

예를 들어 중개 장치(6)는, 게임 장치(2)로부터 조작 요구를 접수하면, 작업 내용 등을 나타내는 작업 리스트 정보를 당해 게임 장치(2)에 보낸다. 조작 요구에는, 조작자가 입력한 희망 조건 정보가 포함된다. 희망 조건 정보는, 로봇의 종류, 로봇의 작업 내용, 대상 워크, 작업량, 작업 시간의 일부 또는 전부가 포함된다. 중개 장치(6)는, 조작 요구를 수신하면, 그 조작 요구에 포함된 희망 조건 정보에 기초하여, 조작자가 희망하는 조건에 맞는 것을 필터링하고, 게임 장치(2)에 필터링된 작업 리스트를 보낸다. 조작자는 게임 장치(2)의 표시 장치(25)에 표시되는 작업 리스트 중에서, 희망하는 것을 1 개 지정하면, 게임 장치(2)로부터 중개 장치(6)에, 조작자의 지정에 대응하는 지정 정보가 보내진다. 중개 장치(6)는, 그 게임 장치(2)를, 지정 정보에 대응하는 로봇 시스템(5)의 중계 장치(53)에 접속한다.For example, when the intermediary device 6 receives an operation request from the game device 2, it sends the work list information indicating the work content and the like to the game device 2. The operation request includes desired condition information input by the operator. The desired condition information includes the type of the robot, the work content of the robot, the target work, the amount of work, and some or all of the work time. When receiving an operation request, the intermediary device 6 filters what meets the condition desired by the operator based on the desired condition information included in the operation request, and sends the filtered work list to the game device 2. If the operator designates one of the job lists displayed on the display device 25 of the game device 2, the game device 2 sends the designated information corresponding to the operator's designation to the intermediary device 6 from the game device 2 Is sent. The intermediate device 6 connects the game device 2 to the relay device 53 of the robot system 5 corresponding to the designated information.

이와 같이, 원격 조작 시스템(1)에서는, 조작자가 게임 장치(2)를 이용하여 물리적으로 멀리 떨어진 다양한 작업 현장의 로봇(51)을 원격 조작할 수 있게 되어 있다. 예를 들어, 원격 조작 시스템(1)에 의해, 조작자는 자택에 있으면서, 지구 반대편의 작업 현장에 있는 로봇(51)을 조작하는 것이 가능하다. 서로 접속된 게임 장치(2)와 로봇 시스템(5)(더 자세하게는 로봇(51)) 사이에는, 게임 장치(2) 및 로봇 시스템(5)의 각각의 통신 환경이나 게임 장치(2) 및 로봇 시스템(5)의 서로의 물리적 거리 등에 기인한 통신 지연이 발생할 수 있다. 본 실시예에 따르면, 후술하는 바와 같이, 서로 접속된 게임 장치(2)와 로봇(51)과의 사이에서 생기는 통신 지연이, 조작자의 조작에 주는 영향을 억제하는 원격 조작 시스템(1)을 실현하고 있다.In this way, in the remote operation system 1, the operator can remotely operate the robot 51 at various work sites that are physically distant by using the game device 2. For example, by means of the remote control system 1, it is possible for the operator to operate the robot 51 at the work site on the other side of the earth while staying at home. Between the game device 2 and the robot system 5 (more specifically, the robot 51) connected to each other, each communication environment of the game device 2 and the robot system 5 or the game device 2 and the robot Communication delays may occur due to physical distances between the systems 5 and the like. According to this embodiment, as described later, a remote control system 1 is realized that suppresses the influence of the communication delay occurring between the connected game device 2 and the robot 51 on the operator's operation. I'm doing it.

(하드웨어 구성)(Hardware configuration)

도 2는 게임 장치(2), 중계 장치(53) 및 중개 장치(6)의 하드웨어 구성의 일례를 도시한다. 여기서, 도 2에서는, 복수의 게임 장치(2) 중의 하나의 게임 장치(2)만 도시하고, 복수의 로봇 시스템(5) 중 하나의 로봇 시스템(5)만 도시한다. 게임 장치(2)는, 게임 장치 본체(2a)와, 그에 접속되는 디스플레이 장치(25)(표시기), 스피커(27), 컨트롤러(28)(조작기)를 구비한다.FIG. 2 shows an example of the hardware configuration of the game device 2, the relay device 53, and the mediation device 6. As shown in FIG. Here, in FIG. 2, only one of the plurality of game devices 2 is shown, and only one of the plurality of robot systems 5 is shown. The game device 2 includes a game device main body 2a, a display device 25 (display device), a speaker 27, and a controller 28 (operator) connected thereto.

도 2에 도시된 바와 같이, 게임 장치 본체(2a)는, 버스(20) 상에 제어부(21), 통신부(22), 및 하드 디스크나 메모리 카드 등의 기억부(23)를 구비한다. 제어부(21)는, 컨트롤러(28)의 조작에 기초하여, 통신 네트워크(4)를 통해 로봇(51)에 보내지는 조작 정보를 생성한다. 여기서, 로봇(51)은, 이러한 조작 정보에 기초하여 동작한다. 또한, 제어부(21)는, 컨트롤러(28)의 조작에 기초하여, 표시 장치(25)에 표시되는 화상을 생성한다. 이와 같은 제어부(21)는, CPU(210), ROM(플래시 메모리)(211), RAM(212), 화상 프로세서(213), 음성 프로세서(214) 및 조작부(215)를 구비하고 있다.As shown in Fig. 2, the game device main body 2a includes a control unit 21, a communication unit 22, and a storage unit 23 such as a hard disk or a memory card on a bus 20. The control unit 21 generates operation information sent to the robot 51 via the communication network 4 based on the operation of the controller 28. Here, the robot 51 operates based on such operation information. Further, the control unit 21 generates an image to be displayed on the display device 25 based on the operation of the controller 28. Such a control unit 21 includes a CPU 210, a ROM (flash memory) 211, a RAM 212, an image processor 213, an audio processor 214, and an operation unit 215.

CPU(210)는, 게임 장치(2)의 각 부의 동작을 제어한다. ROM(211)에는, 게임 장치(2)의 기본 프로그램 등이 기억되어 있다. 기억부(23)에는, 원격 조작에 의해 로봇(51)을 동작시키기 위한 원격 제어 프로그램이나, 각종 게임을 실행하기 위한 게임 프로그램 등이 기억되어 있다. RAM(212)에는, CPU(210)가 게임 프로그램을 실행할 때에 사용되는 워크 에어리어가 설정된다. 여기서, 본 실시예에서는, 기억부(23)에서 상기 원격 조작 프로그램의 기억은 필수이지만, 상기 게임 프로그램의 기억은 필수가 아니다. 여기서, 이하의 설명에서는, 각종 프로그램이나 데이터가 기억된 제어부(21)의 ROM(211)이나 RAM(212) 및 기억부(23) 등을 총칭하여, 게임 장치(2)의 기억 장치라고 부르기로 한다.The CPU 210 controls the operation of each unit of the game device 2. In the ROM 211, a basic program of the game device 2 and the like are stored. In the storage unit 23, a remote control program for operating the robot 51 by remote operation, a game program for executing various games, and the like are stored. In the RAM 212, a work area used when the CPU 210 executes a game program is set. Here, in this embodiment, storage of the remote operation program in the storage unit 23 is essential, but the storage of the game program is not essential. Here, in the following description, the ROM 211, RAM 212, and storage unit 23 of the control unit 21 in which various programs and data are stored are collectively referred to as a storage device of the game device 2. do.

화상 프로세서(213)는, 게임 화면을 생성 가능한 GPU(Graphics Processing Unit)를 구비한다. 화상 프로세서(213)에는, 비디오 RAM(VRAM)(24)가 접속된다. 이러한 VRAM(24)에는 표시 장치(25)가 접속되어 있다.The image processor 213 includes a Graphics Processing Unit (GPU) capable of generating a game screen. A video RAM (VRAM) 24 is connected to the image processor 213. A display device 25 is connected to this VRAM 24.

음성 프로세서(214)는, 게임 사운드를 생성하는 DSP(Digital Signal Processor)를 구비한다. 음성 프로세서(214)는, 생성한 게임 음성을 D/A 컨버터를 포함하는 앰프(26)에 송신한다. 앰프(26)는, 이러한 음성 신호를 증폭하여 스피커(27)에 송신한다.The voice processor 214 includes a digital signal processor (DSP) that generates game sound. The voice processor 214 transmits the generated game voice to the amplifier 26 including a D/A converter. The amplifier 26 amplifies such an audio signal and transmits it to the speaker 27.

조작부(215)에는, 컨트롤러(28)가 무선 또는 유선으로 통신 접속되어 있다. 컨트롤러(28)는, 십자 버튼, 푸시 스위치, 조이스틱, 마우스, 키보드 및 터치 패널 등을 포함한다. 또한, 조작부(215)는, 유저에 의한 컨트롤러(28)를 통한 조작 신호를 검출하고, 그 조작 신호를 CPU(210)에 송신한다.The controller 28 is connected to the operation unit 215 by wireless or wired communication. The controller 28 includes a cross button, a push switch, a joystick, a mouse, a keyboard, and a touch panel. Further, the operation unit 215 detects an operation signal through the controller 28 by the user, and transmits the operation signal to the CPU 210.

통신부(22)는, 통신 네트워크(4)를 통해 중개 장치(6) 및 중계 장치(53)와 통신하는 통신 기기이다.The communication unit 22 is a communication device that communicates with the intermediary device 6 and the relay device 53 via the communication network 4.

중개 장치(6)는, 제어부(61), 통신부(62) 및 기억부(63)를 구비하고 있다. 제어부(61)는, 예를 들어 프로세서와 메모리를 구비하는 연산기로 구성된다. 이러한 연산기는, 구체적으로는, 예를 들어 마이크로 컨트롤러, MPU, FPGA(Field Programmable Gate Array), PLC(Programmable Logic Controller), 컴퓨터, 퍼스널 컴퓨터 등으로 구성된다. 제어부(61)는, 집중 제어를 수행하는 단독의 연산기로 구성되어도 좋고, 분산 제어를 수행하는 복수의 연산기로 구성되어도 좋다. 통신부(62)는, 통신 네트워크(4)를 통해 게임 장치(2) 및 중계 장치(53)와 통신하는 통신 기기이다. 기억부(63)는, 읽고 쓰기가 가능한 읽기 가능한 기억 장치이고, 예를 들어, 하드 디스크, 플래시 메모리, 광디스크 등이다. 제어부(61)는 중개 장치(6)의 각 부의 동작을 제어한다. 제어부(61)의 메모리나 기억부(63)에는, 게임 장치(2)를 로봇 시스템(5)에 대응시키는 프로그램 등의 중개 장치(6)의 동작을 제어하는 각종 프로그램이나 데이터가 기억되어 있다.The intermediary device 6 includes a control unit 61, a communication unit 62, and a storage unit 63. The control unit 61 is comprised of, for example, a processor and an arithmetic unit including a memory. Specifically, such a calculator is constituted by, for example, a microcontroller, an MPU, a field programmable gate array (FPGA), a programmable logic controller (PLC), a computer, a personal computer, and the like. The control unit 61 may be constituted by a single operator that performs centralized control, or may be constituted by a plurality of operators that perform distributed control. The communication unit 62 is a communication device that communicates with the game device 2 and the relay device 53 via the communication network 4. The storage unit 63 is a readable storage device capable of reading and writing, and is, for example, a hard disk, a flash memory, an optical disk, or the like. The control unit 61 controls the operation of each unit of the intermediary device 6. Various programs and data for controlling the operation of the intermediary device 6, such as a program for linking the game device 2 to the robot system 5, are stored in the memory or the storage unit 63 of the control unit 61.

중계 장치(53)는, 제어부(55), 통신부(56) 및 기억부(57)를 구비하고 있다. 제어부(55)는, 예를 들어 프로세서와 메모리를 구비하는 연산기로 구성된다. 이러한 연산기는, 구체적으로는, 예를 들어 마이크로 컨트롤러, MPU, FPGA(Field Programmable Gate Array), PLC(Programmable Logic Controller), 컴퓨터, 퍼스널 컴퓨터 등으로 구성된다. 제어부(55)는, 집중 제어를 수행하는 단독의 연산기로 구성되어도 좋고, 분산 제어를 수행하는 복수의 연산기로 구성되어도 좋다. 통신부(56)는, 통신 네트워크(4)를 통해 게임 장치(2), 중개 장치(6), 로봇(51), 및 주변 기기(52)와 통신하는 통신 기기이다. 기억부(57)는, 읽고 쓰기가 가능한 읽기 가능한 기억 장치이고, 예를 들어, 하드 디스크, 플래시 메모리, 광디스크 등이다. 제어부(55)는, 중계 장치(53)의 동작을 제어한다. 제어부(55)의 메모리나 기억부(57)에는, 중계 장치(53)의 동작을 제어하는 각종 프로그램이나 데이터가 기억되어 있다.The relay device 53 includes a control unit 55, a communication unit 56, and a storage unit 57. The control unit 55 is comprised of, for example, a processor and an arithmetic unit including a memory. Specifically, such a calculator is constituted by, for example, a microcontroller, an MPU, a field programmable gate array (FPGA), a programmable logic controller (PLC), a computer, a personal computer, and the like. The control unit 55 may be constituted by a single operator that performs centralized control, or may be constituted by a plurality of operator units that perform distributed control. The communication unit 56 is a communication device that communicates with the game device 2, the intermediary device 6, the robot 51, and the peripheral device 52 via the communication network 4. The storage unit 57 is a readable storage device capable of reading and writing, and is, for example, a hard disk, a flash memory, an optical disk, or the like. The control unit 55 controls the operation of the relay device 53. Various programs and data for controlling the operation of the relay device 53 are stored in the memory or the storage unit 57 of the control unit 55.

도 3에, 로봇 시스템(5)의 일례를 모식적으로 도시한다. 이러한 로봇 시스템(5)에서는, 컨베이어(52a)에서 반송되는 워크(W)를 피킹하는 작업을 로봇(51)이 수행한다. 도 3에 도시된 로봇 시스템(5)에서, 로봇(51)은 산업용 로봇이다. 로봇(51)은, 조작자에 원격 조작시키는 대상인 로봇 본체(51a)와, 로봇 본체(51a)의 동작을 제어하는 로봇 컨트롤러(51b)를 포함한다. 도 3에 도시된 로봇 본체(51a)는, 선단부에 툴이 장착된 수직 다관절형의 로봇 암이고, 본 예에서는, 툴로서, 수직 다관절형의 로봇 암의 선단부에는, 워크(W)를 파지 가능한 파지 핸드가 장착되어 있다. 로봇 컨트롤러(51b)는, 프로세서를 구비하고 있고, 저장된 프로그램이나 외부로부터 입력되는 각종 신호의 해독연산 처리 등을 프로세서에서 실행하여, 로봇 본체(51a)의 동작 제어, 각종 출력 포트로부터의 신호 출력 등을 담당한다. 또한, 도 3의 로봇 시스템(5)은, 주변 기기(52)로서, 작업 대상인 워크를 반송하는 컨베이어(52a), 로봇(51)의 작업 상황을 촬상하는 1 이상의(본 예에서는 2 개의) 촬상 장치(52b), 및 워크(W)의 위치를 검지하는 센서(52c) 등을 구비한다.3 schematically shows an example of the robot system 5. In such a robot system 5, the robot 51 performs a work of picking the work W conveyed by the conveyor 52a. In the robot system 5 shown in Fig. 3, the robot 51 is an industrial robot. The robot 51 includes a robot main body 51a that is a target to be remotely operated by an operator, and a robot controller 51b that controls the operation of the robot main body 51a. The robot main body 51a shown in FIG. 3 is a vertical articulated robot arm with a tool mounted at its distal end. In this example, as a tool, a workpiece W is provided at the distal end of the vertical articulated robot arm. It is equipped with a gripping hand that can be gripped. The robot controller 51b is equipped with a processor, and executes the decoding operation processing of stored programs or various signals input from the outside by the processor to control the operation of the robot main body 51a, output signals from various output ports, etc. In charge of In addition, the robot system 5 of FIG. 3 is a peripheral device 52, which captures one or more (two in this example) imaging of the work situation of the conveyor 52a and the robot 51 that conveys the work target. A device 52b, and a sensor 52c for detecting the position of the work W are provided.

여기서, 도 3에 도시된 로봇 시스템(5)의 구성은 일례이며, 로봇(51)이나 주변 기기(52)의 종류 등은, 로봇(51)의 작업 내용에 따라 구성되어 있다. 예를 들어, 로봇(51)의 작업은, 피킹 작업 외에도, 예를 들어 도장 작업이나 도시락 담기 작업, 용접 작업 등이라도 좋다. 또한, 로봇(51)은 수직 다관절형 로봇이 아니어도 좋고, 예를 들어 수평 다관절형 로봇, 패러럴(parallel) 링크형 로봇, 극좌표 로봇, 원통 좌표형 로봇, 직각 좌표형 로봇 등의 산업용 로봇이라도 좋다. 또한, 작업 대상인 워크(W)를 반송하는 주변 기기(52)로서의 반송 장치는, 컨베이어 이외의 반송 장치라도 좋다. 주변 기기(52)는, 로봇 본체(51a)를 이동시키는 이동 장치를 포함하여도 좋다. 주변 기기(52)로서의 1 이상의 센서는, 워크(W)의 위치를 검지하는 센서 대신에 또는 더하여, 로봇(51)의 위치나 자세를 검지하는 센서 등이라도 좋다. 주변 기기(52)로서의 1 이상의 센서에는, 검사 대상물의 위치, 방향 또는 방향을 검지하는 센서를 포함한다. 또한, 로봇 시스템(5)은, 주변 기기(52)로서 복수의 촬상 장치(52b)를 구비하여도 좋다. 도 3에 도시된 바와 같이, 촬상 장치(52b)는, 로봇 본체(51a)에 장착되어 있어도 좋고, 작업 공간에서 고정된 위치에 설치되어 있어도 좋다.Here, the configuration of the robot system 5 shown in FIG. 3 is an example, and the types of the robot 51 and the peripheral device 52 are configured according to the work contents of the robot 51. For example, the work of the robot 51 may be, for example, a painting work, a lunch-packing work, a welding work, in addition to the picking work. In addition, the robot 51 may not be a vertical articulated robot, for example, an industrial robot such as a horizontal articulated robot, a parallel link type robot, a polar coordinate robot, a cylindrical coordinate robot, or a rectangular coordinate robot. It may be good. Further, the conveying device as the peripheral device 52 that conveys the work W as a work object may be a conveying device other than a conveyor. The peripheral device 52 may include a moving device that moves the robot main body 51a. The at least one sensor as the peripheral device 52 may be a sensor that detects the position or posture of the robot 51 in place of or in addition to a sensor that detects the position of the work W. The at least one sensor as the peripheral device 52 includes a sensor that detects the position, direction, or direction of the object to be inspected. Further, the robot system 5 may be provided with a plurality of imaging devices 52b as the peripheral device 52. As shown in FIG. 3, the imaging device 52b may be attached to the robot main body 51a, and may be installed in a fixed position in a work space.

(기능적 구성)(Functional composition)

도 4는 게임 장치(2)의 제어부(21)의 기능적 구성을 도시하는 블록도이다. 게임 장치(2)의 제어부(21)는, 기능적인 구성으로서, 통신 제어부(31), 조작 측 시간 관리부(32), 상태 정보 취득부(33), 시뮬레이트부(예측부)(34) 화상 표시부(35) 통신 지연 계측부(36), 어긋남 검지부(37), 모델 보정부(38)를 구비하고 있다. 이러한 기능부는, 게임 장치(2)의 기억 장치에 기억된 소정의 프로그램과의 협동에 의해 기능적으로 실현된다. 여기서, 게임 장치(2)의 기억 장치에 기억된 소정의 프로그램에는, 본 발명의 「데이터 생성 프로그램」이 포함된다.4 is a block diagram showing the functional configuration of the control unit 21 of the game device 2. The control unit 21 of the game device 2, as a functional configuration, includes a communication control unit 31, an operation-side time management unit 32, a state information acquisition unit 33, a simulation unit (prediction unit) 34, an image display unit. (35) A communication delay measurement unit 36, a deviation detection unit 37, and a model correction unit 38 are provided. Such a functional unit is functionally realized by cooperation with a predetermined program stored in the storage device of the game device 2. Here, the "data generation program" of the present invention is included in the predetermined program stored in the storage device of the game device 2.

통신 제어부(31)는, 통신부(22)를 제어하여, 중개 장치(6)에 상술한 조작 요구나 지정 정보를 보내거나, 중개 장치(6)로부터 리스트 정보를 수신하거나 한다. 또한, 통신 제어부(31)는, 통신부(22)를 제어하여, 중개 장치(6)가 게임 장치(2)와 대응시킨 로봇 시스템(5)과 통신 접속하기 위한 정보를 중개 장치(6)로부터 수신한다. 또한, 통신 제어부(31)는, 통신부(22)를 제어하여, 조작자가 컨트롤러(28)를 조작함으로써 생성된 조작 정보를, 대응하는 로봇 시스템(5)의 중계 장치(53)에 보낸다.The communication control unit 31 controls the communication unit 22 to send the above-described operation request and designation information to the intermediary device 6 or to receive list information from the intermediary device 6. Further, the communication control unit 31 controls the communication unit 22 to receive information from the intermediary device 6 for communication connection with the robot system 5 that the intermediary device 6 has associated with the game device 2. do. Further, the communication control unit 31 controls the communication unit 22 to send operation information generated by the operator operating the controller 28 to the relay device 53 of the corresponding robot system 5.

조작 측 시간 관리부(32)는, 컨트롤러(28)에 대해 조작자가 조작하면, 그 조작에 기초하여 로봇(51)이 동작할 때까지의 시간이 일정하게 유지되도록, 게임 장치(2) 측의 시간을 관리한다.When the operator manipulates the controller 28, the operation-side time management unit 32 maintains a constant time until the robot 51 operates based on the operation. Manage.

상태 정보 취득부(33) 및 시뮬레이트부(34)는, 표시 장치(25)에 표시되는 화상의 생성에 사용되는 적어도 일부 데이터를 생성한다. 구체적으로는, 표시 장치(25)에는, 로봇(이하, 「실제 로봇」)(51)이 실제로 존재하는 작업 공간(이하, 「실제 작업 공간」)을 모델화한 작업 공간 모델이 동영상으로 표시된다. 작업 공간 모델은, 가상의 작업 공간에 배치된 로봇 모델 및 주변물 모델을 포함한다. 로봇 모델은, 실제 로봇(51)을 모델화한 것이다. 주변물 모델은, 실제 로봇(51)의 주변에 있는 소정의 주변물(이하, 「실제 주변물」)을 모델화한 것이다. 실제 주변물에는, 로봇(51)의 주변에 위치하는 주변 기기(52) 및 워크(W)가 포함되고, 주변물 모델에는, 이들에 대응하는 주변 기기 모델 및 워크 모델이 포함된다. 표시 장치(25)에 표시되는 화상의 생성에는, 로봇 모델 데이터나 주변물 모델 데이터가 이용된다.The state information acquisition unit 33 and the simulation unit 34 generate at least some data used for generation of an image displayed on the display device 25. Specifically, on the display device 25, a work space model modeled of a work space in which the robot (hereinafter, "real robot") 51 actually exists (hereinafter, "actual work space") is displayed as a moving image. The work space model includes a robot model and a surrounding object model arranged in a virtual work space. The robot model is a model of an actual robot 51. The peripheral object model is a model of a predetermined peripheral object (hereinafter, "real peripheral object") in the periphery of the actual robot 51. The actual peripheral object includes the peripheral device 52 and the work W positioned around the robot 51, and the peripheral object model includes a peripheral device model and a work model corresponding thereto. In the generation of an image displayed on the display device 25, robot model data or peripheral object model data is used.

로봇 모델 데이터에는, 실제 로봇(51)의 정적 정보가 포함된다. 로봇 모델의 정적 정보에는, 예를 들어, 실제 로봇(51)의 구조를 나타내는 구조 정보(로봇 본체(51a)의 관절 수나 링크 길이, 툴의 구조 등)나 작업 개시 전의 위치 및/또는 자세를 나타내는 정보(예를 들어 로봇 본체(51a)가 구비하는 서보 모터의 회전 각도 정보) 등이 포함된다. 또한, 로봇 모델 데이터에는, 로봇 모델의 동적 정보, 즉 컨트롤러(28)에 대한 조작자의 조작 정보(커맨드)가 포함된다. 이러한 조작 정보는, 로봇 모델을 동작시키기 위해 사용되는 것과 동시에, 통신 네트워크(4)를 통해 게임 장치(2)로부터 실제 로봇(51)에 보내지는, 실제 로봇(51)의 동작에도 사용된다. 즉, 조작자가 표시 장치(25)의 표시 화면을 보면서 컨트롤러(28)를 조작하여, 표시 화면 상의 로봇 모델을 동작시키면, 작업 현장의 실제 로봇(51)도 동일하게 동작한다. 다만, 후술하는 바와 같이, 로봇 모델의 동작에 일정 시간 지연되어 실제 로봇(51)은 동작한다.The robot model data contains static information of the actual robot 51. The static information of the robot model includes, for example, structural information indicating the structure of the actual robot 51 (the number of joints and link lengths of the robot body 51a, the structure of the tool, etc.), and the position and/or posture before starting work. Information (for example, rotation angle information of the servo motor included in the robot body 51a) and the like are included. Further, the robot model data includes dynamic information of the robot model, that is, operation information (command) of an operator with respect to the controller 28. This operation information is used to operate the robot model, and is also used for the operation of the actual robot 51, which is sent from the game device 2 to the actual robot 51 via the communication network 4. That is, when the operator manipulates the controller 28 while viewing the display screen of the display device 25 to operate the robot model on the display screen, the actual robot 51 at the work site also operates in the same manner. However, as described later, the operation of the robot model is delayed for a predetermined time, so that the actual robot 51 operates.

주변물 모델 데이터에는, 실제 주변물의 정적 정보가 포함된다. 실제 주변물의 정적 정보에는, 주변 기기(52)의 구조 정보, 주변 기기(52)의 작업 개시 전의 위치 및/또는 자세를 도시하는 정보, 실제 로봇(51)의 작업 대상인 워크(W)의 형상 데이터나 구조 정보, 워크(W)의 작업 개시 전의 위치 및/또는 자세를 나타내는 정보가 포함된다. 또한, 주변물 모델 데이터에는, 실제 주변물의 소정 시간 앞서의 위치나 자세를 예측하는 정보가 포함된다. 이러한 예측을 상태 정보 취득부(33) 및 시뮬레이트부(34)가 수행한다. 본 실시예에서는, 상태 정보 취득부(33) 및 시뮬레이트부(34)를 구비하는 게임 장치(2)가, 본 발명의 「데이터 생성 장치」에 대응한다.In the surrounding object model data, static information of the actual surrounding object is included. In the static information of the actual surroundings, structural information of the peripheral device 52, information showing the position and/or posture of the peripheral device 52 before starting work, and shape data of the workpiece W as a work target of the actual robot 51 B. Structure information, and information indicating the position and/or posture of the work W before starting work are included. In addition, the surrounding object model data includes information for predicting the position or posture of the actual surrounding object before a predetermined time. The state information acquisition unit 33 and the simulation unit 34 perform such prediction. In this embodiment, the game device 2 including the state information acquisition unit 33 and the simulation unit 34 corresponds to the "data generating device" of the present invention.

구체적으로는, 상태 정보 취득부(33)가 실제 로봇(51)의 주위의 주변 기기(52)나 워크(W) 등의 실제 주변물의 상태를 나타내는 상태 정보를 취득한다. 그리고, 시뮬레이트부(34)는, 상태 정보에 기초하여, 시간 경과에 따른 실제 주변물의 위치나 자세의 변화를 시뮬레이트한다. 예를 들어 상태 정보 취득부(33)가, 어느 시점에서 주변 기기(52)로서의 반송 장치(본 예에서는 컨베이어(51a))에 설정된 반송 속도를 나타내는 정보와 당해 반송 장치에 반송되는 워크(W)의 위치를 나타내는 정보를 상태 정보로서 취득한 경우, 시뮬레이트부(34)는, 그 반송 속도 정보 및 워크 위치 정보로부터, 일정 시간 앞서의 워크(W)의 위치나 자세를 용이하게 산출 가능하다. 이와 같이 시뮬레이트부(34)는, 시뮬레이션에 의해 현재보다 소정 시간만큼 후의 실제 주변물의 상태를 예측한다. 그리고, 시뮬레이트부(34)는, 예측된 결과를 주변물 모델의 적성에 사용되는 주변물 모델 데이터로 생성한다.Specifically, the state information acquisition unit 33 acquires state information indicating the state of an actual peripheral object such as the peripheral device 52 or the work W around the actual robot 51. Then, the simulation unit 34 simulates a change in the position or posture of an actual surrounding object over time based on the state information. For example, the state information acquisition unit 33 has information indicating the conveying speed set in the conveying device (conveyor 51a in this example) as the peripheral device 52 at a certain point in time, and the work W conveyed to the conveying device. When information indicating the position of is acquired as state information, the simulation unit 34 can easily calculate the position and posture of the work W ahead of time from the conveying speed information and the work position information. In this way, the simulation unit 34 predicts the actual state of the surrounding object after a predetermined time from the present through the simulation. Then, the simulation unit 34 generates the predicted result as surrounding object model data used for the aptitude of the surrounding object model.

화상 표시부(35)는, 로봇 모델 데이터 및 주변물 모델 데이터에 기초하여 작성되는 작업 공간 모델을, 표시 장치(25)에 표시한다. 예를 들어, 화상 표시부(35)는, 로봇 모델 데이터 및 주변물 모델 데이터에 기초하여 작성된 로봇 모델 및 주변물 모델이 배치되는 가상의 작업 공간에, 가상의 카메라를 배치한다. 이러한 가상의 카메라에 의해 촬상된 화상을, 표시 장치(25)에 표시한다. 가상 카메라의 위치, 방향, 줌 등은, 미리 정해져 있어도 좋고, 예를 들어 컨트롤러(28)에 대한 조작자의 조작에 따라 변경 가능하여도 좋다. 가상 작업 공간에서 가상 카메라의 위치나 방향이, 실제 작업 공간에서 촬상 장치(52b)의 위치나 방향과 각각 대응하여도 좋다.The image display unit 35 displays a work space model created based on the robot model data and the surrounding object model data on the display device 25. For example, the image display unit 35 arranges a virtual camera in a virtual work space in which a robot model created based on the robot model data and the surrounding object model data and the surrounding object model are arranged. An image captured by such a virtual camera is displayed on the display device 25. The position, direction, zoom, and the like of the virtual camera may be determined in advance, and may be changed, for example, according to an operator's operation on the controller 28. The position or direction of the virtual camera in the virtual work space may correspond to the position or direction of the imaging device 52b in the actual work space, respectively.

통신 지연 계측부(36), 어긋남 검지부(37) 및 모델 보정부(38)에 대해서, 자세한 내용은 후술한다.Details of the communication delay measurement unit 36, the deviation detection unit 37, and the model correction unit 38 will be described later.

도 5는 중계 장치(53)의 제어부(55)의 기능적 구성을 도시하는 블록도이다. 중계 장치(53)의 제어부(55)는, 기능적 구성으로서, 통신 제어부(71) 로봇 측 시간 관리부(72)을 구비하고 있다. 이러한 기능부는, 중계 장치(53)의 제어부(55) 및/또는 기억부(57)에 기억된 소정의 프로그램과의 협동에 의해 기능적으로 실현된다.5 is a block diagram showing the functional configuration of the control unit 55 of the relay device 53. The control unit 55 of the relay device 53 includes a communication control unit 71 and a robot-side time management unit 72 as a functional configuration. Such a functional unit is functionally realized by cooperation with a predetermined program stored in the control unit 55 and/or the storage unit 57 of the relay device 53.

통신 제어부(71)는, 통신부(56)를 제어하여, 게임 장치(2)로부터, 조작자가 컨트롤러(28)를 조작함으로써 생성된 조작 정보를 수신한다.The communication control unit 71 controls the communication unit 56 to receive operation information generated by an operator operating the controller 28 from the game device 2.

로봇 측 시간 관리부(72)는, 컨트롤러(28)에 대해 조작자가 조작하면, 조작에 기초하여 로봇(51)이 동작할 때까지의 시간이 일정하게 유지되도록, 로봇 시스템(5) 측의 시간을 관리한다.When the operator manipulates the controller 28, the robot-side time management unit 72 determines the time on the robot system 5 side so that the time until the robot 51 operates based on the operation is kept constant. Manage.

(처리 플로우)(Processing flow)

다음으로, 게임 장치(2) 및 중계 장치(53)의 각각에서 실행 처리에 대하여, 도 6 - 8을 참조하여 설명한다.Next, execution processing in each of the game device 2 and the relay device 53 will be described with reference to Figs. 6-8.

도 6은 게임 장치(2) 및 중계 장치(53)의 각각에서 로봇(51)의 작업 개시 전의 처리 플로우를 도시하는 도면이다. 작업 개시 전에서, 작업 공간 모델에서 로봇 모델, 주변 기기 모델 및 워크 모델은, 실제 로봇(51), 주변 기기(52) 및 워크(W)와 각각 서로 동일한 상태가 되도록 작성한다.6 is a diagram showing a processing flow of the robot 51 before starting work in each of the game device 2 and the relay device 53. Before starting work, the robot model, the peripheral device model, and the work model in the work space model are created so as to be in the same state as the actual robot 51, the peripheral device 52, and the work W, respectively.

구체적으로는, 중개 장치(6)에 의해 게임 장치(2)와 중계 장치(53)가 접속되면, 먼저 중계 장치(53)의 통신 제어부(71)는, 작업 시작 전의 작업 공간 모델을 작성하기 위한 정보를 게임 장치(2)에 송신한다(스텝(S201)). 작업 개시 전의 작업 공간 모델을 작성하기 위한 정보에는, 실제 로봇(51)의 주변에 있는 실제 주변물의 상태를 나타내는 상태 정보가 포함된다.Specifically, when the game device 2 and the relay device 53 are connected by the mediation device 6, the communication control unit 71 of the relay device 53 first, for creating a working space model before the start of work. The information is transmitted to the game device 2 (step S201). The information for creating the work space model before the start of work includes state information indicating the state of the actual surrounding objects in the vicinity of the actual robot 51.

본 실시예에서는, 상태 정보에는, 실제 작업 공간에 설치된 촬상 장치(52b)가 주변 기기(52) 및 워크(W)를 촬상함으로써 생성된 촬상 정보가 포함된다. 또한, 상태 정보에는, 주변 기기(52)로서의 센서의 검지 정보가 포함된다. 센서의 검지 정보에는, 예를 들어 워크(W)가 작업 공간의 소정의 위치에 있는지 여부를 나타내는 정보나, 워크(W)의 위치 또는 자세를 나타내는 정보 등이 포함된다. 또한, 상태 정보에는, 주변 기기(52)에 설정된 설정 정보가 포함된다. 설정 정보에는, 예를 들어 로봇 시스템(5)이 주변 기기(52)로서 반송 장치를 포함하는 경우, 반송 장치에 대해 설정된 반송 속도 및 반송 간격이 포함되어도 좋다. 반송 간격은, 반송되는 워크(W) 사이의 거리라도 좋고, 어느 워크(W)가 로봇(51)의 앞의 소정의 위치에 반송된 시점부터, 그 다음의 워크(W)가 소정의 위치에 반송되기까지의 시간 간격 등이라도 좋다.In this embodiment, the state information includes imaging information generated by imaging the peripheral device 52 and the work W by the imaging device 52b installed in the actual work space. Further, the state information includes detection information of the sensor as the peripheral device 52. The detection information of the sensor includes, for example, information indicating whether the work W is at a predetermined position in the work space, information indicating the position or posture of the work W, and the like. Further, the state information includes setting information set in the peripheral device 52. In the setting information, for example, when the robot system 5 includes a conveying device as the peripheral device 52, the conveying speed and conveying interval set for the conveying device may be included. The conveyance interval may be a distance between the workpieces W to be conveyed, and from the time point when any workpiece W is conveyed to a predetermined position in front of the robot 51, the next workpiece W is brought to a predetermined position. The time interval until conveyance, etc. may be sufficient.

또한, 스텝(S201)에서 중계 장치(53)로부터 게임 장치(2)에 보내진 상태 정보에는, 실제 로봇(51)의 상태를 나타내는 정보도 포함된다. 실제 로봇(51)의 상태를 나타내는 정보에는, 예를 들어 로봇 컨트롤러(51b)가 기억하고 있는 실제 로봇(51)의 자세 정보나 위치 정보가 포함되어도 좋다. 또한, 실제 로봇(51)의 상태를 나타내는 정보에는, 주변 기기(52)인 촬상 장치(52b)에 의해 얻어지는 촬상 정보나 센서(52c)의 검지 정보가 포함되어도 좋다.In addition, the state information sent from the relay device 53 to the game device 2 in step S201 also includes information indicating the actual state of the robot 51. The information indicating the state of the actual robot 51 may include, for example, posture information or position information of the actual robot 51 stored by the robot controller 51b. Further, the information indicating the actual state of the robot 51 may include imaging information obtained by the imaging device 52b, which is the peripheral device 52, or detection information of the sensor 52c.

게임 장치(2) 측에서는, 상태 정보 취득부(33)는, 중계 장치(53)로부터 수신한 상태 정보를 취득한다(스텝(S101)). 그리고, 시뮬레이트부(34)는, 상태 정보 취득부(33)에 의해 취득한 상태 정보에 기초하여, 작업 개시 전의 실제 작업 공간과 동일한 상태의 작업 공간 모델을 생성한다(스텝(S102)). 상태 정보에는, 예를 들어, 워크(W)의 형상 데이터나 구조 정보, 워크(W)의 위치나 방향, 주변 기기(52)의 위치 정보나 구조 정보, 설정 정보 등이 포함되어 있다.On the game device 2 side, the state information acquisition unit 33 acquires the state information received from the relay device 53 (step S101). Then, the simulation unit 34 generates a work space model in the same state as the actual work space before the start of work, based on the state information acquired by the state information acquisition unit 33 (step S102). The state information includes, for example, shape data and structure information of the work W, the position and direction of the work W, location information and structure information of the peripheral device 52, setting information, and the like.

구체적으로는, 시뮬레이트부(34)는, 작업 개시 전의 실제 로봇(51)의 위치 정보(실제 작업 공간에 대해 설정된 좌표계에서의 위치 좌표) 및 자세 정보(로봇 본체(51a)가 구비하는 서보 모터의 회전 각도 정보 등)에 기초하여, 로봇 모델의 상태(위치나 자세 등)가 실제 로봇(51)과 동일한 상태가 되도록, 로봇 모델을 작성한다. 또한, 시뮬레이트부(34)는, 작업 개시 전의 실제 주변물의 상태 정보를 기초로, 주변물 모델이 실제 주변물과 동일한 상태가 되도록 주변물 모델을 작성한다.Specifically, the simulation unit 34 includes position information (position coordinates in the coordinate system set for the actual work space) of the actual robot 51 before the start of work, and attitude information (the servo motor included in the robot main body 51a). Based on rotation angle information, etc.), a robot model is created so that the state (position, posture, etc.) of the robot model becomes the same as that of the actual robot 51. Further, the simulation unit 34 creates a surrounding object model so that the surrounding object model is in the same state as the actual surrounding object based on the state information of the actual surrounding object before starting work.

화상 표시부(35)는, 스텝(S102)에서 작성한 작업 공간 모델의 화상을 생성하여, 표시 장치(25)에 표시한다(스텝(S103)). 이와 같이, 작업 개시의 준비가 이루어진다.The image display unit 35 generates an image of the work space model created in step S102 and displays it on the display device 25 (step S103). In this way, preparations for commencement of work are made.

도 7은 게임 장치(2) 및 중계 장치(53)의 각각에서 로봇(51)의 작업 개시 후의 처리 프로우이다. 또한, 도 8은 게임 장치(2) 및 중계 장치(53)의 각각에서 시간의 경과에 따라 실행되는 처리의 일례를 설명하기 위한 도면이다.7 is a processing flow after the robot 51 starts working in each of the game device 2 and the relay device 53. In addition, FIG. 8 is a diagram for explaining an example of processing executed over time in each of the game device 2 and the relay device 53.

스텝(S103) 후, 게임 장치(2)의 제어부(21)는, 작업 개시를 지시하는 조작이 이루어졌는지 여부를 판정한다(스텝(S105)). 작업 개시 지시가 없는 경우(스텝(S105): No), 작업 개시 지시가 있을 때까지 대기하는 상태가 된다. 조작자에 의해 컨트롤러(28)에 대해 작업 개시를 지시하는 조작이 이루어지면(스텝(S105): Yes), 통신 제어부(31)는, 중계 장치(53)에 작업 개시 지시를 송신한다(스텝(S106)). 또한, 조작 측 시간 관리부(32), 작업 개시 지시의 송신 시각을, 조작 측 기준 시각(t1)으로서 게임 장치(2)의 기억 장치(RAM(212) 또는 기억부(23) 등)에 기억한다(스텝(S107), 도 8 참조) .After step S103, the control unit 21 of the game device 2 determines whether or not an operation instructing the start of work has been performed (step S105). When there is no instruction to start work (step S105: No), it becomes a state of waiting until there is an instruction to start work. When an operation for instructing the controller 28 to start work is performed by the operator (step S105: Yes), the communication control unit 31 transmits a work start instruction to the relay device 53 (step S106). )). In addition, the operation-side time management unit 32 stores the transmission time of the operation start instruction as the operation-side reference time t1 in a storage device (RAM 212 or storage unit 23, etc.) of the game device 2 (See step S107, Fig. 8).

로봇 시스템(5) 측에서는, 중계 장치(53)의 통신 제어부(71)가 작업 개시 지시를 수신하면(스텝(S202)), 통신 제어부(71)는, 작업 개시 지시의 수신 시각으로부터 소정 시간(Δt)만큼 대기한 후의 시각을 작업 개시 시각으로 하고, 로봇(51) 및 주변 기기(52)에 작업 개시 지시를 보낸다(스텝(S203)). 또한 로봇 측 시간 관리부(72)는, 작업 개시 지시의 수신 시각으로부터 소정 시간(Δt)만큼 후의 시각을, 로봇 측 기준 시각(t2)으로서 기억한다(스텝(S204), 도 8 참조).On the robot system 5 side, when the communication control unit 71 of the relay device 53 receives a work start instruction (step S202), the communication control unit 71 starts a predetermined time (Δt) from the reception time of the work start instruction. The time after waiting for) is set as the work start time, and a work start instruction is sent to the robot 51 and the peripheral device 52 (step S203). Further, the robot-side time management unit 72 stores a time after a predetermined time Δt from the reception time of the work start instruction as the robot-side reference time t2 (step S204, see Fig. 8).

그리하여, 이후에 설명하는 바와 같이, 표시 장치(25)에 표시되는 작업 공간 모델에서는, 조작 측 기준 시각(t1)으로부터 로봇 모델의 작업이 개시되고, 한편, 실제 작업 공간에서는, 로봇 측 기준 시각(t2)으로부터 실제 로봇 작업이 개시된다. 다시 말해서, 실제 작업 공간은, 작업 공간 모델보다 기준 시각의 차이(t2 - t1)만큼 지연되어 작업이 진행된다. 예를 들어 게임 장치(2)로부터 로봇 시스템(5)에 보내지는 작업 개시 지시에는, 주변 기기(52)를 정지 상태로부터 가동 상태로 이행하는 명령이 포함되어도 좋다. 예를 들어 작업 공간 모델의 워크 모델은, 반송 장치 모델에 의해 조작 측 기준 시각(t1)으로부터 반송되기 시작하고, 실제 작업 공간의 실제 워크(W)는, 반송 장치에 의해 로봇 측 기준 시각(t2)으로부터 반송되기 시작하여도 좋다.Thus, as will be described later, in the work space model displayed on the display device 25, the robot model starts from the operation-side reference time t1, while in the actual work space, the robot-side reference time ( The actual robot work is started from t2). In other words, the actual work space is delayed by the difference (t2-t1) of the reference time compared to the work space model, and the work proceeds. For example, the operation start instruction sent from the game device 2 to the robot system 5 may include an instruction for shifting the peripheral device 52 from the stationary state to the operating state. For example, the work model of the work space model starts to be conveyed from the operation-side reference time t1 by the transfer device model, and the actual work W of the actual work space is transferred by the transfer device to the robot-side reference time t2. ) May start to be returned.

게임 장치(2)에서는, 스텝(S107)에서 기준 시각(t1)을 설정한 후, 로봇(51)의 원격 조작이 가능해진다. 즉, 컨트롤러(28)에 대해 로봇(51)을 조작하기 위한 조작이 수행된 경우(스텝(S108): Yes), 조작 정보가 생성된다. 시뮬레이트부(34)는, 조작 정보에 기초하여, 로봇 모델의 동작을 시뮬레이트한다(스텝(S109)). 또한, 통신 제어부(31)는, 조작 정보와 함께, 그 조작 정보에 대응하는 조작을 수행할 때까지 경과한 시간을 나타내는 기준 시각(t1)으로부터의 경과 시간(T)을 중계 장치(53)에 송신한다(스텝(S110)).In the game device 2, after setting the reference time t1 in step S107, remote operation of the robot 51 becomes possible. That is, when an operation for operating the robot 51 is performed on the controller 28 (step S108: Yes), operation information is generated. The simulation unit 34 simulates the operation of the robot model based on the operation information (step S109). Further, the communication control unit 31 transmits, to the relay device 53, the elapsed time T from the reference time t1 indicating the time elapsed until the operation corresponding to the operation information is performed, together with the operation information. It transmits (step S110).

로봇 시스템(5) 측에서는, 중계 장치(53)의 통신 제어부(71)가, 게임 장치(2)로부터 조작 정보와 시간 정보를 세트로 수신하면, 기준 시각(t2)으로부터의 경과 시간(T) 후에, 수신된 조작 정보를 기초로 조작을 실행하도록, 로봇(51)에 동작 지령을 보낸다(스텝(S205)). 여기서, 스텝(S110)에서는, 경과 시간(T) 대신에, 조작한 시각을 나타내는 시각 정보 등, 조작 정보에 대응하여 조작이 이루어진 시간을 나타내는 시간 정보가 보내져도 좋다.On the robot system 5 side, when the communication control unit 71 of the relay device 53 receives operation information and time information from the game device 2 as a set, after the elapsed time T from the reference time t2 , An operation command is sent to the robot 51 to execute an operation based on the received operation information (step S205). Here, in step S110, instead of the elapsed time T, time information indicating the time at which the operation was performed in correspondence with the operation information, such as time information indicating the operation time, may be sent.

또한, 스텝(S108)에서 조작이 있었다고 판정되었는지 여부에 관계없이, 시뮬레이트부(34)는, 실제 주변물의 상태를 시뮬레이트한다(스텝(S111)). 구체적으로, 시뮬레이트부(34)는, 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 실제 주변물의 상태를 예측하고, 예측된 결과를 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성한다. 여기서, 상태 정보는, 상태 정보 취득부(33)가 작업 개시 전에 스텝(S101)에서 취득한 것이 아니어도 좋고, 작업 개시 후에 취득한 정보라도 좋다. 즉, 로봇 시스템(5)으로부터 게임 장치(2)에 최신의 정보가, 순차적으로 보내져도 좋고, 상태 정보 취득부(33)는, 최신의 정보를 순차적으로 취득하여도 좋다. 시뮬레이트부(34)는, 최신의 정보를 기초로 실제 주변물의 상태를 예측하여도 좋다.Further, regardless of whether or not it is determined that there has been an operation in step S108, the simulation unit 34 simulates the actual state of the surrounding objects (step S111). Specifically, the simulation unit 34 predicts a state of an actual surrounding object after a predetermined time from the current point based on the state information, and generates the predicted result as peripheral object model data used to create the surrounding object model. . Here, the state information may not be obtained by the state information acquisition unit 33 in step S101 before starting the work, or may be information acquired after starting the work. That is, the latest information may be sequentially sent from the robot system 5 to the game device 2, or the state information acquisition unit 33 may sequentially acquire the latest information. The simulation unit 34 may predict the actual state of surrounding objects based on the latest information.

화상 표시부(35)는, 스텝(S109 및 S111)에서의 시뮬레이션 결과를 기초하여 생성된 데이터를 기초로, 작업 공간 모델을 나타내는 화상을 표시 장치(25)에 표시한다(스텝(S112)). 화상 표시부(35)는, 실제 작업 공간의 상황에 대해 로봇 측 기준 시각(t2)과 조작 측 기준 시각(t1)의 차이(t2 - t1)만큼 앞선 상황의 작업 공간 모델을 표시한다. 다시 말해서, 도 8에 도시된 바와 같이, 표시 장치(25)에 표시되는 작업 공간 모델에 대해서, 실제 작업 공간은, 로봇 측 기준 시각(t2)과 조작 측 기준 시각(t1)의 차이(t2 - t1)만큼 지연되어 작업이 진행된다.The image display unit 35 displays an image representing the work space model on the display device 25 based on the data generated based on the simulation results in steps S109 and S111 (step S112). The image display unit 35 displays a working space model of a situation that is advanced by a difference (t2-t1) between the robot-side reference time t2 and the operation-side reference time t1 with respect to the actual working space situation. In other words, as shown in Fig. 8, with respect to the working space model displayed on the display device 25, the actual working space is the difference between the robot-side reference time t2 and the operation-side reference time t1 (t2 − It is delayed by t1) and the work proceeds.

컨트롤러(28)에 대해 작업 종료를 위한 조작이 수행할 때까지, 또는 일정한 작업이 완료될 때까지는(스텝(S113): No), 스텝(S108 ~ S112)이 반복된다.Until an operation for ending a job is performed on the controller 28 or until a certain job is completed (step S113: No), steps S108 to S112 are repeated.

상기 스텝(S203)에서는, 로봇 측 시간 관리부(72)는, 작업 개시 지시의 수신 시각을 로봇 측 기준 시각(t2)으로 하지 않고, 작업 개시 지시의 수신 시각으로부터 소정 시간(Δt)만큼 대기한 후의 시각을 로봇 측 기준 시각(t2)으로 설정하고 있다. 이와 같이, 작업 측 기준 시각(t1)과 로봇 측 기준 시각(t2) 사이에 일정한 간격을 설정하는 것으로, 게임 장치(2)와 로봇 시스템(5)의 통신 지연(도 8의 Δd1, Δd2 참조)의 변동을 흡수하고 있다.In the step S203, the robot-side time management unit 72 does not set the reception time of the work start instruction to the robot-side reference time t2, and waits for a predetermined time (Δt) from the reception time of the work start instruction. The time is set as the robot-side reference time t2. In this way, by setting a certain interval between the work-side reference time t1 and the robot-side reference time t2, the communication delay between the game device 2 and the robot system 5 (see Δd1 and Δd2 in Fig. 8) Is absorbing the fluctuations of

여기서, 대기 시간(Δt)은, 게임 장치(2)와 로봇 시스템(5)(상세하게는 중계 장치(53)) 사이의 실제의 통신 지연에 기초하여 성정되어도 좋다. 통신 지연 계측부(36)는, 게임 장치(2)와 그에 대응시킨 로봇 시스템(5)(더 자세하게는 중계 장치(53)) 사이의 통신 지연을 계측한다. 통신 지연의 계측은 주지의 방법으로 실시된다. 로봇 측 시간 관리부(72)는, 스텝(S105)의 전에 통신 지연 계측부(36)에 의해 계측된 통신 지연의 변동 정도에 따라서, 대기 시간(Δt)의 길이, 다시 말해서 로봇 측 기준 시각(t2)과 조작 측 기준 시각(t1)의 차이(t2 - t1)가 설정되어도 좋다.Here, the waiting time Δt may be determined based on an actual communication delay between the game device 2 and the robot system 5 (in detail, the relay device 53). The communication delay measurement unit 36 measures the communication delay between the game device 2 and the robot system 5 (relay device 53 in more detail) corresponding thereto. Communication delay is measured by a known method. The robot side time management unit 72 determines the length of the waiting time Δt, that is, the robot side reference time t2, according to the degree of fluctuation of the communication delay measured by the communication delay measurement unit 36 before step S105. The difference (t2-t1) between the and the operation-side reference time t1 may be set.

또한, 본 실시예에서는, 스텝(S108 ~ S112)을 반복할 때에, 정기적으로, 작업 공간 모델을 보정한다. 어긋남 검지부(37)는, 소정의 시점에서 표시 장치(25)에 표시된 작업 공간 모델의 상황과, 소정의 시점보다 소정 시간만큼 후의 실제 작업 공간의 상황 사이의 어긋남의 정도를 검지한다. 더 자세하게는, 어긋남 검지부(37)는, 소정의 시점의 작업 공간 모델의 상황과, 당해 소정의 시점보다, 로봇 측 기준 시각(t2)과 조작 측 기준 시각(t1)의 차이(t2 - t1)만큼 후의 실제 작업 공간의 상황과의 사이의 어긋남의 정도를 검지한다.In addition, in this embodiment, when repeating steps S108 to S112, the work space model is periodically corrected. The shift detection unit 37 detects the degree of shift between the situation of the working space model displayed on the display device 25 at a predetermined time point and the actual work space situation after a predetermined time from the predetermined point in time. In more detail, the deviation detection unit 37 includes the situation of the working space model at a predetermined point in time, and the difference between the robot-side reference time t2 and the operation-side reference time t1 (t2-t1) from the predetermined point in time. The degree of deviation between the actual working space and the situation after that is detected.

예를 들어 어긋남 검지부(37)는, 어느 시각(ta)의 실제 작업 공간의 상태를 나타내는 상태 정보와, 당해 시각(Ta)보다 전에 취득한 상태 정보에 기초하여 시뮬레이트부(34)에 의해 예측된 당해 시각(Ta)의 작업 공간 모델의 상태를 비교하여 어긋남의 정도를 검지하여도 좋다. 어긋남 검지부(37)가 비교하는 실제 작업 공간의 상태를 나타내는 상태 정보에는, 시뮬레이트부(34)가 실제 주변물의 상태를 예측하기 위해 사용하는 상태 정보가 포함되어도 좋다. 어긋남 검지부(37)는, 예를 들어 시각(Ta)의 실제 작업 공간의 촬상 정보를 로봇 시스템(5)으로부터 수신하고, 그 촬상 정보로부터 실제 주변물(주변 기기(52)나 워크(W))의 위치나 자세를 화상 인식으로 판단하여도 좋다. 어긋남 검지부(37)는, 시각(Ta)의 촬상 정보로부터 판단한 실제 주변물의 위치나 자세와, 시각(ta)의 실제 작업 공간에 대응하는 시각(즉, 시각(ta - (t2 - t1)))의 작업 공간 모델에서 주변물 모델의 위치나 자세를 비교한다. 즉, 어긋남 검지부(37)는, 시각(Ta)의 촬상 정보로부터 판단한 실제 주변물의 상태(주변기기(52)나 워크(W)의 위치나 자세 등)와, 시각(Ta)보다 시간(t2 - t1)만큼 전의 주변물 모델의 상태를 비교한다.For example, the misalignment detection unit 37 predicts the current predicted by the simulation unit 34 based on state information indicating the state of the actual work space at a certain time ta and the state information acquired before the time Ta. The degree of deviation may be detected by comparing the state of the working space model at time Ta. The state information indicating the state of the actual work space compared by the shift detection unit 37 may include state information used by the simulation unit 34 to predict the actual state of surrounding objects. The misalignment detection unit 37 receives, for example, imaging information of the actual work space at the time Ta from the robot system 5, and the actual surrounding objects (peripheral device 52 or work W) from the imaging information. The position or posture of the person may be determined by image recognition. The misalignment detection unit 37 determines the position or posture of the actual surrounding object determined from the imaging information at the time Ta, and a time corresponding to the actual work space at the time ta (that is, time (ta-(t2-t1))). Compare the position or posture of the surrounding object model in the working space model of. That is, the deviation detection unit 37 determines the state of the actual surrounding object (position or posture of the peripheral device 52 or the work W, etc.) determined from the imaging information at the time Ta, and the time (t2-t1) than the time Ta. ) And compare the state of the surrounding object model before.

그리고, 모델 보정부(38)는, 어긋남 검지부(37)에 의해 검지된 어긋남이 미리 설정된 범위를 초과하는 경우에, 어긋남이 해소되도록 작업 공간 모델을 보정한다. 예를 들어, 모델 보정부(38)는, 시뮬레이트부(34)에 사용되는 상태 정보를, 어긋남 검지부(37)에 의해 검지된 어긋남만큼 조정하여도 좋다. 또는, 모델 보정부(38)는, 시뮬레이트부(34)에 의해 생성된 주변물 모델 데이터를, 어긋남 검지부(37)에 의해 검지된 어긋남만큼 조정하여도 좋다. 여기서, 모델 보정부(38)가 작업 공간 모델의 보정을 수행한 후에, 시뮬레이트부(34)가 실제 주변물질의 상태를 시뮬레이트할 경우, 작업 공간 모델의 보정을 가미하여, 실제 주변물의 상태를 시뮬레이트한다.Then, the model correction unit 38 corrects the work space model so that the deviation is eliminated when the deviation detected by the deviation detection unit 37 exceeds a preset range. For example, the model correction unit 38 may adjust the state information used in the simulation unit 34 by a deviation detected by the deviation detection unit 37. Alternatively, the model correction unit 38 may adjust the peripheral object model data generated by the simulation unit 34 by a deviation detected by the deviation detection unit 37. Here, after the model correction unit 38 performs the correction of the work space model, when the simulation unit 34 simulates the state of the actual surrounding material, the work space model is corrected to simulate the actual state of the surrounding material. do.

이상에서 설명한 바와 같이, 본 실시예의 데이터 생성 장치로서의 게임 장치(2) 및 원격 조작 시스템(1)에 의하면, 시뮬레이트부(34)에 의해, 현재점보다 소정 시간만큼 후의 실제 주변물의 상태가 예측되고, 그 예측 결과가, 표시 장치(25)에 표시되는 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로서 생성된다. 따라서, 주변물 모델의 상태와 실제 주변물의 상태 사이에도, 로봇 모델과 실제 로봇 사이와 동일한 시간 어긋남을 만들 수 있다. 이에 따라서, 로봇 모델과 주변물 모델의 시간축을 일치시킬 수 있기 때문에, 통신 지연이 조작자의 조작에 주는 영향을 억제할 수 있다.As described above, according to the game device 2 and the remote control system 1 as the data generating device of the present embodiment, the state of the actual surrounding objects after a predetermined time from the current point is predicted by the simulation unit 34. , The prediction result is generated as peripheral object model data used to create a peripheral object model displayed on the display device 25. Accordingly, even between the state of the surrounding object model and the actual state of the surrounding object, it is possible to create the same time difference as between the robot model and the actual robot. Accordingly, since the time axis of the robot model and the surrounding object model can be matched, the influence of the communication delay on the operator's operation can be suppressed.

또한, 본 실시예에서는 어긋남 검지부(37)가 소정의 시점에서 표시 장치(25)에 표시된 작업 공간 모델의 상황과, 소정의 시점보다 소정 시간만큼 후의 실제 작업 공간의 상황 사이의 어긋남의 정도를 검지하고, 모델 보정부(38)가, 어긋남 검지부(37)에 의해 검지된 어긋남이 미리 설정된 범위를 초과하는 경우에, 어긋남이 해소되도록 작업 공간 모델을 보정한다. 따라서, 표시 장치(25)에 표시되는 작업 공간 모델의 상황과 실제 작업 공간의 상황 사이의 어긋남을 억제할 수 있다.In addition, in the present embodiment, the deviation detection unit 37 detects the degree of deviation between the situation of the working space model displayed on the display device 25 at a predetermined time point and the actual work space situation after a predetermined time from a predetermined point in time. Then, the model correction unit 38 corrects the work space model so that the deviation is eliminated when the deviation detected by the deviation detection unit 37 exceeds a preset range. Accordingly, it is possible to suppress a shift between the situation of the work space model displayed on the display device 25 and the situation of the actual work space.

(기타 실시예)(Other Examples)

본 발명은 상술한 실시예에 한정되는 것이 아니고, 본 발명의 요지를 벗어나지 않는 범위에서 다양한 변형이 가능하다.The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

예를 들어, 상기 실시예에서는, 조작 단말로서 게임 장치(2)가 예시되었지만, 본 발명의 조작 단말은 게임 장치(2)가 아니어도 좋다. 조작 단말은, 조작자의 조작을 접수하는 조작기 및 조작자가 육안으로 확인 가능한 표시 장치를 구비하는 것이라면 좋다. 예를 들어 게임 장치(2)는, 공지의 각종 게임 장치 외에, 예를 들어 개인 정보 단말(PDA(Personal Data Assistant)), 스마트 폰, 퍼스널 컴퓨터, 태블릿 및 로봇 전용 원격 조작기 중 하나라도 좋다.For example, in the above embodiment, the game device 2 is exemplified as the operation terminal, but the operation terminal of the present invention may not be the game device 2. The operation terminal may be provided with a manipulator that accepts an operator's operation and a display device that the operator can visually check. For example, the game device 2 may be one of a personal information terminal (PDA (Personal Data Assistant)), a smart phone, a personal computer, a tablet, and a robot-only remote control unit, in addition to various known game devices.

또한, 예를 들어, 중개 장치(6) 또는 다른 서버 장치의 제어부가, 소정의 프로그램을 실행함으로써, 상태 정보 취득부 및 예측부로서 기능하여도 좋다. 즉, 본 발명의 「데이터 생성 장치」는, 조작자가 조작하는 조작 단말이 아니어도 좋고, 조작 단말과 통신하는 장치라도 좋다. 예를 들어, 본 발명의 데이터 생성 장치는, 로봇 컨트롤러(51b), 중계 장치(53), 중개 장치(6) 또는 중개 장치(6)와는 다른 서버 장치라도 좋다. 본 발명의 데이터 생성 장치는, 통신 지연 계측부(36), 어긋남 검지부(37) 및 모델 보정부(38)의 일부 또는 전부를 구비하지 않아도 좋다.Further, for example, the control unit of the intermediary device 6 or another server device may function as a state information acquisition unit and a prediction unit by executing a predetermined program. That is, the "data generating device" of the present invention may not be an operation terminal operated by an operator, or may be a device that communicates with the operation terminal. For example, the data generating device of the present invention may be a robot controller 51b, a relay device 53, an intermediary device 6, or a server device different from the intermediary device 6. The data generating apparatus of the present invention may not include a part or all of the communication delay measurement unit 36, the deviation detection unit 37, and the model correction unit 38.

또한, 본 발명의 「데이터 생성 프로그램」은, 조작 단말로서의 게임 장치(2)의 기억 장치 대신에 또는 더하여, 로봇 컨트롤러(51b), 중계 장치(53), 중개 장치(6) 및 중개 장치(6)와는 다른 서버 장치 중 적어도 하나가 구비한 기억 장치에 기억되어 있어도 좋다. 또한, 본 발명의 「데이터 생성 프로그램」은, 로봇 컨트롤러(51b), 중계 장치(53), 중개 장치(6) 및 중개 장치(6)와는 다른 서버 장치 중 적어도 하나가 각각 내장하는 컴퓨터에 실행됨으로써, 당해 컴퓨터에 상태 정보 취득부 및 예측부로서 기능을 시키는 것이라면 좋다. 도 6 및 도 7에 따라 설명한 게임 장치(2) 및 중계 장치(53)의 처리 플로우도, 본 발명을 제한하는 것은 아니다.In addition, the "data generation program" of the present invention is a robot controller 51b, a relay device 53, an intermediary device 6, and an intermediary device 6 in place of or in addition to the storage device of the game device 2 as an operation terminal. ) May be stored in a storage device provided in at least one of the server devices other than ). In addition, the ``data generation program'' of the present invention is executed on a computer in which at least one of the robot controller 51b, the relay device 53, the mediation device 6, and a server device different from the mediation device 6 is each built-in. , It is good if the computer functions as a state information acquisition unit and a prediction unit. The processing flow of the game device 2 and the relay device 53 described with reference to Figs. 6 and 7 also does not limit the present invention.

또한, 원격 조작 시스템(1)는, 게임 장치(2)를 하나만 구비하여도 좋다. 또한, 원격 조작 시스템(1)은, 로봇 시스템(5)을 하나만 구비하여도 좋다. 또한, 원격 조작 시스템(1)은 중개 장치(6)를 구비하지 않아도 좋다. 또한, 로봇 시스템(5)에서 중계 장치(53)와 로봇 컨트롤러(51b)는 일체적으로 구성되어 있어도 좋다. 즉, 로봇 시스템(5)은, 중계 장치(53)와 로봇 컨트롤러(51b)의 각각의 기능을 겸한 1 대의 제어 장치를 구비하여도 좋다.Further, the remote operation system 1 may be provided with only one game device 2. Further, the remote operation system 1 may include only one robot system 5. In addition, the remote operation system 1 does not need to be provided with the intermediary device 6. Further, in the robot system 5, the relay device 53 and the robot controller 51b may be integrally configured. That is, the robot system 5 may be provided with one control device that also serves as the respective functions of the relay device 53 and the robot controller 51b.

또한, 본 발명에서 실제 로봇은, 산업용 로봇이 아니어도 좋고, 조작 단말의 조작자의 조작에 따라 동작하는 로봇이라면 좋다. 예를 들어, 본 발명의 실제 로봇은, 간호, 의료, 운반, 청소, 요리 등의 서비스를 제공하는 서비스용 로봇이라도 좋다. 또한, 본 발명의 실제 로봇은 휴머노이드라도 좋다. 실제 로봇은, 조작자에 의한 조작기의 조작에 의해 생성된 조작 정보에 기초하여 동작하지만, 실제 로봇은, 당해 조작 정보뿐만 아니라 미리 설정된 태스크 프로그램에 기초하여 동작하여도 좋다.In addition, in the present invention, the actual robot may not be an industrial robot, but may be a robot that operates according to an operator's operation of an operation terminal. For example, the actual robot of the present invention may be a service robot that provides services such as nursing care, medical care, transportation, cleaning, and cooking. In addition, the actual robot of the present invention may be a humanoid. The actual robot operates based on the operation information generated by the operation of the manipulator by the operator, but the actual robot may operate based on not only the operation information but also a preset task program.

상기 실시예에서는, 데이터 생성 프로그램은, 실제 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득 스텝과, 상기 상태 정보에 기초하여, 현재점보다 후의 상기 실제 주변물의 상태를 예측하는 동시에, 예측 결과를, 상기 표시기에 표시되는 상기 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측 스텝을, 조작 단말로서의 게임 장치(2)의 제어기(21)에 실행시키는 것이지만, 본 발명의 데이터 생성 프로그램은, 상술한 상태 정보 취득 스텝 및 예측 스텝을, 다른 컴퓨터에 실행시켜도 좋다. 예를 들어, 본 발명의 데이터 생성 프로그램은, 상술 한 상태 정보 취득 스텝 및 예측 스텝을, 로봇 컨트롤러(51b), 중계 장치(53), 중개 장치(6) 및 중개 장치(6)와는 다른 서버 장치 중 적어도 하나가 구비한 제어기(컴퓨터)에 실행시켜도 좋다. 데이터 생성 프로그램은 복수의 기억 장치에 분산되어 기억되어 있어도 좋다. 예를 들어 데이터 생성 프로그램의 일부가 조작 단말의 기억 장치에 기억되고, 그 외가 다른 기억 장치(예를 들어 중계 장치(53))에 기억되어 있어도 좋다. 또한, 본 발명의 데이터 생성 프로그램은, 소정의 시점에서 상기 표시기에 표시된 상기 작업 공간 모델의 상황과, 상기 소정의 시점보다 상기 소정 시간만큼 후의 상기 실제 작업 공간의 상황 사이의 어긋남의 정도를 검지하는 어긋남 검지 스텝을, 컴퓨터에 실행시켜도 좋다. 또한, 본 발명의 데이터 생성 프로그램은, 상기 어긋남 검지 스텝에 의해 검지된 어긋남이 미리 설정된 범위를 초과하는 경우에, 상기 어긋남이 해소되도록 상기 작업 공간 모델을 보정하는 모델 보정 스텝을 컴퓨터에 실행시켜도 좋다.In the above embodiment, the data generation program includes a state information acquisition step of acquiring state information indicating a state of an actual surrounding object, and, based on the state information, predicts the state of the actual surrounding object after the present point, and a prediction result The prediction step of generating the peripheral object model data used to create the peripheral object model displayed on the display is executed by the controller 21 of the game device 2 as an operation terminal, but the data generation of the present invention The program may execute the above-described state information acquisition step and prediction step on another computer. For example, in the data generation program of the present invention, the above-described state information acquisition step and prediction step are performed in a server device different from the robot controller 51b, the relay device 53, the mediation device 6, and the mediation device 6 At least one of them may be implemented in a controller (computer) provided. The data generation program may be distributed and stored in a plurality of storage devices. For example, a part of the data generation program may be stored in the storage device of the operation terminal, and others may be stored in another storage device (for example, the relay device 53). In addition, the data generation program of the present invention detects a degree of deviation between the situation of the work space model displayed on the display at a predetermined time point and the situation of the actual work space after the predetermined time from the predetermined time point. The discrepancy detection step may be performed on the computer. Further, in the data generation program of the present invention, when the deviation detected by the deviation detection step exceeds a preset range, the computer may execute a model correction step for correcting the working space model so that the deviation is eliminated. .

1: 원격 조작 시스템
2: 게임 장치(조작 단말)
4: 통신 네트워크
5: 로봇 시스템
6: 중개 장치
25: 표시 장치(표시기)
28: 컨트롤러(조작기)
33: 상태 정보 취득부
34: 시뮬레이트부(예측부)
35: 화상 표시부
36: 통신 지연 계측부
37: 어긋남 검지부
38: 모델 보정부
51: 로봇
51a: 로봇 본체
51b: 로봇 컨트롤러
52: 주변 기기
52a: 컨베이어
52b: 촬상 장치
52c: 센서
53: 중계 장치
55: 제어부
1: remote operation system
2: Game device (operation terminal)
4: communication network
5: robot system
6: intermediary device
25: display device (indicator)
28: controller (manipulator)
33: state information acquisition unit
34: simulation unit (prediction unit)
35: image display unit
36: communication delay measurement unit
37: misalignment detection unit
38: model correction unit
51: robot
51a: robot body
51b: robot controller
52: peripheral device
52a: conveyor
52b: imaging device
52c: sensor
53: relay device
55: control unit

Claims (11)

조작자의 조작을 접수하는 조작기 및 상기 조작자가 눈으로 확인 가능한 표시기를 구비하는 조작 단말과, 실제 작업 공간 내에 설치되고, 상기 조작 단말과 데이터 통신 가능한 네트워크를 통해 접속된 실제 로봇을 구비하는 원격 조작 시스템에서, 상기 표시기에 표시되는 화상의 생성에 사용되는 적어도 일부의 데이터를 생성하는 데이터 생성 장치로서,
상기 표시기에는, 상기 실제 작업 공간을 모델화한 작업 공간 모델이 동영상으로서 표시되고,
상기 작업 공간 모델은, 상기 실제 로봇을 모델화한 로봇 모델과, 상기 실제 로봇의 주변에 있는 실제 주변물을 모델화한 주변물 모델을 포함하고,
상기 로봇 모델은, 상기 조작기에 대한 상기 조작자의 조작에 따라 동작하도록 작성되고,
상기 데이터 생성 장치는,
상기 실제 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득부와,
상기 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 상기 실제 주변물의 상태를 예측하는 한편, 예측한 결과를, 상기 표시기에 표시되는 상기 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측부를 구비하는 것을 특징으로 하는 데이터 생성 장치.
A remote control system comprising an operation terminal having a manipulator that accepts an operator's operation and an indicator that the operator can visually check, and a real robot installed in an actual work space and connected through a network capable of data communication with the operation terminal In, as a data generating device for generating at least some data used to generate the image displayed on the display,
On the display, a working space model modeling the actual working space is displayed as a video,
The working space model includes a robot model modeling the real robot, and a surrounding object model modeling the real surrounding objects around the real robot,
The robot model is created to operate according to the manipulation of the manipulator with respect to the manipulator,
The data generating device,
A state information acquisition unit that acquires state information indicating the state of the actual surrounding object;
Predicting the actual state of the surrounding object after a predetermined time from the current point based on the state information, and generating the predicted result as surrounding object model data used to create the surrounding object model displayed on the display. A data generating device comprising a prediction unit.
제1항에 있어서,
상기 실제 주변물은, 상기 실제 로봇의 작업 대상인 워크, 상기 워크를 반송하는 반송 장치 및 상기 실제 로봇을 이동시키는 이동 장치 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 생성 장치.
The method of claim 1,
The actual surrounding object includes at least one of a work target of the actual robot, a transport device for transporting the work, and a moving device for moving the real robot.
제1항 또는 제2항에 있어서,
상기 상태 정보는, 상기 작업 공간에 설치된 촬상 장치가 상기 실제 주변물을 촬상함으로써 생성되는 촬상 정보를 포함하는 것을 특징으로 하는 데이터 생성 장치.
The method according to claim 1 or 2,
The status information includes imaging information generated when an imaging device installed in the working space captures the actual surrounding objects.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 상태 정보는, 상기 실제 주변물로서의 주변 기기에 설정된 설정 정보를 포함하는 것을 특징으로 하는 데이터 생성 장치.
The method according to any one of claims 1 to 3,
The status information includes setting information set in the peripheral device as the actual surrounding object.
제1항 내지 제4항 중 어느 한 항에 있어서,
소정의 시점에서 상기 표시기에 표시된 상기 작업 공간 모델의 상황과, 상기 소정의 시점보다 상기 소정 시간만큼 후의 상기 실제 작업 공간의 상황 사이의 어긋남의 정도를 검지하는 어긋남 검지부를 더 구비하는 것을 특징으로 하는 데이터 생성 장치.
The method according to any one of claims 1 to 4,
And a deviation detection unit configured to detect a degree of deviation between the situation of the working space model displayed on the display at a predetermined time point and the situation of the actual work space after the predetermined time from the predetermined time point. Data generation device.
제5항에 있어서,
상기 어긋남 검지부에 의해 검지된 어긋남이 미리 설정된 범위를 초과하는 경우, 상기 어긋남이 해소되도록 상기 작업 공간 모델을 보정하는 모델 보정부를 더 구비하는 것을 특징으로 하는 데이터 생성 장치.
The method of claim 5,
And a model correction unit for correcting the working space model so that the deviation is eliminated when the deviation detected by the deviation detection unit exceeds a preset range.
제1항 내지 제6항 중 어느 한 항에 있어서,
상기 조작 단말은, 상기 조작기로서의 컨트롤러를 포함하는 게임 장치인 것을 특징으로 하는 데이터 생성 장치.
The method according to any one of claims 1 to 6,
The data generating device, wherein the operation terminal is a game device including a controller as the operation device.
제1항 내지 제7항 중 어느 한 항에 있어서,
상기 조작 단말은, 개인 정보 단말(PDA(Personal Data Assistant)), 스마트 폰, 퍼스널 컴퓨터, 태블릿 및 로봇 전용 원격 조작기 중 적어도 하나인 것을 특징으로 하는 데이터 생성 장치.
The method according to any one of claims 1 to 7,
The operation terminal is at least one of a personal information terminal (PDA (Personal Data Assistant)), a smart phone, a personal computer, a tablet, and a robot-only remote control device.
조작자의 조작을 접수하는 조작기 및 상기 조작자가 눈으로 확인 가능한 표시기를 구비하는 조작 단말과, 실제 작업 공간 내에 설치되고, 상기 조작 단말과 데이터 통신 가능한 네트워크를 통해 접속된 실제 로봇을 구비하는 원격 조작 시스템에서, 상기 표시기에 표시되는 화상의 생성에 사용되는 적어도 일부의 데이터를 생성하는 데이터 생성 방법으로서,
상기 표시기에는, 상기 실제 작업 공간을 모델화한 작업 공간 모델이 동영상으로서 표시되고,
상기 작업 공간 모델은, 상기 실제 로봇을 모델화한 로봇 모델과, 상기 실제 로봇의 주변에 있는 실제 주변물을 모델화한 주변물 모델을 포함하고,
상기 로봇 모델은, 상기 조작기에 대한 상기 조작자의 조작에 따라 동작하도록 작성되고,
상기 데이터 생성 방법은,
상기 실제 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득 스텝과,
상기 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 상기 실제 주변물의 상태를 예측하는 한편, 예측한 결과를, 상기 표시기에 표시되는 상기 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측 스텝을 포함하는 것을 특징으로 하는 데이터 생성 방법.
A remote control system comprising an operation terminal having a manipulator that accepts an operator's operation and an indicator that the operator can visually check, and a real robot installed in an actual work space and connected through a network capable of data communication with the operation terminal In, As a data generation method for generating at least a portion of the data used in the generation of the image displayed on the display,
On the display, a working space model modeling the actual working space is displayed as a video,
The working space model includes a robot model modeling the real robot, and a surrounding object model modeling the real surrounding objects around the real robot,
The robot model is created to operate according to the manipulation of the manipulator with respect to the manipulator,
The data generation method,
A state information acquisition step of acquiring state information indicating a state of the actual surrounding object;
Predicting the actual state of the surrounding object after a predetermined time from the current point based on the state information, and generating the predicted result as surrounding object model data used to create the surrounding object model displayed on the display. A data generation method comprising a prediction step.
조작자의 조작을 접수하는 조작기 및 상기 조작자가 눈으로 확인 가능한 표시기를 구비하는 조작 단말과, 실제 작업 공간 내에 설치되고, 상기 조작 단말과 데이터 통신 가능한 네트워크를 통해 접속된 실제 로봇을 구비하는 원격 조작 시스템에서, 컴퓨터로 실행시킴으로써, 상기 표시기에 표시되는 화상의 생성에 사용되는 적어도 일부의 데이터를 생성하는 데이터 생성 프로그램으로서,
상기 표시기에는, 상기 실제 작업 공간을 모델화한 작업 공간 모델이 동영상으로서 표시되고,
상기 작업 공간 모델은, 상기 실제 로봇을 모델화한 로봇 모델과, 상기 실제 로봇의 주변에 있는 실제 주변물을 모델화한 주변물 모델을 포함하고,
상기 로봇 모델은, 상기 조작기에 대한 상기 조작자의 조작에 따라 동작하도록 작성되고,
상기 데이터 생성 프로그램은,
상기 실제 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득 스텝과,
상기 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 상기 실제 주변물의 상태를 예측하는 한편, 예측한 결과를, 상기 표시기에 표시되는 상기 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측 스텝을, 상기 컴퓨터로 실행시키는 것을 특징으로 하는 데이터 생성 프로그램.
A remote control system comprising an operation terminal having a manipulator that accepts an operator's operation and an indicator that the operator can visually check, and a real robot installed in an actual work space and connected through a network capable of data communication with the operation terminal In, as a data generation program that generates at least a portion of data used for generation of an image displayed on the display by executing it on a computer,
On the display, a working space model modeling the actual working space is displayed as a video,
The working space model includes a robot model modeling the real robot, and a surrounding object model modeling the real surrounding objects around the real robot,
The robot model is created to operate according to the manipulation of the manipulator with respect to the manipulator,
The data generation program,
A state information acquisition step of acquiring state information indicating a state of the actual surrounding object;
Predicting the actual state of the surrounding object after a predetermined time from the current point based on the state information, and generating the predicted result as surrounding object model data used to create the surrounding object model displayed on the display. A data generation program, characterized in that the prediction step is executed by the computer.
조작자의 조작을 접수하는 조작기 및 상기 조작자가 눈으로 확인 가능한 표시기를 구비하는 조작 단말과, 실제 작업 공간 내에 설치되고, 상기 조작 단말과 데이터 통신 가능한 네트워크를 통해 접속된 실제 로봇을 구비하는 원격 조작 시스템으로서,
상기 표시기에는, 상기 실제 작업 공간을 모델화한 작업 공간 모델이 동영상으로서 표시되고,
상기 작업 공간 모델은, 상기 실제 로봇을 모델화한 로봇 모델과, 상기 실제 로봇의 주변에 있는 실제 주변물을 모델화한 주변물 모델을 포함하고,
상기 로봇 모델은, 상기 조작기에 대한 상기 조작자의 조작에 따라 동작하도록 작성되고,
상기 원격 조작 시스템은, 상기 실제 주변물의 상태를 나타내는 상태 정보를 취득하는 상태 정보 취득부와, 상기 상태 정보에 기초하여, 현재점보다 소정 시간만큼 후의 상기 실제 주변물의 상태를 예측하는 한편, 예측한 결과를, 상기 표시기에 표시되는 상기 주변물 모델을 작성하는데 사용되는 주변물 모델 데이터로 생성하는 예측부를 구비하는 데이터 생성 장치를 구비하는 것을 특징으로 하는 원격 조작 시스템.
A remote control system comprising an operation terminal having a manipulator that accepts an operator's operation and an indicator that the operator can visually check, and a real robot installed in an actual work space and connected through a network capable of data communication with the operation terminal As,
On the display, a working space model modeling the actual working space is displayed as a video,
The working space model includes a robot model modeling the real robot, and a surrounding object model modeling the real surrounding objects around the real robot,
The robot model is created to operate according to the manipulation of the manipulator with respect to the manipulator,
The remote control system includes a state information acquisition unit that acquires state information indicating a state of the actual surrounding object, and, based on the state information, predicts the state of the actual surrounding object after a predetermined time from the present point, while predicting And a data generating device including a prediction unit that generates a result of the surrounding object model data used to create the surrounding object model displayed on the display.
KR1020217006823A 2018-08-10 2019-08-08 Data generating device, data generating method, data generating program, and remote control system KR102518766B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JPJP-P-2018-151917 2018-08-10
JP2018151917 2018-08-10
JPJP-P-2019-105754 2019-06-05
JP2019105754A JP7281349B2 (en) 2018-08-10 2019-06-05 remote control system
PCT/JP2019/031495 WO2020032211A1 (en) 2018-08-10 2019-08-08 Data generating device, data generating method, data generating program, and remote operation system

Publications (2)

Publication Number Publication Date
KR20210041048A true KR20210041048A (en) 2021-04-14
KR102518766B1 KR102518766B1 (en) 2023-04-06

Family

ID=77926803

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217006823A KR102518766B1 (en) 2018-08-10 2019-08-08 Data generating device, data generating method, data generating program, and remote control system

Country Status (4)

Country Link
KR (1) KR102518766B1 (en)
CN (1) CN112469538B (en)
TW (1) TW202014278A (en)
WO (1) WO2020032211A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220317655A1 (en) * 2020-07-01 2022-10-06 Toshiba Mitsubishi-Electric Industrial Systems Corporation Manufacturing facility diagnosis support apparatus
WO2023053520A1 (en) * 2021-09-30 2023-04-06 ソニーグループ株式会社 Information processing system, information processing method, and program
TWI822406B (en) * 2022-10-20 2023-11-11 國立中正大學 Universal translation control system for remote control of robots with joysticks

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229157A (en) * 2013-05-24 2014-12-08 日本電信電話株式会社 Delay compensation device, method, program, and recording medium
JP2015047666A (en) 2013-09-02 2015-03-16 トヨタ自動車株式会社 Remote operation device and operation image display method
KR20160002329A (en) * 2014-06-30 2016-01-07 가부시키가이샤 야스카와덴키 Robot simulator and file generation method for robot simulator
JP2017519644A (en) * 2014-04-30 2017-07-20 パーカー、コールマン、ピー.PARKER,Coleman,P. Robot control system using virtual reality input

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209505A (en) * 1988-02-17 1989-08-23 Toshiba Corp Teaching device for remote control robot
JPH0719818A (en) * 1993-06-30 1995-01-20 Kajima Corp Three-dimensional movement predicting device
US7312766B1 (en) * 2000-09-22 2007-12-25 Canadian Space Agency Method and system for time/motion compensation for head mounted displays
US10905508B2 (en) * 2015-08-25 2021-02-02 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
JP6365478B2 (en) * 2015-09-17 2018-08-01 株式会社安川電機 Transfer system and transfer method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229157A (en) * 2013-05-24 2014-12-08 日本電信電話株式会社 Delay compensation device, method, program, and recording medium
JP2015047666A (en) 2013-09-02 2015-03-16 トヨタ自動車株式会社 Remote operation device and operation image display method
JP2017519644A (en) * 2014-04-30 2017-07-20 パーカー、コールマン、ピー.PARKER,Coleman,P. Robot control system using virtual reality input
KR20160002329A (en) * 2014-06-30 2016-01-07 가부시키가이샤 야스카와덴키 Robot simulator and file generation method for robot simulator

Also Published As

Publication number Publication date
CN112469538A (en) 2021-03-09
KR102518766B1 (en) 2023-04-06
TW202014278A (en) 2020-04-16
WO2020032211A1 (en) 2020-02-13
CN112469538B (en) 2024-04-19

Similar Documents

Publication Publication Date Title
JP7281349B2 (en) remote control system
US11220002B2 (en) Robot simulation device
US11197730B2 (en) Manipulator system
US11565427B2 (en) Robot system
US11021333B2 (en) Conveyor tracking system and calibration method
US10406686B2 (en) Bare hand robot path teaching
CN109313417B (en) Aiding in robot positioning
KR102518766B1 (en) Data generating device, data generating method, data generating program, and remote control system
JP6540472B2 (en) Simulation apparatus, simulation method, and simulation program
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
US10675759B2 (en) Interference region setting apparatus for mobile robot
JP2012187651A (en) Image processing apparatus, image processing system, and guidance apparatus therefor
JP2016209995A (en) Image processing apparatus, image processing system, and guidance apparatus directed to the same
JP2021121974A (en) Route data creation device, route data creation system and route data creation method
JP2019188531A (en) Simulation device of robot
JP2019119027A (en) Method of controlling robot system, and robot system
WO2021117868A1 (en) Robot system and method for forming three-dimensional model of workpiece
JP7366264B2 (en) Robot teaching method and robot working method
US20210271791A1 (en) Simulation method and simulation system
JP2020160615A (en) Object posture control program and object posture control system
EP4155037A1 (en) Work program production system and work program production method
JP2024025074A (en) Marker position registration device, marker position registration program, and marker position registration method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant