KR102518131B1 - 로봇 시스템 - Google Patents

로봇 시스템 Download PDF

Info

Publication number
KR102518131B1
KR102518131B1 KR1020217006640A KR20217006640A KR102518131B1 KR 102518131 B1 KR102518131 B1 KR 102518131B1 KR 1020217006640 A KR1020217006640 A KR 1020217006640A KR 20217006640 A KR20217006640 A KR 20217006640A KR 102518131 B1 KR102518131 B1 KR 102518131B1
Authority
KR
South Korea
Prior art keywords
work
robot
robot body
motivation information
operator
Prior art date
Application number
KR1020217006640A
Other languages
English (en)
Other versions
KR20210041040A (ko
Inventor
야스히코 하시모토
시게츠구 타나카
마사유키 카몬
요시히코 마루야마
Original Assignee
카와사키 주코교 카부시키 카이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 카와사키 주코교 카부시키 카이샤 filed Critical 카와사키 주코교 카부시키 카이샤
Publication of KR20210041040A publication Critical patent/KR20210041040A/ko
Application granted granted Critical
Publication of KR102518131B1 publication Critical patent/KR102518131B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/14Racing games, traffic games, or obstacle games characterised by figures moved by action of the players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of leader-follower type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with leader teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Fuzzy Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Manipulator (AREA)
  • Spray Control Apparatus (AREA)
  • Paper (AREA)

Abstract

로봇 시스템(300A)은, 작업을 수행하는 로봇 본체(1)와, 조작 지령에 따라 로봇 본체(1)의 동작을 제어하는 로봇 제어부(41)와, 조작자의 조작에 따라 조작 지령을 로봇 제어부(41)에 보내는 조작기(2)와, 조작자가 로봇 본체(1)의 작업량 또는 작업 속도를 증가시키도록 조작자를 동기 부여시키는 동기 부여 정보를 취득하는 동기 부여 정보 취득부(44)와, 동기 부여 정보 취득부(44)가 취득한 동기 부여 정보를 조작자에 제시하는 동기 부여 정보 제시기(6)를 구비한다.

Description

로봇 시스템
본 발명은 로봇 시스템에 관한 것이다.
종래에 조작자에 의해 조작되는 로봇이 알려져 있다(예를 들어, 특허문헌 1 참조). 이러한 로봇에서는, 조작자가 로봇의 조작에 숙련될 필요가 있다.
그를 위한 장치로서, 예를 들어, 로봇의 조작을 훈련하는 조작 훈련 장치 기술이 알려져 있다(예를 들어, 특허문헌 2 참조).
일본 특개2009-178820호 공개특허 공보 일본 특개2007-183332호 공개특허 공보
상기 조작 훈련 장치에 의하면, 조작자의 조작 능력을 평가할 수 있다. 그러나, 이러한 훈련 장치는, 원래 훈련 전용의 장치이고, 이러한 장치를 이용하여 실제의 작업을 수행할 수가 없다. 또한, 이러한 훈련 장치에서는, 숙련자의 조작 능력의 레벨이 조작 능력의 훈련의 도달점으로서 상정되어 있기 때문에, 상정된 레벨 이상으로 조작자의 조작 능력을 향상시키는 것은 곤란하다.
본 발명은 상기와 같은 과제를 해결하기 위해 이루어진 것으로, 실제의 작업을 통해서, 조작자가 조작 능력을 가능한 한 발휘하도록 조작자의 조작 능력을 향상시킬 수 있는 로봇 시스템을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위하여, 본 발명의 일 측면(aspect)에 따른 로봇 시스템은, 작업을 수행하는 로봇 본체와, 조작 지령에 따라 상기 로봇 본체의 동작을 제어하는 로봇 제어부와, 조작자의 조작에 따라 상기 조작 지령을 상기 로봇 제어부에 보내는 조작기와, 상기 조작자가 상기 로봇 본체의 작업량 또는 작업 속도를 증가시키도록 상기 조작자를 동기 부여시키는 동기 부여 정보를 취득하는 동기 부여 정보 취득부와, 상기 동기 부여 정보 취득부가 취득한 상기 동기 부여 정보를 상기 조작자에 제시하는 동기 부여 정보 제시기를 구비한다. 여기에서, 「작업량」은, 소정 작업을 반복하는 경우에서 소정 작업의 횟수를 포함한다. 「작업 속도」는, 단위 시간당의 작업량 외에, 단위 작업량 당 작업 소요 시간을 포함한다.
이러한 구성에 의하면, 조작자가 동기 부여 정보 제시기에 의해 제시되는 동기 부여 정보에 의해, 로봇 본체의 작업량 또는 작업 속도를 향상시키도록 동기 부여되기 때문에, 실제의 작업을 통해서, 조작자가 조작 능력을 가능한 한 발휘하도록 조작자의 조작 능력을 향상시키는 것이 가능하다.
상기 동기 부여 정보 취득부는, 상기 로봇 본체가 수행한 작업의 양 및 상기 로봇 본체가 수행한 작업의 속도 중 적어도 어느 하나를 취득하는 작업 취득부와, 상기 작업 취득부에서 취득된 상기 로봇 본체가 수행한 작업의 양 및 상기 로봇 본체가 수행한 작업의 속도 중 적어도 어느 하나에 기초하여 상기 동기 부여 정보를 생성하는 동기 부여 정보 생성부를 구비하여도 좋다.
이러한 구성에 의하면, 로봇 본체가 수행한 작업의 양과 로봇 본체가 수행한 작업의 속도 중 적어도 어느 하나에 기초하여 동기 부여 정보가 생성되므로, 조작자가, 효과적으로 작업량 또는 작업 속도를 향상시키도록 동기 부여된다.
상기 로봇 본체가 수행하는 작업이, 반복되어 수행되는 소정 작업이라도 좋다.
이러한 구성에 의하면, 소정 작업이 반복하여 수행되므로, 조작자의 조작 능력을 작업량 및 작업 속도에 의해 적절하게 파악할 수 있다.
상기 동기 부여 정보가, 상기 로봇 본체가 수행한 작업의 양, 상기 로봇 본체가 수행한 작업의 속도, 상기 로봇 본체가 수행한 작업의 횟수, 상기 로봇 본체가 수행한 작업에 의해 생산되는 물품의 생산 총액 또는 생산 총량인 생산고(生産高), 상기 로봇 본체가 수행한 작업에 의해 생산되는 물품의 총량에 대하여 지불되는 공임, 상기 로봇 본체가 수행한 작업의 양 또는 속도의 레벨이 소정의 높은 레벨인 조작자에게 부여되는 직함, 상기 로봇 본체가 수행한 작업의 양 또는 속도의 레벨이 높다는 것을 칭하는 칭호, 상기 로봇 본체가 수행한 작업의 양 또는 속도의 레벨에 따라서 변화하는, 금전을 연상시키는 효과음(擬音), 소정 작업의 횟수 및 작업 속도의 레벨에 따라 변화하고, 상기 로봇 본체가 수행한 작업의 양 또는 속도의 레벨에 따라 변화하는, 금전을 연상시키는 화상, 및 복수의 로봇 시스템에서 임의의 1 개의 로봇 시스템의 상기 로봇 본체가 수행한 작업의 양 및 속도의 순위 중 적어도 하나를 포함하여도 좋다.
이러한 구성에 의하면, 적절하게, 조작자가 로봇 본체의 작업량 또는 작업 속도를 증가시키도록 동기 부여된다.
상기 로봇 본체와 상기 로봇 제어부를 구비하는 로봇이, 상기 로봇 제어기가 상기 조작 지령에 따라 상기 로봇 본체의 동작을 제어하는 수동 모드와, 상기 로봇 제어기가 소정의 동작 프로그램에 따라 상기 로봇 본체의 동작을 제어하는 자동 모드와, 상기 로봇 제어기가 상기 조작 지령과 상기 소정의 동작 프로그램에 따라 상기 로봇 본체의 동작을 제어하는 수정 자동 모드를 구비하고, 또한, 상기 로봇 제어기가, 상기 수정 자동 모드에서, 상기 소정의 동작 프로그램을 상기 조작 지령이 반영된 것으로 되도록 수정하고, 이러한 수정된 소정의 동작 프로그램을, 이후의 수정 자동 모드에서, 상기 소정의 동작 프로그램을 대신하여 사용하여도 좋다.
이러한 구성에 의하면, 조작자의 로봇 본체의 조작 능력뿐만 아니라, 로봇의 동작 모드의 선택에 의해, 로봇 본체의 작업량 및 작업 시간(작업 속도)가 좌우된다. 한편, 조작자는, 동기 부여 정보에 의해, 로봇 본체의 작업량 또는 작업 속도를 향상시키도록 동기를 부여한다. 그 결과, 실제의 작업을 통해서, 조작자가 조작 능력을 가능한 한 발휘하도록 조작자의 조작 능력을 향상시킬 수 있는 동시에, 적절한 동작 모드의 선택 능력을 향상시킬 수 있다.
상기 로봇 제어부는, 기본 동작 프로그램에 따라 자동 동작 지령을 출력하는 기본 동작 지령부와, 기계 학습에 기초하여 자동 동작 수정 지령을 출력하는 학습부와, 상기 자동 동작 지령과 상기 자동 동작 수정 지령과 상기 조작 지령을 가산하여 동작 지령을 출력하는 동작 지령부를 구비하고, 상기 학습부는, 상기 자동 동작 지령과 상기 조작 지령을 가산한 것을, 상기 로봇 본체의 엔드 이펙터의 위치 데이터 및 상기 엔드 이펙터에 가해지는 힘의 데이터와 대응시켜 기계 학습하여도 좋다.
이러한 구성에 의하면, 기계 학습에 의해 조작자의 로봇 본체를 조작하는 기능이, 실제의 작업을 통해서 로봇 시스템에 전승된다. 그리고, 이러한 실제의 작업에서, 조작자가 동기 부여 정보에 의해, 로봇 본체의 작업량 또는 작업 속도를 향상시키도록 동기 부여된다. 그 결과, 조작자의 더 고도한 로봇 본체를 조작하는 기능이, 실제의 작업을 통해서, 로봇 시스템에 전승된다.
상기 로봇 시스템은, 상기 로봇 본체에 의한 작업을 촬상하는 작업 촬상기와, 상기 작업 촬상기에 의해 촬상되는 상기 로봇 본체에 의한 작업의 화상인 작업 화상을 표시하는 작업 화상 표시기를 더 구비하여도 좋다.
이러한 구성에 의하면, 조작자가, 작업 화상 표시기에 의해 표시되는 작업 화상을 보면서 로봇을 조작할 수 있기 때문에, 로봇 본체에 의한 작업을 적절하게 수행할 수 있다.
상기 조작기로부터 상기 로봇 제어부로의 상기 조작 지령의 송신, 상기 작업 촬상기로부터 상기 작업 화상 표시기로의 상기 작업 화상의 송신, 및 상기 동기 부여 정보 취득부로부터 상기 동기 부여 정보 제시기로의 동기 부여 정보의 송신을, 통신 네트워크를 통해 수행하기 위한 통신 기구를 더 구비하여도 좋다.
이러한 구성에 의하면, 예를 들어, 재택에서 로봇 본체를 조작하여 당해 로봇 본체에 작업을 시킬 수 있다. 그 결과, 재택에서 밖에 근무하지 못하는 사람으로, 특단의 조작 능력을 가진 사람도 능력을 발휘시킬 수 있다.
본 발명은, 실제의 조작을 통해서, 조작자가 조작 능력을 가능한 한 발휘하도록 조작자의 조작 능력을 향상시키는 것이 가능한 로봇 시스템을 제공할 수 있는 효과를 나타낸다.
[도 1] 도 1은 본 발명의 실시예 1에 따른 로봇 시스템의 구성의 일례를 모식적으로 도시하는 모식도이다.
[도 2] 도 2는 도 1의 조작기의 구성의 일례를 도시하는 사시도이다.
[도 3] 도 3은 도 1의 로봇 시스템의 제어 계통의 구성의 일례를 도시하는 기능 블록도이다.
[도 4] 도 4는 도 1의 로봇 시스템의 로봇 본체에 의한 작업의 일례를 모식적으로 도시하는 모식도이다.
[도 5] 도 5는 도 1의 로봇 시스템의 로봇 본체에 의한 작업의 작업 환경의 일례를 모식적으로 도시하는 평면도이다.
[도 6] 도 6은 본 발명의 실시예 2에 따른 로봇 시스템의 제어 계통의 구성의 일례를 도시하는 기능 블록도이다.
[도 7] 도 7은 본 발명의 실시예 3에 따른 로봇 시스템의 제어 계통의 구성의 일례를 도시하는 기능 블록도이다.
[도 8] 도 8은 본 발명의 실시예 4에 따른 로봇 시스템의 제어 계통의 구성의 일례를 도시하는 기능 블록도이다.
[도 9] 도 9는 본 발명의 실시예 5에 따른 로봇 시스템의 제어 계통의 구성의 일례를 도시하는 기능 블록도이다.
[도 10] 도 10은 도 9의 선택기 및 로봇 제어부의 상세한 구성의 일례를 도시하는 기능 블록도이다.
이하에서, 본 발명의 바람직한 실시예를 도면을 참조하면서 설명한다. 여기서, 이하에서는 모든 도면을 통해 동일 또는 대응하는 요소에는 동일한 참조 부호를 부여하고, 그 중복된 설명을 생략한다. 또한, 본 발명은 이하의 실시예에 한정되지 않는다.
(실시예 1)
[구성]
도 1은 본 발명의 실시예 1에 따른 로봇 시스템의 구성의 일례를 모식적으로 도시하는 모식도이다.
{하드웨어 구성}
도 1을 참조하면, 실시예 1의 로봇 시스템(300A)은, 로봇 본체(1)와, 조작기(2)와, 제어기(3)와, 작업 촬상기(4)와, 작업 화상 표시기(5)와, 동기 부여 정보 제시기(6)와, 작업 개시 검지기(47)와, 작업 종료 검지기(48)를 포함한다. 로봇 본체(1)와 제어기(3)가 로봇(10)을 구성한다. 로봇 본체(1)는, 엔드 이펙터(17)를 구비한다. 로봇 본체(1)는 이른바 로봇이라면 좋다. 로봇은, 예를 들어, 「센서, 지능·제어계, 구동계의 3 개의 요소 기술을 가지는, 지능화된 기계 시스템」으로 정의된다(「총무성 평성27년판 정보 통신 백서의 포인트」 참조). 구체적으로는, 로봇 본체(1)는, 예를 들어, 수직 다관절형 로봇, 수평 다관절형 로봇, 패러럴(parallel) 링크형 로봇, 극좌표 로봇, 원통 좌표형 로봇, 직각 좌표형 로봇 등의 산업용 로봇으로 구성된다. 이하에서, 로봇 본체(1)가, 수직 다관절형 로봇의 로봇 암으로 구성되는 경우가 예시된다.
로봇 본체(1)에서는, 로봇 암의 손목부(14)의 선단에 힘 센서(19)를 통해 엔드 이펙터(17)가 장착된다.
이하에서, 이러한 구성 요소를 순서대로 설명한다.
<작업 촬상기>
작업 촬상기(4)는, 예를 들어, 카메라로 구성된다. 카메라는, 공지의 것을 사용할 수 있다. 작업 촬상기(4)는, 로봇 본체(1)에 의한 작업을 촬상할 수 있는 장소에 설치된다.
<작업 화상 표시기>
작업 화상 표시기(5)는, 예를 들어, 디스플레이로 구성된다. 디스플레이로서 공지의 것을 사용할 수 있다. 작업 화상 표시기(5)는, 조작자가 보기 쉽게 조작기(2)의 근방에 설치된다.
<동기 부여 정보 제시기>
동기 부여 정보 제시기(6)는, 동기 부여 정보를 조작자에 제시하는 기기이다. 동기 부여 정보 제시기(6)는, 동기 부여 정보를 조작자에게 제시할 수 있는 것이라면 좋다. 구체적으로는, 동기 부여 정보 제시기(6)로서, 동기 부여 정보를 소리로 조작자에게 제시하는 스피커, 동기 부여 정보를 빛으로 조작자에게 제시하는 조명 기구, 동기 부여 정보를 화상으로 조작자에게 제시하는 디스플레이, 동기 부여 정보를, 조작자의 신체를 자극하여 조작자에게 제시하는 신체 자극 기기(예를 들어 바이브레이터) 등이 예시된다. 동기 부여 정보 제시기(6)가 디스플레이인 경우, 작업 화상 표시기(5)가 동기 부여 정보 제시기(6)를 겸하여도 좋다. 이하에서는, 동기 부여 정보 제시기(6)가 스피커인 경우가 예시된다.
<작업 개시 검지기>
본 실시예에 따르면, 로봇 본체(1)에 의해 소정 작업이 반복하여 수행된다. 작업 개시 검지기(47)는, 그러한 소정 작업의 개시를 검지하는 기기이다. 따라서, 작업 개시 검지기(47)는, 소정의 작업의 내용에 따라서, 적절하게 구성된다. 본 실시예에 따르면, 후술하는 바와 같이 소정 작업이 2 개의 부재의 감합(嵌合)인 경우가 예시된다. 이 경우, 작업 개시 검지기(47)는, 예를 들어, 소정의 작업 개시 위치에 위치하는 로봇 본체(1)의 엔드 이펙터(17)를 검출하는 근접 센서, 접촉 센서 등으로 구성된다. 여기서, 소정 작업의 내용에 따라서, 후술하는 로봇 제어부(41)(도 2 참조)가 소정 작업의 개시를 로봇 본체(1)의 엔드 이펙터(17)의 위치, 자세, 동작 등으로부터 검지할 수 있는 경우가 있고, 그러한 경우는, 로봇 제어부(41)가 작업 개시 검지기(47)로 이용된다.
<작업 종료 검지기>
작업 종료 검지기(48)는, 소정의 작업의 내용에 따라서, 적절하게 구성된다. 후술하는 바와 같이 소정 작업이 2 개의 부재의 감합인 경우, 작업 종료 검지기(48)는, 예를 들어, 소정의 작업 종료 위치에 위치하는 로봇 본체(1)의 엔드 이펙터(17)를 검지하는 근접 센서, 접촉 센서 등으로 구성된다. 여기서, 소정 작업의 내용에 따라서, 후술하는 로봇 제어부(41)(도 2 참조)가 소정 작업의 종료를 로봇 본체(1)의 엔드 이펙터(17)의 위치, 자세, 동작 등으로 검지할 수 있는 경우가 있고, 그러한 경우는, 로봇 제어부(41)가 작업 종료 검지기(48)로 이용된다.
<제어기>
제어기(3)는, 예를 들어, 프로세서와 메모리를 구비한다. 제어기(3)는, 메모리에 저장된 소정의 동작 프로그램을 프로세서가 읽어내어 실행함으로써, 로봇 본체(1)의 동작을 제어한다. 제어기(3)는, 구체적으로, 예를 들어, 마이크로 컨트롤러, MPU, FPGA(Field Programmable Gate Array), PLC(Programmable Logic Controller), 논리 회로 등으로 구성된다.
<로봇 본체(1)>
로봇 본체(1)는, 기대(基台)(15)와, 기대(15)에 지지된 완부(腕部)(13)와, 완부(13)의 선단에 지지되고, 엔드 이펙터(17)가 장착된 손목부(14)를 구비하고 있다. 로봇 본체(1)는, 도 1에 도시된 바와 같이 3 이상의 복수의 관절(JT1 ~ JT6)을 구비하는 다관절 로봇 암이고, 복수의 링크(11a ~ 11f)가 순차적으로 연결되어 구성되어 있다. 더 자세하게는, 제1 관절(JT1)에서는, 기대(15)와, 제1 링크(11a)의 기단부가, 연직 방향으로 연장되는 축 둘레로 회전 가능하게 연결되어 있다. 제2 관절(JT2)에서는, 제1 링크(11a)의 선단부와, 제2 링크(11b)의 기단부가, 수평 방향으로 연장되는 축 둘레로 회전 가능하게 연결되어 있다. 제3 관절(JT3)에서는, 제2 링크(11b)의 선단부와, 제3 링크(11c)의 기단부가, 수평 방향으로 연장되는 축 둘레로 회전 가능하게 연결되어 있다. 제4 관절(JT4)에서는, 제3 링크(11c)의 선단부와, 제4 링크(11d)의 기단부가, 제4 링크(11c)의 길이 방향으로 연장되는 축 둘레로 회전 가능하게 연결되어 있다. 제5 관절(JT5)에서는, 제4 링크(11d)의 선단부와, 제5 링크(11e)의 기단부가, 링크(11d)의 길이 방향과 직교하는 축 둘레로 회전 가능하게 연결되어 있다. 제6 관절(JT6)에서는, 제5 링크(11e)의 선단부와 제6 링크(11f)의 기단부가, 비틀림 회전 가능하게 연결되어 있다. 그리고, 제6 링크(11f)의 선단부에는 메커니컬 인터페이스(mechanical interface)가 설치되어 있다. 이러한 메커니컬 인터페이스에, 힘 센서(19)를 통해서, 로봇 본체(1)의 작업 내용에 대응하는 툴(tool)로서의 엔드 이펙터(17)가 착탈 가능하게 장착된다. 힘 센서(19)는, 예를 들어, 3축 가속도 센서로 구성된다. 힘 센서(19)는, 엔드 이펙터(17)가 작업 대상에 작용시키는 힘(작업 대상으로부터의 반력)을 검출한다.
상기 제1 관절(JT1), 제1 링크(11a), 제2 관절(JT2), 제2 링크(11b), 제3 관절(JT3) 및 제3 링크(11c)로 이루어진 링크와 관절의 연결체에 의해서, 로봇 본체(1)의 완부(13)가 형성되어 있다. 또한, 상기 제4 관절(JT4), 제4 링크(11d), 제5 관절(JT5), 제5 링크(11e), 제6 관절(JT6) 및 제6 링크(11f)로 이루어진 링크와 관절의 연결체에 의해서, 로봇 본체(1)의 손목부(14)가 형성되어 있다.
관절(JT1 ~ JT6)에는, 그것이 연결하는 2 개의 부재를 상대적으로 회전시키는 액츄에이터의 일례로서 구동 모터(미도시)가 설치되어 있다. 구동 모터는, 예를 들어, 제어기(3)의 로봇 제어부(41)(도 3 참조)로부터 보내지는 동작 지령(전류 지령)에 의해 회전각을 제어하는 서보 모터이다. 또한, 관절(JT1 ~ JT6)에는, 구동 모터의 회전각을 검출하기 위한 회전각 센서(미도시)와, 구동 모터의 전류를 검출하기 위한 전류 센서(미도시)가 설치되어 있다. 회전각 센서는 예를 들어 인코더로 구성된다.
제어기(3)의 로봇 제어부(41)는, 모든 관절의 구동 모터의 회전각을 종합하여 엔드 이펙터(17)의 위치 데이터로 변환한다. 전류 센서의 검출 신호는, 로봇 제어부(41)가, 각각의 관절의 서보 모터의 전류를, 전류 지령에 따르는 값이 되도록 피드백 제어하기 위해 이용된다.
<조작기(2)>
조작기(2)는, 그 조작에 의해서, 로봇 본체(1)를 조작할 수 있는 것이라면 좋다. 예를 들어, 조작기(2)를 로봇 본체(1)과 유사한 마스터 로봇으로 구성하고, 로봇 본체(1)를 슬레이브 로봇으로서 제어하도록 구성하여도 좋다. 또한, 조작기(2)이 조이스틱이라도 좋다. 또한, 조작기(2)가 특정의 용도에 커스터마이즈(customize)된 전용의 조작기라도 좋다. 여기에서는, 조작기(2)로서, 도 2에 도시된 것이 이용된다.
도 2는 도 1의 조작기(2)의 구성의 일례를 도시하는 사시도이다. 도 2를 참조하면, 조작기(2)는, 조작자에 의해 파지되는 파지부(21)와, 파지부(21)를 이동 가능하게 지지하는 암부(22)와, 모터(24)를 구비하고 있다. 모터(24)는 서보 모터로 구성된다.
파지부(21)는, 조작자가 파지하기 쉽도록, 조작자가 파지부(21)를 잡고 파지하는 것이 가능하게 형성되어 있다. 조작자가 파지부(21)를 잡고 파지한 상태에서, 조작자가, 파지부(21)를 이동시킴으로써 로봇 본체(1)를 이동시켜서, 로봇 본체(1)를 조작한다.
파지부(21)는, 지지부(23)에 의해 지지되고 있다. 또한, 파지부(21)는 원통형의 접속부(23c)를 통해 지지부(23)에 접속되어 있다. 지지부(23)는, 암부(22)에 의해 이동 가능하게 지지되어 있다. 암부(22)는, 모터(24)에 접속되어 있다.
암부(22)는 각각 관절(22a)을 구비하고, 관절(22a)을 중심으로 굴곡하는 것이 가능하게 형성되어 있다. 따라서, 암부(22)는, 파지부 측 암부(22b)와. 모터 측 암부(22c)가, 관절(22a)에 의해 굴곡 가능하게 접속되어 있다.
모터(24)는 지지대(30)에 의해 지지되고 있다. 모터(24)는 6 개 설치되어 있다. 6 개의 모터(24)는, 한 쌍의 모터(24)에 의해 1 개의 변이 구성되어, 지지대(30) 상에 삼각형으로 배열되어 배치되어 있다. 더 자세하게는, 한 쌍의 모터(24)의 주축의 회전축(중심축)이 정삼각형의 한 변을 구성하도록, 6 개의 모터(24)가 배치되어 있다. 그리고, 한 변을 구성하는 한 쌍의 모터(24)에 대응하여 한 쌍의 암부(22)가 설치되어 있다. 이러한 한 쌍의 암부(22)에 의해서, 지지부(23)의 외형을 규정하는 3 개의 변 중 1 개의 변(23a)이 끼어 있다. 지지부(23)의 변(23a)에는, 축(23b)이, 지지부(23)의 내부를 통해 배치되어 있다. 축(23b)은, 변(23a)을 끼우는 2 개의 파지부 측 암부(22b)에 의해 양단부가, 축(23b)의 중심축을 포함하는 서로 직교하는 3 축의 둘레로 회전 가능하게 유지되어 있다. 이에 따라서, 지지부(23)가, 축(23b)의 중심축을 포함하는 서로 직교하는 3 축의 둘레로 회전 가능하게 축 지지되어 있다. 이와 같이, 지지부(23)는, 2 개의 파지부 측 암부(22b)에 의해 축(23b)의 중심축을 포함하는 서로 직교하는 3 축의 둘레로 회전 가능하게 지지되어 있다. 지지부(23)의 변(23a) 및 축(23b)의 구성에 대해서는, 지지부(23)의 3 개의 변에 대해서 동일하다. 여기에서, 3 개의 축(23b)의 중심축이 정삼각형을 이루고 있다.
또한, 상술한 관절(22a)은, 한 쌍의 모터(24)의 출력축의 중심축에 평행한 축을 포함하는 서로 직교하는 3 축의 둘레로 회전 가능하게, 파지부 측 암부(22b)를 모터 측 암부(22c)에 접속하고 있다. 따라서, 지지부(23)의 위치 및 자세에 따라서, 6 개의 모터(24)의 회전각이 하나씩 정해진다. 이러한 6 개의 모터(24)의 회전각이 조작 지령(위치 지령)로서 제어기(3)에 출력된다.
또한, 조작기(2)의 파지부(21)에는, 누름 버튼(21a 및 21b)가 설치되어 있다. 이들은, 예를 들어, 엔드 이펙터(17)를 조작하기 위해 사용된다. 누름 버튼(21a 및 21b)의 조작에 따라서, 엔드 이펙터(17)를 조작하기 위한 조작 지령이 제어기(3)에 출력된다.
{제어 계통의 구성}
도 3은 도 1의 로봇 시스템의 제어 계통의 개략의 구성을 예시하는 기능 블록도이다.
도 3을 참조하면, 제어기(3)는, 로봇 제어부(41)와, 조작기 제어부(42)와, 표시 제어부(43)와, 동기 부여 정보 취득부(44)를 구비한다. 이들은, 제어기(3)를 구성하는 메모리에 저장된 소정의 동작 프로그램을, 제어기(3)를 구성하는 프로세서가 실행함으로써 실현되는 기능 블록이다.
<표시 제어>
먼저, 작업 촬상기(4) 및 작업 화상 표시기(5)의 제어 계통을 설명한다. 제어기(3)는, 표시 제어부(43)를 구비한다. 작업 촬상기(4)는, 로봇 본체(1)의 동작 범위의 풍경을 촬상하고, 그의 촬상 신호를 표시 제어부(43)에 보낸다. 로봇 본체(1)의 동작 범위의 풍경에는, 로봇 본체(1)에 의한 작업의 모습이 포함된다. 표시 제어부(43)는, 수취한 촬상 신호를 화상 표시 신호로 변환하고, 작업 화상 표시기(5)에 보낸다. 작업 화상 표시기(5)는, 수취한 화상 표시 신호에 따라서, 화상을 표시한다. 이에 따라서, 작업 촬상기(4)에 의해 촬상된 화상이 작업 화상 표시기(5)에 표시된다. 또한, 표시 제어부(43)에는, 동기 부여 정보 취득부(44)로부터, 작업 개시 정보 및 작업 종료 정보가 보내지고, 표시 제어부(43)는, 이러한 정보를 화상 표시 신호로 변환하고, 작업 화상 표시기(5)에 표시한다. 조작자는, 작업 화상 표시기(5)에 표시된 화상을 보면서, 로봇 본체(1)를 조작할 조작기(2)를 조작한다.
<로봇 본체의 동작 제어>
다음으로, 조작기(2) 및 로봇 본체(1)의 제어 계통에 대해 설명한다.
본 실시예에 따르면, 조작기(2)를 이용하여 바이래터럴(bilateral) 제어가 이루어진다. 조작기(2)에서, 6 개의 모터(24)는, 바이래터럴 제어에서 필요한 경우에 제어기(3)의 조작기 제어부(42)에 의해 회전각 제어(위치 제어)된다. 6 개의 모터(24)에는 각각, 회전각 센서(미도시)가 설치되어 있다. 회전각 센서는 예를 들어 인코더로 구성된다. 회전각 센서의 검출 신호는 제어기(3)의 로봇 제어부(41)에 보내진다. 이러한 회전각 센서의 검출 신호가 조작 지령의 위치 지령을 구성한다. 한편, 제어기(3)의 조작기 제어부(42)는, 로봇 본체(1)의 힘 센서(19)로부터 입력되는 힘 데이터를 기초로, 각각의 모터의 출력 토크를 제어한다. 이러한 출력 토크는, 조작자에 의한 파지부(21)의 조작에 대해서, 상기 힘 데이터에 따른 반력이 발생하도록 제어된다. 또한, 바이래터럴 제어에서, 조작기(2)로부터의 힘 지령이 필요한 경우에는, 파지부(21)와 지지부(23) 사이에 힘 센서(예를 들어 3축 가속도 센서)가 설치되고, 이러한 힘 센서의 출력에 기초하여 힘 지령이 생성된다. 바이래터럴 제어의 타입에 따라, 위치 지령만이 조작 지령을 구성하는 경우와, 위치 지령과 힘 지령이 조작 지령을 구성하는 경우가 있다. 이하에서는, 조작 지령이 위치 지령으로 구성되는 경우가 예시된다.
조작기(2)에 의해 로봇 본체(1)의 완부(13) 및 손목부(14)를 조작할 때에는, 파지부(21)를 조작자가 파지한다. 조작자가 파지부(21)를 파지한 상태에서, 로봇 본체(1)를 이동시키고 싶은 방향에 맞추어 파지부(21)를 이동시키면, 파지부(21)를 지지하는 지지부(23)가, 파지부(21)의 이동에 따라 이동한다. 또한, 지지부(23)의 이동에 의해, 지지부(23)에 접속되는 6 개의 암부(22)가 이동한다.
6 개의 암부(22)가 이동하면, 그에 따라서 6 개의 모터(24)의 출력축이 회전하고, 그 회전각을 6 개의 회전각 센서가 검출한다. 이러한 검출 신호는 상술한 바와 같은 조작 지령을 구성하는 위치 지령으로서 출력되고, 제어기(3)의 로봇 제어부(41)가, 이러한 조작 지령(위치 지령)에 기초하여 동작 지령을 생성하고, 이를, 서보 앰프(미도시)가 전류 지령으로 변환하고, 로봇 본체(1)에 보낸다. 그리하면, 로봇 본체(1)가, 엔드 이펙터(17)가 지지부(23)의 위치 및 자세를 반영하는 위치 및 자세를 취하도록 동작한다. 이에 따라서, 조작자가, 조작기(2)의 파지부(21)를 조작하여, 로봇 본체(1)를 의도적으로 조작할 수 있다.
한편, 그 사이, 조작기 제어부(42)가 조작자에 의한 파지부(21)의 조작에 대해서, 로봇 본체(1)의 힘 센서(19)로부터 보내지는 힘 데이터에 따른 반력이 발생하도록 각각의 구동 모터를 제어하기 때문에, 조작자는 파지부(21)의 이동에 대한 반력을 느낀다. 이에 따라서, 조작자가 로봇 본체(1)의 엔드 이펙터(17)에 작용하는 작업 대상물로부터의 반력을 느끼면서 엔드 이펙터(17)의 위치 및 자세를 조작할 수 있다.
또한, 조작자가, 조작기(2)의 파지부(21)의 누름 버튼(21a 및 21b)을 조작하면, 이러한 조작에 따라 조작 지령이 조작기(2)로부터 로봇 제어부(41)에 보내지고, 로봇 제어부(41)는, 이러한 조작 지령에 따른 동작 지령을 로봇 본체(1)에 송신하여, 이러한 조작 지령에 따라 엔드 이펙터(17)를 동작시킨다.
<동기 부여 정보 제시 제어>
다음으로, 동기 부여 정보 제시 제어에 대해 설명한다. 「동기 부여 정보」는, 조작자가 로봇 본체(1)의 작업량 또는 작업 속도를 증가시키도록 조작자를 동기 부여하는 정보이다. 「작업량」은, 소정 작업을 반복하는 경우에서 소정 작업의 횟수를 포함한다. 「작업 속도」는, 단위 시간당 작업량 외에, 단위 작업량 당 작업 소요 시간을 포함한다. 본 실시예에 따르면, 동기 부여 정보가 작업량 또는 작업 속도이다. 이하에서, 작업량 또는 작업 속도를 일차 동기 부여 정보라고 칭하는 경우가 있다.
제어기(3)는, 동기 부여 정보 취득부(44)를 구비한다. 작업 개시 검지기(47)는, 소정 작업의 개시를 검지하면, 작업 개시 정보를 동기 부여 정보 취득부(44)에 보낸다. 또한, 작업 종료 검지기(48)는, 소정 작업의 종료를 검지하면, 작업 종료 정보를 동기 부여 정보 취득부(44)에 보낸다.
동기 부여 정보 취득부(44)는, 예를 들어, 작업 개시 정보와 작업 종료 정보에 기초하여, 수행된 소정 작업의 횟수를 산출한다. 그리고, 이 횟수를 작업량으로 한다. 또는, 동기 부여 정보 취득부(44)는, 예를 들어, 작업 개시 정보와 작업 종료 정보에 기초하여, 수행된 소정 작업에 걸린 시간을 산출한다. 그리고, 단위 시간당 소정 작업의 평균 횟수, 또는, 소정 작업 1 회당 평균 소요 시간을 산출하고, 이를 작업 속도로 한다.
동기 부여 정보 취득부는, 이와 같이 산출된 작업량 또는 작업 속도를 동기 부여 정보 제시기(6)에 보낸다.
동기 부여 정보 제시기(6)는, 여기에서는 스피커이고, 수취한 작업량 또는 작업 속도를 음성으로 조작자에게 통지한다(제시한다). 예를 들어, 동기 부여 정보 제시기(6)는, 「N(N은 정수) 회」, 「1 회당 N(N은 정수) 분」, 또는 「1 분 당 N(N은 정수) 회」라고 조작자에게 통지한다.
[동작]
다음으로, 이상과 같이 구성된 로봇 시스템(300A)의 동작의 일례를 도 4 및 도 5를 이용하여 설명한다. 도 4는 도 1의 로봇 시스템의 로봇 본체에 의한 작업의 일례를 모식적으로 도시하는 모식도이다. 도 5는 도 1의 로봇 시스템의 로봇 본체에 의한 작업의 작업 환경의 일례를 모식적으로 도시하는 평면도이다.
<작업 대상 및 작업 내용>
여기에서는, 소정 작업이 반복 수행된다. 이와 같이 소정 작업이 반복되는 경우, 조작자의 조작 능력을 작업량(소정 작업의 횟수(반복 횟수)) 및 작업 속도에 따라 적절하게 파악할 수 있다.
작업 대상은, 예를 들어, 서로 감합되는 2 개의 물품이다. 도 4(a) ~ (d)에는, 로봇 본체(1)가 제1 물품(81)을 더듬거려서 제2 물품(82)에 끼워 삽입하는 모습을 도시하고 있다.
여기에서는, 대경의 짧은 원기둥 형상의 머리부(81a)와 소경의 긴 원기둥 형상의 몸통부(81b)를 구비하는 제1 물품(81)과, 짧은 원기둥 형상의 본체의 중심부에 원기둥 형상의 관통공(82a)을 구비하는 제2 물품(82)의 감합을 예로 들어 로봇 시스템(300A)의 동작을 설명한다. 이 경우, 제2 물품(82)의 관통공(82a)에 제1 물품(81)의 몸통부(81b)가 끼워져 삽입된다. 그러나, 양자의 간극이 작아서, 조작자가 조작기(2)에 의해 로봇 본체(1)를 조작하여 양자를 원활하게 감합하기 위해서는 숙련을 요한다.
<작업 환경>
로봇 본체(1)의 엔드 이펙터(17)는, 제1 물품(81)의 머리부(81a)를 파지 및 개방 가능한 척(chuck)(미도시)을 구비하고 있다. 작업 개시 검지기(47) 및 작업 종료 검지기(48)는, 여기에서는, 근접 센서로 구성된다.
도 5를 참조하면, 예를 들어, 소정의 작업 에어리어(area)에 제1 장소(91)와 제2 장소(92)가 소정 거리만큼 떨어져 설정되어 있다. 제1 장소(91)에 제1 물품(81)이 놓이고, 제2 장소(92)에 제2 물품 (82)이 놓인다. 제1 장소(91)의 근방에 작업 개시 검지기(47)가 설치되고, 제2 장소(92)의 근방에 작업 종료 검지기(48)가 설치되어 있다. 로봇 본체(1)의 엔드 이펙터(17)가 작업 개시 검지기(47) 바로 위에 위치하면, 작업 개시 검지기(47)가 작업 개시를 검지하고, 이에 따라서, 제1 물품 공급 기구(미도시)에 의해서, 제1 장소(91)에 새로운 제1 물품(81)이 놓인다. 또한, 로봇 본체(1)의 엔드 이펙터(17)가 작업 종료 검지기(48) 바로 위에 위치하면, 작업 종료 검지기(48)가 작업 종료를 검지하고, 이에 따라서, 제2 물품 공급 반출 기구(미도시)에 의해서, 제1 물품(81)이 감합된 제2 물품(82)이 제2 장소(92)로부터 반출되고, 새로운 단독의 제2 물품(82)이 제2 장소(92)에 놓인다. 제1 물품 공급 기구 및 제2 물품 공급 반출 기구, 예를 들어, 산업용 로봇, 벨트 컨베이어 등으로 구성된다.
<감합 작업>
도 1, 도 3 및 도 4를 참조하면, 조작자는, 작업 화상 표시기(5)를 보면서, 조작기(2)를 조작하여 로봇 본체(1)를 다음과 같이 동작시킨다. 이하에서는, 설명을 간단하게 하기 위해서, 조작자가 작업 화상 표시기(5)를 보면서 조작기(2)를 조작하는 것 및 그에 의해 로봇 본체(1)가 동작하는 것을 기술하는 것은 생략한다.
먼저, 조작자는, 엔드 이펙터(17)에 의해 제1 장소(91)에 놓인 제1 물품(81)을 파지한다.
다음으로, 조작자는, 엔드 이펙터(17)를 작업 개시 검지기(47) 바로 위에 위치시킨다. 그리하면, 작업 개시 검지기(47)가 작업 개시를 검지하고, 작업 개시 정보를 동기 부여 정보 취득부(44)에 보낸다.
동기 부여 정보 취득부(44)는, 수취한 작업 개시 정보를 표시 제어부(43)에 보내는 한편, 작업 시간의 계측을 개시한다. 여기서, 이 경우, 제1 물품(81)을 파지하고, 그것을 작업 개시 검지기(47) 위까지 반송하는 시간이 작업 시간에 포함되지는 않지만, 작업 시간은 어디까지나, 작업량 또는 작업 속도를 증가시키도록 조작자를 동기 부여하기 위한 지표이기 때문에, 계측 방법이 규정되어 있지 않아도 좋고, 계측되는 작업 시간에 실제의 작업 시간이 정확하게 반영되지 않아도 상관없다.
표시 제어부(43)는, 작업 개시 정보를 수취하면, 작업 화상 표시기(5)에 작업이 개시되었다는 취지의 메시지를 작업의 화상에 겹쳐 표시한다. 이에 따라서, 조작자는, 작업의 개시가 로봇(10)에 의해 인식되었다는 것과 작업 시간의 계측이 개시되었다는 것을 확인한다.
한편, 작업 개시 검지기(47)가 작업 개시를 검지하면, 제1 물품 공급 기구에 의해서, 새로운 제1 물품(81)이 제1 위치에 놓인다.
다음으로, 조작자는, 도 4(a)에 도시된 바와 같이, 엔드 이펙터(17)에 파지된 제1 물품(81)을 제2 물품(82)의 상방에 위치시킨다. 이 경우, 예를 들어, 제1 물품(81)의 위치가 정확하게 제2 물품(82)의 바로 위에 위치하지 않고, 수평 방향으로 어긋난다(도 4(a)에서는 도면 우방향으로 약간 어긋나 있다).
다음으로, 조작자는, 엔드 이펙터(17)에 파지된 제1 물품(81)을 하강시킨다. 그리하면, 도 4(b)에 도시된 바와 같이, 제1 물품(81)의 몸통부(81b)가 제2 물품(82)의 관통공(82a)의 가장자리에 맞닿는다. 조작자는, 이러한 맞닿음을, 작업 화상 표시기(5)를 통해 육안으로 감지할 뿐만 아니라, 조작기(2)로부터의 반력으로 감지한다.
그리하면, 조작자는, 도 4(c) ~ (d)에 도시된 바와 같이, 엔드 이펙터(17)에 파지된 제1 물품(81)의 몸통부(81b)를, 제2 물품(82)의 관통공(82a)의 둘레를 더듬거리도록 이동시키고, 최종적으로 제1 물품(81)의 몸통부(81b)를 제2 물품(82)의 관통공(82a)에 끼워 삽입한다. 이러한 끼워 삽입하는 동작에서는, 제1 물품(81)의 몸통부(81b)를 제2 물품(82)로 가볍게 누르면서 이동시켜 제2 물품(82)의 관통공(82a)의 위치를 찾고, 제1 물품(81)의 몸통부(81b)의 위치가 제2 물품(82)의 관통공(82a)의 위치와 일치하면, 그의 압압력(押壓力)에 의해 제1 물품(81)의 몸통부(81b)가 제2 물품(82)의 관통공(82a)에 삽입되기 시작하는 것이 때문에, 조작자는, 조작기(2)에서의 반력에 의해, 이러한 압압력에 의해 제1 물품(81)의 몸통부(81b)가 제2 물품(82)의 관통공(82a)에 삽입되기 시작하는 감촉을 얻을 수 있어서, 이러한 끼워 삽입하는 동작을 적합하게 수행할 수 있다.
다음으로, 조작자는, 엔드 이펙터(17)에 파지된 제1 물품(81)을 해방하고, 엔드 이펙터(17)를 작업 종료 검지기(48)의 상방에 위치시킨다. 그리하면, 작업 종료 검지기(48)가 작업 종료를 검지하고, 작업 종료 정보를 동기 부여 정보 취득부(44)에 보낸다.
동기 부여 정보 취득부(44)는, 수취한 작업 종료 정보를 표시 제어부(43)에 보내는 한편, 작업 시간의 계측을 종료하고, 금회의 작업 시간(예를 들어, 55 초)을 산출한다. 그리고, 예를 들어, 「1 회」 및 「1 회당 55 초」를 포함한 음성 정보를 동기 부여 정보로서 동기 부여 정보 제시기(6)에 보낸다.
표시 제어부(43)는, 작업 종료 정보를 수취하면, 작업 화상 표시기(5)에 작업이 종료되었다는 취지의 메시지를 작업 화상에 겹쳐 표시한다. 이에 따라서, 조작자는, 작업의 종료가 로봇(10)에 의해 인식되었다는 것을 확인한다.
또한, 동기 부여 정보 제시기(6)는, 상기 음성 정보를 수취하면, 조작자에게 「1 회」 및 「1 회당 55 초」를 포함한 정보를 음성으로 통지한다.
한편, 작업 종료 검지기(48)가 작업 종료를 검지하면, 제2 물품 공급 반출 기구에 의해서, 제1 물품(81)이 감합된 제2 물품(82)이 제2 장소(92)로부터 반출되고, 새로운 단독의 제2 물품(82)이 제2 장소(92)에 놓인다.
이후, 이러한 동작이 반복된다. 이 경우, 상기 음성 정보는, 「N 회」 및 「1 회당 T 초」를 포함하는 음성 정보가 된다. 「N」은, 상기 작업의 횟수(반복하는 수)이고, 「T」는, 당해 작업의 작업 시간이다.
<작용 효과>
조작자는, 동기 부여 정보 제시기(6)에 의해 통지된 상기 음성 정보를 듣고, 작업량(작업 횟수) 또는 작업 속도를 향상시키도록 동기 부여된다. 구체적으로는, 조작자는, 자신의 현재 시점에서의 능력에 기초하여, 소정 시간에서 상기 작업의 목표 작업 횟수 및 목표 작업 속도를 가지고 있다. 또한, 조작자는, 항상, 작업을 개선하고자 하는 의욕을 가지고 있다. 따라서, 통지된 작업 횟수 또는 작업 속도가, 목표 작업 횟수 또는 목표 작업 속도를 상회하면, 그 작업에서 시행한 작업 방법이 적절하다는 것을 확신하고, 차회에도 그 방법을 채용한다. 또한, 좋은 결과가 얻어짐으로써, 하고자 하는 마음을 일으킨다.
한편, 통지된 작업 횟수 또는 작업 속도가, 목표 작업 횟수 또는 목표 작업 속도를 하회하면, 그 지연을 만회하려고 분발한다. 또한, 목표 작업 횟수 또는 목표 작업 속도를 하회한 원인을 규명하고, 그 원인을 제거함으로써 그 작업을 개선하려고 한다.
이와 같이 하여, 조작자는, 작업량(작업 횟수) 또는 작업 속도를 향상시키도록 동기 부여된다.
이상에서 설명한 바와 같이, 실시예 1에 따르면, 조작자는, 동기 부여 정보 제시기(6)에 의해 제시되는 동기 부여 정보에 따라서, 작업량(작업 횟수) 또는 작업 속도를 향상시키도록 동기 부여되기 때문에, 그 결과, 실제의 작업을 통해서, 조작자가 조작 능력을 가능한 한 발휘하도록 조작자의 조작 능력을 향상시킬 수 있다.
조작자는, 작업 화상 표시기(5)에 표시된 로봇 본체(1)에 의한 작업을 보면서 로봇 본체(1)를 조작할 수 있기 때문에, 육안에 의해 볼 때에는 작업 내용을 자세히 모니터링할 수 없는 작업 환경에서도, 적절하게 로봇 본체를 조작할 수 있다.
(실시예 2)
본 발명의 실시예 2는, 동기 부여 정보가, 일차 동기 부여 정보(작업량 또는 작업 속도)로부터 파생된 이차 동기 부여 정보인 점에서 실시예 1과 다르고, 그 외의 점은 실시예 1과 같다. 이하에서, 그 차이점을 설명한다.
도 6은 본 발명의 실시예 2에 따른 로봇 시스템의 제어 계통의 구성의 일례를 도시하는 기능 블록도이다.
도 6을 참조하면, 실시예 2의 로봇 시스템(300B)에서는, 동기 부여 정보 취득부(44)가 작업 취득부(45)와 동기 부여 정보 생성부(46)를 포함한다. 또한, 동기 부여 정보 제시기(6)는, 동기 부여 정보의 종류에 따라, 스피커, 디스플레이, 또는 신체 자극기로 구성된다.
작업 취득부(45)는, 작업 개시 검지기(47)로부터 작업 개시 정보를 수취하고, 또한, 작업 종료 검지기(48)로부터 작업 종료 정보를 수취한다. 그리고, 실시예 1의 동기 부여 정보 취득부(44)와 마찬가지로, 수취한, 작업 개시 정보 및 작업 종료 정보를 표시 제어부(43)에 보내는 한편, 작업 개시 정보와 작업 종료 정보에 기초하여, 수행된 소정 작업의 횟수 및 작업 속도(여기에서는, 작업 시간)를 산출한다. 그리고, 산출한 소정 작업의 횟수 및 작업 속도를 동기 부여 정보 생성부(46)에 보낸다.
동기 부여 정보 생성부(46)는, 수취한 소정 작업의 횟수 및 작업 속도에 기초하여, 소정 작업의 횟수(작업량) 및 작업 속도로부터 파생된 이차 동기 부여 정보를 생성하고, 생성된 이차 동기 부여 정보를 동기 부여 정보 제시기(6)에 보낸다. 여기서, 동기 부여 정보 생성부(46)는 이차 동기 부여 정보에 더하여, 일차 동기 부여 정보(소정 작업의 횟수 및 작업 속도 중 적어도 어느 하나)를 동기 부여 정보 제시기(6)에 보내도 좋다.
여기서, 이차 동기 부여 정보에 대해서, 자세히 설명한다. 여기서, 이하의 「소정 작업」은 「로봇 본체(1)가 수행한 작업」이다.
이차 동기 부여 정보는, 소정 작업의 양(횟수) 또는 속도에 대응하는 스코어(득점), 소정 작업에 의해 생산되는 물품의 생산 총액 또는 생산 총량인 생산고, 소정 작업에 의해 생산되는 물품의 총량에 대하여 지급되는 공임, 소정 작업의 횟수 및 작업 속도의 레벨이 소정의 높은 레벨인 조작자에게 부여되는 직함, 소정 작업의 횟수 및 작업 속도의 레벨이 높다는 것을 칭하는 칭호, 소정 작업의 횟수 및 작업 속도의 레벨이 높다는 것에 감탄하는 말, 소정 작업의 횟수 및 작업 속도의 레벨에 따라 변화하는, 금전을 연상시키는 효과음, 소정 작업의 횟수 및 작업 속도의 레벨에 따라 변화하는, 금전을 연상시키는 화상 등의 하나 또는 복수의 조합을 포함한다.
상기 생산고으로서, 「생산량 N(N은 수량) 개」, 「생산 금액 F(F는 금액) 엔」등이 예시된다.
상기 공임으로서, 「공임 F(F는 금액) 엔」등이 예시된다.
상기 직함으로서, 「명인」, 「마이스터」, 「보스」 등이 예시된다.
상기 칭호로서, 「왕」, 「킹」, 「챔피언」, 「제왕」, 「달인」, 「정점에 있는 사람」 등이 예시된다.
상기 감탄하는 말로서. 「굉장하다!」, 「훌륭하다!」, 「빠르다!」, 「그레이트!」, 「위험해!」, 「이게 무슨 일이야!」, 「와오!」, 「대통령!」, 「이런 건 본 적이 없어!」등이 예시된다.
상기 금전을 연상시키는 효과음으로서, 동전의 낙하음인 「짤랑」, 동전의 마찰음인 「짤랑짤랑」 등이 예시된다.
상기 금전을 연상시키는 화상으로서, 「지폐 뭉치의 화상」, 「지폐의 화상」, 「금화의 화상」, 「금괴의 화상」, 「다이아몬드의 화상」 등이 예시된다.
상기 직함, 상기 칭호, 상기 감탄하는 말, 상기 금전을 연상시키는 효과음, 상기 금전을 연상시키는 화상은, 예를 들어, 소정 작업의 횟수 또는 작업 속도가 소정의 레벨을 초과하면 생성된다. 또한, 예를 들어, 소정 작업의 횟수 또는 작업 속도에 대해서 복수의 레벨을 설정하고, 당해 복수의 레벨에 따라서, 상기 이차 동기 부여 정보를 생성하여도 좋다.
동기 부여 정보 제시기(6)는, 수신한 동기 부여 정보(일차 동기 부여 정보 및 또는 이차 동기 부여 정보)를 조작자에 제시한다.
이러한 실시예 2에 따르면, 이차 동기 부여 정보에 의해서, 단순히 작업량 또는 작업 속도를 나타내는 일차 동기 부여 정보에 비해서, 더 강하게, 조작자가 로봇 본체(1)의 작업량 또는 작업 속도를 증가시키도록 동기 부여되기 때문에, 조작자에게 조작 능력을 더 발휘시킬 수 있다.
(실시예 3)
본 발명의 실시예 3은, 동기 부여 정보가 다른 조작자(로봇 시스템)과의 비교 정보를 포함하는 점에서 실시예 2와 다르고, 그 밖의 점은 실시예 2와 동일하다. 이하에서, 그 차이점을 설명한다.
도 7은 본 발명의 실시예 3에 따른 로봇 시스템의 제어 계통의 구성의 일례를 도시하는 기능 블록도이다.
도 7을 참조하면, 본 실시예의 로봇 시스템(300C)은, 나아가, 제1 통신기(51)를 구비한다. 제1 통신기(51)는, 제어기(3)의 작업 취득부(45)와 전기적으로 접속되어 있다. 또한, 제1 통신기(51)는, 데이터 통신 가능한 통신 네트워크(52)에 접속되어 있다. 이러한 통신 네트워크(52)에는, 다른 복수의 로봇 시스템(300C)(미도시)의 제1 통신기(51)가 접속되어 있다. 다른 복수의 로봇 시스템(300C)에서는, 본 실시예의 로봇 시스템과 마찬가지로 상기 소정 작업이 이루어지고 있다. 통신 네트워크(52)는, 여기에서는 LAN(Local Area Network)이지만, 인터넷이라도 좋다.
제1 통신기(51)는, 작업 취득부(45)로부터 소정 작업의 횟수 및 작업 속도를 수취하고, 이들을 소정의 프로토콜의 통신 데이터로 변환하고, 통신 네트워크(52)를 통해 다른 로봇 시스템(300C)의 제1 통신기(51)에 송신한다. 또한, 제1 통신기(51)는, 다른 로봇 시스템(300C)의 제1 통신기(51)로부터 통신 네트워크(52)를 통해서, 소정 작업의 횟수 및 작업 속도를 포함한 통신 데이터를 수신하고, 이를 소정 작업의 횟수 및 작업 속도로 변환하여, 작업 취득부(45)에 보낸다. 이러한 통신은, 시시각각, 리얼 타임으로 수행된다.
작업 취득부(45)는, 수취한 다른 로봇 시스템(300C)의 소정 작업의 횟수 및 작업 속도를 동기 부여 정보 생성부(46)에 보낸다.
동기 부여 정보 생성부(46)는, 수취한 다른 로봇 시스템(300C)의 소정 작업의 횟수 및 작업 속도와 자신이 속한 로봇 시스템(300C)의 소정 작업의 횟수 및 작업 속도에 기초하여, 모든 로봇 시스템(300C)에서 자신이 속하는 로봇 시스템(300C)의 소정 작업의 횟수 및 작업 속도의 순위를 산출하고, 이 순위를 동기 부여 정보로 한다.
즉, 본 실시예의 동기 부여 정보 생성부(46)는, 실시예 2에서 언급한 이차 동기 부여 정보에 더하여, 모든 로봇 시스템(300C)에서 자신이 속한 로봇 시스템(300C)의 소정 작업의 횟수 및 작업 속도의 순위를 이차 동기 부여 정보로 생성한다.
이러한 소정 작업의 횟수 및 작업 속도의 순위는, 동기 부여 정보 제시기(6)에 보내지고, 동기 부여 정보 제시기(6)에 의해 조작자에 제시된다. 그리하면, 작업자는, 경쟁심을 느끼고, 더 강하게, 로봇 본체(1)의 작업량 또는 작업 속도를 증가시키도록 동기 부여된다. 그 결과, 조작자에 조작 능력이 더 발휘된다.
(실시예 4)
본 발명의 실시예 4는 로봇 시스템의 구성 요소 중, 조작기, 작업 화상 표시기, 및 동기 부여 정보 제시기가, 통신 네트워크를 통해 다른 구성 요소와 접속되어 있다는 점에서 실시예 2와 다르고, 그 밖의 점은 실시예 2와 동일하다. 이하에서, 그 차이점을 설명한다.
도 8은 본 발명의 실시예 4에 따른 로봇 시스템의 제어 계통의 구성의 일례를 도시하는 기능 블록도이다.
도 8을 참조하면, 본 실시예의 로봇 시스템(300D)는, 나아가, 제2 통신기(61), 제3 통신기(62)를 구비한다. 제2 통신기(61) 및 제3 통신기(62)는 데이터 통신 기구를 구성한다.
로봇 시스템(300D)은, 조작용 기기 군(群)(71)과, 조작용 기기 군(72)으로 나누어져 있다.
조작용 기기 군(71)은, 조작기(2), 작업 화상 표시기(5), 동기 부여 정보 제시기(6) 및 제3 통신기(62)를 포함한다. 조작용 기기 군(72)은, 제어기(3), 로봇 본체(1), 작업 촬상기(4), 작업 개시 검지기(47), 작업 종료 검지기(48) 및 제2 통신기(61)를 포함한다.
제2 통신기(61)는, 제어기(3)의 로봇 제어부(41), 조작기 제어부(42), 표시 제어부(43), 및 동기 부여 정보 생성부(46)와 전기적으로 접속되어 있다. 또한, 제2 통신기(61)는, 데이터 통신 가능한 통신 네트워크(63)에 접속되어 있다. 제3 통신기(62)는, 조작기(2), 작업 화상 표시기(5) 및 동기 부여 정보 제시기(6)와 접속되어 있다. 또한, 제3 통신기(62)는, 통신 네트워크(63)에 접속되어 있다. 통신 네트워크(63)는, 여기에서는, 인터넷이지만, LAN이라도 좋다.
구체적으로는, 제2 통신기(61)는, 제어기(3)의 조작기 제어부(42)로부터의 제어 신호, 표시 제어부 (43)로부터의 화상 표시 신호, 및 동기 부여 정보 생성부(46)로부터의 동기 부여 정보를, 소정의 프로토콜의 통신 데이터로 각각 변환하고, 이들을, 통신 네트워크(63)를 통해서, 제3 통신기(62)에 송신한다. 또한, 제2 통신기(61)는, 제3 통신기(62)로부터, 통신 네트워크(63)를 통해서, 조작 지령을 포함하는 통신 데이터를 수신하고, 이를 조작 지령으로 변환하여 로봇 제어부(41)에 보낸다.
제3 통신기(62)는, 조작기(2)로부터의 조작 지령을, 소정의 프로토콜의 통신 데이터로 변환하고, 이를, 통신 네트워크(63)를 통해 제2 통신기(61)에 송신한다. 또한, 제3 통신기(62)는, 제2 통신기(61)로부터, 통신 네트워크(63)를 통해서, 제어 신호를 포함하는 통신 데이터, 화상 표시 신호를 포함하는 통신 데이터, 및 동기 부여 정보를 포함하는 통신 데이터를 수신하고, 이들을, 각각 제어 신호, 영상 표시 신호 및 동기 부여 정보로 변환하여, 조작기(2), 작업 화상 표시기(5) 및 동기 부여 정보 제시기(6)에 각각 보낸다.
여기에서, 예를 들어, 조작용 기기 군(72)이 공장에 설치되고, 조작용 기기 군(71)이 조작자의 자택에 설치된다.
이와 같이 구성된 실시예 4에 따르면, 재택에서 로봇 본체(1)를 조작하여 당해 로봇 본체(1)에 작업을 시킬 수 있다. 그 결과, 재택이 아니면 근무하지 못하는 사람으로, 특단의 조작 능력을 가진 사람도 능력을 발휘하게 할 수 있다.
(실시예 5)
본 발명의 실시예 5는, 로봇(10)이, 동작 모드로서, 수동 모드(조작에 의해 조작되는 모드) 외에, 자동 모드 및 수정 자동 모드를 가지는 점에서, 실시예 1과 다르고, 그 밖의 점은 실시예 1과 동일하다. 이하에서, 그 차이점을 설명한다.
도 9는, 본 발명의 실시예 5에 따른 로봇 시스템의 제어 계통의 구성의 일례를 도시하는 기능 블록도이다. 도 10은 도 9의 선택기 및 로봇 제어부의 상세한 구성의 일례를 도시하는 기능 블록도이다. 도 10에서서, 화살표는, 지령, 신호 또는 데이터(프로그램을 포함)을 나타낸다. 이러한 화살표가 나타내는 것은, 각 기능 블록의 설명으로부터 자명하기 때문에, 참조 부호의 부여를 생략한다.
도 9를 참조하면, 본 실시예의 로봇 시스템(300E)은, 선택기(7)를 포함한다. 도 10을 참조하면, 선택기(7)는, 모드 선택부(7a)와, 프로그램 선택부(7b)를 포함한다.
로봇 제어부(41)는, 수정 동작 프로그램 생성부(112)와, 프로그램 저장부(113)와, 자동 지령부(114)와, 지령 전환부(115)와, 조정부(116)를 포함한다. 또한, 조정부(116)는, 제어부(미도시)와, 서보 앰프(미도시)를 포함한다.
선택기(7)는, 데이터 입력 장치로 구성되고, 예를 들어, 터치 패널, 조절 노브, 조작 버튼, 조작 레버 또는 태블릿 등의 정보 단말로 구성된다. 모드 선택부(7a)는, 조작자가 조작하는 것에 의해, 자동 모드, 수정 자동 모드 및 수동 모드 중 하나를 선택하는 것이 가능하도록 구성된다. 프로그램 선택부(7b)는, 조작자가 조작하는 것에 의해, 프로그램 저장부(113)에 저장된 프로그램을 선택하는 것이 가능하도록 구성된다.
수정 동작 프로그램 생성부(112), 자동 지령부(114), 지령 전환부(115) 및 조정부의 제어부는 제어기(3)를 구성하는 메모리에 저장된 소정의 동작 프로그램을, 제어기(3)를 구성하는 프로세서가 실행함으로써 실현되는 기능 블록이다. 프로그램 저장부(113)는, 제어기(3)를 구성하는 메모리에 의해 구성된다.
프로그램 저장부(113)에는, 오리지널 동작 프로그램과, 이러한 오리지널 동작 프로그램을 수정한 1 이상의 수정 동작 프로그램이 저장된다.
자동 지령부(114)는, 프로그램 선택부에서 선택된 동작 프로그램을 프로그램 저장부(113)로부터 읽어내고, 읽어낸 동작 프로그램에 따라 자동 동작 지령을 출력한다.
지령 전환부(115)는, 모드 선택부(7a)에서 선택된 모드에 따라서, 자동 동작 지령과 조작기(2)로부터 출력되는 조작 지령을 전환하여 동작 지령을 출력한다. 구체적으로는, 모드 선택부(7a)에서 자동 모드가 선택되면, 지령 전환부(115)는, 자동 동작 지령을 동작 지령으로 출력한다. 모드 선택부(7a)에서 수정 자동 모드가 선택되면, 지령 전환부(115)는, 자동 동작 지령에 조작 지령을 가산한 것을 동작 지령으로서 출력한다. 또한, 이러한 동작 지령을 수정 동작 프로그램 생성부(112)에 보낸다. 모드 선택부(7a)에서 수동 모드가 선택되면, 지령 전환부(115)는 조작 지령을 동작 지령으로서 출력한다.
조정부(116)의 제어부는, 지령 전환부(115)로부터 출력되는 동작 지령과 로봇 본체(1)로부터 피드백되는 회전각(미도시)에 따른 제어 신호를 생성한다. 조정부(116)의 서보 앰프는, 이러한 제어 신호와, 로봇 본체(1)로부터 피드백되는 전류 값에 따른 전류 지령을 로봇 본체(1)의 각각의 관절의 서보 모터에 출력한다. 이에 따라서, 로봇 본체(1)가 동작 지령에 따라 동작한다. 여기서, 로봇 본체(1)로부터 피드백되는 회전각 및 전류 값은 각각, 로봇 본체(1)의 각각의 관절을 구동하는 서보 모터의 회전각 및 전류 값이다.
수정 동작 프로그램 생성부(112)는, 자동 지령부(114)가 읽어내는 동작 프로그램을, 지령 전환부(115)로부터 보내지는 동작 지령이 반영된 것으로 하도록 수정하여, 수정 동작 프로그램을 생성하고, 이를 프로그램 저장부(113)에 저장한다.
다음으로, 이상과 같이 구성된 본 실시예의 로봇 시스템의 동작을 실시예 1의 감합 작업을 예로 들어 설명한다.
오리지널 동작 프로그램은, 로봇 본체(1)에 의해, 제1 물품(81)의 파지, 작업 개시 검지기(47) 위로의 엔드 이펙터(17)의 이동, 및 제2 물품(82)의 바로 위로의 제1 물품의 반송을 실시한 후, 엔드 이펙터(17)를 하강시켜 제2 물품(82)에 제1 물품(81)를 감합시키고, 그 후, 제1 물품(81)의 해방, 작업 종료 검지기(48) 위로의 엔드 이펙터(17)의 이동을 실시하도록 작성되어 있다. 또한, 자동 모드에서는, 힘 센서(19)가 검지하는 힘이 소정의 임계치를 초과하면, 로봇(10)은 정지하여 신호 대기 상태가 되고, 이 상태에서, 모드 선택부(7a)로부터 모드 선택 신호가 출력되면, 로봇(10)은, 그 모드 선택 신호에 따른 동작 모드에서 동작한다.
여기에, 오리지널 동작 프로그램에 따라 로봇 본체(1)를 동작시키는 경우, 제1 물품(81) 및 제2 물품(82)의 치수가 공차의 대략 중심 값이고, 또한, 로봇 본체(1)에 의한 제1 물품(81)의 반송 오차가 매우 작은 경우에, 제2 물품(82)에의 제1 물품(81)의 감합이 성공한다고 가정한다. 또한, 프로그램 저장부(113)에는 1 개의 수정 동작 프로그램이 저장되어 있고, 이러한 수정 동작 프로그램은, 도 4(a)에서, 제1 물품(81)의 위치가, 제2 물품(82)의 바로 위로부터 도면 우방향으로 약간 어긋나 있는 경우에 대응 가능하다고 가정한다.
이하에서, 도 9 및 도 10을 참조하여, 로봇 본체(1)의 동작을 구체적인 경우로 나누어 설명한다.
<수동 모드의 경우>
조작자가 수동 모드를 선택한 경우, 지령 전환부(115)가, 조작기(2)로부터 출력되는 조작 지령을 동작 지령으로서 출력하기 때문에, 로봇 본체(1)는, 조작기(2)의 조작에 따라 동작한다. 따라서, 이 경우, 실시예 1과 동일한 결과를 얻을 수 있다.
<자동 모드 → 오리지널 동작 프로그램 선택의 경우>
조작자가 모드 선택부(7a)를 조작하여 자동 모드를 선택하고, 또한, 프로그램 선택부(7b)를 조작하여 오리지널 동작 프로그램을 선택한 경우, 예를 들어, 제1 물품(81)의 치수가 공차의 상한 값이고 제2 물품(82)의 치수가 공차의 하한 값인 경우 또는 로봇 본체(1)에 의한 제1 물품(81)의 반송 오차가 상당히 큰 경우에, 로봇 본체(1)가 제1 물품(81)을 제2 물품(82)을 향해 하강시키면, 제1 물품(81)의 몸통부(81b)가 제2 물품(82)의 관통공(82a)의 가장자리에 맞닿는다. 그리하면, 로봇(10)이 정지하고, 신호 대기 상태가 된다. 이 상태에서, 조작자가 수동 모드를 선택하면, 로봇 본체(1)는, 조작기(2)의 조작에 따라 동작한다. 조작자는, 조작기(2)를 조작하여, 로봇 본체(1)에 의한 나머지 감합 작업을 완료한다.
<자동 모드 → 수정 동작 프로그램 선택의 경우>
이 경우, 도 4(a)에서, 제1 물품(81)의 위치가, 제2 물품(82)의 바로 위로부터 도면 우방향으로 약간 어긋나 있는 경우에는, 수정 동작 프로그램에 따라 로봇 본체(1)가 더듬거리는 동작을 수행하고, 나머지의 감합 작업을 자동으로 완료된다.
한편, 도 4(a)에서, 제1 물품(81)의 위치가, 제2 물품(82)의 바로 위로부터 도면 우방향 이외의 방향으로 약간 어긋나 있는 경우에는, 로봇(10)이 다시 정지하고, 신호 대기 상태가 된다. 이 경우, 조작자가 수동 모드를 선택하면, 조작자가 조작기(2)를 조작하여, 로봇 본체(1)에 의한 나머지 감합 작업을 완료하게 된다. 한편, 이 경우에, 수정 자동 모드를 선택하면, 다음으로 설명하는 케이스와 마찬가지가 된다.
<수정 자동 모드 → 오리지널 동작 프로그램 선택의 경우>
이 경우, 「자동 모드 → 오리지널 동작 프로그램 선택의 경우」와 마찬가지로, 제1 물품(81)의 치수가 공차의 상한 값이고 제2 물품(82)의 치수가 공차의 하한 값인 경우 또는 로봇 본체(1)에 의한 제1 물품(81)의 반송 오차가 상당히 큰 경우에, 로봇 본체(1)가 제1 물품(81)을 제2 물품(82)을 향해 하강시키면, 제1 물품(81)의 몸통부(81b)가 제2 물품(82)의 관통공(82a)의 가장자리에 맞닿기 때문에, 그 이후, 조작자가 조작기(2)를 조작하여, 로봇 본체(1)에 의한 나머지 감합 작업을 완료하게 된다. 여기서, 이 때의 동작 지령에 기초하여, 수정 동작 프로그램 생성부가 새로운 수정 동작 프로그램을 생성하고, 이를 프로그램 저장부(113)에 저장하기 때문에, 그 이후에, 당해 수정 동작 프로그램을 선택함으로써 감합 작업의 효율이 향상된다.
<수정 자동 모드 → 수정 동작 프로그램 선택의 경우>
이 경우, 감합 작업이, 선택된 수정 동작 프로그램이 대응 가능한 형태인 경우, 로봇 본체(1)에 의해 자동으로 감합 작업이 수행된다. 한편, 감합 작업이, 선택된 수정 동작 프로그램이 대응 불가능한 형태인 경우, 조작자가 조작기(2)를 조작하여 수정 동작 프로그램에 의한 로봇 본체(1)의 동작을 수정하면서 감합 작업을 수행한다. 이 경우도, 이 때의 동작 지령에 기초하여 새로운 수정 동작 프로그램이 생성되어 프로그램 저장부(113)에 저장되고, 그 이후에, 당해 수정 동작 프로그램을 선택함으로써 감합 작업의 효율이 향상된다.
<동기 부여 정보에 의한 작용 효과>
이상으로 설명한 각각의 감합 작업에 대해서, 실시예 1과 마찬가지로 로봇 본체(1)의 작업량(작업 횟수) 및 작업 시간(작업 속도)이 산출되고, 그것을 기초로, 동기 부여 정보가 생성되어 조작자에 제시된다.
이 경우, 조작자의 로봇 본체(1)의 조작 능력뿐만 아니라, 동작 모드 및 프로그램의 선택에 의해서, 로봇 본체(1)의 작업량(작업 횟수) 및 작업 시간(작업 속도)가 좌우된다.
한편, 조작자는, 동기 부여 정보 제시기(6)에 의해 제공되는 동기 부여 정보에 의해서, 로봇 본체(1)의 작업량 또는 작업 속도를 향상시키도록 동기 부여된다. 이 경우, 조작자는, 로봇 본체(1)를 능숙하게 조작하려고 할뿐만 아니라, 동작 모드 및 프로그램을 적절하게 선택함으로써, 로봇 본체(1)의 작업량을 증대 또는 작업 시간을 단축하려고 노력한다. 그 결과, 실제의 작업을 통해서, 조작자가 조작 능력을 가능한 한 발휘하도록 조작자의 조작 능력을 향상시킬 수 있는 동시에, 적절한 동작 모드의 선택 능력을 향상시킬 수 있다.
(실시예 6)
본 발명의 실시예 6은, 실시예 5에서, 로봇(10)이 수정 자동 모드만을 가지고, 또한, 로봇 제어부(41)가, 수정 동작 프로그램 생성부(112) 및 프로그램 저장부(113) 대신에, 조작 지령을 기계 학습하는 학습부를 구비하는 것이다. 더 자세히 설명하면, 실시예 5의 로봇 시스템(300E)에서, 선택기(7)가 제거되고, 자동 지령부(114)는 「기본 동작 지령부」로서 기능하고, 기본 동작 프로그램을 저장하고 있고, 이러한 기본 동작 프로그램에 따라 자동 동작 지령을 출력한다. 지령 전환부(115)는, 「동작 지령부」로서 기능하고, 이러한 자동 동작 지령에 학습부가 출력하는 자동 동작 수정 지령과 조작기(2)가 출력하는 조작 지령을 가산한 것을 동작 지령으로서 출력한다. 학습부는, 학습 시에는, 자동 동작 수정 지령과 조작 지령을 가산한 것을, 로봇 본체(1)의 엔드 이펙터(17)의 위치 데이터(회전각) 및 힘 데이터(힘 센서(19)의 검출 값)와 대응시켜서, 기계 학습한다. 또한, 학습부는, 동작 시에는, 현시점에서 로봇 본체(1)의 엔드 이펙터(17)의 위치 데이터 및 힘 데이터를 입력하면, 지금까지의 기계 학습에 기초하여, 이러한 입력에 대응하는 자동 동작 수정 지령을 출력한다. 이러한 기계 학습에 의해, 조작자의 로봇 본체(1)를 조작하여 소정의 작업을 수행하는 기능이, 실제의 작업을 통해서, 로봇 시스템에 전승된다.
그리고, 이러한 실제의 작업에서, 조작자가 동기 부여 정보에 의해, 로봇 본체(1)의 작업량 또는 작업 속도를 향상시키도록 동기 부여된다. 그 결과, 조작자의 더 고도한, 로봇 본체(1)를 조작하여 소정의 작업을 수행하는 기능이, 실제의 작업을 통해서, 로봇 시스템에 전승된다.
(실시예 7)
본 발명의 실시예 7은, 실시예 1 ~ 6 중 어느 하나에서, 작업 촬상기(4) 및 작업 화상 표시기(5)가 생략되어 구성된다. 본 실시예의 로봇 시스템은, 조작자가 로봇 본체(1)의 근방에서 로봇 본체(1)에 의한 작업을 육안으로 확인하면서 로봇 본체(1)를 조작할 수 있는 작업 환경에 적용된다. 이러한 작업 환경으로서, 사람과 로봇이 공존하여 작업을 실시하는 환경이 예시된다.
(기타 실시예)
실시예 1 ~ 5에서는, 소정 작업으로서, 2 개의 제품의 감합을 예시하였지만, 소정 작업은, 로봇에 의해 자동으로 수행하는 것보다, 사람이 로봇을 조작하는 쪽이, 양호한 결과를 얻을 수 있는 작업이라면 좋다. 예를 들어, 소정 작업으로서, 자동화가 어려운 용접 작업, 자동화가 어려운 도장 작업 등을 들 수 있다.
또한, 실시예 1 ~ 5 중 하나에서, 동기 부여 정보 취득부(44)가, 「작업의 횟수」 및 「작업 속도」 중 일방만을 생성하고, 이를 동기 부여 정보 제시기(6)에 보내도 좋다.
또한, 실시예 1 ~ 6 중 하나에서, 조작기(2)에의 힘 데이터의 반영을 생략하여도 좋다.
또한, 실시예 4에서, 실시예 2의 로봇 시스템(300B) 대신에, 실시예 1의 로봇 시스템(300A), 실시예 3의 로봇 시스템(300C), 또는 실시예 5의 로봇 시스템(300E)을, 제2 통신기(61) 및 제3 통신기(62)를 이용한 구성으로 수정되어도 좋다.
또한, 실시예 4에서, 조작용 기기 군(71)을, 공장에서, 조작용 기기 군(72)이 설치된 에어리어로부터, 멀리 떨어진 에어리어에 설치하여도 좋다.
실시예 2 ~ 4, 7 중 하나에서, 실시예 5와 마찬가지로, 선택기(7)을 설치하는 동시에 로봇 제어부(41)를 도 10과 도시된 바와 같이 구성하여도 좋다.
또한 2 ~ 4, 7 중 하나에서, 로봇 제어부(41)를 실시예 6과 동일하게 구성하여도 좋다.
상기 설명으로부터, 당업자에게는 많은 개량이나 다른 실시 형태가 분명할 것이다. 따라서, 상기 설명은 예시로서만 해석되어야 한다.
본 발명의 로봇 시스템은, 조작자에 조작 능력을 가능한 한 발휘시키는 것이 가능한 로봇 시스템으로서 유용하다.
1: 로봇 본체
2: 조작기
3: 제어기
4: 작업 촬상기
5: 작업 화상 표시기
6: 동기 부여 정보 제시기
7: 선택기
10: 로봇
17: 엔드 이펙터
19: 힘 센서
41: 로봇 제어부
42: 조작기 제어부
43: 표시 제어부
44: 동기 부여 정보 취득부
45: 작업 취득부
46: 동기 부여 정보 생성부
47: 작업 개시 검지기
48: 작업 종료 검지기
51: 제1 통신기
52: 통신 네트워크
61: 제2 통신기
62: 제3 통신기
63: 통신 네트워크
71: 조작용 기기 군
72: 조작용 기기 군
81: 제1 물품
82: 제2 물품
112: 수정 동작 프로그램 생성부
113: 프로그램 저장부
114: 자동 지령부
115: 지령 전환부
116: 조정부
300A ~ 300E: 로봇 시스템

Claims (8)

  1. 작업을 수행하는 로봇 본체와,
    조작 지령에 따라 상기 로봇 본체의 동작을 제어하는 로봇 제어부와,
    조작자의 조작에 따라 상기 조작 지령을 상기 로봇 제어부에 보내는 조작기와,
    상기 조작자가 현실 세계에서 상기 로봇 본체의 작업량 또는 작업 속도를 증가시키도록 상기 조작자를 동기 부여시키는 동기 부여 정보를 취득하는 동기 부여 정보 취득부와,
    상기 동기 부여 정보 취득부가 취득한 상기 동기 부여 정보를 상기 조작자에 제시하는 동기 부여 정보 제시기를 구비하고,
    상기 동기 부여 정보 취득부는, 상기 로봇 본체가 수행한 작업의 양 및 상기 로봇 본체가 수행한 작업의 속도 중 적어도 어느 하나를 취득하는 작업 취득부와, 상기 작업 취득부에서 취득된 상기 로봇 본체가 수행한 작업의 양 및 상기 로봇 본체가 수행한 작업의 속도 중 적어도 어느 하나에 기초하여 상기 동기 부여 정보를 생성하는 동기 부여 정보 생성부를 구비하는 것을 특징으로 하는 로봇 시스템.
  2. 작업을 수행하는 로봇 본체와,
    조작 지령에 따라 상기 로봇 본체의 동작을 제어하는 로봇 제어부와,
    조작자의 조작에 따라 상기 조작 지령을 상기 로봇 제어부에 보내는 조작기와,
    상기 조작자가 상기 로봇 본체의 작업량 또는 작업 속도를 증가시키도록 상기 조작자를 동기 부여시키는 동기 부여 정보를 취득하는 동기 부여 정보 취득부와,
    상기 동기 부여 정보 취득부가 취득한 상기 동기 부여 정보를 상기 조작자에 제시하는 동기 부여 정보 제시기를 구비하고,
    상기 동기 부여 정보 취득부는, 상기 로봇 본체가 수행한 작업의 양 및 상기 로봇 본체가 수행한 작업의 속도 중 적어도 어느 하나를 취득하는 작업 취득부와, 상기 작업 취득부에서 취득된 상기 로봇 본체가 수행한 작업의 양 및 상기 로봇 본체가 수행한 작업의 속도 중 적어도 어느 하나에 기초하여 상기 동기 부여 정보를 생성하는 동기 부여 정보 생성부를 구비하고,
    상기 로봇 본체와 상기 로봇 제어부를 구비하는 로봇이,
    상기 로봇 제어부가 상기 조작 지령에 따라 상기 로봇 본체의 동작을 제어하는 수동 모드와,
    상기 로봇 제어부가 소정의 동작 프로그램에 따라 상기 로봇 본체의 동작을 제어하는 자동 모드와,
    상기 로봇 제어부가 상기 조작 지령과 상기 소정의 동작 프로그램에 따라 상기 로봇 본체의 동작을 제어하는 수정 자동 모드를 구비하고, 또한,
    상기 로봇 제어부가, 상기 수정 자동 모드에서, 상기 소정의 동작 프로그램을 상기 조작 지령이 반영된 것으로 되도록 수정하고, 이러한 수정된 소정의 동작 프로그램을, 이 후의 수정 자동 모드에서, 상기 소정의 동작 프로그램을 대신하여 사용하는 것을 특징으로 하는 로봇 시스템.
  3. 작업을 수행하는 로봇 본체와,
    조작 지령에 따라 상기 로봇 본체의 동작을 제어하는 로봇 제어부와,
    조작자의 조작에 따라 상기 조작 지령을 상기 로봇 제어부에 보내는 조작기와,
    상기 조작자가 상기 로봇 본체의 작업량 또는 작업 속도를 증가시키도록 상기 조작자를 동기 부여시키는 동기 부여 정보를 취득하는 동기 부여 정보 취득부와,
    상기 동기 부여 정보 취득부가 취득한 상기 동기 부여 정보를 상기 조작자에 제시하는 동기 부여 정보 제시기를 구비하고,
    상기 로봇 제어부는, 기본 동작 프로그램에 따라 자동 동작 지령을 출력하는 기본 동작 지령부와, 기계 학습에 기초하여 자동 동작 수정 지령을 출력하는 학습부와, 상기 자동 동작 지령과 상기 자동 동작 수정 지령과 상기 조작 지령을 가산하여 동작 지령을 출력하는 동작 지령부를 구비하고,
    상기 학습부는, 상기 자동 동작 지령과 상기 조작 지령을 가산한 것을, 상기 로봇 본체의 엔드 이펙터의 위치 데이터 및 상기 엔드 이펙터에 가해지는 힘의 데이터와 대응시켜 기계 학습하는 것을 특징으로 하는 로봇 시스템.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 로봇 본체가 수행하는 작업이, 반복되어 수행되는 소정 작업인 것을 특징으로 하는 로봇 시스템.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 동기 부여 정보가, 상기 로봇 본체가 수행한 작업의 양, 상기 로봇 본체가 수행한 작업의 속도, 상기 로봇 본체가 수행한 작업의 횟수, 상기 로봇 본체가 수행한 작업에 의해 생산되는 물품의 생산 총액 또는 생산 총량인 생산고, 상기 로봇 본체가 수행한 작업에 의해 생산되는 물품의 총량에 대하여 지불되는 공임, 상기 로봇 본체가 수행한 작업의 양 또는 속도의 레벨이 소정의 높은 레벨인 조작자에게 부여되는 직함, 상기 로봇 본체가 수행한 작업의 양 또는 속도의 레벨이 높다는 것을 칭하는 칭호, 상기 로봇 본체가 수행한 작업의 양 또는 속도의 레벨에 따라서 변화하는, 금전을 연상시키는 효과음, 상기 로봇 본체가 수행한 작업의 양 또는 속도의 레벨에 따라 변화하는, 금전을 연상시키는 화상, 및 복수의 로봇 시스템에서 임의의 1 개의 로봇 시스템의 상기 로봇 본체가 수행한 작업의 양 및 속도의 순위 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 시스템.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 로봇 본체에 의한 작업을 촬상하는 작업 촬상기와,
    상기 작업 촬상기에 의해 촬상되는 상기 로봇 본체에 의한 작업의 화상인 작업 화상을 표시하는 작업 화상 표시기를 더 구비하는 것을 특징으로 하는 로봇 시스템.
  7. 제6항에 있어서,
    상기 조작기로부터 상기 로봇 제어부로의 상기 조작 지령의 송신, 상기 작업 촬상기로부터 상기 작업 화상 표시기로의 상기 작업 화상의 송신, 및 상기 동기 부여 정보 취득부로부터 상기 동기 부여 정보 제시기로의 동기 부여 정보의 송신을, 통신 네트워크를 통해 수행하기 위한 통신 기구를 더 구비하는 것을 특징으로 하는 로봇 시스템.
  8. 삭제
KR1020217006640A 2018-08-10 2019-08-09 로봇 시스템 KR102518131B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2018-151917 2018-08-10
JP2018151917 2018-08-10
PCT/JP2019/031684 WO2020032265A1 (ja) 2018-08-10 2019-08-09 ロボットシステム

Publications (2)

Publication Number Publication Date
KR20210041040A KR20210041040A (ko) 2021-04-14
KR102518131B1 true KR102518131B1 (ko) 2023-04-05

Family

ID=69414224

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217006640A KR102518131B1 (ko) 2018-08-10 2019-08-09 로봇 시스템

Country Status (7)

Country Link
US (3) US12027060B2 (ko)
EP (1) EP3835007A4 (ko)
JP (6) JP7333204B2 (ko)
KR (1) KR102518131B1 (ko)
CN (1) CN112469539B (ko)
TW (1) TWI782223B (ko)
WO (1) WO2020032265A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102511814B1 (ko) 2018-08-10 2023-03-20 카와사키 주코교 카부시키 카이샤 정보 처리 장치, 로봇 조작 시스템 및 로봇 조작 방법
JP6905651B1 (ja) * 2019-12-13 2021-07-21 川崎重工業株式会社 ロボットシステム及びワークの3次元モデルの形成方法
CN119367155A (zh) * 2020-04-10 2025-01-28 川崎重工业株式会社 医疗用移动体系统及其运行方法
JP7448024B2 (ja) * 2020-09-25 2024-03-12 日本電気株式会社 制御装置、制御方法及びプログラム
US12202148B2 (en) * 2020-12-22 2025-01-21 Intel Corporation Autonomous machine collaboration
JP2022131206A (ja) * 2021-02-26 2022-09-07 川崎重工業株式会社 情報処理装置、学習装置、情報処理システム及びロボットシステム
KR102453962B1 (ko) * 2021-12-10 2022-10-14 김판수 행동 모사 플랫폼 서비스 제공 시스템
GB2622622A (en) * 2022-09-23 2024-03-27 Rolls Royce Plc Robot control

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218585A (ja) * 2012-04-10 2013-10-24 Akebono Kikai Kogyo Kk 作業の指標表示装置とその装置を用いた作業の指標表示方法
WO2017033356A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 ロボットシステム
JP2017519644A (ja) * 2014-04-30 2017-07-20 パーカー、コールマン、ピー.PARKER,Coleman,P. 仮想現実入力を用いたロボット制御システム

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51106455A (ja) * 1975-03-15 1976-09-21 Nobumasa Kobayashi Seisandosapitsuchikaisujidohyojisochi
JPS60181803A (ja) * 1984-02-28 1985-09-17 Shin Meiwa Ind Co Ltd 産業用ロボツトにおける制御方法
US5046022A (en) * 1988-03-10 1991-09-03 The Regents Of The University Of Michigan Tele-autonomous system and method employing time/position synchrony/desynchrony
JPH0639753A (ja) * 1991-09-18 1994-02-15 Fujitsu Ltd ロボットの遠隔操作支援装置
JP3304251B2 (ja) 1995-11-27 2002-07-22 松下電工株式会社 組立ロボットの自動教示方法及びその装置
JP3876573B2 (ja) * 1999-09-20 2007-01-31 カシオ計算機株式会社 ネットゲーム装置及び似顔絵画像表示制御方法
JP3286665B2 (ja) 1999-12-27 2002-05-27 川崎重工業株式会社 ロボット遊戯装置の制御方法およびロボット遊戯装置
JP2002108975A (ja) 2000-10-02 2002-04-12 Komatsu Ltd 施工量管理システム
JP4363058B2 (ja) 2003-02-25 2009-11-11 株式会社安川電機 モータ、モータの制御装置、モータ制御システム及びモータの同定方法
JP2003265852A (ja) * 2003-03-10 2003-09-24 Konami Co Ltd ゲーム用サーバ装置、ゲーム管理方法及びゲーム管理プログラム
JP4438927B2 (ja) 2003-04-08 2010-03-24 株式会社バンダイナムコゲームス シミュレータ、プログラム及び情報記憶媒体
JP4196400B2 (ja) 2003-04-22 2008-12-17 株式会社安川電機 モータの制御装置及び制御方法
JP2006051586A (ja) * 2004-08-13 2006-02-23 Speecys Kk ロボットコントロールシステム
JP4823509B2 (ja) * 2004-11-05 2011-11-24 日立電子サービス株式会社 教育受講ナビゲーションシステム
JP2007183332A (ja) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International 操作訓練装置
JP5064835B2 (ja) * 2007-02-28 2012-10-31 株式会社アルバック 基板搬送装置
JP5083617B2 (ja) 2008-01-31 2012-11-28 澁谷工業株式会社 遠隔操作ロボット装置
JP2009213754A (ja) * 2008-03-12 2009-09-24 Taito Corp 対戦ゲームシステム
US20090291764A1 (en) 2008-05-21 2009-11-26 George Francis Kirkman System and apparatus for a controlled toy to interact with a computer game
CN101623867B (zh) * 2008-07-11 2010-12-01 中国科学院沈阳自动化研究所 一种使机器人高精度跟踪指定路径的设备和方法
JP2010131711A (ja) * 2008-12-05 2010-06-17 Honda Motor Co Ltd ロボットアームの制御方法
JP5726850B2 (ja) * 2009-03-20 2015-06-03 ザ ジョンズ ホプキンス ユニバーシティ 技術的技能を定量化する方法及びシステム
US20120238366A1 (en) 2011-03-15 2012-09-20 Maurice Tedder Robot Game for Multiple Players that is Remotely Controlled over a Network
EP2704658A4 (en) 2011-05-05 2014-12-03 Univ Johns Hopkins Method and system for analyzing a task trajectory
JP5838873B2 (ja) * 2012-03-15 2016-01-06 オムロン株式会社 シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
CN104203505A (zh) * 2012-03-22 2014-12-10 株式会社安川电机 作业机器人及机器人系统
CN104470687A (zh) * 2012-07-20 2015-03-25 株式会社安川电机 机器人模拟器、机器人示教装置以及机器人示教方法
US9623561B2 (en) * 2012-10-10 2017-04-18 Kenneth Dean Stephens, Jr. Real time approximation for robotic space exploration
IL224273B (en) * 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
US11281207B2 (en) * 2013-03-19 2022-03-22 Robotic Research Opco, Llc Delayed telop aid
JP6140522B2 (ja) * 2013-05-10 2017-05-31 株式会社富士通アドバンストエンジニアリング 評価支援方法、評価支援装置、および評価支援プログラム
JP5740433B2 (ja) 2013-05-24 2015-06-24 日本電信電話株式会社 遅延補償装置、方法、プログラム及び記録媒体
JP2015047666A (ja) 2013-09-02 2015-03-16 トヨタ自動車株式会社 遠隔操作装置、及び操作画像表示方法
US9300430B2 (en) * 2013-10-24 2016-03-29 Harris Corporation Latency smoothing for teleoperation systems
JP6358463B2 (ja) * 2013-11-13 2018-07-18 パナソニックIpマネジメント株式会社 マスタースレーブ装置用マスター装置及びその制御方法、及び、マスタースレーブ装置
JP2015220574A (ja) * 2014-05-16 2015-12-07 ソニー株式会社 情報処理システム、記憶媒体、およびコンテンツ取得方法
JP6350037B2 (ja) 2014-06-30 2018-07-04 株式会社安川電機 ロボットシミュレータおよびロボットシミュレータのファイル生成方法
EP3217912B1 (en) * 2014-11-13 2024-07-24 Intuitive Surgical Operations, Inc. Integrated user environments
JP6002199B2 (ja) 2014-11-28 2016-10-05 グリー株式会社 ゲームプログラム、ゲーム処理方法、および、情報処理装置
DE102014118001A1 (de) * 2014-12-05 2016-06-09 Broetje-Automation Gmbh Verfahren zur Bewegungssimulation eines Manipulators
US9550120B2 (en) * 2014-12-08 2017-01-24 Cubic Corporation Toll image review gamification
CN107107349B (zh) * 2014-12-26 2019-11-22 川崎重工业株式会社 机械臂系统
JP6494331B2 (ja) * 2015-03-03 2019-04-03 キヤノン株式会社 ロボット制御装置およびロボット制御方法
US9808933B2 (en) * 2015-04-03 2017-11-07 GM Global Technology Operations LLC Robotic system with reconfigurable end-effector assembly
JP6240689B2 (ja) * 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
JP6365478B2 (ja) 2015-09-17 2018-08-01 株式会社安川電機 移送システムおよび移送方法
JP6386516B2 (ja) * 2016-01-14 2018-09-05 ファナック株式会社 学習機能を備えたロボット装置
US10525596B2 (en) * 2016-02-11 2020-01-07 Darryl Hammock Teleoperated robot for flood-welding operations
KR102023149B1 (ko) * 2016-03-03 2019-11-22 구글 엘엘씨 로봇 파지를 위한 심층 기계 학습 방법 및 장치
US10322506B2 (en) * 2016-05-06 2019-06-18 Kindred Systems Inc. Systems, devices, articles, and methods for using trained robots
US10220511B2 (en) * 2016-07-28 2019-03-05 X Development Llc Customized robotic installation based on measurements collected on site
FR3054468B1 (fr) * 2016-07-29 2018-08-31 Staubli Faverges Procede de commande d'un robot a usage industriel
JP6640060B2 (ja) * 2016-09-27 2020-02-05 株式会社日立製作所 ロボットシステム
JP6506245B2 (ja) * 2016-12-26 2019-04-24 ファナック株式会社 組付動作を学習する機械学習装置および部品組付システム
JP2018126798A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6846950B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6902369B2 (ja) * 2017-03-15 2021-07-14 株式会社オカムラ 提示装置、提示方法およびプログラム、ならびに作業システム
CN107020636A (zh) * 2017-05-09 2017-08-08 重庆大学 一种基于策略梯度的机器人学习控制方法
US11559898B2 (en) * 2017-10-06 2023-01-24 Moog Inc. Teleoperation system, method, apparatus, and computer-readable medium
TWM559195U (zh) * 2017-10-13 2018-05-01 Shi Ru Ling 實體化場景移動遊戲總成
CN107803841B (zh) * 2017-10-17 2020-11-17 深圳市一棵大树国际教育科技有限公司 一种基于机器人的智能教学纠正方法及其系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218585A (ja) * 2012-04-10 2013-10-24 Akebono Kikai Kogyo Kk 作業の指標表示装置とその装置を用いた作業の指標表示方法
JP2017519644A (ja) * 2014-04-30 2017-07-20 パーカー、コールマン、ピー.PARKER,Coleman,P. 仮想現実入力を用いたロボット制御システム
WO2017033356A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 ロボットシステム

Also Published As

Publication number Publication date
JP2020026025A (ja) 2020-02-20
CN112469539A (zh) 2021-03-09
EP3835007A1 (en) 2021-06-16
JP2020026028A (ja) 2020-02-20
JP7281348B2 (ja) 2023-05-25
JP2020026024A (ja) 2020-02-20
US12046148B2 (en) 2024-07-23
CN112469539B (zh) 2024-02-13
US20210316461A1 (en) 2021-10-14
WO2020032265A1 (ja) 2020-02-13
TWI782223B (zh) 2022-11-01
JP2020026027A (ja) 2020-02-20
JP7130752B2 (ja) 2022-09-05
EP3835007A4 (en) 2022-06-08
JP7333204B2 (ja) 2023-08-24
US20210201692A1 (en) 2021-07-01
US20240331566A1 (en) 2024-10-03
JP7340964B2 (ja) 2023-09-08
JP2020026026A (ja) 2020-02-20
KR20210041040A (ko) 2021-04-14
TW202012131A (zh) 2020-04-01
US12027060B2 (en) 2024-07-02
JP7281349B2 (ja) 2023-05-25
JPWO2020032265A1 (ja) 2021-08-10
JP7384575B2 (ja) 2023-11-21

Similar Documents

Publication Publication Date Title
KR102518131B1 (ko) 로봇 시스템
JP6361213B2 (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
US11977365B2 (en) Skill transfer mechanical apparatus
JP2011110620A (ja) ロボットの動作を制御する方法およびロボットシステム
CN111093911B (zh) 机器人系统及其运行方法
JPWO2012101956A1 (ja) ロボットアームの制御装置及び制御方法、ロボット、ロボットアーム制御プログラム、並びに、集積電子回路
Materna et al. Interactive spatial augmented reality in collaborative robot programming: User experience evaluation
Lenz et al. Bimanual telemanipulation with force and haptic feedback through an anthropomorphic avatar system
CN108389265A (zh) 显示三维机器人工作单元数据的系统、方法以及设备
WO2019044766A1 (ja) ロボットシステム及びその運転方法
WO2018190345A1 (ja) ロボットシステム及びその運転方法
JP7401184B2 (ja) ロボットシステム
US20210016439A1 (en) Learning device, robot control system, and learning control method
JP2018144228A (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
Jang et al. Virtual kinesthetic teaching for bimanual telemanipulation
KR102518766B1 (ko) 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템
Fuad Skeleton based gesture to control manipulator
Sopon et al. Mixed reality framework for eye-in-hand collaborative robot-human interaction
Rodrıguez-Sedano et al. Strategies for haptic-robotic teleoperation in board games: playing checkers with Baxter
Gorjup et al. On the efficiency, usability, and intuitiveness of a wearable, affordable, open-source, generic robot teaching interface
JP7283767B2 (ja) スレーブアームの制御装置
US20220335295A1 (en) Device and method for training a neural network for controlling a robot for an inserting task
US20250026010A1 (en) Teaching device, control device, and mechanical system
Atherton et al. Supporting remote manipulation with an ecological augmented virtuality interface
JP2024130677A (ja) 情報処理装置、操作装置、制御装置、ロボットシステム、情報処理装置の情報処理方法、操作装置の情報処理方法、制御装置の制御方法、物品の製造方法、プログラム、及び記録媒体

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20210304

Patent event code: PA01051R01D

Comment text: International Patent Application

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20220714

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20230324

PG1601 Publication of registration