WO2023032984A1 - 操作端末、ロボットシステム及びコンピュータプログラム - Google Patents

操作端末、ロボットシステム及びコンピュータプログラム Download PDF

Info

Publication number
WO2023032984A1
WO2023032984A1 PCT/JP2022/032600 JP2022032600W WO2023032984A1 WO 2023032984 A1 WO2023032984 A1 WO 2023032984A1 JP 2022032600 W JP2022032600 W JP 2022032600W WO 2023032984 A1 WO2023032984 A1 WO 2023032984A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
operation terminal
button
input
terminal
Prior art date
Application number
PCT/JP2022/032600
Other languages
English (en)
French (fr)
Inventor
一平 長廣
哲 伊地知
宏樹 松井
領太 酒井
里紗 百田
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to CN202280055930.XA priority Critical patent/CN117794707A/zh
Priority to EP22864566.9A priority patent/EP4397449A1/en
Publication of WO2023032984A1 publication Critical patent/WO2023032984A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine

Definitions

  • the present disclosure relates to operation terminals, robot systems, and computer programs.
  • Japanese Patent No. 6619398 discloses a machine operation panel capable of performing operations for robot teaching.
  • the machine control panel includes a tablet terminal and an external device connected to the tablet terminal.
  • the external device is connected with the controller of the robot.
  • the tablet terminal communicates with the control device via the external device.
  • the teaching operation on the machine operation panel in Japanese Patent No. 6619398 is limited to operators who have received teaching training.
  • the present disclosure provides an operation terminal, a robot system, and a computer program that enable various operators to operate specific actions of the robot.
  • An operation terminal is an operation terminal for operating a movable robot, the operation terminal receiving an input of a movement operation, which is an operation to cause a mobile device included in the robot to operate, and the received movement operation. and outputting to a controller for controlling the motion of the robot a command for causing the mobile device to perform the motion according to the above.
  • FIG. 1 is a diagram illustrating an example of a configuration of a robot system according to an embodiment.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the robot controller, teaching device, and operation terminal according to the embodiment.
  • FIG. 3 is a block diagram showing an example of functional configurations of a robot controller, a teaching device, and an operation terminal according to the embodiment;
  • FIG. 4 shows an example of the home screen displayed on the operation terminal after the robot operation application is activated.
  • FIG. 5 shows an example of a connection setting screen displayed on the operating terminal.
  • FIG. 6 shows an example of a connection setting screen displayed on the operating terminal.
  • FIG. 7 shows a modification of the connection setting screen displayed on the operating terminal.
  • FIG. 8 shows an example of an action selection screen among reproduction operation screens displayed on the operation terminal.
  • FIG. 1 is a diagram illustrating an example of a configuration of a robot system according to an embodiment.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the robot controller, teaching
  • FIG. 9 shows an example of a robot operation screen among reproduction operation screens displayed on the operation terminal.
  • FIG. 10 shows an example of a monitor function screen displayed on the operation terminal.
  • FIG. 11 shows an example of a mobile device operation screen displayed on the operation terminal.
  • FIG. 12 shows an example of a teaching target selection screen among the teaching operation screens displayed on the operation terminal.
  • FIG. 13 shows an example of a robot teaching screen displayed on the operating terminal.
  • FIG. 14 shows an example of a mobile device teaching screen displayed on the operating terminal.
  • FIG. 15 shows an example of a manual operation setting screen for the robot main body displayed on the operation terminal.
  • FIG. 16 shows an example of a mobile device monitor screen of a mobile device displayed on the operation terminal.
  • FIG. 17 shows an example of a movement width setting screen for a mobile device displayed on the operation terminal.
  • FIG. 18 shows an example of a mobile device manual operation setting screen displayed on the operation terminal.
  • FIG. 19 shows an example of a setting selection screen among setting screens displayed on the operation terminal.
  • FIG. 20 shows an example of an application setting screen among the setting screens displayed on the operating terminal.
  • FIG. 21 shows an example of a robot selection screen among setting screens displayed on the operation terminal.
  • FIG. 22 shows an example of a robot body setting screen among the setting screens displayed on the operation terminal.
  • FIG. 23 shows an example of an error log screen among setting screens displayed on the operation terminal.
  • FIG. 24 shows an example of a reproduction operation setting screen of the robot main body among the setting screens displayed on the operation terminal.
  • FIG. 25 shows an example of a mobile device setting screen among the setting screens displayed on the operation terminal.
  • FIG. 20 shows an example of an application setting screen among the setting screens displayed on the operating terminal.
  • FIG. 21 shows an example of a robot selection screen among setting screens displayed on the operation terminal.
  • FIG. 22 shows an example of a robot body setting screen among
  • FIG. 26 shows an example of a reproduction operation setting screen of the mobile device among the setting screens displayed on the operation terminal.
  • FIG. 27 shows an example of a management screen among setting screens displayed on the operation terminal.
  • FIG. 28 shows an example of a data management screen among setting screens displayed on the operation terminal.
  • FIG. 29 shows an example of a data management screen among setting screens displayed on the operation terminal.
  • FIG. 30 shows an example of a signal monitor screen among setting screens displayed on the operation terminal.
  • FIG. 1 is a diagram showing an example of a configuration of a robot system 1 according to an embodiment.
  • the robot system 1 includes one or more robots 100 , one or more robot controllers 200 , one or more teaching devices 300 and one or more operation terminals 400 .
  • the number of robots 100 and the number of robot controllers 200 are the same. Both the number of teaching devices 300 and the number of operation terminals 400 may be the same as the number of robot controllers 200 , or may be larger or smaller than the number of robot controllers 200 .
  • the robot controller 200 is mounted on the robot 100 and controls the motion of the robot 100 . However, the robot controller 200 may be located remotely from the robot 100 and connected to the robot 100 via a wired connection, wireless communication, or a combination of wireless and wired communication.
  • the teaching device 300 is connected to the robot controller 200 of one robot 100 to be taught. In this embodiment, the teaching device 300 is connected to the robot 100 by wire, but may be connected via wireless communication or a combination of wireless and wire communication.
  • the operation terminal 400 is connected to the robot controller 200 of one robot 100 to be operated. In this embodiment, the operation terminal 400 is connected to the robot controller 200 via wireless communication, but may be connected via wired communication or a combination of wired and wireless communication.
  • Wireless communication network N is not particularly limited, but wireless LAN (Local Area Network) such as WiFi (Wireless Fidelity), wireless WAN (Wide Area Network) using mobile communication network, etc., satellite communication , short-range wireless communication such as Bluetooth® and ZigBee®, or a combination of two or more of these.
  • the mobile communication network may use a 4th generation mobile communication system, a 5th generation mobile communication system, or the like.
  • the wireless communication network N is a wireless LAN. Wired connections may use direct interconnections, such as by cables, wired communication networks, or a combination thereof.
  • a wired communication network may be any network.
  • the robot 100 is a self-propelled robot and includes a robot body 110 and a moving device 120. However, the robot 100 may be configured without the mobile device 120 .
  • the robot body 110 includes a robot arm 111 having one or more joints and an end effector 112 attached to the tip of the robot arm 111 .
  • the robot arm 111 can freely move the position and posture of the end effector 112 .
  • the end effector 112 has a structure capable of applying a desired action to an object.
  • the robotic arm 111 includes one or more servo motors 113 as drives that operate one or more movable parts. End effector 112 may include one or more servo motors 113 as drives to operate the moving parts.
  • the moving device 120 can carry and move the robot body 110 .
  • the mobile device 120 is capable of running on a supporting surface such as a floor or ground, and has wheels 121 for running.
  • the moving device 120 includes one or more servomotors 122 as driving devices that rotate the wheels 121 .
  • Mobile device 120 may have a structure capable of performing other actions such as elevating, flying, surfing and diving.
  • the mobile device 120 may include a position detection device 123 that detects the position of the mobile device 120 .
  • the position detection device 123 only needs to be able to detect the absolute position or relative position of the moving device 120 within a three-dimensional space or on a two-dimensional plane.
  • Examples of the position detection device 123 that detects an absolute position may include a GNSS (Global Navigation Satellite System), an acceleration sensor, an angular velocity sensor, or a measuring device including two or more of these.
  • GNSS Global Navigation Satellite System
  • position detection devices 123 that detect relative positions may include devices that use magnetism, light waves, ultrasound, lasers, camera images, or a combination of two or more of these. Such position detection devices 123 may detect the position of the mobile device 120 relative to the surrounding environment using magnetics, light waves, ultrasound, lasers, camera images, or a combination of two or more thereof.
  • the position detection device 123 is a device that uses magnetism, and can detect the position of a magnetic body placed on a support surface such as a floor surface. For example, the position detection device 123 detects the position of a line of magnetic material such as a magnetic tape attached on the support surface, and the robot controller 200 uses the detection result of the position detection device 123 to detect the line of magnetic material.
  • the moving device 120 is caused to travel along the .
  • Mobile device 120 may include one or more light sources 124 .
  • four light sources 124 are arranged at four corners of the rectangular parallelepiped exterior of mobile device 120 so as to be exposed from the exterior.
  • light source 124 may be positioned anywhere on robot 100 as long as it is visible from the outside of robot 100 .
  • the light source 124 emits light upon being supplied with power, and may include, for example, an LED (light emitting diode) or the like. Turning on and off the light source 124 may be controlled by the robot controller 200 .
  • the mobile device 120 may include a storage battery as a power source, or may have a structure that receives power supply from an external power supply source such as a commercial power supply.
  • the robot controller 200 controls the motion of the robot 100 according to commands received from the teaching device 300 and the operation terminal 400 .
  • the robot controller 200 controls the operation of the robot arm 111 of the robot body 110 and the servo motor 113 of the end effector 112 and the operation of the servo motor 122 of the moving device 120 .
  • the robot controller 200 generates and outputs commands for operating the servomotors 113 and 122 and controls currents supplied to the servomotors 113 and 122 .
  • the robot controller 200 includes a computer and drive circuitry. Although not limited, in this embodiment, the robot controller 200 can operate in two operation modes, a teaching mode and a playback mode, and selectively executes one of the two operation modes.
  • the teaching mode is an operation mode for teaching the robot controller 200 a program for causing the robot 100 to perform a predetermined operation.
  • the predetermined motion may be a motion related to the work to be executed by the robot 100 .
  • teaching data which is data used by the above program, may be taught to the robot controller 200 .
  • the teaching data is data including the position, orientation, and torque, which is the generated force, of the movable parts of the robot arm 111 and the end effector 112, the position and orientation of the moving device 120, and the like, during execution of a predetermined operation. good too.
  • Teaching in the teaching mode may be performed using the teaching device 300, the operation terminal 400, or both.
  • the operator operates the teaching device 300 or the operating terminal 400 to cause the robot controller 200 to operate the robot 100, and the robot controller 200 stores motion data in the process as teaching data.
  • the teaching method may be any existing method.
  • teaching device 300 is configured to be used for teaching robot arm 111 and end effector 112
  • operation terminal 400 is configured to be used for teaching moving device 120 .
  • teaching device 300 may be configured to be used for teaching the moving device 120
  • the operation terminal 400 may be configured for being used for teaching the robot arm 111 and the end effector 112 .
  • the teaching device 300 and the operation terminal 400 In the teaching mode, the teaching device 300 and the operation terminal 400 generate an operation command for causing the robot 100 to perform an operation according to the manual operation input to the teaching device 300 and the operation terminal 400, and output it to the robot controller 200. .
  • the robot controller 200 controls the motion of the robot 100 so that it operates according to the operation command.
  • the play mode is an operation mode for causing the robot 100 to perform a taught operation.
  • the robot controller 200 autonomously causes the robot 100 to perform a predetermined operation according to the taught program.
  • the robot controller 200 uses teaching data and controls the motion of the robot 100 to operate according to the teaching data.
  • the teaching device 300 receives input from the operator and outputs commands, information, data, etc. to the robot controller 200 according to the content of the input.
  • teaching device 300 is a teaching terminal that can be hand-held by an operator, such as a teaching pendant.
  • the teaching device 300 may be any device capable of teaching the robot 100, and may be another device including a computer such as a personal computer.
  • teaching device 300 is an existing general-purpose teaching pendant, but teaching device 300 may be a teaching pendant specially designed for robot system 1 .
  • Teaching device 300 includes display 310 and input device 320 .
  • the display 310 displays images for operating the teaching device 300 .
  • the display 310 may be a touch panel that receives input by touching the screen.
  • the input device 320 receives input from the operator and converts the input content into a signal.
  • Examples of input devices 320 are devices to which input is provided through operator manipulation, such as buttons, levers, dials, joysticks and keys.
  • the teaching device 300 outputs signals generated by the input device 320 or signals processed therefrom to the robot controller 200 .
  • teaching device 300 does not include a computer, but may include a computer.
  • the teaching device 300 when the teaching device 300 receives a command to perform teaching or reproduction via the input device 320, the teaching device 300 outputs a command to perform teaching or reproduction to the robot controller 200.
  • the teaching device 300 accepts a manual operation by the operator and outputs an operation command according to the manual operation to the robot controller 200 to cause the robot 100 to operate according to the manual operation.
  • the teaching device 300 accepts manual operations of the robot arm 111 and the end effector 112 in the present embodiment.
  • the teaching device 300 stores the motion data in the robot controller 200 as teaching data.
  • the teaching device 300 receives an input of a reproduction execution command from the operator and outputs to the robot controller 200 a command to execute a predetermined action that has been taught and specified by the operator, that is, to reproduce.
  • teaching device 300 accepts a reproduction execution command for entire robot 100 including robot main body 110 and moving device 120 .
  • the teaching device 300 causes the robot controller 200 to shift to a teaching mode when receiving a teaching execution command during reproduction of a predetermined motion.
  • the operation terminal 400 receives input from the operator and outputs commands, information, data, etc. to the robot controller 200 according to the content of the input.
  • Operation terminal 400 includes a computer.
  • Operation terminal 400 includes an input device 410 and a presentation device 420 .
  • the input device 410 receives an input by an operator, converts the input content into a signal, and outputs the signal to the computer of the operation terminal 400 .
  • Examples of the input device 410 are devices such as buttons, levers, dials, joysticks, mice, keys, touch panels, motion capture, and the like, to which input is provided through operator manipulation.
  • the input device 410 may include a camera that captures an image of the operator or the like, a microphone that accepts voice input from the operator or the like, or both.
  • the input device 410 may output captured image data and a signal indicating the input voice to the computer of the operation terminal 400 .
  • the presentation device 420 has a structure for presenting information and the like to the operator.
  • the presentation device 420 may have a structure that presents information and the like by outputting light, sound, images, tactile sensations such as vibration and load, temperature, or a combination of two or more of these.
  • presentation device 420 includes a display that outputs images and a speaker that outputs sounds.
  • the display is a touch panel.
  • the operation terminal 400 is a mobile terminal that can be carried by the operator, such as a smart device such as a smart phone, smart watch, and tablet.
  • the operation terminal 400 may be a smart device developed exclusively for the robot system 1, but in this embodiment, it is a general-purpose smart device distributed on the market.
  • a general-purpose smart device can function as the operation terminal 400 by incorporating a computer program that implements the functions of the operation terminal 400 disclosed in this specification and claims.
  • the computer program installed in the operation terminal 400 may be an application program.
  • This application program is hereinafter also referred to as a "robot operation application program".
  • the robot operation application program may be a native application that is installed in an OS (Operating System), which is system software of the operation terminal 400, and runs on the OS.
  • the robot operation application program may be a WEB application that runs on a WEB browser connected to the operation terminal 400, and operates on the operation terminal 400 using the WEB environment for some processes such as operations using data. It may be a hybrid application.
  • the operation terminal 400 can incorporate a computer program that realizes the functions of the operation terminal 400 disclosed in this specification and claims, and can accept input of operations required for the operation terminal 400. Just do it.
  • the operation terminal 400 may be a combination of a personal computer and a display, a notebook personal computer, a combination of a game machine and a display, or a PDA (Personal Digital Assistant).
  • the operation terminal 400 is communicably connected to the robot controller 200 .
  • operation terminal 400 is connected to robot controller 200 via a communication path different from that of teaching device 300, but is not limited to this.
  • the operation terminal 400 is communicably connected to the teaching device 300 and may be connected to the robot controller 200 via the teaching device 300 .
  • the operation terminal 400 is configured so that the robot 100 can be operated.
  • the operation terminal 400 may be configured to be capable of operating only the robot main body 110 , only the moving device 120 , or both the robot main body 110 and the moving device 120 .
  • the operation terminal 400 may be configured to allow operation of the robot 100 only in the teaching mode, only in the reproduction mode, or in both the teaching mode and the reproduction mode.
  • the operation terminal 400 can operate the mobile device 120 in the teaching mode, and can cause the robot 100 as a whole to reproduce a predetermined motion that has been taught in the playback mode.
  • the operation terminal 400 may be configured to be connected to the robot controller 200 in parallel with the teaching device 300 instead of the teaching device 300 or serially via the teaching device 300 .
  • the connection indicates a communicable state in which transmission of commands, information, data, etc. and reception of the commands, etc. are possible between them, and is not limited to a physical connection.
  • the operating terminal 400 and the teaching device 300 can be controlled at arbitrary timing without being affected by each other. It may be configured such that a command or the like can be transmitted to the robot controller 200, or it may be configured to be regulated by the robot controller 200 or the like so that both timings do not overlap.
  • the operation terminal 400 is configured to be able to perform some of the operations that the teaching device 300 can perform on the robot 100 .
  • the operation terminal 400 can accept a specific operation that is part of the operations that the teaching device 300 can accept to cause the robot 100 to move.
  • the operation terminal 400 outputs to the robot controller 200 an operation command for causing the robot 100 to perform an action according to the received specific operation.
  • the specific operation is an operation that is different from an operation for teaching the robot 100 by the teaching device 300, for example, an operation that is different from an operation for causing the robot 100 to move that can be used for teaching by the teaching device 300. It can be an operation.
  • the specific operation may include, as the operation described above, a move operation that is an operation for causing the mobile device 120 to operate, and in the present embodiment, includes a move operation for teaching the mobile device 120 .
  • the move operation may be a manual operation.
  • the specific operation may include a replay operation that causes the robot 100 to autonomously perform a taught motion. Including operations.
  • the specific operation may include an operation for commanding the robot 100 to autonomously return to the state of the origin position.
  • the specific operation may include an operation for commanding an emergency stop of the robot 100 .
  • the emergency stop of the robot 100 may be an emergency stop of the robot body 110 , an emergency stop of the moving device 120 , or an emergency stop of both the robot body 110 and the moving device 120 .
  • the origin position may include various states and positions of the robot 100.
  • the origin position is the initial position and state of the robot 100 in a predetermined work that has been taught, the position of the robot 100 that is set at the start point and intermediate point of the process of the work, and the state of the position.
  • the operation terminal 400 can receive robot information indicating the state of the robot 100 from the robot controller 200 and display the robot information on the touch panel of the presentation device 420 .
  • the robot information includes the operation mode of the robot 100, the work content of the robot 100, the progress of the work being executed, the process being executed by the robot 100 among the processes included in the work, and the servo motors 113 and 122 of the robot 100. It may also include various information such as the operating state such as the rotation amount and current value of the position detection device 123 and the detection result of the position detection device 123 .
  • the computers of the robot controller 200 and the operation terminal 400 include circuits or processing circuits.
  • the circuitry may include processing circuitry.
  • the processing circuitry or circuitry includes processors, memory devices, and the like.
  • the processing circuit or circuits send and receive commands, information, data, etc. to and from other devices.
  • the processing circuits or circuits input signals from various devices and output control signals to controlled objects.
  • a storage device may include memory, storage, or both memory and storage.
  • Examples of memory may include random access memory (RAM), which is a volatile semiconductor memory, and read-only memory (ROM), which is a non-volatile semiconductor memory.
  • Examples of storage may include semiconductor memory such as flash memory, hard disks and Solid State Drives (SSDs).
  • the storage device stores processing circuits or programs executed by the circuits, various data, and the like.
  • At least some of the multiple functions of the robot controller 200 and the operation terminal 400 may be realized through cooperation of processors, memories, storages, and the like.
  • the processor and memory including RAM and ROM, form a computer system.
  • the computer system may implement the functions described above by the processor executing a program recorded in the ROM using the RAM as a work area.
  • a part or all of the functions of the robot controller 200 and the operation terminal 400 may be realized by the computer system described above, or may be realized by a dedicated hardware circuit such as an electronic circuit or an integrated circuit. It may be realized by a combination of hardware circuits. Both the robot controller 200 and the operation terminal 400 may execute processing under centralized control by a single computer, or may execute processing under distributed control through the cooperation of a plurality of computers.
  • Processors include, but are not limited to, CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), microprocessor, processor core, multiprocessor, Hardware formed in integrated circuits such as ASIC (Application-Specific Integrated Circuit), FPGA (Field Programmable Gate Array), and reconfigurable processors, etc., IC (Integrated Circuit) chips and LSI (Large Scale Integration)
  • the processing may be realized by a logic circuit, which is a hardware circuit, or a dedicated circuit.
  • a plurality of functions of the robot controller 200 and the operation terminal 400 may be individually implemented by integrated circuits integrated into one chip, or may be implemented by integrated circuits integrated into one chip so as to include some or all of them. .
  • FIG. 2 is a block diagram showing an example of hardware configurations of the robot controller 200, the teaching device 300, and the operation terminal 400 according to the embodiment.
  • the hardware configuration described below is an example, and the hardware configurations of the robot controller 200, the teaching device 300, and the operation terminal 400 are not limited to the following configuration, and can be changed as appropriate.
  • the robot controller 200 includes a control unit 210, a drive circuit 220, and a communication device 230.
  • the control unit 210 includes a processor P, a memory M, a storage S, an input/output I/F (Interface) 211, a drive I/F 212, and a communication I/F 213 as components.
  • the components of the control unit 210 are interconnected by a bus B, but may also be interconnected by electrical wiring, cables, or the like.
  • the control unit 210 may be an electronic circuit board, an electronic control unit, a microcomputer, other electronic devices, and the like.
  • the input/output I/F 211 is connected to the teaching device 300 and controls transmission and reception of signals between the control unit 210 and the teaching device 300 .
  • the drive I/F 212 is connected to the drive circuit 220 and controls transmission and reception of signals and the like between the control unit 210 and the drive circuit 220 .
  • the drive circuit 220 is a circuit that controls current supplied to the robot 100 .
  • the communication I/F 213 is connected to the communication device 230 and controls transmission and reception of signals and the like between the control unit 210 and the communication device 230 .
  • the communication device 230 is a device that mediates communication between the operation terminal 400 and the control unit 210, and may include communication circuits and the like. In this embodiment, communication device 230 is a wireless communication device and may include, for example, communication devices such as modems, routers, and mobile data communication devices, for example.
  • the teaching device 300 includes a circuit C and input/output I/Fs 301 to 303.
  • the circuit C and the input/output I/Fs 301 to 303 are connected by electrical wiring, cables, or the like.
  • the input/output I/F 301 is connected to the input/output I/F 211 of the robot controller 200 and controls signal transmission/reception between the teaching device 300 and the robot controller 200 .
  • Input/output I/F 302 is connected to display 310 and controls transmission and reception of signals to and from display 310 .
  • the input/output I/F 303 is connected to the input device 320 and controls transmission and reception of signals to and from the input device 320 .
  • Circuit C processes signals sent and received between input/output I/Fs 301 to 303 .
  • Circuit C may be configured to control transmission, reception, conversion, etc. of signals.
  • the operation terminal 400 includes a processor P, a memory M, a storage S, input/output I/Fs 431 and 432, and a communication I/F 433.
  • the processor P, the memory M, the storage S, the input/output I/Fs 431 and 432, and the communication I/F 433 are interconnected by the bus B, but may be interconnected by electrical wiring or cables.
  • Operation terminal 400 further includes a communication device 440 .
  • the input/output I/F 431 is connected to the input device 410 and controls transmission and reception of signals to and from the input device 410 .
  • the input/output I/F 432 is connected to the presentation device 420 and controls transmission and reception of signals to and from the presentation device 420 .
  • Communication I/F 433 is connected to communication device 440 and controls transmission and reception of signals to and from communication device 440 .
  • Communication device 440 is a wireless communication device and may include an antenna, communication circuitry, and the like.
  • FIG. 3 is a block diagram showing an example of functional configurations of the robot controller 200, the teaching device 300, and the operation terminal 400 according to the embodiment.
  • the functional configuration described below is an example, and the functional configurations of the robot controller 200, the teaching device 300, and the operation terminal 400 are not limited to the following configuration, and can be changed as appropriate.
  • the robot controller 200 includes a communication control section 200a, an operation control section 200b, and a storage section 200c as functional components.
  • the teaching device 300 includes a processing section 300a as a functional component.
  • the operation terminal 400 includes a communication control unit 400a, a screen control unit 400b, an information processing unit 400c, and a storage unit 400d as functional components.
  • the functions of the communication control section 200a and the motion control section 200b may be implemented by the processor P and the memory M, etc.
  • the functions of the storage section 200c may be implemented by the memory M and the storage S.
  • the communication control unit 200a controls wireless communication between the operation terminal 400 and the communication device 230.
  • the communication control unit 200a processes commands, information, data, etc. received from the operation terminal 400 and converts them into a data format that can be used by the operation control unit 200b.
  • the communication control unit 200a processes commands, information, data, etc. to be transmitted to the operation terminal 400 and converts them into a transmittable data format.
  • the storage unit 200c stores teaching data, information indicating the state of the robot 100, and the like.
  • the motion control unit 200b controls the motion of the robot 100.
  • the motion control unit 200b manages input/output of commands, information, data, and the like between the robot controller 200, the teaching device 300, and the operation terminal 400.
  • FIG. For example, the operation control unit 200b controls the teaching data stored in the storage unit 200c, the operation command received from the teaching device 300, the operation command received from the operation terminal 400 via the communication control unit 200a, or two or more of these.
  • the operation of the robot 100 is controlled according to the combination.
  • the motion control unit 200b acquires information indicating the motion state of the robot 100, such as the amount of rotation and current value of the servo motors 113 and 122, and stores the information in the teaching device 300, the operation terminal 400, the storage unit 200c, or two or more of these. Output.
  • the motion control section 200b In the teaching mode, the motion control section 200b generates teaching data using information indicating the motion state of the robot 100, and stores the teaching data in the storage section 200c.
  • the function of the processing section 300a may be realized by the circuit C.
  • the processing unit 300 a processes commands, information, etc. input via the input device 320 and commands, information, data, etc. received from the robot controller 200 .
  • the processing unit 300 a generates a signal indicating an operation command from commands and information input via the input device 320 and transmits the signal to the robot controller 200 .
  • the processing unit 300 a Upon receiving a signal indicating robot information of the robot 100 from the robot controller 200 , the processing unit 300 a converts the signal into a signal that can be processed by the display 310 and outputs the signal to the display 310 . Thereby, the display 310 displays the robot information.
  • the functions of the communication control unit 400a, the screen control unit 400b, and the information processing unit 400c may be implemented by the processor P, the memory M, etc.
  • the functions of the storage unit 400d may be implemented by the memory M and the storage S. may be
  • the communication control unit 400a controls communication between the robot controller 200 and the communication device 440.
  • the communication control unit 400a processes commands, information, data, etc. received from the robot controller 200, and converts them into data formats that can be used by the information processing unit 400c.
  • the communication control unit 400a processes commands, information, data, etc. to be transmitted to the robot controller 200 and converts them into a transmittable data format.
  • the screen control unit 400b controls the screen displayed on the presentation device 420 in accordance with commands received from the program and the information processing unit 400c.
  • the information processing section 400c processes commands, information, etc., input via the input device 410, and commands, information, data, etc., received from the robot controller 200.
  • the information processing section 400c manages input/output of commands, information, data, etc. between the operation terminal 400 and the robot controller 200.
  • FIG. For example, the information processing section 400 c generates an operation command from commands and information input via the input device 410 and transmits the command to the robot controller 200 .
  • the information processing section 400c acquires the robot information of the robot 100 from the robot controller 200 and causes the screen control section 400b to display the robot information.
  • the storage unit 400d stores various data such as screen data and data received from the robot controller 200.
  • the operation terminal 400 displays a home screen ID0 as shown in FIG. 4 on the presentation device 420, for example.
  • FIG. 4 shows an example of the home screen displayed on the operation terminal 400 after the robot operation application is activated.
  • the operation terminal 400 has a connected robot column ID0a, an error reset button ID0b1, a motor power lamp ID0b2, an emergency stop lamp ID0b3, and a temporary stop button in the upper portion of the home screen ID0.
  • a button ID 0b4, a connection setting tab ID 0c1, a monitor screen tab ID 0c2, a teaching screen tab ID 0c3, and a setting tab ID 0c4 are displayed.
  • Any display may be included in the portion from the center to the bottom of the home screen ID0.
  • the operation terminal 400 always displays the connected robot field ID0a, the buttons ID0b1 and ID0b4, the lamps ID0b2 and ID0b3, and the tabs ID0c1 to ID0c4 regardless of the type of screen displayed. Buttons and tabs are input elements that receive operator input.
  • the connected robot column ID0a indicates the robot that is currently connected to the operation terminal 400.
  • the connection target of the operation terminal 400 includes the real robot 100 and the virtual robot.
  • robot may refer to the real robot 100, the virtual robot, or both.
  • the error reset button ID0b1 displays whether or not an error such as an abnormality has been detected in the robot 100, the virtual robot, the robot controller 200, the operation terminal 400, and the communication between the robot controller 200 and the operation terminal 400.
  • Operation terminal 400 does not accept input to error reset button ID0b1 when an error is not detected, but accepts input to error reset button ID0b1 when an error is detected.
  • the operation terminal 400 receives a predetermined input on the error reset button ID0b1, the operation terminal 400 transmits an error cancellation command to the robot controller 200.
  • FIG. Operation terminal 400 may shift the screen of presentation device 420 to a screen related to an error.
  • the above predetermined input may be input by pressing the error reset button ID0b1 with the operator's finger, touch pen, or the like, that is, tap input, but is not limited to this.
  • the operation terminal 400 may have a function of detecting whether there is an abnormality in the communication state between the robot controller 200 and the operation terminal 400.
  • the operation terminal 400 may disconnect the communication between the robot controller 200 and the operation terminal 400 and indicate the error detection on the error reset button ID0b1. As a result, malfunction of the robot 100 caused by an abnormality in the communication state is suppressed.
  • the motor power lamp ID0b2 indicates whether the power of the servo motors 113 and 122 of the robot 100 is ON or OFF. Operation terminal 400 does not accept input to motor power lamp ID0b2.
  • the emergency stop lamp ID0b3 indicates whether the emergency power supply of the robot 100 is ON or OFF. Operation terminal 400 does not accept input to emergency stop lamp ID0b3. For example, when the robot controller 200 receives an emergency stop command for the robot 100, the robot controller 200 shifts the power control from the normal power supply to the emergency power supply by shifting the emergency power supply from the OFF state to the ON state. Under normal power control, all functions of the robot 100 are operable. Some functions of the robot 100 are operable under power control with an emergency power supply. For example, the function of the robot 100 for executing work is inoperable, the function for communication between the operation terminal 400 and the teaching device 300, and the robot 100 for minor operations such as returning to the origin position. function, etc. may be operable. Therefore, the emergency stop lamp ID0b3 can also indicate whether the robot 100 is in an emergency stop state.
  • the operation terminal 400 may have a function of receiving input for the emergency stop lamp ID0b3.
  • the operation terminal 400 may transmit a command for emergency stop of the robot 100 to the robot controller 200 when a predetermined input such as a long press on the emergency stop lamp ID0b3 is received.
  • the pause button ID0b4 is a button for temporarily stopping the robot's motion.
  • Operation terminal 400 accepts an input to pause button ID0b4 at an arbitrary timing.
  • Operation terminal 400 selectively displays pause button ID0b4 in pause display and playback display. For example, when the operation terminal 400 receives a predetermined input such as a tap on the pause button ID0b4 of the pause display, the operation terminal 400 transmits to the robot controller 200 a command to temporarily stop the operation of the robot 100, and presses the pause button. Change the display of ID0b4 to playback display.
  • the operation terminal 400 When the operation terminal 400 receives a predetermined input such as a tap on the pause button ID0b4 of the reproduction display, it transmits a command to restart the operation of the robot to the robot controller 200, and pauses the display of the pause button ID0b4. change to
  • connection setting tab IDc1 is a tab that opens a screen for setting the connection between the operating terminal 400 and the robot.
  • Operation terminal 400 accepts an input to connection setting tab IDc1 at an arbitrary timing.
  • the operation terminal 400 shifts the screen of the presentation device 420 to the connection setting screen ID1.
  • the monitor screen tab ID0c2 is a tab that opens a screen for causing the robot to perform, that is, reproduce, a predetermined action that has already been taught.
  • Operation terminal 400 accepts an input to monitor screen tab ID0c2 at an arbitrary timing. When receiving a predetermined input such as a tap on the monitor screen tab ID0c2, the operation terminal 400 shifts the screen of the presentation device 420 to the reproduction operation screen ID2.
  • the teaching screen tab ID0c3 is a tab that opens a screen for executing robot teaching. Operation terminal 400 accepts an input to teaching screen tab ID0c3 at an arbitrary timing. When the operation terminal 400 receives a predetermined input such as a tap on the teaching screen tab ID0c3, the screen of the presentation device 420 shifts to the teaching operation screen ID3.
  • the setting tab ID0c4 is a tab that opens a screen for making various settings for the robot. Operation terminal 400 accepts an input to setting tab ID0c4 at an arbitrary timing. When the operation terminal 400 receives a predetermined input such as a tap on the setting tab ID0c4, the screen of the presentation device 420 shifts to the setting screen ID4.
  • connection setting screen ID1 As shown in FIGS. 5 and 6, for example. 5 and 6 show an example of a connection setting screen displayed on the operation terminal 400.
  • FIG. Although not limited, in the present embodiment, the operation terminal 400 displays a target robot column ID1a and a connection target column ID1b on the connection setting screen ID1.
  • the operation terminal 400 may shift the screen of the presentation device 420 to the home screen ID0 when a predetermined input such as a tap on the connection setting tab IDc1 is received while the connection setting screen ID1 is being displayed.
  • the target robot column ID1a includes a list of connectable robots registered in the operation terminal 400.
  • Connectable robots may include the real robot 100 and virtual robots.
  • a virtual robot is a simulation model of the real robot 100 .
  • the actual robot 100 can be represented by the name of the robot, such as "robot_1”.
  • a virtual robot can be represented by a name that partially includes the name of the real robot 100 corresponding to the virtual robot, such as "robot_1_debug".
  • robot model information representing a virtual robot may be stored in the operation terminal 400, may be stored in the robot controller 200, or may be stored in an external device such as a cloud server.
  • the operation terminal 400 may acquire robot model information from the robot controller 200 or an external device.
  • the operation terminal 400 accepts a predetermined input such as a tap on the name of the robot in order to select the robot in the target robot column ID1a.
  • the operation terminal 400 displays the information of the robot with the selected name in the connection target column ID1b.
  • the connection target column ID1b includes a name column ID1b1, a connection button ID1b2 and a disconnection button ID1b3 indicating the connection state, a communication mode column ID1b4, and a connection confirmation button ID1b5.
  • the name column ID1b1 contains the name and address of the selected robot.
  • the operation terminal 400 When receiving a predetermined input such as a tap on the connection button ID1b2, the operation terminal 400 connects to the robot in the name column ID1b1 and highlights the connection button ID1b2.
  • the operation terminal 400 When receiving a predetermined input such as a tap on the disconnection button ID1b3, the operation terminal 400 disconnects from the robot in the name column ID1b1 and highlights the disconnection button ID1b3.
  • the operation terminal 400 upon receiving a predetermined input on the connection button ID1b2, makes an operable connection to the robot controller 200 of the robot 100. send a directive requesting permission to Upon receiving a response indicating permission to the request from the robot controller 200, the operation terminal 400 becomes operably connected to the robot controller 200 and highlights the connection button ID1a.
  • the operation terminal 400 may transmit a command to the robot controller 200 requesting lighting of the light source 124 of the robot 100 .
  • Light source 124 may be illuminated.
  • the robot controller 200 may turn on the light source 124 temporarily or keep it on for the duration of the operable connection.
  • the operation terminal 400 may request the robot information of the robot 100 from the robot controller 200 at predetermined times such as predetermined time intervals, and acquire the information.
  • the communication mode column ID1b4 indicates the mode of communication with the robot.
  • the operation terminal 400 displays "real machine communication mode” in the communication mode column ID1b4, as shown in FIG.
  • the operating terminal 400 displays "simulation mode” in the communication mode field ID1b4, as shown in FIG.
  • the robot 100 can be operated using the operation terminal 400 .
  • the operation terminal 400 is connected to the virtual robot in the simulation mode, the virtual robot is used to simulate at least part of the functions of the operation terminal 400 and to check various screen contents of the operation terminal 400. be able to.
  • the operation terminal 400 When the operation terminal 400 receives a predetermined input such as a tap on the connection confirmation button ID1b5, it transmits a command requesting connection confirmation to the connected actual robot 100.
  • the robot controller 200 of the robot 100 Upon receiving the command, the robot controller 200 of the robot 100 causes the robot 100 to perform a predetermined action.
  • predetermined actions may include actions of the robot arm 111, actions of the mobile device 120, lighting of the light source 124 of the robot 100, a combination of two or more of these, or the like.
  • robot controller 200 temporarily turns on light source 124 .
  • Connecting the actual robot 100 and the operation terminal 400 means that the robot controller 200 that controls the robot 100 and the operation terminal 400 are connected.
  • the robot controller 200 and the operation terminal 400 are connected may be expressed as “the robot 100 and the operation terminal 400 that are controlled by the robot controller 200 are connected”.
  • the connection between the robot 100 or the robot controller 200 and the operation terminal 400 means a connection that allows the operation of the operation terminal 400 to be accepted by the robot controller 200 , that is, a connection that enables operation by the operation terminal 400 .
  • the operating terminal 400 displays connectable robots registered in the operating terminal 400 in the target robot field ID1a, but is not limited to this.
  • the operation terminal 400 may be configured to search for a connectable actual robot 100 .
  • the target robot column ID1a may include a search button ID1a1.
  • FIG. 7 shows a modification of the connection setting screen displayed on the operation terminal 400. As shown in FIG.
  • the operation terminal 400 When the operation terminal 400 receives a predetermined input such as a tap on the search button ID1a1, the operation terminal 400 instructs the robot controllers 200 of all the robots 100 within the transmittable area of the operation terminal 400 to establish an operable connection with the operation terminal 400. It may be configured to broadcast a pass/fail request. All robot controllers 200 always maintain a request waiting state in which they can receive a request from the operation terminal 400 .
  • the operation terminal 400 may indicate the name of the robot 100 of the robot controller 200 that has received the response indicating that the connection is possible, as a connectable actual robot, in the target robot field ID1a.
  • the target of the simultaneous transmission may be an actual robot registered in the operation terminal 400 among all the robots 100 within the transmittable area. In this case, the operating terminal 400 may display only the name of the robot 100 that has received a response indicating that the robot is operable and can be connected, among the registered actual robots.
  • the operation terminal 400 When receiving a predetermined input on the monitor screen tab ID0c2, the operation terminal 400 shifts the screen of the presentation device 420 to one of the playback operation screens ID2 as shown in FIG. 8, for example.
  • FIG. 8 shows an example of an operation selection screen of the reproduction operation screen ID2 displayed on the operation terminal 400.
  • the operation terminal 400 may be configured not to accept input to the monitor screen tab ID0c2, and display a message or the like indicating that the connection is not established. It may be configured as In this example, as shown in the connected robot column ID0a, the operating terminal 400 is connected to the actual robot 100 whose name is "robot_1".
  • the operation terminal 400 may shift the screen of the presentation device 420 to the home screen ID0 when a predetermined input such as a tap on the monitor screen tab ID0c2 is received while the playback operation screen ID2 is being displayed.
  • the operation terminal 400 displays, on the action selection screen ID21, an action selection button ID21a indicating a pre-taught predetermined action such as a pre-taught work.
  • the action selection screen ID 21 includes one or more action selection button IDs 21a corresponding to one or more predetermined actions.
  • the operation terminal 400 receives a predetermined input such as a tap on one of the action selection buttons ID21a, the screen of the presentation device 420 shifts to the robot operation screen ID22 as shown in FIG. 9, for example.
  • FIG. 9 shows an example of a robot operation screen among reproduction operation screens displayed on the operation terminal 400, and specifically shows an example of a robot operation screen for air conditioner assembly work.
  • the operation terminal 400 shifts to the playback mode when it shifts to the robot operation screen ID22, but the timing of shifting to the playback mode may be any timing after shifting to the playback operation screen ID2.
  • the operation terminal 400 may transmit a command to the robot controller 200 to control the air conditioner assembly work in the regeneration mode when or after the transition to the regeneration mode.
  • the operation terminal 400 displays an execution work column ID 22a, an operation key ID 22b, a lock button ID 22c, a monitor button ID 22d, a switch button ID 22e, and an origin position on the robot operation screen ID 22.
  • Button ID 22f and caller button ID 22g are displayed.
  • the above elements except for the execution work column ID 22a are input elements.
  • the work being performed column ID 22a indicates the work being performed, which is a predetermined action being performed.
  • the operation key ID 22b is a key for inputting a command or the like for instructing the robot 100 to perform a task that has already been taught.
  • the operation terminal 400 transmits an operation command to the robot controller 200 according to the received input.
  • the above inputs may include long press inputs, tap inputs, etc., and may include other inputs.
  • the operation key ID 22b includes a regeneration stop button ID 22ba for instructing execution and stop of the work, and an annular bar indicating the load of the robot 100 around the regeneration stop button ID 22ba.
  • ID 22bb and a scroll bar ID 22bc for commanding the work speed or motion speed of the robot 100 may be included.
  • the play/stop button ID22ba is a button for commanding autonomous execution and stop of the taught work.
  • the operation terminal 400 may accept execution and stop of work using one play stop button ID22ba.
  • the operation terminal 400 functions and displays the play stop button ID 22ba as a stop button during execution of the work, processes the received input as a stop command, and uses the play stop button ID 22ba as the play button while the work is stopped. may be activated and displayed, and the received input may be processed as an execution command.
  • the operation key ID 22b is not limited to the above, and includes, for example, various keys such as a key for commanding execution and stop of one or more steps included in a work, and a key for commanding execution and stop of a single work. It's okay.
  • the lock button ID22c is a button that switches between a locked state in which input to the robot operation screen ID22 is not accepted and an unlocked state in which input to the robot operation screen ID22 is accepted.
  • the operation terminal 400 In the locked state, the operation terminal 400 does not have to accept input to all input elements of the robot operation screen ID22 except the lock button ID22c, or may not accept input to some input elements.
  • some of the input elements may be input elements related to execution of actions of the robot 100, such as the operation key ID 22b.
  • the operating terminal 400 displays the lock button ID 22c in a form indicating the unlocked state when in the unlocked state, and displays the lock button ID 22c in a form indicating the locked state when in the locked state.
  • the operation terminal 400 When the operation terminal 400 receives a predetermined input such as a long press on the lock button ID 22c in the locked state, it shifts to the unlocked state and switches the mode of the lock button ID 22c from the locked state to the unlocked state. When the operation terminal 400 is in the unlocked state and has not received an input to the input element for a predetermined time, the operation terminal 400 shifts to the locked state, and switches the form of the lock button ID 22c from the unlocked state to the locked state. good too.
  • the input element may be an unlocked input element.
  • the operation terminal 400 may shift to the locked state upon receiving a predetermined input such as a long press on the lock button ID 22c.
  • Inputs for transitioning to the unlocked state and locked state are not limited to the above, and may be other inputs to the robot operation screen ID 22, for example.
  • Examples of such inputs include trajectories of actions such as swiping with the operator's finger and touch pen on the robot operation screen ID 22, input of characters, numbers, and passwords, and operator's fingerprint on the sensor provided in the operation terminal 400. and input of biometric information such as voice, input of an image of the operator's face or the like to the camera provided in the operation terminal 400, or a combination of two or more of these.
  • the origin position button ID22f is a button for commanding the robot 100 to return to the origin position.
  • the operation terminal 400 transmits to the robot controller 200 a command to return the robot 100 to the origin position.
  • the predetermined input may be a tap or a long press. Examples of origin positions are described above.
  • the caller button ID22g is a button for returning the screen of the presentation device 420 to the action selection screen ID21.
  • the operation terminal 400 shifts the screen of the presentation device 420 to the action selection screen ID21.
  • the monitor button ID 22d is a button for calling the state of the robot 100.
  • the operation terminal 400 receives a predetermined input such as a tap on the monitor button ID22d, the screen of the presentation device 420 shifts to the monitor function screen ID23 as shown in FIG. 10, for example.
  • FIG. 10 shows an example of a monitor function screen displayed on the operation terminal 400.
  • the monitor function screen ID 23 indicates the operating state of the robot 100, work progress, and the like.
  • the operation terminal 400 displays an execution work column ID 22a, a caller button ID 23a, a work progress column ID 23b, a time column ID 23c, and an error code column ID 23d on the monitor function screen ID 23. display.
  • the caller button ID 23a and the error code column ID 23d are input elements.
  • the operation terminal 400 may request robot information indicating the state of the robot 100 from the robot controller 200 when receiving the predetermined input on the monitor button ID 22d. Additionally or alternatively, the operating terminal 400 may request robot information from the robot controller 200 at predetermined times, such as predetermined time intervals. The operation terminal 400 may store and accumulate robot information received from the robot controller 200 . The operation terminal 400 may generate and display the monitor function screen ID 23 using robot information received from the robot controller 200, robot information stored in the operation terminal 400, or both.
  • the caller button ID23a is a button for returning the screen of the presentation device 420 to the robot operation screen ID22, and has the same function as the caller button described above.
  • the work progress column ID 23b indicates the progress of the work being executed.
  • the operation terminal 400 indicates all processes included in the work being executed and the process being executed in the work progress column ID 23b. In FIG. 10, the process being executed is highlighted.
  • the time column ID 23c indicates elapsed time.
  • the operation terminal 400 stores the operating time, which is the elapsed time from the start of the work being executed, and the elapsed time from the start of the process being executed, in the time column ID 23c. Shows working hours, which are hours.
  • the error code column ID 23d includes a display column ID 23d1 and a link button ID 23d2.
  • a display column ID 23d1 indicates the details of the error that has occurred.
  • the link button ID23d2 is a button for transitioning to a screen related to the error shown in the display column ID23d1.
  • the operation terminal 400 When the operation terminal 400 acquires the information of an error that has occurred in the communication between the robot 100, the virtual robot, the robot controller 200, the operation terminal 400, or the communication between the robot controller 200 and the operation terminal 400, the operation terminal 400 displays the details of the error content. It is shown in ID23d1.
  • the display field ID 23d1 may indicate an identification number such as an error code, an error name, and the like.
  • the display field ID 23d1 may show the details of the most recent error, or may show the history of the error. Errors include errors in simulations using virtual robots.
  • the screen of the presentation device 420 shifts to the screen related to the error shown in the display field ID23d1.
  • the screen may be an error management screen, a troubleshooting screen, an error history screen, or the like.
  • the switching button ID22e is a button for calling the state of the mobile device 120.
  • the operation terminal 400 receives a predetermined input such as a tap on the switching button ID22e, the screen of the presentation device 420 shifts to a mobile device operation screen ID24 as shown in FIG. 11, for example.
  • FIG. 11 shows an example of a mobile device operation screen displayed on the operation terminal 400.
  • the mobile device operation screen ID 24 indicates the operating state and various settings of the mobile device 120 .
  • the operation terminal 400 displays a caller button ID 24a, a start button ID 24b, a stop button ID 24c, a pause button ID 24d, and a motor power button ID 24e on the mobile device operation screen ID 24. , a running parameter setting button ID 24f, an activation condition switch ID 24g, an error code column ID 24h, a monitor speed change bar ID 24i, a route column ID 24j, a current parameter column ID 24k, a lock button ID 24l, and an origin position button ID 24m. do. All of the above elements are input elements.
  • the operation terminal 400 may request information on the mobile device 120 from the robot controller 200 when a predetermined input on the switching button ID 22e is received. Additionally or alternatively, the operating terminal 400 may request mobile device 120 information from the robot controller 200 at predetermined times, such as predetermined time intervals. The operation terminal 400 may store and accumulate information about the mobile device 120 received from the robot controller 200 . The operation terminal 400 may generate and display the mobile device operation screen ID 24 using information on the mobile device 120 received from the robot controller 200, information on the mobile device 120 stored in the operation terminal 400, or both. .
  • the caller button ID24a is a button for returning the screen of the presentation device 420 to the robot operation screen ID22, and has the same function as the caller button described above.
  • the activation button ID 24b is a button for activating the mobile device 120, but may be configured to activate the robot 100 as a whole.
  • the operation terminal 400 Upon receiving a predetermined input such as a tap on the activation button ID 24b, the operation terminal 400 transmits a command to activate the mobile device 120 to the robot controller 200 and highlights the activation button ID 24b.
  • the stop button ID 24c is a button for stopping the mobile device 120, but may be configured to stop the robot 100 as a whole.
  • the operation terminal 400 transmits a command to stop the moving device 120 to the robot controller 200 and highlights the stop button ID 24c. Examples of stopping include powering off the robot 100 , powering off the mobile device 120 , removing power to components associated with the mobile device 120 , and moving by the robot controller 200 . It may include interrupting control of the device 120, and the like.
  • the pause button ID 24d is a button for temporarily stopping the movement of the mobile device 120, but may be configured to temporarily stop the movement of the entire robot 100. In a temporary outage, power may be supplied to mobile device 120 .
  • the pause button ID24d has the same function as the function exemplified for the pause button ID0b4.
  • the operation terminal 400 receives a predetermined input such as a tap on the pause button ID 24d of the pause display, the operation terminal 400 transmits a command to temporarily stop the operation of the mobile device 120 to the robot controller 200 and presses the pause button ID 24d. display to playback display.
  • the operation terminal 400 When receiving a predetermined input such as a tap on the pause button ID 24d of the playback display, the operation terminal 400 transmits to the robot controller 200 a command to resume the operation of the mobile device 120, and temporarily pauses the display of the pause button ID 24d. Change to stop display.
  • the motor power button ID 24e indicates whether the servomotor 122 of the moving device 120 is powered on or off.
  • the operation terminal 400 may accept an input to the motor power button ID 24e. For example, when receiving a predetermined input such as a tap on the motor power button ID 24e indicating the ON state, the operation terminal 400 transmits to the robot controller 200 a command to turn off the power of the servo motor 122, and presses the motor power button.
  • the display of the ID 24e may be turned off.
  • the operation terminal 400 transmits a command to turn on the servo motor 122 to the robot controller 200, and turns on the motor power button ID 24e.
  • the display may be turned on.
  • the travel parameter setting button ID24f is a button for setting parameters related to travel of the mobile device 120.
  • the parameters may include parameters indicating information such as speed, type of motion, motion program, radius of curvature of travel route, next target point, line of magnetic material to be followed, and the like.
  • the operation terminal 400 may open a screen for setting running parameters and accept changes in the running parameters.
  • the activation condition switch ID 24g is a switch for switching the activation conditions.
  • the startup conditions may include the initial state of the mobile device 120 at the time of startup, and may further include the initial state of the robot body 110 .
  • the operation terminal 400 receives an input to rotate the activation condition switch ID 24g, the operation terminal 400 switches the activation condition to be adopted.
  • the error code column ID 24h like the error code column ID 23d of the monitor function screen ID 23, includes a display column ID 24h1 and a link button ID 24h2.
  • the operation terminal 400 also provides the error code column ID24h with functions similar to the functions illustrated for the error code column ID23d.
  • the operation terminal 400 displays the details of the error related to the mobile device 120 in the display field ID 24h1, and links to the screen related to the error via the link button ID 24h2.
  • the monitor speed change bar ID24i is a bar for setting and displaying the operating speed of the mobile device 120.
  • the monitor speed change bar ID24i includes points that are slidable along a linear bar.
  • the operation terminal 400 accepts an input on a point of the monitor speed change bar ID24i, and changes the operation speed by sliding the point along the bar.
  • the input and slide may be a slide while tapping.
  • the operating terminal 400 determines the motion speed based on the position of the point on the bar, and digitizes and displays the determined motion speed.
  • a route column ID 24 j indicates information on the route of the mobile device 120 .
  • the route column ID 24j includes a route group column ID 24j1, an address column ID 24j2, and a change button ID 24j3.
  • the operation terminal 400 indicates the numbers and symbols representing the route groups set in the mobile device 120 in the route group column ID24j1, and the numbers indicating the target points set in the mobile device 120 in the address column ID24j2. and symbols such as symbols.
  • a destination point may include a starting point, one or more waypoints, a destination point, or a combination of two or more thereof.
  • a route group may include a combination of one or more routes.
  • a route group may include a combination of one or more routes that in turn connect a starting point, one or more waypoints, and a destination point together.
  • a route group may be a program that defines routes and the order in which the routes are to be followed.
  • the change button ID 24j3 is a button for changing the route group and target points shown in the route group column ID 24j1 and address column ID 24j2.
  • the operating terminal 400 may open a screen for setting the route group and the target point and accept the change of the route group and the target point.
  • the current parameter column ID 24 k indicates the current status of parameters set in the mobile device 120 and parameters related to the mobile device 120 .
  • the parameters may also include driving parameters set on the mobile device 120 .
  • the parameters may be running parameters. When the operation terminal 400 receives a predetermined input such as a tap on the current parameter field ID 24k, the field showing the details of the parameters is opened and displayed.
  • the lock button ID24l is a button that indicates a locked state in which input to the input element of the mobile device operation screen ID24 is not accepted and an unlocked state in which input to the input element is accepted.
  • the operation terminal 400 has a lock button ID 24l with a function similar to the function exemplified for the lock button ID 22c of the robot operation screen ID 22 .
  • the origin position button ID24m is a button for commanding the robot 100 to return to the origin position.
  • the operation terminal 400 provides the origin position button ID24m with the same function as the function exemplified for the origin position button ID22f of the robot operation screen ID22.
  • FIG. 12 shows an example of a teaching target selection screen in the teaching operation screen ID3 displayed on the operation terminal 400.
  • the operation terminal 400 may be configured not to accept input to the teaching screen tab ID0c3, and display a message or the like indicating that the connection is not established.
  • the operating terminal 400 may be configured as In this example, as shown in the connected robot column ID0a, the operating terminal 400 is connected to the actual robot 100 whose name is "robot_1". The operating terminal 400 may shift the screen of the presentation device 420 to the home screen ID0 when a predetermined input such as a tap on the teaching screen tab ID0c3 is received while the teaching operation screen ID3 is being displayed.
  • the operation terminal 400 displays selection buttons ID31a1 and ID31a2 indicating teaching targets on the teaching target selection screen ID31.
  • the selection button ID 31 a 1 is a button for selecting teaching of the robot body 110
  • the selection button ID 31 a 2 is a button for selecting teaching of the moving device 120 .
  • the teaching target may be the robot main body 110 and the moving device 120 of the real robot 100, or may be the robot main body and the moving device of the virtual robot.
  • the operation terminal 400 When the operation terminal 400 receives a predetermined input such as a tap on the selection button ID 31 a 1 or ID 31 a 2 , the operation terminal 400 transmits to the robot controller 200 a command requesting execution of teaching of the robot main body 110 or the moving device 120 .
  • the screen of the presentation device 420 shifts to the robot teaching screen ID32 as shown in FIG. 13, for example.
  • the screen of the presentation device 420 shifts to a mobile device teaching screen ID33 as shown in FIG. 14, for example.
  • 13 shows an example of a robot teaching screen displayed on the operating terminal 400
  • FIG. 14 shows an example of a mobile device teaching screen displayed on the operating terminal 400. As shown in FIG.
  • the operation terminal 400 may be configured to accept and execute the transition to the teaching target selection screen ID31 at any timing. For example, while the robot 100 is reproducing the motion that has been taught, the operation terminal 400 may transition to the teaching target selection screen ID31. For example, the operation terminal 400 may be configured to transition to the teaching target selection screen ID31 while the robot 100 is paused or stopped. Alternatively, the operation terminal 400 may be configured to shift to the teaching target selection screen ID31 regardless of the state of the robot 100, and after the shift, the robot teaching screen ID32 and It may be configured to shift to the mobile device teaching screen ID33.
  • the operation terminal 400 shifts to the teaching mode when shifting to the robot teaching screen ID32, but the timing of shifting to the teaching mode may be any timing after shifting to the teaching operation screen ID3.
  • the operation terminal 400 may transmit a command to the robot controller 200 to control the robot main body 110 in the teaching mode during or after the transition to the teaching mode.
  • the operation terminal 400 displays a caller button ID 32a, a motor power button ID 32b, a pause button ID 32c, and an arm speed change button ID 32a on the robot teaching screen ID 32.
  • a bar ID 32d, an arm direction change bar ID 32e, an end effector speed change bar ID 32f, a setting button ID 32g, an origin position setting button ID 32h, and a lock button ID 32i are displayed. All of the above elements are input elements.
  • the operation terminal 400 receives operations and settings for teaching other than manual operations of the robot arm 111 and the end effector 112 of the robot body 110, and issues commands according to the operations and settings. Send to the robot controller 200 .
  • the operation terminal 400 may be capable of teaching relatively simple motions to the robot body 110 and the robot controller 200, and may not be capable of teaching complex motions such as teaching using the teaching device 300.
  • An example of teaching a relatively simple action may include teaching a simple action of the robot body 110, or the like.
  • the caller button ID32a is a button for returning the screen of the presentation device 420 to the teaching target selection screen ID31, and has the same function as the caller button described above.
  • the motor power button ID 32b indicates whether the servomotor 113 of the robot body 110 is powered on or off.
  • the operation terminal 400 may accept an input to the motor power button ID 32b.
  • the operation terminal 400 has the motor power button ID 32b with the same function as the motor power button ID 24e of the mobile device operation screen ID 24, and turns the power of the servo motor 113 on or off according to the input to the motor power button ID 32b. It may be turned off.
  • the pause button ID 32c is a button for temporarily stopping the operation of the robot body 110.
  • the operation terminal 400 has the same function as the function exemplified for the pause button ID 24d of the mobile device operation screen ID 24 in the pause button ID 32c.
  • the arm speed change bar ID 32d is a bar for setting and displaying the operating speed of the robot arm 111.
  • the operation terminal 400 has the arm speed change bar ID 32d with the same function as the monitor speed change bar ID 24i of the mobile device operation screen ID 24 as an example.
  • the arm direction change bar ID32e is a bar for setting and displaying the direction of the robot arm 111.
  • the arm direction change bar ID32e may be a bar for setting and displaying the orientation, which is the horizontal orientation of the robot arm 111 .
  • Arm direction change bar ID32e includes points that are slidable along an annular bar.
  • the operation terminal 400 accepts an input on the point of the arm direction change bar ID32e, and changes the direction by sliding the point along the bar.
  • the input and slide may be a slide while tapping.
  • the operating terminal 400 determines the bearing based on the position of the point on the bar, and displays the determined bearing.
  • the end effector speed change bar ID 32f is a bar for setting and displaying the operating speed of the end effector 112.
  • the operation terminal 400 has the end effector speed change bar ID 32f with the same function as the monitor speed change bar ID 24i of the mobile device operation screen ID 24 as an example.
  • the setting button ID32g is a button for opening a manual operation setting screen ID321 for setting manual operation of the robot body 110.
  • the operation terminal 400 shifts the screen of the presentation device 420 to the manual operation setting screen ID321.
  • the origin position setting button ID32h is a button for setting the origin position of the robot body 110.
  • the operation terminal 400 determines the origin position including the position and orientation of the robot body 110 at the timing of receiving the input, and stores it as teaching data. do.
  • the position and orientation of the robot body 110 may be the position and orientation of the end effector 112 .
  • the timing may be the timing during operation of the robot body 110 or the timing during temporary stop.
  • the lock button ID32i is a button that indicates a locked state in which input to the input element of the robot teaching screen ID32 is not accepted and an unlocked state in which input to the input element is accepted.
  • the operation terminal 400 has the lock button ID 32i with the same function as the lock button ID 22c of the robot operation screen ID 22 as an example.
  • the operation terminal 400 in the locked state may not accept input to all input elements except the lock button ID32i, or may not accept input to some input elements.
  • some of the input elements are inputs related to execution of actions of the robot body 110, such as a motor power button ID 32b, a pause button ID 32c, an arm speed change bar ID 32d, an arm direction change bar ID 32e, and an end effector speed change bar ID 32f. can be an element.
  • the operation terminal 400 shifts to the teaching mode as it shifts to the mobile device teaching screen ID33, but the timing of shifting to the teaching mode may be any timing after shifting to the teaching operation screen ID3.
  • the operating terminal 400 may transmit a command to the robot controller 200 to control the mobile device 120 in the teaching mode when or after the transition to the teaching mode.
  • the operation terminal 400 displays a caller button ID 33a, a motor power button ID 33b, a running speed change bar ID 33c, a manual An operation key ID 33d, a monitor button ID 33e, a movement width button ID 33f, a setting button ID 33g, an origin position setting button ID 33h, and a lock button ID 33i are displayed. All of the above elements are input elements.
  • the operation terminal 400 accepts operations and settings for teaching, including manual operations of the mobile device 120, and transmits commands to the robot controller 200 according to the operations and settings.
  • the caller button ID33a is a button for returning the screen of the presentation device 420 to the teaching target selection screen ID31, and has the same function as the caller button described above.
  • the motor power button ID 33b indicates whether the servomotor 122 of the moving device 120 is powered on or off.
  • the operation terminal 400 may accept an input to the motor power button ID 33b.
  • the operation terminal 400 has the motor power button ID 33b with the same function as the motor power button ID 24e of the mobile device operation screen ID 24, and turns the power of the servo motor 122 on or off according to the input to the motor power button ID 33b. It may be turned off.
  • the running speed change bar ID 33c is a bar for setting and displaying the operating speed of the mobile device 120.
  • the operation terminal 400 has the running speed change bar ID 33c with the same function as the function exemplified for the monitor speed change bar ID 24i of the mobile device operation screen ID 24 .
  • the manual operation key ID 33d is a key for inputting a command or the like for causing the moving device 120 to perform a manual operation according to manual operation.
  • the manual operation key ID 33d includes four keys for commanding "forward", “backward”, “left turn” and "right turn”. These keys are arranged around the model of the mobile device 120 in the mobile device teach screen ID 33 .
  • operation terminal 400 may be capable of simultaneously accepting input to one or more of the four keys. While accepting input to one or more keys, the operation terminal 400 continues to send to the robot controller 200 an operation command for executing an action corresponding to the one or more keys. Accordingly, the mobile device 120 continues the operation.
  • the operation terminal 400 performs an operation to change the speed of an action corresponding to a key according to a specific input to a key such as the number of taps per predetermined time, the number of swipes per predetermined time, the swipe direction, and the swipe distance. Commands may be sent to robot controller 200 .
  • the monitor button ID 33 e is a button that opens a mobile device monitor screen ID 331 indicating the state of the mobile device 120 .
  • the operation terminal 400 shifts the screen of the presentation device 420 to the mobile device monitor screen ID 331 .
  • the movement width button ID33f is a button that opens a movement width setting screen ID332 for setting the movement amount of the moving device 120 with respect to the input amount to the manual operation key ID33d.
  • the operation terminal 400 shifts the screen of the presentation device 420 to the movement width setting screen ID332.
  • the setting button ID 33g is a button that opens a manual operation setting screen ID 333 for setting manual operation of the mobile device 120 .
  • the operation terminal 400 shifts the screen of the presentation device 420 to the manual operation setting screen ID333.
  • the origin position setting button ID 33h is a button for setting the origin position of the moving device 120 .
  • the operation terminal 400 determines the origin position including the position and orientation of the mobile device 120 at the timing of receiving the input, and stores it as teaching data. do.
  • the timing may be the timing during operation of the mobile device 120 or the timing during a temporary stop.
  • the lock button ID33i is a button that indicates a locked state in which input to the input element of the mobile device teaching screen ID33 is not accepted and an unlocked state in which input to the input element is accepted.
  • the operation terminal 400 provides the lock button ID 33i with the same function as the function exemplified for the lock button ID 22c of the robot operation screen ID 22.
  • the operation terminal 400 in the locked state may not accept inputs to all input elements except the lock button ID 33i, or may not accept inputs to some input elements. Examples of some input elements may include input elements related to performing actions of mobile device 120, such as motor power button ID 33b, running speed change bar ID 33c, and manual operation key ID 33d.
  • operation terminal 400 displays caller button ID 321a, setting item field ID 321b, and apply button ID 321c on manual operation setting screen ID 321.
  • caller button ID 321a the number of buttons displayed on the robot body 110 displayed on the operation terminal 400.
  • setting item field ID 321b the number of buttons displayed on the operation terminal 400.
  • apply button ID 321c the number of buttons displayed on the operation terminal 400.
  • the caller button ID 321a is a button for returning the screen of the presentation device 420 to the robot teaching screen ID 32, and has the same function as the caller button described above.
  • the setting item column ID 321b displays setting items related to manual operation of the robot main body 110 .
  • the operation terminal 400 accepts addition, deletion, change, etc. of setting items on the setting item column ID 321b by input to the manual operation setting screen ID 321 .
  • the apply button ID 321c is a button for applying the settings displayed in the setting item field ID 321b to the manual operation of the robot body 110.
  • the operation terminal 400 determines the setting displayed in the setting item field ID 321b as the setting for manual operation of the robot main body 110, and performs the setting after the determination. It may be stored or transmitted to the robot controller 200 .
  • FIG. 16 shows an example of a mobile device monitor screen of the mobile device 120 displayed on the operation terminal 400.
  • operation terminal 400 displays caller button ID 331a and status column 331b on mobile device monitor screen ID 331.
  • FIG. Caller button ID 331a is an input element.
  • the caller button ID 331a is a button for returning the screen of the presentation device 420 to the mobile device teaching screen ID 33, and has the same function as the caller button described above.
  • the status column 331b displays items related to the status of the mobile device 120.
  • the status column 331b displays items related to the operating status of the mobile device 120 and items set for manual operation.
  • the state column 331b includes the speed in the operation direction corresponding to the manual operation key ID 33d of the moving device 120, the amount of positional deviation of the moving device 120 from the magnetic material line that is the route, and the movement set for the moving device 120. Width, etc. may be included.
  • the operation terminal 400 may indicate the command value or target value of the speed of the mobile device 120 and the current value of the speed in the status column 331b.
  • the operation terminal 400 may determine the speed command value based on the input received via the manual operation key ID 33d, and may calculate the current speed value based on the amount of rotation of the servo motor 122 received from the robot controller 200.
  • FIG. The operation terminal 400 may acquire the target speed value from the teaching data.
  • the operation terminal 400 may be configured to display the detection result of the position detection device 123 in the status column 331b.
  • the operation terminal 400 may detect the difference between the moving device 120 and the predetermined trajectory based on the robot information of the robot 100 received from the robot controller 200 .
  • Examples of the predetermined trajectory may include a target trajectory included in teaching data, a line of magnetic material, and the like.
  • FIG. 17 shows an example of a movement width setting screen for the mobile device 120 displayed on the operation terminal 400.
  • operation terminal 400 displays caller button ID 332a, setting item column ID 332b, and apply button ID 332c on movement width setting screen ID 332.
  • caller button ID 332a As shown in FIG. 17, operation terminal 400 displays caller button ID 332a, setting item column ID 332b, and apply button ID 332c on movement width setting screen ID 332.
  • FIG. All of the above elements are input elements.
  • the caller button ID 332a is a button for returning the screen of the presentation device 420 to the mobile device teaching screen ID 33, and has the same function as the caller button described above.
  • the setting item column ID 332b displays the setting items of the movement width related to manual operation of the mobile device 120 .
  • the moving width is also called an inching width.
  • the movement width is the amount of movement of the mobile device 120 per one input such as one tap on the manual operation key ID 33d, the amount of movement of the mobile device 120 per predetermined time of continuous input to the manual operation key ID 33d, or , may indicate both.
  • the movement width of the setting item column ID 332b includes forward and backward movement distances and left-turn and right-turn movement angles.
  • the operation terminal 400 accepts a change to the numerical value of the movement width in the setting item column ID 332b by inputting to the movement width setting screen ID 332 .
  • the apply button ID 332c is a button for applying the movement width displayed in the setting item column ID 332b to the manual operation of the mobile device 120.
  • the operation terminal 400 determines the movement width displayed in the setting item column ID 332b as the movement width for manual operation of the mobile device 120, and after the determination The movement width may be stored or transmitted to the robot controller 200 .
  • the operation terminal 400 may generate an operation command using the content of the input to the manual operation key ID 33d and the movement width, and transmit it to the robot controller 200.
  • FIG. 18 shows an example of a manual operation setting screen for the mobile device 120 displayed on the operation terminal 400.
  • the operation terminal 400 displays a caller button ID 333a, a setting item column ID 333b, and an apply button ID 333c on the manual operation setting screen ID 333. All of the above elements are input elements.
  • the caller button ID 333a is a button for returning the screen of the presentation device 420 to the mobile device teaching screen ID 33, and has the same function as the caller button described above.
  • the setting item column ID 333 b displays setting items related to manual operation of the mobile device 120 .
  • the operation terminal 400 accepts additions, deletions, changes, etc. of setting items on the setting item column ID 333b by input to the manual operation setting screen ID 333 .
  • the setting item column ID 333b includes the number of the magnetic material line followed by the moving apparatus 120, the sound effects such as the melody when the moving apparatus 120 operates, and the lines other than the magnetic material line.
  • the presence or absence of position monitoring of the mobile device 120 to be used and the operating speed of the mobile device 120 are displayed.
  • the position monitoring may be position monitoring using a function of the position detection device 123 other than the detection of the magnetic material line, or may be position monitoring using an external device.
  • the apply button ID 333c is a button for applying the settings displayed in the setting item column ID 333b to the manual operation of the mobile device 120.
  • the operation terminal 400 determines the setting displayed in the setting item column ID 333b as the setting for manual operation of the mobile device 120, and applies the determined setting. It may be stored or transmitted to the robot controller 200 .
  • FIG. 19 shows an example of a setting selection screen of the setting screen ID4 displayed on the operation terminal 400.
  • the operating terminal 400 may shift the screen of the presentation device 420 to the home screen ID0 when a predetermined input such as a tap on the setting tab ID0c4 is received while the setting screen ID4 is being displayed.
  • the operation terminal 400 displays selection buttons ID41a1 to ID41a3 indicating setting targets on the setting selection screen ID41.
  • the selection button ID 41 a 1 is a button for selecting settings of the robot operation application of the operation terminal 400 .
  • the selection button ID 41a2 is a button for selecting robot settings.
  • the robot may be a robot registered in the operation terminal 400 or a robot connected to the operation terminal 400 .
  • the robot may be a real robot 100 or a virtual robot.
  • the selection button ID 41 a 3 is a button for selecting management of the operation terminal 400 .
  • the operation terminal 400 When receiving a predetermined input such as a tap on the selection button ID 41a1, the operation terminal 400 shifts the screen of the presentation device 420 to the application setting screen ID 42, and receives a predetermined input on the selection button ID 41a2.
  • the screen of 420 shifts to the robot selection screen ID43 and receives a predetermined input on the selection button ID41a3
  • the screen of the presentation device 420 shifts to the management screen ID44.
  • the operation terminal 400 when receiving a predetermined input on the selection button ID 41a1, the operation terminal 400 displays an application setting screen ID 42 as shown in FIG. 20, for example.
  • FIG. 20 shows an example of an application setting screen of the setting screen ID4 displayed on the operation terminal 400.
  • operation terminal 400 displays caller button ID 42a and setting column ID 42b on application setting screen ID 42 . All of the above elements are input elements.
  • the caller button ID 42a is a button for returning the screen of the presentation device 420 to the setting selection screen ID 41, and has the same function as the caller button described above.
  • the setting field ID 42b includes various setting item IDs 42b1 of the robot operation application and setting content IDs 42b2 for each of the setting item IDs 42b1.
  • the operation terminal 400 accepts addition, deletion, change, etc. of the setting content ID 42b2 by inputting to the application setting screen ID42.
  • the setting items 42ba include the destination port, the lock time that is the time until the screen is locked, the output destination of the log file, the backup means, the presence or absence of communication diagnosis, the license status of the application, the password, Includes application version, etc.
  • the setting item ID 42b1 may include items for setting language, work folder path, display update time on the presentation device 420, watchdog error time, watchdog try count, and the like.
  • the watchdog may be a two-way watchdog between the operating terminal 400 and the robot controller 200, or may be a watchdog from the operating terminal 400 to the robot controller 200, for example.
  • the watchdog error time is a criterion for determining an error in a watchdog request. It can be time.
  • the watchdog try count is a criterion for determining watchdog failure. For example, when a watchdog request error occurs, the watchdog request count is repeated until a response is received from the robot controller 200. may be If there is no response from the robot controller 200 to sending requests exceeding the watchdog try count, a watchdog failure is determined.
  • the operation terminal 400 when the operation terminal 400 receives a predetermined input on the selection button ID41a2, it displays the robot selection screen ID43 as shown in FIG. 21, for example.
  • FIG. 21 shows an example of the robot selection screen of the setting screen ID4 displayed on the operation terminal 400.
  • the operation terminal 400 displays the caller button ID 43a and the selection button IDs 43b and 43c on the robot selection screen ID43. All of the above elements are input elements.
  • the caller button ID 43a is a button for returning the screen of the presentation device 420 to the setting selection screen ID 41, and has the same function as the caller button described above.
  • the selection button ID 43b is a button for selecting settings for the robot main body
  • the selection button ID 43c is a button for selecting settings for the moving device.
  • the operation terminal 400 has a selection button ID 43b for the robot body 110 of the actual robot 100 connected to the operation terminal 400 and a selection button ID 43c for the mobile device 120 of the robot 100. indicate.
  • the operation terminal 400 displays a screen for selecting a robot to be set from the registered robots, such as a connection setting screen. It may be configured to display a screen similar to ID1.
  • FIG. 22 shows an example of the robot body setting screen of the setting screen ID4 displayed on the operation terminal 400.
  • the operation terminal 400 displays a caller button ID 431a, a version button ID 431b, an error log button ID 431c, and a reproduction operation setting button ID 431d on the robot body setting screen ID 431. All of the above elements are input elements.
  • the caller button ID 431a is a button for returning the screen of the presentation device 420 to the robot selection screen ID 43, and has the same function as the caller button described above.
  • the version button ID 431b is a button for displaying the version information of the robot body 110.
  • the operation terminal 400 changes the screen of the presentation device 420 to a screen displaying the version information of the robot body 110.
  • FIG. Information such as software for controlling the robot main body 110, the number and type of servo motors, and the like may be displayed on the screen. Furthermore, information such as the software and model of operation terminal 400 may be displayed.
  • the error log button ID 431c is a button for acquiring an error log.
  • the operation terminal 400 receives a predetermined input such as a tap on the error log button ID 431c, the screen of the presentation device 420 shifts to an error log screen ID 4311 for acquiring an error log as shown in FIG. 23, for example. .
  • FIG. 23 shows an example of the error log screen of the setting screen ID4 displayed on the operation terminal 400.
  • the operation terminal 400 enables selective acquisition of two types of error logs, ie, errors of the robot system 1 and errors of the robot operation application, by inputting to the error log screen ID 4311 .
  • the operation terminal 400 accepts input of an error code for each of the two error systems, and enables searching for an error log corresponding to the error code.
  • Operation terminal 400 displays the contents of the found error log.
  • the operation terminal 400 displays the caller button ID 4311 a on the error log screen ID 4311 .
  • the caller button ID 4311a is a button for returning the screen of the presentation device 420 to the robot body setting screen ID 431, and has the same function as the caller button described above.
  • the play action setting button ID 431 d is a button for setting the play action of the robot body 110 .
  • the screen of the presentation device 420 shifts to a reproduction operation setting screen ID 4312 as shown in FIG. 24, for example.
  • FIG. 24 shows an example of a reproduction operation setting screen of the robot main body 110 in the setting screen ID4 displayed on the operation terminal 400.
  • operation terminal 400 displays caller button ID 4312a and setting column ID 4312b on reproduction operation setting screen ID 4312 . All of the above elements are input elements.
  • the caller button ID 4312a is a button for returning the screen of the presentation device 420 to the robot body setting screen ID 431, and has the same function as the caller button described above.
  • the setting column ID 4312b includes various setting item IDs 4312b1 related to the reproduction operation of the robot body 110 and setting content IDs 4312b2 for each of the setting item IDs 4312b1.
  • the operation terminal 400 accepts addition, deletion, change, etc. of the setting content ID 4312b2 by inputting to the reproduction operation setting screen ID 4312.
  • FIG. 25 shows an example of a mobile device setting screen of the setting screen ID4 displayed on the operation terminal 400.
  • operation terminal 400 displays caller button ID 432a, version button ID 432b, error log button ID 432c, and reproduction operation setting button ID 432d on mobile device setting screen ID 432.
  • caller button ID 432a is input elements.
  • version button ID 432b is input elements.
  • error log button ID 432c is input elements.
  • reproduction operation setting button ID 432d on mobile device setting screen ID 432.
  • the caller button ID 432a is a button for returning the screen of the presentation device 420 to the robot selection screen ID 43, and has the same function as the caller button described above.
  • the version button ID 432 b is a button for displaying version information of the mobile device 120 .
  • the operation terminal 400 shifts the screen of the presentation device 420 to a screen displaying the version information of the mobile device 120 .
  • Information such as software for controlling the moving device 120 and the number and type of servo motors may be displayed on the screen. Furthermore, information such as the software and model of operation terminal 400 may be displayed.
  • the error log button ID 432c is a button for acquiring an error log, and has the same function as the error log button ID 431c of the robot body setting screen ID 431.
  • the operation terminal 400 changes the screen of the presentation device 420 to a screen similar to the error log screen ID 4311 shown in FIG. 23, for example.
  • the reproduction operation setting button ID 432 d is a button for setting the reproduction operation of the mobile device 120 .
  • the operation terminal 400 receives a predetermined input such as a tap on the reproduction operation setting button ID432d, the screen of the presentation device 420 shifts to a reproduction operation setting screen ID4322 as shown in FIG. 26, for example.
  • FIG. 26 shows an example of a reproduction operation setting screen of mobile device 120 in setting screen ID4 displayed on operation terminal 400 .
  • operation terminal 400 displays caller button ID 4322a and setting field ID 4322b on reproduction operation setting screen ID 4322 . All of the above elements are input elements.
  • the caller button ID 4322a is a button for returning the screen of the presentation device 420 to the mobile device setting screen ID 432, and has the same function as the caller button described above.
  • the setting column ID 4322b includes various setting item IDs 4322b1 related to the playback operation of the mobile device 120 and setting content IDs 4322b2 for each of the setting item IDs 4322b1.
  • the operation terminal 400 accepts addition, deletion, change, etc. of the setting content ID 4322b2 by inputting to the reproduction operation setting screen ID 4322.
  • the operation terminal 400 when the operation terminal 400 receives a predetermined input on the selection button ID41a3, it displays the management screen ID44 as shown in FIG. 27, for example.
  • FIG. 27 shows an example of a management screen of the setting screen ID4 displayed on the operation terminal 400.
  • the operation terminal 400 displays the caller button ID 44a and the selection button IDs 44b and 44c on the management screen ID 44.
  • FIG. All of the above elements are input elements.
  • the caller button ID 44a is a button for returning the screen of the presentation device 420 to the setting selection screen ID 41, and has the same function as the caller button described above.
  • the selection button ID 44 b is a button for selecting data management of the operation terminal 400
  • the selection button ID 43 c is a button for selecting management of signal input/output of the operation terminal 400 .
  • FIG. 28 and 29 show an example of the data management screen of the setting screen ID4 displayed on the operation terminal 400.
  • operation terminal 400 displays caller button ID 441a, device column ID 441b, and switch button ID 441c on data management screen ID 441.
  • FIG. The caller button ID 441a and the switching button ID 441c are input elements.
  • the caller button ID 441a is a button for returning the screen of the presentation device 420 to the management screen ID 44, and has the same function as the caller button described above.
  • the device column ID 441b includes an output column ID 441ba indicating a target to which the operating terminal 400 outputs data, and an input column ID 441bb indicating a target from which the operating terminal 400 receives data input.
  • the target of the output column ID 441ba and the input column ID 441bb is the robot controller 200.
  • FIG. in the device column ID 441b shown in FIG. 29, the target of the output column ID 441ba and the input column ID 441bb is the work folder of the operation terminal 400, that is, the storage device.
  • Data input/output targets of the operation terminal 400 are not limited to the devices described above, and may be any devices.
  • the operation terminal 400 Upon receiving a predetermined input such as a tap on the output field ID 441ba, the operation terminal 400 outputs work data and the like to the output target.
  • the operation terminal 400 receives a predetermined input such as a tap on the input field ID 441bb, the operation terminal 400 requests work data and the like from the request target.
  • the operation terminal 400 may store the work data or the like in the operation terminal 400 when it acquires the work data or the like from the request target. Examples of work data may include data obtained and generated by the operation terminal 400 during work, data obtained and generated by the request target during work, teaching data, and the like.
  • the switch button ID 441c is a button for switching the targets indicated in the output column ID 441ba and the input column ID 441bb of the device column ID 441b.
  • the operation terminal 400 changes the combination of the operation terminal 400 and the target indicated in the output field ID 441ba and the input field ID 441bb.
  • the combination may be set in advance and stored in operation terminal 400 .
  • FIG. 30 shows an example of the signal monitor screen of the setting screen ID4 displayed on the operation terminal 400.
  • operation terminal 400 displays caller button ID 442 a and signal column ID 442 b on signal monitor screen ID 442 .
  • the caller button ID 442a is an input element.
  • the signal column ID 442b includes a signal column ID 442ba that indicates the state of the output signal from the operating terminal 400 to the robot controller 200, a signal column ID 442bb that indicates the state of the input signal from the robot controller 200 to the operating terminal 400, and an internal signal of the operating terminal 400. and a signal column ID 442bc indicating the state of the signal.
  • the processor P of the operation terminal 400 outputs a command requesting the state of each signal while the signal monitor screen ID 442 is being displayed, and acquires the state.
  • the operation terminal 400 is configured to be connected to one robot controller 200, but is not limited to this.
  • the operation terminal 400 may be connected to two or more robot controllers 200 at the same time.
  • the operation terminal 400 may be configured to transmit and receive instructions, information, data, etc. to all of the two or more robot controllers 200 in parallel.
  • the operation terminal 400 selects one or more robot controllers 200 out of two or more robot controllers 200, and transmits/receives instructions, information, data, etc. to/from the one or more robot controllers 200 in parallel. may be configured to do so.
  • the operation terminal 400 may be configured to select one robot controller 200 out of two or more robot controllers 200 and transmit/receive commands, information, data, etc. to/from the one robot controller 200. good.
  • An operation terminal is an operation terminal for operating a movable robot, the operation terminal receiving an input of a movement operation, which is an operation to cause a mobile device included in the robot to operate, and the received movement operation. and outputting a command to the controller for controlling the motion of the robot to cause the mobile device to perform the motion according to the above.
  • the operation terminal can operate the mobile device of the robot.
  • Manipulation of the robot's locomotion device is a specific action of the robot.
  • Manual operation of a robot moving device is easier than manual operation of a robot body such as a robot arm.
  • Manual operation of the mobile device can be even simpler, for example, if the mobile device is a traveling device that travels on a support surface.
  • a smart device such as a tablet can also be used as such an operation terminal, and the smart device can further simplify the operation.
  • An operator who manually operates a mobile device may not need to receive special training unlike teaching operation of a robot body. Therefore, the operation terminal enables various operators to operate specific actions of the robot.
  • the operation terminal selectively shifts between a locked state in which an input of an operation to cause the robot to operate is not accepted and an unlocked state in which an input to cause the robot to operate is accepted, and the operation terminal is and when an input of an unlocking operation is received in the locked state, the locked state may be shifted to the unlocked state.
  • the operation terminal can reduce acceptance of unintended input by the operator. Therefore, the operation terminal can reduce malfunction of the robot.
  • the operation terminal may transition to the locked state after a predetermined time has elapsed in the unlocked state in which no operation input is received. According to the above aspect, when the operation terminal continues to be in a state of not receiving any input, the operation terminal comes into contact with the surrounding environment such as an object existing therearound, and can reduce receiving unnecessary input from the surrounding environment. Therefore, the operation terminal can reduce malfunction of the robot.
  • the operation terminal includes a display, and the operation terminal outputs a request for robot information, which is information indicating the state of the robot, to the controller, and receives the robot information from the controller. Upon receiving, displaying the robot information on the display.
  • the operation terminal can request the robot information from the controller and visually show the robot information acquired from the controller to the operator.
  • the operator can easily and reliably operate the mobile device via the operation terminal.
  • the operation terminal may receive an input of the movement operation when the robot performs a previously taught action.
  • the operation terminal can operate the mobile device while the robot is autonomously performing the instructed action. For example, when the position of the robot deviates from the position according to the taught motion due to disturbance such as contact with the surrounding environment, the operator operates the mobile device via the operation terminal to move the robot. Position can be modified.
  • the operation terminal enables various operators to perform operations for correction as described above.
  • the operation terminal outputs to the controller a command to operate in a teaching mode for teaching a predetermined action to the mobile device, and receives an input of the movement operation in the teaching mode. and outputting to the controller a command for causing the moving device to perform an operation according to the received moving operation.
  • the operation terminal enables execution of the teaching mode of the mobile device and operation of the mobile device in the teaching mode. Therefore, it is possible to teach the operation of the mobile device using the operation terminal.
  • the operation terminal accepts an input of an emergency stop command for emergency stopping the mobile device, and issues a command to cause the mobile device to stop operation in accordance with the received emergency stop command. and outputting to the controller. According to the above aspect, it is possible to perform an emergency stop of the mobile device using the operation terminal.
  • the operation terminal outputs to one or more of the controllers a request for permission/inhibition of operable connection with the operation terminal; When a response to the request is received, presenting information about the controller that can be operated by the operating terminal; accepting an input for selecting the controller to be operated; and outputting a request for an operational connection with the .
  • the operation terminal can be connected to a controller selected from among various controllers.
  • the operating terminal can sequentially search for a connectable controller, present search results to the operator, and connect to the controller selected by the operator from the search results.
  • the operation terminal outputs to the controller a request for connection that allows operation with the operation terminal, and establishes the connection that allows operation between the controller and the operation terminal, and outputting to the controller a request to be specified using the robot.
  • the operating terminal can use the robot to visually indicate, for example, establishment of connection between the operating terminal and the controller.
  • a robot system includes one or more operation terminals according to the one aspect of the present disclosure, one or more robots, and one or more robots that control the operation of the one or more robots. and the controller, wherein the operating terminal is operably connected to the controller selected from the one or more controllers. According to the above aspect, the same effect as the operation terminal according to one aspect of the present disclosure can be obtained.
  • the operating terminal can be connected to a controller selected from one or more controllers.
  • the robot system further includes one or more teaching devices communicably connected to the one or more controllers, wherein the controller is one of the operation terminal and the teaching device. may be selectively operably connected to one another.
  • the controller is one of the operation terminal and the teaching device. may be selectively operably connected to one another.
  • a computer program according to one aspect of the present disclosure is a computer program for operating the operation terminal according to the one aspect of the present disclosure, the computer program accepting an input of the movement operation and performing an operation according to the accepted movement operation.
  • the operation terminal is caused to generate an operation command to be executed by the mobile device and to output the operation command to the controller. According to the above aspect, the same effect as the operation terminal according to one aspect of the present disclosure can be obtained.
  • the computer program according to the aspect of the present disclosure may be a program installed in the operation terminal as an application program. According to the above aspect, even if the operation terminal is not a dedicated device but a general-purpose device, the functions of the present disclosure can be realized by incorporating a computer program.
  • An operation terminal is an operation terminal that operates a robot, and is communicably connected to a controller that controls an operation of the robot, and the operation terminal performs an operation to cause the robot to operate. receiving an input, and outputting to the controller a command for causing the robot to perform an action in accordance with the received operation, wherein the operation terminal is the robot capable of being received by a teaching device of the robot. accepts a specific operation, which is part of the operations to be performed on the
  • the operations of the robot that can be accepted by the operation terminal are some specific operations among the operations that can be accepted by the teaching device for causing the robot to operate.
  • the specific operation may be a simple operation among the operations that can be accepted by the teaching device.
  • a smart device such as a tablet can be used as such an operation terminal, and the smart device can further simplify the specific operation. Operators who perform simple operations may not need to receive special training, unlike robot teaching operations. Therefore, the operation terminal enables various operators to operate specific actions of the robot.
  • the specific operation may be different from the operation that the robot is caused to perform in order to teach the robot.
  • the specific operation since the specific operation is different from the operation for teaching, special training for the operator can be made unnecessary and the operation can be simple. Therefore, the operation terminal enables various operators to operate specific actions of the robot.
  • the specific operation may include an operation of causing the robot to perform a previously taught action.
  • the operation of causing the robot to autonomously perform the previously taught action can be a simple operation, so the specific operation can be simplified.
  • the specific operation may include an operation for commanding the robot to return to a state of an origin position, which is a predetermined state.
  • the operation for commanding the robot to return to the state of the origin position can be a simple operation, so the specific operation can be simplified.
  • the specific operation may include an operation for issuing an emergency stop command for the robot.
  • the operation for issuing an emergency stop command for the robot can be a simple operation, so the specific operation can be simplified.
  • the operation terminal selectively shifts between a locked state in which input of the specific operation is not accepted and an unlocked state in which input of the specific operation is accepted, and the operation terminal When an unlock operation input is received in the locked state, the unlocked state may be entered.
  • the operation terminal can reduce acceptance of unintended input by the operator. Therefore, the operation terminal can reduce malfunction of the robot.
  • the operation terminal may transition to the locked state after a predetermined time has elapsed in the unlocked state in which no operation input is received.
  • the operation terminal prevents the robot from operating and coming into contact with the surrounding environment such as an object existing in the surroundings when a state in which no input is received continues, and the robot receives unnecessary input from the surrounding environment. can be reduced. Therefore, the operation terminal can reduce malfunction of the robot.
  • the operation terminal includes a display, the operation terminal outputs a request for robot information, which is information indicating the state of the robot, to the controller; and displaying the robot information on the display upon receiving the information.
  • the operation terminal can request the robot information from the controller and visually show the robot information acquired from the controller to the operator.
  • the operator can easily and reliably perform the specific operation via the operation terminal.
  • the operation terminal outputs a request for permission/inhibition of operable connection with the operation terminal to one or more controllers, and the operable connection from the controller.
  • presenting information about the controller that can be operated by the operation terminal accepting an input for selecting the controller to be operated, and giving the controller to be operated, and outputting a request for an operable connection with the operating terminal.
  • the operation terminal can be connected to a controller selected from among various controllers.
  • the operating terminal can sequentially search for a connectable controller, present search results to the operator, and connect to the controller selected by the operator from the search results.
  • the operation terminal outputs a request for a connection that allows operation with the operation terminal to the controller, and establishes the connection that allows operation between the controller and the operation terminal. and outputting to the controller a request to specify using the robot.
  • the operating terminal can use the robot to visually indicate, for example, establishment of connection between the operating terminal and the controller.
  • a robot system controls the operation of one or more operation terminals, one or more robots, and one or more robots according to the another aspect of the present disclosure.
  • one or more of the controllers, and the operating terminal is operably connected to the controller selected from the one or more controllers. According to the above aspect, the same effects as those of the operation terminal according to another aspect of the present disclosure can be obtained.
  • the operating terminal can be connected to a controller selected from one or more controllers.
  • the robot system further includes one or more of the teaching devices communicatively connected to the one or more controllers, wherein the controller controls the operating terminal and the teaching device. Either or both may be operably connected.
  • the number of times the controller causes the robot to operate in accordance with a command received from the operation terminal during teaching of the robot using the teaching device is reduced. Therefore, malfunction of the robot is reduced.
  • a computer program according to another aspect of the present disclosure is a computer program that operates the operation terminal according to the another aspect of the present disclosure, the computer program receiving an input of the specific operation and executing the received specific operation.
  • the operation terminal is caused to generate an operation command for causing the robot to perform the action followed, and to output the operation command to the controller communicably connected to the operation terminal.
  • the computer program according to another aspect of the present disclosure may be a program installed in the operation terminal as an application program. According to the above aspect, even if the operation terminal is not a dedicated device but a general-purpose device, the functions of the present disclosure can be realized by incorporating a computer program.
  • circuits including general purpose processors, special purpose processors, integrated circuits, ASICs, conventional circuits, and/or combinations thereof configured or programmed to perform the disclosed functions. or can be performed using processing circuitry.
  • a processor is considered a processing circuit or circuit because it includes transistors and other circuits.
  • a circuit, unit, or means is hardware that performs or is programmed to perform the recited functions.
  • the hardware may be the hardware disclosed herein, or other known hardware programmed or configured to perform the recited functions.
  • a circuit, means or unit is a combination of hardware and software, where the hardware is a processor which is considered a type of circuit, the software being used to configure the hardware and/or the processor.
  • connection relationship between components is an example for specifically describing the technology of the present disclosure, and the connection relationship for realizing the function of the present disclosure is not limited to this.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

移動可能なロボット(100)を操作する操作端末(400)は、前記ロボットが備える移動装置(120)に動作させる操作である移動操作の入力を受け付けることと、受け付けた前記移動操作に従った動作を前記移動装置に実行させる指令を、前記ロボットの動作を制御するコントローラ(200)に出力することとを実行する。

Description

操作端末、ロボットシステム及びコンピュータプログラム 関連出願への相互参照
 本件出願は、2021年8月31日に日本特許庁に出願された特願2021-141728号の優先権及びその利益を主張するものであり、その全体を参照することにより本件出願の一部をなすものとして引用する。
 本開示は、操作端末、ロボットシステム及びコンピュータプログラムに関する。
 例えば、特許第6619398号公報は、ロボットの教示のための操作を行うことができる機械操作盤を開示する。機械操作盤は、タブレット端末と、タブレット端末と接続される外付けデバイスとを備える。外付けデバイスは、ロボットの制御装置と接続される。タブレット端末は、外付けデバイスを介して制御装置と通信する。
 特許第6619398号公報の機械操作盤での教示操作は、教示の教育を受けている操作者に限定される。本開示は、様々な操作者によるロボットの特定動作の操作を可能にする操作端末、ロボットシステム及びコンピュータプログラムを提供する。
 本開示の一態様に係る操作端末は、移動可能なロボットを操作する操作端末であって、前記ロボットが備える移動装置に動作させる操作である移動操作の入力を受け付けることと、受け付けた前記移動操作に従った動作を、前記移動装置に実行させる指令を前記ロボットの動作を制御するコントローラに出力することとを実行する。
図1は、実施の形態に係るロボットシステムの構成の一例を示す図である。 図2は、実施の形態に係るロボットコントローラ、教示装置及び操作端末のハードウェア構成の一例を示すブロック図である。 図3は、実施の形態に係るロボットコントローラ、教示装置及び操作端末の機能的構成の一例を示すブロック図である。 図4は、操作端末に表示される、ロボット操作アプリケーションの起動後のホーム画面の一例を示す。 図5は、操作端末に表示される接続設定画面の一例を示す。 図6は、操作端末に表示される接続設定画面の一例を示す。 図7は、操作端末に表示される接続設定画面の変形例を示す。 図8は、操作端末に表示される再生操作画面のうちの動作選択画面の一例を示す。 図9は、操作端末に表示される再生操作画面のうちのロボット操作画面の一例を示す。 図10は、操作端末に表示されるモニタ機能画面の一例を示す。 図11は、操作端末に表示される移動装置操作画面の一例を示す。 図12は、操作端末に表示される教示操作画面のうちの教示対象選択画面の一例を示す。 図13は、操作端末に表示されるロボット教示画面の一例を示す。 図14は、操作端末に表示される移動装置教示画面の一例を示す。 図15は、操作端末に表示されるロボット本体の手動操作設定画面の一例を示す。 図16は、操作端末に表示される移動装置の移動装置モニタ画面の一例を示す。 図17は、操作端末に表示される移動装置の移動幅設定画面の一例を示す。 図18は、操作端末に表示される移動装置の手動操作設定画面の一例を示す。 図19は、操作端末に表示される設定画面のうちの設定選択画面の一例を示す。 図20は、操作端末に表示される設定画面のうちのアプリケーション設定画面の一例を示す。 図21は、操作端末に表示される設定画面のうちのロボット選択画面の一例を示す。 図22は、操作端末に表示される設定画面のうちのロボット本体設定画面の一例を示す。 図23は、操作端末に表示される設定画面のうちのエラーログ画面の一例を示す。 図24は、操作端末に表示される設定画面のうちのロボット本体の再生動作設定画面の一例を示す。 図25は、操作端末に表示される設定画面のうちの移動装置設定画面の一例を示す。 図26は、操作端末に表示される設定画面のうちの移動装置の再生動作設定画面の一例を示す。 図27は、操作端末に表示される設定画面のうちの管理画面の一例を示す。 図28は、操作端末に表示される設定画面のうちのデータ管理画面の一例を示す。 図29は、操作端末に表示される設定画面のうちのデータ管理画面の一例を示す。 図30は、操作端末に表示される設定画面のうちの信号モニタ画面の一例を示す。
 以下において、本開示の例示的な実施の形態を、図面を参照しつつ説明する。以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。添付の図面における各図は、模式的な図であり、必ずしも厳密に図示されたものでない。各図において、実質的に同一の構成要素に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。本明細書及び請求項では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
 [ロボットシステムの構成]
 図1を参照しつつ、例示的な実施の形態に係るロボットシステム1の構成を説明する。図1は、実施の形態に係るロボットシステム1の構成の一例を示す図である。ロボットシステム1は、1つ以上のロボット100と、1つ以上のロボットコントローラ200と、1つ以上の教示装置300と、1つ以上の操作端末400とを含む。
 ロボット100の数量とロボットコントローラ200の数量とは同じである。教示装置300の数量及び操作端末400の数量はいずれも、ロボットコントローラ200の数量と同じであってもよく、ロボットコントローラ200の数量よりも多くてもよく少なくてもよい。
 ロボットコントローラ200は、ロボット100に搭載され、当該ロボット100の動作を制御する。しかしながら、ロボットコントローラ200は、ロボット100から離れた位置に配置され、有線接続、無線通信、又は、無線通信及び有線通信の組み合わせを介してロボット100と接続されてもよい。教示装置300は、教示対象の1つのロボット100のロボットコントローラ200と接続される。本実施の形態では、教示装置300は、ロボット100と有線接続されるが、無線通信、又は、無線通信及び有線通信の組み合わせを介して接続されてもよい。操作端末400は、操作対象の1つのロボット100のロボットコントローラ200と接続される。本実施の形態では、操作端末400は、ロボットコントローラ200と無線通信を介して接続されるが、有線通信、又は、有線通信及び無線通信の組み合わせを介して接続されてもよい。
 操作端末400に用いられる無線通信は、特に限定されないが、本実施の形態では、無線通信ネットワークNを利用する。無線通信ネットワークNは、特に限定されないが、WiFi(Wireless Fidelity)等の無線LAN(ローカルエリアネットワーク:Local Area Network)、モバイル通信網等を利用する無線WAN(広域ネットワーク:Wide Area Network)、衛星通信、ブルートゥース(Bluetooth)(登録商標)及びZigBee(登録商標)等の近距離無線通信、又は、これらの2つ以上の組み合わせを用いるものであってもよい。モバイル通信網は、第4世代移動通信システム及び第5世代移動通信システム等を用いるものであってもよい。本実施の形態では、無線通信ネットワークNは、無線LANである。有線接続には、ケーブル等による直接的な相互接続、有線通信ネットワーク、又は、これらの組み合わせが用いられてもよい。有線通信ネットワークは、いかなるネットワークであってもよい。
 ロボット100は、自走可能なロボットであり、ロボット本体110と移動装置120とを含む。しかしながら、ロボット100は、移動装置120を備えないように構成されてもよい。本実施の形態では、ロボット本体110は、1つ以上の関節を有するロボットアーム111と、ロボットアーム111の先端に取り付けられるエンドエフェクタ112とを含む。ロボットアーム111は、エンドエフェクタ112の位置及び姿勢を自在に移動することができる。エンドエフェクタ112は、対象物に目的に応じた作用を加えることができる構造を有する。ロボットアーム111は、1つ以上の可動部分を動作させる駆動装置として1つ以上のサーボモータ113を含む。エンドエフェクタ112は、可動部分を動作させる駆動装置として1つ以上のサーボモータ113を含み得る。
 移動装置120は、ロボット本体110を搭載し移動することができる。本実施の形態では、移動装置120は、床面、地面等の支持面上で走行することができ、走行のための車輪121を備える。移動装置120は、車輪121を回転駆動する駆動装置として1つ以上のサーボモータ122を含む。移動装置120は、昇降、飛行、水上航行及び潜水等の他の動作を行うことができる構造を有してもよい。
 移動装置120は、移動装置120の位置を検出する位置検出装置123を含み得る。位置検出装置123は、3次元空間内又は2次元平面上での移動装置120の絶対的な位置又は相対的な位置を検出できればよい。絶対的な位置を検出する位置検出装置123の例は、GNSS(Global Navigation Satellite System:全球測位衛星システム)、加速度センサ、角速度センサ又はこれらの2つ以上を含む計測装置等を含み得る。
 相対的な位置を検出する位置検出装置123の例は、磁気、光波、超音波、レーザ、カメラ画像又はこれらの2つ以上の組み合わせを用いる装置を含み得る。このような位置検出装置123は、磁気、光波、超音波、レーザ、カメラ画像又はこれらの2つ以上の組み合わせを用いて周囲環境に対する移動装置120の位置を検出することができる。本実施の形態では、位置検出装置123は、磁気を用いる装置であり、床面等の支持面上に配置された磁性体の位置を検出することができる。例えば、位置検出装置123は、支持面上に貼り付けられた磁気テープ等の磁性体のラインの位置を検出し、ロボットコントローラ200は、位置検出装置123の検出結果を用いて、磁性体のラインに沿って移動装置120に走行させる。
 移動装置120は、1つ以上の光源124を備え得る。本実施の形態では、4つの光源124が、移動装置120の直方体状の外装の4つの角部に当該外装から露出して配置される。しかしながら、光源124は、ロボット100の外部から視認可能であれば、ロボット100のいかなる位置に配置されてもよい。光源124は、電力供給を受けて発光し、例えば、LED(発光ダイオード)等を含んでもよい。光源124の点灯及び消灯は、ロボットコントローラ200によって制御されてもよい。移動装置120は、電力源として蓄電池を備えてもよく、商用電源等の外部の電力供給源から電力の供給を受ける構造を有してもよい。
 ロボットコントローラ200は、教示装置300及び操作端末400から受け取る指令に従って、ロボット100の動作を制御する。例えば、ロボットコントローラ200は、ロボット本体110のロボットアーム111及びエンドエフェクタ112のサーボモータ113の動作と、移動装置120のサーボモータ122の動作とを制御する。ロボットコントローラ200は、サーボモータ113及び122を動作させるための指令の生成及び出力と、サーボモータ113及び122に供給する電流の制御とを行う。ロボットコントローラ200は、コンピュータと駆動回路とを含む。限定されないが、本実施の形態では、ロボットコントローラ200は、教示モードと再生モードとの2つの動作モードで動作することができ、2つの動作モードの一方を選択的に実行する。
 教示モードは、ロボット100に所定の動作を実行させるためのプログラムをロボットコントローラ200に教示するための動作モードである。例えば、所定の動作は、ロボット100に実行させる作業に関わる動作であってもよい。例えば、上記プログラムが使用するデータである教示データが、ロボットコントローラ200に教示されてもよい。教示データは、所定の動作の実行中における、ロボットアーム111及びエンドエフェクタ112の可動部分の位置、姿勢、及び発生力であるトルク、並びに、移動装置120の位置及び姿勢等を含むデータであってもよい。
 教示モードでの教示は、教示装置300、操作端末400又はこれらの両方を用いて行われてもよい。例えば、操作者が、教示装置300又は操作端末400を操作して、ロボットコントローラ200にロボット100を動作させ、その過程での動作のデータを教示データとして、ロボットコントローラ200に記憶させることで当該動作を教示してもよい。教示の方法は、既存のいかなる方法であってもよい。本実施の形態では、教示装置300は、ロボットアーム111及びエンドエフェクタ112への教示に用いられるように構成され、操作端末400は、移動装置120への教示に用いられるように構成される。しかしながら、教示装置300は、移動装置120への教示に用いられるように構成されてもよく、操作端末400は、ロボットアーム111及びエンドエフェクタ112への教示に用いられるように構成されてもよい。
 教示モードでは、教示装置300及び操作端末400は、教示装置300及び操作端末400に入力されるマニュアル操作に従った動作をロボット100に実行させるための操作指令を生成し、ロボットコントローラ200に出力する。ロボットコントローラ200は、操作指令に従った動作をするようにロボット100の動作を制御する。
 再生モードは、ロボット100に、教示された動作を実行させるための動作モードである。再生モードでは、ロボットコントローラ200は、教示されたプログラムに従ってロボット100に所定の動作を自律的に実行させる。ロボットコントローラ200は、教示データを使用し、教示データに従って動作するようにロボット100の動作を制御する。
 教示装置300は、操作者による入力を受け付け、入力内容に従って指令、情報及びデータ等をロボットコントローラ200に出力する。本実施の形態では、教示装置300は、操作者が手持ち操作可能な教示端末であり、例えば、ティーチングペンダントである。しかしながら、教示装置300は、ロボット100への教示を行うことができる装置であればよく、例えば、パーソナルコンピュータ等の、コンピュータを含む他の装置であってもよい。本実施の形態では、教示装置300は、既存の汎用的なティーチングペンダントであるが、ロボットシステム1に専用に設計されたティーチングペンダントであってもよい。教示装置300は、ディスプレイ310と入力装置320とを含む。ディスプレイ310は、教示装置300の操作のための画像を表示する。ディスプレイ310は、画面への接触による入力を受け付けるタッチパネルであってもよい。入力装置320は、操作者による入力を受け付け、入力内容を信号に変換する。入力装置320の例は、ボタン、レバー、ダイヤル、ジョイスティック及びキー等の、操作者の操作を介して入力が与えられる装置である。教示装置300は、入力装置320によって生成される信号、又は当該信号から処理された信号を、ロボットコントローラ200に出力する。本実施の形態では、教示装置300は、コンピュータを含まないが、コンピュータを含んでもよい。
 例えば、教示装置300は、教示又は再生を実行する指令を入力装置320を介して受け付けると、教示又は再生を実行する指令をロボットコントローラ200に出力する。教示の場合、教示装置300は、操作者によるマニュアル操作を受け付け、当該マニュアル操作に従った操作指令をロボットコントローラ200に出力することで、ロボット100に当該マニュアル操作に従った動作をさせる。限定されないが、本実施の形態では、教示装置300は、ロボットアーム111及びエンドエフェクタ112のマニュアル操作を受け付ける。教示装置300は、当該動作のデータを教示データとして、ロボットコントローラ200に記憶させる。
 再生の場合、教示装置300は、操作者による再生の実行指令の入力を受け付け、操作者により指定された教示済みの所定の動作を実行する、つまり再生する指令をロボットコントローラ200に出力する。限定されないが、本実施の形態では、教示装置300は、ロボット本体110及び移動装置120を含むロボット100全体に対する再生の実行指令を受け付ける。教示装置300は、所定の動作の再生中、教示の実行指令を受け付けると、ロボットコントローラ200に教示モードに移行させる。
 操作端末400は、操作者による入力を受け付け、入力内容に従って指令、情報及びデータ等をロボットコントローラ200に出力する。操作端末400は、コンピュータを含む。操作端末400は、入力装置410と、提示装置420とを含む。入力装置410は、操作者による入力を受け付け、入力内容を信号に変換し、操作端末400のコンピュータに出力する。入力装置410の例は、ボタン、レバー、ダイヤル、ジョイスティック、マウス、キー、タッチパネル及びモーションキャプチャ等の、操作者の操作を介して入力が与えられる装置である。入力装置410は、操作者等の画像を撮像するカメラ、操作者等の音声の入力を受け付けるマイクロフォン、又はこれらの両方を含んでもよい。入力装置410は、撮像された画像データ、及び、入力された音声を示す信号を操作端末400のコンピュータに出力してもよい。
 提示装置420は、操作者に情報等を提示する構造を有する。提示装置420は、光、音、画像、振動及び負荷等の触覚、温度、又は、これらの2つ以上の組み合わせを出力することによって、情報等を提示する構造を有してもよい。限定されないが、本実施の形態では、提示装置420は、画像を出力するディスプレイと、音声を出力するスピーカとを含む。さらに、ディスプレイは、タッチパネルである。
 限定されないが、本実施の形態では、操作端末400は、操作者が持ち運び可能な携帯端末であり、例えば、スマートフォン、スマートウォッチ及びタブレット等のスマートデバイスである。操作端末400は、ロボットシステム1のために専用に開発されるスマートデバイスであってもよいが、本実施の形態では、市場に流通している汎用的なスマートデバイスである。例えば、汎用的なスマートデバイスは、本明細書及び請求項に開示される操作端末400の機能を実現するコンピュータプログラムが組み込まれることによって、操作端末400として機能することができる。
 操作端末400に組み込まれるコンピュータプログラムは、アプリケーションプログラムであってもよい。以下において、このアプリケーションプログラムを、「ロボット操作アプリケーションプログラム」とも呼ぶ。ロボット操作アプリケーションプログラムは、操作端末400のシステムソフトウェアであるOS(オペレーティングシステム:Operating System)にインストールされ、OS上で動作するネイティブアプリであってもよい。ロボット操作アプリケーションプログラムは、操作端末400が接続するWEBブラウザ上で動作するWEBアプリであってもよく、データを使用する動作等の一部の処理にWEB環境を利用し操作端末400上で動作するハイブリッドアプリであってもよい。
 操作端末400は、本明細書及び請求項に開示される操作端末400の機能を実現するコンピュータプログラムの組み込みが可能であり、操作端末400に要求される操作の入力を受け付け可能である装置であればよい。例えば、操作端末400は、パーソナルコンピュータとディスプレイとの組、ノートブック型パーソナルコンピュータ、ゲーム機とディスプレイとの組、又は、PDA(個人情報端末:Personal Digital Assistant)等であってもよい。
 操作端末400は、ロボットコントローラ200と通信可能に接続される。本実施の形態では、操作端末400は、教示装置300とは別の通信経路を介してロボットコントローラ200と接続されるが、これに限定されない。操作端末400は、教示装置300と通信可能に接続され、教示装置300を介してロボットコントローラ200と接続されてもよい。
 操作端末400は、ロボット100の操作が可能であるように構成される。操作端末400は、ロボット本体110のみ、移動装置120のみ、又は、ロボット本体110及び移動装置120の両方の操作が可能であるように構成されてもよい。操作端末400は、教示モードでのみ、再生モードでのみ、又は、教示モード及び再生モードの両方でロボット100の操作が可能であるように構成されてもよい。本実施の形態では、操作端末400は、教示モードでは移動装置120の操作が可能であり、再生モードでは、ロボット100全体に対して教示済みの所定の動作を再生させることができる。
 操作端末400は、教示装置300の代わりに、教示装置300と共に並列的に、又は、教示装置300を介して直列的に、ロボットコントローラ200と接続されるように構成されてもよい。上記接続は、指令、情報及びデータ等の送信と当該指令等の受信とが相互の間で可能である通信可能な状態であることを示し、物理的な接続に限定されない。操作端末400及び教示装置300の両方が、ロボットコントローラ200と並列的に又は直列的に接続されているとき、操作端末400及び教示装置300はいずれも、互いの影響を受けることなく任意のタイミングで指令等をロボットコントローラ200に送信できるように構成されてもよく、双方のタイミングが重ならないように、ロボットコントローラ200等によって規制を受けるように構成されてもよい。
 操作端末400は、教示装置300がロボット100に対して行うことができる操作の一部の操作を行うことができるように構成される。例えば、操作端末400は、教示装置300が受け付けることができるロボット100に動作させるための操作のうちの一部である特定操作を受け付けることができる。操作端末400は、受け付けた特定操作に従った動作をロボット100に実行させるための操作指令をロボットコントローラ200に出力する。
 限定されないが、例えば、特定操作は、教示装置300によりロボット100への教示を行うための操作と異なる操作、例えば、教示装置300での教示で用いられ得るロボット100に動作させるための操作と異なる操作であってもよい。特定操作は、上記操作として、移動装置120に動作させるための操作である移動操作を含んでもよく、本実施の形態では、移動装置120への教示を行うための移動操作を含む。移動操作は、マニュアル操作であってもよい。特定操作は、教示済みの動作をロボット100に自律的に実行させる再生のための操作を含んでもよく、本実施の形態では、ロボット100全体に対して教示済みの所定の動作を再生させるための操作を含む。特定操作は、原点位置の状態へロボット100に自律的に復帰させる指令のための操作を含んでもよい。特定操作は、ロボット100を緊急停止する指令のための操作を含んでもよい。ロボット100の緊急停止は、ロボット本体110の緊急停止、移動装置120の緊急停止、又は、ロボット本体110及び移動装置120の両方の緊急停止であってもよい。
 原点位置は、ロボット100の種々の状態及び位置を含んでもよい。例えば、原点位置は、教示済みの所定の作業におけるロボット100の初期位置及び当該位置での状態、当該作業の工程の開始点及び途中点に設定されるロボット100の位置及び当該位置での状態、工程に含まれる作業区間の開始点及び途中点に設定されるロボット100の位置及び当該位置での状態、作業終了時のロボット100の位置及び当該位置での状態、ロボットアーム111が移動装置120の占有エリア内に収まるように折りたたまれたロボット100の状態、人がロボット100に近づく場合におけるロボットアーム111による人の挟み込みを防ぐためのロボット100の状態、充電を受ける場合のロボット100の位置及び当該位置での状態、エンドエフェクタ112が交換される場合のロボット100の状態、ロボット本体110、移動装置120又はこれらの両方がメンテナンスを受ける場合のロボット100の状態、搬送される場合のロボット100の状態等を含んでもよい。
 操作端末400は、ロボット100の状態を示す情報であるロボット情報をロボットコントローラ200から受け取り、当該ロボット情報を提示装置420のタッチパネルに表示することができる。例えば、ロボット情報は、ロボット100の動作モード、ロボット100の作業内容、実行中の作業の進捗、当該作業に含まれる工程のうちのロボット100が実行中の工程、ロボット100のサーボモータ113及び122の回転量及び電流値等の稼働状態、並びに、位置検出装置123の検出結果等の種々の情報を含んでもよい。
 ロボットコントローラ200及び操作端末400のコンピュータは、回路又は処理回路を含む。回路は、処理回路を含んでもよい。処理回路又は回路は、プロセッサ及び記憶装置等を含む。処理回路又は回路は、他の装置との指令、情報及びデータ等の送受信を行う。処理回路又は回路は、種々の機器からの信号の入力及び制御対象への制御信号の出力を行う。
 記憶装置は、メモリ、ストレージ、又は、メモリ及びストレージの両方を含んでもよい。メモリの例は、揮発性の半導体メモリであるRAM(Random Access Memory)及び不揮発性の半導体メモリであるROM(Read-Only Memory)を含み得る。ストレージの例は、フラッシュメモリ等の半導体メモリ、ハードディスク及びSSD(Solid State Drive)を含み得る。例えば、記憶装置は、処理回路又は回路が実行するプログラム、及び種々のデータ等を記憶する。
 ロボットコントローラ200及び操作端末400の複数の機能の少なくとも一部の機能は、プロセッサ、メモリ及びストレージ等の協働により実現されてもよい。プロセッサと、RAM及びROMを含むメモリとは、コンピュータシステムを形成する。例えば、コンピュータシステムは、プロセッサがRAMをワークエリアとして用いてROMに記録されたプログラムを実行することによって、上記機能を実現してもよい。
 ロボットコントローラ200及び操作端末400の機能の一部又は全部は、上記コンピュータシステムにより実現されてもよく、電子回路又は集積回路等の専用のハードウェア回路により実現されてもよく、上記コンピュータシステム及びハードウェア回路の組み合わせにより実現されてもよい。ロボットコントローラ200及び操作端末400はいずれも、単一のコンピュータによる集中制御により処理を実行してもよく、複数のコンピュータの協働による分散制御により処理を実行してもよい。
 限定されないが、例えば、プロセッサは、CPU(中央処理装置)、MPU(Micro Processing Unit)、GPU(Graphic s Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、及びリコンフィギュラブルプロセッサ等を含み得、IC(Integrated Circuit)チップ及びLSI(Large Scale Integration)などの集積回路等に形成されたハードウェア回路である論理回路又は専用回路によって処理を実現してもよい。ロボットコントローラ200及び操作端末400の複数の機能は、個別に1チップ化された集積回路によって実現されてもよく、一部又は全てを含むように1チップ化された集積回路によって実現されてもよい。
 [ハードウェア構成]
 図2を参照しつつ、実施の形態に係るロボットコントローラ200、教示装置300及び操作端末400のハードウェア構成の一例を説明する。図2は、実施の形態に係るロボットコントローラ200、教示装置300及び操作端末400のハードウェア構成の一例を示すブロック図である。以下に説明するハードウェア構成は、一例であり、ロボットコントローラ200、教示装置300及び操作端末400のハードウェア構成は以下の構成に限定されず、適宜変更可能である。
 ロボットコントローラ200は、コントロールユニット210と、駆動回路220と、通信装置230とを含む。コントロールユニット210は、プロセッサPと、メモリMと、ストレージSと、入出力I/F(インターフェース:Interface)211と、駆動I/F212と、通信I/F213とを構成要素として含む。コントロールユニット210の構成要素は、バスBによって相互に接続されるが、電気配線又はケーブル等によって接続されてもよい。コントロールユニット210は、電子回路基板、電子制御ユニット、マイクロコンピュータ、及びその他の電子機器等であってもよい。
 入出力I/F211は、教示装置300と接続され、コントロールユニット210と教示装置300との間の信号の送受信を制御する。駆動I/F212は、駆動回路220と接続され、コントロールユニット210と駆動回路220との間の信号等の送受信を制御する。駆動回路220は、ロボット100に供給する電流を制御する回路である。通信I/F213は、通信装置230と接続され、コントロールユニット210と通信装置230との間の信号等の送受信を制御する。通信装置230は、操作端末400とコントロールユニット210との通信を仲介する装置であり、通信回路等を含み得る。限定されないが、本実施の形態では、通信装置230は、無線通信装置であり、例えば、モデム、ルータ及びモバイルデータ通信機器等の通信機器を含んでもよい。
 教示装置300は、回路Cと、入出力I/F301から303とを含む。回路C及び入出力I/F301から303は、電気配線又はケーブル等によって接続される。入出力I/F301は、ロボットコントローラ200の入出力I/F211と接続され、教示装置300とロボットコントローラ200との間の信号の送受信を制御する。入出力I/F302は、ディスプレイ310と接続され、ディスプレイ310に対する信号の送受信を制御する。入出力I/F303は、入力装置320と接続され、入力装置320に対する信号の送受信を制御する。回路Cは、入出力I/F301から303間で送受される信号を処理する。回路Cは、信号の送受及び変換等を制御するように構成されてもよい。
 操作端末400は、プロセッサPと、メモリMと、ストレージSと、入出力I/F431及び432と、通信I/F433とを含む。プロセッサP、メモリM、ストレージS、入出力I/F431及び432、並びに、通信I/F433は、バスBによって相互に接続されるが、電気配線又はケーブル等によって接続されてもよい。操作端末400は、通信装置440をさらに含む。
 入出力I/F431は、入力装置410と接続され、入力装置410に対する信号の送受信を制御する。入出力I/F432は、提示装置420と接続され、提示装置420に対する信号の送受信を制御する。通信I/F433は、通信装置440と接続され、通信装置440に対する信号の送受信を制御する。通信装置440は、無線通信装置であり、アンテナ及び通信回路等を含んでもよい。
 [機能的構成]
 図3を参照しつつ、実施の形態に係るロボットコントローラ200、教示装置300及び操作端末400の機能的構成の一例を説明する。図3は、実施の形態に係るロボットコントローラ200、教示装置300及び操作端末400の機能的構成の一例を示すブロック図である。以下に説明する機能的構成は、一例であり、ロボットコントローラ200、教示装置300及び操作端末400の機能的構成は以下の構成に限定されず、適宜変更可能である。
 ロボットコントローラ200は、通信制御部200aと、動作制御部200bと、記憶部200cとを機能的構成要素として含む。教示装置300は、処理部300aを機能的構成要素として含む。操作端末400は、通信制御部400aと、画面制御部400bと、情報処理部400cと、記憶部400dとを機能的構成要素として含む。
 ロボットコントローラ200において、通信制御部200a及び動作制御部200bの機能は、プロセッサP及びメモリM等によって実現されてもよく、記憶部200cの機能は、メモリM及びストレージSによって実現されてもよい。
 通信制御部200aは、操作端末400と通信装置230との間の無線通信を制御する。例えば、通信制御部200aは、操作端末400から受信する指令、情報及びデータ等を処理し、動作制御部200bが利用可能であるデータ型式に変換する。通信制御部200aは、操作端末400に送信する指令、情報及びデータ等を処理し、送信可能なデータ型式に変換する。
 記憶部200cは、教示データ及びロボット100の状態を示す情報等を記憶する。
 動作制御部200bは、ロボット100の動作を制御する。動作制御部200bは、ロボットコントローラ200と教示装置300及び操作端末400との間における指令、情報及びデータ等の入出力を管理する。例えば、動作制御部200bは、記憶部200cに格納される教示データ、教示装置300から受信する操作指令、通信制御部200aを介して操作端末400から受信する操作指令、又は、これらの2以上の組み合わせに従って、ロボット100の動作を制御する。動作制御部200bは、サーボモータ113及び122の回転量及び電流値等のロボット100の動作状態を示す情報を取得し、教示装置300、操作端末400、記憶部200c、又はこれらの2つ以上に出力する。教示モードでは、動作制御部200bは、ロボット100の動作状態を示す情報を用いて教示データを生成し、記憶部200cに記憶させる。
 教示装置300において、処理部300aの機能は、回路Cによって実現されてもよい。処理部300aは、入力装置320を介して入力される指令及び情報等、並びに、ロボットコントローラ200から受信する指令、情報及びデータ等を処理する。例えば、処理部300aは、入力装置320を介して入力される指令及び情報等から操作指令を示す信号を生成し、ロボットコントローラ200に送信する。処理部300aは、ロボットコントローラ200からロボット100のロボット情報を示す信号を受信すると、当該信号をディスプレイ310が処理可能な信号に変換してディスプレイ310に出力する。これにより、ディスプレイ310がロボット情報を表示する。
 操作端末400において、通信制御部400a、画面制御部400b及び情報処理部400cの機能は、プロセッサP及びメモリM等によって実現されてもよく、記憶部400dの機能は、メモリM及びストレージSによって実現されてもよい。
 通信制御部400aは、ロボットコントローラ200と通信装置440との間の通信を制御する。例えば、通信制御部400aは、ロボットコントローラ200から受信する指令、情報及びデータ等を処理し、情報処理部400cが利用可能であるデータ型式に変換する。通信制御部400aは、ロボットコントローラ200に送信する指令、情報及びデータ等を処理し、送信可能なデータ型式に変換する。
 画面制御部400bは、プログラム及び情報処理部400cから受け取る指令等に従って、提示装置420に表示される画面を制御する。
 情報処理部400cは、入力装置410を介して入力される指令及び情報等、並びに、ロボットコントローラ200から受信する指令、情報及びデータ等を処理する。情報処理部400cは、操作端末400とロボットコントローラ200との間における指令、情報及びデータ等の入出力を管理する。例えば、情報処理部400cは、入力装置410を介して入力される指令及び情報等から操作指令を生成し、ロボットコントローラ200に送信する。情報処理部400cは、ロボットコントローラ200からロボット100のロボット情報を取得し、当該ロボット情報を画面制御部400bに表示させる。
 記憶部400dは、画面データ及びロボットコントローラ200から受信するデータ等の種々のデータを記憶する。
 [操作端末の動作]
 実施の形態に係る操作端末400の種々の動作及び当該動作のための操作の例を説明する。
 <操作端末のロボット操作アプリケーションの起動>
 操作端末400において、ロボット操作アプリケーションが起動されると、操作端末400は、例えば図4に示すようなホーム画面ID0を提示装置420に表示する。図4は、操作端末400に表示される、ロボット操作アプリケーションの起動後のホーム画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、ホーム画面ID0上の上方部分において、接続ロボット欄ID0aと、エラーリセットボタンID0b1と、モータ電源ランプID0b2と、非常停止ランプID0b3と、一時停止ボタンID0b4と、接続設定タブID0c1と、モニタ画面タブID0c2と、教示画面タブID0c3と、設定タブID0c4とを表示する。
 ホーム画面ID0の中央から下方までの部分は、いかなる表示を含んでもよい。操作端末400は、表示される画面の種類に関係なく、接続ロボット欄ID0a、ボタンID0b1及びID0b4、ランプID0b2及びID0b3、並びにタブID0c1からID0c4を常に表示する。ボタン及びタブは、操作者の入力を受け付ける入力要素である。
 接続ロボット欄ID0aは、操作端末400と接続中であるロボットを示す。後述するが、操作端末400の接続対象は、実機のロボット100と仮想ロボットとを含む。以下において、「ロボット」と表記する場合、当該「ロボット」は、実機のロボット100、仮想ロボット、又は、これらの両方を示し得る。
 エラーリセットボタンID0b1は、ロボット100、仮想ロボット、ロボットコントローラ200、操作端末400、及び、ロボットコントローラ200と操作端末400との通信等における、異常等のエラーの検出の有無を表示する。操作端末400は、エラーが未検出の場合にはエラーリセットボタンID0b1への入力を受け付けないが、エラーが検出された場合にはエラーリセットボタンID0b1への入力を受け付ける。操作端末400は、エラーリセットボタンID0b1上への所定の入力を受け付けると、エラー解除の指令をロボットコントローラ200に送信する。操作端末400は、提示装置420の画面をエラーに関連する画面に移行してもよい。例えば、上記の所定の入力は、操作者の指及びタッチペン等がエラーリセットボタンID0b1上を押圧する入力、つまりタップ入力等であってもよいが、これに限定されない。
 例えば、操作端末400は、ロボットコントローラ200と操作端末400との通信状態の異常の有無を検出する機能を備えてもよい。操作端末400は、異常を検出した場合、ロボットコントローラ200と操作端末400との間の通信を切断し、エラーリセットボタンID0b1にエラーの検出を示してもよい。これにより、通信状態の異常に起因するロボット100の誤動作が抑制される。
 モータ電源ランプID0b2は、ロボット100のサーボモータ113及び122の電源がON状態であるかOFF状態であるかを示す。操作端末400は、モータ電源ランプID0b2への入力を受け付けない。
 非常停止ランプID0b3は、ロボット100の非常電源がON状態であるかOFF状態であるかを示す。操作端末400は、非常停止ランプID0b3への入力を受け付けない。例えば、ロボットコントローラ200は、ロボット100の緊急停止の指令を受け付けると、非常電源をOFF状態からON状態に移行することにより、通常電源の電力制御から非常電源の電力制御に移行する。通常電源の電力制御では、ロボット100の全ての機能が動作可能である。非常電源での電力制御では、ロボット100の一部の機能が動作可能である。例えば、作業を実行するためのロボット100の機能が動作不可能であり、操作端末400及び教示装置300の通信のための機能、及び、原点位置への復帰等の軽微な動作のためのロボット100の機能等が動作可能であってもよい。よって、非常停止ランプID0b3は、ロボット100が緊急停止状態であるか否かを示すこともできる。
 操作端末400は、非常停止ランプID0b3に、入力を受け付ける機能を備えてもよい。操作端末400は、非常停止ランプID0b3上への長押し等の所定の入力を受け付けると、ロボットコントローラ200に、ロボット100を緊急停止する指令を送信してもよい。
 一時停止ボタンID0b4は、ロボットの動作を一時的に停止するためのボタンである。操作端末400は、任意のタイミングで一時停止ボタンID0b4への入力を受け付ける。操作端末400は、一時停止表示と再生表示とで選択的に一時停止ボタンID0b4を表す。例えば、操作端末400は、一時停止表示の一時停止ボタンID0b4上へのタップ等の所定の入力を受け付けると、ロボット100の動作を一時的に停止させる指令をロボットコントローラ200に送信し、一時停止ボタンID0b4の表示を再生表示に変更する。操作端末400は、再生表示の一時停止ボタンID0b4上へのタップ等の所定の入力を受け付けると、ロボットの動作を再開させる指令をロボットコントローラ200に送信し、一時停止ボタンID0b4の表示を一時停止表示に変更する。
 接続設定タブIDc1は、操作端末400とロボットとの接続を設定するための画面を開くタブである。操作端末400は、任意のタイミングで接続設定タブIDc1への入力を受け付ける。操作端末400は、接続設定タブIDc1上へのタップ等の所定の入力を受け付けると、提示装置420の画面を接続設定画面ID1に移行する。
 モニタ画面タブID0c2は、教示済みの所定の動作をロボットに実行させる、つまり再生させるための画面を開くタブである。操作端末400は、任意のタイミングでモニタ画面タブID0c2への入力を受け付ける。操作端末400は、モニタ画面タブID0c2上へのタップ等の所定の入力を受け付けると、提示装置420の画面を再生操作画面ID2に移行する。
 教示画面タブID0c3は、ロボットの教示を実行するための画面を開くタブである。操作端末400は、任意のタイミングで教示画面タブID0c3への入力を受け付ける。操作端末400は、教示画面タブID0c3上へのタップ等の所定の入力を受け付けると、提示装置420の画面を教示操作画面ID3に移行する。
 設定タブID0c4は、ロボットの各種設定を行う画面を開くタブである。操作端末400は、任意のタイミングで設定タブID0c4への入力を受け付ける。操作端末400は、設定タブID0c4上へのタップ等の所定の入力を受け付けると、提示装置420の画面を設定画面ID4に移行する。
<操作端末とロボットとの接続>
 操作端末400は、接続設定タブIDc1上への所定の入力を受け付けると、提示装置420の画面を、例えば図5及び図6に示すような接続設定画面ID1に移行する。図5及び図6は、操作端末400に表示される接続設定画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、接続設定画面ID1上に、対象ロボット欄ID1aと、接続対象欄ID1bとを表示する。操作端末400は、接続設定画面ID1の表示中、接続設定タブIDc1上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、ホーム画面ID0に移行してもよい。
 図5に示すように、対象ロボット欄ID1aは、操作端末400に登録されている接続可能なロボットの一覧を含む。接続可能なロボットは、実機のロボット100と仮想ロボットとを含み得る。仮想ロボットは、実機のロボット100のシミュレーションモデルである。対象ロボット欄ID1aにおいて、実機のロボット100は、例えば「robot_1」のように当該ロボットの名称で表され得る。仮想ロボットは、例えば「robot_1_debug」のように、仮想ロボットに対応する実機のロボット100の名称を一部に含む名称で表され得る。例えば、仮想ロボットを表すロボットモデルの情報は、操作端末400に記憶されてもよく、ロボットコントローラ200に記憶されてもよく、クラウドサーバ等の外部デバイスに記憶されてもよい。操作端末400は、ロボットコントローラ200又は外部デバイスからロボットモデルの情報を取得してもよい。
 操作端末400は、対象ロボット欄ID1a内のロボットを選択するために、ロボットの名称上へのタップ等の所定の入力を受け付ける。操作端末400は、選択された名称のロボットの情報を、接続対象欄ID1bに表す。接続対象欄ID1bは、名称欄ID1b1と、接続状態を示す接続ボタンID1b2及び切断ボタンID1b3と、通信モード欄ID1b4と、接続確認ボタンID1b5とを含む。
 名称欄ID1b1は、選択されているロボットの名称及びアドレスを含む。操作端末400は、接続ボタンID1b2上へのタップ等の所定の入力を受け付けると、名称欄ID1b1のロボットと接続し、接続ボタンID1b2を強調表示する。操作端末400は、切断ボタンID1b3上へタップ等の所定の入力を受け付けると、名称欄ID1b1のロボットとの接続を解除し、切断ボタンID1b3を強調表示する。
 例えば、名称欄ID1b1に実機のロボット100の名称が表示されている場合、操作端末400は、接続ボタンID1b2上への所定の入力を受け付けると、当該ロボット100のロボットコントローラ200に、操作可能な接続の許可を要求する指令を送信する。操作端末400は、当該ロボットコントローラ200から、当該要求への許可を示す応答を受信すると、当該ロボットコントローラ200と操作可能な接続状態になり、接続ボタンID1aを強調表示する。操作端末400は、操作可能な接続状態になると、ロボット100の光源124の点灯を要求する指令をロボットコントローラ200に送信してもよく、ロボットコントローラ200は、当該指令を受信すると、移動装置120の光源124を点灯させてもよい。ロボットコントローラ200は、光源124を一時的に点灯してもよく、操作可能な接続状態の継続中、継続して点灯してもよい。例えば、操作可能な接続状態では、操作端末400は、所定の時間間隔等の所定の時期に、ロボットコントローラ200にロボット100のロボット情報を要求し、当該情報を取得してもよい。
 通信モード欄ID1b4は、ロボットとの通信のモードを示す。名称欄ID1b1のロボットが実機のロボット100である場合、操作端末400は、図5に示すように、通信モード欄ID1b4に「実機通信モード」を表示する。名称欄ID1b1のロボットが仮想ロボットである場合、操作端末400は、図6に示すように、通信モード欄ID1b4に「シミュレーションモード」を表示する。
 操作端末400は、実機通信モードでロボット100と接続されると、操作端末400を用いた当該ロボット100の操作を行うことができる。操作端末400は、シミュレーションモードで仮想ロボットと接続されると、当該仮想ロボットを使用して、操作端末400の機能の少なくとも一部のシミュレーション、及び、操作端末400の様々な画面内容の確認を行うことができる。
 操作端末400は、接続確認ボタンID1b5上へのタップ等の所定の入力を受け付けると、接続されている実機のロボット100に、接続確認を要求する指令を送信する。当該ロボット100のロボットコントローラ200は、当該指令を受信すると、ロボット100に所定の動作を実行させる。限定されないが、所定の動作の例は、ロボットアーム111の動作、移動装置120の動作、ロボット100の光源124の点灯、又はこれらの2つ以上の組み合わせ等を含み得る。本実施の形態では、ロボットコントローラ200は、光源124を一時的に点灯する。
 実機のロボット100と操作端末400とが接続されることは、当該ロボット100を制御するロボットコントローラ200と操作端末400とが接続されることである。以下において、「ロボットコントローラ200と操作端末400とが接続される」ことを、当該ロボットコントローラ200の制御対象である「ロボット100と操作端末400とが接続される」と表現する場合もある。ロボット100又はロボットコントローラ200と操作端末400との接続は、操作端末400による操作がロボットコントローラ200によって受け付けられる状態にする接続、つまり、操作端末400による操作可能な接続を意味する。
 上記例では、操作端末400は、対象ロボット欄ID1aに、操作端末400に登録されている接続可能なロボットを表示するが、これに限定されない。例えば、操作端末400は、接続可能な実機のロボット100を探索するように構成されてもよい。例えば、図7に示すように、対象ロボット欄ID1aは、探索ボタンID1a1を含んでもよい。図7は、操作端末400に表示される接続設定画面の変形例を示す。
 操作端末400は、探索ボタンID1a1上へのタップ等の所定の入力を受け付けると、操作端末400の送信可能エリア内の全てのロボット100のロボットコントローラ200に、操作端末400との操作可能な接続の可否の要求を一斉送信するように構成されてもよい。全てのロボットコントローラ200は常に、操作端末400からの要求を受信可能である要求待ちの状態を維持している。操作端末400は、操作可能な接続の可を示す応答を受け取ったロボットコントローラ200のロボット100の名称を、接続可能な実機のロボットとして、対象ロボット欄ID1aに示してもよい。上記の一斉送信の対象は、送信可能エリア内の全てのロボット100のうちの操作端末400に登録されている実機のロボットであってもよい。この場合、操作端末400は、登録されている実機のロボットのうち、操作可能な接続の可を示す応答を受け取ったロボット100の名称のみを表示してもよい。
 <操作端末によるロボット等の再生動作のための操作>
 操作端末400は、モニタ画面タブID0c2上への所定の入力を受け付けると、提示装置420の画面を、例えば図8に示すような再生操作画面ID2の1つに移行する。図8は、操作端末400に表示される再生操作画面ID2のうちの動作選択画面の一例を示す。例えば、操作端末400とロボットとが未接続である場合、操作端末400は、モニタ画面タブID0c2への入力を受け付けないように構成されてもよく、未接続であることを示すメッセージ等を表示するように構成されてもよい。本例では、接続ロボット欄ID0aに示されるように、操作端末400は、名称が「robot_1」である実機のロボット100と接続されている。操作端末400は、再生操作画面ID2の表示中、モニタ画面タブID0c2上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、ホーム画面ID0に移行してもよい。
 操作端末400は、動作選択画面ID21上に、教示済みの作業等の教示済みの所定の動作を示す動作選択ボタンID21aを示す。限定されないが、本例では、動作選択画面ID21は、1つ以上の所定の動作に対応する1つ以上の動作選択ボタンID21aを含む。操作端末400は、動作選択ボタンID21aの1つの上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、例えば図9に示すようなロボット操作画面ID22に移行する。図9は、操作端末400に表示される再生操作画面のうちのロボット操作画面の一例を示し、具体的には、空調機組立作業のロボット操作画面の一例を示す。
 操作端末400は、ロボット操作画面ID22への移行に伴って、再生モードに移行するが、再生モードへの移行のタイミングは、再生操作画面ID2への移行後のいかなるタイミングであってもよい。操作端末400は、再生モードへの移行時又は移行後、再生モードで空調機組立作業の制御を実行する指令をロボットコントローラ200に送信してもよい。限定されないが、本実施の形態では、操作端末400は、ロボット操作画面ID22上に、実行作業欄ID22aと、操作キーID22bと、ロックボタンID22cと、モニタボタンID22dと、切替ボタンID22eと、原点位置ボタンID22fと、呼び出し元ボタンID22gとを表示する。実行作業欄ID22aを除く上記要素は、入力要素である。
 実行作業欄ID22aは、実行中の所定の動作である実行中の作業を示す。
 操作キーID22bは、ロボット100に教示済みの作業を実行させるための指令等が入力されるキーである。操作端末400は、操作キーID22b上への入力を受け付けると、受け付けた入力内容に従った操作指令をロボットコントローラ200に送信する。例えば、上記の入力は、長押し入力及びタップ入力等を含んでもよく、他の入力を含んでもよい。
 本例のように、空調機組立作業の場合、操作キーID22bは、作業の実行及び停止を指令するための再生停止ボタンID22baと、再生停止ボタンID22baの周囲でロボット100の負荷を示す環状のバーID22bbと、ロボット100の作業速度又は動作速度を指令するためのスクロールバーID22bcとを含んでもよい。再生停止ボタンID22baは、教示済みの作業の自律的な実行及び停止を指令するボタンである。操作端末400は、1つの再生停止ボタンID22baを用いて作業の実行及び停止を受け付けてもよい。例えば、操作端末400は、当該作業の実行中、停止ボタンとして再生停止ボタンID22baを機能させ且つ表示し、受け付けた入力を停止指令として処理し、当該作業の停止中、再生ボタンとして再生停止ボタンID22baを機能させ且つ表示し、受け付けた入力を実行指令として処理してもよい。操作キーID22bは、上記に限定されず、例えば、作業に含まれる1つ以上の工程の実行及び停止を指令するキー、及び単一作業の実行及び停止を指令するキー等の様々なキーを含んでもよい。
 ロックボタンID22cは、ロボット操作画面ID22への入力を受け付けないロック状態と、ロボット操作画面ID22への入力を受け付けるロック解除状態とを切り替えるボタンである。ロック状態の場合、操作端末400は、ロックボタンID22cを除くロボット操作画面ID22の全ての入力要素への入力を受け付けなくてもよく、一部の入力要素への入力を受け付けなくてもよい。例えば、一部の入力要素は、操作キーID22b等のロボット100の動作の実行に関連する入力要素であってもよい。
 操作端末400は、ロック解除状態の場合、ロック解除状態を示す形態でロックボタンID22cを表示し、ロック状態の場合、ロック状態を示す形態でロックボタンID22cを表示する。
 操作端末400は、ロック状態の場合に、ロックボタンID22c上への長押し等の所定の入力を受け付けると、ロック解除状態に移行し、ロックボタンID22cの形態をロック状態からロック解除状態に切り替える。操作端末400は、ロック解除状態の場合に、入力要素への入力を受け付けていない状態が所定の時間経過すると、ロック状態に移行し、ロックボタンID22cの形態をロック解除状態からロック状態に切り替えてもよい。上記入力要素は、ロック解除されている入力要素であってもよい。操作端末400は、ロック解除状態の場合、上記に加えて、又は上記の代わりに、ロックボタンID22c上への長押し等の所定の入力を受け付けると、ロック状態に移行してもよい。
 ロック解除状態及びロック状態への移行のための入力は、上記に限定されず、例えば、ロボット操作画面ID22への他の入力であってもよい。当該入力の例は、ロボット操作画面ID22上への操作者の指及びタッチペン等による、スワイプなどの動作の軌跡、文字、数字及びパスワードの入力、操作端末400に備えられるセンサへの操作者の指紋及び声等の生体情報の入力、操作端末400に備えられるカメラへの操作者の顔等の画像の入力、又はこれらの2つ以上の組み合わせ等を含み得る。
 原点位置ボタンID22fは、ロボット100に原点位置に戻ることを指令するためのボタンである。操作端末400は、原点位置ボタンID22f上への所定の入力を受け付けると、ロボット100を原点位置に戻す指令をロボットコントローラ200に送信する。例えば、上記の所定の入力は、タップ又は長押し等であってもよい。原点位置の例は、上述したとおりである。
 呼び出し元ボタンID22gは、提示装置420の画面を動作選択画面ID21へ戻すためのボタンである。操作端末400は、呼び出し元ボタンID22g上へのタップ等の所定の入力を受け付けると、提示装置420の画面を動作選択画面ID21に移行する。
 モニタボタンID22dは、ロボット100の状態を呼び出すためのボタンである。操作端末400は、モニタボタンID22d上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、例えば図10に示すようなモニタ機能画面ID23に移行する。図10は、操作端末400に表示されるモニタ機能画面の一例を示す。モニタ機能画面ID23は、ロボット100の稼働状態及び作業進捗等を示す。限定されないが、本実施の形態では、操作端末400は、モニタ機能画面ID23上に、実行作業欄ID22aと、呼び出し元ボタンID23aと、作業進捗欄ID23bと、時間欄ID23cと、エラーコード欄ID23dとを表示する。呼び出し元ボタンID23a及びエラーコード欄ID23dは、入力要素である。
 操作端末400は、モニタボタンID22d上への上記の所定の入力を受け付けると、ロボットコントローラ200にロボット100の状態を示すロボット情報を要求してもよい。これに加えて、又はこれの代わりに、操作端末400は、所定の時間間隔等の所定の時期に、ロボットコントローラ200にロボット情報を要求してもよい。操作端末400は、ロボットコントローラ200から受け取るロボット情報を記憶し蓄積してもよい。操作端末400は、ロボットコントローラ200から受け取るロボット情報、操作端末400に記憶されるロボット情報、又は、これらの両方を用いてモニタ機能画面ID23を生成し表示してもよい。
 呼び出し元ボタンID23aは、提示装置420の画面をロボット操作画面ID22へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 作業進捗欄ID23bは、実行中の作業の進捗を示す。限定されないが、本実施の形態では、操作端末400は、作業進捗欄ID23b内に、実行中の作業に含まれる全ての工程と、実行中の工程とを示す。図10では、実行中の工程はハイライト表示されている。
 時間欄ID23cは、経過時間を示す。限定されないが、本実施の形態では、操作端末400は、時間欄ID23c内に、実行中の作業が開始されてからの経過時間である稼働時間と、実行中の工程が開始されてからの経過時間である作業時間とを示す。
 エラーコード欄ID23dは、表示欄ID23d1と、リンクボタンID23d2とを含む。表示欄ID23d1は、発生したエラーの詳細を示す。リンクボタンID23d2は、表示欄ID23d1に示されるエラーに関連する画面へ移行するためのボタンである。
 操作端末400は、ロボット100、仮想ロボット、ロボットコントローラ200、操作端末400、又は、ロボットコントローラ200と操作端末400との通信等に発生したエラーの情報を取得すると、エラーの内容の詳細を表示欄ID23d1に示す。例えば、表示欄ID23d1には、エラーのコード等の識別番号、及び、エラーの名称等が示されてもよい。表示欄ID23d1には、直近のエラーの詳細が示されてもよく、エラーの履歴が示されてもよい。エラーには、仮想ロボットを用いたシミュレーションでのエラーも含まれる。
 操作端末400は、リンクボタンID23d2上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、表示欄ID23d1に示されるエラーに関連する画面に移行する。例えば、当該画面は、エラーの管理画面、トラブルシューティングを示す画面、及びエラーの履歴を示す画面等であってもよい。
 図9を参照すると、切替ボタンID22eは、移動装置120の状態を呼び出すためのボタンである。操作端末400は、切替ボタンID22e上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、例えば図11に示すような移動装置操作画面ID24に移行する。図11は、操作端末400に表示される移動装置操作画面の一例を示す。移動装置操作画面ID24は、移動装置120の稼働状態及び各種設定等を示す。
 限定されないが、本実施の形態では、操作端末400は、移動装置操作画面ID24上に、呼び出し元ボタンID24aと、起動ボタンID24bと、停止ボタンID24cと、一時停止ボタンID24dと、モータ電源ボタンID24eと、走行パラメータ設定ボタンID24fと、起動条件スイッチID24gと、エラーコード欄ID24hと、モニタ速度変更バーID24iと、経路欄ID24jと、現状パラメータ欄ID24kと、ロックボタンID24lと、原点位置ボタンID24mとを表示する。上記の要素の全てが、入力要素である。
 操作端末400は、切替ボタンID22e上への所定の入力を受け付けると、ロボットコントローラ200に移動装置120の情報を要求してもよい。これに加えて、又はこれの代わりに、操作端末400は、所定の時間間隔等の所定の時期に、ロボットコントローラ200に移動装置120の情報を要求してもよい。操作端末400は、ロボットコントローラ200から受け取る移動装置120の情報を記憶し蓄積してもよい。操作端末400は、ロボットコントローラ200から受け取る移動装置120の情報、操作端末400に記憶される移動装置120の情報、又は、これらの両方を用いて移動装置操作画面ID24を生成し表示してもよい。
 呼び出し元ボタンID24aは、提示装置420の画面をロボット操作画面ID22へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 起動ボタンID24bは、移動装置120を起動するためのボタンであるが、ロボット100全体を起動するように構成されてもよい。操作端末400は、起動ボタンID24b上へのタップ等の所定の入力を受け付けると、移動装置120を起動する指令をロボットコントローラ200に送信し、起動ボタンID24bを強調表示する。
 停止ボタンID24cは、移動装置120を停止するためのボタンであるが、ロボット100全体を停止するように構成されてもよい。操作端末400は、停止ボタンID24c上へのタップ等の所定の入力を受け付けると、移動装置120を停止する指令をロボットコントローラ200に送信し、停止ボタンID24cを強調表示する。停止の例は、ロボット100の電源をOFFにすること、移動装置120の電源をOFFにすること、移動装置120に関連する構成要素への電力供給を遮断すること、及び、ロボットコントローラ200による移動装置120の制御を遮断すること等を含み得る。
 一時停止ボタンID24dは、移動装置120の動作を一時的に停止するためのボタンであるが、ロボット100全体の動作を一時的に停止するように構成されてもよい。一時的な停止では、移動装置120に電力が供給されてもよい。一時停止ボタンID24dは、一時停止ボタンID0b4について例示した機能と同様の機能を備える。操作端末400は、一時停止表示の一時停止ボタンID24d上へのタップ等の所定の入力を受け付けると、移動装置120の動作を一時的に停止する指令をロボットコントローラ200に送信し、一時停止ボタンID24dの表示を再生表示に変更する。操作端末400は、再生表示の一時停止ボタンID24d上へのタップ等の所定の入力を受け付けると、移動装置120の動作を再開する指令をロボットコントローラ200に送信し、一時停止ボタンID24dの表示を一時停止表示に変更する。
 モータ電源ボタンID24eは、移動装置120のサーボモータ122の電源がON状態であるかOFF状態であるかを示す。操作端末400は、モータ電源ボタンID24eへの入力を受け付けてもよい。例えば、操作端末400は、ON状態を示すモータ電源ボタンID24e上へのタップ等の所定の入力を受け付けると、サーボモータ122の電源をOFF状態にする指令をロボットコントローラ200に送信し、モータ電源ボタンID24eの表示をOFF状態にしてもよい。操作端末400は、OFF状態を示すモータ電源ボタンID24e上へのタップ等の所定の入力を受け付けると、サーボモータ122の電源をON状態にする指令をロボットコントローラ200に送信し、モータ電源ボタンID24eの表示をON状態にしてもよい。
 走行パラメータ設定ボタンID24fは、移動装置120の走行に関連するパラメータを設定するためのボタンである。当該パラメータの例は、速度、動作種類、動作プログラム、走行経路の曲率半径、次の目標点、追従する磁性体のライン等の情報を示すパラメータを含み得る。操作端末400は、走行パラメータ設定ボタンID24f上へのタップ等の所定の入力を受け付けると、走行パラメータを設定するための画面を開き、走行パラメータの変更を受け入れてもよい。
 起動条件スイッチID24gは、起動時の条件を切り替えるためのスイッチである。例えば、起動時の条件は、起動時における移動装置120の初期状態等を含んでもよく、さらに、ロボット本体110の初期状態等を含んでもよい。操作端末400は、起動条件スイッチID24gを回動する入力を受け付けると、採用する起動条件を切り替える。
 エラーコード欄ID24hは、モニタ機能画面ID23のエラーコード欄ID23dと同様に、表示欄ID24h1とリンクボタンID24h2とを含む。操作端末400は、エラーコード欄ID23dについて例示した機能と同様の機能を、エラーコード欄ID24hにも備える。操作端末400は、表示欄ID24h1に移動装置120に関連するエラーの詳細を示し、リンクボタンID24h2を介して当該エラーに関連する画面にリンクする。
 モニタ速度変更バーID24iは、移動装置120の動作速度を設定及び表示するためのバーである。モニタ速度変更バーID24iは、直線状のバーに沿ってスライド可能なポイントを含む。操作端末400は、モニタ速度変更バーID24iのポイント上への入力を受け付け、当該ポイントがバーに沿ってスライドされることによって、上記動作速度を変更する。例えば、上記入力及びスライドは、タップした状態でのスライドであってもよい。操作端末400は、バー上でのポイントの位置に基づき、動作速度を決定し、決定した動作速度を数値化して表示する。
 経路欄ID24jは、移動装置120の経路の情報を示す。経路欄ID24jは、経路グループ欄ID24j1と、アドレス欄ID24j2と、変更ボタンID24j3とを含む。操作端末400は、経路グループ欄ID24j1に、移動装置120に設定されている経路グループを表す番号及び記号等の符号を示し、アドレス欄ID24j2に、移動装置120に設定されている目標点を表す番号及び記号等の符号を示す。目標点は、出発点、1つ以上の経由点、到達点、又はこれらの2つ以上の組み合わせを含んでもよい。経路グループは、1つ以上の経路の組み合わせを含んでもよい。例えば、経路グループは、出発点、1つ以上の経由点及び到達点を互いに順につなぐ1つ以上の経路の組み合わせを含んでもよい。例えば、経路グループは、経路と経路の進行順序とを規定するプログラムであってもよい。
 変更ボタンID24j3は、経路グループ欄ID24j1及びアドレス欄ID24j2に示される経路グループ及び目標点を変更するためのボタンである。操作端末400は、変更ボタンID24j3上へのタップ等の所定の入力を受け付けると、経路グループ及び目標点を設定するための画面を開き、経路グループ及び目標点の変更を受け付けてもよい。
 現状パラメータ欄ID24kは、移動装置120に設定されているパラメータ及び移動装置120に関連するパラメータの現状を示す。当該パラメータは、移動装置120に設定されている走行パラメータも含み得る。当該パラメータは、実行中のパラメータであってもよい。操作端末400は、現状パラメータ欄ID24k上へのタップ等の所定の入力を受け付けると、上記パラメータの詳細を示す欄を開き、表示する。
 ロックボタンID24lは、移動装置操作画面ID24の入力要素への入力を受け付けないロック状態と、当該入力要素への入力を受け付けるロック解除状態とを示すボタンである。操作端末400は、ロボット操作画面ID22のロックボタンID22cについて例示した機能と同様の機能を、ロックボタンID24lに備える。
 原点位置ボタンID24mは、ロボット100に原点位置に戻ることを指令するためのボタンである。操作端末400は、ロボット操作画面ID22の原点位置ボタンID22fについて例示した機能と同様の機能を、原点位置ボタンID24mに備える。
 <操作端末によるロボット等の教示動作のための操作>
 操作端末400は、教示画面タブID0c3上への所定の入力を受け付けると、提示装置420の画面を、例えば図12に示すような教示操作画面ID3の1つに移行する。図12は、操作端末400に表示される教示操作画面ID3のうちの教示対象選択画面の一例を示す。例えば、操作端末400とロボットとが未接続である場合、操作端末400は、教示画面タブID0c3への入力を受け付けないように構成されてもよく、未接続であることを示すメッセージ等を表示するように構成されてもよい。本例では、接続ロボット欄ID0aに示されるように、操作端末400は、名称が「robot_1」である実機のロボット100と接続されている。操作端末400は、教示操作画面ID3の表示中、教示画面タブID0c3上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、ホーム画面ID0に移行してもよい。
 操作端末400は、教示対象選択画面ID31上に、教示対象を示す選択ボタンID31a1及びID31a2を示す。限定されないが、本例では、選択ボタンID31a1は、ロボット本体110の教示を選択するためのボタンであり、選択ボタンID31a2は、移動装置120の教示を選択するためのボタンである。教示対象は、実機のロボット100のロボット本体110及び移動装置120であってもよく、仮想ロボットのロボット本体及び移動装置であってもよい。
 操作端末400は、選択ボタンID31a1又はID31a2上へのタップ等の所定の入力を受け付けると、ロボット本体110又は移動装置120の教示の実行を要求する指令をロボットコントローラ200に送信する。操作端末400は、ロボットコントローラ200からロボット本体110の教示の承認の応答を受信すると、提示装置420の画面を、例えば図13に示すようなロボット教示画面ID32に移行する。操作端末400は、ロボットコントローラ200から移動装置120の教示の承認の応答を受信すると、提示装置420の画面を、例えば図14に示すような移動装置教示画面ID33に移行する。図13は、操作端末400に表示されるロボット教示画面の一例を示し、図14は、操作端末400に表示される移動装置教示画面の一例を示す。
 操作端末400は、任意のタイミングで教示対象選択画面ID31への移行を受け付け実行するように構成されてもよい。例えば、ロボット100が教示済みの動作を再生中、操作端末400は、教示対象選択画面ID31へ移行してもよい。例えば、操作端末400は、ロボット100が一時停止又は停止している状態で教示対象選択画面ID31へ移行するように構成されてもよい。又は、操作端末400は、ロボット100の状態に関係なく教示対象選択画面ID31へ移行するように構成されてもよく、移行後、ロボット100が一時停止又は停止している状態でロボット教示画面ID32及び移動装置教示画面ID33に移行するように構成されてもよい。
 操作端末400は、ロボット教示画面ID32への移行に伴って、教示モードに移行するが、教示モードへの移行のタイミングは、教示操作画面ID3への移行後のいかなるタイミングであってもよい。操作端末400は、教示モードへの移行時又は移行後、教示モードでロボット本体110を制御する指令をロボットコントローラ200に送信してもよい。
 限定されないが、本実施の形態では、図13に示すように、操作端末400は、ロボット教示画面ID32上に、呼び出し元ボタンID32aと、モータ電源ボタンID32bと、一時停止ボタンID32cと、アーム速度変更バーID32dと、アーム方向変更バーID32eと、エンドエフェクタ速度変更バーID32fと、設定ボタンID32gと、原点位置設定ボタンID32hと、ロックボタンID32iとを表示する。上記の要素の全てが、入力要素である。
 限定されないが、本実施の形態では、操作端末400は、ロボット本体110のロボットアーム111及びエンドエフェクタ112のマニュアル操作を除く教示のための操作及び設定を受け付け、当該操作及び設定に従った指令をロボットコントローラ200に送信する。操作端末400は、ロボット本体110及びロボットコントローラ200に比較的単純な動作の教示を可能であってもよく、教示装置300を用いた教示のような複雑な動作の教示を可能でなくてもよい。比較的単純な動作の教示の例は、ロボット本体110の簡易な動作の教示等を含み得る。
 呼び出し元ボタンID32aは、提示装置420の画面を教示対象選択画面ID31へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 モータ電源ボタンID32bは、ロボット本体110のサーボモータ113の電源がON状態であるかOFF状態であるかを示す。操作端末400は、モータ電源ボタンID32bへの入力を受け付けてもよい。操作端末400は、モータ電源ボタンID32bに、移動装置操作画面ID24のモータ電源ボタンID24eについて例示した機能と同様の機能を備え、モータ電源ボタンID32bへの入力に従って、サーボモータ113の電源をON状態又はOFF状態にしてもよい。
 一時停止ボタンID32cは、ロボット本体110の動作を一時的に停止するためのボタンである。操作端末400は、一時停止ボタンID32cに、移動装置操作画面ID24の一時停止ボタンID24dについて例示した機能と同様の機能を備える。
 アーム速度変更バーID32dは、ロボットアーム111の動作速度を設定及び表示するためのバーである。操作端末400は、アーム速度変更バーID32dに、移動装置操作画面ID24のモニタ速度変更バーID24iについて例示した機能と同様の機能を備える。
 アーム方向変更バーID32eは、ロボットアーム111の向きを設定及び表示するためのバーである。例えば、アーム方向変更バーID32eは、ロボットアーム111の水平方向の向きである方位を設定及び表示するためのバーであってもよい。アーム方向変更バーID32eは、環状のバーに沿ってスライド可能なポイントを含む。操作端末400は、アーム方向変更バーID32eのポイント上への入力を受け付け、当該ポイントがバーに沿ってスライドされることによって、上記方位を変更する。例えば、上記入力及びスライドは、タップした状態でのスライドであってもよい。操作端末400は、バー上でのポイントの位置に基づき、方位を決定し、決定した方位を表示する。
 エンドエフェクタ速度変更バーID32fは、エンドエフェクタ112の動作速度を設定及び表示するためのバーである。操作端末400は、エンドエフェクタ速度変更バーID32fに、移動装置操作画面ID24のモニタ速度変更バーID24iについて例示した機能と同様の機能を備える。
 設定ボタンID32gは、ロボット本体110の手動操作を設定するための手動操作設定画面ID321を開くボタンである。操作端末400は、設定ボタンID32g上へのタップ等の所定の入力を受け付けると、提示装置420の画面を手動操作設定画面ID321に移行する。
 原点位置設定ボタンID32hは、ロボット本体110の原点位置を設定するためのボタンである。操作端末400は、原点位置設定ボタンID32h上へのタップ等の所定の入力を受け付けると、当該入力を受け付けたタイミングでのロボット本体110の位置及び姿勢を含む原点位置を決定し、教示データとして記憶する。例えば、ロボット本体110の位置及び姿勢は、エンドエフェクタ112の位置及び姿勢であってもよい。上記タイミングは、ロボット本体110の動作中のタイミングであってもよく、一時停止中のタイミングであってもよい。
 ロックボタンID32iは、ロボット教示画面ID32の入力要素への入力を受け付けないロック状態と、当該入力要素への入力を受け付けるロック解除状態とを示すボタンである。操作端末400は、ロボット操作画面ID22のロックボタンID22cについて例示した機能と同様の機能を、ロックボタンID32iに備える。ロック状態の操作端末400は、ロックボタンID32iを除く全ての入力要素への入力を受け付けなくてもよく、一部の入力要素への入力を受け付けなくてもよい。例えば、一部の入力要素は、モータ電源ボタンID32b、一時停止ボタンID32c、アーム速度変更バーID32d、アーム方向変更バーID32e及びエンドエフェクタ速度変更バーID32f等のロボット本体110の動作の実行に関連する入力要素であってもよい。
 操作端末400は、移動装置教示画面ID33への移行に伴って、教示モードに移行するが、教示モードへの移行のタイミングは、教示操作画面ID3への移行後のいかなるタイミングであってもよい。操作端末400は、教示モードへの移行時又は移行後、教示モードで移動装置120を制御する指令をロボットコントローラ200に送信してもよい。
 限定されないが、本実施の形態では、図14に示すように、操作端末400は、移動装置教示画面ID33上に、呼び出し元ボタンID33aと、モータ電源ボタンID33bと、走行速度変更バーID33cと、マニュアル操作キーID33dと、モニタボタンID33eと、移動幅ボタンID33fと、設定ボタンID33gと、原点位置設定ボタンID33hと、ロックボタンID33iとを表示する。上記の要素の全てが、入力要素である。
 限定されないが、本実施の形態では、操作端末400は、移動装置120のマニュアル操作を含む教示のための操作及び設定を受け付け、当該操作及び設定に従った指令をロボットコントローラ200に送信する。
 呼び出し元ボタンID33aは、提示装置420の画面を教示対象選択画面ID31へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 モータ電源ボタンID33bは、移動装置120のサーボモータ122の電源がON状態であるかOFF状態であるかを示す。操作端末400は、モータ電源ボタンID33bへの入力を受け付けてもよい。操作端末400は、モータ電源ボタンID33bに、移動装置操作画面ID24のモータ電源ボタンID24eについて例示した機能と同様の機能を備え、モータ電源ボタンID33bへの入力に従って、サーボモータ122の電源をON状態又はOFF状態にしてもよい。
 走行速度変更バーID33cは、移動装置120の動作速度を設定及び表示するためのバーである。操作端末400は、走行速度変更バーID33cに、移動装置操作画面ID24のモニタ速度変更バーID24iについて例示した機能と同様の機能を備える。
 マニュアル操作キーID33dは、移動装置120にマニュアル操作に従った手動動作をさせるための指令等が入力されるキーである。限定されないが、本実施の形態では、マニュアル操作キーID33dは、「前進」、「後退」、「左旋回」及び「右旋回」を指令する4つのキーを含む。これらのキーは、移動装置教示画面ID33において、移動装置120のモデルの周囲に配置される。例えば、操作端末400は、4つのキーの1つ以上への入力を同時に受け付けることができてもよい。操作端末400は、1つ以上のキーへの入力を受け付けている間、当該1つ以上のキーに対応する動作を実行させる操作指令を、ロボットコントローラ200に送信し続ける。これにより、移動装置120は、当該動作を継続する。例えば、操作端末400は、所定時間当たりのタップ回数、所定時間当たりのスワイプ回数、スワイプ方向及びスワイプ距離等のキーへの特定の入力に応じて、当該キーに対応する動作の速度を変化させる操作指令をロボットコントローラ200に送信してもよい。
 モニタボタンID33eは、移動装置120の状態を示す移動装置モニタ画面ID331を開くボタンである。操作端末400は、モニタボタンID33e上へのタップ等の所定の入力を受け付けると、提示装置420の画面を移動装置モニタ画面ID331に移行する。
 移動幅ボタンID33fは、マニュアル操作キーID33dへの入力量に対する移動装置120の移動量を設定するための移動幅設定画面ID332を開くボタンである。操作端末400は、移動幅ボタンID33f上へのタップ等の所定の入力を受け付けると、提示装置420の画面を移動幅設定画面ID332に移行する。
 設定ボタンID33gは、移動装置120の手動操作を設定するための手動操作設定画面ID333を開くボタンである。操作端末400は、設定ボタンID33g上へのタップ等の所定の入力を受け付けると、提示装置420の画面を手動操作設定画面ID333に移行する。
 原点位置設定ボタンID33hは、移動装置120の原点位置を設定するためのボタンである。操作端末400は、原点位置設定ボタンID33h上へのタップ等の所定の入力を受け付けると、当該入力を受け付けたタイミングでの移動装置120の位置及び姿勢を含む原点位置を決定し、教示データとして記憶する。上記タイミングは、移動装置120の動作中のタイミングであってもよく、一時停止中のタイミングであってもよい。
 ロックボタンID33iは、移動装置教示画面ID33の入力要素への入力を受け付けないロック状態と、当該入力要素への入力を受け付けるロック解除状態とを示すボタンである。操作端末400は、ロボット操作画面ID22のロックボタンID22cについて例示した機能と同様の機能を、ロックボタンID33iに備える。ロック状態の操作端末400は、ロックボタンID33iを除く全ての入力要素への入力を受け付けなくてもよく、一部の入力要素への入力を受け付けなくてもよい。一部の入力要素の例は、モータ電源ボタンID33b、走行速度変更バーID33c及びマニュアル操作キーID33d等の移動装置120の動作の実行に関連する入力要素を含み得る。
 図15は、操作端末400に表示されるロボット本体110の手動操作設定画面の一例を示す。限定されないが、本実施の形態では、図15に示すように、操作端末400は、手動操作設定画面ID321上に、呼び出し元ボタンID321aと、設定項目欄ID321bと、適用ボタンID321cとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID321aは、提示装置420の画面をロボット教示画面ID32へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 設定項目欄ID321bは、ロボット本体110の手動操作に関連する設定項目を表示する。操作端末400は、手動操作設定画面ID321への入力により、設定項目欄ID321b上への設定項目の追加、削除及び変更等を受け付ける。
 適用ボタンID321cは、設定項目欄ID321bに表示される設定を、ロボット本体110の手動操作に適用するためのボタンである。操作端末400は、適用ボタンID321c上へのタップ等の所定の入力を受け付けると、設定項目欄ID321bに表示される設定を、ロボット本体110の手動操作用の設定に決定し、決定後の設定を記憶してもよくロボットコントローラ200に送信してもよい。
 図16は、操作端末400に表示される移動装置120の移動装置モニタ画面の一例を示す。限定されないが、本実施の形態では、図16に示すように、操作端末400は、移動装置モニタ画面ID331上に、呼び出し元ボタンID331aと、状態欄331bとを表示する。呼び出し元ボタンID331aが、入力要素である。
 呼び出し元ボタンID331aは、提示装置420の画面を移動装置教示画面ID33へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 状態欄331bは、移動装置120の状態に関連する項目を表示する。例えば、状態欄331bは、移動装置120の動作の状態に関連する項目と、手動操作のために設定されている項目とを表示する。例えば、状態欄331bは、移動装置120のマニュアル操作キーID33dに対応する動作方向の速度、経路である磁性体のラインからの移動装置120の位置ずれ量、及び移動装置120に設定されている移動幅等を含んでもよい。
 操作端末400は、状態欄331bに、移動装置120の速度の指令値又は目標値と、速度の現在値とを示してもよい。操作端末400は、マニュアル操作キーID33dを介して受け付ける入力内容に基づき速度の指令値を決定し、ロボットコントローラ200から受け取るサーボモータ122の回転量に基づき速度の現在値を演算してもよい。操作端末400は、教示データから速度の目標値を取得してもよい。
 操作端末400は、状態欄331bに、位置検出装置123の検出結果を表示するように構成されてもよい。操作端末400は、ロボットコントローラ200から受け取るロボット100のロボット情報に基づき、移動装置120と所定の軌道との差異を検出してもよい。所定の軌道の例は、教示データに含まれる目標の軌道、及び磁性体のライン等を含み得る。
 図17は、操作端末400に表示される移動装置120の移動幅設定画面の一例を示す。限定されないが、本実施の形態では、図17に示すように、操作端末400は、移動幅設定画面ID332上に、呼び出し元ボタンID332aと、設定項目欄ID332bと、適用ボタンID332cとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID332aは、提示装置420の画面を移動装置教示画面ID33へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 設定項目欄ID332bは、移動装置120の手動操作に関連する移動幅の設定項目を表示する。移動幅は、インチング幅とも呼ばれる。移動幅は、マニュアル操作キーID33dへの1回のタップ等の1回の入力あたり移動装置120の移動量、マニュアル操作キーID33dへの継続した入力の所定時間あたりの移動装置120の移動量、又は、これらの両方を示してもよい。本例では、設定項目欄ID332bの移動幅は、前進及び後進の移動距離と、左旋回及び右旋回の移動角度とを含む。操作端末400は、移動幅設定画面ID332への入力により、設定項目欄ID332bの移動幅の数値への変更を受け付ける。
 適用ボタンID332cは、設定項目欄ID332bに表示される移動幅を、移動装置120の手動操作に適用するためのボタンである。操作端末400は、適用ボタンID332c上へのタップ等の所定の入力を受け付けると、設定項目欄ID332bに表示される移動幅を、移動装置120の手動操作用の移動幅に決定し、決定後の移動幅を記憶してもよくロボットコントローラ200に送信してもよい。例えば、手動操作の際、操作端末400は、マニュアル操作キーID33dへの入力内容と、移動幅とを用いて操作指令を生成し、ロボットコントローラ200に送信してもよい。
 図18は、操作端末400に表示される移動装置120の手動操作設定画面の一例を示す。限定されないが、本実施の形態では、図18に示すように、操作端末400は、手動操作設定画面ID333上に、呼び出し元ボタンID333aと、設定項目欄ID333bと、適用ボタンID333cとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID333aは、提示装置420の画面を移動装置教示画面ID33へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 設定項目欄ID333bは、移動装置120の手動操作に関連する設定項目を表示する。操作端末400は、手動操作設定画面ID333への入力により、設定項目欄ID333b上への設定項目の追加、削除及び変更等を受け付ける。限定されないが、本実施の形態では、設定項目欄ID333bは、移動装置120が追従する磁性体のラインの番号と、移動装置120の動作時のメロディ等の効果音と、磁性体のライン以外を用いる移動装置120の位置監視の有無と、移動装置120の動作速度とを表示する。位置監視は、磁性体のラインの検出以外の位置検出装置123の機能を用いる位置監視であってもよく、外部装置を用いる位置監視であってもよい。
 適用ボタンID333cは、設定項目欄ID333bに表示される設定を、移動装置120の手動操作に適用するためのボタンである。操作端末400は、適用ボタンID333c上へのタップ等の所定の入力を受け付けると、設定項目欄ID333bに表示される設定を、移動装置120の手動操作用の設定に決定し、決定後の設定を記憶してもよくロボットコントローラ200に送信してもよい。
 <操作端末の設定のための操作>
 操作端末400は、設定タブID0c4上への所定の入力を受け付けると、提示装置420の画面を、例えば図19に示すような設定画面ID4の1つに移行する。図19は、操作端末400に表示される設定画面ID4のうちの設定選択画面の一例を示す。操作端末400は、設定画面ID4の表示中、設定タブID0c4上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、ホーム画面ID0に移行してもよい。
 限定されないが、本実施の形態では、操作端末400は、設定選択画面ID41上に、設定対象を示す選択ボタンID41a1からID41a3を表示する。選択ボタンID41a1は、操作端末400のロボット操作アプリケーションの設定を選択するためのボタンである。選択ボタンID41a2は、ロボットの設定を選択するためのボタンである。当該ロボットは、操作端末400に登録されているロボットであってもよく、操作端末400と接続されているロボットであってもよい。当該ロボットは、実機のロボット100であってもよく、仮想ロボットであってもよい。選択ボタンID41a3は、操作端末400の管理を選択するためのボタンである。
 操作端末400は、選択ボタンID41a1上へのタップ等の所定の入力を受け付けると、提示装置420の画面をアプリケーション設定画面ID42に移行し、選択ボタンID41a2上への所定の入力を受け付けると、提示装置420の画面をロボット選択画面ID43に移行し、選択ボタンID41a3上への所定の入力を受け付けると、提示装置420の画面を管理画面ID44に移行する。
 具体的には、操作端末400は、選択ボタンID41a1上への所定の入力を受け付けると、例えば図20に示すようなアプリケーション設定画面ID42を表示する。図20は、操作端末400に表示される設定画面ID4のうちのアプリケーション設定画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、アプリケーション設定画面ID42上に、呼び出し元ボタンID42aと、設定欄ID42bとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID42aは、提示装置420の画面を設定選択画面ID41へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 設定欄ID42bは、ロボット操作アプリケーションの様々な設定項目ID42b1と、設定項目ID42b1それぞれの設定内容ID42b2とを含む。操作端末400は、アプリケーション設定画面ID42への入力により、設定内容ID42b2の追加、削除及び変更等を受け付ける。例えば、図20において、設定項目42baは、送信先ポート、画面をロック状態にするまでの時間であるロック時間、ログファイルの出力先、バックアップ手段、通信診断の有無、アプリケーションのライセンス状態、パスワード、アプリケーションのバージョン等を含む。
 例えば、設定項目ID42b1は、言語、作業フォルダパス、提示装置420での表示更新時間、ウォッチドッグエラー時間、及びウォッチドッグトライ回数等の設定のための項目を含んでもよい。ウォッチドッグは、操作端末400とロボットコントローラ200との間の双方向のウォッチドッグであってもよく、例えば、操作端末400からロボットコントローラ200へのウォッチドッグであってもよい。
 ウォッチドッグエラー時間は、ウォッチドッグのための要求のエラーの判定基準であり、例えば、操作端末400からロボットコントローラ200へのウォッチドッグのための要求の送信後から継続するロボットコントローラ200の無応答の時間であってもよい。ウォッチドッグトライ回数は、ウォッチドッグの失敗の判定基準であり、例えば、ウォッチドッグのための要求のエラーが発生した場合に、ロボットコントローラ200からの応答があるまで繰り返されるウォッチドッグのための要求回数であってもよい。ウォッチドッグトライ回数を超える要求の送信に対してロボットコントローラ200から無応答である場合、ウォッチドッグの失敗が決定される。
 図19を参照すると、操作端末400は、選択ボタンID41a2上への所定の入力を受け付けると、例えば図21に示すようなロボット選択画面ID43を表示する。図21は、操作端末400に表示される設定画面ID4のうちのロボット選択画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、ロボット選択画面ID43上に、呼び出し元ボタンID43aと、選択ボタンID43b及び43cとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID43aは、提示装置420の画面を設定選択画面ID41へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 選択ボタンID43bは、ロボット本体の設定を選択するためのボタンであり、選択ボタンID43cは、移動装置の設定を選択するためのボタンである。操作端末400は、選択ボタンID43b上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、ロボット本体設定画面ID431に移行する。操作端末400は、選択ボタンID43c上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、移動装置設定画面ID432に移行する。
 本実施の形態では、操作端末400は、操作端末400と接続されている実機のロボット100のロボット本体110のための選択ボタンID43bと、当該ロボット100の移動装置120のための選択ボタンID43cとを表示する。例えば、操作端末400が操作端末400に登録されているロボットの設定を可能である場合、操作端末400は、登録されているロボットから設定対象のロボットを選択するための画面、例えば、接続設定画面ID1に類似する画面を表示するように構成されてもよい。
 図22は、操作端末400に表示される設定画面ID4のうちのロボット本体設定画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、ロボット本体設定画面ID431上に、呼び出し元ボタンID431aと、バージョンボタンID431bと、エラーログボタンID431cと、再生動作設定ボタンID431dとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID431aは、提示装置420の画面をロボット選択画面ID43へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 バージョンボタンID431bは、ロボット本体110のバージョン情報を表示するためのボタンである。操作端末400は、バージョンボタンID431b上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、ロボット本体110のバージョン情報を表示する画面に移行する。当該画面では、ロボット本体110の制御のためのソフトウェア、サーボモータの数量及び型式等の情報が表示されてもよい。さらに、操作端末400のソフトウェア、モデル等の情報が表示されてもよい。
 エラーログボタンID431cは、エラーログを取得するためのボタンである。操作端末400は、エラーログボタンID431c上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、例えば図23に示すようなエラーログを取得するためのエラーログ画面ID4311に移行する。図23は、操作端末400に表示される設定画面ID4のうちのエラーログ画面の一例を示す。操作端末400は、エラーログ画面ID4311上への入力により、ロボットシステム1のエラーと、ロボット操作アプリケーションのエラーとの2系統のエラーのログの選択的な取得を可能にする。操作端末400は、2系統のエラーそれぞれについて、エラーコードの入力を受け付け、当該エラーコードに対応するエラーログの探索を可能にする。操作端末400は、探索されたエラーログの内容を表示する。操作端末400は、エラーログ画面ID4311上に呼び出し元ボタンID4311aを表示する。呼び出し元ボタンID4311aは、提示装置420の画面をロボット本体設定画面ID431へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 図22に戻り、再生動作設定ボタンID431dは、ロボット本体110の再生動作を設定するためのボタンである。操作端末400は、再生動作設定ボタンID431d上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、例えば図24に示すような再生動作設定画面ID4312に移行する。図24は、操作端末400に表示される設定画面ID4のうちのロボット本体110の再生動作設定画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、再生動作設定画面ID4312上に、呼び出し元ボタンID4312aと、設定欄ID4312bとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID4312aは、提示装置420の画面をロボット本体設定画面ID431へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。設定欄ID4312bは、ロボット本体110の再生動作に関する様々な設定項目ID4312b1と、設定項目ID4312b1それぞれの設定内容ID4312b2とを含む。操作端末400は、再生動作設定画面ID4312への入力により、設定内容ID4312b2の追加、削除及び変更等を受け付ける。
 図25は、操作端末400に表示される設定画面ID4のうちの移動装置設定画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、移動装置設定画面ID432上に、呼び出し元ボタンID432aと、バージョンボタンID432bと、エラーログボタンID432cと、再生動作設定ボタンID432dとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID432aは、提示装置420の画面をロボット選択画面ID43へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 バージョンボタンID432bは、移動装置120のバージョン情報を表示するためのボタンである。操作端末400は、バージョンボタンID432b上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、移動装置120のバージョン情報を表示する画面に移行する。当該画面では、移動装置120の制御のためのソフトウェア、サーボモータの数量及び型式等の情報が表示されてもよい。さらに、操作端末400のソフトウェア、モデル等の情報が表示されてもよい。
 エラーログボタンID432cは、エラーログを取得するためのボタンであり、ロボット本体設定画面ID431のエラーログボタンID431cと同様の機能を有する。操作端末400は、エラーログボタンID432c上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、例えば図23に示すエラーログ画面ID4311と同様の画面に移行する。
 再生動作設定ボタンID432dは、移動装置120の再生動作を設定するためのボタンである。操作端末400は、再生動作設定ボタンID432d上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、例えば図26に示すような再生動作設定画面ID4322に移行する。図26は、操作端末400に表示される設定画面ID4のうちの移動装置120の再生動作設定画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、再生動作設定画面ID4322上に、呼び出し元ボタンID4322aと、設定欄ID4322bとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID4322aは、提示装置420の画面を移動装置設定画面ID432へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。設定欄ID4322bは、移動装置120の再生動作に関する様々な設定項目ID4322b1と、設定項目ID4322b1それぞれの設定内容ID4322b2とを含む。操作端末400は、再生動作設定画面ID4322への入力により、設定内容ID4322b2の追加、削除及び変更等を受け付ける。
 図19を参照すると、操作端末400は、選択ボタンID41a3上への所定の入力を受け付けると、例えば図27に示すような管理画面ID44を表示する。図27は、操作端末400に表示される設定画面ID4のうちの管理画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、管理画面ID44上に、呼び出し元ボタンID44aと、選択ボタンID44b及び44cとを表示する。上記の要素の全てが、入力要素である。
 呼び出し元ボタンID44aは、提示装置420の画面を設定選択画面ID41へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 選択ボタンID44bは、操作端末400のデータ管理を選択するためのボタンであり、選択ボタンID43cは、操作端末400の信号の入出力の管理を選択するためのボタンである。操作端末400は、選択ボタンID44b上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、データ管理画面ID441に移行する。操作端末400は、選択ボタンID44c上へのタップ等の所定の入力を受け付けると、提示装置420の画面を、信号モニタ画面ID442に移行する。
 図28及び図29は、操作端末400に表示される設定画面ID4のうちのデータ管理画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、データ管理画面ID441上に、呼び出し元ボタンID441aと、デバイス欄ID441bと、切替ボタンID441cとを表示する。呼び出し元ボタンID441a及び切替ボタンID441cは、入力要素である。
 呼び出し元ボタンID441aは、提示装置420の画面を管理画面ID44へ戻すためのボタンであり、既出の呼び出し元ボタンと同様の機能を備える。
 デバイス欄ID441bは、操作端末400がデータを出力する対象を示す出力欄ID441baと、操作端末400がデータの入力を受け付ける対象を示す入力欄ID441bbとを含む。図28に示すデバイス欄ID441bでは、出力欄ID441ba及び入力欄ID441bbの対象は、ロボットコントローラ200である。図29に示すデバイス欄ID441bでは、出力欄ID441ba及び入力欄ID441bbの対象は、操作端末400の作業フォルダ、つまり記憶装置である。操作端末400のデータの入出力対象は、上記機器に限定されず、いかなる機器であってもよい。
 操作端末400は、出力欄ID441ba上へのタップ等の所定の入力を受け付けると、作業データ等を出力対象に出力する。操作端末400は、入力欄ID441bb上へのタップ等の所定の入力を受け付けると、作業データ等を要求対象に要求する。操作端末400は、要求対象から作業データ等を取得すると操作端末400に記憶してもよい。作業データの例は、作業中に操作端末400によって取得及び生成されたデータ、作業中に要求対象によって取得及び生成されたデータ、並びに、教示データ等を含み得る。
 切替ボタンID441cは、デバイス欄ID441bの出力欄ID441ba及び入力欄ID441bbに示される対象を切り替えるためのボタンである。操作端末400は、切替ボタンID441c上へのタップ等の所定の入力を受け付けると、出力欄ID441ba及び入力欄ID441bbに示される操作端末400と対象との組み合わせを変更する。組み合わせは予め設定され、操作端末400に記憶されてもいてもよい。
 図30は、操作端末400に表示される設定画面ID4のうちの信号モニタ画面の一例を示す。限定されないが、本実施の形態では、操作端末400は、信号モニタ画面ID442上に、呼び出し元ボタンID442aと、信号欄ID442bとを表示する。呼び出し元ボタンID442aは、入力要素である。
 信号欄ID442bは、操作端末400からロボットコントローラ200への出力信号の状態を示す信号欄ID442baと、ロボットコントローラ200から操作端末400への入力信号の状態を示す信号欄ID442bbと、操作端末400の内部信号の状態を示す信号欄ID442bcとを含む。操作端末400のプロセッサPは、信号モニタ画面ID442の表示中、各信号の状態を要求するコマンドを出力し、当該状態を取得する。
 (その他の実施の形態)
 以上、本開示の例示的な実施の形態について説明したが、本開示は、上記例示的な実施の形態に限定されない。すなわち、本開示の範囲内で種々の変形及び改良が可能である。例えば、各種変形を例示的な実施の形態に施したもの、及び、異なる例示的な実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
 例えば、実施の形態において、操作端末400は、1つのロボットコントローラ200と接続されるように構成されるが、これに限定されない。操作端末400は、2つ以上のロボットコントローラ200と同時に接続されてもよい。操作端末400は、2つ以上のロボットコントローラ200の全てに対して、指令、情報及びデータ等の送受信を並行して行うように構成されてもよい。操作端末400は、2つ以上のロボットコントローラ200のうちの1つ以上のロボットコントローラ200を選択し、当該1つ以上のロボットコントローラ200に対して、指令、情報及びデータ等の送受信を並行して行うように構成されてもよい。操作端末400は、2つ以上のロボットコントローラ200のうちの1つのロボットコントローラ200を選択し、当該1つのロボットコントローラ200に対して、指令、情報及びデータ等の送受信を行うように構成されてもよい。
 本開示の技術の各態様例は、以下のように挙げられる。本開示の一態様に係る操作端末は、移動可能なロボットを操作する操作端末であって、前記ロボットが備える移動装置に動作させる操作である移動操作の入力を受け付けることと、受け付けた前記移動操作に従った動作を前記移動装置に実行させる指令を、前記ロボットの動作を制御するコントローラに出力することとを実行する。
 上記態様によると、操作端末は、ロボットの移動装置の操作を可能である。ロボットの移動装置の操作は、ロボットの特定動作である。ロボットの移動装置のマニュアル操作は、ロボットアーム等のロボット本体のマニュアル操作よりも簡易である。例えば、移動装置が、支持面上を走行する走行装置の場合、移動装置のマニュアル操作は、さらに簡易であり得る。このような操作端末には、タブレット等のスマートデバイスの利用も可能であり、スマートデバイスは、操作をさらに簡易にすることができる。移動装置のマニュアル操作を行う操作者は、ロボット本体の教示操作のように特別な教育を受ける必要がない場合がある。よって、操作端末は、様々な操作者によるロボットの特定動作の操作を可能にする。
 本開示の前記一態様に係る操作端末は、前記ロボットに動作させる操作の入力を受け付けないロック状態と、前記ロボットに動作させる入力を受け付けるロック解除状態とに選択的に移行し、前記操作端末は、前記ロック状態においてロック解除操作の入力を受け付けると、前記ロック解除状態に移行してもよい。上記態様によると、操作端末は、操作者の意図しない入力を受け付けることを低減できる。よって、操作端末は、ロボットの誤動作を低減できる。
 本開示の前記一態様に係る操作端末は、前記ロック解除状態において操作の入力を受け付けていない状態が所定の時間経過すると、前記ロック状態に移行してもよい。上記態様によると、操作端末は、入力を受けていない状態が継続する場合、周囲に存在する物体等の周囲環境と接触し、周囲環境から不要な入力を受けることを低減できる。よって、操作端末は、ロボットの誤動作を低減できる。
 本開示の前記一態様に係る操作端末は、ディスプレイを備え、前記操作端末は、前記ロボットの状態を示す情報であるロボット情報の要求を前記コントローラに出力することと、前記コントローラから前記ロボット情報を受け取ると、前記ロボット情報を前記ディスプレイに表示することとを実行してもよい。
 上記態様によると、操作端末は、コントローラにロボット情報を要求し、コントローラから取得したロボット情報を操作者に視覚的に示すことができる。これにより、操作者にとって、操作端末を介した移動装置の操作が容易且つ確実になり得る。
 本開示の前記一態様に係る操作端末は、前記ロボットが予め教示された動作を実行する場合に、前記移動操作の入力を受け付けてもよい。
 上記態様によると、ロボットが教示された動作を自律的に実行しているとき、操作端末は、移動装置の操作が可能である。例えば、周囲環境との接触等の外乱により、ロボットの位置が、教示された動作に従った位置から外れてしまった場合、操作者は、操作端末を介して移動装置を操作して、ロボットの位置を修正することができる。操作端末は、様々な操作者に対して、上記のような修正のための操作を可能にする。
 本開示の前記一態様に係る操作端末は、前記移動装置に所定の動作を教示する教示モードで動作する指令を前記コントローラに出力することと、前記教示モードで前記移動操作の入力を受け付けることと、受け付けた前記移動操作に従った動作を前記移動装置に実行させる指令を前記コントローラに出力することとを実行してもよい。
 上記態様によると、操作端末は、移動装置の教示モードの実行と、教示モードでの移動装置の操作とを可能にする。よって、操作端末を用いた移動装置の動作の教示が可能である。
 本開示の前記一態様に係る操作端末は、前記移動装置を緊急停止する緊急停止指令の入力を受け付けることと、受け付けた前記緊急停止指令に従った動作の停止を前記移動装置に実行させる指令を前記コントローラに出力することとを実行してもよい。上記態様によると、操作端末を用いた移動装置の緊急停止が可能である。
 本開示の前記一態様に係る操作端末は、1つの以上の前記コントローラに、前記操作端末との操作可能な接続の可否の要求を出力することと、前記コントローラから前記操作可能な接続の可否の要求への応答を受け取ると、前記操作端末によって操作可能である前記コントローラに関する情報を提示することと、操作対象の前記コントローラを選択する入力を受け付けることと、操作対象の前記コントローラに、前記操作端末との操作可能な接続の要求を出力することとを実行してもよい。
 上記態様によると、操作端末は、様々なコントローラの中から選択されたコントローラと接続することができる。接続の過程において、操作端末は、接続可能なコントローラの探索と、操作者への探索結果の提示と、操作者によって探索結果から選択されたコントローラとの接続とを順次実行することができる。
 本開示の前記一態様に係る操作端末は、前記コントローラに、前記操作端末との操作可能な接続の要求を出力することと、前記コントローラと前記操作端末との前記操作可能な接続の確立を、前記ロボットを用いて明示する要求を、前記コントローラに出力することとを実行してもよい。上記態様によると、操作端末は、操作端末とコントローラとの接続の確立を、ロボットを用いて、例えば、視覚などにより明示することができる。
 本開示の一態様に係るロボットシステムは、本開示の前記一態様に係る1つ以上の操作端末と、1つ以上の前記ロボットと、前記1つ以上のロボットの動作を制御する1つ以上の前記コントローラとを含み、前記操作端末は、前記1つ以上のコントローラのうちから選択される前記コントローラと操作可能に接続される。上記態様によると、本開示の一態様に係る操作端末と同様の効果が得られる。操作端末は、1つ以上のコントローラのうちから選択されるコントローラとの接続が可能である。
 本開示の前記一態様に係るロボットシステムは、前記1つ以上のコントローラと通信可能に接続される1つ以上の教示装置をさらに含み、前記コントローラは、前記操作端末及び前記教示装置のうちの1つと選択的に操作可能に接続してもよい。上記態様によると、コントローラが、教示装置を用いたロボットの教示中に、操作端末から受け取る指令に従ってロボットに動作させることが、低減する。よって、ロボットの誤動作が低減する。
 本開示の一態様に係るコンピュータプログラムは、本開示の前記一態様に係る操作端末を動作させるコンピュータプログラムであって、前記移動操作の入力を受け付けることと、受け付けた前記移動操作に従った動作を前記移動装置に実行させる操作指令を生成することと、前記操作指令を前記コントローラに出力することとを前記操作端末に実行させる。上記態様によると、本開示の一態様に係る操作端末と同様の効果が得られる。
 本開示の前記一態様に係るコンピュータプログラムは、アプリケーションプログラムとして前記操作端末に組み込まれるプログラムであってもよい。上記態様によると、操作端末が、専用の装置でなく、例えば、汎用的な装置であっても、コンピュータプログラムの組み込みによって、本開示の機能を実現することができる。
 本開示の別の一態様に係る操作端末は、ロボットを操作する操作端末であって、前記ロボットの動作を制御するコントローラと通信可能に接続され、前記操作端末は、前記ロボットに動作させる操作の入力を受け付けることと、受け付けた前記操作に従った動作を前記ロボットに実行させる指令を前記コントローラに出力することとを実行し、前記操作端末は、前記ロボットの教示装置が受け付けることができる前記ロボットに動作させる操作のうちの一部である、特定操作を受け付ける。
 上記態様によると、操作端末により受け付け可能なロボットの操作は、ロボットに動作させるための教示装置の受け付け可能な操作のうちの一部の特定操作である。特定操作は、教示装置の受け付け可能な操作のうちの簡易な操作であってもよい。このような操作端末には、タブレット等のスマートデバイスの利用も可能であり、スマートデバイスは、特定操作をさらに簡易にすることができる。簡易な操作を行う操作者は、ロボットの教示操作のように特別な教育を受ける必要がない場合がある。よって、操作端末は、様々な操作者によるロボットの特定動作の操作を可能にする。
 本開示の前記別の一態様に係る操作端末において、前記特定操作は、前記ロボットへの教示を行うために前記ロボットに動作させる操作と異なっていてもよい。上記態様によると、特定操作は、教示のための操作と異なるため、操作者の特別な教育を不要にすることでき、さらに、簡易な操作であり得る。よって、操作端末は、様々な操作者によるロボットの特定動作の操作を可能にする。
 本開示の前記別の一態様に係る操作端末において、前記特定操作は、予め教示された動作を前記ロボットに実行させる操作を含んでもよい。上記態様によると、予め教示された動作をロボットに自律的に実行させる操作は、簡易な操作であり得るため、特定操作の簡易化が可能である。
 本開示の前記別の一態様に係る操作端末において、前記特定操作は、前記ロボットに所定の状態である原点位置の状態へ復帰させる指令のための操作を含んでもよい。上記態様によると、ロボットに原点位置の状態へ復帰させる指令のための操作は、簡易な操作であり得るため、特定操作の簡易化が可能である。
 本開示の前記別の一態様に係る操作端末において、前記特定操作は、前記ロボットを緊急停止する指令のための操作を含んでもよい。上記態様によると、ロボットを緊急停止する指令のための操作は、簡易な操作であり得るため、特定操作の簡易化が可能である。
 本開示の前記別の一態様に係る操作端末は、前記特定操作の入力を受け付けないロック状態と、前記特定操作の入力を受け付けるロック解除状態とに選択的に移行し、前記操作端末は、前記ロック状態においてロック解除操作の入力を受け付けると、前記ロック解除状態に移行してもよい。上記態様によると、操作端末は、操作者の意図しない入力を受け付けることを低減できる。よって、操作端末は、ロボットの誤動作を低減できる。
 本開示の前記別の一態様に係る操作端末は、前記ロック解除状態において操作の入力を受け付けていない状態が所定の時間経過すると、前記ロック状態に移行してもよい。上記態様によると、操作端末は、入力を受けていない状態が継続する場合、ロボットが動作して周囲に存在する物体等の周囲環境と接触し、ロボットが周囲環境から不要な入力を受けることを低減できる。よって、操作端末は、ロボットの誤動作を低減できる。
 本開示の前記別の一態様に係る操作端末は、ディスプレイを備え、前記操作端末は、前記ロボットの状態を示す情報であるロボット情報の要求を前記コントローラに出力することと、前記コントローラから前記ロボット情報を受け取ると、前記ロボット情報を前記ディスプレイに表示することとを実行してもよい。
 上記態様によると、操作端末は、コントローラにロボット情報を要求し、コントローラから取得したロボット情報を操作者に視覚的に示すことができる。これにより、操作者にとって、操作端末を介した特定操作が容易且つ確実になり得る。
 本開示の前記別の一態様に係る操作端末は、1つ以上の前記コントローラに、前記操作端末との操作可能な接続の可否の要求を出力することと、前記コントローラからの前記操作可能な接続の可否の要求への応答を受け取ると、前記操作端末によって操作可能である前記コントローラに関する情報を提示することと、操作対象の前記コントローラを選択する入力を受け付けることと、操作対象の前記コントローラに、前記操作端末との操作可能な接続の要求を出力することとを実行してもよい。
 上記態様によると、操作端末は、様々なコントローラの中から選択されたコントローラと接続することができる。接続の過程において、操作端末は、接続可能なコントローラの探索と、操作者への探索結果の提示と、操作者によって探索結果から選択されたコントローラとの接続とを順次実行することができる。
 本開示の前記別の一態様に係る操作端末は、前記コントローラに、前記操作端末との操作可能な接続の要求を出力することと、前記コントローラと前記操作端末との前記操作可能な接続の確立を、前記ロボットを用いて明示する要求を、前記コントローラに出力することとを実行してもよい。上記態様によると、操作端末は、操作端末とコントローラとの接続の確立を、ロボットを用いて、例えば、視覚などにより明示することができる。
 本開示の別の一態様に係るロボットシステムは、本開示の前記別の一態様に係る1つ以上の操作端末と、1つ以上の前記ロボットと、前記1つ以上のロボットの動作を制御する1つ以上の前記コントローラとを含み、前記操作端末は、前記1つ以上のコントローラのうちから選択される前記コントローラと操作可能に接続される。上記態様によると、本開示の別の一態様に係る操作端末と同様の効果が得られる。操作端末は、1つ以上のコントローラのうちから選択されるコントローラとの接続が可能である。
 本開示の前記別の一態様に係るロボットシステムは、前記1つ以上のコントローラと通信可能に接続される1つ以上の前記教示装置をさらに含み、前記コントローラは、前記操作端末及び前記教示装置の一方又は両方と操作可能に接続してもよい。上記態様によると、コントローラが、教示装置を用いたロボットの教示中に、操作端末から受け取る指令に従ってロボットに動作させることが、低減する。よって、ロボットの誤動作が低減する。
 本開示の別の一態様に係るコンピュータプログラムは、本開示の前記別の一態様に係る操作端末を動作させるコンピュータプログラムであって、前記特定操作の入力を受け付けることと、受け付けた前記特定操作に従った動作を前記ロボットに実行させる操作指令を生成することと、前記操作指令を、前記操作端末と通信可能に接続される前記コントローラに出力することとを前記操作端末に実行させる。上記態様によると、本開示の別の一態様に係る操作端末と同様の効果が得られる。
 本開示の前記別の一態様に係るコンピュータプログラムは、アプリケーションプログラムとして前記操作端末に組み込まれるプログラムであってもよい。上記態様によると、操作端末が、専用の装置でなく、例えば、汎用的な装置であっても、コンピュータプログラムの組み込みによって、本開示の機能を実現することができる。
 本明細書で開示する要素の機能は、開示された機能を実行するよう構成又はプログラムされた汎用プロセッサ、専用プロセッサ、集積回路、ASIC、従来の回路、及び/又は、それらの組み合わせ、を含む回路又は処理回路を使用して実行できる。プロセッサは、トランジスタやその他の回路を含むため、処理回路又は回路と見なされる。本開示において、回路、ユニット、又は手段は、列挙された機能を実行するハードウェアであるか、又は、列挙された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されているハードウェアであってもよいし、あるいは、列挙された機能を実行するようにプログラム又は構成されているその他の既知のハードウェアであってもよい。ハードウェアが回路の一種と考えられるプロセッサである場合、回路、手段、又はユニットはハードウェアとソフトウェアの組み合わせであり、ソフトウェアはハードウェア及び/又はプロセッサの構成に使用される。
 本明細書で用いた序数、数量等の数字は、全て本開示の技術を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。構成要素間の接続関係は、本開示の技術を具体的に説明するために例示するものであり、本開示の機能を実現する接続関係はこれに限定されない。
 本開示は、その本質的な特徴の精神から逸脱することなく、様々なかたちで実施され得るように、本開示の範囲は、明細書の記載よりも添付の請求項によって定義されるため、例示的な実施の形態及び変形例は、例示的なものであって限定的なものではない。請求項及びその範囲内にあるすべての変更、又は、請求項及びその範囲の均等物は、請求項によって包含されることが意図されている。

Claims (13)

  1.  移動可能なロボットを操作する操作端末であって、
     前記ロボットが備える移動装置に動作させる操作である移動操作の入力を受け付けることと、
     受け付けた前記移動操作に従った動作を前記移動装置に実行させる指令を、前記ロボットの動作を制御するコントローラに出力することとを実行する
     操作端末。
  2.  前記操作端末は、前記ロボットに動作させる操作の入力を受け付けないロック状態と、前記ロボットに動作させる入力を受け付けるロック解除状態とに選択的に移行し、
     前記操作端末は、前記ロック状態においてロック解除操作の入力を受け付けると、前記ロック解除状態に移行する
     請求項1に記載の操作端末。
  3.  前記操作端末は、前記ロック解除状態において操作の入力を受け付けていない状態が所定の時間経過すると、前記ロック状態に移行する
     請求項2に記載の操作端末。
  4.  前記操作端末は、ディスプレイを備え、
     前記操作端末は、
     前記ロボットの状態を示す情報であるロボット情報の要求を前記コントローラに出力することと、
     前記コントローラから前記ロボット情報を受け取ると、前記ロボット情報を前記ディスプレイに表示することとを実行する
     請求項1から3のいずれか一項に記載の操作端末。
  5.  前記操作端末は、前記ロボットが予め教示された動作を実行する場合に、前記移動操作の入力を受け付ける
     請求項1から4のいずれか一項に記載の操作端末。
  6.  前記操作端末は、
     前記移動装置に所定の動作を教示する教示モードで動作する指令を前記コントローラに出力することと、
     前記教示モードで前記移動操作の入力を受け付けることと、
     受け付けた前記移動操作に従った動作を前記移動装置に実行させる指令を前記コントローラに出力することとを実行する
     請求項1から5のいずれか一項に記載の操作端末。
  7.  前記操作端末は、
     前記移動装置を緊急停止する緊急停止指令の入力を受け付けることと、
     受け付けた前記緊急停止指令に従った動作の停止を前記移動装置に実行させる指令を前記コントローラに出力することとを実行する
     請求項1から6のいずれか一項に記載の操作端末。
  8.  前記操作端末は、
     1つの以上の前記コントローラに、前記操作端末との操作可能な接続の可否の要求を出力することと、
     前記コントローラから前記操作可能な接続の可否の要求への応答を受け取ると、前記操作端末によって操作可能である前記コントローラに関する情報を提示することと、
     操作対象の前記コントローラを選択する入力を受け付けることと、
     操作対象の前記コントローラに、前記操作端末との操作可能な接続の要求を出力することとを実行する
     請求項1から7のいずれか一項に記載の操作端末。
  9.  前記操作端末は、
     前記コントローラに、前記操作端末との操作可能な接続の要求を出力することと、
     前記コントローラと前記操作端末との前記操作可能な接続の確立を、前記ロボットを用いて明示する要求を、前記コントローラに出力することとを実行する
     請求項1から8のいずれか一項に記載の操作端末。
  10.  請求項1から9のいずれか一項に記載の1つ以上の操作端末と、
     1つ以上の前記ロボットと、
     前記1つ以上のロボットの動作を制御する1つ以上の前記コントローラとを含み、
     前記操作端末は、前記1つ以上のコントローラのうちから選択される前記コントローラと操作可能に接続される
     ロボットシステム。
  11.  前記1つ以上のコントローラと通信可能に接続される1つ以上の教示装置をさらに含み、
     前記コントローラは、前記操作端末及び前記教示装置のうちの1つと選択的に操作可能に接続する
     請求項10に記載のロボットシステム。
  12.  請求項1から9のいずれか一項に記載の操作端末を動作させるコンピュータプログラムであって、
     前記移動操作の入力を受け付けることと、
     受け付けた前記移動操作に従った動作を前記移動装置に実行させる操作指令を生成することと、
     前記操作指令を前記コントローラに出力することとを前記操作端末に実行させる
     コンピュータプログラム。
  13.  前記コンピュータプログラムは、アプリケーションプログラムとして前記操作端末に組み込まれるプログラムである
     請求項12に記載のコンピュータプログラム。
PCT/JP2022/032600 2021-08-31 2022-08-30 操作端末、ロボットシステム及びコンピュータプログラム WO2023032984A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280055930.XA CN117794707A (zh) 2021-08-31 2022-08-30 操作终端、机器人系统以及计算机程序
EP22864566.9A EP4397449A1 (en) 2021-08-31 2022-08-30 Operating terminal, robot system, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-141728 2021-08-31
JP2021141728A JP2023035109A (ja) 2021-08-31 2021-08-31 操作端末、ロボットシステム及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2023032984A1 true WO2023032984A1 (ja) 2023-03-09

Family

ID=85411215

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/032600 WO2023032984A1 (ja) 2021-08-31 2022-08-30 操作端末、ロボットシステム及びコンピュータプログラム

Country Status (4)

Country Link
EP (1) EP4397449A1 (ja)
JP (1) JP2023035109A (ja)
CN (1) CN117794707A (ja)
WO (1) WO2023032984A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015016108A1 (ja) * 2013-07-29 2015-02-05 株式会社ダイヘン ロボット制御装置
JP2016068161A (ja) * 2014-09-26 2016-05-09 トヨタ自動車株式会社 ロボット制御方法
JP2019081239A (ja) * 2017-10-31 2019-05-30 川崎重工業株式会社 ロボットシステム
JP6619398B2 (ja) 2017-07-31 2019-12-11 ファナック株式会社 操作端末一体型の機械操作盤及び外付けデバイス
JP2020192621A (ja) * 2019-05-24 2020-12-03 ファナック株式会社 ロボットに教示点を教示するための装置、ロボットシステム、及びロボットの教示方法
JP2021094645A (ja) * 2019-12-17 2021-06-24 株式会社安川電機 生産システム、生産方法、及びプログラム
JP2021115634A (ja) * 2020-01-22 2021-08-10 Dmg森精機株式会社 生産システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015016108A1 (ja) * 2013-07-29 2015-02-05 株式会社ダイヘン ロボット制御装置
JP2016068161A (ja) * 2014-09-26 2016-05-09 トヨタ自動車株式会社 ロボット制御方法
JP6619398B2 (ja) 2017-07-31 2019-12-11 ファナック株式会社 操作端末一体型の機械操作盤及び外付けデバイス
JP2019081239A (ja) * 2017-10-31 2019-05-30 川崎重工業株式会社 ロボットシステム
JP2020192621A (ja) * 2019-05-24 2020-12-03 ファナック株式会社 ロボットに教示点を教示するための装置、ロボットシステム、及びロボットの教示方法
JP2021094645A (ja) * 2019-12-17 2021-06-24 株式会社安川電機 生産システム、生産方法、及びプログラム
JP2021115634A (ja) * 2020-01-22 2021-08-10 Dmg森精機株式会社 生産システム

Also Published As

Publication number Publication date
JP2023035109A (ja) 2023-03-13
CN117794707A (zh) 2024-03-29
EP4397449A1 (en) 2024-07-10

Similar Documents

Publication Publication Date Title
US10427295B2 (en) System and method for reinforcing programming education through robotic feedback
JP7281348B2 (ja) トレーニング処理装置、仲介装置、トレーニングシステム及びトレーニング処理方法
KR102571997B1 (ko) 정보 처리 장치, 중개 장치, 시뮬레이트 시스템 및 정보 처리 방법
JP6938980B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2019097793A1 (ja) 情報処理装置及び情報処理方法、コンピュータ・プログラム、並びにプログラム製造方法
CN112192574A (zh) 一种总线舵机机器人的控制方法
Yim et al. WFH-VR: Teleoperating a robot arm to set a dining table across the globe via virtual reality
KR102529023B1 (ko) 트레이닝 처리 장치, 중개 장치, 트레이닝 시스템 및 트레이닝 처리 방법
WO2023032984A1 (ja) 操作端末、ロボットシステム及びコンピュータプログラム
WO2023032985A1 (ja) 操作端末、ロボットシステム及びコンピュータプログラム
CN114800535A (zh) 机器人的控制方法、机械臂控制方法、机器人及控制终端
JP2003136455A (ja) ロボットシステム、遠隔操作装置及び遠隔操作方法並びにロボット装置及びその制御方法
JP7353341B2 (ja) サービスアプリケーションと連係してサービスを提供するロボットを制御する方法およびクラウドサーバ
JP7152180B2 (ja) 装置を動作させるためのシステム
CN114330755A (zh) 数据集的生成方法、装置、机器人和存储介质
US20240351192A1 (en) System and method for reinforcing programming education through robotic feedback
JP4399815B2 (ja) ロボットの制御方法及び制御装置
Limbu et al. A pilot study on telebot, a internet-based teleoperated robot
Coyne Multi-Modal Teleoperation of a Humanoid Social Robot Initial Evaluation of Control Modalities
JP2024052515A (ja) 操作装置、ロボットシステム、製造方法、制御方法、制御プログラムおよび記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22864566

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280055930.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022864566

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022864566

Country of ref document: EP

Effective date: 20240402