WO2022030047A1 - 遠隔操作装置 - Google Patents

遠隔操作装置 Download PDF

Info

Publication number
WO2022030047A1
WO2022030047A1 PCT/JP2021/015911 JP2021015911W WO2022030047A1 WO 2022030047 A1 WO2022030047 A1 WO 2022030047A1 JP 2021015911 W JP2021015911 W JP 2021015911W WO 2022030047 A1 WO2022030047 A1 WO 2022030047A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
actual machine
information
movable range
unit
Prior art date
Application number
PCT/JP2021/015911
Other languages
English (en)
French (fr)
Inventor
正樹 春名
貴景 森本
亜紀 嶺岸
朋希 延命
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US18/019,101 priority Critical patent/US20230292000A1/en
Priority to CN202180058187.9A priority patent/CN116056843A/zh
Priority to JP2021559199A priority patent/JP7397879B2/ja
Priority to EP21853723.1A priority patent/EP4190513A4/en
Publication of WO2022030047A1 publication Critical patent/WO2022030047A1/ja
Priority to JP2022126408A priority patent/JP2022172112A/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details, by setting parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35438Joystick
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35506Camera images overlayed with graphics, model
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36447Project light on path to be followed, keep also distance constant
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37571Camera detecting reflected light from laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39014Match virtual world with real world
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40131Virtual reality control, programming of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40168Simulated display of remote site, driven by operator interaction
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40382Limit allowable area where robot can be teached
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40478Graphic display of work area of robot, forbidden, permitted zone
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40617Agile eye, control position of camera, active vision, pan-tilt camera, follow object

Definitions

  • This disclosure relates to a remote control device in which an operator remotely controls an actual machine.
  • the behavior of the actual machine predicted by the operator differs from the behavior of the actual actual machine, so that it becomes difficult to predict the motion of the actual machine and the work efficiency deteriorates.
  • Patent Document 1 discloses a user interface of a very dexterous system.
  • the system sets the range of motion of the actual machine in order to facilitate the prediction of the motion of the actual machine.
  • An object of the present disclosure is to provide a remote control device that improves work efficiency by setting a movable range of an actual machine and presenting the set movable range to an operator.
  • the remote control device is a remote control device in which an operator remotely operates an actual machine, and is a limiting unit that sets a movable range of the actual machine based on the restriction information from the operator.
  • An operation unit that generates first command information, which is input information for operating the actual machine, based on the operation information from the operator and the movable range, and the actual machine that is visualized. It is provided with an image display unit that displays a machine image and a movable information image in which the movable range corresponding to the actual machine is visualized.
  • the remote control device can improve the work efficiency as compared with the conventional case by setting the movable range of the actual machine and presenting the set movable range to the operator.
  • FIG. It is a block diagram which shows an example of the structure of the remote control device in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the structure including the operation part in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the operation part in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the structure including the actual machine in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the limitation part at the time of setting the movable range in the 1st mode in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the image in the image display part when the movable range is set in the 1st mode in Embodiment 1.
  • FIG. 1 It is a schematic diagram which shows an example of the limitation part at the time of setting the movable range in the 2nd mode in Embodiment 1.
  • FIG. 2nd mode it is a schematic diagram which shows an example of the image in the image display part when the movable range is set in the 2nd mode in Embodiment 1.
  • FIG. 2nd mode it is a schematic diagram which shows an example of the limitation part at the time of setting the movable range in the 3rd mode in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the image in the image display part when the movable range is set in the 3rd mode in Embodiment 1.
  • FIG. 1 It is a schematic diagram which shows an example of the image in the image display part when the movable range is set in the 4th mode in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the structure of the model generation part in the case of setting the movable range in the 5th mode in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the operation part in the case of setting the movable range in the 5th mode in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the image in the image display part when the movable range is set in the 5th mode in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of another image in the image display part when the movable range is set in the 5th mode in Embodiment 1.
  • FIG. It is a block diagram which shows an example of the structure of the remote control device in Embodiment 2. It is a schematic diagram which shows an example of the structure including the actual machine in Embodiment 2. It is a schematic diagram which shows an example of another configuration including the actual machine in Embodiment 2. It is a schematic diagram which shows an example of the image in the image display part in Embodiment 2. It is a schematic diagram which shows an example of another image in the image display part in Embodiment 2.
  • FIG. It is a block diagram which shows an example of the structure of the remote control device in Embodiment 3.
  • Embodiment 7 It is a schematic diagram which shows an example of the structure including the actual machine in Embodiment 7. It is a schematic diagram which shows an example of the image in the image display part in Embodiment 7. It is a schematic diagram which shows the relationship between the movable range and the motion locus of an end effector in Embodiment 7. It is a flowchart which shows an example of the operation of the remote control device in Embodiment 7.
  • the xyz orthogonal coordinate system is defined in the direction in which the x-axis translation mechanism 31, the y-axis translation mechanism 32, and the z-axis translation mechanism 33, which will be described later, are arranged.
  • the same direction as the direction in which the x-axis translation mechanism 31 is arranged is defined as the x-axis direction.
  • the back side is in the + x direction, and the front side is in the ⁇ x direction.
  • the same direction as the direction in which the y-axis translation mechanism 32 is arranged is defined as the y-axis direction.
  • the left side is in the + y direction, and the right side is in the ⁇ y direction.
  • the same direction as the direction in which the z-axis translation mechanism 33 is arranged is defined as the z-axis direction.
  • the upper side is in the + z direction, and the lower side is in the ⁇ z direction.
  • the depth direction is set to the x-axis direction for the operation unit 12 and the operator.
  • the back side is in the + x direction, and the front side is in the ⁇ x direction.
  • the left-right direction is the y-axis direction for the operation unit 12 and the operator.
  • the left side is in the + y direction, and the right side is in the ⁇ y direction.
  • the vertical direction is the z-axis direction for the operation unit 12 and the operator.
  • the upper side is in the + z direction, and the lower side is in the ⁇ z direction.
  • FIG. 1 is a block diagram showing an example of the configuration of the remote control device 1 according to the first embodiment.
  • the remote control device 1 is for the operator to remotely control the actual machine 3 imaged by the image pickup means 4.
  • the remote control device 1 includes a restriction unit 11, an operation unit 12, a model generation unit 13, a video model generation unit 14, and a video display unit 15.
  • the restriction unit 11 receives restriction information S1 from an operator (not shown).
  • the limiting unit 11 generates a movable range S3 based on the limiting information S1 and gives it to the operating unit 12 and the video model generation unit 14.
  • the restriction information S1 is information in which the operator sets the movable range of the actual machine 3.
  • the movable range S3 is the movable range of the actual machine 3 set by the operator. That is, the limiting unit 11 sets the movable range S3 of the actual machine 3 based on the limiting information S1 from the operator.
  • the operation unit 12 receives the operation information S2 from the operator and the movable range S3 from the restriction unit 11.
  • the operation unit 12 generates the first command information S4 and the second command information S5 based on the operation information S2 and the movable range S3, and sends the first command information S4 to the actual machine 3 and the actual machine model generation unit 131.
  • the second command information S5 is given to the image pickup means 4 and the image pickup model generation unit 132.
  • the operation information S2 is an exercise command for remotely controlling the actual machine 3. This movement command is the operation itself of the control stick 121 and the button 122 in the operation unit 12, which will be described later.
  • the first command information S4 is input information for operating the actual machine 3.
  • the first command information S4 is input information to a driver IC, a microcomputer, or the like that operates the actual machine 3.
  • the second command information S5 is input information for operating the image pickup means 4.
  • the second command information S5 is a shooting ON / OFF switching command, a magnification adjustment command, and the like to the image pickup means 4.
  • the model generation unit 13 receives the first command information S4 and the second command information S5 from the operation unit 12.
  • the model generation unit 13 generates model information S6 based on these information and gives it to the video model generation unit 14.
  • the model generation unit 13 is an actual machine model generation unit 131 that generates a model of the actual machine 3 using the first command information S4, and an image pickup model generation unit 13 that generates a model of the image pickup means 4 using the second command information S5. It has 132 and.
  • the model information S6 is a combination of the model of the actual machine 3 and the model of the image pickup means 4, and is, for example, a three-dimensional model in which the actual machine 3 is virtually projected so as to be seen from a predetermined direction.
  • the predetermined direction is the same as the direction in which the image pickup means 4 takes an image of the actual machine 3. That is, the model generation unit 13 outputs model information S6 in which the model of the actual machine 3 and the model of the image pickup means 4 are combined.
  • the video model generation unit 14 receives the movable range S3 from the restriction unit 11 and the model information S6 from the model generation unit 13. Based on this information, the video model generation unit 14 generates a movable information video S7 in which the movable range S3 is visualized, and gives it to the video display unit 15.
  • the movable information image S7 is an image of the movable range S3 corresponding to the actual machine 3. It was
  • the video display unit 15 receives the movable information video S7 from the video model generation unit 14 and the actual machine video S8 from the image pickup means 4.
  • the video display unit 15 generates a video S9 based on the movable information video S7 and the actual machine video S8, and presents the video S9 to the operator.
  • the image display unit 15 displays the actual machine image S8 and the movable information image S7.
  • the actual machine image S8 is an image obtained by photographing the actual machine 3.
  • the image display unit 15 adjusts the position of the movable information image S7 so that the position of the three-dimensional model in the movable information image S7 and the position of the actual machine in the actual machine image S8 match.
  • the movable information image S7 is superimposed on the actual machine image S8 at an accurate position.
  • the position adjustment of the movable information image S7 may be performed by image processing using an image feature point or a marker between the movable information image S7 and the actual machine image S8. Alternatively, it may be performed by correcting the initial positions of the movable information image S7 and the actual machine image S8.
  • the method of adjusting the position of the movable information image S7 is not limited to these.
  • the video display unit 15 does not need to superimpose and display the actual machine video S8 and the movable information video S7, and for example, each video may be displayed on a separate screen. However, in the following, it will be described as being superimposed and displayed.
  • the actual machine 3 receives the first command information S4 from the operation unit 12, the reaction force S11 from the target 5, and the reaction force S12 from the non-target 6.
  • the actual machine 3 generates an acting force S10 based on the first command information S4 and gives it to the target 5.
  • the target 5 is an object that the actual machine 3 applies an acting force S10 to move.
  • the reaction force S11 from the target 5 is generated when the actual machine 3 moves the target 5.
  • the reaction force S12 from the non-target 6 is generated when the actual machine 3 moves the target 5 and comes into contact with the non-target 6.
  • the image pickup means 4 receives the second command information S5 from the operation unit 12.
  • the image pickup means 4 photographs the actual machine 3 based on the second command information S5 to generate the actual machine image S8, and gives it to the image display unit 15.
  • Target 5 receives the acting force S10 from the actual machine 3.
  • the target 5 applies a reaction force S11 to the actual machine 3 based on the acting force S10.
  • the non-target 6 gives a reaction force S12 to the actual machine 3 when the target 5 comes into contact with the non-target 6.
  • the reaction force S12 also includes a force from the non-target 6 via the target 5.
  • the non-target 6 is an object to which the actual machine 3 intentionally does not apply the acting force S10.
  • the image pickup means 4 is always fixed at the same position and the shooting is always ON, the actual machine image S8 can be obtained even if the second command information S5 is not input to the image pickup means 4.
  • the second command information S5 does not need to be input to the image pickup means 4, but is input only to the image pickup model generation unit 132. This also applies to the subsequent embodiments.
  • FIG. 2 (a) and 2 (b) are schematic views showing an example of the configuration including the operation unit 12 in the first embodiment.
  • FIG. 2A is a view of the operator from the back
  • FIG. 2B is a view of the operator from the top.
  • the operator remotely controls the actual machine 3 by using the operation unit 12 while watching the image S9 of the image display unit 15. Since the operation unit 12, the image display unit 15, and the image S9 shown in FIG. 2 are the same as the operation unit 12, the image display unit 15, and the image S9 shown in FIG. 1, the description thereof will be omitted.
  • FIG. 3 is a schematic diagram showing an example of the operation unit 12 in the first embodiment. As shown in FIG. 3, the operation unit 12 has a control stick 121 and a button 122.
  • the control stick 121 is a controller that can operate in the x-axis direction, the y-axis direction, and in the xy plane.
  • the control stick 121 is used to remotely control the actual machine 3. That is, the actual machine 3 moves according to the operation direction of the control stick 121. For example, when the operator operates the control stick 121 in the + x direction, the actual machine moves in the + x direction.
  • the button 122 is a button for moving the actual machine 3 in the z-axis direction. For example, when the operator keeps pressing the button 122, the actual machine 3 moves in the + z direction, and when the button 122 is released, the actual machine 3 moves in the ⁇ z direction. If the button 122 is pressed in this state, the actual machine 3 is stopped.
  • the operation unit 12 is not limited to the one having the control stick 121 and the button 122 as shown in FIG.
  • the operator may operate with gestures, or the operator may wear and operate an auxiliary device (not shown) simulating the actual machine 3.
  • the gesture is an action such as waving a hand toward a camera (not shown) arranged near the operator.
  • the actual machine 3 moves according to the gesture or the operation direction of the auxiliary device. For example, when the operator operates in the + x direction using a gesture or an auxiliary device, the actual machine moves in the + x direction.
  • FIG. 4 is a schematic diagram showing an example of the configuration including the actual machine 3 in the first embodiment. Since the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 4 are the same as the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 1, the description thereof will be omitted.
  • the actual machine 3 has an x-axis translation mechanism 31, a y-axis translation mechanism 32, a z-axis translation mechanism 33, and an actual machine end 34.
  • the x-axis translation mechanism 31 moves the actual machine end 34 in the x-axis direction. That is, when the operator operates the control stick 121 of the operation unit 12 in the x-axis direction, the x-axis translation mechanism 31 moves the actual machine end 34 in the x-axis direction.
  • the y-axis translation mechanism 32 moves the actual machine end 34 in the y-axis direction. That is, when the operator operates the control stick 121 of the operation unit 12 in the y-axis direction, the y-axis translation mechanism 32 moves the actual machine end 34 in the y-axis direction.
  • the z-axis translation mechanism 33 moves the actual machine end 34 in the z-axis direction. That is, when the operator presses the button 122 of the operation unit 12, the z-axis translation mechanism 33 moves the actual machine end 34 in the z-axis direction.
  • the actual machine end 34 moves based on the operation information S2 from the operator.
  • the image pickup means 4 is arranged at a position where the actual machine 3 can be seen in the field of view.
  • the image pickup means 4 photographs the actual machine 3 to generate the actual machine image S8.
  • the image display unit 15 displays the actual machine image S8. This is similar to a conventional remote control device.
  • the image display unit 15 in the first embodiment displays an image S9 in which the actual machine image S8 and the movable information image S7, which is the image of the movable range S3 of the actual machine 3, are superimposed.
  • a method of setting the movable range S3 in the limiting unit 11 will be described.
  • the limiting unit 11 has five modes (hereinafter referred to as "first mode”, “second mode”, “third mode”, “fourth mode”, and “fifth mode”).
  • the movable range S3 of the actual machine 3 is set by any one of the modes.
  • the first mode is a mode in which the movable range S3 is set by means for forcibly limiting the operation of the operation unit 12.
  • the second mode is a mode in which the movable range S3 is set by pressing the button corresponding to the direction in which the movement is possible.
  • the third mode is a mode in which the movable range S3 is set by the movable pattern prepared in advance.
  • the fourth mode is a mode in which the movable range S3 is set by a straight line or a curve connecting a plurality of restraint points.
  • the fifth mode is a mode in which the movable range S3 is set by the light source model generation unit 133 that generates a model of the light source that emits light.
  • the operation unit 12 has means for forcibly limiting the operation from the operator.
  • the limiting unit 11 sets the movable range S3 by this means.
  • the means for forcibly limiting is to physically limit the operable range of the operation unit 12.
  • the x-axis translation plate 11a and the y-axis translation plate 11b which will be described later.
  • 5 (a) and 5 (b) are schematic views showing an example of the limiting unit 11 when the movable range S3 is set in the first mode in the first embodiment.
  • FIG. 5A is a schematic diagram when the limiting portion 11 is the x-axis translation plate 11a.
  • FIG. 5B is a schematic diagram when the limiting portion 11 is a y-axis translation plate 11b.
  • the x-axis translation plate 11a shown in FIG. 5A is attached to the operation unit 12. Thereby, the operation of the control stick 121 can be restricted in the x-axis direction.
  • the y-axis translation plate 11b shown in FIG. 5B is attached to the operation unit 12. As a result, the operation of the control stick 121 can be restricted in the y-axis direction.
  • FIG. 6A and 6 (b) are schematic views showing an example of the image S9 on the image display unit 15 when the movable range S3 is set in the first mode in the first embodiment.
  • FIG. 6A is a schematic view of the image S9a when the x-axis translation plate 11a is attached to the operation unit 12.
  • FIG. 6B is a schematic view of the image S9b when the y-axis translation plate 11b is attached to the operation unit 12.
  • the image S9a is an image in which the actual machine image S8a and the movable information image S7a are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7a is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7a is an image of the movable range S3 in the same direction as the x-axis direction, and is displayed on the upper side and the lower side of the actual machine image S8a.
  • the image S9b is an image in which the actual machine image S8a and the movable information image S7b are superimposed.
  • the movable information video S7b is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7b is an image of the movable range S3 in the same direction as the y-axis direction, and is displayed on the upper side and the lower side of the actual machine image S8a.
  • the video model generation unit 14 identifies that the movable range S3 is in the x-axis direction. Similarly, when the y-axis translation plate 11b is attached to the operation unit 12, the video model generation unit 14 identifies that the movable range S3 is in the y-axis direction. Further, the video model generation unit 14 matches the identified information with the model information S6 from the model generation unit 13 to generate the movable information video S7a. Instead of the model information S6, it may be spatial information acquired by image processing the actual machine image S8a, that is, vector information corresponding to the x-axis direction in the actual machine image S8a. In this case, the video model generation unit 14 matches the identified information with the spatial information to generate the movable information video S7a. This is the same even when the y-axis translation plate 11b is attached to the operation unit 12.
  • the movable information images S7a and S7b are displayed on the upper side and the lower side in the actual machine image S8a, respectively, but they are in the same direction as the movable range S3.
  • the place where it is displayed is not limited. For example, it may be in the center of the actual machine image S8a. This also applies to the subsequent embodiments.
  • the image display unit 15 may superimpose the image of the position of the actual machine end 34 on the xy plane on the images S9a and S9b.
  • a projection point (not shown) of the end 34 of the actual machine on the xy plane is superimposed on the movable information images S7a and S7b.
  • the x-coordinate and y-coordinate of this projection point are the x-coordinate and y-coordinate of the actual machine end 34, and correspond to the operation amount in the x-axis direction and the operation amount in the y-axis direction of the control stick 121, respectively.
  • the information regarding the manipulated variable is included in the model information S6.
  • the video model generation unit 14 generates an image of the projection point based on the model information S6, and the image display unit 15 superimposes the image of the projection point on the images S9a and S9b. This also applies to the subsequent embodiments. By superimposing the projection points on the images S9a and S9b, the operability of the actual machine 3 is improved.
  • the limiting portion 11 in the first mode is not limited to the x-axis translation plate 11a and the y-axis translation plate 11b, and may be, for example, an oblique translation plate (not shown), or the x-axis direction and y (not shown). It may be a translation plate that can move in both axial directions.
  • the gesture may be a gesture of the operator waving his hand, or the operator may wear an auxiliary device (not shown) simulating an actual machine. In the case of a gesture, after setting the movable range S3 of the actual machine 3 by the gesture, the actual machine 3 is remotely controlled by the same gesture.
  • the auxiliary device itself has a structure in which the movable range S3 is limited. That is, when the operator wears the auxiliary device, the actual machine 3 is remotely controlled while the movable range S3 is limited.
  • One example is a mobile suit.
  • the operator When the movable range S3 is set in the first mode, the operator operates the operation unit 12 while checking the movable information video S7a or S7b in a state where the movable range S3 is limited. This makes it possible to improve work efficiency in remotely controlling the actual machine 3.
  • the operation unit 12 has a button corresponding to the direction in which the movement is possible.
  • the limiting unit 11 sets the movable range S3 by pressing this button.
  • FIG. 7 is a schematic diagram showing an example of the limiting unit 11 when the movable range S3 is set in the second mode in the first embodiment.
  • FIG. 7 is a schematic diagram when the limiting unit 11 is the x-axis limiting button 11c and the y-axis limiting button 11d.
  • the x-axis limit button 11c and the y-axis limit button 11d shown in FIG. 7 are provided on the operation unit 12.
  • the operation of the control stick 121 can be restricted in the x-axis direction.
  • the operation of the control stick 121 can be restricted in the y-axis direction.
  • the x-axis restriction button 11c and the y-axis restriction button 11d do not necessarily have to be provided in the operation unit 12, and may be provided anywhere near the operator.
  • FIG. 8A and 8 (b) are schematic views showing an example of the image S9 on the image display unit 15 when the movable range S3 is set in the second mode in the first embodiment.
  • FIG. 8A is a schematic diagram of the image S9a when the x-axis restriction button 11c is pressed.
  • FIG. 8B is a schematic diagram of the image S9b when the y-axis restriction button 11d is pressed. Since the video S9a of FIG. 8A is the same as the video S9a of FIG. 6A and the video S9b of FIG. 8B is the same as the video S9b of FIG. 6B, the description thereof is omitted. do.
  • the video model generation unit 14 identifies that the movable range S3 is in the x-axis direction. As a result, the movable information video S7a is generated. Similarly, when the y-axis restriction button 11d is pressed, the video model generation unit 14 identifies that the movable range S3 is in the y-axis direction. As a result, the movable information video S7b is generated.
  • the movable range S3 becomes both the x-axis direction and the y-axis direction.
  • the structure may be such that when the x-axis restriction button 11c is pressed, the x-axis direction is constrained, and when the y-axis restriction button 11d is pressed, the y-axis direction is constrained.
  • FIG. 9 is a schematic diagram showing an example of the limiting unit 11 when the movable range S3 is set in the third mode in the first embodiment.
  • the restriction patterns 11e to 11j are displayed on the video S9c from the video display unit 15.
  • the restriction patterns 11e to 11j are exercise patterns prepared in advance. The operator selects any one of the restriction patterns 11e to 11j by using the operation unit 12 before remotely controlling the actual machine 3. For example, when the operator selects the restriction pattern 11e, the control stick 121 is used to move the cursor 11k to the restriction pattern 11e, and the button 122 is pressed. As a result, the limiting unit 11 sets the movable range S3 in the x-axis direction.
  • the exerciseable pattern is not limited to the restriction patterns 11e to 11j.
  • the image display unit 15 has a touch display function, and the operator may manually operate the screen to select from the restriction patterns 11e to 11j. This eliminates the need for the cursor 11k and enables simple operation.
  • FIG. 10A to 10 (f) are schematic views showing an example of the image S9 on the image display unit 15 when the movable range S3 is set in the third mode in the first embodiment.
  • FIG. 10A is a schematic diagram of the image S9a when the restriction pattern 11e is selected.
  • FIG. 10B is a schematic diagram of the image S9b when the restriction pattern 11f is selected.
  • FIG. 10C is a schematic diagram of the image S9d when the restriction pattern 11g is selected.
  • FIG. 10D is a schematic diagram of the image S9e when the restriction pattern 11h is selected.
  • FIG. 10E is a schematic diagram of the image S9f when the restriction pattern 11i is selected.
  • FIG. 10 (f) is a schematic diagram of the image S9g when the restriction pattern 11j is selected.
  • the image S9d is an image in which the actual machine image S8a and the movable information image S7c are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7c is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7c is an image of the movable range S3 in the diagonal direction.
  • the image S9e is an image in which the actual machine image S8a and the movable information image S7d are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7d is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7d is an image of the movable range S3 in the diagonal direction.
  • the image S9f is an image in which the actual machine image S8a and the movable information image S7e are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7e is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7e is an image of the movable range S3 in the same direction as the x-axis direction and the same direction as the y-axis direction.
  • the image S9g is an image in which the actual machine image S8a and the movable information image S7f are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7f is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7f is an image of two diagonally movable ranges S3.
  • the video model generation unit 14 identifies that the movable range S3 is in the x-axis direction. As a result, the movable information video S7a is generated. The same applies even when the limiting portions 11f to 11j are selected.
  • the limiting unit 11 sets the movable range S3 by a straight line or a curve connecting a plurality of restraint points.
  • 11 (a) to 11 (d) are schematic views showing an example of the limiting unit 11 when the movable range S3 is set in the fourth mode in the first embodiment.
  • the operator sets the movable range S3 using the operation unit 12 while watching the video S9h.
  • the control stick 121 is used to move the cursor 11ma to an arbitrary position in the limiting portion 11m, and the button 122 is pressed to set a plurality of restraint points.
  • four restraint points 11md, 11me, 11mf, and 11mg are set in order.
  • press the OK button 11mb to complete the setting of the movable range S3. If the CANCEL button 11mc is pressed during the setting, the setting returns to the previous constraint point setting.
  • the state returns to the state in which the constraint point 11me is set. This makes it possible to reset the constraint point.
  • the straight line connecting the four restraint points 11md, 11me, 11mf, and 11mg is the movable range S3.
  • the operator sets the movable range S3 using the operation unit 12 while watching the video S9i.
  • the control stick 121 is used to move the cursor 11na to an arbitrary position in the limiting portion 11n, and the button 122 is pressed to set a plurality of restraint points.
  • four constraint points 11nd, 11ne, 11nf, and 11ng are set in order.
  • press the OK button 11nb to complete the setting of the movable range S3.
  • the cursor 11na is moved while pressing the button 122.
  • the movable range S3 according to the movement path is set, and it can be a straight line or an arbitrary curve.
  • the operation unit 12 has a function of automatically correcting this, and the distortion can be eliminated by the correction.
  • the CANCEL button 11nc is pressed during the setting, the setting returns to the previous constraint point setting. For example, if the CANCEL button 11nc is pressed after setting the constraint point 11nf, the state where the constraint point 11ne is set returns to the set state. This makes it possible to reset the constraint point.
  • the curve connecting the four restraint points 11nd, 11ne, 11nf, and 11ng is the movable range S3.
  • the operator sets the movable range S3 using the operation unit 12 while watching the video S9j.
  • the control stick 121 is used to move the cursor 11 Wheela to an arbitrary position in the restriction portion 11 Europe, and the button 122 is pressed to set a plurality of restraint points.
  • the four constraint points 11 Mrd, 11 Righte, 11 Rightf, and 11 Rightg are set in order, and the constraint points 11 Mrd are set again.
  • press the OK button 11 Mrb to complete the setting of the movable range S3. If the CANCEL button 11 Cosmeticc is pressed during the setting, the setting returns to the previous constraint point setting.
  • the operator sets the movable range S3 using the operation unit 12 while watching the video S9k.
  • the control stick 121 is used to move the cursor 11pa to an arbitrary position in the limiting portion 11p, and the button 122 is pressed to set a plurality of restraint points.
  • the four constraint points 11pd, 11pe, 11 pf, and 11 pg are set in order, and the constraint points 11 pd are set again.
  • press the OK button 11pb After setting, press the OK button 11pb to complete the setting of the movable range S3.
  • the cursor is moved while pressing the button 122.
  • the movable range S3 according to the movement path is set, and it can be a straight line or an arbitrary curve.
  • the operation unit 12 has a function of automatically correcting this, and the distortion can be eliminated by the correction.
  • the CANCEL button 11pc is pressed during the setting, the setting returns to the previous constraint point setting. For example, if the CANCEL button 11pc is pressed after setting the constraint point 11 pf, the state returns to the state in which the constraint point 11 pe is set. This makes it possible to reset the constraint point.
  • the curve connecting the four restraint points 11pd, 11pe, 11pf, and 11pg, or the region surrounded by the curve is the movable range S3. Whether it is a straight line or an area can be selected in advance.
  • the image display unit 15 has a touch display function, and the operator may manually operate the screen to set the movable range S3. This eliminates the need for cursors 11ma, 11na, 11 Cincinnatia, and 11pa, and enables simple operation.
  • FIG. 12A is a schematic diagram of an image S9m in which the movable range S3 is set by the limiting unit 11m and the movable information image S7g generated by the image model generation unit 14 is superimposed on the actual machine image S8a.
  • FIG. 12B is a schematic diagram of an image S9n in which the movable range S3 is set by the limiting unit 11n and the movable information image S7h generated by the image model generation unit 14 is superimposed on the actual machine image S8a.
  • FIG. 12A is a schematic diagram of an image S9m in which the movable range S3 is set by the limiting unit 11m and the movable information image S7g generated by the image model generation unit 14 is superimposed on the actual machine image S8a.
  • FIG. 12B is a schematic diagram of an image S9n in which the movable range S3 is set by the limiting unit 11n and the movable information image S7h generated by the image model generation unit 14 is superimposed on the actual machine image
  • FIG. 12C is a schematic diagram of an image S9 Economics in which the movable range S3 is set by the limiting unit 11 1958 and the movable information image S7i generated by the image model generation unit 14 is superimposed on the actual machine image S8a.
  • FIG. 12D is a schematic diagram of an image S9p in which the movable range S3 is set by the limiting unit 11p and the movable information image S7j generated by the image model generation unit 14 is superimposed on the actual machine image S8a.
  • FIG. 12 (e) is a schematic diagram of another image S9q in which the movable range S3 is set by the limiting unit 11 1958 and the movable information image S7k generated by the image model generation unit 14 is superimposed on the actual machine image S8a.
  • FIG. 12 (f) is a schematic diagram of another image S9r in which the movable range S3 is set by the limiting unit 11p and the movable information image S7m generated by the image model generation unit 14 is superimposed on
  • the image S9m is an image in which the actual machine image S8a and the movable information image S7g are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information image S7g is an image of the movable range S3 generated by the image model generation unit 14.
  • the movable information image S7g is an image of the movable range S3 which is a straight line connecting the four restraint points.
  • the video S9n is a video in which the actual machine video S8a and the movable information video S7h are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7h is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7h is an image of the movable range S3 which is a curve connecting the four restraint points.
  • the image S9ello is an image in which the actual machine image S8a and the movable information image S7i are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7i is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7i is an image of the movable range S3 which is a straight line connecting the four restraint points.
  • the video S9p is a video in which the actual machine video S8a and the movable information video S7j are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7j is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7j is an image of the movable range S3 which is a curve connecting the four restraint points.
  • the image S9q is an image in which the actual machine image S8a and the movable information image S7k are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7k is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7k is an image of the movable range S3 which is a region surrounded by a straight line connecting four restraint points.
  • the image S9r is an image in which the actual machine image S8a and the movable information image S7m are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information image S7m is an image of the movable range S3 generated by the image model generation unit 14.
  • the movable information image S7m is an image of the movable range S3 which is a region surrounded by a curve connecting four restraint points.
  • the video model generation unit 14 identifies that the movable range S3 is a straight line connecting the four constraint points. As a result, the movable information image S7g is generated. The same applies even when the movable range S3 is set by the limiting portions 11n to 11p.
  • FIG. 13 is a block diagram showing an example of the configuration of the model generation unit 13 when the movable range S3 is set in the fifth mode in the first embodiment.
  • the operation unit 12 further generates third command information S13, which is input information for operating the light source that emits light, based on the movable range S3 from the restriction unit 11.
  • the model generation unit 13 further includes a light source model generation unit 133 that generates a light source model using the third command information S13, and is a model in which a model of the actual machine 3, a model of the image pickup means 4, and a light source model are combined.
  • Information S6 is output.
  • the model generation unit 13 has a first command information S4 from the operation unit 12 to the actual machine model generation unit 131, a second command information S5 from the operation unit 12 to the imaging model generation unit 132, and a light source model generation unit from the operation unit 12.
  • Model information S6 is generated based on the third command information S13 to 133, and is given to the video model generation unit 14.
  • the third command information S13 is input information for operating a light source that emits light.
  • the third command information S13 is a power ON / OFF switching command to the light source and input information for rotating the light source in the xy plane.
  • FIG. 14 is a schematic diagram showing an example of the operation unit 12 when the movable range S3 is set in the fifth mode in the first embodiment.
  • FIG. 14 is a schematic view of the case where the control stick 121 shown in FIG. 3 can rotate in the Rz direction and has the function of the limiting unit 11. Counterclockwise is the + Rz direction, and clockwise is the -Rz direction.
  • the direction vector of the control stick 121 when the button 122 is pressed is set as the movable range S3.
  • the operator may set a plurality of direction vectors.
  • the control stick 121 is rotated on the xy plane, and the operation of pressing the button 122 is repeated.
  • a plurality of direction vectors are set as the movable range S3.
  • a region surrounded by a plurality of direction vectors is set as the movable range S3. Whether to use a plurality of direction vectors or a region can be selected in advance.
  • FIG. 15 is a schematic diagram showing an example of the image S9 on the image display unit 15 when the movable range S3 is set in the fifth mode in the first embodiment.
  • FIG. 15 is a schematic diagram of the image S9s when the movable range S3 is set by the control stick 121.
  • the video S9s is a video in which the actual machine video S8a and the movable information video S7n are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7n is a video of the movable range S3 generated by the video model generation unit 14.
  • the movable information image S7n includes an image of the movable range S3 represented by a direction vector and an image of model information from the light source model generation unit 133 of the model information S6.
  • FIG. 16 is a schematic diagram showing an example of another video S9 on the video display unit 15 when the movable range S3 is set in the fifth mode in the first embodiment.
  • FIG. 16 is a schematic diagram of the image S9t when two direction vectors are set by the control stick 121 and the area surrounded by the two direction vectors is selected as the movable range S3.
  • the video S9t is a video in which the actual machine video S8a and the movable information video S7 Europe are superimposed.
  • the actual machine image S8a is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7 Europe is a video of the movable range S3 generated by the video model generation unit 14.
  • the image of the movable range S3 represented by the region surrounded by the two direction vectors and the image of the model information from the light source model generation unit 133 of the model information S6 are displayed. included.
  • the movable range S3 of the actual machine 3 is set by the limiting unit 11. As a result, complicated remote control of the actual machine 3 can be avoided. Further, the movable information image S7 generated based on the movable range S3 from the limiting unit 11 and the model information S6 from the model generation unit 13 and the actual machine image S8 generated by the imaging means 4 are superimposed. The video S9 is generated by the video display unit 15. As a result, the actual machine 3 can be remotely controlled while checking the movable range S3, and the work efficiency can be improved as compared with the conventional case.
  • FIG. 17 is a block diagram showing an example of the configuration of the remote control device 1 according to the second embodiment.
  • the remote control device 1 includes a restriction unit 11, an operation unit 12, and a video display unit 15. Since the limiting unit 11, the actual machine 3, the target 5, and the non-target 6 shown in FIG. 17 are the same as the limiting unit 11, the actual machine 3, the target 5, and the non-target 6 shown in FIG. 1, the description thereof will be omitted. ..
  • the operation unit 12 receives the operation information S2 from the operator and the movable range S3 from the restriction unit 11.
  • the operation unit 12 generates the first command information S4, the second command information S5, and the fourth command information S14 based on these information, gives the first command information S4 to the actual machine 3, and gives the second command information S5. Is given to the image pickup means 4, and the fourth command information S14 is given to the movable range forming means 7.
  • the fourth command information S14 will be described later.
  • the image display unit 15 receives the actual machine image S8 and the movable information image S15 from the image pickup means 4.
  • the video display unit 15 generates a video S9 in which these videos are superimposed and presents the video S9 to the operator.
  • the movable information image S15 is an image of the movable range S3 directly captured by the image pickup means 4.
  • the image pickup means 4 receives the second command information S5 from the operation unit 12.
  • the image pickup means 4 gives the actual machine image S8 and the movable information image S15 to the image display unit 15 based on the second command information S5.
  • the movable range forming means 7 forms the movable range S3 of the actual machine 3.
  • the movable range forming means 7 receives the fourth command information S14 from the operation unit 12.
  • the movable range forming means 7 is connected to the actual machine 3, but if the movable range S3 can be shown in the actual machine 3, it may not be connected to the actual machine 3.
  • the movable range forming means 7 is, for example, a light source that emits light, such as a laser light source or an LED light source. In this case, the pattern of light emitted from the light source and imaged in and around the actual machine 3 becomes the movable range S3. The light pattern is captured by the image pickup means 4 and becomes an image, which is displayed on the image display unit 15.
  • the light source emits light having a wavelength that can be photographed by the image pickup means 4.
  • the light source is a laser having a wavelength in the infrared region.
  • the fourth command information S14 is input information for operating the movable range forming means 7 that forms the movable range S3 of the actual machine 3.
  • the fourth command information S14 is a power ON / OFF switching command to the movable range forming means 7 and input information for rotating the movable range forming means 7 in the xy plane.
  • the operation unit 12 in the second embodiment is the same as the operation unit 12 shown in FIG. That is, the control stick 121 can also rotate in the Rz direction and has the function of the limiting unit 11.
  • the method of setting the movable range S3 is the same as the setting method described with reference to FIG.
  • FIG. 18 is a schematic diagram showing an example of the configuration including the actual machine 3 in the second embodiment. Since the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 18 are the same as the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 4, the description thereof will be omitted. ..
  • the movable range forming means 7 is connected near the center of the z-axis translation mechanism 33.
  • the movable range forming means 7 is a laser light source 71, and the laser beam 72 is output from the laser light source 71.
  • the output direction of the laser beam 72 is set by using the control stick 121.
  • the movable range forming means 7 is arranged near the center of the z-axis translation mechanism 33, but the present invention is not limited to this. For example, it may be arranged above or below the z-axis translation mechanism 33. Further, it may be arranged outside the actual machine 3.
  • FIG. 19 is a schematic diagram showing an example of another configuration including the actual machine 3 in the second embodiment. Since the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 19 are the same as the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 4, the description thereof will be omitted. ..
  • the movable range forming means 7 is connected near the center of the z-axis translation mechanism 33.
  • the movable range forming means 7 is the multi-laser light source 73, and the multi-laser ray 74 is output.
  • the output direction of the multi-laser ray 74 is set by using the control stick 121.
  • the movable range forming means 7 is arranged near the center of the z-axis translation mechanism 33, but the present invention is not limited to this. For example, it may be arranged above or below the z-axis translation mechanism 33. Further, it may be arranged outside the actual machine 3.
  • the movable range forming means 7 is the laser light source shown in FIG. 18, when the operator rotates the control stick 121 in the xy plane and presses the button 122, the direction of the control stick 121 when the button 122 is pressed.
  • the vector is set as the movable range S3.
  • the movable range forming means 7 is the multi-laser light source shown in FIG. 19, when the operator rotates the control stick 121 in the xy plane and presses the button 122 twice, the two direction vectors can move. It is set as the range S3. Alternatively, the area surrounded by the two direction vectors is set as the movable range S3. Whether it is a two-direction vector or a region can be selected in advance.
  • FIG. 20 is a schematic diagram showing an example of the image S9 on the image display unit 15 in the second embodiment.
  • FIG. 20 is a schematic diagram of the image S9u when the movable range S3 is set by the control stick 121.
  • the video S9u is a video in which the actual machine video S8b and the movable information video S15a are superimposed.
  • the actual machine image S8b is an image of the actual machine 3 and the movable range forming means 7 taken by the image pickup means 4.
  • the movable information image S15a is an image of the movable range S3 taken by the image pickup means 4.
  • the movable information image S15a is an image of the movable range S3 represented by the direction vector.
  • FIG. 21 is a schematic diagram showing an example of another video S9 in the video display unit 15 in the second embodiment.
  • FIG. 21 is a schematic diagram of the image S9v when two direction vectors are set by the control stick 121 and the area surrounded by the two direction vectors is selected as the movable range S3.
  • the video S9v is a video in which the actual machine video S8c and the movable information video S15b are superimposed.
  • the actual machine image S8c is an image of the actual machine 3 and the movable range forming means 7 taken by the image pickup means 4.
  • the movable information image S15b is an image of the movable range S3 taken by the image pickup means 4.
  • the movable information image S15b is an image of the movable range S3 represented by the region surrounded by the two direction vectors.
  • both the actual machine image S8 and the movable information image S15 are generated by the image pickup means 4.
  • the model generation unit 13 and the video model generation unit 14 of the first embodiment can be eliminated.
  • FIG. 22 is a block diagram showing an example of the configuration of the remote control device 1 according to the third embodiment.
  • the remote control device 1 includes a restriction unit 11, an operation unit 12, a model generation unit 13, a video model generation unit 14, and a video display unit 15.
  • FIG. 22 is a block diagram showing a configuration in which a drive model generation unit 134 and a drive device 8 are added to the configuration of the first embodiment shown in FIG.
  • the restriction unit 11, the image model generation unit 14, the image display unit 15, the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 22 are the restriction unit 11 and the image model generation unit 14 shown in FIG. Since it is the same as the image display unit 15, the actual machine 3, the image pickup means 4, the target 5, and the non-target 6, the description thereof will be omitted.
  • the operation unit 12 receives the operation information S2 from the operator and the movable range S3 from the restriction unit 11.
  • the operation unit 12 generates the first command information S4, the second command information S5, and the fifth command information S16 based on these information, and the first command information S4 is sent to the actual machine 3 and the actual machine model generation unit 131.
  • the second command information S5 is given to the image pickup means 4 and the image pickup model generation unit 132
  • the fifth command information S16 is given to the drive device 8 and the drive model generation unit 134.
  • the fifth command information S16 will be described later.
  • the model generation unit 13 further has a drive model generation unit 134 that generates a model of the drive device 8 that drives the image pickup means 4 by using the fifth command information S16 generated by the operation unit 12.
  • the model generation unit 13 has a first command information S4 from the operation unit 12 to the actual machine model generation unit 131, a second command information S5 from the operation unit 12 to the imaging model generation unit 132, and a drive model generation unit from the operation unit 12.
  • Model information S6 is generated based on the fifth command information S16 to 134, and is given to the video model generation unit 14.
  • the fifth command information S16 is input information for operating the drive device 8 that drives the image pickup means 4.
  • the fifth command information S16 is control information for controlling the drive device 8.
  • the drive device 8 is connected to the image pickup means 4 and receives the fifth command information S16 from the operation unit 12.
  • the drive device 8 rotates based on the fifth command information S16.
  • the direction of the image pickup means 4 changes, and the direction in which the actual machine 3 is photographed can be changed.
  • the light source model generation unit 133 shown in FIG. 13 may be added to the model generation unit 13 of FIG. 22. ..
  • the model generation unit 13 outputs model information S6 that combines the model of the actual machine 3, the model of the image pickup means 4, the model of the light source, and the model of the drive device 8.
  • the model generation unit 13 in the present embodiment may have the actual machine model generation unit 131, the image pickup model generation unit 132, and the drive model generation unit 134, and does not necessarily have the light source model generation unit 133. May be good.
  • the model information S6 may be a combination of the model of the actual machine 3, the model of the image pickup means 4, and the model of the drive device 8, and it is not always necessary to combine the model of the light source.
  • FIG. 23 is a block diagram showing an example of another configuration of the remote control device 1 according to the third embodiment.
  • the remote control device 1 includes a restriction unit 11, an operation unit 12, and a video display unit 15.
  • FIG. 23 is a block diagram showing a configuration in which a drive device 8 is added to the configuration of the second embodiment shown in FIG.
  • the limiting unit 11, the image display unit 15, the actual machine 3, the imaging means 4, the target 5, the non-target 6, and the movable range forming means 7 shown in FIG. 23 are the limiting unit 11 and the image display unit 15 shown in FIG. Since it is the same as the actual machine 3, the image pickup means 4, the target 5, the non-target 6, and the movable range forming means 7, the description thereof will be omitted. Further, since the drive device 8 shown in FIG. 23 is the same as the drive device 8 shown in FIG. 22, the description thereof will be omitted.
  • the operation unit 12 receives the operation information S2 from the operator and the movable range S3 from the restriction unit 11.
  • the operation unit 12 generates the first command information S4, the second command information S5, the fourth command information S14, and the fifth command information S16 based on these information, and gives the first command information S4 to the actual machine 3.
  • the second command information S5 is given to the image pickup means 4
  • the fourth command information S14 is given to the movable range forming means 7
  • the fifth command information S16 is given to the drive device 8.
  • the operation unit 12 in the third embodiment is the same as the operation unit 12 shown in FIG.
  • the operator can remotely control the actual machine 3 while adjusting the orientation of the image pickup means 4 by switching between a mode for changing the orientation of the image pickup means 4 and a mode for remotely controlling the actual machine 3. Switching between the two is performed by means (not shown).
  • the control stick 121 is operated in the x-axis direction or the y-axis direction. As a result, the direction of the image pickup means 4 is changed in the x-axis direction or the y-axis direction.
  • FIG. 24 is a schematic diagram showing an example of the configuration including the actual machine 3 in the third embodiment.
  • FIG. 24 is a schematic diagram when operating the actual machine 3 using the remote control device 1 shown in FIG. 22. Since the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 24 are the same as the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 4, the description thereof will be omitted. ..
  • the drive device 8 is connected to the image pickup means 4, and changes the direction of the image pickup means 4 based on the fifth command information S16 from the operation unit 12.
  • the orientation of the actual machine image S8 on the image display unit 15 is switched according to the orientation of the image pickup means 4.
  • the orientation of the image pickup means 4 is changed by the drive device 8.
  • the operator can operate the actual machine 3 while sequentially changing the orientation of the actual machine image S8, and can efficiently perform remote control.
  • FIG. 25 is a block diagram showing an example of the configuration of the remote control device 1 according to the fourth embodiment.
  • the remote control device 1 includes a restriction unit 11, an operation unit 12, a model generation unit 13, a video model generation unit 14, and a video display unit 15.
  • FIG. 25 is a block diagram showing a configuration in which a manipulator model generation unit 135 and a manipulator 9 are added to the configuration of the first embodiment shown in FIG. Since the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 25 are the same as the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 1, the description thereof will be omitted. ..
  • the restriction unit 11 receives the restriction information S1 from the operator.
  • the limiting unit 11 generates a movable range S3, an openable / closable range S17, and a posture limiting range S18 based on the limited information S1, and gives them to the operation unit 12 and the video model generation unit 14.
  • the openable / closable range S17 is a range in which the manipulator 9 can be opened / closed.
  • the posture restriction range S18 is a posture when the manipulator 9 is restricted to a predetermined posture, in other words, an inclination when the manipulator 9 is restricted to a predetermined inclination.
  • the operation unit 12 receives the operation information S2 from the operator, the movable range S3 from the limiting unit 11, the openable / closable range S17 from the limiting unit 11, and the posture limiting range S18 from the limiting unit 11.
  • the operation unit 12 generates the first command information S4, the second command information S5, and the sixth command information S19 based on these information, and the first command information S4 is sent to the actual machine 3 and the actual machine model generation unit 131.
  • the second command information S5 is given to the image pickup means 4 and the image pickup model generation unit 132, and the sixth command information S19 is given to the manipulator 9 and the manipulator model generation unit 135.
  • the sixth command information S19 is input information for operating the manipulator 9 connected to the actual machine 3.
  • the sixth command information S19 is input information to a driver IC, a microcomputer, or the like that operates the manipulator 9.
  • the model generation unit 13 further has a manipulator model generation unit 135 that generates a model of the manipulator 9 using the sixth command information S19 generated by the operation unit 12.
  • the model generation unit 13 has a first command information S4 from the operation unit 12 to the actual machine model generation unit 131, a second command information S5 from the operation unit 12 to the imaging model generation unit 132, and a manipulator model generation unit from the operation unit 12.
  • Model information S6 is generated based on the sixth command information S19 to 135, and is given to the video model generation unit 14.
  • the video model generation unit 14 receives the movable range S3 from the restriction unit, the open / closeable range S17, the posture restriction range S18, and the model information S6 from the model generation unit 13. Based on this information, the image model generation unit 14 generates a movable information image S20 which is an image of the movable range S3, the open / closeable range S17, and the posture limiting range S18, and gives the movable information image S20 to the image display unit 15.
  • the video display unit 15 receives the movable information video S20 from the video model generation unit 14 and the actual machine video S8 from the image pickup means 4.
  • the video display unit 15 generates a video S9 in which these videos are superimposed and presents the video S9 to the operator.
  • the manipulator 9 is connected to the actual machine 3 and receives the sixth command information S19 from the operation unit 12.
  • the light source model generation unit 133 shown in FIG. 13 may be added to the model generation unit 13 of FIG. 25. ..
  • the drive model generation unit 134 in the third embodiment may be added to the model generation unit 13, or the image pickup means 4 may be connected to the drive device 8 and the orientation may be changed.
  • the model generation unit 13 outputs model information S6 that combines the model of the actual machine 3, the model of the image pickup means 4, the model of the light source, the model of the drive device 8, and the model of the manipulator 9.
  • the model generation unit 13 in the present embodiment may have an actual machine model generation unit 131, an image pickup model generation unit 132, and a manipulator model generation unit 135, and does not necessarily have a light source model generation unit 133 and a drive model generation unit 134. It is not necessary to have and. Further, the model information S6 may be a combination of the model of the actual machine 3, the model of the image pickup means 4, and the model of the manipulator 9, and it is not always necessary to combine the model of the light source and the model of the drive device 8. ..
  • FIG. 26 is a block diagram showing an example of another configuration of the remote control device 1 according to the fourth embodiment.
  • the remote control device 1 includes a restriction unit 11, an operation unit 12, and a video display unit 15.
  • FIG. 26 is a block diagram showing a configuration in which a manipulator 9 is added to the configuration of the second embodiment shown in FIG.
  • the limiting unit 11, the image display unit 15, the actual machine 3, the imaging means 4, the target 5, the non-target 6, and the movable range forming means 7 shown in FIG. 26 are the limiting unit 11 and the image display unit 15 shown in FIG. Since it is the same as the actual machine 3, the image pickup means 4, the target 5, the non-target 6, and the movable range forming means 7, the description thereof will be omitted. Further, since the manipulator 9 shown in FIG. 26 is the same as the manipulator 9 shown in FIG. 25, the description thereof will be omitted.
  • the operation unit 12 receives the operation information S2 from the operator and the movable range S3 from the restriction unit 11.
  • the operation unit 12 generates the first command information S4, the second command information S5, the fourth command information S14, and the sixth command information S19 based on these information, and gives the first command information S4 to the actual machine 3.
  • the second command information S5 is given to the image pickup means 4
  • the fourth command information S14 is given to the movable range forming means 7
  • the sixth command information S19 is given to the manipulator 9.
  • the limiting unit 11 As shown in FIG. 26, unlike the limiting unit 11 shown in FIG. 25, the limiting unit 11 generates only the movable range S3. That is, the open / closeable range S17 and the posture limiting range S18 of the manipulator 9 are not generated. Alternatively, as in FIG. 25, the limiting unit 11 may generate not only the movable range S3 but also the openable / closable range S17 and the posture limiting range S18 of the manipulator 9. However, a means for indicating an openable / closable range (not shown) and a means for indicating a posture restriction range (not shown) are required, and the operation unit 12 generates command information for these.
  • the image pickup means 4 may be connected to the drive device 8 and its orientation may be changed.
  • the operation unit 12 has the first command information S4 to the actual machine 3, the second command information S5 to the image pickup means 4, the fourth command information S14 to the movable range forming means 7, and the drive device 8.
  • the fifth command information S16 to the manipulator 9 and the sixth command information S19 to the manipulator 9 are generated.
  • the operation unit 12 in the fourth embodiment is the same as the operation unit 12 shown in FIG. Further, the control stick 121 has the function of the limiting unit 11.
  • the manipulator 9 may be opened and closed by rotating the control stick 121 in a state of being aligned with the center position of the operation unit 12.
  • FIG. 27 is a schematic diagram showing an example of the configuration including the actual machine 3 in the fourth embodiment.
  • FIG. 27 is a schematic diagram when operating the actual machine 3 using the remote control device 1 shown in FIG. 25. Since the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 27 are the same as the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 4, the description thereof will be omitted. ..
  • the manipulator 9 is rotatably connected to the end 34 of the actual machine.
  • the openable / closable range S17 and the posture limiting range S18 are set by the limiting unit 11 and the control stick 121.
  • FIG. 28 is a schematic diagram showing an example of the restriction unit 11 in the fourth embodiment.
  • FIG. 28 is a schematic diagram when operating the actual machine 3 using the remote control device 1 shown in FIG. 25. Further, FIG. 28 is a schematic diagram in the case of setting the open / closeable range S17 of the manipulator 9 in a mode similar to the third mode in the first embodiment.
  • the restriction patterns 11q and 11r are displayed on the video S9w from the video display unit 15.
  • the limiting patterns 11q and 11r are openable / closable patterns of the manipulator 9 prepared in advance.
  • the operator sets the movable range S3 of the actual machine 3 in an arbitrary mode, and selects either the limit pattern 11q or 11r as the open / closeable pattern of the manipulator 9.
  • the control stick 121 is used to move the cursor 11s to the restriction pattern 11q, and the button 122 is pressed.
  • the limiting unit 11 sets the openable / closable range S17 of the manipulator 9 in the x-axis direction.
  • the openable / closable pattern is not limited to the restriction patterns 11q and 11r, and may include an oblique pattern.
  • the image display unit 15 has a touch display function, and the operator may manually operate the screen to select either the restriction pattern 11q or 11r. This eliminates the need for the cursor 11s and enables simple operation.
  • the open / closeable range S17 of the manipulator 9 is set in a mode similar to the third mode in the first embodiment, but the first mode, the second mode, the fourth mode, or the fourth mode is set.
  • the openable / closable range S17 of the manipulator 9 may be set in a mode similar to the mode of 5.
  • FIG. 29 (a) and 29 (b) are schematic views showing an example of the image S9 in the image display unit 15 in the fourth embodiment.
  • FIG. 29 is a schematic diagram when operating the actual machine 3 using the remote control device 1 shown in FIG. 25.
  • FIG. 29A is a schematic diagram of the image S9x when the movable range S3 of the actual machine 3 is set in the x-axis direction and the restriction pattern 11q is selected as the openable / closable range S17 of the manipulator 9.
  • FIG. 29B is a schematic diagram of the image S9y when the movable range of the actual machine 3 is set in the x-axis direction and the restriction pattern 11r is selected as the openable / closable range S17 of the manipulator 9.
  • the image S9x is an image in which the actual machine image S8d, the movable information image S20a, and the movable information image S20b are superimposed.
  • the actual machine image S8d is an image of the actual machine 3 and the manipulator 9 taken by the image pickup means 4.
  • the movable information image S20a is an image of the movable range S3 generated by the image model generation unit 14.
  • the movable information video S20b is a video of the openable / closable range S17 generated by the video model generation unit 14.
  • the movable information image S20a is an image of the movable range S3 in the same direction as the x-axis direction.
  • the movable information image S20b is an image of the openable / closable range S17 in the same direction as the x-axis direction.
  • the image S9y is an image in which the actual machine image S8e, the movable information image S20a, and the movable information image S20c are superimposed.
  • the actual machine image S8e is an image of the actual machine 3 and the manipulator 9 taken by the image pickup means 4.
  • the movable information image S20a is an image of the movable range S3 generated by the image model generation unit 14.
  • the movable information video S20c is a video of the openable / closable range S17 generated by the video model generation unit 14.
  • the movable information image S20a is an image of the movable range S3 in the same direction as the x-axis direction.
  • the movable information image S20c is an image of the openable / closable range S17 in the same direction as the y-axis direction.
  • the movable information image S20a is displayed on the upper side in the actual machine images S8d and S8e, and the movable information images S20b and S20c are displayed on the lower side in the actual machine images S8d and S8e, respectively.
  • the movable information images S20b and S20c are displayed on the lower side in the actual machine images S8d and S8e, respectively.
  • it is not limited to this.
  • the operator sets the movable range S3 of the actual machine 3 in an arbitrary mode, sets the openable / closable range S17 of the manipulator 9 in an arbitrary mode, and limits the posture of the manipulator 9.
  • the range S18 is set by the control stick 121.
  • the operator sets the posture limiting range S18 by moving the control stick 121 in the x-axis direction or the y-axis direction.
  • FIG. 30 is a schematic diagram showing an example of another video S9 in the video display unit 15 in the fourth embodiment.
  • FIG. 30 is a schematic diagram when operating the actual machine 3 using the remote control device 1 shown in FIG. 25.
  • the movable range S3 of the actual machine 3 is set in the x-axis direction
  • the openable / closable range S17 of the manipulator 9 is set in the y-axis direction
  • the posture limiting range S18 of the manipulator 9 is in the diagonal direction of the y-axis.
  • It is a schematic diagram of the image S9z when it is set to.
  • the image S9z is an image in which the actual machine image S8f, the movable information image S20a, the movable information image S20c, and the movable information image S20d are superimposed.
  • the actual machine image S8f is an image of the actual machine 3 and the manipulator 9 taken by the image pickup means 4.
  • the movable information image S20a is an image of the movable range S3 generated by the image model generation unit 14.
  • the movable information video S20c is a video of the openable / closable range S17 generated by the video model generation unit 14.
  • the movable information video S20d is a video of the posture limiting range S18 generated by the video model generation unit 14. In the case of FIG.
  • the movable information image S20a is an image of the movable range S3 in the same direction as the x-axis direction. Further, the movable information image S20c is an image of the openable / closable range S17 in the same direction as the y-axis direction. Further, the movable information image S20d is an image of the posture limiting range S18 in the diagonal direction.
  • the movable information image S20a is displayed on the upper side in the actual machine image S8f
  • the movable information image S20c is displayed on the lower side in the actual machine image S8f
  • the movable information image S20d is near the center in the actual machine image S8f. It is displayed in, but it is not limited to this.
  • the image model generation unit 14 generates a movable information image S20 which is an image of the open / closeable range S17 of the manipulator 9 and the posture limiting range S18, and the movable information image S20 and the actual machine image S8 are superimposed.
  • S9 is displayed on the video display unit 15.
  • FIG. 31 is a block diagram showing an example of the configuration of the remote control device 1 according to the fifth embodiment.
  • the remote control device 1 includes a restriction unit 11, an operation unit 12, a model generation unit 13, a video model generation unit 14, and a video display unit 15.
  • FIG. 31 is a block diagram showing a configuration in which four image pickup means 41 to 44 are added to the configuration of the first embodiment shown in FIG.
  • the limiting unit 11, the model generation unit 13, the video model generation unit 14, the video display unit 15, the actual machine 3, the target 5, and the non-target 6 shown in FIG. 31 are the restriction unit 11, the model generation unit 13, and the model generation unit 13 shown in FIG. Since it is the same as the video model generation unit 14, the video display unit 15, the actual machine 3, the target 5, and the non-target 6, the description thereof will be omitted.
  • the operation unit 12 receives the operation information S2 from the operator and the movable range S3 from the restriction unit 11.
  • the operation unit 12 generates the first command information S4, the second command information S5, and the second command information S51 to S54 based on these information, and the first command information S4 is the actual machine 3 and the actual machine model generation unit. It is given to 131, the second command information S5 is given to the image pickup model generation unit 132, and the second command information S51 to S54 is given to the image pickup means 41 to 44, respectively.
  • the second command information S51 to S54 are a shooting ON / OFF switching command, a magnification adjustment command, and the like to the image pickup means 41 to 44, respectively.
  • the operation unit 12 generates the second command information S51 to S54 so that any one of the image pickup means 41 to 44 is turned on for shooting and the other is turned off for shooting. This makes it possible to select an imaging means corresponding to the direction in which the photograph is desired.
  • the operation unit 12 may generate the second command information S51 to S54 so that the plurality of image pickup means among the image pickup means 41 to 44 are turned on for shooting. As a result, a three-dimensional image obtained by combining a plurality of images is generated, and the same operation feeling as when directly operating the actual machine 3 can be obtained. That is, the operation unit 12 generates command information to the image pickup means 41 to 44 so that at least one of the plurality of image pickup means 41 to 44 is effective.
  • the second command information S5 is the same as the command information corresponding to the image pickup means in which the shooting ON is set among the second command information S51 to S54.
  • a plurality of second command information S5s are generated, and a plurality of image pickup model generation units 132 are also provided.
  • the image pickup means 41 to 44 receive the second command information S51 to S54 from the operation unit 12, respectively.
  • the image pickup means 41 to 44 generate the actual machine image S8 based on these information and give it to the image display unit 15. Specifically, among the image pickup means 41 to 44, the actual machine image S8 photographed by the image pickup means to which the command of photographing ON is transmitted by the operation unit 12 is input to the image display unit 15.
  • the number of imaging means is four, but the number may be any number as long as it is two or more.
  • the light source model generation unit 133 shown in FIG. 13 may be added to the model generation unit 13 of FIG. 31. ..
  • the drive model generation unit 134 in the third embodiment may be added to the model generation unit 13, or the image pickup means 4 may be connected to the drive device 8 and the orientation may be changed.
  • the manipulator model generation unit 135 in the fourth embodiment may be added to the model generation unit 13, or the manipulator 9 may be connected to the actual machine 3.
  • the model generation unit 13 outputs model information S6 that combines the model of the actual machine 3, the model of the image pickup means 4, the model of the light source, the model of the drive device 8, and the model of the manipulator 9.
  • the model generation unit 13 in the present embodiment may have an actual machine model generation unit 131 and an image pickup model generation unit 132, and does not necessarily have a light source model generation unit 133, a drive model generation unit 134, and a manipulator model generation unit 135. It is not necessary to have and. Further, the model information S6 may be a combination of the model of the actual machine 3 and the model of the image pickup means 4, and it is not always necessary to combine the model of the light source, the model of the drive device 8, and the model of the manipulator 9. ..
  • FIG. 32 is a block diagram showing an example of another configuration of the remote control device 1 according to the fifth embodiment.
  • the remote control device 1 includes a restriction unit 11, an operation unit 12, and a video display unit 15.
  • FIG. 32 is a block diagram showing a configuration in which four image pickup means 41 to 44 are added to the configuration of the second embodiment shown in FIG.
  • the limiting unit 11, the image display unit 15, the actual machine 3, the target 5, the non-target 6, and the movable range forming means 7 shown in FIG. 32 are the limiting unit 11, the image display unit 15, the actual machine 3, and the movable range forming means 7 shown in FIG. Since it is the same as the target 5, the non-target 6, and the movable range forming means 7, the description thereof will be omitted. Further, since the image pickup means 41 to 44 shown in FIG. 32 are the same as the image pickup means 41 to 44 shown in FIG. 31, the description thereof will be omitted.
  • the operation unit 12 receives the operation information S2 from the operator and the movable range S3 from the restriction unit 11.
  • the operation unit 12 generates the first command information S4, the second command information S51 to S54, and the fourth command information S14 based on these information, gives the first command information S4 to the actual machine 3, and gives the second command.
  • Information S51 to 54 are given to the imaging means 41 to 44, respectively, and fourth command information S14 is given to the movable range forming means 7.
  • the second command information S51 to S54 is the same as the second command information S51 to S54 shown in FIG.
  • the image pickup means 41 to 44 may be connected to the drive device 8 to change the orientation, or the actual machine 3 may be connected to the manipulator 9.
  • the operation unit 12 includes the first command information S4 to the actual machine 3, the second command information S51 to S54 to the image pickup means 41 to 44, and the fourth command information S14 to the movable range forming means 7.
  • the fifth command information S16 to the drive device 8 and the sixth command information S19 to the manipulator 9 are generated.
  • the configuration including the operation unit 12 in the fifth embodiment is the same as the configuration shown in FIG. 2, the description thereof will be omitted. Further, since the operation unit 12 in the fifth embodiment is the same as the operation unit 12 shown in FIG. 3, the description thereof will be omitted.
  • FIG. 33 is a schematic diagram showing an example of the configuration including the actual machine 3 in the fifth embodiment.
  • FIG. 33 is a schematic diagram when operating the actual machine 3 using the remote control device 1 shown in FIG. 31. Since the actual machine 3, the target 5, and the non-target 6 shown in FIG. 33 are the same as the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 4, the description thereof will be omitted.
  • the image pickup means 41 to 44 are all arranged at positions where the actual machine 3 can be seen.
  • Drive devices 81 to 84 may be connected to each of the image pickup means 41 to 44.
  • FIG. 34 is a flowchart showing an example of the operation of the remote control device 1 in the fifth embodiment. The flowchart of FIG. 34 is also applied to the remote control device 1 according to the first to fourth embodiments.
  • the restriction unit 11 sets the movable range S3 of the actual machine 3 based on the restriction information S1 from the operator (step ST1). ..
  • the operation unit 12 generates first command information S4, which is input information for operating the actual machine 3, based on the operation information S2 from the operator and the movable range S3 of the actual machine 3 (step ST2). ).
  • the image display unit 15 displays the actual machine image S8 from the image pickup means 4 and the movable information image S7 from the image model generation unit 14 (step ST3). Alternatively, the image display unit 15 displays the actual machine image S8 and the movable information image S15 from the image pickup means 4.
  • the movable information image S7 is an image of the movable range S3 from the limiting unit 11. Further, the movable information image S15 is an image of the movable range S3 acquired by photographing the movable range forming means 7.
  • a means (not shown) instructs the operator to start remote control (step ST4).
  • the operator remotely controls the actual machine 3 while checking the actual machine image S8 and the movable information image S7 displayed by the image display unit 15, or the actual machine image S8 and the movable information image S15.
  • a means (not shown) stops the remote control device 1 when receiving an instruction from the operator to end the remote control.
  • the actual machine 3 is photographed with any one of the plurality of imaging means effective.
  • the operator can operate the actual machine 3 while sequentially selecting the orientation of the actual machine image S8, and can efficiently perform remote control.
  • the actual machine 3 is photographed with the plurality of imaging means effective, and a three-dimensional image in which the plurality of images are combined is generated.
  • the same operation feeling as when the actual machine 3 is directly operated can be obtained.
  • FIG. 35 is a block diagram showing an example of the configuration of the remote control device 1 according to the sixth embodiment.
  • the remote control device 1 includes a restriction unit 11, an operation unit 12, a model generation unit 13, a video model generation unit 14a, and a video display unit 15a.
  • FIG. 35 is different from FIG. 1 in that the video model generation unit 14a outputs not only the movable information video S7 but also the actual machine video S81.
  • FIG. 35 is different from FIG. 1 in that the image display unit 15a inputs the actual machine image S81 from the image model generation unit 14a instead of inputting the actual machine image S8 from the image pickup means 4.
  • the limiting unit 11, the operating unit 12, the model generating unit 13, the actual machine 3, the target 5, and the non-target 6 shown in FIG. 35 are the limiting unit 11, the operating unit 12, the model generating unit 13, and the actual machine 3 shown in FIG. , Target 5, and non-target 6, so the description thereof will be omitted.
  • the video model generation unit 14a receives the movable range S3 from the restriction unit 11 and the model information S6 from the model generation unit 13. Based on this information, the image model generation unit 14a generates a movable information image S7 in which the movable range S3 is visualized and an actual machine image S81, and gives the image display unit 15a.
  • the actual machine image S81 is, for example, a visualization of a three-dimensional model of the actual machine 3.
  • the video display unit 15a receives the movable information video S7 and the actual machine video S81 from the video model generation unit 14.
  • the video display unit 15a generates a video S9 based on the movable information video S7 and the actual machine video S81, and presents the video S9 to the operator.
  • the image display unit 15a displays the actual machine image S81 in which the three-dimensional model of the actual machine 3 is visualized, instead of the actual machine image S8 which is imaged by photographing the actual machine 3.
  • the image display unit 15a has a movable information in which the actual machine image S81 in which the actual machine 3 is visualized and the movable range S3 corresponding to the actual machine 3 are visualized.
  • the image S7 is displayed.
  • the remote control device 1 may input an image from the image pickup means 4 in order to grasp the positional relationship between the actual machine 3 and the target 5. good.
  • the image display unit 15a photographing the actual machine 3 and displaying the imaged image
  • the three-dimensional model of the actual machine 3 displays the imaged image, thereby eliminating the need for the image pickup means 4. be able to.
  • the image pickup means 4 can be made inexpensive with a small resolution. This is because the actual machine image S81 displayed by the image display unit 15a is a three-dimensional model of the actual machine 3 and does not depend on the resolution of the image pickup means 4.
  • FIG. 36 is a flowchart showing an example of the operation of the remote control device 1 in the sixth embodiment.
  • the restriction unit 11 sets the movable range S3 of the actual machine 3 based on the restriction information S1 from the operator (step ST1). ..
  • the operation unit 12 generates first command information S4, which is input information for operating the actual machine 3, based on the operation information S2 from the operator and the movable range S3 of the actual machine 3 (step ST2). ).
  • the video display unit 15a displays the actual machine video S81 and the movable information video S7 from the video model generation unit 14a (step ST5).
  • a means instructs the operator to start remote control (step ST4).
  • the operator remotely controls the actual machine 3 while checking the actual machine image S8 and the movable information image S7 displayed by the image display unit 15a.
  • the image of the three-dimensional model of the actual machine 3 is displayed.
  • the image pickup means 4 can be eliminated. Further, even if the image pickup means 4 is required, it can be inexpensive with a small resolution.
  • FIG. 37 is a block diagram showing an example of the configuration of the remote control device 1 according to the seventh embodiment.
  • the remote control device 1 includes a restriction unit 11s, an operation unit 12a, a model generation unit 13, a video model generation unit 14, and a video display unit 15.
  • FIG. 37 is different from FIG. 1 in that the limiting unit 11s is provided instead of the limiting unit 11 and the operating unit 12a is provided instead of the operating unit 12.
  • the model generation unit 13, the image model generation unit 14, the image display unit 15, the actual machine 3, the image pickup means 4, the target 5, and the non-target 6 shown in FIG. 37 are the model generation unit 13 and the image model generation unit shown in FIG. Since it is the same as 14, the image display unit 15, the actual machine 3, the image pickup means 4, the target 5, and the non-target 6, the description thereof will be omitted.
  • the restriction unit 11s receives the restriction information S1 from the operator.
  • the limiting unit 11s generates a movable range S3 based on the limiting information S1 and gives it to the coordinate system conversion unit 123 and the video model generation unit 14 in the operation unit 12a.
  • the limiting unit 11s sets the movable range S3 in an arbitrary spatial coordinate system including the xyz orthogonal coordinate system in which the actual machine 3 is installed. Therefore, the limiting unit 11s does not physically set the movable range S3 by using, for example, the x-axis translation plate 11a and the y-axis translation plate 11b shown in FIG. 5, but sets the movable range S3 by software processing. Set.
  • the software processing is to set a plurality of points in the coordinate system in which the movable range S3 is to be set, and set the straight line, the curve, the plane, or the curved surface including these points as the movable range S3.
  • the operation unit 12a includes a coordinate system conversion unit 123, an inverse kinematics calculation unit 124, and a second command information generation unit 125.
  • the coordinate system conversion unit 123 receives the movable range S3 from the restriction unit 11s.
  • the coordinate system conversion unit 123 converts the spatial coordinate system in which the movable range S3 is set into the xyz orthogonal coordinate system in which the actual machine 3 is installed. This corresponds to a mapping from the spatial coordinate system in which the movable range S3 is set to the xyz orthogonal coordinate system.
  • the inverse kinematics calculation unit 124 receives the operation information S2 from the operator and the exerciseable range S3 from the restriction unit 11s.
  • the inverse kinematics calculation unit 124 reverses motion with respect to a plurality of points constituting the movable range S3 in the xyz Cartesian coordinate system converted by the coordinate system conversion unit 123 based on the operation information S2 and the movable range S3.
  • the academic calculation is performed, and the first command information S41 after the inverse kinematics calculation is given to the actual machine 3 and the actual machine model generation unit 131.
  • the second command information generation unit 125 receives the operation information S2 from the operator.
  • the second command information generation unit 125 generates the second command information S5 based on the operation information S2 and gives it to the image pickup means 4 and the image pickup model generation unit 132. Since the second command information S5 is the same as the second command information S5 in the first embodiment, the description thereof will be omitted.
  • the actual machine 3 moves within the movable range S3 set by the limiting unit 11s, but may not be physically able to move. Therefore, the remote control device 1 may be provided with a first correction unit (not shown) between the operation unit 12a and the actual machine 3 and between the operation unit 12a and the actual machine model generation unit 131.
  • the first correction unit receives the first command information S41 from the inverse kinematics calculation unit 124 and corrects the first command information S41.
  • the first correction unit gives the corrected first command information to the actual machine 3 and the actual machine model generation unit 131.
  • the first correction unit corrects the first command information S41 so as to be within the movable range.
  • a second correction unit (not shown) is provided between the restriction unit 11s and the operation unit 12a, and between the restriction unit 11s and the video model generation unit 14. May be provided.
  • the second correction unit corrects the movable range S3 from the limiting unit 11s, and gives the corrected movable range to the coordinate system conversion unit 123 and the video model generation unit 14.
  • the second correction unit converts the spatial coordinate system in which the movable range S3 is set into the xyz Cartesian coordinate system, and performs inverse kinematics calculation on a plurality of points constituting the movable range S3. ..
  • the second correction unit corrects the kinematic range calculated by the inverse kinematics, and sets the corrected kinematic range as the corrected kinematic range, and sets the operation unit 12a and the video model generation unit 14.
  • the corrected range of the inverse kinematics calculated may be output as the first command information S41 to the actual machine 3 and the actual machine model generation unit 131, and in this case, the kinematics calculation is unnecessary. Become. However, when the video display unit 15 displays the corrected kinetic range, the kinematics calculation is performed.
  • FIG. 38 is a schematic diagram showing an example of the configuration including the actual machine 3 in the seventh embodiment. Since the image pickup means 4 shown in FIG. 38 is the same as the image pickup means 4 shown in FIG. 4, the description thereof will be omitted.
  • the actual machine 3 is a 2-link manipulator.
  • the two-link manipulator is a robot arm that determines the position of the end effector 35 by rotating two actuators 36 by the first command information S41 from the inverse kinematics calculation unit 124.
  • the movable range S3 is set with respect to the end effector 35.
  • FIG. 37 only the first command information S41 is input to the actual machine 3 and the actual machine model generation unit 131, but when the actual machine 3 is a two-link manipulator, there are two different actuators 36.
  • the first command information S41 is input.
  • the inverse kinematics calculation unit 124 uses a conversion formula for converting the position of the end effector 35 into the angles of the two actuators 36, thereby causing the inverse kinematics. Perform academic calculations. Therefore, the first command information S41 corresponds to the angle of the actuator 36.
  • the conversion formula becomes complicated.
  • the inverse kinematics calculation unit 124 simplifies the conversion formula by linearizing the angle of the actuator 36 with respect to the position of the end effector 35, and optimizes the coefficient to be multiplied by the variable such as the position of the end effector 35. It may be obtained by an algorithm. Alternatively, the coefficient may be obtained by machine learning. The optimization algorithm is, for example, a gradient descent method.
  • the kinematic calculation performed by the second correction unit uses a conversion formula for converting the angle of the actuator 36 to the position of the end effector 35. be.
  • the actual machine 3 is not limited to the 2-link manipulator.
  • FIG. 39 (a) and 39 (b) are schematic views showing an example of the image S9 in the image display unit 15 in the seventh embodiment.
  • FIG. 39A is a schematic diagram of the image S91a on the image display unit 15 when the straight line is set as the movable range S3.
  • FIG. 39B is a schematic diagram of the image S91b on the image display unit 15 when the plane is set as the movable range S3.
  • the image S91a is an image in which the actual machine image S8g and the movable information image S7p are superimposed.
  • the actual machine image S8g is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7p is a video of the movable range S3 generated by the video model generation unit 14.
  • the image S91b is an image in which the actual machine image S8h and the movable information image S7q are superimposed.
  • the actual machine image S8h is an image of the actual machine 3 taken by the image pickup means 4.
  • the movable information video S7q is a video of the movable range S3 generated by the video model generation unit 14.
  • the first problem is that a divergence occurs between the movable range S3 set by the limiting unit 11s and the motion locus of the end effector 35.
  • 40 (a) and 40 (b) are schematic views showing the relationship between the movable range S3 and the motion locus of the end effector 35 in the seventh embodiment.
  • FIG. 40A shows the motion locus T1 of the end effector 35 when the movable range S3a is set by the plurality of points C1.
  • FIG. 40B shows the motion locus T2 of the end effector 35 when the movable range S3b is set by the plurality of points C2.
  • the interval between the points C1 becomes large, so that a gap occurs between the movable range S3a and the motion locus T1.
  • the first command information S41 is command information to the actuator 36, and this locus is a rotation locus.
  • the locus of the movable range S3 is not limited to the rotation locus, and any locus can be taken.
  • the actual machine 3 is composed of the x-axis translation mechanism 31, the y-axis translation mechanism 32, and the z-axis translation mechanism 33, the number of points to be set per unit time is small. Even in this case, there is no discrepancy between the movable range S3 and the movement locus. This is because, for example, when the movable range S3 is set to the x-axis, the locus of the first command information S4 becomes the x-axis, which coincides with the locus of the movable range S3, and both have a linear relationship.
  • the second problem is that the first command information S41 becomes discontinuous when switching between a free movement in which the movable range S3 is not set and a restraint movement in which the movable range S3 is set.
  • free motion the real machine 3 moves in the xyz Cartesian coordinate system.
  • the constrained motion the movable range S3 is once converted into the spatial coordinate system in which the movable range S3 is set, and then converted into the xyz orthogonal coordinate system.
  • the first command information S41 becomes discontinuous.
  • the actuator 36 is required to change the command value suddenly, so that the actuator 36 may be damaged.
  • the end effector 35 may be moved to a position where the change in the command value for the actuator 36 is suppressed within the first predetermined range, and then the free motion is switched to the restraint motion.
  • the first predetermined range is, for example, a range in which the current flowing through the actuator 36 is equal to or less than a predetermined value.
  • the first predetermined range is a range that does not collide with the surrounding environment (equipment, people, etc.).
  • points such that the distance from the coordinate point of the end effector 35 immediately before the switch is within the second predetermined range are selected from a plurality of points, and are selected immediately after the switch.
  • the second predetermined range may be the same as or different from the first predetermined range.
  • the plurality of points are a plurality of points constituting the movable range S3.
  • the movable range S3 may be set so that the spatial coordinate system in which the movable range S3 is set becomes the xyz orthogonal coordinate system. As a result, the transformation of the coordinate system does not occur. Further, instead of remotely controlling the actual machine 3 with two motion patterns of free motion and restraint motion, remote control may be performed only with the restraint motion.
  • FIG. 41 is a flowchart showing an example of the operation of the remote control device 1 according to the seventh embodiment.
  • the restriction unit 11s sets the movable range S3 of the actual machine 3 based on the restriction information S1 from the operator (step ST6). ..
  • the limiting unit 11s sets the movable range S3 by software processing.
  • the coordinate system conversion unit 123 converts the spatial coordinate system in which the movable range S3 is set into the xyz orthogonal coordinate system (step ST7).
  • the inverse kinematics calculation unit 124 performs inverse kinematics calculation on a plurality of points constituting the movable range S3 in the xyz orthogonal coordinate system converted by the coordinate system conversion unit 123, and the first after the inverse kinematics calculation.
  • the command information S41 is given to the actual machine 3 and the actual machine model generation unit 131 (step ST8).
  • the image display unit 15 displays the actual machine image S8 from the image pickup means 4 and the movable information image S7 from the image model generation unit 14 (step ST3).
  • a means (not shown) instructs the operator to start remote control (step ST4).
  • the operator remotely controls the actual machine 3 while checking the actual machine image S8 and the movable information image S7 displayed by the image display unit 15.
  • a means (not shown) stops the remote control device 1 when receiving an instruction from the operator to end the remote control.
  • the movable range S3 can be set in any spatial coordinate system.
  • the movable range S3 of the actual machine 3 is set in the x-axis direction, the y-axis direction, or an arbitrary direction on the xy plane, but is arbitrary in the z-axis direction and the yz plane. It may be set in a direction or in any direction on the xz plane. Further, the movable range S3 may be set on an arbitrary plane.
  • the head-mounted display may be used as the video display units 15 and 15a, and the operator may wear the head-mounted display and remotely control the actual machine 3 while checking the video S9. ..
  • the actual machine end 34, the manipulator 9 or the end effector 35 may be presented to the operator by means (not shown) that the actual machine end 34, the manipulator 9 or the end effector 35 has come into contact with the target 5.
  • a tactile sensor is attached to the end 34 of the actual machine, the manipulator 9, or the end effector 35. After confirming the contact with the target 5, it is not always necessary to operate the actual machine while confirming the actual machine images S8 and S81, so that a period for turning off the shooting by the imaging means 4 can be provided. As a result, the memory capacity of the image pickup means 4 can be reduced, and the load of communication between the remote control device 1 and the image pickup means 4 can be reduced.

Abstract

遠隔操作装置(1)は、実機械(3)を操作者が遠隔操作する遠隔操作装置(1)であって、前記操作者からの制限情報(S1)に基づいて、前記実機械(3)の運動可能範囲(S3)を設定する制限部(11)と、前記操作者からの操作情報(S2)と、前記運動可能範囲(S3)とに基づいて、前記実機械(3)を操作するための入力情報である第1指令情報(S4)を生成する操作部(12)と、前記実機械(3)が映像化された実機械映像(S8)と、前記実機械(3)に対応した前記運動可能範囲(S3)が映像化された可動情報映像(S7)とを表示する映像表示部(15)と、を備える。

Description

遠隔操作装置
 本開示は、実機械を操作者が遠隔操作する遠隔操作装置に関する。
 操作者が実機械を遠隔操作する際、操作者が予測する実機械の挙動と、実際の実機械の挙動が異なることから、実機械の運動予測が困難となり、作業効率が悪くなる。
 特許文献1は、非常に器用なシステムのユーザインタフェースを開示する。当該システムは、実機械の運動予測を容易にするために、実機械の運動可能範囲を設定する。
特表2018-513711号公報(第10-12頁、第1図)
 従来の遠隔操作装置では、操作者は実機械の運動可能範囲を把握することができず、作業効率が悪くなるという課題があった。
 本開示は、上述の課題を解決するためになされた。本開示の目的は、実機械の運動可能範囲を設定し、設定された運動可能範囲を操作者に提示することで、作業効率が良くなる遠隔操作装置を提供することである。
 本開示に係る遠隔操作装置は、実機械を操作者が遠隔操作する遠隔操作装置であって、前記操作者からの制限情報に基づいて、前記実機械の運動可能範囲を設定する制限部と、前記操作者からの操作情報と、前記運動可能範囲とに基づいて、前記実機械を操作するための入力情報である第1指令情報を生成する操作部と、前記実機械が映像化された実機械映像と、前記実機械に対応した前記運動可能範囲が映像化された可動情報映像とを表示する映像表示部とを備える。
 本開示によれば、遠隔操作装置は、実機械の運動可能範囲を設定し、設定された運動可能範囲を操作者に提示することで、従来に比べて作業効率を良くすることができる。
実施の形態1における遠隔操作装置の構成の一例を示すブロック図である。 実施の形態1における操作部を含む構成の一例を示す模式図である。 実施の形態1における操作部の一例を示す模式図である。 実施の形態1における実機械を含む構成の一例を示す模式図である。 実施の形態1において第1のモードで運動可能範囲を設定する場合の制限部の一例を示す模式図である。 実施の形態1において第1のモードで運動可能範囲を設定した場合の映像表示部での映像の一例を示す模式図である。 実施の形態1において第2のモードで運動可能範囲を設定する場合の制限部の一例を示す模式図である。 実施の形態1において第2のモードで運動可能範囲を設定した場合の映像表示部での映像の一例を示す模式図である。 実施の形態1において第3のモードで運動可能範囲を設定する場合の制限部の一例を示す模式図である。 実施の形態1において第3のモードで運動可能範囲を設定した場合の映像表示部での映像の一例を示す模式図である。 実施の形態1において第4のモードで運動可能範囲を設定する場合の制限部の一例を示す模式図である。 実施の形態1において第4のモードで運動可能範囲を設定した場合の映像表示部での映像の一例を示す模式図である。 実施の形態1において第5のモードで運動可能範囲を設定する場合のモデル生成部の構成の一例を示す模式図である。 実施の形態1において第5のモードで運動可能範囲を設定する場合の操作部の一例を示す模式図である。 実施の形態1において第5のモードで運動可能範囲を設定した場合の映像表示部での映像の一例を示す模式図である。 実施の形態1において第5のモードで運動可能範囲を設定した場合の映像表示部での別の映像の一例を示す模式図である。 実施の形態2における遠隔操作装置の構成の一例を示すブロック図である。 実施の形態2における実機械を含む構成の一例を示す模式図である。 実施の形態2における実機械を含む別の構成の一例を示す模式図である。 実施の形態2における映像表示部での映像の一例を示す模式図である。 実施の形態2における映像表示部での別の映像の一例を示す模式図である。 実施の形態3における遠隔操作装置の構成の一例を示すブロック図である。 実施の形態3における遠隔操作装置の別の構成の一例を示すブロック図である。 実施の形態3における実機械を含む構成の一例を示す模式図である。 実施の形態4における遠隔操作装置の構成の一例を示すブロック図である。 実施の形態4における遠隔操作装置の別の構成の一例を示すブロック図である。 実施の形態4における実機械を含む構成の一例を示す模式図である。 実施の形態4における制限部の一例を示す模式図である。 実施の形態4における映像表示部での映像の一例を示す模式図である。 実施の形態4における映像表示部での別の映像の一例を示す模式図である。 実施の形態5における遠隔操作装置の構成の一例を示すブロック図である。 実施の形態5における遠隔操作装置の別の構成の一例を示すブロック図である。 実施の形態5における実機械を含む構成の一例を示す模式図である。 実施の形態1から5における遠隔操作装置の動作の一例を示すフローチャートである。 実施の形態6における遠隔操作装置の構成の一例を示すブロック図である。 実施の形態6における遠隔操作装置の動作の一例を示すフローチャートである。 実施の形態7における遠隔操作装置の構成の一例を示すブロック図である。 実施の形態7における実機械を含む構成の一例を示す模式図である。 実施の形態7における映像表示部での映像の一例を示す模式図である。 実施の形態7における運動可能範囲とエンドエフェクタの運動軌跡との関係を示す模式図である。 実施の形態7における遠隔操作装置の動作の一例を示すフローチャートである。
 実施の形態について添付の図面に従って説明する。なお、説明を容易にするために、各図中にxyz直交座標系の座標軸を示す。実機械3において、後に説明するx軸並進機構31とy軸並進機構32とz軸並進機構33とが配置される方向でxyz直交座標系を定義する。x軸並進機構31が配置される方向と同じ方向をx軸方向とする。奥側が+x方向であり、手前側が-x方向である。y軸並進機構32が配置される方向と同じ方向をy軸方向とする。左側が+y方向であり、右側が-y方向である。z軸並進機構33が配置される方向と同じ方向をz軸方向とする。上側が+z方向であり、下側が-z方向である。また、操作部12および操作者に対し、奥行方向をx軸方向とする。奥側が+x方向であり、手前側が-x方向である。操作部12および操作者に対し、左右方向をy軸方向とする。左側が+y方向であり、右側が-y方向である。操作部12および操作者に対し、上下方向をz軸方向とする。上側が+z方向であり、下側が-z方向である。
実施の形態1.
 図1は、実施の形態1における遠隔操作装置1の構成の一例を示すブロック図である。遠隔操作装置1は、撮像手段4によって撮影される実機械3を操作者が遠隔操作するものである。
 図1に示すように、遠隔操作装置1は、制限部11と、操作部12と、モデル生成部13と、映像モデル生成部14と、映像表示部15とを備える。
 制限部11は、図示しない操作者からの制限情報S1を受け取る。制限部11は、この制限情報S1に基づいて運動可能範囲S3を生成し、操作部12および映像モデル生成部14に与える。制限情報S1は、実機械3の運動可能な範囲を操作者が設定する情報である。運動可能範囲S3は、操作者によって設定される、実機械3の運動可能な範囲である。すなわち、制限部11は、操作者からの制限情報S1に基づいて、実機械3の運動可能範囲S3を設定する。
 操作部12は、操作者からの操作情報S2と、制限部11からの運動可能範囲S3とを受け取る。操作部12は、操作情報S2と運動可能範囲S3とに基づいて第1指令情報S4と第2指令情報S5とを生成し、第1指令情報S4を実機械3および実機械モデル生成部131に与え、第2指令情報S5を撮像手段4および撮像モデル生成部132に与える。操作情報S2は、実機械3を遠隔操作するための運動コマンドである。この運動コマンドは、後に説明する操作部12内の操縦桿121およびボタン122の操作そのものである。第1指令情報S4は、実機械3を操作するための入力情報である。具体的には、第1指令情報S4は、実機械3を動かすドライバーICやマイコンなどへの入力情報である。第2指令情報S5は、撮像手段4を操作するための入力情報である。具体的には、第2指令情報S5は、撮像手段4への、撮影のON/OFF切り替えコマンド、および倍率調整コマンドなどである。操作者は、撮像手段4の倍率を調整することで、実機械3の全体映像と拡大映像との両方を確認しながら実機械3を操作することができる。
 モデル生成部13は、操作部12からの第1指令情報S4および第2指令情報S5を受け取る。モデル生成部13は、これらの情報に基づいてモデル情報S6を生成し、映像モデル生成部14に与える。モデル生成部13は、第1指令情報S4を用いて実機械3のモデルを生成する実機械モデル生成部131と、第2指令情報S5を用いて撮像手段4のモデルを生成する撮像モデル生成部132とを有する。モデル情報S6は、実機械3のモデルと撮像手段4のモデルとを組み合わせたものであり、例えば実機械3を所定の方向から見えるように仮想的に投影された3次元モデルである。ここで所定の方向とは、撮像手段4が実機械3を撮影する方向と同じである。すなわち、モデル生成部13は、実機械3のモデルと撮像手段4のモデルとを組み合わせたモデル情報S6を出力する。
 映像モデル生成部14は、制限部11からの運動可能範囲S3と、モデル生成部13からのモデル情報S6とを受け取る。映像モデル生成部14は、これらの情報に基づいて、運動可能範囲S3が映像化された可動情報映像S7を生成し、映像表示部15に与える。可動情報映像S7は、実機械3に対応した運動可能範囲S3が映像化されたものである。 
 映像表示部15は、映像モデル生成部14からの可動情報映像S7と、撮像手段4からの実機械映像S8とを受け取る。映像表示部15は、可動情報映像S7と実機械映像S8とに基づいて映像S9を生成し、映像S9を操作者に提示する。映像表示部15は、実機械映像S8と可動情報映像S7とを表示する。実機械映像S8は、実機械3を撮影して映像化されたものである。映像表示部15は、可動情報映像S7内の3次元モデルの位置と実機械映像S8内の実機械の位置とが一致するよう、可動情報映像S7の位置調整を行う。これにより、可動情報映像S7が実機械映像S8に対し正確な位置に重畳される。可動情報映像S7の位置調整は、可動情報映像S7と実機械映像S8との画像特徴点あるいはマーカーなどを利用した画像処理によって行われてもよい。あるいは、可動情報映像S7と実機械映像S8との初期位置を補正することによって行われてもよい。可動情報映像S7の位置調整を行う方法は、これらに限定されない。また、映像表示部15は実機械映像S8と可動情報映像S7とを重畳して表示する必要はなく、例えばそれぞれの映像を別画面で表示してもよい。但し、以下では重畳して表示するものとして説明する。
 実機械3は、操作部12からの第1指令情報S4と、ターゲット5からの反作用力S11と、非ターゲット6からの反作用力S12を受け取る。実機械3は、この第1指令情報S4に基づいて作用力S10を生成し、ターゲット5に与える。ターゲット5は、実機械3が作用力S10を与えて動かす対象物である。ターゲット5からの反作用力S11は、実機械3がターゲット5を動かす際に発生する。また、非ターゲット6からの反作用力S12は、実機械3がターゲット5を動かし、非ターゲット6に接触する際に発生する。
 撮像手段4は、操作部12からの第2指令情報S5を受け取る。撮像手段4は、この第2指令情報S5に基づいて実機械3を撮影して実機械映像S8を生成し、映像表示部15に与える。
 ターゲット5は、実機械3からの作用力S10を受け取る。ターゲット5は、この作用力S10に基づいて、反作用力S11を実機械3に与える。
 非ターゲット6は、ターゲット5が非ターゲット6に接触すると、反作用力S12を実機械3に与える。図示しないが、反作用力S12は、ターゲット5を経由した非ターゲット6からの力も含む。非ターゲット6は、ターゲット5とは異なり、実機械3が作用力S10を意図的に与えない対象物である。
 図1において、撮像手段4が常に同じ位置に固定され、かつ常に撮影ONの状態であれば、第2指令情報S5が撮像手段4に入力されなくても、実機械映像S8が得られる。この場合、第2指令情報S5は撮像手段4に入力される必要はなく、撮像モデル生成部132にのみ入力される。これは、以降の実施の形態でも同様である。
 図2(a)および(b)は、実施の形態1における操作部12を含む構成の一例を示す模式図である。図2(a)は、操作者を背面から見た図であり、図2(b)は、操作者を上面から見た図である。
 図2に示すように、操作者は、映像表示部15の映像S9を見ながら、操作部12を用いて実機械3を遠隔操作する。図2に示す操作部12、映像表示部15、および映像S9は、図1に示す操作部12、映像表示部15、および映像S9と同じであるため、説明を省略する。
 図3は、実施の形態1における操作部12の一例を示す模式図である。図3に示すように、操作部12は、操縦桿121と、ボタン122とを有する。
 操縦桿121は、x軸方向、y軸方向、およびxy面内を操作可能とするコントローラである。操縦桿121は、実機械3を遠隔操作するのに用いられる。すなわち、操縦桿121の操作方向に対応して、実機械3が運動する。例えば、操作者が操縦桿121を+x方向に操作すると、実機械は+x方向に運動する。
 ボタン122は、実機械3をz軸方向に動かすためのボタンである。例えば、操作者がボタン122を押し続けると、実機械3は+z方向に運動し、ボタン122を離すと、実機械3は-z方向に運動する。この状態でボタン122を押すと、実機械3は停止する。
 操作部12は、図3に示すような操縦桿121とボタン122とを有するものに限定されない。例えば、操作者がジェスチャーで操作してもよいし、実機械3を模擬した図示しない補助装置を操作者が着用して操作してもよい。ここでジェスチャーは、例えば操作者の近くに配置される図示しないカメラに向かって手を振るなどの動作である。ジェスチャーあるいは補助装置の操作方向に対応して、実機械3が運動する。例えば操作者がジェスチャーあるいは補助装置を用いて+x方向に操作すると、実機械は+x方向に運動する。
 図4は、実施の形態1における実機械3を含む構成の一例を示す模式図である。図4に示す撮像手段4、ターゲット5、および非ターゲット6は、図1に示す撮像手段4、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 図4に示すように、実機械3は、x軸並進機構31と、y軸並進機構32と、z軸並進機構33と、実機械端34とを有する。
 x軸並進機構31は、実機械端34をx軸方向に動かす。すなわち、x軸並進機構31は、操作者が操作部12の操縦桿121をx軸方向に操作すると、実機械端34をx軸方向に動かす。
 y軸並進機構32は、実機械端34をy軸方向に動かす。すなわち、y軸並進機構32は、操作者が操作部12の操縦桿121をy軸方向に操作すると、実機械端34をy軸方向に動かす。
 z軸並進機構33は、実機械端34をz軸方向に動かす。すなわち、z軸並進機構33は、操作者が操作部12のボタン122を押すと、実機械端34をz軸方向に動かす。
 実機械端34は、操作者からの操作情報S2に基づいて運動する。
 図4において、撮像手段4は、実機械3を視野に収められる位置に配置される。撮像手段4は、実機械3を撮影して実機械映像S8を生成する。映像表示部15は、この実機械映像S8を表示する。これは、従来の遠隔操作装置と同様である。実施の形態1における映像表示部15は、実機械映像S8と、実機械3の運動可能範囲S3の映像である可動情報映像S7とを重畳した映像S9を表示する。以下では、制限部11での運動可能範囲S3の設定方法について述べる。
 制限部11は、5つのモード(以下、「第1のモード」、「第2のモード」、「第3のモード」、「第4のモード」、および「第5のモード」と称する)のうちのいずれか1つのモードによって、実機械3の運動可能範囲S3を設定する。第1のモードは、操作部12の操作を強制的に限定する手段によって、運動可能範囲S3を設定するモードである。第2のモードは、運動可能とする方向に対応するボタンを押すことによって、運動可能範囲S3を設定するモードである。第3のモードは、予め用意された運動可能パターンによって、運動可能範囲S3を設定するモードである。第4のモードは、複数の拘束点を結ぶ直線あるいは曲線によって、運動可能範囲S3を設定するモードである。第5のモードは、光を放出する光源のモデルを生成する光源モデル生成部133によって、運動可能範囲S3を設定するモードである。
 まずは、第1のモードについて詳細に説明する。第1のモードでは、操作部12は、操作者からの操作を強制的に限定する手段を有する。制限部11は、この手段によって運動可能範囲S3を設定する。ここで、強制的に限定する手段とは、操作部12の操作可能な範囲を物理的に限定するものである。一例として、後に説明するx軸並進板11aおよびy軸並進板11bである。図5(a)および(b)は、実施の形態1において第1のモードで運動可能範囲S3を設定する場合の制限部11の一例を示す模式図である。図5(a)は、制限部11がx軸並進板11aの場合の模式図である。図5(b)は、制限部11がy軸並進板11bの場合の模式図である。
 図5(a)に示すx軸並進板11aは、操作部12に装着される。これにより、操縦桿121の操作をx軸方向に制限することができる。同様に、図5(b)に示すy軸並進板11bは、操作部12に装着される。これにより、操縦桿121の操作をy軸方向に制限することができる。
 図6(a)および(b)は、実施の形態1において第1のモードで運動可能範囲S3を設定した場合の映像表示部15での映像S9の一例を示す模式図である。図6(a)は、x軸並進板11aを操作部12に装着した場合の映像S9aの模式図である。図6(b)は、y軸並進板11bを操作部12に装着した場合の映像S9bの模式図である。
 図6(a)に示すように、映像S9aは、実機械映像S8aと可動情報映像S7aとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7aは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図6(a)の場合、可動情報映像S7aは、x軸方向と同じ方向の運動可能範囲S3の映像となり、実機械映像S8aの上側と下側とに表示される。
 図6(b)に示すように、映像S9bは、実機械映像S8aと可動情報映像S7bとが重畳された映像となる。可動情報映像S7bは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図6(b)の場合、可動情報映像S7bは、y軸方向と同じ方向の運動可能範囲S3の映像となり、実機械映像S8aの上側と下側とに表示される。
 x軸並進板11aが操作部12に装着されると、映像モデル生成部14は運動可能範囲S3がx軸方向であることを同定する。同様に、y軸並進板11bが操作部12に装着されると、映像モデル生成部14は運動可能範囲S3がy軸方向であることを同定する。また、映像モデル生成部14は、この同定した情報とモデル生成部13からのモデル情報S6とを適合させ、可動情報映像S7aを生成する。モデル情報S6の代わりに、実機械映像S8aを画像処理することで取得される空間情報、すなわち実機械映像S8a内のx軸方向に相当するベクトル情報であってもよい。この場合、映像モデル生成部14は、同定した情報と空間情報とを適合させ、可動情報映像S7aを生成する。これは、y軸並進板11bが操作部12に装着された場合でも同様である。
 また、図6(a)および(b)では、それぞれ可動情報映像S7aおよびS7bが実機械映像S8a内の上側と下側とに表示されているが、運動可能範囲S3と同じ方向であることが分かれば、表示される場所は限定されない。例えば、実機械映像S8a内の中央であってもよい。これは、以降の実施の形態でも同様である。
 加えて、映像表示部15は、実機械端34のxy平面上における位置の映像を、映像S9aおよびS9bに重畳させてもよい。例えば、実機械端34のxy平面への図示しない投影点を可動情報映像S7aおよびS7bに重畳させる。この投影点のx座標とy座標は、実機械端34のx座標とy座標であり、それぞれ操縦桿121のx軸方向の操作量とy軸方向の操作量に対応する。操作量に関する情報は、モデル情報S6に含まれる。映像モデル生成部14は、このモデル情報S6に基づいて投影点の映像を生成し、映像表示部15は、投影点の映像を映像S9aおよび映像S9bに重畳させる。これは、以降の実施の形態でも同様である。投影点を映像S9aおよびS9bに重畳させることで、実機械3の操作性が向上する。
 なお、第1のモードにおける制限部11は、x軸並進板11aおよびy軸並進板11bに限定されず、例えば図示しない斜め方向の並進板であってもよいし、図示しないx軸方向とy軸方向を共に運動可能とする並進板であってもよい。また、操作者が手を振るジェスチャーであってもよいし、実機械を模擬した図示しない補助装置を操作者が着用してもよい。ジェスチャーの場合、実機械3の運動可能範囲S3をジェスチャーにより設定した後、同じくジェスチャーにより実機械3を遠隔操作する。操作者が補助装置を着用する場合、補助装置そのものが運動可能範囲S3を制限された構造を有する。すなわち、操作者が補助装置を着用すると、運動可能範囲S3を制限されながら、実機械3を遠隔操作する。一例として、モビルスーツである。
 第1のモードで運動可能範囲S3を設定した場合、操作者は、運動可能範囲S3が制限された状態で、可動情報映像S7aあるいはS7bを確認しながら操作部12を操作する。これにより、実機械3の遠隔操作を行う上で、作業効率を良くすることができる。
 次に、第2のモードについて詳細に説明する。第2のモードでは、操作部12は、運動可能とする方向に対応するボタンを有する。制限部11は、このボタンを押すことで運動可能範囲S3を設定する。図7は、実施の形態1において第2のモードで運動可能範囲S3を設定する場合の制限部11の一例を示す模式図である。図7は、制限部11がx軸制限ボタン11cおよびy軸制限ボタン11dの場合の模式図である。
 図7に示すx軸制限ボタン11cおよびy軸制限ボタン11dは、操作部12に設けられる。操作者がx軸制限ボタン11cを押すと、操縦桿121の操作をx軸方向に制限することができる。同様に、操作者がy軸制限ボタン11dを押すと、操縦桿121の操作をy軸方向に制限することができる。なお、x軸制限ボタン11cおよびy軸制限ボタン11dは、必ずしも操作部12に設けられる必要はなく、操作者の近くであればどこに設けられてもよい。
 図8(a)および(b)は、実施の形態1において第2のモードで運動可能範囲S3を設定した場合の映像表示部15での映像S9の一例を示す模式図である。図8(a)は、x軸制限ボタン11cを押した場合の映像S9aの模式図である。図8(b)は、y軸制限ボタン11dを押した場合の映像S9bの模式図である。図8(a)の映像S9aは、図6(a)の映像S9aと同じであり、図8(b)の映像S9bは、図6(b)の映像S9bと同じであるため、説明を省略する。
 x軸制限ボタン11cが押されると、映像モデル生成部14は運動可能範囲S3がx軸方向であることを同定する。これにより、可動情報映像S7aが生成される。同様に、y軸制限ボタン11dが押されると、映像モデル生成部14は運動可能範囲S3がy軸方向であることを同定する。これにより、可動情報映像S7bが生成される。
 なお、x軸制限ボタン11cとy軸制限ボタン11dとが両方押されると、運動可能範囲S3はx軸方向とy軸方向の両方となる。
 また、上記ではx軸制限ボタン11cを押した場合、運動可能範囲S3はx軸方向となり、y軸制限ボタン11dを押した場合、運動可能範囲S3はy軸方向となる。その代わりに、x軸制限ボタン11cを押した場合、x軸方向を拘束する構造とし、y軸制限ボタン11dを押した場合、y軸方向を拘束する構造としてもよい。この場合、x軸制限ボタン11cを押した場合、運動可能範囲S3はy軸方向となり、y軸制限ボタン11dを押した場合、運動可能範囲S3はx軸方向となる。
 第2のモードで運動可能範囲S3を設定した場合、第1のモードでの効果に加え、操作者は、第1のモードで必要なx軸並進板11aおよびy軸並進板11bを不要とし、これらを操作部12に装着する手間を省くことができる。
 次に、第3のモードについて詳細に説明する。第3のモードでは、制限部11は、予め用意された運動可能パターンによって運動可能範囲S3を設定する。図9は、実施の形態1において第3のモードで運動可能範囲S3を設定する場合の制限部11の一例を示す模式図である。
 図9に示すように、映像表示部15からの映像S9cに、制限パターン11e~11jが表示される。制限パターン11e~11jは、予め用意された運動可能パターンである。操作者は、実機械3を遠隔操作する前に、操作部12を用いて制限パターン11e~11jの中からいずれか1つを選択する。例えば、操作者が制限パターン11eを選択する場合、操縦桿121を用いてカーソル11kを制限パターン11eに合わせ、ボタン122を押す。これにより、制限部11は運動可能範囲S3をx軸方向に設定する。なお、運動可能パターンは制限パターン11e~11jに限定されない。また、映像表示部15がタッチディスプレイ機能を有しており、操作者が手で画面操作して、制限パターン11e~11jの中から選択してもよい。これにより、カーソル11kを不要とし、簡単な操作を可能とする。
 図10(a)~(f)は、実施の形態1において第3のモードで運動可能範囲S3を設定した場合の映像表示部15での映像S9の一例を示す模式図である。図10(a)は、制限パターン11eが選択された場合の映像S9aの模式図である。図10(b)は、制限パターン11fが選択された場合の映像S9bの模式図である。図10(c)は、制限パターン11gが選択された場合の映像S9dの模式図である。図10(d)は、制限パターン11hが選択された場合の映像S9eの模式図である。図10(e)は、制限パターン11iが選択された場合の映像S9fの模式図である。図10(f)は、制限パターン11jが選択された場合の映像S9gの模式図である。図10(a)の映像S9aは、図6(a)の映像S9aと同じであり、図10(b)の映像S9bは、図6(b)の映像S9bと同じであるため、説明を省略する。
 図10(c)に示すように、映像S9dは、実機械映像S8aと可動情報映像S7cとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7cは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図10(c)の場合、可動情報映像S7cは、斜め方向の運動可能範囲S3の映像となる。
 図10(d)に示すように、映像S9eは、実機械映像S8aと可動情報映像S7dとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7dは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図10(d)の場合、可動情報映像S7dは、斜め方向の運動可能範囲S3の映像となる。
 図10(e)に示すように、映像S9fは、実機械映像S8aと可動情報映像S7eとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7eは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図10(e)の場合、可動情報映像S7eは、x軸方向と同じ方向、およびy軸方向と同じ方向の運動可能範囲S3の映像となる。
 図10(f)に示すように、映像S9gは、実機械映像S8aと可動情報映像S7fとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7fは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図10(f)の場合、可動情報映像S7fは、2つの斜め方向の運動可能範囲S3の映像となる。
 制限部11eが選択されると、映像モデル生成部14は運動可能範囲S3がx軸方向であることを同定する。これにより、可動情報映像S7aが生成される。制限部11f~11jが選択された場合でも同様である。
 第3のモードで運動可能範囲S3を設定した場合、第2のモードでの効果に加え、運動可能範囲S3の選択肢が多くなる。
 次に、第4のモードについて詳細に説明する。第4のモードでは、制限部11は、複数の拘束点を結ぶ直線あるいは曲線によって運動可能範囲S3を設定する。図11(a)~(d)は、実施の形態1において第4のモードで運動可能範囲S3を設定する場合の制限部11の一例を示す模式図である。
 図11(a)に示すように、操作者は、映像S9hを見ながら、操作部12を用いて運動可能範囲S3を設定する。具体的には、操縦桿121を用いてカーソル11maを制限部11m内の任意の箇所に合わせ、ボタン122を押すことで拘束点を複数設定する。図11(a)では、4つの拘束点11md、11me、11mf、および11mgが順番に設定される。設定後、OKボタン11mbを押すと、運動可能範囲S3の設定が終了する。また、設定中にCANCELボタン11mcを押すと、1つ前の拘束点設定に戻る。例えば、拘束点11mfを設定した後にCANCELボタン11mcを押すと、拘束点11meが設定された状態に戻る。これにより、拘束点を設定し直すことができる。図11(a)の場合、4つの拘束点11md、11me、11mf、および11mgを結ぶ直線が運動可能範囲S3となる。
 図11(b)に示すように、操作者は、映像S9iを見ながら、操作部12を用いて運動可能範囲S3を設定する。具体的には、操縦桿121を用いてカーソル11naを制限部11n内の任意の箇所に合わせ、ボタン122を押すことで拘束点を複数設定する。図11(b)では、4つの拘束点11nd、11ne、11nf、および11ngが順番に設定される。設定後、OKボタン11nbを押すと、運動可能範囲S3の設定が終了する。なお、各拘束点を設定後、次の拘束点にカーソル11naを移動する際、ボタン122を押しながら移動する。これにより、移動経路に従った運動可能範囲S3が設定され、直線または任意の曲線にすることができる。しかし、ボタン122を押しながらカーソル11naを移動させると、直線または曲線が歪む。そこで、操作部12はこれを自動的に補正する機能を有し、補正することで歪みを無くすことができる。また、設定中にCANCELボタン11ncを押すと、1つ前の拘束点設定に戻る。例えば、拘束点11nfを設定した後にCANCELボタン11ncを押すと、拘束点11neが設定された状態に戻る。これにより、拘束点を設定し直すことができる。図11(b)の場合、4つの拘束点11nd、11ne、11nf、および11ngを結ぶ曲線が運動可能範囲S3となる。
 図11(c)に示すように、操作者は、映像S9jを見ながら、操作部12を用いて運動可能範囲S3を設定する。具体的には、操縦桿121を用いてカーソル11оaを制限部11о内の任意の箇所に合わせ、ボタン122を押すことで拘束点を複数設定する。図11(c)では、4つの拘束点11оd、11оe、11оf、および11оgが順番に設定され、拘束点11оdが再度設定される。設定後、OKボタン11оbを押すと、運動可能範囲S3の設定が終了する。また、設定中にCANCELボタン11оcを押すと、1つ前の拘束点設定に戻る。例えば、拘束点11оfを設定した後にCANCELボタン11оcを押すと、拘束点11оeが設定された状態に戻る。これにより、拘束点を設定し直すことができる。図11(c)の場合、4つの拘束点11оd、11оe、11оf、および11оgを結ぶ直線、あるいは直線によって囲まれた領域が運動可能範囲S3となる。直線とするか、あるいは領域とするかは、予め選択できるものとする。
 図11(d)に示すように、操作者は、映像S9kを見ながら、操作部12を用いて運動可能範囲S3を設定する。具体的には、操縦桿121を用いてカーソル11paを制限部11p内の任意の箇所に合わせ、ボタン122を押すことで拘束点を複数設定する。図11(d)では、4つの拘束点11pd、11pe、11pf、および11pgが順番に設定され、拘束点11pdが再度設定される。設定後、OKボタン11pbを押すと、運動可能範囲S3の設定が終了する。なお、各拘束点を設定後、次の拘束点にカーソル11paを移動する際、ボタン122を押しながら移動する。これにより、移動経路に従った運動可能範囲S3が設定され、直線または任意の曲線にすることができる。しかし、ボタン122を押しながらカーソル11paを移動させると、直線または曲線が歪む。そこで、操作部12はこれを自動的に補正する機能を有し、補正することで歪みを無くすことができる。また、設定中にCANCELボタン11pcを押すと、1つ前の拘束点設定に戻る。例えば、拘束点11pfを設定した後にCANCELボタン11pcを押すと、拘束点11peが設定された状態に戻る。これにより、拘束点を設定し直すことができる。図11(d)の場合、4つの拘束点11pd、11pe、11pf、および11pgを結ぶ曲線、あるいは曲線によって囲まれた領域が運動可能範囲S3となる。直線とするか、あるいは領域とするかは、予め選択できるものとする。
 図11(a)~(d)において、映像表示部15がタッチディスプレイ機能を有しており、操作者が手で画面操作して、運動可能範囲S3を設定してもよい。これにより、カーソル11ma、11na、11оa、および11paを不要とし、簡単な操作を可能とする。
 図12(a)~(f)は、実施の形態1において第4のモードで運動可能範囲S3を設定した場合の映像表示部15での映像S9の一例を示す模式図である。図12(a)は、制限部11mで運動可能範囲S3を設定し、映像モデル生成部14で生成された可動情報映像S7gを実機械映像S8aに重畳した映像S9mの模式図である。図12(b)は、制限部11nで運動可能範囲S3を設定し、映像モデル生成部14で生成された可動情報映像S7hを実機械映像S8aに重畳した映像S9nの模式図である。図12(c)は、制限部11оで運動可能範囲S3を設定し、映像モデル生成部14で生成された可動情報映像S7iを実機械映像S8aに重畳した映像S9оの模式図である。図12(d)は、制限部11pで運動可能範囲S3を設定し、映像モデル生成部14で生成された可動情報映像S7jを実機械映像S8aに重畳した映像S9pの模式図である。図12(e)は、制限部11оで運動可能範囲S3を設定し、映像モデル生成部14で生成された可動情報映像S7kを実機械映像S8aに重畳した別の映像S9qの模式図である。図12(f)は、制限部11pで運動可能範囲S3を設定し、映像モデル生成部14で生成された可動情報映像S7mを実機械映像S8aに重畳した別の映像S9rの模式図である。
 図12(a)に示すように、映像S9mは、実機械映像S8aと可動情報映像S7gとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7gは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図12(a)の場合、可動情報映像S7gは、4つの拘束点を結ぶ直線である運動可能範囲S3の映像となる。
 図12(b)に示すように、映像S9nは、実機械映像S8aと可動情報映像S7hとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7hは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図12(b)の場合、可動情報映像S7hは、4つの拘束点を結ぶ曲線である運動可能範囲S3の映像となる。
 図12(c)に示すように、映像S9оは、実機械映像S8aと可動情報映像S7iとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7iは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図12(c)の場合、可動情報映像S7iは、4つの拘束点を結ぶ直線である運動可能範囲S3の映像となる。
 図12(d)に示すように、映像S9pは、実機械映像S8aと可動情報映像S7jとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7jは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図12(d)の場合、可動情報映像S7jは、4つの拘束点を結ぶ曲線である運動可能範囲S3の映像となる。
 図12(e)に示すように、映像S9qは、実機械映像S8aと可動情報映像S7kとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7kは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図12(e)の場合、可動情報映像S7kは、4つの拘束点を結ぶ直線によって囲まれた領域である運動可能範囲S3の映像となる。
 図12(f)に示すように、映像S9rは、実機械映像S8aと可動情報映像S7mとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7mは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図12(f)の場合、可動情報映像S7mは、4つの拘束点を結ぶ曲線によって囲まれた領域である運動可能範囲S3の映像となる。
 制限部11mで運動可能範囲S3が設定されると、映像モデル生成部14は運動可能範囲S3が4つの拘束点を結ぶ直線であることを同定する。これにより、可動情報映像S7gが生成される。制限部11n~11pで運動可能範囲S3が設定された場合でも同様である。
 第4のモードで運動可能範囲S3を設定した場合、第3のモードでの効果に加え、運動可能範囲S3の設定自由度が高くなる。
 次に、第5のモードについて詳細に説明する。図13は、実施の形態1において第5のモードで運動可能範囲S3を設定した場合のモデル生成部13の構成の一例を示すブロック図である。第5のモードでは、操作部12は、制限部11からの運動可能範囲S3に基づいて、光を放出する光源を操作するための入力情報である第3指令情報S13を更に生成する。モデル生成部13は、第3指令情報S13を用いて光源のモデルを生成する光源モデル生成部133を更に有し、実機械3のモデルと撮像手段4のモデルと光源のモデルとを組み合わせたモデル情報S6を出力する。
 モデル生成部13は、操作部12から実機械モデル生成部131への第1指令情報S4、操作部12から撮像モデル生成部132への第2指令情報S5、および操作部12から光源モデル生成部133への第3指令情報S13に基づいてモデル情報S6を生成し、映像モデル生成部14に与える。第3指令情報S13は、光を放出する光源を操作するための入力情報である。具体的には、第3指令情報S13は、光源への電源ON/OFF切り替えコマンド、および光源をxy平面内で回転させるための入力情報である。この第3指令情報S13がそのまま光源モデル生成部133へ入力されることにより、光源モデル生成部133からの光線の出力ON/OFF切り替え制御、および光線の軌跡の回転制御が可能となる。
 図14は、実施の形態1において第5のモードで運動可能範囲S3を設定する場合の操作部12の一例を示す模式図である。図14は、図3に示す操縦桿121がRz方向の回転も可能であり、制限部11の機能を有する場合の模式図である。反時計周りが+Rz方向、時計周りが-Rz方向である。
 操作者が操縦桿121をxy平面内で回転させてボタン122を押すと、ボタン122が押された時の操縦桿121の方向ベクトルが運動可能範囲S3として設定される。なお、操作者は、方向ベクトルを複数設定してもよい。この場合、操縦桿121をxy平面で回転させ、ボタン122を押す動作を繰り返し行う。これにより、複数の方向ベクトルが運動可能範囲S3として設定される。あるいは、複数の方向ベクトルによって囲まれた領域が運動可能範囲S3として設定される。複数の方向ベクトルとするか、あるいは領域とするかは、予め選択できるものとする。
 図15は、実施の形態1において第5のモードで運動可能範囲S3を設定した場合の映像表示部15での映像S9の一例を示す模式図である。図15は、操縦桿121で運動可能範囲S3を設定した場合の映像S9sの模式図である。
 図15に示すように、映像S9sは、実機械映像S8aと可動情報映像S7nとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7nは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図15の場合、可動情報映像S7nは、方向ベクトルで表される運動可能範囲S3の映像と、モデル情報S6のうち光源モデル生成部133からのモデル情報の映像とが含まれる。
 図16は、実施の形態1において第5のモードで運動可能範囲S3を設定した場合の映像表示部15での別の映像S9の一例を示す模式図である。図16は、操縦桿121で方向ベクトルを2つ設定し、2つの方向ベクトルによって囲まれた領域を運動可能範囲S3として選択した場合の映像S9tの模式図である。
 図16に示すように、映像S9tは、実機械映像S8aと可動情報映像S7оとが重畳された映像となる。実機械映像S8aは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7оは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。図16の場合、可動情報映像S7оは、2つの方向ベクトルで囲まれた領域で表される運動可能範囲S3の映像と、モデル情報S6のうち光源モデル生成部133からのモデル情報の映像とが含まれる。
 第5のモードで運動可能範囲S3を設定した場合、第4のモードでの効果と同様の効果が得られる。
 以上で説明した実施の形態1によれば、制限部11によって実機械3の運動可能範囲S3が設定される。これにより、実機械3の複雑な遠隔操作を回避できる。また、制限部11からの運動可能範囲S3とモデル生成部13からのモデル情報S6とに基づいて生成される可動情報映像S7と、撮像手段4によって生成される実機械映像S8とを重畳させた映像S9が映像表示部15によって生成される。これにより、運動可能範囲S3を確認しながら実機械3を遠隔操作でき、従来に比べて作業効率を良くすることができる。
実施の形態2.
 図17は、実施の形態2における遠隔操作装置1の構成の一例を示すブロック図である。
 図17に示すように、遠隔操作装置1は、制限部11と、操作部12と、映像表示部15とを備える。図17に示す制限部11、実機械3、ターゲット5、および非ターゲット6は、図1に示す制限部11、実機械3、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 操作部12は、操作者からの操作情報S2と、制限部11からの運動可能範囲S3とを受け取る。操作部12は、これらの情報に基づいて第1指令情報S4と第2指令情報S5と第4指令情報S14とを生成し、第1指令情報S4を実機械3に与え、第2指令情報S5を撮像手段4に与え、第4指令情報S14を運動可能範囲形成手段7に与える。第4指令情報S14については、後に説明する。
 映像表示部15は、撮像手段4からの実機械映像S8および可動情報映像S15を受け取る。映像表示部15は、これらの映像を重畳した映像S9を生成し、操作者に提示する。可動情報映像S15は、撮像手段4によって直接撮影される運動可能範囲S3の映像である。
 撮像手段4は、操作部12からの第2指令情報S5を受け取る。撮像手段4は、この第2指令情報S5に基づいて、実機械映像S8と可動情報映像S15とを映像表示部15に与える。
 運動可能範囲形成手段7は、実機械3の運動可能範囲S3を形成する。運動可能範囲形成手段7は、操作部12からの第4指令情報S14を受け取る。図17では、運動可能範囲形成手段7は実機械3と接続されているが、運動可能範囲S3を実機械3内で示すことができれば、実機械3と接続されていなくてもよい。運動可能範囲形成手段7は、例えば光を放出する光源であり、レーザ光源やLED光源などである。この場合、光源から放出され、実機械3およびその周辺に結像される光のパターンが運動可能範囲S3となる。光のパターンは、撮像手段4によって撮影されて映像となり、映像表示部15に表示される。光源は、撮像手段4によって撮影可能な波長の光を放出するものである。例えば、撮像手段4として赤外カメラを用いる場合、光源は赤外領域の波長を有するレーザである。第4指令情報S14は、実機械3の運動可能範囲S3を形成する運動可能範囲形成手段7を操作するための入力情報である。具体的には、第4指令情報S14は、運動可能範囲形成手段7への電源ON/OFF切り替えコマンド、および運動可能範囲形成手段7をxy平面内で回転させるための入力情報である。
 図17に示すように、運動可能範囲形成手段7を撮像手段4で撮影することで、実機械映像S8だけでなく可動情報映像S15も撮像手段4で取得することができる。これにより、実施の形態1における遠隔操作装置1に対し、モデル生成部13と映像モデル生成部14とを不要とする。
 実施の形態2における操作部12を含む構成は、図2に示す構成と同じであるため、説明を省略する。
 実施の形態2における操作部12は、図14に示す操作部12と同じである。すなわち、操縦桿121はRz方向の回転も可能であり、制限部11の機能を有する。運動可能範囲S3の設定方法は、図14を用いて説明した設定方法と同じである。
 図18は、実施の形態2における実機械3を含む構成の一例を示す模式図である。図18に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6は、図4に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 図18に示すように、z軸並進機構33の中央近傍に、運動可能範囲形成手段7が接続されている。この場合、運動可能範囲形成手段7はレーザ光源71であり、レーザ光源71からレーザ光線72が出力される。レーザ光線72の出力方向は、操縦桿121を用いて設定される。図18の場合、運動可能範囲形成手段7はz軸並進機構33の中央近傍に配置されているが、これに限定されない。例えば、z軸並進機構33の上側あるいは下側に配置されてもよい。また、実機械3の外側に配置されてもよい。
 図19は、実施の形態2における実機械3を含む別の構成の一例を示す模式図である。図19に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6は、図4に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 図19に示すように、z軸並進機構33の中央近傍に、運動可能範囲形成手段7が接続されている。この場合、運動可能範囲形成手段7はマルチレーザ光源73であり、マルチレーザ光線74が出力される。マルチレーザ光線74の出力方向は、操縦桿121を用いて設定される。図19の場合、運動可能範囲形成手段7はz軸並進機構33の中央近傍に配置されているが、これに限定されない。例えば、z軸並進機構33の上側あるいは下側に配置されてもよい。また、実機械3の外側に配置されてもよい。
 運動可能範囲形成手段7が、図18に示すレーザ光源の場合、操作者が操縦桿121をxy平面内で回転させてボタン122を押すと、ボタン122が押された時の操縦桿121の方向ベクトルが運動可能範囲S3として設定される。
 運動可能範囲形成手段7が、図19に示すマルチレーザ光源の場合、操作者が操縦桿121をxy平面内で回転させてボタン122を押す動作を2回行うと、2つの方向ベクトルが運動可能範囲S3として設定される。あるいは、2つの方向ベクトルによって囲まれた領域が運動可能範囲S3として設定される。2つの方向ベクトルとするか、あるいは領域とするかは、予め選択できるものとする。
 図20は、実施の形態2における映像表示部15での映像S9の一例を示す模式図である。図20は、操縦桿121で運動可能範囲S3を設定した場合の映像S9uの模式図である。
 図20に示すように、映像S9uは、実機械映像S8bと可動情報映像S15aとが重畳された映像となる。実機械映像S8bは、撮像手段4によって撮影された実機械3と運動可能範囲形成手段7との映像である。可動情報映像S15aは、撮像手段4によって撮影された運動可能範囲S3の映像である。図20の場合、可動情報映像S15aは、方向ベクトルで表される運動可能範囲S3の映像となる。
 図21は、実施の形態2における映像表示部15での別の映像S9の一例を示す模式図である。図21は、操縦桿121で方向ベクトルを2つ設定し、2つの方向ベクトルによって囲まれた領域を運動可能範囲S3として選択した場合の映像S9vの模式図である。
 図21に示すように、映像S9vは、実機械映像S8cと可動情報映像S15bとが重畳された映像となる。実機械映像S8cは、撮像手段4によって撮影された実機械3と運動可能範囲形成手段7との映像である。可動情報映像S15bは、撮像手段4によって撮影された運動可能範囲S3の映像である。図21の場合、可動情報映像S15bは、2つの方向ベクトルで囲まれた領域で表される運動可能範囲S3の映像となる。
 以上で説明した実施の形態2によれば、運動可能範囲形成手段7が実機械3に設けられることにより、実機械映像S8と可動情報映像S15との両方が撮像手段4によって生成される。これにより、実施の形態1で得られる効果に加え、実施の形態1のモデル生成部13と映像モデル生成部14とを不要とすることができる。
実施の形態3.
 図22は、実施の形態3における遠隔操作装置1の構成の一例を示すブロック図である。
 図22に示すように、遠隔操作装置1は、制限部11と、操作部12と、モデル生成部13と、映像モデル生成部14と、映像表示部15とを備える。図22は、図1に示す実施の形態1の構成に対し、駆動モデル生成部134と駆動装置8とが追加された構成を示すブロック図である。図22に示す制限部11、映像モデル生成部14、映像表示部15、実機械3、撮像手段4、ターゲット5、および非ターゲット6は、図1に示す制限部11、映像モデル生成部14、映像表示部15、実機械3、撮像手段4、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 操作部12は、操作者からの操作情報S2と、制限部11からの運動可能範囲S3とを受け取る。操作部12は、これらの情報に基づいて第1指令情報S4と第2指令情報S5と第5指令情報S16とを生成し、第1指令情報S4を実機械3および実機械モデル生成部131に与え、第2指令情報S5を撮像手段4および撮像モデル生成部132に与え、第5指令情報S16を駆動装置8および駆動モデル生成部134に与える。第5指令情報S16については、後に説明する。
 モデル生成部13は、操作部12によって生成される第5指令情報S16を用いて撮像手段4を駆動する駆動装置8のモデルを生成する駆動モデル生成部134を更に有する。モデル生成部13は、操作部12から実機械モデル生成部131への第1指令情報S4、操作部12から撮像モデル生成部132への第2指令情報S5、および操作部12から駆動モデル生成部134への第5指令情報S16に基づいてモデル情報S6を生成し、映像モデル生成部14に与える。第5指令情報S16は、撮像手段4を駆動する駆動装置8を操作するための入力情報である。具体的には、第5指令情報S16は、駆動装置8を制御するための制御情報である。
 駆動装置8は、撮像手段4と接続され、操作部12からの第5指令情報S16を受け取る。駆動装置8は、この第5指令情報S16に基づいて回転する。これにより、撮像手段4の向きが変わり、実機械3を撮影する方向を変更することができる。
 なお、本実施の形態において、実施の形態1における第5のモードで運動可能範囲S3を設定する場合は、図13に示す光源モデル生成部133を図22のモデル生成部13に追加すればよい。この場合、モデル生成部13は、実機械3のモデルと撮像手段4のモデルと光源のモデルと駆動装置8のモデルとを組み合わせたモデル情報S6を出力する。本実施の形態におけるモデル生成部13は、実機械モデル生成部131と撮像モデル生成部132と駆動モデル生成部134とを有していればよく、必ずしも光源モデル生成部133を有していなくてもよい。また、モデル情報S6は、実機械3のモデルと撮像手段4のモデルと駆動装置8のモデルとを組み合わせたものであればよく、必ずしも光源のモデルを組み合わせなくてもよい。
 図23は、実施の形態3における遠隔操作装置1の別の構成の一例を示すブロック図である。
 図23に示すように、遠隔操作装置1は、制限部11と、操作部12と、映像表示部15とを備える。図23は、図17に示す実施の形態2の構成に対し、駆動装置8が追加された構成を示すブロック図である。図23に示す制限部11、映像表示部15、実機械3、撮像手段4、ターゲット5、非ターゲット6、および運動可能範囲形成手段7は、図17に示す制限部11、映像表示部15、実機械3、撮像手段4、ターゲット5、非ターゲット6、および運動可能範囲形成手段7と同じであるため、説明を省略する。また、図23に示す駆動装置8は、図22に示す駆動装置8と同じであるため、説明を省略する。
 操作部12は、操作者からの操作情報S2と、制限部11からの運動可能範囲S3とを受け取る。操作部12は、これらの情報に基づいて第1指令情報S4と第2指令情報S5と第4指令情報S14と第5指令情報S16とを生成し、第1指令情報S4を実機械3に与え、第2指令情報S5を撮像手段4に与え、第4指令情報S14を運動可能範囲形成手段7に与え、第5指令情報S16を駆動装置8に与える。
 実施の形態3における操作部12を含む構成は、図2に示す構成と同じであるため、説明を省略する。
 実施の形態3における操作部12は、図3に示す操作部12と同じである。操作者は、撮像手段4の向きを変更するモードと、実機械3を遠隔操作するモードとを切り替えることにより、撮像手段4の向きを調整しながら実機械3を遠隔操作できる。両者の切り替えは、図示しない手段により行われる。撮像手段4の向きを変更する場合、操縦桿121をx軸方向あるいはy軸方向に操作する。これにより、撮像手段4は、x軸方向あるいはy軸方向に向きが変更される。
 図24は、実施の形態3における実機械3を含む構成の一例を示す模式図である。図24は、図22に示す遠隔操作装置1を用いて実機械3を操作する時の模式図である。図24に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6は、図4に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 駆動装置8は、撮像手段4に接続され、操作部12からの第5指令情報S16に基づいて、撮像手段4の向きを変更する。映像表示部15での実機械映像S8の向きは、撮像手段4の向きに応じて切り替わる。
 以上で説明した実施の形態3によれば、駆動装置8により撮像手段4の向きが変更される。これにより、実施の形態2で得られる効果に加え、操作者は、実機械映像S8の向きを逐次変更しながら実機械3を操作でき、効率的に遠隔操作を行うことができる。
実施の形態4.
 図25は、実施の形態4における遠隔操作装置1の構成の一例を示すブロック図である。
 図25に示すように、遠隔操作装置1は、制限部11と、操作部12と、モデル生成部13と、映像モデル生成部14と、映像表示部15とを備える。図25は、図1に示す実施の形態1の構成に対し、マニピュレータモデル生成部135とマニピュレータ9とが追加された構成を示すブロック図である。図25に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6は、図1に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 制限部11は、操作者からの制限情報S1を受け取る。制限部11は、この制限情報S1に基づいて運動可能範囲S3と開閉可能範囲S17と姿勢制限範囲S18とを生成し、操作部12および映像モデル生成部14に与える。開閉可能範囲S17は、マニピュレータ9の開閉可能な範囲である。姿勢制限範囲S18は、マニピュレータ9が所定の姿勢に制限される時の姿勢、言い換えると、所定の傾きに制限される時の傾きである。
 操作部12は、操作者からの操作情報S2と、制限部11からの運動可能範囲S3と、制限部11からの開閉可能範囲S17と、制限部11からの姿勢制限範囲S18とを受け取る。操作部12は、これらの情報に基づいて第1指令情報S4と第2指令情報S5と第6指令情報S19とを生成し、第1指令情報S4を実機械3および実機械モデル生成部131に与え、第2指令情報S5を撮像手段4および撮像モデル生成部132に与え、第6指令情報S19をマニピュレータ9およびマニピュレータモデル生成部135に与える。第6指令情報S19は、実機械3に接続されるマニピュレータ9を操作するための入力情報である。具体的には、第6指令情報S19は、マニピュレータ9を動かすドライバーICやマイコンなどへの入力情報である。
 モデル生成部13は、操作部12によって生成される第6指令情報S19を用いてマニピュレータ9のモデルを生成するマニピュレータモデル生成部135を更に有する。モデル生成部13は、操作部12から実機械モデル生成部131への第1指令情報S4、操作部12から撮像モデル生成部132への第2指令情報S5、および操作部12からマニピュレータモデル生成部135への第6指令情報S19に基づいてモデル情報S6を生成し、映像モデル生成部14に与える。
 映像モデル生成部14は、制限部からの運動可能範囲S3と、開閉可能範囲S17と、姿勢制限範囲S18と、モデル生成部13からのモデル情報S6とを受け取る。映像モデル生成部14は、これらの情報に基づいて、運動可能範囲S3と開閉可能範囲S17と姿勢制限範囲S18との映像である可動情報映像S20を生成し、映像表示部15に与える。
 映像表示部15は、映像モデル生成部14からの可動情報映像S20と、撮像手段4からの実機械映像S8を受け取る。映像表示部15は、これらの映像を重畳した映像S9を生成し、操作者に提示する。
 マニピュレータ9は、実機械3に接続され、操作部12からの第6指令情報S19を受け取る。
 なお、本実施の形態において、実施の形態1における第5のモードで運動可能範囲S3を設定する場合は、図13に示す光源モデル生成部133を図25のモデル生成部13に追加すればよい。また、実施の形態3における駆動モデル生成部134をモデル生成部13に追加してもよいし、撮像手段4は駆動装置8と接続されて向きを変更されてもよい。この場合、モデル生成部13は、実機械3のモデルと撮像手段4のモデルと光源のモデルと駆動装置8のモデルとマニピュレータ9のモデルとを組み合わせたモデル情報S6を出力する。本実施の形態におけるモデル生成部13は、実機械モデル生成部131と撮像モデル生成部132とマニピュレータモデル生成部135とを有していればよく、必ずしも光源モデル生成部133と駆動モデル生成部134とを有していなくてもよい。また、モデル情報S6は、実機械3のモデルと撮像手段4のモデルとマニピュレータ9のモデルとを組み合わせたものであればよく、必ずしも光源のモデルと駆動装置8のモデルとを組み合わせなくてもよい。
 図26は、実施の形態4における遠隔操作装置1の別の構成の一例を示すブロック図である。
 図26に示すように、遠隔操作装置1は、制限部11と、操作部12と、映像表示部15とを備える。図26は、図17に示す実施の形態2の構成に対し、マニピュレータ9が追加された構成を示すブロック図である。図26に示す制限部11、映像表示部15、実機械3、撮像手段4、ターゲット5、非ターゲット6、および運動可能範囲形成手段7は、図17に示す制限部11、映像表示部15、実機械3、撮像手段4、ターゲット5、非ターゲット6、および運動可能範囲形成手段7と同じであるため、説明を省略する。また、図26に示すマニピュレータ9は、図25に示すマニピュレータ9と同じであるため、説明を省略する。
 操作部12は、操作者からの操作情報S2と、制限部11からの運動可能範囲S3とを受け取る。操作部12は、これらの情報に基づいて第1指令情報S4と第2指令情報S5と第4指令情報S14と第6指令情報S19とを生成し、第1指令情報S4を実機械3に与え、第2指令情報S5を撮像手段4に与え、第4指令情報S14を運動可能範囲形成手段7に与え、第6指令情報S19をマニピュレータ9に与える。
 図26に示すように、制限部11は、図25に示す制限部11とは違い、運動可能範囲S3のみを生成する。すなわち、マニピュレータ9の開閉可能範囲S17および姿勢制限範囲S18は生成されない。あるいは、制限部11は、図25と同様、運動可能範囲S3だけでなく、マニピュレータ9の開閉可能範囲S17および姿勢制限範囲S18を生成してもよい。但し、図示しない開閉可能範囲を示す手段と、図示しない姿勢制限範囲を示す手段とが必要となり、操作部12はこれらに対する指令情報を生成する。
 図26において、撮像手段4は駆動装置8と接続されて向きが変更されてもよい。この場合、操作部12は、実機械3への第1指令情報S4と、撮像手段4への第2指令情報S5と、運動可能範囲形成手段7への第4指令情報S14と、駆動装置8への第5指令情報S16と、マニピュレータ9への第6指令情報S19とを生成する。
 実施の形態4における操作部12を含む構成は、図2に示す構成と同じであるため、説明を省略する。
 実施の形態4における操作部12は、図3に示す操作部12と同じである。また、操縦桿121は制限部11の機能を有する。なお、実機械3を遠隔操作する際、操縦桿121を操作部12の中心位置に合わせた状態で回転させることで、マニピュレータ9を開閉させる操作を行ってもよい。
 図27は、実施の形態4における実機械3を含む構成の一例を示す模式図である。図27は、図25に示す遠隔操作装置1を用いて実機械3を操作する時の模式図である。図27に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6は、図4に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 マニピュレータ9は、実機械端34に回動自在に接続される。マニピュレータ9は、制限部11および操縦桿121によって、開閉可能範囲S17および姿勢制限範囲S18が設定される。
 図28は、実施の形態4における制限部11の一例を示す模式図である。図28は、図25に示す遠隔操作装置1を用いて実機械3を操作する時の模式図である。また、図28は、実施の形態1における第3のモードと類似するモードで、マニピュレータ9の開閉可能範囲S17を設定する場合の模式図である。
 図28に示すように、映像表示部15からの映像S9wに、制限パターン11qおよび11rが表示される。制限パターン11qおよび11rは、予め用意されたマニピュレータ9の開閉可能パターンである。操作者は、実機械3を遠隔操作する前に、実機械3の運動可能範囲S3を任意のモードで設定し、マニピュレータ9の開閉可能パターンを制限パターン11qおよび11rのうちどちらかを選択する。例えば、操作者が制限パターン11qを選択する場合、操縦桿121を用いてカーソル11sを制限パターン11qに合わせ、ボタン122を押す。これにより、制限部11はマニピュレータ9の開閉可能範囲S17をx軸方向に設定する。なお、開閉可能パターンは制限パターン11qおよび11rに限定されず、斜めを含んでもよい。また、映像表示部15がタッチディスプレイ機能を有しており、操作者が手で画面操作して、制限パターン11qおよび11rのうちどちらかを選択してもよい。これにより、カーソル11sを不要とし、簡単な操作を可能とする。
 また、図28では、実施の形態1における第3のモードと類似するモードで、マニピュレータ9の開閉可能範囲S17を設定するが、第1のモード、第2のモード、第4のモード、あるいは第5のモードと類似するモードで、マニピュレータ9の開閉可能範囲S17を設定してもよい。
 図29(a)および(b)は、実施の形態4における映像表示部15での映像S9の一例を示す模式図である。図29は、図25に示す遠隔操作装置1を用いて実機械3を操作する時の模式図である。図29(a)は、実機械3の運動可能範囲S3がx軸方向に設定され、マニピュレータ9の開閉可能範囲S17として制限パターン11qが選択された場合の映像S9xの模式図である。図29(b)は、実機械3の運動可能範囲がx軸方向に設定され、マニピュレータ9の開閉可能範囲S17として制限パターン11rが選択された場合の映像S9yの模式図である。
 図29(a)に示すように、映像S9xは、実機械映像S8dと可動情報映像S20aと可動情報映像S20bとが重畳された映像となる。実機械映像S8dは、撮像手段4によって撮影された実機械3とマニピュレータ9との映像である。可動情報映像S20aは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。可動情報映像S20bは、映像モデル生成部14によって生成された、開閉可能範囲S17の映像である。図29(a)の場合、可動情報映像S20aは、x軸方向と同じ方向の運動可能範囲S3の映像となる。また、可動情報映像S20bは、x軸方向と同じ方向の開閉可能範囲S17の映像となる。
 図29(b)に示すように、映像S9yは、実機械映像S8eと可動情報映像S20aと可動情報映像S20cとが重畳された映像となる。実機械映像S8eは、撮像手段4によって撮影された実機械3とマニピュレータ9との映像である。可動情報映像S20aは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。可動情報映像S20cは、映像モデル生成部14によって生成された、開閉可能範囲S17の映像である。図29(b)の場合、可動情報映像S20aは、x軸方向と同じ方向の運動可能範囲S3の映像となる。また、可動情報映像S20cは、y軸方向と同じ方向の開閉可能範囲S17の映像となる。
 図29(a)および(b)では、可動情報映像S20aは実機械映像S8dおよびS8e内の上側に表示され、可動情報映像S20bおよびS20cはそれぞれ実機械映像S8dおよびS8e内の下側に表示されているが、これに限定されない。
 次に、マニピュレータ9の開閉可能範囲S17に加え、姿勢制限範囲S18を設定する方法について説明する。操作者は、実機械3を遠隔操作する前に、実機械3の運動可能範囲S3を任意のモードで設定し、マニピュレータ9の開閉可能範囲S17を任意のモードで設定し、マニピュレータ9の姿勢制限範囲S18を操縦桿121で設定する。操作者は、操縦桿121をx軸方向あるいはy軸方向に動かすことで姿勢制限範囲S18を設定する。
 図30は、実施の形態4における映像表示部15での別の映像S9の一例を示す模式図である。図30は、図25に示す遠隔操作装置1を用いて実機械3を操作する時の模式図である。また、図30は、実機械3の運動可能範囲S3がx軸方向に設定され、マニピュレータ9の開閉可能範囲S17がy軸方向に設定され、マニピュレータ9の姿勢制限範囲S18がy軸の斜め方向に設定された場合の映像S9zの模式図である。
 図30に示すように、映像S9zは、実機械映像S8fと可動情報映像S20aと可動情報映像S20cと可動情報映像S20dとが重畳された映像となる。実機械映像S8fは、撮像手段4によって撮影された実機械3とマニピュレータ9との映像である。可動情報映像S20aは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。可動情報映像S20cは、映像モデル生成部14によって生成された、開閉可能範囲S17の映像である。可動情報映像S20dは、映像モデル生成部14によって生成された、姿勢制限範囲S18の映像である。図30の場合、可動情報映像S20aは、x軸方向と同じ方向の運動可能範囲S3の映像となる。また、可動情報映像S20cは、y軸方向と同じ方向の開閉可能範囲S17の映像となる。更に、可動情報映像S20dは、斜め方向の姿勢制限範囲S18の映像となる。
 図30では、可動情報映像S20aは実機械映像S8f内の上側に表示され、可動情報映像S20cは実機械映像S8f内の下側に表示され、可動情報映像S20dは実機械映像S8f内の中心付近に表示されているが、これに限定されない。
 以上で説明した実施の形態4によれば、制限部11によって実機械3の運動可能範囲S3だけでなく、マニピュレータ9の開閉可能範囲S17と姿勢制限範囲S18とが設定される。これにより、実施の形態3で得られる効果に加え、操作者はマニピュレータ9の複雑な遠隔操作を回避できる。また、映像モデル生成部14によって、マニピュレータ9の開閉可能範囲S17と姿勢制限範囲S18との映像である可動情報映像S20が生成され、この可動情報映像S20と実機械映像S8とが重畳された映像S9が映像表示部15で表示される。これにより、マニピュレータ9の開閉可能範囲S17と姿勢制限範囲S18とを確認しながらマニピュレータ9を操作でき、効率的に遠隔操作を行うことができる。
実施の形態5.
 図31は、実施の形態5における遠隔操作装置1の構成の一例を示すブロック図である。
 図31に示すように、遠隔操作装置1は、制限部11と、操作部12と、モデル生成部13と、映像モデル生成部14と、映像表示部15とを備える。図31は、図1に示す実施の形態1の構成に対し、4つの撮像手段41~44が追加された構成を示すブロック図である。図31に示す制限部11、モデル生成部13、映像モデル生成部14、映像表示部15、実機械3、ターゲット5、および非ターゲット6は、図1に示す制限部11、モデル生成部13、映像モデル生成部14、映像表示部15、実機械3、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 操作部12は、操作者からの操作情報S2と、制限部11からの運動可能範囲S3とを受け取る。操作部12は、これらの情報に基づいて第1指令情報S4と第2指令情報S5と第2指令情報S51~S54とを生成し、第1指令情報S4を実機械3および実機械モデル生成部131に与え、第2指令情報S5を撮像モデル生成部132に与え、第2指令情報S51~S54をそれぞれ撮像手段41~44に与える。第2指令情報S51~S54は、それぞれ撮像手段41~44への、撮影のON/OFF切り替えコマンド、および倍率調整コマンドなどである。操作部12は、撮像手段41~44のうちいずれか1つを撮影ONとし、それ以外を撮影OFFとするよう、第2指令情報S51~S54を生成する。これにより、撮影したい方向に対応した撮像手段を選択できる。あるいは、操作部12は、撮像手段41~44のうち複数の撮像手段に対し撮影ONとするよう、第2指令情報S51~S54を生成してもよい。これにより、複数の映像を合体させた3次元映像が生成され、実機械3を直接操作するのと同じ操作感が得られる。すなわち、操作部12は、複数の撮像手段41~44のうちの少なくとも1つの撮像手段を有効とするよう、撮像手段41~44への指令情報を生成する。第2指令情報S5は、第2指令情報S51~S54のうち、撮影ONを設定した撮像手段に対応する指令情報と同じである。撮影ONを設定した撮像手段が複数の場合は、第2指令情報S5は複数生成され、撮像モデル生成部132も複数設けられる。
 撮像手段41~44は、それぞれ操作部12からの第2指令情報S51~S54を受け取る。撮像手段41~44は、これらの情報に基づいて実機械映像S8を生成し、映像表示部15に与える。具体的には、撮像手段41~44のうち、操作部12によって撮影ONのコマンドが送信された撮像手段で撮影された実機械映像S8が、映像表示部15に入力される。なお、図39では、撮像手段の数量は4つであるが、数量は2つ以上であればいくつでもよい。
 なお、本実施の形態において、実施の形態1における第5のモードで運動可能範囲S3を設定する場合は、図13に示す光源モデル生成部133を図31のモデル生成部13に追加すればよい。また、実施の形態3における駆動モデル生成部134をモデル生成部13に追加してもよいし、撮像手段4は駆動装置8と接続されて向きを変更されてもよい。更に、実施の形態4におけるマニピュレータモデル生成部135をモデル生成部13に追加してもよいし、実機械3にマニピュレータ9が接続されてもよい。この場合、モデル生成部13は、実機械3のモデルと撮像手段4のモデルと光源のモデルと駆動装置8のモデルとマニピュレータ9のモデルとを組み合わせたモデル情報S6を出力する。本実施の形態におけるモデル生成部13は、実機械モデル生成部131と撮像モデル生成部132とを有していればよく、必ずしも光源モデル生成部133と駆動モデル生成部134とマニピュレータモデル生成部135とを有していなくてもよい。また、モデル情報S6は、実機械3のモデルと撮像手段4のモデルとを組み合わせたものであればよく、必ずしも光源のモデルと駆動装置8のモデルとマニピュレータ9のモデルとを組み合わせなくてもよい。
 図32は、実施の形態5における遠隔操作装置1の別の構成の一例を示すブロック図である。
 図32に示すように、遠隔操作装置1は、制限部11と、操作部12と、映像表示部15とを備える。図32は、図17に示す実施の形態2の構成に対し、4つの撮像手段41~44が追加された構成を示すブロック図である。図32に示す制限部11、映像表示部15、実機械3、ターゲット5、非ターゲット6、および運動可能範囲形成手段7は、図17に示す制限部11、映像表示部15、実機械3、ターゲット5、非ターゲット6、および運動可能範囲形成手段7と同じであるため、説明を省略する。また、図32に示す撮像手段41~44は、図31に示す撮像手段41~44と同じであるため、説明を省略する。
 操作部12は、操作者からの操作情報S2と、制限部11からの運動可能範囲S3を受け取る。操作部12は、これらの情報に基づいて第1指令情報S4と第2指令情報S51~S54と第4指令情報S14とを生成し、第1指令情報S4を実機械3に与え、第2指令情報S51~54をそれぞれ撮像手段41~44に与え、第4指令情報S14を運動可能範囲形成手段7に与える。第2指令情報S51~S54は、図31に示す第2指令情報S51~S54と同じである。
 図32において、撮像手段41~44は駆動装置8と接続されて向きが変更されてもよいし、実機械3はマニピュレータ9と接続されてもよい。この場合、操作部12は、実機械3への第1指令情報S4と、撮像手段41~44への第2指令情報S51~S54と、運動可能範囲形成手段7への第4指令情報S14と、駆動装置8への第5指令情報S16と、マニピュレータ9への第6指令情報S19とを生成する。
 実施の形態5における操作部12を含む構成は、図2に示す構成と同じであるため、説明を省略する。また、実施の形態5における操作部12は、図3に示す操作部12と同じであるため、説明を省略する。
 図33は、実施の形態5における実機械3を含む構成の一例を示す模式図である。図33は、図31に示す遠隔操作装置1を用いて実機械3を操作する時の模式図である。図33に示す実機械3、ターゲット5、および非ターゲット6は、図4に示す実機械3、撮像手段4、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 撮像手段41~44は、いずれも実機械3を視野に収められる位置に配置される。なお、撮像手段41~44それぞれに、図示しない駆動装置81~84が接続されてもよい。
 図34は、実施の形態5における遠隔操作装置1の動作の一例を示すフローチャートである。図34のフローチャートは、実施の形態1から4における遠隔操作装置1に対しても適用される。
 図35に示すように、図示しない手段により遠隔操作装置1が起動すると、制限部11は、操作者からの制限情報S1に基づいて、実機械3の運動可能範囲S3を設定する(ステップST1)。
 操作部12は、操作者からの操作情報S2と、実機械3の運動可能範囲S3とに基づいて、実機械3を操作するための入力情報である第1指令情報S4を生成する(ステップST2)。
 映像表示部15は、撮像手段4からの実機械映像S8と、映像モデル生成部14からの可動情報映像S7とを表示する(ステップST3)。あるいは、映像表示部15は、撮像手段4からの実機械映像S8と可動情報映像S15とを表示する。可動情報映像S7は、制限部11からの運動可能範囲S3が映像化されたものである。また、可動情報映像S15は、運動可能範囲形成手段7を撮影することで取得される運動可能範囲S3の映像である。
 図示しない手段が操作者に対し遠隔操作開始を指示する(ステップST4)。操作者は、映像表示部15が表示する実機械映像S8と可動情報映像S7、あるいは実機械映像S8と可動情報映像S15とを確認しながら、実機械3を遠隔操作する。図示しない手段は、操作者からの遠隔操作終了の指示を受け取った場合に、遠隔操作装置1を停止させる。
 以上で説明した実施の形態5によれば、複数の撮像手段のうちいずれか1つを有効として、実機械3が撮影される。これにより、実施の形態4で得られる効果に加え、操作者は、実機械映像S8の向きを逐次選択しながら実機械3を操作でき、効率的に遠隔操作を行うことができる。また、複数の撮像手段を有効として実機械3が撮影され、複数の映像を合体させた3次元映像が生成される。これにより、実施の形態4で得られる効果に加え、実機械3を直接操作するのと同じ操作感が得られる。
実施の形態6.
 図35は、実施の形態6における遠隔操作装置1の構成の一例を示すブロック図である。
 図35に示すように、遠隔操作装置1は、制限部11と、操作部12と、モデル生成部13と、映像モデル生成部14aと、映像表示部15aとを備える。図35は、映像モデル生成部14aが可動情報映像S7だけでなく実機械映像S81を出力する点が、図1とは異なる。また、図35は、映像表示部15aが撮像手段4からの実機械映像S8を入力する代わりに、映像モデル生成部14aからの実機械映像S81を入力する点が、図1とは異なる。図35に示す制限部11、操作部12、モデル生成部13、実機械3、ターゲット5、および非ターゲット6は、図1に示す制限部11、操作部12、モデル生成部13、実機械3、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 映像モデル生成部14aは、制限部11からの運動可能範囲S3と、モデル生成部13からのモデル情報S6とを受け取る。映像モデル生成部14aは、これらの情報に基づいて、運動可能範囲S3が映像化された可動情報映像S7と、実機械映像S81とを生成し、映像表示部15aに与える。実機械映像S81は、例えば実機械3の3次元モデルが映像化されたものである。
 映像表示部15aは、映像モデル生成部14からの可動情報映像S7と実機械映像S81とを受け取る。映像表示部15aは、可動情報映像S7と実機械映像S81とに基づいて映像S9を生成し、映像S9を操作者に提示する。映像表示部15aは、実機械3を撮影して映像化された実機械映像S8ではなく、実機械3の3次元モデルが映像化された実機械映像S81を表示する。実施の形態1~5と合わせて一般化すると、映像表示部15aは、実機械3が映像化された実機械映像S81と、実機械3に対応した運動可能範囲S3が映像化された可動情報映像S7とを表示する。但し、実機械3を遠隔操作してターゲット5を動かす場合には、実機械3とターゲット5との位置関係を把握するために、遠隔操作装置1は撮像手段4からの映像を入力してもよい。
 映像表示部15aが実機械3を撮影して映像化されたものを表示する代わりに、例えば実機械3の3次元モデルが映像化されたものを表示することで、撮像手段4を不要にすることができる。また、実機械3とターゲット5との位置関係を把握するために撮像手段4が必要であっても、撮像手段4を解像度が小さい安価なものにすることができる。これは、映像表示部15aで表示される実機械映像S81が実機械3の3次元モデルであり、撮像手段4の解像度に依存しないためである。
 図36は、実施の形態6における遠隔操作装置1の動作の一例を示すフローチャートである。
 図36に示すように、図示しない手段により遠隔操作装置1が起動すると、制限部11は、操作者からの制限情報S1に基づいて、実機械3の運動可能範囲S3を設定する(ステップST1)。
 操作部12は、操作者からの操作情報S2と、実機械3の運動可能範囲S3とに基づいて、実機械3を操作するための入力情報である第1指令情報S4を生成する(ステップST2)。
 映像表示部15aは、映像モデル生成部14aからの実機械映像S81と可動情報映像S7とを表示する(ステップST5)。
 図示しない手段が操作者に対し遠隔操作開始を指示する(ステップST4)。操作者は、映像表示部15aが表示する実機械映像S8と可動情報映像S7とを確認しながら、実機械3を遠隔操作する。
 以上で説明した実施の形態6によれば、映像表示部15aが実機械3を映像化したものを表示する代わりに、例えば実機械3の3次元モデルを映像化したものを表示することで、撮像手段4を不要にすることができる。また、撮像手段4が必要であっても、解像度が小さい安価なものにすることができる。
実施の形態7.
 図37は、実施の形態7における遠隔操作装置1の構成の一例を示すブロック図である。
 図37に示すように、遠隔操作装置1は、制限部11sと、操作部12aと、モデル生成部13と、映像モデル生成部14と、映像表示部15とを備える。図37は、制限部11の代わりに制限部11sを備える点、および操作部12の代わりに操作部12aを備える点が、図1とは異なる。図37に示すモデル生成部13、映像モデル生成部14、映像表示部15、実機械3、撮像手段4、ターゲット5、および非ターゲット6は、図1に示すモデル生成部13、映像モデル生成部14、映像表示部15、実機械3、撮像手段4、ターゲット5、および非ターゲット6と同じであるため、説明を省略する。
 制限部11sは、操作者からの制限情報S1を受け取る。制限部11sは、この制限情報S1に基づいて運動可能範囲S3を生成し、操作部12a内の座標系変換部123および映像モデル生成部14に与える。本実施の形態では、本実施の形態では、制限部11sは、実機械3が設置されるxyz直交座標系を含む任意の空間座標系で運動可能範囲S3を設定する。このため、制限部11sは、例えば図5に示すx軸並進板11aおよびy軸並進板11bなどを用いて物理的に運動可能範囲S3を設定するのではなく、ソフトウェア処理によって運動可能範囲S3を設定する。ここでソフトウェア処理とは、運動可能範囲S3を設定したい座標系において複数の点を設定し、これらの点を含む直線、曲線、平面、あるいは曲面を運動可能範囲S3とすることである。
 操作部12aは、座標系変換部123と、逆運動学計算部124と、第2指令情報生成部125とを備える。
 座標系変換部123は、制限部11sから運動可能範囲S3を受け取る。座標系変換部123は、運動可能範囲S3が設定された空間座標系を実機械3が設置されるxyz直交座標系に変換する。これは、運動可能範囲S3が設定された空間座標系からxyz直交座標系への写像に相当する。
 逆運動学計算部124は、操作者からの操作情報S2と、制限部11sからの運動可能範囲S3とを受け取る。逆運動学計算部124は、操作情報S2と運動可能範囲S3とに基づいて、座標系変換部123で変換されたxyz直交座標系において、運動可能範囲S3を構成する複数の点に対し逆運動学計算を行い、逆運動学計算後の第1指令情報S41を実機械3と実機械モデル生成部131とに与える。
 第2指令情報生成部125は、操作者から操作情報S2を受け取る。第2指令情報生成部125は、操作情報S2に基づいて第2指令情報S5を生成し、撮像手段4および撮像モデル生成部132に与える。第2指令情報S5は、実施の形態1における第2指令情報S5と同じであるため、説明を省略する。
 なお、実機械3は、制限部11sが設定する運動可能範囲S3内を運動するが、物理的に運動できない場合がある。そこで、遠隔操作装置1は、操作部12aと実機械3との間、および操作部12aと実機械モデル生成部131との間に、図示しない第1の補正部を設けてもよい。第1の補正部は、逆運動学計算部124から第1指令情報S41を受け取り、第1指令情報S41を補正する。第1の補正部は、補正された第1指令情報を実機械3と実機械モデル生成部131とに与える。一例として、実機械3の物理的な可動範囲が運動可能範囲S3よりも狭い場合に、実機械3に対して可動範囲を超えた入力値を第1指令情報S41として与えてしまう。そこで、第1の補正部は、可動範囲に収まるよう第1指令情報S41を補正する。
 なお、遠隔操作装置1は、第1の補正部の代わりに、制限部11sと操作部12aとの間、および制限部11sと映像モデル生成部14との間に、図示しない第2の補正部を設けてもよい。第2の補正部は、制限部11sからの運動可能範囲S3を補正し、補正後の運動可能範囲を座標系変換部123および映像モデル生成部14に与える。具体的には、第2の補正部は、運動可能範囲S3が設定された空間座標系をxyz直交座標系に変換し、運動可能範囲S3を構成する複数の点に対し逆運動学計算を行う。そして、第2の補正部は、逆運動学計算された運動可能範囲を補正し、これに対し運動学計算を行ったものを補正後の運動可能範囲として、操作部12aおよび映像モデル生成部14へ出力する。ここで、逆運動学計算された運動可能範囲を補正したものを第1指令情報S41として実機械3および実機械モデル生成部131へ出力してもよく、この場合には運動学計算は不要となる。しかし、映像表示部15が補正後の運動可能範囲を表示する場合には、運動学計算を行う。
 図38は、実施の形態7における実機械3を含む構成の一例を示す模式図である。図38に示す撮像手段4は、図4に示す撮像手段4と同じであるため、説明を省略する。
 図38に示すように、実機械3は2リンクマニピュレータである。2リンクマニピュレータは、逆運動学計算部124からの第1指令情報S41によって2つのアクチュエータ36が回転することで、エンドエフェクタ35の位置を決定するロボットアームである。この場合、運動可能範囲S3は、エンドエフェクタ35に対して設定される。なお、図37では、実機械3および実機械モデル生成部131に対し第1指令情報S41のみが入力されるが、実機械3が2リンクマニピュレータの場合、2つのアクチュエータ36に対応する2つの異なる第1指令情報S41が入力される。
 また、実機械3が図38に示す2リンクマニピュレータの場合、逆運動学計算部124は、エンドエフェクタ35の位置を2つのアクチュエータ36の角度に換算するための換算式を用いることで、逆運動学計算を行う。よって、第1指令情報S41はアクチュエータ36の角度に相当する。但し、実機械3が2リンクマニピュレータではなく、例えば6リンクマニピュレータの場合、あるいは実機械3が移動台車などに設置される場合には、換算式が複雑となる。そこで、逆運動学計算部124は、例えばエンドエフェクタ35の位置に対しアクチュエータ36の角度を線形化することによって換算式を単純化し、エンドエフェクタ35の位置などの変数に乗算される係数を最適化アルゴリズムによって求めてもよい。あるいは、係数を機械学習によって求めてもよい。最適化アルゴリズムは、例えば勾配降下法などである。なお、遠隔操作装置1が第2の補正部を備える場合、第2の補正部が行う運動学計算とは、アクチュエータ36の角度をエンドエフェクタ35の位置に換算するための換算式を用いることである。
 なお、実機械3は2リンクマニピュレータに限定されない。
 図39(a)および(b)は、実施の形態7における映像表示部15での映像S9の一例を示す模式図である。図39(a)は、直線を運動可能範囲S3として設定した場合の映像表示部15での映像S91aの模式図である。図39(b)は、平面を運動可能範囲S3として設定した場合の映像表示部15での映像S91bの模式図である。
 図39(a)に示すように、映像S91aは、実機械映像S8gと可動情報映像S7pとが重畳された映像となる。実機械映像S8gは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7pは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。
 図39(b)に示すように、映像S91bは、実機械映像S8hと可動情報映像S7qとが重畳された映像となる。実機械映像S8hは、撮像手段4によって撮影された実機械3の映像である。可動情報映像S7qは、映像モデル生成部14によって生成された、運動可能範囲S3の映像である。
 制限部11sがソフトウェア処理によって運動可能範囲S3を設定する場合、2つの問題が生じる。1つ目の問題は、制限部11sが設定した運動可能範囲S3とエンドエフェクタ35の運動軌跡との間に乖離が生じることである。図40(a)および(b)は、実施の形態7における運動可能範囲S3とエンドエフェクタ35の運動軌跡との関係を示す模式図である。図40(a)は、複数の点C1によって運動可能範囲S3aを設定した場合のエンドエフェクタ35の運動軌跡T1を示すものである。図40(b)は、複数の点C2によって運動可能範囲S3bを設定した場合のエンドエフェクタ35の運動軌跡T2を示すものである。
 図40(a)に示すように、単位時間あたりに設定する点C1の数が少ない場合、点C1の間隔が大きくなるため、運動可能範囲S3aと運動軌跡T1との間に乖離が生じる。これは、逆運動学計算を行う対象である運動可能範囲S3の軌跡と第1指令情報S41の軌跡とが必ずしも一致せず、両者が非線形の関係になるからである。第1指令情報S41はアクチュエータ36への指令情報であり、この軌跡は回転軌跡である。一方、運動可能範囲S3の軌跡は回転軌跡に限定されず任意の軌跡を取り得る。
 これを解決するには、図40(b)に示すように単位時間あたりに設定する点C2の数を多くすることが挙げられる。但し、多くし過ぎると計算負荷が大きくなるため、計算負荷とのバランスで点C2を設定することが望ましい。また、図40(a)に示す点C1の数を変えず、局所的に設定する方法が挙げられる。これは、エンドエフェクタ35の移動速度を小さくすることに相当する。更に、エンドエフェクタ35の運動がアクチュエータ36と同じ回転運動となるよう、運動可能範囲S3を設定することが挙げられる。
 なお、実施の形態1から6の場合、実機械3はx軸並進機構31、y軸並進機構32、およびz軸並進機構33により構成されるため、単位時間あたりに設定する点の数が少ない場合でも、運動可能範囲S3と運動軌跡との間に乖離は生じない。これは、例えば運動可能範囲S3をx軸に設定した場合、第1指令情報S4の軌跡はx軸となり、運動可能範囲S3の軌跡と一致し、両者が線形の関係になるからである。
 2つ目の問題は、運動可能範囲S3を設定しない自由運動と、運動可能範囲S3を設定する拘束運動との切り替え時に、第1指令情報S41が不連続となることである。自由運動では、xyz直交座標系で実機械3が運動する。一方、拘束運動では、運動可能範囲S3が設定される空間座標系に一旦変換された後に、xyz直交座標系に変換される。運動可能範囲S3が設定される空間座標系に変換される際に、第1指令情報S41が不連続となる。これにより、アクチュエータ36に対し急な指令値変更を要求することになるため、アクチュエータ36が損傷する可能性がある。
 これを解決するには、アクチュエータ36に対する指令値変更を第1の所定範囲内に抑えるような位置にエンドエフェクタ35を移動させた後に、自由運動から拘束運動に切り替えることが挙げられる。第1の所定範囲とは、例えばアクチュエータ36を流れる電流が所定値以下となるような範囲である。あるいは第1の所定範囲とは、周辺の環境(機器や人など)に衝突しないような範囲である。また、自由運動から拘束運動に切り替える際、切り替え直前のエンドエフェクタ35の座標点との距離が第2の所定範囲内となるような点を複数の点から選定し、切り替え直後には選定された点にエンドエフェクタ35が移動するよう、第1指令情報S41を生成することが挙げられる。ここで、第2の所定範囲とは、第1の所定範囲と同じであってもよいし、異なっていてもよい。また、複数の点とは、運動可能範囲S3を構成する複数の点のことである。更に、運動可能範囲S3が設定される空間座標系がxyz直交座標系になるよう、運動可能範囲S3を設定することが挙げられる。これにより、座標系の変換が発生せずに済む。更に、自由運動と拘束運動との2つの運動パターンで実機械3を遠隔操作する代わりに、拘束運動のみで遠隔操作することが挙げられる。
 図41は、実施の形態7における遠隔操作装置1の動作の一例を示すフローチャートである。
 図41に示すように、図示しない手段により遠隔操作装置1が起動すると、制限部11sは、操作者からの制限情報S1に基づいて、実機械3の運動可能範囲S3を設定する(ステップST6)。制限部11sは、ソフトウェア処理によって運動可能範囲S3を設定する。
 座標系変換部123は、運動可能範囲S3が設定された空間座標系をxyz直交座標系に変換する(ステップST7)。
 逆運動学計算部124は、座標系変換部123で変換されたxyz直交座標系において、運動可能範囲S3を構成する複数の点に対し逆運動学計算を行い、逆運動学計算後の第1指令情報S41を実機械3と実機械モデル生成部131とに与える(ステップST8)。
 映像表示部15は、撮像手段4からの実機械映像S8と、映像モデル生成部14からの可動情報映像S7とを表示する(ステップST3)。
 図示しない手段が操作者に対し遠隔操作開始を指示する(ステップST4)。操作者は、映像表示部15が表示する実機械映像S8と可動情報映像S7とを確認しながら、実機械3を遠隔操作する。図示しない手段は、操作者からの遠隔操作終了の指示を受け取った場合に、遠隔操作装置1を停止させる。
 以上で説明した実施の形態7によれば、制限部11sがソフトウェア処理によって運動可能範囲S3を設定するため、任意の空間座標系で運動可能範囲S3を設定することができる。
 実施の形態1~6において、実機械3の運動可能範囲S3は、x軸方向、y軸方向、またはxy平面上の任意の方向に設定されるが、z軸方向、yz平面上の任意の方向、またはxz平面上の任意の方向に設定されてもよい。また、運動可能範囲S3は、任意の平面上に設定されてもよい。
 また、実施の形態1~7において、映像表示部15,15aとしてヘッドマウントディスプレイを用い、操作者はヘッドマウントディスプレイを装着して、映像S9を確認しながら実機械3を遠隔操作してもよい。
 更に、実施の形態1~7において、実機械端34、マニピュレータ9あるいはエンドエフェクタ35がターゲット5に接触したことを、図示しない手段により操作者に提示してもよい。例えば、実機械端34、マニピュレータ9あるいはエンドエフェクタ35に触覚センサーを取り付ける。ターゲット5への接触を確認した後は、必ずしも実機械映像S8,S81を確認しながら実機械を操作する必要はないため、撮像手段4による撮影をOFFにする期間を設けることができる。これにより、撮像手段4のメモリ容量を削減でき、遠隔操作装置1と撮像手段4との通信の負荷を軽減できる。
 1 遠隔操作装置、 3 実機械、 4,41~44 撮像手段、 5 ターゲット、 6 非ターゲット、 7 運動可能範囲形成手段、 8 駆動装置、 9 マニピュレータ、 11,11m~11p,11s 制限部、 11a x軸並進板、 11b y軸並進板、 11c x軸制限ボタン、 11d y軸制限ボタン、 11e~11j,11q,11r 制限パターン、 11k,11ma~11pa,11s カーソル、 11mb~11pb OKボタン、 11mc~11pc CANCELボタン、 11md~11mg,11nd~11ng,11оd~11оg,11pd~11pg 拘束点、 12,12a 操作部、 123 座標系変換部、 124 逆運動学計算部、 125 第2指令情報生成部、 13 モデル生成部、 14,14a 映像モデル生成部、 15,15a 映像表示部、 31 x軸並進機構、 32 y軸並進機構、 33 z軸並進機構、 34 実機械端、 35 エンドエフェクタ、 36 アクチュエータ、 71 レーザ光源、 72 レーザ光線、 73 マルチレーザ光源、 74 マルチレーザ光線、 121 操縦桿、 122 ボタン、 131 実機械モデル生成部、 132 撮像モデル生成部、 133 光源モデル生成部、 134 駆動モデル生成部、 135 マニピュレータモデル生成部、 S1 制限情報、 S2 操作情報、 S3,S3a,S3b 運動可能範囲、 S4,S41 第1指令情報、 S5,S51~S54 第2指令情報、 S13 第3指令情報、 S14 第4指令情報、 S16 第5指令情報、 S19 第6指令情報、 S6 モデル情報、 S7,S7a~S7k,S7m~S7q,S15,S15a,S15b,S20,S20a~S20d 可動情報映像、 S8,S81,S8a~S8h 実機械映像、 S9,S9a~S9k,S9m~S9z,S91a,S91b 映像、 S10 作用力、 S11,S12 反作用力、 S17 開閉可能範囲、 S18 姿勢制限範囲、 C1,C2 運動可能範囲を構成する点、 T1,T2 運動軌跡。

Claims (18)

  1.  実機械を操作者が遠隔操作する遠隔操作装置であって、
     前記操作者からの制限情報に基づいて、前記実機械の運動可能範囲を設定する制限部と、
     前記操作者からの操作情報と、前記運動可能範囲とに基づいて、前記実機械を操作するための入力情報である第1指令情報を生成する操作部と、
     前記実機械が映像化された実機械映像と、前記実機械に対応した前記運動可能範囲が映像化された可動情報映像とを表示する映像表示部と、
     を備える遠隔操作装置。
  2.  前記実機械映像は、撮像手段によって撮影される前記実機械が映像化されたものである請求項1に記載の遠隔操作装置。
  3.  前記第1指令情報を用いて前記実機械のモデルを生成する実機械モデル生成部と、前記撮像手段を操作するための入力情報である第2指令情報を用いて前記撮像手段のモデルを生成する撮像モデル生成部とを有し、前記実機械のモデルと前記撮像手段のモデルとを組み合わせたモデル情報を出力するモデル生成部と、
     前記制限部からの前記運動可能範囲と、前記モデル生成部からの前記モデル情報とに基づいて、前記運動可能範囲を映像化して前記可動情報映像を生成する映像モデル生成部と、
     を更に備え、
     前記映像表示部は、前記実機械映像と、前記映像モデル生成部からの前記可動情報映像とを表示する請求項2に記載の遠隔操作装置。
  4.  前記操作部は、前記操作者からの操作を強制的に限定する手段を有し、
     前記制限部は、前記限定する手段によって前記運動可能範囲を設定する請求項3に記載の遠隔操作装置。
  5.  前記操作部は、運動可能とする方向に対応するボタンを有し、
     前記制限部は、前記ボタンを押すことで前記運動可能範囲を設定する請求項3に記載の遠隔操作装置。
  6.  前記制限部は、予め用意された運動可能パターンによって前記運動可能範囲を設定する請求項3に記載の遠隔操作装置。
  7.  前記制限部は、複数の拘束点を結ぶ直線あるいは曲線によって前記運動可能範囲を設定する請求項3に記載の遠隔操作装置。
  8.  前記操作部は、前記制限部からの前記運動可能範囲に基づいて、光を放出する光源を操作するための入力情報である第3指令情報を更に生成し、
     前記モデル生成部は、前記第3指令情報を用いて前記光源のモデルを生成する光源モデル生成部を更に有し、前記光源のモデルを更に組み合わせた前記モデル情報を出力する請求項3に記載の遠隔操作装置。
  9.  前記操作部は、前記制限部からの前記運動可能範囲に基づいて、前記実機械の前記運動可能範囲を形成する運動可能範囲形成手段を操作するための入力情報である第4指令情報を更に生成し、
     前記映像表示部は、前記実機械映像と、前記運動可能範囲形成手段によって形成された前記運動可能範囲を撮影して映像化された前記可動情報映像とを表示する請求項2に記載の遠隔操作装置。
  10.  前記運動可能範囲形成手段は、光を放出する光源である請求項9に記載の遠隔操作装置。
  11.  前記操作部は、前記操作者からの前記操作情報に基づいて、前記撮像手段を駆動する駆動装置を操作するための入力情報である第5指令情報を更に生成する請求項2~10のいずれか1項に記載の遠隔操作装置。
  12.  前記操作部は、前記操作者からの前記操作情報に基づいて、前記撮像手段を駆動する駆動装置を操作するための入力情報である第5指令情報を更に生成し、
     前記モデル生成部は、前記第5指令情報を用いて前記駆動装置のモデルを生成する駆動モデル生成部を更に有し、前記駆動装置のモデルを更に組み合わせた前記モデル情報を出力する請求項3~8のいずれか1項に記載の遠隔操作装置。
  13.  前記操作部は、前記操作者からの前記操作情報に基づいて、前記実機械に接続されるマニピュレータを操作するための入力情報である第6指令情報を更に生成する請求項2~11のいずれか1項に記載の遠隔操作装置。
  14.  前記操作部は、前記操作者からの前記操作情報に基づいて、前記実機械に接続されるマニピュレータを操作するための入力情報である第6指令情報を更に生成し、
     前記モデル生成部は、前記第6指令情報を用いて前記マニピュレータのモデルを生成するマニピュレータモデル生成部を更に有し、前記マニピュレータのモデルを更に組み合わせた前記モデル情報を出力する請求項3、4、5、6、7、8または12のいずれか1項に記載の遠隔操作装置。
  15.  前記制限部は、前記操作者からの制限情報に基づいて、前記マニピュレータの開閉可能範囲を設定する請求項13または14に記載の遠隔操作装置。
  16.  前記制限部は、前記操作者からの制限情報に基づいて、前記マニピュレータの姿勢制限範囲を設定する請求項13~15のいずれか1項に記載の遠隔操作装置。
  17.  前記操作部は、前記運動可能範囲が設定された空間座標系を前記実機械が設置される座標系に変換する座標系変換部と、
     変換された前記座標系において、前記運動可能範囲を構成する複数の点に対し逆運動学計算を行い、計算結果を前記第1指令情報として出力する逆運動学計算部と、
     を更に備える請求項3、4、5、6、7、8または12のいずれか1項に記載の遠隔操作装置。
  18.  前記操作部は、複数の前記撮像手段のうちの少なくとも1つの前記撮像手段を有効とするよう、前記撮像手段への指令情報を生成する請求項2~17のいずれか1項に記載の遠隔操作装置。
PCT/JP2021/015911 2020-08-03 2021-04-19 遠隔操作装置 WO2022030047A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US18/019,101 US20230292000A1 (en) 2020-08-03 2021-04-19 Remote control device
CN202180058187.9A CN116056843A (zh) 2020-08-03 2021-04-19 远程操作装置
JP2021559199A JP7397879B2 (ja) 2020-08-03 2021-04-19 遠隔操作装置
EP21853723.1A EP4190513A4 (en) 2020-08-03 2021-04-19 REMOTE CONTROL DEVICE
JP2022126408A JP2022172112A (ja) 2020-08-03 2022-08-08 遠隔操作装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-131900 2020-08-03
JP2020131900 2020-08-03

Publications (1)

Publication Number Publication Date
WO2022030047A1 true WO2022030047A1 (ja) 2022-02-10

Family

ID=80117226

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/015911 WO2022030047A1 (ja) 2020-08-03 2021-04-19 遠隔操作装置

Country Status (5)

Country Link
US (1) US20230292000A1 (ja)
EP (1) EP4190513A4 (ja)
JP (2) JP7397879B2 (ja)
CN (1) CN116056843A (ja)
WO (1) WO2022030047A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113858A (ja) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd 移動体の遠隔操作支援方法及びシステム
JP2012236244A (ja) * 2011-05-10 2012-12-06 Sony Corp ロボット装置、ロボット装置の制御方法、並びにロボット装置制御用プログラム
JP2014180723A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及び被加工物の製造方法
JP2017013206A (ja) * 2015-07-03 2017-01-19 株式会社デンソーウェーブ ロボットシステム
JP2018202514A (ja) * 2017-05-31 2018-12-27 ファナック株式会社 ロボットの教示のための情報を表示するロボットシステム
WO2019012812A1 (ja) * 2017-07-12 2019-01-17 ソニー株式会社 制御装置及び制御方法、並びにマスタ-スレーブ・システム
WO2019092792A1 (ja) * 2017-11-07 2019-05-16 三菱電機株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP2020075354A (ja) * 2018-11-01 2020-05-21 キヤノン株式会社 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6044293A (ja) * 1983-08-18 1985-03-09 株式会社日立製作所 産業用ロボットの制御装置
JP2004223128A (ja) 2003-01-27 2004-08-12 Hitachi Ltd 医療行為支援装置および方法
DE10305384A1 (de) 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
US9789608B2 (en) * 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
JP5974668B2 (ja) * 2012-06-25 2016-08-23 国立大学法人 筑波大学 マニピュレーションシステム
DE102013108115A1 (de) 2013-07-30 2015-02-05 gomtec GmbH Verfahren und Vorrichtung zum Festlegen eines Arbeitsbereichs eines Roboters
DE102013110847B3 (de) 2013-10-01 2015-01-22 gomtec GmbH Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung
JP6787623B2 (ja) * 2015-02-24 2020-11-18 エスアールアイ インターナショナルSRI International 非常に器用なシステムのユーザインタフェース
JP2018008347A (ja) * 2016-07-13 2018-01-18 東芝機械株式会社 ロボットシステムおよび動作領域表示方法
JP7259284B2 (ja) * 2017-11-28 2023-04-18 株式会社デンソーウェーブ 教示装置、教示方法
JP2020013548A (ja) * 2018-07-06 2020-01-23 キヤノン株式会社 画像処理装置、画像処理方法、システム、物品の製造方法
JP7250489B2 (ja) * 2018-11-26 2023-04-03 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
JP2021065971A (ja) * 2019-10-23 2021-04-30 ファナック株式会社 ロボット教示システム、画像生成方法、及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113858A (ja) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd 移動体の遠隔操作支援方法及びシステム
JP2012236244A (ja) * 2011-05-10 2012-12-06 Sony Corp ロボット装置、ロボット装置の制御方法、並びにロボット装置制御用プログラム
JP2014180723A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及び被加工物の製造方法
JP2017013206A (ja) * 2015-07-03 2017-01-19 株式会社デンソーウェーブ ロボットシステム
JP2018202514A (ja) * 2017-05-31 2018-12-27 ファナック株式会社 ロボットの教示のための情報を表示するロボットシステム
WO2019012812A1 (ja) * 2017-07-12 2019-01-17 ソニー株式会社 制御装置及び制御方法、並びにマスタ-スレーブ・システム
WO2019092792A1 (ja) * 2017-11-07 2019-05-16 三菱電機株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP2020075354A (ja) * 2018-11-01 2020-05-21 キヤノン株式会社 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4190513A4

Also Published As

Publication number Publication date
JP7397879B2 (ja) 2023-12-13
JPWO2022030047A1 (ja) 2022-02-10
US20230292000A1 (en) 2023-09-14
EP4190513A1 (en) 2023-06-07
JP2022172112A (ja) 2022-11-15
CN116056843A (zh) 2023-05-02
EP4190513A4 (en) 2024-01-24

Similar Documents

Publication Publication Date Title
JP6843051B2 (ja) 遠隔操作ロボットシステム
US8918214B2 (en) Telematic interface with directional translation
KR101832346B1 (ko) 사용자 상호 장치 및 방법
JP6361213B2 (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
US10022195B2 (en) User interface for a robot
WO2016148072A1 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP5974668B2 (ja) マニピュレーションシステム
US20160058514A1 (en) Master-slave system
JP2008099279A (ja) カメラ制御システム
JP5800610B2 (ja) 医療用マスタスレーブマニピュレータ
KR20170016436A (ko) 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법
JP2011101915A (ja) ロボットシステム
JP2018144228A (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
CN111991084A (zh) 手术机器人及其虚拟成像控制方法、虚拟成像控制装置
WO2022030047A1 (ja) 遠隔操作装置
JP5217845B2 (ja) ロボット操作装置及びロボット操作システム
JP2003181785A (ja) 遠隔操作装置
JP2000042960A (ja) マニピュレータの遠隔操作装置
JP2782428B2 (ja) 仮想物体操作装置
JPH0430981A (ja) 遠隔操縦型ロボットのテレビカメラ制御装置
CN113612928B (zh) 遥操作系统、遥操作方法及芯片
Yang et al. A web-based 3d virtual robot remote control system
Plopski et al. Invisiblerobot: Facilitating robot manipulation through diminished reality
JP7218872B2 (ja) アニメーション制作システム
WO2024089890A1 (ja) 遠隔操作システムおよび遠隔操作方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021559199

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21853723

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2021853723

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021853723

Country of ref document: EP

Effective date: 20230303