WO2021256464A1 - 撮像システム及びロボットシステム - Google Patents

撮像システム及びロボットシステム Download PDF

Info

Publication number
WO2021256464A1
WO2021256464A1 PCT/JP2021/022670 JP2021022670W WO2021256464A1 WO 2021256464 A1 WO2021256464 A1 WO 2021256464A1 JP 2021022670 W JP2021022670 W JP 2021022670W WO 2021256464 A1 WO2021256464 A1 WO 2021256464A1
Authority
WO
WIPO (PCT)
Prior art keywords
image pickup
control device
end effector
robot
camera
Prior art date
Application number
PCT/JP2021/022670
Other languages
English (en)
French (fr)
Inventor
雅幸 掃部
裕和 杉山
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to CN202180041661.7A priority Critical patent/CN115697843A/zh
Priority to JP2022531837A priority patent/JP7459253B2/ja
Priority to US18/001,877 priority patent/US20230239439A1/en
Publication of WO2021256464A1 publication Critical patent/WO2021256464A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/222Remote-control arrangements operated by humans
    • G05D1/224Output arrangements on the remote controller, e.g. displays, haptics or speakers
    • G05D1/2244Optic
    • G05D1/2247Optic providing the operator with simple or augmented images from one or more cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/656Interaction with payloads or external entities
    • G05D1/689Pointing payloads towards fixed or moving targets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors

Definitions

  • This disclosure relates to an imaging system and a robot system.
  • Patent Document 1 discloses a robot system that displays a robot image on a monitor based on image pickup data acquired by a drone that is an unmanned aerial vehicle equipped with a posture-changeable camera.
  • the robot system of Patent Document 1 includes a robot operator for operating the robot and a flying object operator for operating the drone. For example, when moving the drone while operating the robot, the operator needs to manually operate both the robot manipulator and the flying object manipulator, but it is difficult to operate both in parallel.
  • the imaging system includes an unmanned flying object, an imaging device mounted on the unmanned flying object to image a robot that works on an object, and a remote position from the unmanned flying object.
  • the control device includes a display device that displays an image captured by the image pickup device to a user who operates the robot, and a control device that controls the operation of the image pickup device and the unmanned flying object, and the control device is the robot.
  • the motion-related information which is information related to the motion, is acquired, and the unmanned aircraft is moved so as to change the position and orientation of the image pickup device in response to the motion-related information.
  • FIG. 1 is a perspective view showing an example of a configuration of a robot system according to an exemplary embodiment.
  • FIG. 2 is a perspective view showing an example of the configuration of an unmanned aircraft according to an exemplary embodiment.
  • FIG. 3 is a block diagram showing an example of a functional configuration of an imaging system according to an exemplary embodiment.
  • FIG. 4 is a flowchart showing an example of the operation of the imaging system according to the exemplary embodiment.
  • FIG. 5 is a perspective view showing an example of the configuration of the robot system according to the first modification of the exemplary embodiment.
  • FIG. 6 is a block diagram showing an example of the functional configuration of the imaging system according to the first modification.
  • FIG. 7 is a perspective view showing another example of the flight restricted area of the unmanned aircraft in the modified example 1.
  • FIG. 1 is a perspective view showing an example of a configuration of a robot system according to an exemplary embodiment.
  • FIG. 2 is a perspective view showing an example of the configuration of an unmanned aircraft according to an exemplary embodiment
  • FIG. 8 is a perspective view showing an example of the configuration of the robot system according to the second modification of the exemplary embodiment.
  • FIG. 9 is a block diagram showing an example of the functional configuration of the imaging system according to the second modification.
  • FIG. 10 is a flowchart showing an example of the operation of the imaging system according to the second modification.
  • FIG. 1 is a perspective view showing an example of the configuration of the robot system 1 according to the exemplary embodiment.
  • the robot system 1 includes an image pickup system 100, a robot 200, a robot operation device 300, and a robot control device 400.
  • the image pickup system 100 includes an image pickup device 110, an unmanned flying object 120, an image pickup input device 130, a display device 140, and an image pickup control device 150.
  • the robot 200 is an industrial robot and includes a robot arm 210, a base 220, and an end effector 230.
  • the robot 200 may be another type of robot such as a service robot, a medical robot, a drug discovery robot, and a humanoid.
  • Service robots are robots used in various service industries such as nursing care, medical care, cleaning, security, guidance, rescue, cooking, and product provision.
  • the base 220 is fixed on the support surface and supports the robot arm 210.
  • the support surface of the base 220 may be an immovable surface such as a floor surface, or may be a movable surface on a movable device such as a traveling device.
  • the robot arm 210 has at least one joint 211 and has at least one degree of freedom.
  • the robot arm 210 has a joint driving device 212 that drives each joint 211.
  • the joint drive device 212 includes a servomotor as an electric motor for driving the joint 211.
  • the servomotor includes an encoder that detects the amount of rotation of the motor and a current sensor that detects the current value of the motor. The current sensor is not indispensable for the servo motor.
  • the robot arm 210 is configured so that the end effector 230 is attached to the tip of the robot arm 210.
  • the robot arm 210 can move the end effector 230 so as to freely change the position and posture of the end effector 230.
  • the end effector 230 performs various actions such as gripping, adsorption, spraying of a liquid such as paint, welding, and injection of a sealing agent on the object (also referred to as "work") W according to the application of the end effector 230. It is configured to be able to be added.
  • the robot arm 210 is a vertical articulated robot arm with 6 degrees of freedom having 6 rotary joints 211, but is not limited thereto.
  • the type of the robot arm 210 may be any type, for example, a horizontal articulated type, a polar coordinate type, a cylindrical coordinate type, a rectangular coordinate type, or the like.
  • the joint 211 of the robot arm 210 may also be any joint such as a linear motion joint.
  • the quantity of the joints 211 of the robot arm 210 may be any quantity such as 5 or less or 7 or more.
  • the robot operating device 300 is arranged at a position away from the robot 200 and is used for remotely controlling the robot 200.
  • the robot operating device 300 may be arranged at a position where the user P who handles the robot operating device 300 can directly see the robot 200, or may be arranged at a position where the user P cannot directly see the robot 200.
  • the robot operating device 300 may be arranged in a space isolated from the space in which the robot 200 is arranged, or in a space at a position away from the space.
  • the robot operating device 300 receives inputs such as various commands, information, and data, and outputs them to the robot control device 400.
  • the robot operating device 300 can accept an input by the user P.
  • the robot operating device 300 is connected to another device and can receive input from the device.
  • the robot operating device 300 may include known input means such as a lever, a button, a touch panel, a joystick, a motion capture, a camera, and a microphone.
  • the robot operating device 300 may include a teaching pendant, which is one of the teaching devices, a smart device such as a smartphone and a tablet, a personal computer, and a terminal device such as a dedicated terminal device.
  • the robot operating device 300 may include a master machine.
  • the master machine may be configured to perform similar or similar movements to the robot arm 210.
  • the robot control device 400 controls the operation of the robot 200.
  • the robot control device 400 is connected to the robot 200 and the robot operation device 300 via wired communication or wireless communication. Any wired communication or wireless communication may be used.
  • the robot control device 400 processes commands, information, data, and the like input via the robot operation device 300.
  • the robot control device 400 may be connected to an external device and may be configured to receive and process inputs such as commands, information, and data from the device.
  • the robot control device 400 controls the operation of the robot 200 according to the above commands, information, data, and the like.
  • the robot control device 400 controls the supply of power and the like to the robot 200.
  • the robot control device 400 manages information and the like for managing the robot 200.
  • the robot control device 400 controls the drive of the joint drive device 212 of the robot arm 210 and the drive of the end effector 230.
  • the robot control device 400 determines the rotational drive amount of each joint 211 for moving the end effector 230 to the robot arm 210, and drives each joint drive device 212 according to the determined rotational drive amount.
  • the robot control device 400 uses the rotation amount and the current value detected by the encoder and the current sensor of the servomotor of each joint drive device 212 as feedback information, and drives the drive direction, drive amount, drive speed, and drive of each joint 211.
  • the acceleration, drive torque, and the like are controlled, whereby the end effector 230 is moved to a desired position and posture on the robot arm 210, and a desired force is applied via the end effector 230.
  • the robot control device 400 may acquire the current value of the servomotor from another means such as a circuit for controlling the supply current to the servomotor.
  • the robot control device 400 outputs various commands, information, data, and the like to the robot operation device 300 and / or the display device 140 of the image pickup system 100.
  • the robot control device 400 causes the display device 140 to visually and / or audibly present various commands, information, data, and the like.
  • the robot control device 400 may output an image for operating the robot 200, an image showing the state of the robot 200, an image for managing the robot 200, and the like.
  • the robot control device 400 includes a computer. Further, the robot control device 400 supplies the electric circuit for controlling the electric power supplied to the robot 200, the device for controlling the power other than the electric power such as the air pressure and the hydraulic pressure supplied to the robot 200, and the robot 200. Equipment for controlling substances such as cooling water and paint may be provided. Devices other than the computer may be provided separately from the robot control device 400.
  • FIG. 2 is a perspective view showing an example of the configuration of the unmanned flying object 120 according to the exemplary embodiment.
  • FIG. 3 is a block diagram showing an example of a functional configuration of the imaging system 100 according to an exemplary embodiment.
  • the image pickup device 110 of the image pickup system 100 is mounted on the unmanned flying object 120.
  • the image pickup device 110 includes a camera 111 that captures a still image and / or a moving image of a digital image, a gimbal 112 that supports the camera 111 on the unmanned flying object 120, and a camera control device 113.
  • the camera 111 is merely a visible light camera, but may be another type of camera, such as a 3D camera, that captures a 3D image that includes the position information of the subject in the image. good.
  • the gimbal 112 is attached to the unmanned flying object 120 and is configured to mount the image pickup device 110.
  • the gimbal 112 can operate so as to freely change the orientation of the image pickup apparatus 110.
  • the gimbal 112 is electric and comprises an electric motor for driving.
  • the gimbal 112 may be able to change the attitude of the image pickup device 110 with respect to the unmanned aircraft 120 at least in the yawing direction DY and at least in the pitching direction DP. Further, the gimbal 112 may be able to change the posture of the image pickup apparatus 110 in the rolling direction DR.
  • the orientation of the image pickup device 110 may be the direction of the center of the optical axis of the camera of the image pickup device 110, and specifically, in the three-dimensional direction of the center of the optical axis in the three-dimensional space. There may be.
  • the orientation of the image pickup device 110 may correspond to the posture of the image pickup device 110.
  • the position of the image pickup device 110 may be the three-dimensional position of the image pickup device 110 in the three-dimensional space.
  • the camera control device 113 controls the drive of the camera 111 and the gimbal 112.
  • the camera control device 113 controls the drive of the camera 111 and the gimbal 112 according to the information and commands received from the image pickup control device 150 via wireless communication, and causes the camera 111 and the gimbal 112 to operate in accordance with the information and commands. Let me.
  • the camera control device 113 transmits operation information indicating the operation results of the camera 111 and the gimbal 112 to the image pickup control device 150 via wireless communication.
  • the camera control device 113 wirelessly communicates with the image pickup control device 150 by using the first communication device 124 of the unmanned flying object 120 described later.
  • the camera control device 113 includes a computer and an electric circuit for controlling the electric power supplied to the camera 111 and the gimbal 112.
  • the unmanned flying object 120 can fly so as to freely change the position and orientation of the mounted image pickup device 110.
  • the unmanned aerial vehicle 120 is composed of a plurality of rotors 121, eg, four rotors 121 arranged in a plane and rotatable along the plane. It is a drone equipped with. The drone is capable of flying in any direction including horizontal and vertical directions, stationary flight in the air, and moving the attitude in any direction in the stationary flight state.
  • the unmanned flying object 120 includes a wing driving device 122 for rotationally driving each rotary wing 121, a position detecting device 123, a first communication device 124, and a flying object control device 125.
  • the wing drive device 122 is an electric motor.
  • the first communication device 124 performs wireless communication between the unmanned flying object 120 and the image pickup control device 150.
  • the first communication device 124 includes wireless communication between the flying object control device 125 and the image pickup control device 150, and wireless communication between the camera control device 113 and the image pickup control device 150 of the image pickup device 110.
  • the first communication device 124 may include a communication circuit.
  • the position detecting device 123 detects the position and attitude of the unmanned flying object 120 and outputs the position and the attitude to the flying object control device 125.
  • the configuration of the position detecting device 123 is not particularly limited as long as it can detect the position and attitude of the unmanned flying object 120, and may be, for example, a known technique.
  • the position detection device 123 includes a position estimation system using GPS (Global Positioning System), a position estimation system using radio waves other than GPS, a position estimation system using image recognition technology, and a position using acceleration and angular velocity.
  • GPS Global Positioning System
  • An estimation system, another position estimation system, or a combination of two or more of the above position estimation systems may be provided, and the position estimation system may be used to detect the position and attitude of the unmanned flying object 120.
  • a position estimation system using GPS a system for positioning the position and attitude of the unmanned flying object 120 by transmitting and receiving to and from GPS is exemplified.
  • a position estimation system using radio waves other than GPS a system that estimates the position and attitude of the unmanned flying object 120 by radio waves received from a radio wave transmitter arranged in the space where the robot 200 is arranged is exemplified.
  • a position estimation system using image recognition technology a system that estimates the position and attitude of the unmanned flying object 120 by detecting the positions of surrounding objects and the objects by image recognition using a three-dimensional camera is exemplified.
  • a position estimation system using acceleration and angular velocity a system that estimates the position and attitude of the unmanned flying object 120 using the detection results of the acceleration sensor and the angular velocity sensor is exemplified.
  • the flight object control device 125 controls the drive of each wing drive device 122.
  • the flight object control device 125 controls the drive of each wing drive device 122 according to information and commands received from the image pickup control device 150 by wireless communication via the first communication device 124, and the information and commands are given to the unmanned flight object 120. Let them fly according to the above. Further, the flight object control device 125 transmits the position and attitude information of the unmanned flight object 120 detected by the position detection device 123 to the image pickup control device 150 via the first communication device 124.
  • the aircraft control device 125 includes a computer and an electric circuit for controlling the electric power supplied to each wing drive device 122.
  • the unmanned flying object 120 may have a configuration in which at least the position of the position and the attitude can be freely changed.
  • the unmanned vehicle 120 may have a helicopter-like configuration with two rotors rotating in intersecting directions.
  • the unmanned vehicle 120 operates in flight under the control of the image pickup control device 150.
  • the unmanned vehicle 120 may fly according to an operation input to the image pickup input device 130.
  • the unmanned flying object 120 can automatically fly, that is, autonomously fly according to the program control of the image pickup control device 150.
  • the image pickup input device 130 receives input and operations for operating the image pickup system 100 from the user P.
  • the image pickup input device 130 receives inputs such as various commands, information, and data, and outputs them to the image pickup control device 150.
  • the image pickup input device 130 receives inputs for operating the camera 111, the gimbal 112, and the unmanned flying object 120, and outputs operation information indicating the contents of the received operations to the image pickup control device 150.
  • the image pickup input device 130 may be arranged in the vicinity of the robot operation device 300 and may have a configuration similar to the configuration exemplified by the robot operation device 300.
  • the robot operation device 300 may include an image pickup input device 130 and also have a function of the image pickup input device 130.
  • the image pickup input device 130 is an example of an input device.
  • the display device 140 perceptibly presents the image captured by the image pickup device 110 to the user P.
  • the display device 140 is arranged in the vicinity of the robot operating device 300, and is arranged at a position away from the image pickup device 110.
  • the display device 140 may present the command, information, data, and the like received from the robot control device 400 to the user P in a perceptible manner.
  • the display device 140 includes a display such as a liquid crystal display (Liquid Crystal Display) and an organic or inorganic EL display (Electro-Luminescence Display), and presents visually.
  • the display device 140 may include an audio output device such as a speaker, and may make an auditory presentation.
  • the display device 140 may be configured to make a tactile presentation.
  • the image pickup control device 150 is connected to the image pickup device 110, the unmanned flying object 120, the image pickup input device 130, and the display device 140 via wired communication or wireless communication. Any wired communication or wireless communication may be used.
  • the image pickup control device 150 is arranged outside the unmanned flying object 120, wirelessly communicates with the image pickup device 110 and the unmanned flying object 120, and wirelessly communicates with the image pickup input device 130 and the display device 140. ..
  • the image pickup control device 150 may be mounted on the unmanned flying object 120 and wirelessly communicate with the image pickup input device 130 and the display device 140.
  • the image pickup control device 150 is an example of a control device.
  • the image pickup control device 150 as described above includes a computer. Further, the image pickup control device 150 may include an electric circuit or the like for controlling the electric power supplied to the image pickup input device 130 and the display device 140. Devices other than the computer may be provided separately from the image pickup control device 150. The image pickup control device 150 may be incorporated in the robot control device 400, the image pickup input device 130, or the robot operation device 300, or may be provided separately from these.
  • the computer of the robot control device 400 and the image pickup control device 150 includes a circuit or a processing circuit having a processor, a memory, and the like.
  • the circuit or processing circuit sends and receives commands, information, data, etc. to and from other devices.
  • the circuit or processing circuit inputs signals from various devices and outputs control signals to each controlled object.
  • the memory is composed of a semiconductor memory such as a volatile memory and a non-volatile memory, a hard disk, and a storage device such as an SSD (Solid State Drive).
  • the memory stores a program executed by a circuit or a processing circuit, various data, and the like.
  • the function of the circuit or processing circuit is realized by a computer system consisting of a processor such as a CPU (Central Processing Unit), a volatile memory such as RAM (Random Access Memory), and a non-volatile memory such as ROM (Read-Only Memory). You may.
  • the computer system may realize the function of the circuit or the processing circuit by the CPU using the RAM as a work area to execute the program recorded in the ROM.
  • a part or all of the functions of the circuit or the processing circuit may be realized by the above-mentioned computer system, or may be realized by a dedicated hardware circuit such as an electronic circuit or an integrated circuit, and the above-mentioned computer system and hardware may be realized. It may be realized by a combination of circuits.
  • the robot control device 400 and the image pickup control device 150 may execute each process by centralized control by a single computer, or may execute each process by distributed control by cooperation of a plurality of computers.
  • each function of the robot control device 400 and the image pickup control device 150 includes a microcontroller, an MPU (Micro Processing Unit), an LSI (Large Scale Integration), a system LSI, a PLC (Programmable Gate Array), and a logic circuit. It may be realized by such as.
  • the plurality of functions of the robot control device 400 and the image pickup control device 150 may be individually integrated into one chip, or may be integrated into one chip so as to include a part or all of them.
  • the circuit may be a general-purpose circuit or a dedicated circuit, respectively.
  • an FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and / or setting of circuit cells inside the LSI, or multiple functions for a specific application.
  • An ASIC Application Specific Integrated Circuit
  • the image pickup control device 150 of the image pickup system 100 includes a drive control unit 151, a position / attitude calculation unit 152, a display control unit 153, and a storage unit 154 as functional components, and further.
  • the second communication device 155 is included.
  • the drive control unit 151 includes a camera control unit 1511 and an air vehicle control unit 1512 as functional components.
  • the position / orientation calculation unit 152 includes a first detection unit 1521, a second detection unit 1522, and a determination unit 1523 as functional components.
  • the second communication device 155 wirelessly communicates with the first communication device 124 of the unmanned flying object 120, and mediates the wireless communication between the image pickup control device 150 and the unmanned flying object 120.
  • the second communication device 155 may include a communication circuit.
  • the function of the storage unit 154 is realized by the memory of the computer of the image pickup control device 150 or the like.
  • the functions of the functional components of the image pickup control device 150 other than the storage unit 154 are realized by a computer processor or the like.
  • the storage unit 154 stores various information and enables reading of the stored information.
  • the storage unit 154 may store a program, various data, and the like.
  • the storage unit 154 may store programs, data, information, and the like for operating each device of the image pickup system 100.
  • the first detection unit 1521 of the position / orientation calculation unit 152 detects the position and orientation of the end effector 230 of the robot 200 and outputs the position and orientation to the determination unit 1523. Although not limited to this, the first detection unit 1521 detects the position and posture of the tip portion of the robot arm 210 as the position and posture of the end effector 230.
  • the first detection unit 1521 is configured to receive feedback information from the joint drive device 212 of the robot arm 210 from the robot control device 400.
  • the first detection unit 1521 calculates the position and posture of the tip of the robot arm 210, which is the connection portion between the robot arm 210 and the end effector 230, by using the rotational drive amount of each joint drive device 212 included in the feedback information. do.
  • the position of the tip portion can be represented by using a three-dimensional spatial coordinate system (hereinafter, also referred to as “first coordinate system”) set in the space where the robot arm 210 is arranged, as shown in FIG. ..
  • the first coordinate system is defined by the coordinate axes X1, Y1 and Z1.
  • the posture of the tip portion can be expressed using a three-dimensional spatial coordinate system (hereinafter, also referred to as “second coordinate system”) set at the tip portion as shown in FIG.
  • the second coordinate system is defined by the axes X2, Y2 and Z2.
  • the posture of the tip portion can be expressed using the angles of the coordinate axes X2, Y2 and Z2 with respect to the coordinate axes X1, Y1 and Z1 as the posture angle.
  • the feedback information of the joint drive device 212 of the robot arm 210 and the position and posture information of the end effector 230 are examples of motion-related information.
  • the feedback information is an example of information on the position and posture of the end
  • the motion-related information is information related to the motion of the robot 200.
  • the operation-related information may include information for causing the robot 200 to operate, information indicating the result of the operation of the robot 200, or both of them. That is, the motion-related information may include information indicating the motion of the robot 200.
  • Examples of information for operating the robot 200 include operation information input to the robot operating device 300 and the like for operating the robot 200, and output from the robot control device 400 to the robot 200 for operating the robot 200. It is a command of the target operation to be performed.
  • Examples of information indicating the result of the operation of the robot 200 are feedback information output from the robot 200, a detection result of the operation of the robot 200 by a sensor or the like, and the like.
  • the operation of the robot 200 is the operation of the robot arm 210, the operation of the joint of the robot arm 210, the operation of the joint drive device 212 of the robot arm 210, the position and posture of the end effector 230, the operation of the end effector 230, or two of these. It may include two or more combinations and the like.
  • the first detection unit 1521 is information on the operation input to the robot operation device 300 to operate the robot arm 210, and the target operation output from the robot control device 400 to the robot arm 210 to operate the robot arm 210.
  • the position and orientation of the end effector 230 may be detected using commands or a combination thereof.
  • the position and posture of the end effector 230 may be calculated by the robot control device 400, and the first detection unit 1521 may be configured to receive the calculation result of the position and posture from the robot control device 400.
  • the second detection unit 1522 detects the current position and orientation of the camera 111 of the image pickup device 110 and outputs the output to the determination unit 1523.
  • the second detection unit 1522 receives information on the current position and attitude of the unmanned vehicle 120 from the unmanned vehicle 120 and operation information of the camera 111 and the gimbal 112 of the image pickup apparatus 110 via wireless communication.
  • the second detection unit 1522 detects the position and orientation of the camera 111 using the received information.
  • the position and orientation of the camera 111 may be represented in the first coordinate system.
  • the determination unit 1523 determines the target position and orientation of the camera 111 of the image pickup apparatus 110 in response to the operation-related information, and outputs the position and orientation to the drive control unit 151. Specifically, the determination unit 1523 determines the target position and posture of the camera 111 so as to change the position and posture of the camera 111 in response to the change of the operation-related information. For example, the determination unit 1523 determines the target position and posture of the camera 111 so as to follow the movement of the robot 200 indicated by the motion-related information. Specifically, the determination unit 1523 determines the target position and orientation of the camera 111 so that the position and orientation of the end effector 230 and the position and orientation of the camera 111 have a predetermined relative relationship. ..
  • the determination unit 1523 reads out from the storage unit 154 information indicating the relationship between the relative position and orientation of the camera 111 with respect to the position and orientation of the end effector 230 as a predetermined relative relationship.
  • the determination unit 1523 detects the above-mentioned predetermined relative relationship information, the detection result of the position and orientation of the end effector 230 received from the first detection unit 1521, and the current position and orientation of the camera 111 received from the second detection unit 1522. Using the result, the position and orientation of the target of the camera 111 so as to satisfy a predetermined relative relationship with the detection result of the position and orientation of the end effector 230 are calculated.
  • the position and orientation of the target can be represented in the first coordinate system. As a result, the relative position and orientation of the camera 111 with respect to the end effector 230 can be maintained.
  • the determination unit 1523 determines a predetermined relative relationship according to a command input to the image pickup input device 130 by the user P. For example, when the position and orientation of the end effector 230 is in the first state and the position and orientation of the camera 111 is in the second state, when the above command is input to the image pickup input device 130, the determination unit 1523 determines.
  • the relationship between the first state and the second state is set to a predetermined relative relationship, and information representing the relationship such as the relational expression between the position and posture of the end effector 230 and the position and posture of the camera 111 is calculated and stored. Store in 154.
  • the determination unit 1523 receives operation information indicating the content of the operation from the image pickup input device 130, and the operation information is received.
  • the position and orientation of the target of the camera 111 to be moved according to the operation information are determined.
  • Information on the relationship between the operation information and the position and posture of the camera 111 is stored in advance in the storage unit 154, and the determination unit 1523 calculates the target position and posture using the information.
  • the operation information includes information on the operation performed by the user P to visually recognize the portion of the robot 200 such as the end effector 230 with respect to the operating robot 200 through the camera 111.
  • the determination unit 1523 When the determination unit 1523 receives the operation information of the camera 111 from the image pickup input device 130 while executing the control of determining the target position and the posture of the camera 111 using the predetermined relative relationship, the determination unit 1523 follows the operation information. Control to determine the target position and orientation of the camera 111 may be prioritized. That is, the determination unit 1523 receives the operation information of the camera 111 from the image pickup input device 130 as a correction command which is a command to correct the position and orientation of the camera 111, and the target position and the target position of the camera 111 corresponding to the predetermined relative relationship. The orientation is varied to the position and orientation of the 111 target of the camera according to the operation information.
  • the position and orientation of the target of the camera 111 determined by using the predetermined relative relationship is corrected by the position and orientation of the target of the camera 111 according to the operation information. That is, the user P can correct the position and orientation of the target of the camera 111 by using the image pickup input device 130.
  • the determination unit 1523 uses the target position and posture of the camera 111 according to the operation information instead of the target position and posture of the camera 111 using the predetermined relative relationship, and the target of the camera 111 according to the operation information.
  • the position and posture of the camera 111 may be determined to be the target position and posture of the corrected camera 111.
  • the determination unit 1523 corrects the target position and posture of the camera 111 generated by adding the target position and posture of the camera 111 according to the operation information to the target position and posture of the camera 111 using the predetermined relative relationship.
  • the position and orientation of the target of the camera 111 later may be determined.
  • the determination unit 1523 may reflect the correction result in the determination of the target position and orientation of the camera 111 corresponding to the predetermined relative relationship. For example, the determination unit 1523 may change the predetermined relative relationship so as to reflect the correction result. Alternatively, the determination unit 1523 may determine the target position and posture of the camera 111 without reflecting the correction result in the predetermined relative relationship after the correction of the target position and orientation of the camera 111.
  • the flying object control unit 1512 of the drive control unit 151 generates an operation command of the unmanned flying object 120 for moving the camera 111 according to the target position and attitude of the camera 111 received from the determination unit 1523.
  • the flight body control unit 1512 outputs the operation command to the camera control unit 1511 and the flight body control device 125 of the unmanned flight body 120.
  • the motion command includes a command of the target position and attitude of the unmanned aircraft 120, and the position and attitude of the target may be represented by the first coordinate system.
  • the target position of the unmanned vehicle 120 may be a position for moving the position of the camera 111 to the target position.
  • the target posture of the unmanned aircraft 120 may be a posture for bringing the direction of the camera 111 closer to the target posture. Since the unmanned aerial vehicle 120 is a drone, it can rotate in the horizontal direction and can change the direction of the camera 111 in the horizontal direction.
  • the camera control unit 1511 generates an operation command of the gimbal 112 for moving the posture of the camera 111 according to the target posture of the camera 111 received from the determination unit 1523.
  • the operation command includes a command for operation of each part of the gimbal 112.
  • the camera control unit 1511 transmits the operation command to the camera control device 113 of the unmanned flying object 120.
  • the camera control unit 1511 is based on the information on the target attitude of the unmanned vehicle 120 received from the vehicle control unit 1512 and the information on the target attitude of the camera 111, and the camera 111 targets the camera 111 with the unmanned vehicle 120 as a reference.
  • the posture is determined, and the operation of each part of the gimbal 112 for realizing the target posture is determined.
  • the camera control unit 1511 determines the target attitude of the camera 111 with reference to the attachment unit of the gimbal 112 to the unmanned flying object 120.
  • the camera control unit 1511 determines the target position and attitude of the camera 111 with respect to the unmanned vehicle 120, and the camera It may be output to the control device 113.
  • the camera control unit 1511 generates an operation command for operating the camera 111 and transmits it to the camera control device 113 of the unmanned flying object 120.
  • the operation command may include a command to start and stop imaging of the camera 111, a command to perform zoom-up imaging and zoom-back imaging of the camera 111, and the like.
  • the display control unit 153 receives the image data captured by the image pickup device 110 from the image pickup device 110, outputs the image data to the display device 140, and displays the image corresponding to the image data.
  • the display control unit 153 may perform image processing on the image data received from the image pickup device 110 and output the image data after the image processing to the display device 140.
  • FIG. 4 is a flowchart showing an example of the operation of the imaging system 100 according to the exemplary embodiment.
  • the image pickup control device 150 operates in the initial setting mode for determining a predetermined relative relationship between the end effector 230 of the robot 200 and the camera 111 of the image pickup device 110.
  • the image pickup control device 150 starts the initial setting mode according to an activation command input to the image pickup input device 130 by the user P.
  • the image pickup control device 150 receives a command for determining the initial position and initial posture of the camera 111 of the image pickup device 110. Specifically, the image pickup control device 150 activates the image pickup device 110 and the unmanned flying object 120, and operates the image pickup device 110 and the unmanned flying object 120 according to the operation input to the image pickup input device 130. The user P operates the image pickup input device 130 while visually recognizing the image captured by the image pickup device 110 on the display device 140 to change the position and attitude of the camera 111 on the unmanned flying object 120, and the gimbal 112 of the image pickup device 110. The posture of the camera 111 is changed.
  • the user P captures a command to determine the current position and posture of the camera 111 to the initial position and initial posture of the camera 111. Input to the input device 130.
  • the image pickup control device 150 determines the initial position and initial posture of the camera 111. While the control is being executed, the image pickup control device 150 receives information on the position and attitude of the unmanned vehicle body 120 and operation information of the camera 111 and the gimbal 112 from the unmanned vehicle body 120 and the image pickup device 110. The image pickup control device 150 is based on the information on the position and attitude of the unmanned aircraft 120 detected when the command for determining the initial position and initial attitude of the camera 111 is received in step S102 and the operation information of the gimbal 112, and the camera 111. Detects the position and posture of, and determines the position and posture as the initial position and the initial posture.
  • step S104 the image pickup control device 150 detects the position and orientation of the end effector 230.
  • the robot control device 150 issues a command for requesting operation information of the robot arm 210 as information on the position and posture of the end effector 230.
  • the robot control device 400 outputs the operation information to the image pickup control device 150.
  • the operation information of the robot arm 210 is information on the amount of rotation of each joint 211 detected by each joint driving device 212 of the robot arm 210.
  • the image pickup control device 150 calculates the position and orientation of the end effector 230 using the operation information of the robot arm 210.
  • step S105 the image pickup control device 150 determines a relational expression or the like representing a predetermined relative relationship by using the information of the initial position and the initial posture of the camera 111 and the information of the position and the posture of the end effector 230. That is, a predetermined relative relationship is determined.
  • the image pickup control device 150 stores information on a predetermined relative relationship in the storage unit 154.
  • step S106 the image pickup control device 150 ends the initial setting mode and starts the operation in the normal operation mode.
  • step S107 the image pickup control device 150 causes the camera 111 of the image pickup device 110 to start the image pickup operation.
  • the camera 111 continuously captures a moving image and transmits it to the image pickup control device 150, and the image pickup control device 150 causes the display device 140 to display the moving image.
  • step S108 the image pickup control device 150 requests the robot control device 400 for the operation information of the robot arm 210, and acquires the operation information from the robot control device 400.
  • step S109 the image pickup control device 150 determines the target position and target posture of the camera 111 that satisfies a predetermined relative relationship with respect to the position and posture of the end effector 230.
  • the image pickup control device 150 calculates the position and posture of the end effector 230 by using the operation information of the robot arm 210.
  • the image pickup control device 150 calculates the target position and the target posture of the camera 111 by using the position and the posture of the end effector 230 and the information of the predetermined relative relationship stored in the storage unit 154.
  • step S110 the image pickup control device 150 determines the target position and target posture of the unmanned vehicle 120 for moving the camera 111 to the target position and target posture, and the target operating state of each part of the gimbal 112.
  • the image pickup control device 150 transmits an operation command for moving the unmanned vehicle 120 to the target position and the target attitude and an operation command for operating the gimbal 112 to the target operation state to the unmanned vehicle 120 and the image pickup device 110.
  • step S111 the unmanned flying object 120 moves to the target position and the target attitude according to the operation command, and the image pickup device 110 operates the gimbal 112 to the target operating state.
  • the position and orientation of the camera 111 and the position and orientation of the end effector 230 satisfy the relative positional relationship.
  • step S112 the image pickup control device 150 determines whether or not a correction command, which is a command for moving the position and attitude of the camera 111, has been input to the image pickup input device 130 by the user P.
  • the image pickup control device 150 proceeds to step S113 when the input has been completed (Yes in step S112), and proceeds to step S117 when no input has been made (No in step S112).
  • the image pickup control device 150 determines the correction target position and the correction target posture of the unmanned aircraft 120 for moving the position and the posture of the camera 111 according to the correction command, and the correction target operating state of each part of the gimbal 112. ..
  • the image pickup control device 150 receives a correction operation command which is an operation command for moving the unmanned vehicle 120 to the correction target position and the correction target attitude, and a correction operation command which is an operation command for operating the gimbal 112 in the correction target operation state. It is transmitted to the unmanned aircraft 120 and the image pickup device 110.
  • the image pickup control device 150 may generate an operation command by using the information on the position and attitude of the unmanned flying object 120 and the information on the operating state of the gimbal 112 as feedback information.
  • step S114 the unmanned aircraft 120 moves to the correction target position and the correction target attitude according to the correction operation command, and the image pickup device 110 operates the gimbal 112 to the correction target operation state.
  • the unmanned vehicle 120 and the image pickup apparatus 110 may control the operation by using the information on the position and attitude of the unmanned vehicle 120 and the information on the operating state of the gimbal 112 as feedback information.
  • step S115 the image pickup control device 150 requests the robot control device 400 for the operation information of the robot arm 210, and acquires the operation information from the robot control device 400.
  • step S116 the image pickup control device 150 calculates the position and posture of the end effector 230 using the operation information of the robot arm 210.
  • the image pickup control device 150 uses the information on the position and orientation of the end effector 230 and the correction target position and correction target posture of the camera 111 to determine a relational expression or the like representing a new predetermined relative relationship.
  • the image pickup control device 150 updates the predetermined relative relationship information by changing the predetermined relative relationship information stored in the storage unit 154 to new predetermined relative relationship information.
  • the image pickup control device 150 subsequently controls the position and orientation of the camera 111 so that the position and orientation of the camera 111 and the position and orientation of the end effector 230 satisfy the relative positional relationship after the update.
  • step S117 the image pickup control device 150 determines whether or not a command to end the operation of the image pickup system 100 has been input to the image pickup input device 130 by the user P, and if the input has been completed (Yes in step S117). When the series of processes is completed and no input is made (No in step S117), the process returns to step S108.
  • the image pickup control device 150 determines the relative positional relationship desired by the user P.
  • the image pickup control device 150 controls the operation of the unmanned flying object 120 and the gimbal 112 so that the position and attitude of the camera 111 and the position and attitude of the end effector 230 satisfy the relative positional relationship. Control posture. Further, the image pickup control device 150 corrects the relative positional relationship according to the operation input to the image pickup input device 130. Thereby, the image pickup control device 150 can determine a more desirable relative positional relationship for the user P.
  • the image pickup control device 150 corrects the position and attitude of the camera 111 via the image pickup input device 130 while controlling the operation of the unmanned flying object 120 and the gimbal 112 according to the relative positional relationship.
  • the relative positional relationship is corrected according to the correction command, but the present invention is not limited to this.
  • the image pickup control device 150 may be configured to correct the position and orientation of the camera 111 according to the correction command, but not to correct the relative positional relationship. In this case, the image pickup control device 150 temporarily corrects the position and orientation of the camera 111 according to the correction command, and then controls the position and posture of the camera 111 according to the existing relative positional relationship. Further, the image pickup control device 150 may determine whether or not the relative positional relationship is corrected according to the command of the user P via the image pickup input device 130.
  • Modification 1 of the exemplary embodiment is different from the exemplary embodiment in that the imaging control device 150A limits the flight area of the unmanned vehicle 120.
  • the first modification will be described mainly on the points different from the exemplary embodiment, and the description of the same points as the exemplary embodiment will be omitted as appropriate.
  • FIG. 5 is a perspective view showing an example of the configuration of the robot system 1 according to the modified example 1 of the exemplary embodiment.
  • FIG. 6 is a block diagram showing an example of the functional configuration of the image pickup system 100 according to the first modification.
  • the image pickup control device 150A controls the operation of the unmanned flying object 120 so that the distance between the end effector 230 of the robot 200 and the unmanned flying object 120 is equal to or more than the first predetermined distance L1. do.
  • the image pickup control device 150A controls the operation 120 of the unmanned flying object so that the distance between the end effector 230 of the robot 200 and the unmanned flying object 120 is equal to or less than the second predetermined distance L2.
  • the second predetermined distance L2 is larger than the first predetermined distance L1.
  • the image pickup control device 150A needs to operate the unmanned vehicle 120 so that the distance between the end effector 230 and the unmanned vehicle 120 is less than the first predetermined distance L1, the unmanned vehicle 120 is used as the end effector 230.
  • the image pickup device 110 is made to perform zoom-up imaging by locating the image at a distance of L1 or more from the first predetermined distance. For example, when the image pickup control device 150A receives a command or a correction command from the image pickup input device 130 so that the distance between the end effector 230 and the unmanned flying object 120 is less than the first predetermined distance L1, the above control is performed. Run.
  • the image control device 150A When the image pickup control device 150A needs to operate the unmanned vehicle 120 so that the distance between the end effector 230 and the unmanned vehicle 120 exceeds the second predetermined distance L2, the image control device 150A moves the unmanned vehicle 120 from the end effector 230 to the second. 2
  • the image pickup device 110 is made to perform zoom-back imaging by locating the image at a distance of L2 or less. For example, when the image pickup control device 150A receives a command or a correction command from the image pickup input device 130 so that the distance between the end effector 230 and the unmanned flying object 120 exceeds the second predetermined distance L2, the above control is performed. Run.
  • the image pickup control device 150A holds the position of the unmanned flying object 120 in the area A3 between the area A1 having a radius L1 centered on the end effector 230 and the area A2 having a radius L2 centered on the end effector 230. As such, it controls the flight of the unmanned vehicle 120. This prevents the unmanned flying object 120 from approaching and interfering with the robot arm 210 and preventing the unmanned flying object 120 from interfering with objects such as the ceiling and walls around the robot arm 210.
  • the position / orientation calculation unit 152A of the image pickup control device 150A includes the determination unit 1523 as the first determination unit, and further includes the second determination unit 1524.
  • the first determination unit 1523 determines the target position and the target posture of the camera 111
  • the first determination unit 1523 outputs to the second determination unit 1524.
  • the "target position” and the “target posture” determined by the first determination unit 1523 are also referred to as “first target position” and "first target posture", respectively.
  • the second determination unit 1524 receives information on the position and orientation of the end effector 230 from the first detection unit 1521.
  • the second determination unit 1524 calculates the distance Lce between the first target position of the camera 111 and the position of the end effector 230, compares the distance Lce with the first predetermined distance L1, and determines the distance Lce and the second predetermined distance L2. Compare and perform.
  • the information of the first predetermined distance L1 and the second predetermined distance L2 is stored in advance in the storage unit 154.
  • the reference point of the position of the end effector 230 is the origin of the second coordinate system consisting of the coordinate axes X2, Y2 and Z2, but the position of the reference point may be any position of the end effector 230. ..
  • the second determination unit 1524 executes the first determination.
  • the second decision unit 1524 determines the first target position and the first target posture as the second target position and the second target posture as the target position and the target posture of the camera 111 to be executed, respectively.
  • the second determination unit 1524 executes the second determination.
  • the second determination unit 1524 positions the camera 111 at a position equal to or greater than the first predetermined distance L1 from the end effector 230 on the line connecting the first target position of the camera 111 and the position of the end effector 230. 2 Determine the target position.
  • the second determination unit 1524 determines the position of the first predetermined distance L1 to the second target position of the camera 111. Further, the second determination unit 1524 determines the first target posture as the second target posture of the camera 111.
  • the second determination unit 1524 executes the third determination.
  • the second determination unit 1524 positions the camera 111 at a position equal to or less than the second predetermined distance L2 from the end effector 230 on the line connecting the first target position of the camera 111 and the position of the end effector 230. 2 Determine the target position.
  • the second determination unit 1524 determines the position of the second predetermined distance L2 at the second target position of the camera 111. Further, the second determination unit 1524 determines the first target posture as the second target posture of the camera 111.
  • the second decision unit 1524 contains information including the executed decision from the first decision to the third decision, the first target position and the first target posture, the second target position and the second target posture, and the distance Lce. Is output to the drive control unit 151.
  • the flying object control unit 1512 of the drive control unit 151 generates an operation command of the unmanned flying object 120 for moving the camera 111 according to the second target position and the second target attitude of the camera 111 received from the second determination unit 1524.
  • the flight body control unit 1512 outputs the operation command to the camera control unit 1511 and the flight body control device 125 of the unmanned flight body 120.
  • the camera control unit 1511 generates an operation command of the gimbal 112 for moving the posture of the camera 111 according to the second target posture of the camera 111 received from the second determination unit 1524. Further, the camera control unit 1511 determines the zoom-up rate or the zoom-back rate of the camera 111 using the first target position and the second target position of the camera 111 received from the second determination unit 1524.
  • the camera control unit 1511 decides not to change the zoom-up rate and the zoom-back rate from the current state.
  • the camera control unit 1511 Upon receiving the second decision, the camera control unit 1511 decides to zoom in on the camera 111.
  • the camera control unit 1511 calculates the distance LT12 between the first target position and the second target position.
  • the camera control unit 1511 determines the zoom-up rate of the camera 111 by using the distance LT 12 and the distance Lce between the first target position and the end effector 230.
  • the zoom-up rate is the size of the image of the end effector 230 displayed on the image captured by applying the zoom-up rate at the second target position of the camera 111, and the zoom-up rate of the camera 111 at the first target position. Is determined so that the size of the image of the end effector 230 displayed on the image captured without applying the above is equal to that of the image.
  • the camera control unit 1511 decides the zoom back imaging of the camera 111.
  • the camera control unit 1511 calculates the distance LT12 between the first target position and the second target position.
  • the camera control unit 1511 determines the zoom back rate of the camera 111 by using the distance LT 12 and the distance Lce between the first target position and the end effector 230.
  • the zoom back rate is the size of the image of the end effector 230 displayed on the image captured by applying the zoom back rate at the second target position of the camera 111, and the zoom back rate of the camera 111 at the first target position. Is determined so that the size of the image of the end effector 230 displayed on the image captured without applying the above is equal to that of the image.
  • the camera control unit 1511 transmits the operation command of the camera 111 reflecting the determination result of the zoom-up rate and the zoom-back rate of the camera 111 and the operation command of the gimbal 112 to the camera control device 113 of the unmanned flying object 120.
  • the camera 111 captures the same image as when the unmanned vehicle 120 is located at the position corresponding to the first target position even when the unmanned vehicle 120 is located at the position corresponding to the second target position. , Can be displayed on the display device 140.
  • the image pickup control device 150A is configured to use the first predetermined distance L1 and the second predetermined distance L2, but is not limited thereto, and the first predetermined distance L1 and the second predetermined distance L2 are used. It may be configured to use only one.
  • the second determination unit 1524 makes the first determination when the distance Lce between the first target position of the camera 111 and the position of the end effector 230 is the first predetermined distance L1 or more. Run. Further, the second determination unit 1524 executes the second determination when the distance Lce is less than the first predetermined distance L1. The second decision unit 1524 does not execute the third decision.
  • the second determination unit 1524 executes the first determination when the distance Lce is the second predetermined distance L2 or less. Further, the second determination unit 1524 executes the third determination when the distance Lce exceeds the second predetermined distance L2. The second decision unit 1524 does not execute the second decision.
  • the second determination unit 1524 increases or decreases both the first predetermined distance L1, the second predetermined distance L2, or the first predetermined distance L1 and the second predetermined distance L2 according to the moving speed of the end effector 230. It may be configured as follows. Specifically, the second determination unit 1524 may increase or decrease only the first predetermined distance L1 or may increase or decrease only the second predetermined distance L2. The second determination unit 1524 may increase or decrease both the first predetermined distance L1 and the second predetermined distance L2. In this case, the second determination unit 1524 may increase or decrease both the first predetermined distance L1 and the second predetermined distance L2.
  • the second determination unit 1524 may detect the moving speed of the end effector 230 based on the information on the position and posture of the end effector 230 detected by the first detection unit 1521.
  • the first detection unit 1521 may detect the moving speed of the end effector 230.
  • the second determination unit 1524 may be changed to increase the first predetermined distance L1 and decrease the second predetermined distance L2 when the moving speed of the end effector 230 increases. This more reliably prevents the unmanned flying object 120 from coming into contact with the robot 200 and surrounding objects.
  • the second determination unit 1524 may be changed to decrease the first predetermined distance L1 and increase the second predetermined distance L2 when the moving speed of the end effector 230 decreases.
  • the unmanned aircraft 120 can approach the end effector 230.
  • the second determination unit 1524 may increase or decrease the first predetermined distance L1 and the second predetermined distance L2 so as to follow the change in the moving speed of the end effector 230.
  • the second determination unit 1524 may determine the increase / decrease of the first predetermined distance L1 and the second predetermined distance L2 based on the comparison result between the moving speed of the end effector 230 and the threshold value.
  • the second determination unit 1524 may compare the moving speed of the end effector 230 with the plurality of threshold values, and gradually increase or decrease the first predetermined distance L1 and the second predetermined distance L2.
  • the image pickup control device 150A limits the flight area of the unmanned vehicle 120 based on the relationship between the target position of the camera 111 and the position of the end effector 230, but is not limited to this.
  • FIG. 7 is a perspective view showing another example of the flight restricted area of the unmanned flying object 120 in the modified example 1.
  • the image pickup control device 150A limits the flight area so that the unmanned vehicle 120 does not enter the movable range A4 based on the relationship between the movable range A4 of the robot 200 and the target position of the camera 111. May be good.
  • the movable range A4 is a range in which the robot arm 210 of the robot 200 can operate.
  • the image pickup control device 150A performs the same control as when the distance between the end effector 230 and the unmanned flying object 120 is less than the first predetermined distance L1. good.
  • the image pickup control device 150A may limit the flight area so that the unmanned vehicle 120 does not enter the work range A5 based on the relationship between the work range A5 of the robot 200 and the target position of the camera 111.
  • the work range A5 is a range in which the robot arm 210 can operate when the robot 200 performs a predetermined work.
  • the image pickup control device 150A performs the same control as when the distance between the end effector 230 and the unmanned flying object 120 is less than the first predetermined distance L1. good.
  • the image pickup control device 150A Based on the relationship between the robot arm 210 and the target position of the camera 111, the image pickup control device 150A has a flight area so that the unmanned flying object 120 does not enter the arm area A6 which is an area of the third predetermined distance L3 or less from the robot arm 210. May be restricted.
  • the image pickup control device 150A may detect the position of each joint and other parts of the robot arm 210 by using the feedback information of the joint drive device 212 of the robot arm 210. Further, the image pickup control device 150A may detect the position of the arm area A6 based on the detected position.
  • the arm area A6 is an area surrounded by the robot arm 210, and fluctuates according to the movement of the robot arm 210.
  • the arm area A6 is an area of a third predetermined distance L3 or less from the rotation center axis of each joint 211 (see FIG. 1) of the robot arm 210, but is not limited to this, and for example, the robot arm 210.
  • the area may be based on any part of the robot arm 210 such as the surface.
  • the arm area A6 is, but is not limited to, an area covering the entire robot arm 210, for example, an area covering at least a part of the robot arm 210 such as a part in the vicinity of the end effector 230. There may be.
  • the image pickup control device 150A performs the same control as when the distance between the end effector 230 and the unmanned vehicle 120 is less than the first predetermined distance L1. good.
  • the image pickup control device 150A controls the flight area of the unmanned vehicle 120 by using the first predetermined distance L1 and the second predetermined distance L2, and limits the flight area of the unmanned vehicle 120 by using the movable range A4.
  • Control to limit the flight area of the unmanned aircraft 120 using the work range A5, and control to limit the flight area of the unmanned aircraft 120 using the arm area A6 are configured to be executed separately. It may be configured to perform a combination of two or more of these controls.
  • the imaging system 100 includes a motion detection device 160 that detects the movement of the head H of the user P, and follows the movement of the head H detected by the motion detection device 160. It differs from the exemplary embodiment and variant 1 in that it is configured to vary the position and orientation of the camera 111.
  • the modified example 2 will be mainly described with reference to the exemplary embodiment and the points different from the modified example 1, and the description of the same points as the exemplary embodiment and the modified example 1 will be omitted as appropriate.
  • FIG. 8 is a perspective view showing an example of the configuration of the robot system 1 according to the modified example 2 of the exemplary embodiment.
  • FIG. 9 is a block diagram showing an example of the functional configuration of the image pickup system 100 according to the second modification.
  • the image pickup system 100 includes a display device 140B as a display device, and further includes a motion detection device 160. Further, the image pickup control device 150B of the image pickup system 100 further includes a detection control unit 156.
  • the display device 140B is a head-mounted display attached to the head H of the user P.
  • the head-mounted display has a goggle-like shape, and the lens portion of the head-mounted display forms a display surface on which an image is displayed.
  • the display device 140B can change the position and direction in which the image is displayed according to the movement of the head H of the user P by moving together with the head H of the user P.
  • the display device 140B may be configured so as not to be attached to the head H of the user P. In this case, the position of the display surface of the display device 140B, the posture of the display surface, or the position of the display surface. And the posture may be changed, or the display surface of the display device 140B may be fixed.
  • the motion detection device 160 is an example of the detection device, and detects the motion of the head H of the user P.
  • the motion detection device 160 is not particularly limited, but in this modification, it includes at least one infrared sensor 161 and at least one infrared marker 162 mounted on the head H.
  • a plurality of infrared sensors 161 and specifically, three infrared sensors 161 are arranged around the user P toward the user P.
  • the three infrared sensors 161 are arranged at positions away from the head H of the user P.
  • a plurality of infrared markers 162, specifically, four infrared markers 162 are arranged at different positions on the head H.
  • the head includes a portion of the human body above the neck, and may include, for example, the face, the crown, the temporal region, the occipital region, and the like.
  • the infrared marker 162 emits infrared light.
  • the infrared marker 162 may be a light emitter such as an infrared LED (Light Emitting Diode) that emits infrared light by itself, or may be a reflector that reflects the irradiated infrared light, and is a light emitter and a reflection. It may be configured to include both bodies.
  • the infrared sensor 161 receives infrared light and can detect the direction, intensity, intensity distribution, etc. of the received infrared light.
  • the infrared sensor 161 may be configured to be capable of receiving only infrared light, or may be configured to emit infrared light by itself and receive infrared light such as reflected light of the infrared light. You may. In the latter case, the infrared sensor 161 may be an infrared camera. By detecting the infrared light from the four infrared markers 162 using the three infrared sensors 161 it is possible to detect the position and posture of the head H with high accuracy. Although not limited to the following, the position of the head H may be a three-dimensional position such as a predetermined reference point of the head H in the three-dimensional space.
  • the posture of the head H may be the posture of a predetermined part such as a front portion of the head H, a plane crossing the head H, and an axis passing from the jaw of the head H to the crown, a surface or an axis. Specifically, it may be the three-dimensional orientation of the predetermined portion, surface or axis in the three-dimensional space.
  • the infrared sensor 161 may be attached to the head H of the user P and the infrared marker 162 may be arranged at a position away from the head H of the user P so as to reverse the above.
  • the position and quantity of the infrared sensor 161 and the infrared marker 162 are not particularly limited as long as they can detect the position, posture, or both the position and the posture of the head H.
  • the detection control unit 156 controls the drive of the three infrared sensors 161 and processes the result of the three infrared sensors 161 detecting the infrared light from the four infrared markers 162 in three dimensions of the four infrared markers 162. Detects the position and posture of. That is, the detection control unit 156 detects the position and posture of the head H of the user P by detecting the three-dimensional position and posture of the infrared marker 162. The detection control unit 156 outputs information on the position and posture of the head H to the position / posture calculation unit 152.
  • each of the three infrared sensors 161 receives infrared light emitted from the four infrared markers 162.
  • the infrared light emitted from each infrared marker 162 is associated with identification information such as an ID set in the infrared marker 162. Therefore, each infrared sensor 161 can detect the direction, intensity, intensity distribution, and the like of the infrared light of each of the four infrared markers 162.
  • the detection control unit 156 uses the three-dimensional position and orientation information of each infrared sensor 161 stored in advance in the storage unit 154 and the infrared light detection results of the four infrared markers 162 by each infrared sensor 161. The three-dimensional positions of the four infrared markers 162 are detected.
  • the detection control unit 156 detects the three-dimensional positions of the four infrared markers 162 according to the first coordinate system. Further, the detection control unit 156 detects the three-dimensional position and posture of the head H of the user P by using the information on the three-dimensional positions of the four infrared markers 162. For example, the detection control unit 156 expresses a posture by using posture angles such as a rolling angle, a pitching angle, and a yawing angle.
  • posture angles such as a rolling angle, a pitching angle, and a yawing angle.
  • the position / orientation calculation unit 152 outputs information on the position and orientation of the head H to the position of the camera 111 in the same manner as the command for moving the position and orientation of the camera 111 input to the image pickup input device 130 in the exemplary embodiment. And, as a command to move the posture, the target position and the target posture of the camera 111 are determined. The position / orientation calculation unit 152 determines the target position and target posture of the camera 111 for moving the camera 111 according to the fluctuation amount of the position and posture of the camera 111 corresponding to the fluctuation amount of the position and posture of the head H.
  • the horizontal and vertical movements of the head H are associated with the horizontal and vertical movements of the camera 111, respectively.
  • the movement of the head H in the rolling direction, the pitching direction, and the yawing direction is associated with the movement of the camera 111 in the rolling direction, pitching direction, and direction, respectively.
  • the determination unit 1523 of the position / posture calculation unit 152 calculates the target position and target posture of the camera 111 from the information on the position and posture of the head H.
  • the storage unit 154 stores the relationship of various parameters for moving each device according to the movement of the head H of the user P.
  • the fluctuation relationship which is the relationship between the fluctuation amount of the position and posture of the head H and the fluctuation amount of the position and posture of the camera 111, is stored in the storage unit 154.
  • the determination unit 1523 determines the target position and target posture of the camera 111 for moving the camera 111 following the movement of the head H by using the information on the position and posture of the head H and the fluctuation relationship.
  • the information on the position and posture of the head H is the head that the user P moves so that the user P can visually recognize the portion of the robot 200 such as the end effector 230 with respect to the operating robot 200. Includes information on the position and posture of H.
  • the control for determining the target position and posture of the camera 111 according to the head motion information may be prioritized. That is, the determination unit 1523 receives head motion information as a correction command for correcting the position and orientation of the camera 111, and sets the target position and orientation of the camera 111 corresponding to the predetermined relative relationship to the head motion information.
  • the position and orientation of the 111 targets of the camera according to the above are varied.
  • the target position and posture of the camera 111 determined by using the predetermined relative relationship are corrected by the target position and posture of the camera 111 according to the variation of the position and posture of the head H. That is, the user P can correct the target position and the target posture of the camera 111 to the intended position and posture by moving the head H.
  • the determination unit 1523 replaces the target position and posture of the camera 111 using the predetermined relative relationship, and instead of the target position and posture of the camera 111, the target position and posture of the camera 111 after correcting the target position and posture of the camera 111 according to the head motion information is corrected. And the posture may be determined.
  • the determination unit 1523 determines the target position and posture of the camera 111 generated by adding the target position and posture of the camera 111 according to the head motion information to the target position and posture of the camera 111 using a predetermined relative relationship. , The corrected position and orientation of the target of the camera 111 may be determined.
  • the determination unit 1523 may reflect the correction result in the determination of the target position and orientation of the camera 111 corresponding to the predetermined relative relationship. Alternatively, the determination unit 1523 may determine the target position and posture of the camera 111 without reflecting the correction result in the predetermined relative relationship after the correction of the target position and orientation of the camera 111.
  • FIG. 10 is a flowchart showing an example of the operation of the image pickup system 100 according to the second modification.
  • the image pickup control device 150B has a predetermined relative relationship between the end effector 230 of the robot 200 and the camera 111 of the image pickup device 110, and the head H of the camera 111 and the user P, respectively. It operates in the initial setting mode that determines the initial position and initial posture.
  • steps S202 and S203 are the same as that of steps S102 and S103 of the exemplary embodiment.
  • the image pickup control device 150B determines the initial position and the initial posture of the head H of the user P. Specifically, when the position and posture of the head H becomes a desired position and posture, the user P inputs a command for determining the initial position and initial posture of the head H to the image pickup input device 130.
  • the image pickup control device 150B causes the three infrared sensors 161 of the motion detection device 160 to detect infrared light, processes the detection results of each infrared sensor 161 and detects the position and posture of the head H.
  • the image pickup control device 150B determines the detected position and posture of the head H to the initial position and initial posture of the head H.
  • steps S205 to S212 is the same as the processing of steps S104 to S111 of the exemplary embodiment.
  • step S213 whether or not the image pickup control device 150B has been input by the user P to the image pickup input device 130 with a correction command which is a command to correct the position and posture of the camera 111 according to the movement of the head H. To judge.
  • the image pickup control device 150B proceeds to step S214 when the input has been completed (Yes in step S213), and proceeds to step S222 when no input has been made (No in step S213).
  • step S214 the image pickup control device 150B causes the three infrared sensors 161 to continuously detect the infrared light of the infrared marker 162 of the head H.
  • the image pickup control device 150B may start the process of step S214 at any timing from the process of step S207 to the process of step S213.
  • step S215 the user P moves the head H to a desired position and posture while visually recognizing the display device 140B.
  • the user P moves the head H so as to have a position and a posture in which the end effector 230 displayed on the display device 140B is desired to be viewed.
  • the image pickup control device 150B processes the detection result of each infrared sensor 161 and detects the position and posture of the head H of the user P with respect to the initial position and the initial posture.
  • the image pickup control device 150B detects the position and posture of the head H at predetermined time intervals.
  • step S216 the image pickup control device 150B sets the target position and target posture of the camera 111 for moving the position and posture of the camera 111 according to the detected position and posture of the head H, and the correction target position of the camera 111. And the correction target posture is determined.
  • the image pickup control device 150B calculates the correction target position and the correction target posture of the camera 111 based on the detected information on the position and posture of the head H and the fluctuation relationship stored in the storage unit 154.
  • step S217 the image pickup control device 150B moves the position and orientation of the camera 111 to the correction target position and the correction target attitude of the camera 111, and the correction target position and the correction target attitude of the unmanned aircraft 120 and the gimbal 112. Determine the correction target operating state of each part.
  • the image pickup control device 150B issues a correction operation command for moving the unmanned vehicle 120 to the correction target position and the correction target attitude, and a correction operation command for operating the gimbal 112 in the correction target operation state, to the unmanned vehicle 120 and the image pickup device 110. Send to.
  • step S218 the unmanned aircraft 120 moves to the correction target position and the correction target attitude according to the correction operation command, and the image pickup apparatus 110 operates the gimbal 112 to the correction target operation state according to the correction operation command.
  • step S219 the image pickup control device 150B determines whether or not an input for terminating the correction command has been made to the image pickup input device 130 by the user P, and if the input has been made (Yes in step S219), the step S220 is performed. The process proceeds, and if there is no input (No in step S219), the process returns to step S214.
  • steps S220 and S221 are the same as the processing of steps S115 and S116 of the exemplary embodiment.
  • step S222 the image pickup control device 150B determines whether or not a command for terminating the operation of the image pickup system 100 has been input to the image pickup input device 130 by the user P, and if it has been input (Yes in step S222). When the series of processes is completed and no input is made (No in step S222), the process returns to step S209.
  • the image pickup control device 150B corrects the relative positional relationship based on the position and posture of the camera 111 to be moved following the movement of the head H of the user P. Therefore, the user P can easily determine a more desirable relative positional relationship for the user P by moving the head H to a desired position and direction.
  • the image pickup control device 150B when the image pickup control device 150B receives a command to correct the position and attitude of the camera 111 while controlling the movements of the unmanned flying object 120 and the gimbal 112 according to the relative positional relationship, the head of the user P
  • the relative positional relationship is modified so as to correspond to the position and posture of the camera 111 that moves following the movement of H, but the present invention is not limited to this.
  • the image pickup control device 150B may be configured to correct the position and posture of the camera 111 according to the movement of the head H, but not to correct the relative positional relationship.
  • the image pickup control device 150B temporarily corrects the position and posture of the camera 111 according to the movement of the head H, and then controls the position and posture of the camera 111 according to the existing relative positional relationship. Further, the image pickup control device 150B may determine whether or not the relative positional relationship is corrected according to the command of the user P via the image pickup input device 130.
  • the image pickup control device 150B controls to move the position and posture of the camera 111 according to the operation using the image pickup input device 130, and sets the position and posture of the camera 111 to the movement of the head H of the user P. It may be configured to be used in combination with the control to follow. Further, the configuration of the imaging system 100 according to the modification 2 may be applied to the modification 1.
  • the present disclosure is not limited to the above exemplary embodiments and modifications. That is, various modifications and improvements are possible within the scope of the present disclosure.
  • the present disclosure also includes a form in which various modifications are applied to an exemplary embodiment and a modification, and a form constructed by combining components in different exemplary embodiments and modifications. Is done.
  • the imaging controls 150, 150A and 150B are configured to control the movement of the unmanned vehicle 120 and the gimbal 112 according to relative positional relationships, but are not limited thereto. ..
  • the image pickup control devices 150, 150A and 150B follow the position and orientation commands of the camera 111 input to the image pickup input device 130 by the user P without using the relative positional relationship, and / or the head of the user P. It may be configured to control the movements of the unmanned vehicle 120 and the gimbal 112 so that the position and attitude of the camera 111 follow the movement of H.
  • the motion detection device 160 includes an infrared sensor 161 and an infrared marker 162 for detecting the motion of the head H of the user P, but is not limited to this, and detects the motion of the head H. It may have any possible configuration.
  • the motion detection device 160 may include an acceleration sensor and an angular velocity sensor mounted on the head H, and may detect the acceleration and the angular velocity of the head H in the 6-axis direction.
  • the image pickup control device 150B may be configured to receive the detection result from the acceleration sensor and the angular velocity sensor via wired communication or wireless communication. The image pickup control device 150B may detect the position and posture of the head H using the detection results of the acceleration and the angular velocity.
  • the motion detection device 160 may include a three-dimensional camera arranged at a position away from the head H and capture a three-dimensional image of the head H.
  • the pixel value of each pixel of the three-dimensional image indicates the distance value to the subject projected on the pixel.
  • the image pickup control device 150B detects the image of the head H and the posture of the head H projected on the three-dimensional image by image processing such as a pattern matching method using the template of the head H, and detects the three-dimensional image.
  • the position of the head H may be detected from the pixel value of each pixel of.
  • the motion detection device 160 may include a plurality of three-dimensional cameras arranged at different positions and orientations from each other.
  • the image pickup control device 150B may generate a three-dimensional model of the head H by processing a three-dimensional image of each three-dimensional camera.
  • the image pickup control device 150B may detect the position and posture of the head H using a three-dimensional model of the head H.
  • the motion detection device 160 may include a magnetic field generator and a magnetic sensor mounted on the head H, and detect the position and orientation of the magnetic sensor.
  • the image pickup control device 150B may be configured to receive the detection result from the magnetic sensor via wired communication or wireless communication. The image pickup control device 150B may detect the position and posture of the head H by using the detection result of the position and posture of the magnetic sensor.
  • the imaging system includes an unmanned flying object, an imaging device mounted on the unmanned flying object to image a robot that works on an object, and a remote position from the unmanned flying object.
  • the control device includes a display device that displays an image captured by the image pickup device to a user who operates the robot, and a control device that controls the operation of the image pickup device and the unmanned flying object, and the control device is the robot.
  • the motion-related information which is information related to the motion, is acquired, and the unmanned aircraft is moved so as to change the position and orientation of the image pickup device in response to the motion-related information.
  • the imaging system uses the motion-related information related to the operation of the robot to control the movement of the unmanned flying object. This makes it possible to simplify the user's operation for operating the unmanned aircraft and reduce the amount of operation. Therefore, the image pickup system can simplify the operation of the unmanned flying object equipped with the image pickup device.
  • the control device acquires motion information indicating the motion of the robot as the motion-related information, and changes the position and orientation of the image pickup device according to the motion information. You may move the unmanned aircraft.
  • the imaging system uses the motion information of the robot to control the movement of the unmanned flying object.
  • the imaging system can control the movement of an unmanned vehicle so that it follows the movement of the robot. This makes it possible to simplify the operation of the unmanned aircraft by the user and reduce the amount of operation.
  • the image pickup system further includes an input device for receiving an input of a command by the user, and the control device receives a correction command which is a command for correcting the position and orientation of the image pickup device.
  • the unmanned vehicle may be moved so as to change the position and orientation of the image pickup device corresponding to the operation-related information to the position and orientation of the image pickup device in accordance with the correction command.
  • the image pickup system can correct the movement of the unmanned vehicle that changes the position and orientation of the image pickup device according to the operation-related information according to the correction command received via the input device.
  • the imaging system may use the position and orientation of the image pickup device according to the correction command instead of the position and orientation of the image pickup device corresponding to the operation-related information, and may use the position and orientation of the image pickup device corresponding to the operation-related information.
  • the position and orientation of the image pickup device generated by adding the position and orientation of the image pickup device according to the correction command may be used. In either case, the user can modify the position and orientation of the image pickup device as intended.
  • control device changes the position and orientation of the image pickup device according to the correction command after the change in the position and orientation of the image pickup device according to the correction command.
  • the position and orientation of the image pickup device corresponding to the operation-related information may be reflected.
  • the imaging system can reflect the correction according to the correction command in the control of the movement of the unmanned aircraft after the correction. Therefore, the image pickup system can move the unmanned flying object so as to change the position and orientation of the image pickup device in response to the operation-related information while reflecting the intention of the user.
  • the imaging system further includes a detection device for detecting the movement of the user's head, and the control device acquires information on the movement of the user's head from the detection device, and the control device obtains information on the movement of the user's head.
  • the unmanned vehicle may be moved so as to change the position and orientation of the image pickup device according to the movement of the user's head.
  • the imaging system uses the information on the movement of the user's head to control the movement of the unmanned flying object.
  • the image pickup system may use the position and orientation of the image pickup device that follows the movement of the user's head instead of the position and orientation of the image pickup device corresponding to the operation-related information.
  • the position and orientation of the image pickup device generated by adding the position and orientation of the image pickup device that follows the movement of the user's head to the position and orientation may be used.
  • the user can move the image pickup apparatus in the corresponding direction and movement amount by moving the head in the direction and movement amount intended to be viewed, and can view the intended image.
  • the robot includes an end effector and a robot arm for moving the end effector, and the control device receives information on the position and orientation of the end effector as the operation-related information.
  • the unmanned vehicle may be acquired and moved so as to change the position and orientation of the image pickup apparatus according to the position and orientation of the end effector.
  • the user can change the position and orientation of the image pickup device on an unmanned flying object by operating the robot to change the position and orientation of the end effector.
  • This makes it possible to simplify the operation of the unmanned aircraft by the user and reduce the amount of operation.
  • the image pickup device when the image pickup device is imaging the end effector, the image pickup device moves in response to changes in the position and orientation of the end effector, so that the image pickup device continuously images the end effector and displays it on the display device. Can be done.
  • the imaging device can avoid interference by the robot arm and image the end effector.
  • control device is such that the distance between the end effector and the unmanned vehicle is equal to or greater than the first predetermined distance based on the information on the position and orientation of the end effector.
  • the operation of the unmanned vehicle may be controlled.
  • the imaging system controls the movement of the unmanned vehicle so as not to enter the area less than the first predetermined distance from the end effector. Therefore, the imaging system can prevent the unmanned vehicle from coming into contact with the end effector and the robot arm.
  • the control device when the control device receives a command that the distance between the end effector and the unmanned vehicle becomes less than the first predetermined distance, the control device changes the unmanned vehicle to the end effector. It may be positioned at a distance of the first predetermined distance or more from the above, and the image pickup apparatus may be made to perform zoom-up imaging.
  • the imaging system enters the unmanned aviation into the area less than the first predetermined distance from the end effector. It is possible to have the image pickup device capture an image similar to that in the case of capturing the image at the target position while suppressing the above.
  • control device may increase or decrease the first predetermined distance according to the moving speed of the end effector based on the information on the position and orientation of the end effector.
  • the moving speed of the unmanned flying object increases or decreases in the same manner as the moving speed of the end effector.
  • the imaging system can more reliably prevent the unmanned vehicle from coming into contact with the end effector and the robot arm by increasing or decreasing the first predetermined distance according to the moving speed of the end effector. For example, when the moving speed of the end effector increases, the first predetermined distance may be increased, and when the moving speed of the end effector decreases, the first predetermined distance may be decreased.
  • the moving speed of the end effector tends to be low, and the unmanned vehicle can approach the end effector.
  • control device is such that the distance between the end effector and the unmanned vehicle is equal to or less than a second predetermined distance based on the information on the position and orientation of the end effector.
  • the operation of the unmanned vehicle may be controlled.
  • the imaging system controls the movement of the unmanned aircraft so as not to enter the region exceeding the second predetermined distance from the end effector. Therefore, the imaging system can prevent the unmanned flying object from coming into contact with surrounding objects.
  • the second predetermined distance may be larger than the first predetermined distance.
  • the control device when the control device receives a command that the distance between the end effector and the unmanned vehicle exceeds the second predetermined distance, the control device changes the unmanned vehicle to the end effector. It may be positioned at a distance of the second predetermined distance or less from the above, and the image pickup apparatus may be made to perform zoom-back imaging.
  • the imaging system enters the unmanned aviation into the area more than the second predetermined distance from the end effector. It is possible to have the image pickup device capture an image similar to that in the case of capturing the image at the target position while suppressing the above.
  • control device may increase or decrease the second predetermined distance according to the moving speed of the end effector based on the information on the position and orientation of the end effector.
  • the imaging system can more reliably prevent the unmanned vehicle from coming into contact with surrounding objects by increasing or decreasing the second predetermined distance according to the moving speed of the end effector. For example, when the moving speed of the end effector increases, the second predetermined distance may be decreased, and when the moving speed of the end effector decreases, the second predetermined distance may be increased.
  • the robot system according to one aspect of the present disclosure includes an imaging system according to one aspect of the present disclosure and the robot. According to the above aspect, the same effect as that of the imaging system according to one aspect of the present disclosure can be obtained.
  • the numbers such as the ordinal number and the quantity used above are all examples for concretely explaining the technology of the present disclosure, and the present disclosure is not limited to the illustrated numbers.
  • the connection relationship between the components is exemplified for concretely explaining the technique of the present disclosure, and the connection relationship for realizing the function of the present disclosure is not limited to this.
  • Robot system 100 Imaging system 110 Imaging device 120 Unmanned flying object 130 Imaging input device (input device) 140, 140B Display device 150, 150A, 150B Imaging control device (control device) 160 Motion detection device (detection device) 161 Infrared sensor 162 Infrared marker 200 Robot 210 Robot arm 230 End effector H Head P User

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Microelectronics & Electronic Packaging (AREA)

Abstract

撮像システム(100)は、無人飛行体(120)と、前記無人飛行体(120)に搭載され、対象物に対して作業を行うロボット(200)を撮像する撮像装置(110)と、前記無人飛行体(120)から遠隔に配置され、前記撮像装置(110)によって撮像された画像を、前記ロボット(200)を操作するユーザに表示する表示装置(140)と、前記撮像装置(110)及び前記無人飛行体(120)の動作を制御する制御装置(150)とを備え、前記制御装置は、前記ロボット(200)の動作に関連する情報である動作関連情報を取得し、前記動作関連情報に対応して前記撮像装置(110)の位置及び向きを変動させるように前記無人飛行体(120)を移動させる。

Description

撮像システム及びロボットシステム
 本開示は、撮像システム及びロボットシステムに関する。
 従来から、カメラによって撮像された対象物の画像をモニタに表示させつつ、モニタを視認するユーザによるロボットの遠隔操作を受け入れる技術がある。例えば、特許文献1は、姿勢変更可能なカメラを備える無人飛行体であるドローンによって取得される撮像データに基づいて、モニタにロボットの映像を表示させるロボットシステムを開示する。
特開2019-93471号公報
 特許文献1のロボットシステムは、ロボットを操作するためのロボット操作器と、ドローンを操作するための飛行体操作器とを備える。例えば、ロボットを動作させつつドローンを移動させる場合、操作者は、ロボット操作器及び飛行体操作器の両方を手で操作する必要があるが、両方の操作を並行することは困難である。
 本開示は、撮像装置を搭載する無人飛行体の操作を簡易にする撮像システム及びロボットシステムを提供することを目的とする。
 本開示の一態様に係る撮像システムは、無人飛行体と、前記無人飛行体に搭載され、対象物に対して作業を行うロボットを撮像する撮像装置と、前記無人飛行体から遠隔に配置され、前記撮像装置によって撮像された画像を、前記ロボットを操作するユーザに表示する表示装置と、前記撮像装置及び前記無人飛行体の動作を制御する制御装置とを備え、前記制御装置は、前記ロボットの動作に関連する情報である動作関連情報を取得し、前記動作関連情報に対応して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる。
図1は、例示的な実施の形態に係るロボットシステムの構成の一例を示す斜視図である。 図2は、例示的な実施の形態に係る無人飛行体の構成の一例を示す斜視図である。 図3は、例示的な実施の形態に係る撮像システムの機能的な構成の一例を示すブロック図である。 図4は、例示的な実施の形態に係る撮像システムの動作の一例を示すフローチャートである。 図5は、例示的な実施の形態の変形例1に係るロボットシステムの構成の一例を示す斜視図である。 図6は、変形例1に係る撮像システムの機能的な構成の一例を示すブロック図である。 図7は、変形例1における無人飛行体の飛行の制限エリアの別例を示す斜視図である。 図8は、例示的な実施の形態の変形例2に係るロボットシステムの構成の一例を示す斜視図である。 図9は、変形例2に係る撮像システムの機能的な構成の一例を示すブロック図である。 図10は、変形例2に係る撮像システムの動作の一例を示すフローチャートである。
 以下において、本開示の例示的な実施の形態を、図面を参照しつつ説明する。なお、以下で説明する例示的な実施の形態は、いずれも包括的又は具体的な例を示すものである。また、以下の例示的な実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、添付の図面における各図は、模式的な図であり、必ずしも厳密に図示されたものでない。さらに、各図において、実質的に同一の構成要素に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。また、本明細書及び請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
 [ロボットシステムの構成]
 例示的な実施の形態に係るロボットシステム1の構成を説明する。図1は、例示的な実施の形態に係るロボットシステム1の構成の一例を示す斜視図である。図1に示すように、ロボットシステム1は、撮像システム100と、ロボット200と、ロボット操作装置300と、ロボット制御装置400とを備える。撮像システム100は、撮像装置110と、無人飛行体120と、撮像入力装置130と、表示装置140と、撮像制御装置150とを備える。
 以下に限定されないが、本例示的な実施の形態では、ロボット200は、産業用ロボットであり、ロボットアーム210と基部220とエンドエフェクタ230とを備える。なお、ロボット200は、サービス用ロボット、医療用ロボット、創薬用ロボット及びヒューマノイドのように他のタイプのロボットであってもよい。サービス用ロボットは、介護、医療、清掃、警備、案内、救助、調理、商品提供等の様々なサービス業で使用されるロボットである。
 基部220は、支持面上に固定され、ロボットアーム210を支持する。基部220の支持面は、床面等の不動な面であってもよく、走行装置等の移動可能な装置上の移動可能な面であってもよい。ロボットアーム210は、少なくとも1つの関節211を有し、少なくとも1つの自由度を有する。ロボットアーム210は、各関節211を駆動する関節駆動装置212を有する。関節駆動装置212は、関節211を駆動するための電気モータとしてサーボモータを含む。サーボモータは、当該モータの回転量を検出するエンコーダと、当該モータの電流値を検出する電流センサとを含む。なお、サーボモータにおいて、電流センサは必須ではない。
 ロボットアーム210は、ロボットアーム210の先端にエンドエフェクタ230が取り付けられるように構成される。ロボットアーム210は、エンドエフェクタ230の位置及び姿勢を自在に変動させるようにエンドエフェクタ230を動かすことができる。エンドエフェクタ230は、エンドエフェクタ230の用途に応じて把持、吸着、塗料などの液体の吹き付け、溶接、及び、シール剤などの注入等の様々な作用を対象物(「ワーク」とも呼ぶ)Wに加えることができるように構成される。
 なお、本例示的な実施の形態では、ロボットアーム210は、6つの回転関節211を有する6自由度の垂直多関節型のロボットアームであるが、これに限定されない。ロボットアーム210の形式は、いかなる型式であってもよく、例えば、水平多関節型、極座標型、円筒座標型又は直角座標型等であってもよい。ロボットアーム210の関節211も、直動関節等のいかなる関節であってもよい。ロボットアーム210の関節211の数量も、5つ以下又は7つ以上等のいかなる数量であってもよい。
 ロボット操作装置300は、ロボット200から離れた位置に配置され、ロボット200を遠隔操作するために用いられる。ロボット操作装置300は、ロボット操作装置300を扱うユーザPがロボット200を直接視認できるような位置に配置されてもよく、ユーザPがロボット200を直接視認できないような位置に配置されてもよい。例えば、ロボット操作装置300は、ロボット200が配置される空間から隔離された空間、又は当該空間から離れた位置の空間に配置されてもよい。
 ロボット操作装置300は、種々の指令、情報及びデータ等の入力を受け付け、ロボット制御装置400に出力する。例えば、ロボット操作装置300は、ユーザPによる入力を受け付けることができる。例えば、ロボット操作装置300は、他の機器と接続され、当該機器からの入力を受け付けることができる。例えば、ロボット操作装置300は、レバー、ボタン、タッチパネル、ジョイスティック、モーションキャプチャ、カメラ及びマイク等の公知の入力手段を備えてもよい。例えば、ロボット操作装置300は、教示装置の1つであるティーチングペンダント、スマートフォン及びタブレットなどのスマートデバイス、パーソナルコンピュータ、並びに専用端末装置等の端末装置を備えてもよい。例えば、ロボット200がマスター・スレーブ方式で制御される場合、ロボット操作装置300はマスター機を備えてもよい。例えば、マスター機は、ロボットアーム210と同様又は類似する動作を行うことができるように構成されてもよい。
 ロボット制御装置400は、ロボット200の動作を制御する。ロボット制御装置400は、ロボット200及びロボット操作装置300と有線通信又は無線通信を介して接続される。なお、いかなる有線通信及び無線通信が用いられてもよい。ロボット制御装置400は、ロボット操作装置300を介して入力される指令、情報及びデータ等を処理する。ロボット制御装置400は、外部の機器と接続され、当該機器から指令、情報及びデータ等の入力を受け付け処理するように構成されてもよい。
 例えば、ロボット制御装置400は、上記指令、情報及びデータ等に従って、ロボット200の動作を制御する。ロボット制御装置400は、ロボット200への動力等の供給を制御する。ロボット制御装置400は、ロボット200を管理するための情報等を管理する。例えば、ロボット制御装置400は、ロボットアーム210の関節駆動装置212の駆動、及び、エンドエフェクタ230の駆動を制御する。ロボット制御装置400は、ロボットアーム210にエンドエフェクタ230を移動させるための各関節211の回転駆動量を決定し、決定された回転駆動量に従って各関節駆動装置212を駆動させる。さらに、ロボット制御装置400は、各関節駆動装置212のサーボモータのエンコーダ及び電流センサによって検出される回転量及び電流値をフィードバック情報として用いて各関節211の駆動方向、駆動量、駆動速度、駆動加速度及び駆動トルク等を制御し、それにより、ロボットアーム210にエンドエフェクタ230を所望の位置及び姿勢に移動させ且つエンドエフェクタ230を介して所望の力を作用させる。なお、ロボット制御装置400は、サーボモータの電流値を、サーボモータへの供給電流を制御する回路等の他の手段から取得してもよい。
 また、ロボット制御装置400は、種々の指令、情報及びデータ等をロボット操作装置300及び/又は撮像システム100の表示装置140に出力する。例えば、ロボット制御装置400は、種々の指令、情報及びデータ等を表示装置140に視覚的及び/又は聴覚的に提示させる。例えば、ロボット制御装置400は、ロボット200を操作するための画像、ロボット200の状態を示す画像、並びに、ロボット200を管理するための画像等を出力してもよい。
 ロボット制御装置400は、コンピュータを備える。さらに、ロボット制御装置400は、ロボット200に供給する電力を制御するための電気回路、ロボット200に供給する空気圧及び液圧等の電力以外の動力を制御するための機器、並びに、ロボット200に供給する冷却水及び塗料等の物質を制御するための機器等を備えてもよい。コンピュータ以外の機器は、ロボット制御装置400と別個に設けられてもよい。
 図2は、例示的な実施の形態に係る無人飛行体120の構成の一例を示す斜視図である。図3は、例示的な実施の形態に係る撮像システム100の機能的な構成の一例を示すブロック図である。図1から図3に示すように、撮像システム100の撮像装置110は、無人飛行体120に搭載される。撮像装置110は、デジタル画像の静止画及び/又は動画を撮像するカメラ111と、無人飛行体120上でカメラ111を支持するジンバル112と、カメラ制御装置113とを含む。本例示的な実施の形態では、カメラ111は、単なる可視光カメラであるが、画像内の被写体の位置情報を含む3次元画像を撮像する3次元カメラ等の他のタイプのカメラであってもよい。
 ジンバル112は、無人飛行体120に取り付けられ、撮像装置110を搭載するように構成される。ジンバル112は、撮像装置110の向きを自在に変動させるように動作することができる。本例示的な実施の形態では、ジンバル112は、電動であり、駆動のための電気モータを備える。ジンバル112は、無人飛行体120に対して、少なくともヨーイング方向DYと、少なくともピッチング方向DPとに撮像装置110の姿勢を変動させることができてもよい。さらに、ジンバル112は、ローリング方向DRに撮像装置110の姿勢を変動させることができてもよい。以下に限定されないが、撮像装置110の向きは、撮像装置110のカメラの光軸中心の向きであってもよく、具体的には、3次元空間内での光軸中心の3次元の方向であってもよい。例えば、撮像装置110の向きは、撮像装置110の姿勢に対応し得る。また、撮像装置110の位置は、3次元空間内での撮像装置110の3次元の位置であってもよい。
 カメラ制御装置113は、カメラ111及びジンバル112の駆動を制御する。カメラ制御装置113は、撮像制御装置150から無線通信を介して受信する情報及び指令等に従ってカメラ111及びジンバル112の駆動を制御し、カメラ111及びジンバル112に当該情報及び指令等に従った動作をさせる。カメラ制御装置113は、カメラ111及びジンバル112の動作結果を示す動作情報を、無線通信を介して撮像制御装置150に送信する。カメラ制御装置113は、後述する無人飛行体120の第1通信器124を用いて撮像制御装置150と無線通信する。カメラ制御装置113は、コンピュータと、カメラ111及びジンバル112に供給する電力を制御するための電気回路とを備える。
 無人飛行体120は、搭載している撮像装置110の位置及び向きを自在に変えるように飛行可能である。これに限定されないが、本例示的な実施の形態では、無人飛行体120は、複数の回転翼121、例えば、平面状に配列され且つ当該平面に沿う方向に回転可能である4つの回転翼121を備えるドローンである。ドローンは、水平方向及び鉛直方向を含む任意の方向への飛行、空中での静止飛行、及び、静止飛行状態での任意の向きへの姿勢の移動等を可能である。さらに、無人飛行体120は、各回転翼121を回転駆動する翼駆動装置122と、位置検出装置123と、第1通信器124と、飛行体制御装置125とを備える。
 翼駆動装置122の例は、電気モータである。第1通信器124は、無人飛行体120と撮像制御装置150との間で無線通信を行う。具体的には、第1通信器124は、飛行体制御装置125と撮像制御装置150との間の無線通信と、撮像装置110のカメラ制御装置113と撮像制御装置150との間の無線通信とを仲介する。例えば、第1通信器124は、通信回路を含んでもよい。
 位置検出装置123は、無人飛行体120の位置及び姿勢を検出し飛行体制御装置125に出力する。位置検出装置123の構成は特に限定されず、無人飛行体120の位置及び姿勢を検出できればよく、例えば、公知の技術であってもよい。例えば、位置検出装置123は、GPS(Global Positioning System;全地球測位システム)を用いる位置推定システム、GPS以外の電波を用いる位置推定システム、画像認識技術を用いる位置推定システム、加速度及び角速度を用いる位置推定システム、その他の位置推定システム、又は、上記位置推定システムの2つ以上の組み合わせ等を備え、当該位置推定システム用いて無人飛行体120の位置及び姿勢を検出するように構成されてもよい。
 GPSを用いる位置推定システムとして、GPSと送受信することで無人飛行体120の位置及び姿勢を測位するシステムが例示される。GPS以外の電波を用いる位置推定システムとして、ロボット200が配置される空間内に配置される電波発信機から受信する電波により無人飛行体120の位置及び姿勢を推定するシステムが例示される。画像認識技術を用いる位置推定システムとして、3次元カメラを用いて周囲の物体及び当該物体の位置を画像認識で検出することで、無人飛行体120の位置及び姿勢を推定するシステムが例示される。加速度及び角速度を用いる位置推定システムとして、加速度センサ及び角速度センサの検出結果を用いて無人飛行体120の位置及び姿勢を推定するシステムが例示される。
 飛行体制御装置125は、各翼駆動装置122の駆動を制御する。飛行体制御装置125は、第1通信器124を介した無線通信で撮像制御装置150から受信する情報及び指令等に従って各翼駆動装置122の駆動を制御し、無人飛行体120に当該情報及び指令等に従った飛行をさせる。また、飛行体制御装置125は、位置検出装置123によって検出された無人飛行体120の位置及び姿勢の情報を、第1通信器124を介して撮像制御装置150に送信する。飛行体制御装置125は、コンピュータと、各翼駆動装置122に供給する電力を制御するための電気回路とを備える。
 なお、無人飛行体120は、位置及び姿勢のうちの少なくとも位置を自在に変更可能に飛行する構成を有すればよい。例えば、無人飛行体120は、交差する方向に回転する2つの回転翼を備えるヘリコプタのような構成を有してもよい。無人飛行体120は、撮像制御装置150の制御に従って飛行動作する。例えば、無人飛行体120は、撮像入力装置130に入力される操作に従って飛行し得る。無人飛行体120は、撮像制御装置150のプログラム制御に従って自動で飛行する、つまり自律飛行することができる。
 撮像入力装置130は、撮像システム100を動作させるための入力及び操作等をユーザPから受け付ける。撮像入力装置130は、種々の指令、情報及びデータ等の入力を受け付け、撮像制御装置150に出力する。例えば、撮像入力装置130は、カメラ111、ジンバル112及び無人飛行体120を操作するための入力を受け付け、受け付けた操作の内容を示す操作情報を撮像制御装置150に出力する。撮像入力装置130は、ロボット操作装置300の近傍に配置され、ロボット操作装置300の例示した構成と同様の構成を有してもよい。ロボット操作装置300が撮像入力装置130を含み、撮像入力装置130の機能を兼ねてもよい。撮像入力装置130は入力装置の一例である。
 表示装置140は、撮像装置110によって撮像された画像をユーザPに知覚可能に提示する。表示装置140は、ロボット操作装置300の近傍に配置され、撮像装置110から離れた位置に配置される。表示装置140は、ロボット制御装置400から受け取る指令、情報及びデータ等を、ユーザPに知覚可能に提示してもよい。例えば、表示装置140は、液晶ディスプレイ(Liquid Crystal Display)及び有機又は無機ELディスプレイ(Electro-Luminescence Display)等のディスプレイを備え、視覚的な提示をする。表示装置140は、スピーカ等の音声出力装置を備え、聴覚的な提示をしてもよい。表示装置140は、触覚的な提示をするように構成されてもよい。
 撮像制御装置150は、撮像装置110、無人飛行体120、撮像入力装置130及び表示装置140と有線通信又は無線通信を介して接続される。なお、いかなる有線通信及び無線通信が用いられてもよい。本例示的な実施の形態では、撮像制御装置150は、無人飛行体120の外部に配置され、撮像装置110及び無人飛行体120と無線通信し、撮像入力装置130及び表示装置140を有線通信する。しかしながら、撮像制御装置150は、無人飛行体120に搭載され、撮像入力装置130及び表示装置140と無線通信してもよい。撮像制御装置150は制御装置の一例である。
 上記のような撮像制御装置150は、コンピュータを備える。さらに、撮像制御装置150は、撮像入力装置130及び表示装置140に供給する電力を制御するための電気回路等を備えてもよい。コンピュータ以外の機器は撮像制御装置150と別個に設けられてもよい。撮像制御装置150は、ロボット制御装置400、撮像入力装置130又はロボット操作装置300に組み込まれてもよく、これらと別個に設けられてもよい。
 例えば、ロボット制御装置400及び撮像制御装置150のコンピュータは、プロセッサ及びメモリ等を有する回路又は処理回路を含む。回路又は処理回路は、他の装置との指令、情報及びデータ等の送受信を行う。回路又は処理回路は、各種機器からの信号の入力及び各制御対象への制御信号の出力を行う。メモリは、揮発性メモリ及び不揮発性メモリなどの半導体メモリ、ハードディスク及びSSD(Solid State Drive)等の記憶装置で構成される。例えば、メモリは、回路又は処理回路が実行するプログラム、及び各種データ等を記憶する。
 回路又は処理回路の機能は、CPU(Central Processing Unit)などのプロセッサ、RAM(Random Access Memory)などの揮発性メモリ及びROM(Read-Only Memory)などの不揮発性メモリ等からなるコンピュータシステムにより実現されてもよい。コンピュータシステムは、CPUがRAMをワークエリアとして用いてROMに記録されたプログラムを実行することによって、回路又は処理回路の機能を実現してもよい。なお、回路又は処理回路の機能の一部又は全部は、上記コンピュータシステムにより実現されてもよく、電子回路又は集積回路等の専用のハードウェア回路により実現されてもよく、上記コンピュータシステム及びハードウェア回路の組み合わせにより実現されてもよい。ロボット制御装置400及び撮像制御装置150は、単一のコンピュータによる集中制御により各処理を実行してもよく、複数のコンピュータの協働による分散制御により各処理を実行してもよい。
 例えば、ロボット制御装置400及び撮像制御装置150の各機能は、マイクロコントローラ、MPU(Micro Processing Unit)、LSI(Large Scale Integration:大規模集積回路)、システムLSI、PLC(Programmable Gate Array)及び論理回路等によって実現されてもよい。ロボット制御装置400及び撮像制御装置150それぞれの複数の機能は、個別に1チップ化されてもよく、一部又は全てを含むように1チップ化されてもよい。また、回路は、それぞれ、汎用的な回路でもよく、専用の回路でもよい。LSIとして、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続及び/又は設定を再構成可能なリコンフィギュラブルプロセッサ、又は、特定用途向けに複数の機能の回路が1つにまとめられたASIC(Application Specific Integrated Circuit)等が利用されてもよい。
 [撮像システムの機能的構成]
 撮像システム100の機能的な構成を説明する。図3に示すように、撮像システム100の撮像制御装置150は、駆動制御部151と、位置姿勢演算部152と、表示制御部153と、記憶部154とを機能的構成要素として含み、さらに、第2通信器155を含む。駆動制御部151は、カメラ制御部1511と、飛行体制御部1512とを機能的構成要素として含む。位置姿勢演算部152は、第1検出部1521と、第2検出部1522と、決定部1523とを機能的構成要素として含む。
 第2通信器155は、無人飛行体120の第1通信器124と無線通信し、撮像制御装置150と無人飛行体120との間の無線通信を仲介する。例えば、第2通信器155は、通信回路を含んでもよい。
 記憶部154の機能は、撮像制御装置150のコンピュータのメモリ等によって実現される。記憶部154以外の撮像制御装置150の機能的構成要素の機能は、コンピュータのプロセッサ等によって実現される。
 記憶部154は、種々の情報を記憶し、記憶された情報の読出しを可能にする。例えば、記憶部154は、プログラム及び各種データ等を記憶してもよい。例えば、記憶部154は、撮像システム100の各装置を動作させるためのプログラム、データ及び情報等を記憶してもよい。
 位置姿勢演算部152の第1検出部1521は、ロボット200のエンドエフェクタ230の位置及び姿勢を検出し決定部1523に出力する。これに限定されないが、第1検出部1521は、ロボットアーム210の先端部の位置及び姿勢を、エンドエフェクタ230の位置及び姿勢として検出する。第1検出部1521は、ロボット制御装置400から、ロボットアーム210の関節駆動装置212のフィードバック情報を受け取るように構成される。第1検出部1521は、フィードバック情報に含まれる各関節駆動装置212の回転駆動量を用いて、ロボットアーム210とエンドエフェクタ230との接続部分であるロボットアーム210の先端部の位置及び姿勢を演算する。例えば、先端部の位置は、図1に示すような、ロボットアーム210が配置される空間に設定される3次元空間座標系(以下、「第1座標系」とも呼ぶ)を用いて表され得る。第1座標系は、座標軸X1、Y1及びZ1軸で定義される。先端部の姿勢は、図1に示すような先端部に設定される3次元空間座標系(以下、「第2座標系」とも呼ぶ)を用いて表され得る。第2座標系は、座標軸X2、Y2及びZ2軸で定義される。先端部の姿勢は、座標軸X1、Y1及びZ1軸に対する座標軸X2、Y2及びZ2軸の角度を姿勢角として用いて表され得る。ここで、ロボットアーム210の関節駆動装置212のフィードバック情報、及び、エンドエフェクタ230の位置及び姿勢の情報は、動作関連情報の一例である。上記フィードバック情報は、エンドエフェクタ230の位置及び姿勢の情報の一例である。
 ここで、動作関連情報は、ロボット200の動作に関連する情報である。動作関連情報は、ロボット200に動作させるための情報、ロボット200が動作した結果を示す情報、又は、これらの両方を含んでもよい。つまり、動作関連情報は、ロボット200の動作を示す情報を含んでもよい。ロボット200に動作させるための情報の例は、ロボット200に動作させるためにロボット操作装置300等に入力される操作の情報、及び、ロボット200に動作させるためにロボット制御装置400からロボット200に出力される目標動作の指令等である。ロボット200が動作した結果を示す情報の例は、ロボット200から出力されるフィードバック情報、及び、センサ等によるロボット200の動作の検出結果等である。ロボット200の動作は、ロボットアーム210の動作、ロボットアーム210の関節の動作、ロボットアーム210の関節駆動装置212の動作、エンドエフェクタ230の位置及び姿勢、エンドエフェクタ230の動作、又は、これらの2つ以上の組み合わせ等を含んでもよい。
 第1検出部1521は、ロボットアーム210に動作させるためにロボット操作装置300に入力される操作の情報、ロボットアーム210に動作させるためにロボット制御装置400からロボットアーム210に出力される目標動作の指令、又は、これらの組み合わせを用いて、エンドエフェクタ230の位置及び姿勢を検出してもよい。
 なお、エンドエフェクタ230の位置及び姿勢がロボット制御装置400によって演算され、第1検出部1521は、当該位置及び姿勢の演算結果をロボット制御装置400から受け取るように構成されてもよい。
 第2検出部1522は、撮像装置110のカメラ111の現状の位置及び姿勢を検出し、決定部1523に出力する。第2検出部1522は、無人飛行体120から無線通信を介して、無人飛行体120の現状の位置及び姿勢の情報と、撮像装置110のカメラ111及びジンバル112の動作情報とを受信する。第2検出部1522は、受信した情報を用いてカメラ111の位置及び姿勢を検出する。カメラ111の位置及び姿勢は第1座標系で表され得る。
 決定部1523は、動作関連情報に対応して撮像装置110のカメラ111の目標の位置及び姿勢を決定し、駆動制御部151に出力する。具体的には、決定部1523は、動作関連情報の変化に対応してカメラ111の位置及び姿勢を変化させるように、カメラ111の目標の位置及び姿勢を決定する。例えば、決定部1523は、動作関連情報が示すロボット200の動きに追従するように、カメラ111の目標の位置及び姿勢を決定する。具体的には、決定部1523は、エンドエフェクタ230の位置及び姿勢とカメラ111の位置及び姿勢とが所定の関係である所定相対関係となるように、カメラ111の目標の位置及び姿勢を決定する。
 決定部1523は、所定相対関係として、エンドエフェクタ230の位置及び姿勢に対するカメラ111の相対的な位置及び姿勢の関係を示す情報を、記憶部154から読み出す。決定部1523は、上記の所定相対関係の情報と、第1検出部1521から受け取るエンドエフェクタ230の位置及び姿勢の検出結果と、第2検出部1522から受け取るカメラ111の現状の位置及び姿勢の検出結果とを用いて、エンドエフェクタ230の位置及び姿勢の検出結果に対して所定相対関係を満たすようなカメラ111の目標の位置及び姿勢を演算する。目標の位置及び姿勢は第1座標系で表され得る。これにより、エンドエフェクタ230に対するカメラ111の相対的な位置及び姿勢が維持され得る。
 ここで、決定部1523は、所定相対関係を、ユーザPによって撮像入力装置130に入力される指令に従って決定する。例えば、エンドエフェクタ230の位置及び姿勢が第1の状態であり、カメラ111の位置及び姿勢が第2の状態であるとき、上記指令が撮像入力装置130に入力されると、決定部1523は、第1の状態と第2の状態との関係を所定相対関係に設定し、エンドエフェクタ230の位置及び姿勢とカメラ111の位置及び姿勢との関係式等の当該関係を表す情報を演算し記憶部154に記憶させる。
 また、ユーザPによってカメラ111の位置及び姿勢を移動するための操作が撮像入力装置130に入力された場合、決定部1523は、当該操作の内容を示す操作情報を撮像入力装置130から受け取り、当該操作情報に従って移動させるべきカメラ111の目標の位置及び姿勢を決定する。操作情報とカメラ111の位置及び姿勢との関係の情報は、記憶部154に予め記憶され、決定部1523は当該情報を用いて目標の位置及び姿勢を演算する。操作情報は、動作するロボット200に対して、ユーザPがカメラ111を通じてエンドエフェクタ230等のロボット200の部位を視認するために、ユーザPが実行する操作の情報を含む。
 なお、決定部1523は、所定相対関係を用いてカメラ111の目標の位置及び姿勢を決定する制御を実行中に、撮像入力装置130からカメラの111の操作情報を受け取ると、操作情報に従ったカメラ111の目標の位置及び姿勢を決定する制御を優先させてもよい。つまり、決定部1523は、カメラ111の位置及び向きを修正する指令である修正指令として、撮像入力装置130からカメラの111の操作情報を受け付け、所定相対関係に対応するカメラ111の目標の位置及び向きを、当該操作情報に従ったカメラの111の目標の位置及び向きに変動させる。これにより、所定相対関係を用いて決定されるカメラ111の目標の位置及び姿勢が、操作情報に従ったカメラ111の目標の位置及び姿勢によって修正される。つまり、ユーザPは、撮像入力装置130を用いてカメラ111の目標の位置及び姿勢を修正することができる。
 なお、決定部1523は、所定相対関係を用いたカメラ111の目標の位置及び姿勢の代わりに操作情報に従ったカメラ111の目標の位置及び姿勢を用いて、操作情報に従ったカメラ111の目標の位置及び姿勢を修正後のカメラ111の目標の位置及び姿勢に決定してもよい。決定部1523は、所定相対関係を用いたカメラ111の目標の位置及び姿勢に操作情報に従ったカメラ111の目標の位置及び姿勢を加えて生成されるカメラ111の目標の位置及び姿勢を、修正後のカメラ111の目標の位置及び姿勢に決定してもよい。
 決定部1523は、カメラ111の目標の位置及び向きの修正以降、修正結果を、所定相対関係に対応するカメラ111の目標の位置及び向きの決定に反映してもよい。例えば、決定部1523は、修正結果を反映するように所定相対関係を変更してもよい。又は、決定部1523は、カメラ111の目標の位置及び向きの修正以降、修正結果を所定相対関係に反映せずに、カメラ111の目標の位置及び姿勢を決定してもよい。
 駆動制御部151の飛行体制御部1512は、決定部1523から受け取るカメラ111の目標の位置及び姿勢に従ってカメラ111を移動させるための無人飛行体120の動作指令を生成する。飛行体制御部1512は、当該動作指令をカメラ制御部1511及び無人飛行体120の飛行体制御装置125へ出力する。動作指令は、無人飛行体120の目標の位置及び姿勢の指令を含み、当該目標の位置及び姿勢は第1座標系で表され得る。例えば、無人飛行体120の目標の位置は、カメラ111の位置を目標の位置に移動させるための位置であってもよい。無人飛行体120の目標の姿勢は、カメラ111の向きを目標の姿勢に近づけるための姿勢であってもよい。無人飛行体120はドローンであるため、水平方向に回転可能であり、カメラ111の向きを水平方向に変えることができる。
 カメラ制御部1511は、決定部1523から受け取るカメラ111の目標の姿勢に従ってカメラ111の姿勢を移動させるためのジンバル112の動作指令を生成する。動作指令は、ジンバル112の各部の動作の指令を含む。カメラ制御部1511は、当該動作指令を無人飛行体120のカメラ制御装置113へ送信する。カメラ制御部1511は、飛行体制御部1512から受け取る無人飛行体120の目標の姿勢の情報と、カメラ111の目標の姿勢の情報とに基づき、無人飛行体120を基準とするカメラ111の目標の姿勢を決定し、当該目標の姿勢を実現するためのジンバル112の各部の動作を決定する。例えば、カメラ制御部1511は、無人飛行体120へのジンバル112の取り付け部を基準とするカメラ111の目標の姿勢を決定する。なお、カメラ111が、カメラ111の位置及び姿勢を移動可能な装置に搭載される場合、カメラ制御部1511は、無人飛行体120を基準とするカメラ111の目標の位置及び姿勢を決定し、カメラ制御装置113へ出力してもよい。
 また、カメラ制御部1511は、カメラ111を動作させるための動作指令を生成し、無人飛行体120のカメラ制御装置113へ送信する。動作指令は、カメラ111の撮像の開始及び停止の指令、並びに、カメラ111のズームアップ撮像及びズームバック撮像の指令等を含み得る。
 表示制御部153は、撮像装置110によって撮像された画像データを撮像装置110から受信し、表示装置140に当該画像データを出力し当該画像データに対応する画像を表示させる。表示制御部153は、撮像装置110から受信された画像データを画像処理し、画像処理後の画像データを表示装置140に出力してもよい。
 [撮像システムの動作]
 例示的な実施の形態に係る撮像システム100の動作を説明する。図4は、例示的な実施の形態に係る撮像システム100の動作の一例を示すフローチャートである。まず、ステップS101において、撮像制御装置150は、ロボット200のエンドエフェクタ230と撮像装置110のカメラ111との所定相対関係を決定する初期設定モードで動作する。例えば、撮像制御装置150は、ユーザPによって撮像入力装置130に入力される起動指令に従って、初期設定モードを開始する。
 次いで、ステップS102において、撮像制御装置150は、撮像装置110のカメラ111の初期位置及び初期姿勢の決定する指令を受け付ける。具体的には、撮像制御装置150は、撮像装置110及び無人飛行体120を起動し、撮像入力装置130に入力される操作に従って撮像装置110及び無人飛行体120を動作させる。ユーザPは、表示装置140において撮像装置110によって撮像された画像を視認しつつ撮像入力装置130を操作して、無人飛行体120にカメラ111の位置及び姿勢を変動させ、撮像装置110のジンバル112にカメラ111の姿勢を変動させる。例えば、表示装置140にエンドエフェクタ230の所望の画像等の所望の画像が映し出されると、ユーザPは、現状のカメラ111の位置及び姿勢をカメラ111の初期位置及び初期姿勢に決定する指令を撮像入力装置130に入力する。
 次いで、ステップS103において、撮像制御装置150は、カメラ111の初期位置及び初期姿勢を決定する。撮像制御装置150は、制御の実行中、無人飛行体120の位置及び姿勢の情報と、カメラ111及びジンバル112の動作情報とを無人飛行体120及び撮像装置110から受信する。撮像制御装置150は、ステップS102でカメラ111の初期位置及び初期姿勢を決定する指令を受け付けたときに検出された無人飛行体120の位置及び姿勢の情報とジンバル112の動作情報とから、カメラ111の位置及び姿勢を検出し、当該位置及び姿勢を初期位置及び初期姿勢に決定する。
 次いで、ステップS104において、撮像制御装置150は、エンドエフェクタ230の位置及び姿勢を検出する。撮像制御装置150は、ステップS102でカメラ111の初期位置及び初期姿勢を決定する指令を受け付けると、エンドエフェクタ230の位置及び姿勢の情報として、ロボットアーム210の動作情報を要求する指令をロボット制御装置400に出力する。ロボット制御装置400は、当該動作情報を撮像制御装置150に出力する。ロボットアーム210の動作情報は、ロボットアーム210の各関節駆動装置212で検出される各関節211の回転量の情報である。撮像制御装置150は、ロボットアーム210の動作情報を用いてエンドエフェクタ230の位置及び姿勢を演算する。
 次いで、ステップS105において、撮像制御装置150は、カメラ111の初期位置及び初期姿勢の情報と、エンドエフェクタ230の位置及び姿勢の情報とを用いて、所定相対関係を表す関係式等を決定する、つまり、所定相対関係を決定する。撮像制御装置150は、所定相対関係の情報を記憶部154に記憶させる。
 次いで、ステップS106において、撮像制御装置150は、初期設定モードを終了し、通常動作モードで動作を開始する。
 次いで、ステップS107において、撮像制御装置150は、撮像装置110のカメラ111に撮像動作を開始させる。カメラ111は連続的に動画像を撮像して撮像制御装置150に送信し、撮像制御装置150は当該動画像を表示装置140に表示させる。
 次いで、ステップS108において、撮像制御装置150は、ロボット制御装置400にロボットアーム210の動作情報を要求し、当該動作情報をロボット制御装置400から取得する。
 次いで、ステップS109において、撮像制御装置150は、エンドエフェクタ230の位置及び姿勢に対して所定相対関係を満たすカメラ111の目標位置及び目標姿勢を決定する。撮像制御装置150は、ロボットアーム210の動作情報を用いて、エンドエフェクタ230の位置及び姿勢を演算する。撮像制御装置150は、エンドエフェクタ230の位置及び姿勢と、記憶部154に記憶される所定相対関係の情報とを用いて、カメラ111の目標位置及び目標姿勢を演算する。
 次いで、ステップS110において、撮像制御装置150は、カメラ111を目標位置及び目標姿勢に移動させるための無人飛行体120の目標位置及び目標姿勢とジンバル112の各部の目標動作状態とを決定する。撮像制御装置150は、目標位置及び目標姿勢に無人飛行体120を移動させる動作指令と、目標動作状態にジンバル112を動作させる動作指令とを、無人飛行体120及び撮像装置110に送信する。
 次いで、ステップS111において、無人飛行体120は、動作指令に従って目標位置及び目標姿勢に移動し、撮像装置110は、ジンバル112を目標動作状態に動作させる。これにより、カメラ111の位置及び姿勢とエンドエフェクタ230の位置及び姿勢とが相対位置関係を満たす。
 次いで、ステップS112において、撮像制御装置150は、ユーザPによって撮像入力装置130にカメラ111の位置及び姿勢を移動する指令である修正指令が入力されたか否かを判定する。撮像制御装置150は、入力済みの場合(ステップS112でYes)にステップS113に進み、未入力の場合(ステップS112でNo)にステップS117に進む。
 ステップS113において、撮像制御装置150は、修正指令に従ってカメラ111の位置及び姿勢を移動させるための無人飛行体120の修正目標位置及び修正目標姿勢とジンバル112の各部の修正目標動作状態とを決定する。撮像制御装置150は、修正目標位置及び修正目標姿勢に無人飛行体120を移動させる動作指令である修正動作指令と、修正目標動作状態にジンバル112を動作させる動作指令である修正動作指令とを、無人飛行体120及び撮像装置110に送信する。このとき、撮像制御装置150は、無人飛行体120の位置及び姿勢の情報と、ジンバル112の動作状態の情報とをフィードバック情報として用いて、動作指令を生成してもよい。
 次いで、ステップS114において、無人飛行体120は、修正動作指令に従って修正目標位置及び修正目標姿勢に移動し、撮像装置110は、ジンバル112を修正目標動作状態に動作させる。このとき、無人飛行体120及び撮像装置110は、無人飛行体120の位置及び姿勢の情報と、ジンバル112の動作状態の情報とをフィードバック情報として用いて、動作制御を行ってもよい。
 次いで、ステップS115において、撮像制御装置150は、ロボット制御装置400にロボットアーム210の動作情報を要求し、当該動作情報をロボット制御装置400から取得する。
 次いで、ステップS116において、撮像制御装置150は、ロボットアーム210の動作情報を用いて、エンドエフェクタ230の位置及び姿勢を演算する。撮像制御装置150は、エンドエフェクタ230の位置及び姿勢の情報と、カメラ111の修正目標位置及び修正目標姿勢とを用いて、新たな所定相対関係を表す関係式等を決定する。撮像制御装置150は、記憶部154に記憶される所定相対関係の情報を新たな所定相対関係の情報に変更することで、所定相対関係の情報を更新する。これにより、撮像制御装置150は、以降において、カメラ111の位置及び姿勢とエンドエフェクタ230の位置及び姿勢とが更新後の相対位置関係を満たすように、カメラ111の位置及び姿勢を制御する。
 次いで、ステップS117において、撮像制御装置150は、ユーザPによって撮像入力装置130に撮像システム100の動作を終了する指令が入力されたか否かを判定し、入力済みの場合(ステップS117でYes)に一連の処理を終了し、未入力の場合(ステップS117でNo)にステップS108に戻る。
 ステップS101からS117の処理によって、撮像制御装置150は、ユーザPが所望する相対位置関係を決定する。撮像制御装置150は、無人飛行体120及びジンバル112の動作を制御することで、カメラ111の位置及び姿勢とエンドエフェクタ230の位置及び姿勢とが相対位置関係を満たすように、カメラ111の位置及び姿勢を制御する。さらに、撮像制御装置150は、撮像入力装置130に入力される操作に従って、相対位置関係を修正する。これにより、撮像制御装置150は、ユーザPにとってより望ましい相対位置関係を決定することができる。
 なお、例示的な実施の形態において、撮像制御装置150は、相対位置関係に従った無人飛行体120及びジンバル112の動作の制御中、撮像入力装置130を介してカメラ111の位置及び姿勢の修正指令を受け付けると、修正指令に従って相対位置関係を修正するように構成されるが、これに限定されない。例えば、撮像制御装置150は、修正指令に従ってカメラ111の位置及び姿勢を修正するが、相対位置関係を修正しないように構成されてもよい。この場合、撮像制御装置150は、修正指令に従ってカメラ111の位置及び姿勢を一時的に修正し、その後、既存の相対位置関係に従ってカメラ111の位置及び姿勢を制御する。さらに、撮像制御装置150は、相対位置関係の修正の有無を、撮像入力装置130を介したユーザPの指令に従って決定してもよい。
 (変形例1)
 例示的な実施の形態の変形例1は、撮像制御装置150Aが無人飛行体120の飛行エリアを制限する点で、例示的な実施の形態と異なる。以下、変形例1について、例示的な実施の形態と異なる点を中心に説明し、例示的な実施の形態と同様の点の説明を適宜省略する。
 図5は、例示的な実施の形態の変形例1に係るロボットシステム1の構成の一例を示す斜視図である。図6は、変形例1に係る撮像システム100の機能的な構成の一例を示すブロック図である。図5及び図6に示すように、撮像制御装置150Aは、ロボット200のエンドエフェクタ230と無人飛行体120との距離が第1所定距離L1以上となるように、無人飛行体120の動作を制御する。撮像制御装置150Aは、ロボット200のエンドエフェクタ230と無人飛行体120との距離が第2所定距離L2以下となるように、無人飛行体の動作120を制御する。なお、第2所定距離L2は第1所定距離L1よりも大きい。
 さらに、撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満となるように無人飛行体120を動作させる必要がある場合、無人飛行体120をエンドエフェクタ230から第1所定距離L1以上で離れて位置させ、撮像装置110にズームアップ撮像をさせる。例えば、撮像制御装置150Aは、撮像入力装置130から、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満になるような指令又は修正指令を受け付けた場合等に、上記制御を実行する。
 撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第2所定距離L2超となるように無人飛行体120を動作させる必要がある場合、無人飛行体120をエンドエフェクタ230から第2所定距離L2以下で離れて位置させ、撮像装置110にズームバック撮像をさせる。例えば、撮像制御装置150Aは、撮像入力装置130から、エンドエフェクタ230と無人飛行体120との距離が第2所定距離L2超になるような指令又は修正指令を受け付けた場合等に、上記制御を実行する。
 よって、撮像制御装置150Aは、エンドエフェクタ230を中心とする半径L1のエリアA1とエンドエフェクタ230を中心とする半径L2のエリアA2との間のエリアA3内に無人飛行体120の位置を保持するように、無人飛行体120の飛行を制御する。これにより、無人飛行体120がロボットアーム210に接近し干渉することと、無人飛行体120がロボットアーム210の周囲の天井及び壁等の物体と干渉することとが抑えられる。
 撮像制御装置150Aの位置姿勢演算部152Aは、決定部1523を第1決定部として含み、さらに、第2決定部1524を含む。第1決定部1523は、カメラ111の目標位置及び目標姿勢を決定すると、第2決定部1524に出力する。以下において、第1決定部1523によって決定された「目標位置」及び「目標姿勢」をそれぞれ、「第1目標位置」及び「第1目標姿勢」とも呼ぶ。
 第2決定部1524は、第1検出部1521からエンドエフェクタ230の位置及び姿勢の情報を受け取る。第2決定部1524は、カメラ111の第1目標位置とエンドエフェクタ230の位置との距離Lceを演算し、距離Lceと第1所定距離L1との比較と、距離Lceと第2所定距離L2との比較とを実行する。第1所定距離L1及び第2所定距離L2の情報は、記憶部154に予め記憶される。本変形例では、エンドエフェクタ230の位置の基準点は、座標軸X2、Y2及びZ2軸からなる第2座標系の原点であるが、基準点の位置はエンドエフェクタ230のいかなる位置であってもよい。
 距離Lceが第1所定距離L1以上第2所定距離L2以下の場合、第2決定部1524は、第1決定を実行する。第1決定では、第2決定部1524は、第1目標位置及び第1目標姿勢をそれぞれ、実行すべきカメラ111の目標位置及び目標姿勢として、第2目標位置及び第2目標姿勢に決定する。
 距離Lceが第1所定距離L1未満の場合、第2決定部1524は、第2決定を実行する。第2決定では、第2決定部1524は、カメラ111の第1目標位置とエンドエフェクタ230の位置とを結ぶライン上において、エンドエフェクタ230から第1所定距離L1以上の位置を、カメラ111の第2目標位置に決定する。例えば、第2決定部1524は、第1所定距離L1の位置をカメラ111の第2目標位置に決定する。さらに、第2決定部1524は、第1目標姿勢をカメラ111の第2目標姿勢に決定する。
 距離Lceが第2所定距離L2超の場合、第2決定部1524は、第3決定を実行する。第3決定では、第2決定部1524は、カメラ111の第1目標位置とエンドエフェクタ230の位置とを結ぶライン上において、エンドエフェクタ230から第2所定距離L2以下の位置を、カメラ111の第2目標位置に決定する。例えば、第2決定部1524は、第2所定距離L2の位置をカメラ111の第2目標位置に決定する。さらに、第2決定部1524は、第1目標姿勢をカメラ111の第2目標姿勢に決定する。
 第2決定部1524は、第1決定から第3決定のうちの実行した決定と、第1目標位置及び第1目標姿勢と、第2目標位置及び第2目標姿勢と、距離Lceとを含む情報を駆動制御部151に出力する。
 駆動制御部151の飛行体制御部1512は、第2決定部1524から受け取るカメラ111の第2目標位置及び第2目標姿勢に従ってカメラ111を移動させるための無人飛行体120の動作指令を生成する。飛行体制御部1512は、当該動作指令をカメラ制御部1511及び無人飛行体120の飛行体制御装置125へ出力する。
 カメラ制御部1511は、第2決定部1524から受け取るカメラ111の第2目標姿勢に従ってカメラ111の姿勢を移動させるためのジンバル112の動作指令を生成する。さらに、カメラ制御部1511は、第2決定部1524から受け取るカメラ111の第1目標位置及び第2目標位置を用いてカメラ111のズームアップ率又はズームバック率を決定する。
 具体的には、第1決定を受け取った場合、カメラ制御部1511は、ズームアップ率及びズームバック率を現状から変更しないことを決定する。
 第2決定を受け取った場合、カメラ制御部1511は、カメラ111のズームアップ撮像を決定する。カメラ制御部1511は、第1目標位置と第2目標位置との距離LT12を演算する。カメラ制御部1511は、距離LT12と、第1目標位置とエンドエフェクタ230との距離Lceとを用いて、カメラ111のズームアップ率を決定する。当該ズームアップ率は、カメラ111が第2目標位置で当該ズームアップ率を適用して撮像した画像に表示されるエンドエフェクタ230の像の大きさと、カメラ111が第1目標位置で当該ズームアップ率を適用せずに撮像した画像に表示されるエンドエフェクタ230の像の大きさとが同等となるように決定される。
 第3決定を受け取った場合、カメラ制御部1511は、カメラ111のズームバック撮像を決定する。カメラ制御部1511は、第1目標位置と第2目標位置との距離LT12を演算する。カメラ制御部1511は、距離LT12と、第1目標位置とエンドエフェクタ230との距離Lceとを用いて、カメラ111のズームバック率を決定する。当該ズームバック率は、カメラ111が第2目標位置で当該ズームバック率を適用して撮像した画像に表示されるエンドエフェクタ230の像の大きさと、カメラ111が第1目標位置で当該ズームバック率を適用せずに撮像した画像に表示されるエンドエフェクタ230の像の大きさとが同等となるように決定される。
 カメラ制御部1511は、カメラ111のズームアップ率及びズームバック率の決定結果を反映したカメラ111の動作指令と、ジンバル112の動作指令とを、無人飛行体120のカメラ制御装置113へ送信する。
 上述より、カメラ111は、無人飛行体120が第2目標位置に対応する位置に位置する場合でも、無人飛行体120が第1目標位置に対応する位置に位置する場合と同様の画像を撮像し、表示装置140に表示させることができる。
 また、本変形例では、撮像制御装置150Aは、第1所定距離L1及び第2所定距離L2を用いるように構成されるが、これに限定されず、第1所定距離L1及び第2所定距離L2の一方のみを用いるように構成されてもよい。
 例えば、第1所定距離L1のみを用いる場合、第2決定部1524は、カメラ111の第1目標位置とエンドエフェクタ230の位置との距離Lceが第1所定距離L1以上の場合に第1決定を実行する。さらに、第2決定部1524は、距離Lceが第1所定距離L1未満の場合に第2決定を実行する。第2決定部1524は、第3決定を実行しない。
 例えば、第2所定距離L2のみを用いる場合、第2決定部1524は、距離Lceが第2所定距離L2以下の場合に第1決定を実行する。さらに、第2決定部1524は、距離Lceが第2所定距離L2超の場合に第3決定を実行する。第2決定部1524は、第2決定を実行しない。
 第2決定部1524は、エンドエフェクタ230の移動速度に応じて、第1所定距離L1、第2所定距離L2、又は、第1所定距離L1及び第2所定距離L2の両方を、増加又は減少するように構成されてもよい。具体的には、第2決定部1524は、第1所定距離L1のみを増加又は減少してもよく、第2所定距離L2のみを増加又は減少してもよい。第2決定部1524は、第1所定距離L1及び第2所定距離L2の両方を増加又は減少してもよく、この場合、第2決定部1524は、第1所定距離L1及び第2所定距離L2の両方を増加してもよく、第1所定距離L1及び第2所定距離L2の両方を減少してもよく、第1所定距離L1及び第2所定距離L2の一方を増加し、他方を減少してもよい。第1検出部1521によって検出されるエンドエフェクタ230の位置及び姿勢の情報に基づき、第2決定部1524が、エンドエフェクタ230の移動速度を検出してもよい。第1検出部1521がエンドエフェクタ230の移動速度を検出してもよい。
 例えば、第2決定部1524は、エンドエフェクタ230の移動速度が増加すると、第1所定距離L1を大きくするように変更し、第2所定距離L2を小さくするように変更してもよい。これにより、無人飛行体120がロボット200及び周囲の物体と接触することがより確実に防がれる。
 例えば、第2決定部1524は、エンドエフェクタ230の移動速度が減少すると、第1所定距離L1を小さくするように変更し、第2所定距離L2を大きくするように変更してもよい。これにより、無人飛行体120がエンドエフェクタ230に接近することができる。
 例えば、第2決定部1524は、エンドエフェクタ230の移動速度の変化に追従して変動するように、第1所定距離L1及び第2所定距離L2を増減してもよい。又は、第2決定部1524は、エンドエフェクタ230の移動速度と閾値との比較結果に基づき、第1所定距離L1及び第2所定距離L2の増減を決定してもよい。この場合、第2決定部1524は、エンドエフェクタ230の移動速度と複数の閾値とを比較し、段階的に第1所定距離L1及び第2所定距離L2増減してもよい。
 また、本変形例では、撮像制御装置150Aは、カメラ111の目標位置とエンドエフェクタ230の位置との関係に基づき、無人飛行体120の飛行エリアを制限するが、これに限定されない。
 例えば、図7は、変形例1における無人飛行体120の飛行の制限エリアの別例を示す斜視図である。図7に示すように、撮像制御装置150Aは、ロボット200の可動範囲A4とカメラ111の目標位置との関係に基づき、無人飛行体120が可動範囲A4に侵入しないように飛行エリアを制限してもよい。可動範囲A4は、ロボット200のロボットアーム210が動作可能な範囲である。カメラ111の目標位置が可動範囲A4内に位置する場合、撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満となる場合と同様の制御を行ってもよい。
 撮像制御装置150Aは、ロボット200の作業範囲A5とカメラ111の目標位置との関係に基づき、無人飛行体120が作業範囲A5に侵入しないように飛行エリアを制限してもよい。作業範囲A5は、ロボット200が所定の作業を実行する際にロボットアーム210が動作し得る範囲である。カメラ111の目標位置が作業範囲A5内に位置する場合、撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満となる場合と同様の制御を行ってもよい。
 撮像制御装置150Aは、ロボットアーム210とカメラ111の目標位置との関係に基づき、無人飛行体120がロボットアーム210から第3所定距離L3以下のエリアであるアームエリアA6に侵入しないように飛行エリアを制限してもよい。撮像制御装置150Aは、ロボットアーム210の関節駆動装置212のフィードバック情報を用いて、ロボットアーム210の各関節及びその他の各部の位置を検出してもよい。さらに、撮像制御装置150Aは、検出された位置に基づき、アームエリアA6の位置を検出してもよい。
 アームエリアA6は、ロボットアーム210の囲むエリアであり、ロボットアーム210の動作に追従して変動する。本例では、アームエリアA6は、ロボットアーム210の各関節211(図1参照)の回転中心軸から第3所定距離L3以下のエリアであるが、これに限定されず、例えば、ロボットアーム210の表面等のロボットアーム210のいかなる部分を基準とするエリアであってもよい。さらに、本例では、アームエリアA6は、ロボットアーム210の全体にわたるエリアであるが、これに限定されず、例えば、エンドエフェクタ230の近傍の一部等のロボットアーム210の少なくとも一部にわたるエリアであってもよい。カメラ111の目標位置がアームエリアA6内に位置する場合、撮像制御装置150Aは、エンドエフェクタ230と無人飛行体120との距離が第1所定距離L1未満となる場合と同様の制御を行ってもよい。
 また、撮像制御装置150Aは、第1所定距離L1及び第2所定距離L2を用いて無人飛行体120の飛行エリアを制限する制御と、可動範囲A4を用いて無人飛行体120の飛行エリアを制限する制御と、作業範囲A5を用いて無人飛行体120の飛行エリアを制限する制御と、アームエリアA6を用いて無人飛行体120の飛行エリアを制限する制御とを、別々に実行するように構成されてもよく、これらの制御のうちの2つ以上を組み合わせて実行するように構成されてもよい。
 (変形例2)
 例示的な実施の形態の変形例2は、撮像システム100がユーザPの頭部Hの動きを検出する動き検出装置160を備え、動き検出装置160によって検出される頭部Hの動きに追従してカメラ111の位置及び姿勢を変動させるように構成される点で、例示的な実施の形態及び変形例1と異なる。以下、変形例2について、例示的な実施の形態及び変形例1と異なる点を中心に説明し、例示的な実施の形態及び変形例1と同様の点の説明を適宜省略する。
 図8は、例示的な実施の形態の変形例2に係るロボットシステム1の構成の一例を示す斜視図である。図9は、変形例2に係る撮像システム100の機能的な構成の一例を示すブロック図である。図8及び図9に示すように、撮像システム100は、表示装置として表示装置140Bを備え、さらに動き検出装置160を備える。また、撮像システム100の撮像制御装置150Bは、検出制御部156をさらに含む。
 表示装置140Bは、ユーザPの頭部Hに取り付けられるヘッドマウントディスプレイである。本変形例では、ヘッドマウントディスプレイは、ゴーグル状の形状を有し、ヘッドマウントディスプレイのレンズ部分が、画像が表示される表示面を形成する。表示装置140Bは、ユーザPの頭部Hと共に移動することでユーザPの頭部Hの動きに追従して画像を表示する位置及び向きを変えることができる。
 なお、表示装置140Bは、ユーザPの頭部Hに取り付けられないように構成されてもよく、この場合、表示装置140Bの表示面の位置、当該表示面の姿勢、又は、当該表示面の位置及び姿勢の両方を変えることができるように構成されてもよく、表示装置140Bの表示面が固定されるように構成されてもよい。
 動き検出装置160は、検出装置の一例であり、ユーザPの頭部Hの動きを検出する。動き検出装置160は特に限定されないが、本変形例では、少なくとも1つの赤外線センサ161と、頭部Hに装着される少なくとも1つの赤外線マーカ162とを含む。本変形例では、複数の赤外線センサ161、具体的には、3つの赤外線センサ161がユーザPの周りにユーザPに向けて配置される。3つの赤外線センサ161は、ユーザPの頭部Hから離れた位置に配置される。複数の赤外線マーカ162、具体的には、4つの赤外線マーカ162が頭部H上の異なる位置に配置される。なお、頭部は、人体における首から上の部分を含み、例えば、顔面、頭頂部、側頭部、後頭部等を含み得る。
 赤外線マーカ162は、赤外光を出射する。赤外線マーカ162は、赤外線LED(Light Emitting Diode)等の赤外光を自身で発する発光体であってもよく、照射された赤外光を反射する反射体であってもよく、発光体及び反射体の両方を含むように構成されてもよい。赤外線センサ161は、赤外光を受光し、受光される赤外光の方向、強度及び強度分布等を検出することができる。赤外線センサ161は、赤外光の受光のみが可能であるように構成されてもよく、赤外光を自身で発し、当該赤外光の反射光等の赤外光を受光するように構成されてもよい。後者の場合、赤外線センサ161は、赤外線カメラであってもよい。3つの赤外線センサ161を用いて4つの赤外線マーカ162からの赤外光を検出することで、頭部Hの位置及び姿勢等を高精度に検出することが可能である。以下に限定されないが、頭部Hの位置は、3次元空間内での頭部Hの所定の基準点等の3次元の位置であってもよい。頭部Hの姿勢は、頭部Hの正面部分、頭部Hを横切る平面、及び頭部Hの顎から頭頂部を通る軸等の所定の部分、面又は軸の姿勢であってもよく、具体的には、3次元空間内での上記所定の部分、面又は軸の3次元の向きであってもよい。
 なお、上記と逆となるように、赤外線センサ161がユーザPの頭部Hに装着され、赤外線マーカ162がユーザPの頭部Hから離れた位置に配置されてもよい。赤外線センサ161及び赤外線マーカ162の位置及び数量は、頭部Hの位置、姿勢、又は、位置及び姿勢の両方等の検出が可能であればよく、特に限定されない。
 検出制御部156は、3つの赤外線センサ161の駆動を制御し、3つの赤外線センサ161が4つの赤外線マーカ162からの赤外光を検出する結果を処理して、4つの赤外線マーカ162の3次元の位置及び姿勢を検出する。つまり、検出制御部156は、赤外線マーカ162の3次元の位置及び姿勢を検出することで、ユーザPの頭部Hの位置及び姿勢を検出する。検出制御部156は、頭部Hの位置及び姿勢の情報を位置姿勢演算部152に出力する。
 具体的には、3つの赤外線センサ161はそれぞれ、4つの赤外線マーカ162から出射される赤外光を受光する。各赤外線マーカ162から出射される赤外光は、当該赤外線マーカ162に設定されるID等の識別情報と関連付けられている。このため、各赤外線センサ161は、4つの赤外線マーカ162それぞれの赤外光の向き、強度及び強度分布等を検出することができる。検出制御部156は、記憶部154に予め記憶される各赤外線センサ161の3次元の位置及び姿勢の情報と、各赤外線センサ161による4つの赤外線マーカ162の赤外光の検出結果とを用いて、4つの赤外線マーカ162の3次元の位置を検出する。例えば、検出制御部156は、第1座標系に従って、4つの赤外線マーカ162の3次元の位置を検出する。さらに、検出制御部156は、4つの赤外線マーカ162の3次元の位置の情報を用いて、ユーザPの頭部Hの3次元の位置及び姿勢を検出する。例えば、検出制御部156は、ローリング角、ピッチング角及びヨーイング角等の姿勢角を用いて姿勢を表す。
 位置姿勢演算部152は、例示的な実施の形態において撮像入力装置130に入力されるカメラ111の位置及び姿勢を移動する指令と同様に、頭部Hの位置及び姿勢の情報をカメラ111の位置及び姿勢を移動する指令として用いて、カメラ111の目標位置及び目標姿勢を決定する。位置姿勢演算部152は、頭部Hの位置及び姿勢の変動量に対応するカメラ111の位置及び姿勢の変動量でカメラ111を移動させるためのカメラ111の目標位置及び目標姿勢を決定する。
 例えば、頭部Hの水平方向及び鉛直方向の移動はそれぞれ、カメラ111の水平方向及び鉛直方向の移動に対応付けられる。頭部Hのローリング方向、ピッチング方向及びヨーイング方向の移動はそれぞれ、カメラ111のローリング方向、ピッチング方向及び方向の移動に対応付けられる。
 位置姿勢演算部152の決定部1523は、頭部Hの位置及び姿勢の情報からカメラ111の目標位置及び目標姿勢を演算する。例えば、記憶部154は、ユーザPの頭部Hの動きに従って各装置を移動させるための種々のパラメータの関係を記憶する。例えば、頭部Hの位置及び姿勢の変動量とカメラ111の位置及び姿勢の変動量との関係である変動関係が、記憶部154に記憶される。決定部1523は、頭部Hの位置及び姿勢の情報と変動関係とを用いて、頭部Hの動きに追従してカメラ111を移動させるためのカメラ111の目標位置及び目標姿勢を決定する。ここで、頭部Hの位置及び姿勢の情報は、動作するロボット200に対して、ユーザPがカメラ111を通じてエンドエフェクタ230等のロボット200の部位を視認するために、ユーザPが移動させる頭部Hの位置及び姿勢の情報を含む。
 決定部1523は、所定相対関係を用いてカメラ111の目標の位置及び姿勢を決定する制御を実行中に、検出制御部156からユーザPの頭部Hの位置及び姿勢の変動を示す情報(以下、「頭部動作情報」とも呼ぶ)を受け取ると、頭部動作情報に従ったカメラ111の目標の位置及び姿勢を決定する制御を優先させてもよい。つまり、決定部1523は、カメラ111の位置及び向きを修正する指令である修正指令として、頭部動作情報を受け付け、所定相対関係に対応するカメラ111の目標の位置及び向きを、頭部動作情報に従ったカメラの111の目標の位置及び向きに変動させる。これにより、所定相対関係を用いて決定されるカメラ111の目標の位置及び姿勢が、頭部Hの位置及び姿勢の変動に従ったカメラ111の目標の位置及び姿勢によって修正される。つまり、ユーザPは、頭部Hを移動させることでカメラ111の目標位置及び目標姿勢を意図する位置及び姿勢に修正することができる。
 なお、決定部1523は、所定相対関係を用いたカメラ111の目標の位置及び姿勢の代わりに、頭部動作情報に従ったカメラ111の目標の位置及び姿勢を修正後のカメラ111の目標の位置及び姿勢に決定してもよい。決定部1523は、所定相対関係を用いたカメラ111の目標の位置及び姿勢に頭部動作情報に従ったカメラ111の目標の位置及び姿勢を加えて生成されるカメラ111の目標の位置及び姿勢を、修正後のカメラ111の目標の位置及び姿勢に決定してもよい。
 決定部1523は、カメラ111の目標の位置及び向きの修正以降、修正結果を、所定相対関係に対応するカメラ111の目標の位置及び向きの決定に反映してもよい。又は、決定部1523は、カメラ111の目標の位置及び向きの修正以降、修正結果を所定相対関係に反映せずに、カメラ111の目標の位置及び姿勢を決定してもよい。
 変形例2に係る撮像システム100の動作を説明する。図10は、変形例2に係る撮像システム100の動作の一例を示すフローチャートである。図10に示すように、まず、ステップS201において、撮像制御装置150Bは、ロボット200のエンドエフェクタ230と撮像装置110のカメラ111との所定相対関係と、カメラ111及びユーザPの頭部Hそれぞれの初期位置及び初期姿勢とを決定する初期設定モードで動作する。
 次いで、ステップS202及びS203の処理は、例示的な実施の形態のステップS102及びS103と同様である。
 次いで、ステップS204において、撮像制御装置150Bは、ユーザPの頭部Hの初期位置及び初期姿勢を決定する。具体的には、ユーザPは、頭部Hの位置及び姿勢が所望の位置及び姿勢となると、頭部Hの初期位置及び初期姿勢の決定する指令を撮像入力装置130に入力する。撮像制御装置150Bは、動き検出装置160の3つの赤外線センサ161に赤外光の検出動作をさせ、各赤外線センサ161の検出結果を処理し、頭部Hの位置及び姿勢を検出する。撮像制御装置150Bは、検出された頭部Hの位置及び姿勢を、頭部Hの初期位置及び初期姿勢に決定する。
 次いで、ステップS205からS212の処理は、例示的な実施の形態のステップS104からS111の処理と同様である。
 次いで、ステップS213において、撮像制御装置150Bは、ユーザPによって撮像入力装置130に、頭部Hの動きに追従してカメラ111の位置及び姿勢を修正する指令である修正指令が入力されたか否かを判定する。撮像制御装置150Bは、入力済みの場合(ステップS213でYes)にステップS214に進み、未入力の場合(ステップS213でNo)にステップS222に進む。
 ステップS214において、撮像制御装置150Bは、3つの赤外線センサ161に、頭部Hの赤外線マーカ162の赤外光の検出を連続的に実行させる。なお、撮像制御装置150Bは、ステップS207の処理後からステップS213の処理後までのいかなるタイミングでステップS214の処理を開始してもよい。
 次いで、ステップS215において、ユーザPは、表示装置140Bを視認しつつ頭部Hを所望の位置及び姿勢に移動させる。例えば、ユーザPは、表示装置140Bに映し出されるエンドエフェクタ230を視たい位置及び姿勢になるように頭部Hを移動させる。撮像制御装置150Bは、各赤外線センサ161の検出結果を処理し、初期位置及び初期姿勢に対するユーザPの頭部Hの位置及び姿勢を検出する。撮像制御装置150Bは、所定の時間間隔で頭部Hの位置及び姿勢を検出する。
 次いで、ステップS216において、撮像制御装置150Bは、検出された頭部Hの位置及び姿勢に従ってカメラ111の位置及び姿勢を移動させるためのカメラ111の目標位置及び目標姿勢を、カメラ111の修正目標位置及び修正目標姿勢として決定する。撮像制御装置150Bは、検出された頭部Hの位置及び姿勢の情報と記憶部154に記憶される変動関係とに基づき、カメラ111の修正目標位置及び修正目標姿勢を演算する。
 次いで、ステップS217において、撮像制御装置150Bは、カメラ111の修正目標位置及び修正目標姿勢にカメラ111の位置及び姿勢を移動させるための無人飛行体120の修正目標位置及び修正目標姿勢とジンバル112の各部の修正目標動作状態とを決定する。撮像制御装置150Bは、修正目標位置及び修正目標姿勢に無人飛行体120を移動させる修正動作指令と、修正目標動作状態にジンバル112を動作させる修正動作指令とを、無人飛行体120及び撮像装置110に送信する。
 次いで、ステップS218において、無人飛行体120は、修正動作指令に従って修正目標位置及び修正目標姿勢に移動し、撮像装置110は、修正動作指令に従ってジンバル112を修正目標動作状態に動作させる。
 次いで、ステップS219において、撮像制御装置150Bは、ユーザPによって撮像入力装置130に、修正指令を終了する入力がされたか否かを判定し、入力済みの場合(ステップS219でYes)にステップS220に進み、未入力の場合(ステップS219でNo)にステップS214に戻る。
 ステップS220及びS221の処理は、例示的な実施の形態のステップS115及びS116の処理と同様である。
 次いで、ステップS222において、撮像制御装置150Bは、ユーザPによって撮像入力装置130に撮像システム100の動作を終了する指令が入力されたか否かを判定し、入力済みの場合(ステップS222でYes)に一連の処理を終了し、未入力の場合(ステップS222でNo)にステップS209に戻る。
 ステップS201からS222の処理によって、撮像制御装置150Bは、ユーザPの頭部Hの動きに追従して移動させるカメラ111の位置及び姿勢に基づき、相対位置関係を修正する。よって、ユーザPは、頭部Hを所望の位置及び方向に移動させることによって、ユーザPとってより望ましい相対位置関係を簡易に決定することができる。
 なお、変形例2において、撮像制御装置150Bは、相対位置関係に従った無人飛行体120及びジンバル112の動作の制御中、カメラ111の位置及び姿勢の修正指令を受け付けると、ユーザPの頭部Hの動きに追従して移動するカメラ111の位置及び姿勢に対応するように相対位置関係を修正するが、これに限定されない。例えば、撮像制御装置150Bは、頭部Hの動きに追従してカメラ111の位置及び姿勢を修正するが、相対位置関係を修正しないように構成されてもよい。この場合、撮像制御装置150Bは、頭部Hの動きに追従してカメラ111の位置及び姿勢を一時的に修正し、その後、既存の相対位置関係に従ってカメラ111の位置及び姿勢を制御する。さらに、撮像制御装置150Bは、相対位置関係の修正の有無を、撮像入力装置130を介したユーザPの指令に従って決定してもよい。
 また、変形例2において、撮像制御装置150Bは、撮像入力装置130を用いた操作に従ってカメラ111の位置及び姿勢を移動させる制御と、ユーザPの頭部Hの動きにカメラ111の位置及び姿勢を追従させる制御とを併用するように構成されてもよい。また、変形例2に係る撮像システム100の構成を変形例1に適用してもよい。
 (その他の実施の形態)
 以上、本開示の例示的な実施の形態及び変形例について説明したが、本開示は、上記例示的な実施の形態及び変形例に限定されない。すなわち、本開示の範囲内で種々の変形及び改良が可能である。例えば、各種変形を例示的な実施の形態及び変形例に施したもの、及び、異なる例示的な実施の形態及び変形例における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
 例えば、例示的な実施の形態及び変形例において、撮像制御装置150、150A及び150Bは、相対位置関係に従って無人飛行体120及びジンバル112の動作を制御するように構成されるが、これに限定されない。例えば、撮像制御装置150、150A及び150Bは、相対位置関係を用いずに、ユーザPによって撮像入力装置130に入力されるカメラ111の位置及び姿勢の指令に従って、並びに/又は、ユーザPの頭部Hの動きにカメラの111の位置及び姿勢を追従させるように、無人飛行体120及びジンバル112の動作を制御するように構成されてもよい。
 また、変形例2において、動き検出装置160は、ユーザPの頭部Hの動きを検出するために赤外線センサ161及び赤外線マーカ162を備えるが、これに限定されず、頭部Hの動きを検出可能ないかなる構成を備えてもよい。
 例えば、動き検出装置160は、頭部Hに装着される加速度センサ及び角速度センサを備え、頭部Hの6軸方向の加速度及び角速度を検出してもよい。この場合、撮像制御装置150Bは、加速度センサ及び角速度センサから検出結果を有線通信又は無線通信を介して受信するように構成されてもよい。撮像制御装置150Bは、加速度及び角速度の検出結果を用いて頭部Hの位置及び姿勢を検出してもよい。
 又は、動き検出装置160は、頭部Hから離れた位置に配置された3次元カメラを備え、頭部Hの3次元画像を撮像してもよい。3次元画像の各画素の画素値は、当該画素に映し出される被写体までの距離値を示す。この場合、撮像制御装置150Bは、頭部Hのテンプレートを用いたパターンマッチング手法等の画像処理により、3次元画像に映し出される頭部Hの像及び頭部Hの姿勢を検出し、3次元画像の各画素の画素値から頭部Hの位置を検出してもよい。さらに、動き検出装置160は、互いに異なる位置及び向きで配置された複数の3次元カメラを備えてもよい。撮像制御装置150Bは、各3次元カメラの3次元画像を処理することで、頭部Hの3次元モデルを生成してもよい。撮像制御装置150Bは、頭部Hの3次元モデルを用いて頭部Hの位置及び姿勢を検出してもよい。
 又は、動き検出装置160は、磁場発生装置と、頭部Hに装着される磁気センサとを備え、磁気センサの位置及び姿勢を検出してもよい。この場合、撮像制御装置150Bは、磁気センサから検出結果を有線通信又は無線通信を介して受信するように構成されてもよい。撮像制御装置150Bは、磁気センサの位置及び姿勢の検出結果を用いて頭部Hの位置及び姿勢を検出してもよい。
 また、本開示の技術の各態様例は、以下のように挙げられる。本開示の一態様に係る撮像システムは、無人飛行体と、前記無人飛行体に搭載され、対象物に対して作業を行うロボットを撮像する撮像装置と、前記無人飛行体から遠隔に配置され、前記撮像装置によって撮像された画像を、前記ロボットを操作するユーザに表示する表示装置と、前記撮像装置及び前記無人飛行体の動作を制御する制御装置とを備え、前記制御装置は、前記ロボットの動作に関連する情報である動作関連情報を取得し、前記動作関連情報に対応して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる。
 上記態様によると、撮像システムは、ロボットの操作に関連する動作関連情報を無人飛行体の移動の制御に用いる。これにより、無人飛行体の操作するためのユーザの操作の簡略化及び操作量の低減が可能になる。よって、撮像システムは、撮像装置を搭載する無人飛行体の操作を簡易にすることができる。
 本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記動作関連情報として前記ロボットの動作を示す動作情報を取得し、前記動作情報に従って前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させてもよい。
 上記態様によると、撮像システムは、ロボットの動作情報を無人飛行体の移動の制御に用いる。例えば、撮像システムは、ロボットの動作に追従して移動するように、無人飛行体の移動を制御することができる。これにより、ユーザによる無人飛行体の操作の簡略化及び操作量の低減が可能になる。
 本開示の一態様に係る撮像システムは、前記ユーザによる指令の入力を受け付ける入力装置をさらに備え、前記制御装置は、前記撮像装置の位置及び向きを修正する指令である修正指令を前記入力装置を介して受け付け、前記動作関連情報に対応する前記撮像装置の位置及び向きを、前記修正指令に従った前記撮像装置の位置及び向きに変動させるように、前記無人飛行体を移動させてもよい。
 上記態様によると、撮像システムは、動作関連情報に対応して撮像装置の位置及び向きを変動させる無人飛行体の移動を、入力装置を介して受け付けられた修正指令に従って修正することができる。撮像システムは、動作関連情報に対応する撮像装置の位置及び向きの代わりに、修正指令に従った撮像装置の位置及び向きを用いてもよく、動作関連情報に対応する撮像装置の位置及び向きに修正指令に従った撮像装置の位置及び向きを加えて生成される撮像装置の位置及び向きを用いてもよい。いずれにおいても、ユーザは、撮像装置の位置及び向きを意図するように修正することができる。
 本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記修正指令に従った前記撮像装置の位置及び向きの変動以降、前記修正指令に従った前記撮像装置の位置及び向きの変動結果を、前記動作関連情報に対応する前記撮像装置の位置及び向きに反映してもよい。
 上記態様によると、撮像システムは、修正指令に従った修正を、修正以降の無人飛行体の移動の制御に反映することができる。よって、撮像システムは、ユーザの意図を反映しつつ動作関連情報に対応して撮像装置の位置及び向きを変動させるように、無人飛行体を移動させることができる。
 本開示の一態様に係る撮像システムは、前記ユーザの頭部の動きを検出する検出装置をさらに備え、前記制御装置は、前記ユーザの頭部の動きの情報を前記検出装置から取得し、前記ユーザの頭部の動きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させてもよい。
 上記態様によると、撮像システムは、ユーザの頭部の動きの情報を無人飛行体の移動の制御に用いる。撮像システムは、動作関連情報に対応する撮像装置の位置及び向きの代わりに、ユーザの頭部の動きに追従した撮像装置の位置及び向きを用いてもよく、動作関連情報に対応する撮像装置の位置及び向きにユーザの頭部の動きに追従した撮像装置の位置及び向きを加えて生成される撮像装置の位置及び向きを用いてもよい。いずれにおいても、ユーザによる無人飛行体の操作の簡略化及び操作量の低減が可能になる。例えば、ユーザは、視ることを意図する方向及び移動量で頭部を移動させることで、撮像装置を対応する方向及び移動量で移動させ、意図する画像を視ることができる。
 本開示の一態様に係る撮像システムにおいて、前記ロボットは、エンドエフェクタと前記エンドエフェクタを移動させるロボットアームとを含み、前記制御装置は、前記動作関連情報として前記エンドエフェクタの位置及び向きの情報を取得し、前記エンドエフェクタの位置及び向きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させてもよい。
 上記態様によると、ユーザは、ロボットを操作してエンドエフェクタの位置及び向きを変動させることで、無人飛行体に撮像装置の位置及び向きを変動させることができる。これにより、ユーザによる無人飛行体の操作の簡略化及び操作量の低減が可能になる。例えば、撮像装置がエンドエフェクタを撮像している場合、撮像装置は、エンドエフェクタの位置及び向きの変動に対応して移動するため、撮像装置はエンドエフェクタを継続して撮像し表示装置に映し出すことができる。例えば、定位置からの撮像では、移動するエンドエフェクタがロボットアームに隠れてしまうような場合でも、撮像装置はロボットアームによる干渉を回避してエンドエフェクタを撮像することができる。
 本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第1所定距離以上となるように、前記無人飛行体の動作を制御してもよい。
 上記態様によると、撮像システムは、エンドエフェクタから第1所定距離未満の領域に進入しないように無人飛行体の移動を制御する。よって、撮像システムは、無人飛行体がエンドエフェクタ及びロボットアームと接触することを抑制することができる。
 本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタと前記無人飛行体との距離が前記第1所定距離未満になる指令を受け付けた場合、前記無人飛行体を前記エンドエフェクタから前記第1所定距離以上で離れて位置させ、前記撮像装置にズームアップ撮像をさせてもよい。
 上記態様によると、無人飛行体がエンドエフェクタから第1所定距離未満の目的位置に移動する必要がある場合、撮像システムは、エンドエフェクタから第1所定距離未満の領域内への無人飛行体の進入を抑えつつ、目的位置で撮像した場合と同様の画像を撮像装置に撮像させることができる。
 本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第1所定距離を増減してもよい。
 上記態様によると、無人飛行体はエンドエフェクタの位置及び向きに追従するように移動するため、無人飛行体の移動速度は、エンドエフェクタの移動速度と同様に増減する。撮像システムは、エンドエフェクタの移動速度に応じて第1所定距離を増減することで、無人飛行体がエンドエフェクタ及びロボットアームと接触することをより確実に防ぐことができる。例えば、エンドエフェクタの移動速度が増加すると、第1所定距離が増加されてもよく、エンドエフェクタの移動速度が減少すると、第1所定距離が減少されてもよい。ロボットがエンドエフェクタを用いて緻密な作業を行う場合、エンドエフェクタの移動速度が低くなる傾向があり、無人飛行体はエンドエフェクタに接近することができる。
 本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第2所定距離以下となるように、前記無人飛行体の動作を制御してもよい。
 上記態様によると、撮像システムは、エンドエフェクタから第2所定距離超の領域に進入しないように無人飛行体の移動を制御する。よって、撮像システムは、無人飛行体が周囲の物体と接触することを抑制することができる。第2所定距離は、第1所定距離よりも大きくてもよい。
 本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタと前記無人飛行体との距離が前記第2所定距離超になる指令を受け付けた場合、前記無人飛行体を前記エンドエフェクタから前記第2所定距離以下で離れて位置させ、前記撮像装置にズームバック撮像をさせてもよい。
 上記態様によると、無人飛行体がエンドエフェクタから第2所定距離超の目的位置に移動する必要がある場合、撮像システムは、エンドエフェクタから第2所定距離超の領域内への無人飛行体の進入を抑えつつ、目的位置で撮像した場合と同様の画像を撮像装置に撮像させることができる。
 本開示の一態様に係る撮像システムにおいて、前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第2所定距離を増減してもよい。
 上記態様によると、撮像システムは、エンドエフェクタの移動速度に応じて第2所定距離を増減することで、無人飛行体が周囲の物体と接触することをより確実に防ぐことができる。例えば、エンドエフェクタの移動速度が増加すると、第2所定距離が減少されてもよく、エンドエフェクタの移動速度が減少すると、第2所定距離が増加されてもよい。
 本開示の一態様に係るロボットシステムは、本開示の一態様に係る撮像システムと、前記ロボットとを備える。上記態様によると、本開示の一態様に係る撮像システムと同様の効果が得られる。
 また、上記で用いた序数、数量等の数字は、全て本開示の技術を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。また、構成要素間の接続関係は、本開示の技術を具体的に説明するために例示するものであり、本開示の機能を実現する接続関係はこれに限定されない。
 本開示は、その本質的な特徴の精神から逸脱することなく、様々なかたちで実施され得るように、本開示の範囲は、明細書の記載よりも添付の請求項によって定義されるため、例示的な実施の形態及び変形例は、例示的なものであって限定的なものではない。請求項及びその範囲内にあるすべての変更、又は、請求項及びその範囲の均等物は、請求項によって包含されることが意図されている。
1 ロボットシステム
100 撮像システム
110 撮像装置
120 無人飛行体
130 撮像入力装置(入力装置)
140,140B 表示装置
150,150A,150B 撮像制御装置(制御装置)
160 動き検出装置(検出装置)
161 赤外線センサ
162 赤外線マーカ
200 ロボット
210 ロボットアーム
230 エンドエフェクタ
H 頭部
P ユーザ

Claims (13)

  1.  無人飛行体と、
     前記無人飛行体に搭載され、対象物に対して作業を行うロボットを撮像する撮像装置と、
     前記無人飛行体から遠隔に配置され、前記撮像装置によって撮像された画像を、前記ロボットを操作するユーザに表示する表示装置と、
     前記撮像装置及び前記無人飛行体の動作を制御する制御装置とを備え、
     前記制御装置は、前記ロボットの動作に関連する情報である動作関連情報を取得し、前記動作関連情報に対応して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる
     撮像システム。
  2.  前記制御装置は、前記動作関連情報として前記ロボットの動作を示す動作情報を取得し、前記動作情報に従って前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる
     請求項1に記載の撮像システム。
  3.  前記ユーザによる指令の入力を受け付ける入力装置をさらに備え、
     前記制御装置は、前記撮像装置の位置及び向きを修正する指令である修正指令を前記入力装置を介して受け付け、前記動作関連情報に対応する前記撮像装置の位置及び向きを、前記修正指令に従った前記撮像装置の位置及び向きに変動させるように、前記無人飛行体を移動させる
     請求項1又は2に記載の撮像システム。
  4.  前記制御装置は、前記修正指令に従った前記撮像装置の位置及び向きの変動以降、前記修正指令に従った前記撮像装置の位置及び向きの変動結果を、前記動作関連情報に対応する前記撮像装置の位置及び向きに反映する
     請求項3に記載の撮像システム。
  5.  前記ユーザの頭部の動きを検出する検出装置をさらに備え、
     前記制御装置は、前記ユーザの頭部の動きの情報を前記検出装置から取得し、前記ユーザの頭部の動きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる
     請求項1から4のいずれか一項に記載の撮像システム。
  6.  前記ロボットは、エンドエフェクタと前記エンドエフェクタを移動させるロボットアームとを含み、
     前記制御装置は、前記動作関連情報として前記エンドエフェクタの位置及び向きの情報を取得し、前記エンドエフェクタの位置及び向きに追従して前記撮像装置の位置及び向きを変動させるように前記無人飛行体を移動させる
     請求項1から5のいずれか一項に記載の撮像システム。
  7.  前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第1所定距離以上となるように、前記無人飛行体の動作を制御する
     請求項6に記載の撮像システム。
  8.  前記制御装置は、前記エンドエフェクタと前記無人飛行体との距離が前記第1所定距離未満になる指令を受け付けた場合、前記無人飛行体を前記エンドエフェクタから前記第1所定距離以上で離れて位置させ、前記撮像装置にズームアップ撮像をさせる
     請求項7に記載の撮像システム。
  9.  前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第1所定距離を増減する
     請求項7又は8に記載の撮像システム。
  10.  前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づき、前記エンドエフェクタと前記無人飛行体との距離が第2所定距離以下となるように、前記無人飛行体の動作を制御する
     請求項6から9のいずれか一項に記載の撮像システム。
  11.  前記制御装置は、前記エンドエフェクタと前記無人飛行体との距離が前記第2所定距離超になる指令を受け付けた場合、前記無人飛行体を前記エンドエフェクタから前記第2所定距離以下で離れて位置させ、前記撮像装置にズームバック撮像をさせる
     請求項10に記載の撮像システム。
  12.  前記制御装置は、前記エンドエフェクタの位置及び向きの情報に基づく前記エンドエフェクタの移動速度に応じて、前記第2所定距離を増減する
     請求項10又は11に記載の撮像システム。
  13.  請求項1から12のいずれか一項に記載の撮像システムと、
     前記ロボットとを備える
     ロボットシステム。
PCT/JP2021/022670 2020-06-19 2021-06-15 撮像システム及びロボットシステム WO2021256464A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180041661.7A CN115697843A (zh) 2020-06-19 2021-06-15 拍摄系统及机器人系统
JP2022531837A JP7459253B2 (ja) 2020-06-19 2021-06-15 撮像システム、ロボットシステム及び撮像システムの制御方法
US18/001,877 US20230239439A1 (en) 2020-06-19 2021-06-15 Imaging system and robot system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-106027 2020-06-19
JP2020106027 2020-06-19

Publications (1)

Publication Number Publication Date
WO2021256464A1 true WO2021256464A1 (ja) 2021-12-23

Family

ID=79267959

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022670 WO2021256464A1 (ja) 2020-06-19 2021-06-15 撮像システム及びロボットシステム

Country Status (5)

Country Link
US (1) US20230239439A1 (ja)
JP (1) JP7459253B2 (ja)
CN (1) CN115697843A (ja)
TW (1) TW202201946A (ja)
WO (1) WO2021256464A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022032206A (ja) * 2020-08-11 2022-02-25 コベルコ建機株式会社 作業支援装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017131194A1 (ja) * 2016-01-29 2017-08-03 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
JP2019093471A (ja) * 2017-11-22 2019-06-20 川崎重工業株式会社 ロボットシステム及びそれを用いて物を作る方法
US20200015401A1 (en) * 2018-07-12 2020-01-16 TerraClear Inc. Object collection system and method
US20200055195A1 (en) * 2017-05-03 2020-02-20 Taiga Robotics Corp. Systems and Methods for Remotely Controlling a Robotic Device
US20200104598A1 (en) * 2017-05-24 2020-04-02 SZ DJI Technology Co., Ltd. Imaging control method and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017131194A1 (ja) * 2016-01-29 2017-08-03 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
US20200055195A1 (en) * 2017-05-03 2020-02-20 Taiga Robotics Corp. Systems and Methods for Remotely Controlling a Robotic Device
US20200104598A1 (en) * 2017-05-24 2020-04-02 SZ DJI Technology Co., Ltd. Imaging control method and device
JP2019093471A (ja) * 2017-11-22 2019-06-20 川崎重工業株式会社 ロボットシステム及びそれを用いて物を作る方法
US20200015401A1 (en) * 2018-07-12 2020-01-16 TerraClear Inc. Object collection system and method

Also Published As

Publication number Publication date
TW202201946A (zh) 2022-01-01
US20230239439A1 (en) 2023-07-27
JP7459253B2 (ja) 2024-04-01
JPWO2021256464A1 (ja) 2021-12-23
CN115697843A (zh) 2023-02-03

Similar Documents

Publication Publication Date Title
US9987744B2 (en) Generating a grasp pose for grasping of an object by a grasping end effector of a robot
US11396100B2 (en) Robot calibration for AR and digital twin
US11584004B2 (en) Autonomous object learning by robots triggered by remote operators
US20200055195A1 (en) Systems and Methods for Remotely Controlling a Robotic Device
US10913151B1 (en) Object hand-over between robot and actor
WO2019128070A1 (zh) 目标跟踪方法及装置、移动设备及存储介质
US8214098B2 (en) System and method for controlling swarm of remote unmanned vehicles through human gestures
US20170348858A1 (en) Multiaxial motion control device and method, in particular control device and method for a robot arm
US20130204436A1 (en) Apparatus for controlling robot and control method thereof
US10232519B2 (en) Robot and method of controlling the same
WO2021256464A1 (ja) 撮像システム及びロボットシステム
CN111432991B (zh) 机器人系统及使用其制作物品的方法
WO2021073733A1 (en) Method for controlling a device by a human
US11926064B2 (en) Remote control manipulator system and remote control assistance system
US11436063B1 (en) Systems and methods for inter-process communication within a robot
WO2021256463A1 (ja) 撮像システム及びロボットシステム
CN112936258A (zh) 一种面向空中作业机器人的人机协作系统及方法
US11731278B1 (en) Robot teleoperation using mobile device motion sensors and web standards
Mariappan et al. A remote navigation methodology for a four wheel rectangular configured holonomic mobile telemedicine robot
US20230330845A1 (en) Processing method, program and robot system
WO2023145284A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
WO2022014429A1 (ja) 情報処理方法、プログラム、及びシステム
US11496722B1 (en) Systems and methods for automatically calibrating multiscopic image capture systems
WO2021095833A1 (ja) マスタスレーブシステム及び制御方法
WO2022185761A1 (ja) 情報処理システム、情報処理方法および情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21826088

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022531837

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21826088

Country of ref document: EP

Kind code of ref document: A1