WO2022259631A1 - 移動体、報知方法、及び報知システム - Google Patents

移動体、報知方法、及び報知システム Download PDF

Info

Publication number
WO2022259631A1
WO2022259631A1 PCT/JP2022/006871 JP2022006871W WO2022259631A1 WO 2022259631 A1 WO2022259631 A1 WO 2022259631A1 JP 2022006871 W JP2022006871 W JP 2022006871W WO 2022259631 A1 WO2022259631 A1 WO 2022259631A1
Authority
WO
WIPO (PCT)
Prior art keywords
light source
work
user
notification
section
Prior art date
Application number
PCT/JP2022/006871
Other languages
English (en)
French (fr)
Inventor
秀成 腰前
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to CN202280039490.9A priority Critical patent/CN117412902A/zh
Priority to JP2023527494A priority patent/JPWO2022259631A1/ja
Priority to EP22819821.4A priority patent/EP4353586A1/en
Publication of WO2022259631A1 publication Critical patent/WO2022259631A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/02Arrangements or adaptations of signal or lighting devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/20Aircraft, e.g. drones

Definitions

  • This technology relates to a mobile object, a method of notifying information about the mobile object, and a notification system.
  • an object of the present technology is to provide a mobile body, a notification method, and a notification system that can improve the workability of the user's work.
  • a moving object includes a body section, a notification section, and a notification control section.
  • the notification section is provided in the body section.
  • the notification control unit controls the operation of the notification unit so as to provide information regarding at least one of the orientation of the body and the position on the body as an assistance device for assisting the user's work on the moving body. Report as information.
  • this moving body by controlling the operation of the notification unit provided on the body, information regarding at least one of the orientation of the body and the position on the body assists the user's work on the moving body. is notified as auxiliary information. This makes it possible to improve the workability of the user's work on the mobile body.
  • the notification control unit may notify information regarding the progress of the user's work on the mobile body as the auxiliary information.
  • the notification control unit may notify at least one of information indicating that the user's work on the mobile object has been completed or information indicating that the user's work on the mobile object has failed as the auxiliary information. .
  • the notification control unit When the user's work on the mobile body includes a plurality of steps, the notification control unit provides information indicating that the step has been completed or indicates that the step has failed for each of the plurality of steps. At least one of the information may be notified as the auxiliary information.
  • the moving body may further include a sensor section.
  • the auxiliary information may include information for assisting calibration work for the sensor unit.
  • the sensor unit may include at least one of an inertial sensor, a geomagnetic sensor, or an image sensor.
  • the moving body may further comprise a predetermined functional component provided on the body.
  • the notification control unit may notify, as the auxiliary information for assisting the work of moving the functional component, information indicating the direction in which the functional component is moved.
  • the body section may have a front section, a left side section, a rear section, and a right side section.
  • the notification unit includes a front side light source provided on the front side, a left side light source provided on the left side, a rear side light source provided on the rear side, and the right side. and a right side light source provided on the .
  • the notification control unit controls lighting of each of the front side light source, the left side light source, the rear side light source, and the right side light source, thereby placing the body on the ground. , a portion of the front portion, the left side portion, the rear portion, and the right side portion that is opposite to the ground may be notified.
  • the body section may include an upper surface section and a lower surface section.
  • the notification section may have an upper surface side light source provided on the upper surface portion and a lower surface portion side light source provided on the lower surface portion.
  • the notification control unit controls lighting of each of the upper surface portion side light source and the lower surface portion side light source, so that the upper surface portion and the lower surface portion are turned on for the work of placing the body portion on the ground. You may alert
  • the front side light source has a first light source provided at the boundary between the front side and the left side, and a second light source provided at the boundary between the front side and the right side.
  • the left side light source may include the first light source and a third light source provided at the boundary between the left side surface and the rear surface.
  • the rear surface side light source may include the third light source and a fourth light source provided at the boundary between the rear surface portion and the right side surface portion.
  • the right side light source may have the second light source and the fourth light source.
  • the notification control unit arranges the body section on the ground by controlling lighting of each of the first light source, the second light source, the third light source, and the fourth light source. A portion of the front portion, the left side portion, the rear portion, and the right side portion that is opposite to the ground may be notified of the work.
  • Each of the first light source, the second light source, the third light source, and the fourth light source may be provided at a position included in the upper surface portion and function as the upper surface portion side light source.
  • the notification control unit controls lighting of each of the first light source, the second light source, the third light source, and the fourth light source, thereby placing the body section on the ground. A portion of the upper surface portion and the lower surface portion on the opposite side to the ground may be notified with respect to the work to be performed.
  • the body section may have a front section, a left side section, a rear section, and a right side section.
  • the notification unit includes a front side light source provided on the front side, a left side light source provided on the left side, a rear side light source provided on the rear side, and the right side. and a right side light source provided on the .
  • the notification control unit controls lighting of each of the front side light source, the left side light source, the rear side light source, and the right side light source, thereby holding the body section and performing a predetermined operation. The direction of the body section held by the user may be notified to the work of performing the movement of the .
  • the notification control unit controls lighting of each of the front side light source, the left side light source, the rear side light source, and the right side light source so that the front side, the left side, and the rear Informing the user of the side of the surface portion and the right side portion, or informing the portion of the front portion, the left side portion, the rear side portion, and the right side portion that is opposite to the ground. You may
  • the mobile body may further comprise a plurality of propellers.
  • the fuselage section may include a plurality of holding sections that hold the plurality of propellers.
  • the notification section may include a light source provided in each of the plurality of holding sections.
  • the notification control section may notify the position of the propeller to be replaced by controlling lighting of the light source provided in each of the plurality of holding sections.
  • the notification unit includes at least one of a light source device, a sound output device, or a display device,
  • the notification unit control unit may notify the auxiliary information by controlling at least one of lighting of the light source device, sound output of the sound output device, and display of an image on the display device.
  • the light source device may include a plurality of LEDs (Light Emitting Diodes).
  • the notification control unit may notify the auxiliary information by controlling lighting patterns of the plurality of LEDs.
  • the moving body may further comprise a propeller provided on the body and a motor for rotating the propeller.
  • the motor may function as the audio output device by outputting sound by rotating when the propeller is removed.
  • the mobile body may be configured as a drone.
  • a notification method controls the operation of a notification unit provided on a body of a moving body to provide information about at least one of the direction of the body and the position on the body. and announcing as auxiliary information for assisting the user's work on the moving body.
  • a notification system includes a reception unit and a notification control unit.
  • the reception unit receives an instruction from a user to the effect that the user's work on the mobile object is to be performed.
  • the notification control unit controls the operation of a notification unit provided in a body portion of the moving body when it is accepted that the user is to perform work on the moving body. Alternatively, information regarding at least one of the positions on the body section is notified as auxiliary information for assisting the user's work on the mobile body.
  • FIG. 1 is a schematic diagram illustrating a configuration example of a drone flight control system according to an embodiment of the present technology
  • FIG. 1 is a schematic diagram showing a drone in flight
  • FIG. It is a schematic diagram mainly showing the body part of a drone.
  • It is a block diagram showing an example of functional composition of a drone.
  • It is a block diagram which shows the functional structural example of a control apparatus.
  • 7 is a flow chart showing an operation example of notification of auxiliary information
  • FIG. 4 is a schematic diagram for explaining an example of calibration work of an inertial sensor
  • FIG. 4 is a schematic diagram for explaining an example of calibration work of an inertial sensor
  • FIG. 4 is a schematic diagram for explaining an example of calibration work of an inertial sensor
  • FIG. 4 is a schematic diagram for explaining an example of calibration work of an inertial sensor;
  • FIG. 1 is a schematic diagram showing a configuration example of a drone flight control system according to an embodiment of the present technology.
  • a drone flight control system 1 shown in FIG. 1 is a system to which a notification system according to the present technology is applied.
  • the drone flight control system 1 also corresponds to an embodiment of a mobile object control system according to the present technology.
  • a drone flight control system 1 has a drone 2 and a control device 3 .
  • the drone 2 and the control device 3 are connected so as to be able to communicate with each other.
  • the form of communication for communicably connecting both devices is not limited, and any communication technique may be used.
  • wireless network communication such as WiFi, short-range wireless communication such as Bluetooth (registered trademark), and the like.
  • the drone 2 has a propeller 5 attached to the fuselage section 4 .
  • the drone 2 can fly by rotating the propeller 5 .
  • the control device 3 can control various operations including flight of the drone 2 according to operations (instructions) input by the user 6 .
  • the drone 2 corresponds to an embodiment of a mobile object according to the present technology.
  • a smart phone or a tablet device is used as the control device 3 .
  • An application (application program) for controlling the operation of the drone 2 is installed in these smartphones or the like.
  • a user 6 launches an application for controlling the operation of the drone 2 .
  • GUIs Graphic User Interfaces
  • the application for controlling the operation of the drone 2 can also be said to be an embodiment of the program according to the present technology.
  • a specific configuration of the GUI displayed for controlling the operation of the drone 2 is not limited and may be set arbitrarily.
  • the control device 3 a control device, a transmitter (propo), or the like may be used.
  • FIG. 2 is a schematic diagram showing the drone 2 in flight.
  • the body section 4 of the drone 2 has two legs 13 that contact the ground and support the entire body section 4 when the drone 2 is placed on the ground.
  • the state shown in FIG. 1 is a state in which the drone 2 is placed on the ground (hereinafter referred to as a basic placement state), and the entire body section 4 of the drone 2 is supported by the two legs 13.
  • the tips of the two legs 13 are positioned upward (to contact the ground) so that the distance between the tips (portions that contact the ground in the basic arrangement state) increases. on the opposite side) (hereinafter referred to as the flight attitude state).
  • the drone 2 when the drone 2 starts flying, the propellers 5 rotate, and the entire body section 4 floats upward while maintaining the basic arrangement state shown in FIG. 1 . In this state, the tip ends of the two legs 13 are lifted upwards to shift to the flying attitude shown in FIG. Then, in the flight attitude state, the drone 2 flies in accordance with flight instructions and the like from the control device 3 .
  • the attitude of the drone 2 during flight and the movement at the start of flight are not limited, and any attitude or movement may be adopted.
  • FIG. 3 is a schematic diagram mainly showing the body section 4 of the drone 2. As shown in FIG. FIG. 3 shows the fuselage section 4 in its basic arrangement, which is placed on the ground.
  • FIG. 3A is a perspective view showing the front side of the body section 4.
  • FIG. 3B is a top view of the fuselage section 4 as viewed from above (the side opposite to the ground).
  • the front side of the body section 4 typically means the traveling direction side when the drone 2 moves.
  • the left-right direction when viewing the body section 4 from the front side is defined as the X direction (the direction of the arrow in the X direction is the right side, and the opposite side is the left side).
  • the depth direction is the Y direction when viewing the body portion 4 from the front side (the direction of the arrow in the Y direction is the back side (rear side), and the opposite side is the front side).
  • the vertical direction is defined as the Z direction (the direction of the arrow in the Z direction is the upper side, and the opposite side is the lower side).
  • the body portion 4 includes a body portion 8, four arm portions 9a to 9d, four rotor portions 10a to 10d, a front side holding portion 11, and a rear side holding portion 12. , and two legs 13a and 13b.
  • the body portion 8 has a rectangular parallelepiped shape as an approximate shape.
  • the body portion 8 has a front surface portion 8a facing forward, a left side surface portion 8b facing left, a rear surface portion 8c facing rearward, and a right side surface portion 8d facing right.
  • the main body portion 8 has an upper surface portion 8e facing upward and a lower surface portion 8f facing downward. As shown in FIG.
  • the body portion 8 is arranged at the center position of the body portion 4 when the body portion 4 is viewed from above.
  • the body section 4 is configured so that the body section 8 is positioned at the center when the body section 4 is viewed from above.
  • the configuration is not limited to such a configuration.
  • the four arm portions 9a to 9d are configured to extend radially so as to be symmetrical with respect to the body portion 8 when the body portion 4 is viewed from above.
  • the four arm portions 9a to 9d are configured to extend respectively from four corner positions of the body portion 8 when the body portion 4 is viewed from above.
  • the arm portion 9a is configured to extend to the front left side from the boundary between the front portion 8a and the left side portion 8b of the body portion 8 .
  • the arm portion 9b is configured to extend left rearward from the boundary between the left side surface portion 8b and the rear surface portion 8c of the body portion 8 .
  • the arm portion 9c is configured to extend right rearward from the boundary between the rear surface portion 8c and the right side surface portion 8d of the main body portion 8 .
  • the arm portion 9d is configured to extend to the right front side from the boundary between the right side portion 8d of the main body portion 8 and the front portion 8a.
  • each of the four arm portions 9a to 9b is connected to the body portion 8 so as to extend upward.
  • the four arm portions 9a-9d have the same configuration and the same length.
  • the four rotor portions 10a-10d are configured at the tips of the four arm portions 9a-9d, respectively.
  • Each rotor portion 10 (10a-10d) has a motor 19 (see FIG. 4) connected to the propeller 5 (5a-5d). When the motor 19 is driven, the propeller 5 rotates and lift is generated upward.
  • four propellers 5a to 5d are arranged at symmetrical positions with respect to the body portion 8 when the body portion 4 is viewed from above. Rotation of the four propellers 5a to 5d enables stable flight and highly accurate flight control.
  • the specific configuration of the rotor portion 10 (the specific configuration of the motor 19, the configuration of the connection mechanism with the propeller 5, etc.) is not limited and may be designed arbitrarily.
  • the front side holding portion 11 is connected to the front portion of the lower surface portion 8 f of the main body portion 8 .
  • the front side holding portion 11 is configured to protrude forward and downward from the main body portion 8 .
  • the rear holding portion 12 is connected to the rear portion of the lower surface portion 8f of the main body portion 8 .
  • the rear holding portion 12 is configured to protrude rearward and downward from the main body portion 8 .
  • the front side holding portion 11 and the rear side holding portion 12 have substantially the same configuration. Further, the front side holding portion 11 and the rear side holding portion 12 are configured to be symmetrical with respect to the main body portion 8 .
  • the two legs 13a and 13b are connected to the lower surface 8f of the main body 8.
  • Each leg 13 has a T-shape and has a connecting portion 14a (14b) and a tip portion 15b (15b).
  • the connection portion 14a (14b) and the tip portion 15b (15b) have a rod-like shape and are connected so as to be orthogonal to each other.
  • the left leg portion 13a is connected to a connection portion 14a extending downward and to the left side from the left side portion of the lower surface portion 8f, and the center of the left leg portion 13a is connected to the connection portion 14a. and a tip portion 15a.
  • the tip portion 15a extends along the Y direction and has a front end portion 16a and a rear end portion 17a.
  • the right leg portion 13b has a connection portion 14b extending downward and to the right side from the right side portion of the lower surface portion 8f, and a tip portion 15b whose center is connected to the connection portion 14b.
  • the tip portion 15b extends along the Y direction and has a front end portion 16a and a rear end portion 17b.
  • the front end portion 15a of the leg portion 13a and the front end portion 15b of the leg portion 13b are in contact with the ground, so that the entire body portion 4 can be stably supported.
  • the fuselage section 4 corresponds to an embodiment of the fuselage section according to the present technology.
  • FIG. 4 is a block diagram showing a functional configuration example of the drone 2.
  • the drone 2 has a motor 19 , an LED (Light Emitting Diode) 20 , a speaker 21 , a communication section 22 , a storage section 23 , a sensor section 24 and a controller 25 .
  • the motor 19 is arranged in four rotor portions 10a to 10d.
  • a motor 19 is connected to the propeller 5 .
  • the LEDs 20 are installed on the outer peripheries of the four rotor portions 10a to 10d. Therefore, the body section 4 is equipped with four LEDs 20a to 20d.
  • LED20a is installed in the outer periphery of the rotor part 10a.
  • LED20b is installed in the outer periphery of the rotor part 10b.
  • LED20c is installed in the outer periphery of the rotor part 10c.
  • LED20d is installed in the outer periphery of the rotor part 10d.
  • the four LEDs 20a to 20d are arranged at symmetrical positions with respect to the body portion 8 when the body portion 4 is viewed from above.
  • Each LED 20 is installed so as to be able to emit light mainly in the extending direction of the arm portion 9 as the front direction. Therefore, by controlling the lighting of the four LEDs 20a to 20d, it is possible to emit light to the surroundings of the body section 4 (that is, the surroundings of the drone 2).
  • each LED 20 can emit light of a plurality of colors.
  • the LEDs 20a to 20d correspond to an embodiment of the notification section provided on the body section according to the present technology.
  • the LEDs 20a to 20d also correspond to an embodiment of the light source device and the plurality of LEDs according to the present technology. Any other device may be used as the notification unit and the light source device according to the present technology.
  • an LD Laser Diode
  • a lamp or the like may be used.
  • different types of light source devices may be used in combination (combined use of LD and LED, etc.).
  • the speaker 21 can output various sounds, and is provided in the main body 8 (detailed illustration is omitted). A specific configuration of the speaker 21 is not limited.
  • the speaker 21 corresponds to an embodiment of the notification section provided in the body section according to the present technology.
  • the speaker 21 also corresponds to an embodiment of the sound output device according to the present technology. Any other device may be used as the notification unit and the sound output device according to the present technology.
  • a predetermined sound notification sound, error sound, etc.
  • the motor 19 with the propeller 5 removed functions as an embodiment of the sound output device.
  • a predetermined sound may be output by rotating the motor 19 while the propeller 5 is connected.
  • a device for example, LED 20 or the like
  • a configuration in which the speaker 21 is not used as the sound output device and only the motor 19 is used is also conceivable.
  • the communication unit 22 is a module for performing network communication, short-range wireless communication, etc. with other devices.
  • a wireless LAN module such as WiFi
  • a communication module such as Bluetooth (registered trademark) are provided.
  • communication with the control device 3 is realized via the communication unit 22 .
  • the storage unit 23 is a storage device such as a nonvolatile memory, and for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like is used. In addition, any computer-readable non-transitory storage medium may be used.
  • a control program for controlling the overall operation of the drone 2 is stored in the storage unit 23 .
  • various data such as data necessary for flight such as map data are stored.
  • the sensor unit 24 has an inertial sensor 26 , a compass 27 , a stereo camera 28 , an FPV (First Person View) camera 29 and a main camera 30 .
  • a camera imaging device is also included in the sensor.
  • the inertial sensor 26 is a sensor capable of measuring inertial force.
  • the inertial sensor 26 is installed in the body portion 8 of the body portion 4 (specific illustration is omitted).
  • inertial sensor 26 is configured to include at least one of an acceleration sensor and an angular velocity sensor.
  • an IMU (Inertial Measurement Unit) sensor is used as the inertial sensor 26 .
  • IMU sensors are also called inertial measurement units.
  • the IMU sensor is capable of detecting the acceleration and angular velocity of the drone 2, for example, with respect to three mutually orthogonal axes.
  • the inertial sensor 26 only an acceleration sensor may be used, or only an angular velocity sensor may be used. Any configuration may be adopted as a specific configuration of the inertial sensor 26 .
  • a compass 27 is used to detect the direction in which the drone 2 is pointing.
  • the compass 27 is installed in the body portion 8 of the body portion 4 (specific illustration is omitted).
  • a specific configuration of the compass 27 is not limited, and any configuration such as a three-axis electronic compass may be adopted.
  • the stereo camera 28 is used as a ranging sensor.
  • four stereo cameras 28 for the front, left, rear, and right sides are used.
  • the front stereo camera 28 is provided on the front side holding portion 11 of the body portion 4 (specific illustration is omitted).
  • the rear stereo camera 28 is provided on the rear side holding portion 12 (specific illustration is omitted).
  • the stereo camera 28 for the left side is provided on the left side portion 8b of the main body portion 8 (specific illustration is omitted).
  • the rear stereo camera 28 is provided on the rear side holding portion 12 (specific illustration is omitted).
  • the right side stereo camera 28 is provided on the right side portion 8d of the main body portion 8 (specific illustration is omitted).
  • a specific configuration of the stereo camera 28 is not limited.
  • Other ranging sensors such as a ToF (Time Of Flight) camera may also be used.
  • the FPV camera 29 photographs the front range in which the drone 2 travels.
  • the FVP camera 29 is provided on the front side holding portion 11 of the body portion 4 (specific illustration is omitted).
  • a specific configuration of the FPV camera 29 is not limited.
  • the main camera 30 is installed on the lower surface portion 8e of the main body portion 8 via a three-axis gimbal 31, as illustrated in FIG.
  • the main camera 30 and the three-axis gimbal 31 are detachably attached to the main body 8 of the drone 2 .
  • the user 6 can attach a desired camera or 3-axis gimbal to the main body 8 and use it as the main camera 30 .
  • Specific configurations of the main camera 30 and the three-axis gimbal 31 are not limited.
  • the type of sensor provided as the sensor unit 24 is not limited, and any sensor may be provided.
  • a GPS sensor that acquires information on the current position of the drone 2 may be installed.
  • a temperature sensor, a humidity sensor, or the like may be mounted.
  • the sensor unit 24 corresponds to one embodiment of the sensor unit according to the present technology.
  • the inertial sensor 26 and compass 27 correspond to an embodiment of the inertial sensor and geomagnetic sensor according to the present technology.
  • the stereo camera 28, the FVP camera 29, and the main camera 30 correspond to an embodiment of an image sensor (imaging device) according to the present technology.
  • the controller 25 controls the operation of each block that the drone 2 has.
  • the controller 25 has hardware necessary for a computer, such as a CPU and memory (RAM, ROM). Various processes are executed by the CPU executing a program according to the present technology stored in the storage unit 23 or memory.
  • a device such as a PLD (Programmable Logic Device) such as an FPGA (Field Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit) may be used.
  • the CPU of the controller 25 executes the program according to the present technology, thereby realizing the flight control unit 32, the shooting control unit 33, the calibration processing unit 34, and the UI presentation unit 35 as functional blocks. .
  • These functional blocks execute the information processing method (notification method) according to the present embodiment.
  • dedicated hardware such as an IC (integrated circuit) may be used as appropriate.
  • the flight control unit 32 executes various processes related to flight of the drone 2 .
  • the motor 19 and the like are controlled according to instructions input to the control device 3, and the traveling direction, altitude, speed, etc. of the drone 2 are controlled.
  • autonomous flight may be possible.
  • the flight of the drone 2 may be controlled based on the detection result (sensing result) from the sensor unit 24 or the like.
  • An algorithm for controlling the flight of the drone 2 is not limited, and any algorithm may be used.
  • any machine learning algorithm using a DNN (Deep Neural Network) or the like may be used.
  • AI artificial intelligence
  • the shooting control unit 33 controls shooting of the four stereo cameras 28 , the FVP camera 29 and the main camera 30 .
  • shooting by each camera may be controlled according to instructions input to the control device 3 .
  • automatic photography may also be performed.
  • the shooting control unit 33 may control the three-axis gimbal 31 and control the shooting direction and angle of view of the main camera 30 .
  • arbitrary imaging parameters may be controlled. Algorithms for controlling the shooting of each camera are not limited, and arbitrary algorithms may be used.
  • the calibration processing section 34 executes calibration processing for the sensor section 24 .
  • the inertial sensor 26, the compass 27, and each camera can be calibrated.
  • the UI presentation unit 35 notifies the user 6 of auxiliary information by controlling the operation of the notification unit (motor 19, LED 20, speaker 21).
  • the auxiliary information is information for assisting the work of the user 6 on the moving body (drone 2), and will be described later in detail.
  • the UI presentation unit 35 corresponds to an embodiment of the notification control unit according to the present technology.
  • FIG. 5 is a block diagram showing a functional configuration example of the control device 3.
  • the control device 3 has a display section 37 , an operation section 38 , a speaker 39 , a microphone 40 , a communication section 41 , a storage section 42 and a controller 43 .
  • the display unit 37 is, for example, a display device using liquid crystal, EL (Electro-Luminescence), etc., and displays various images, various GUIs, and the like.
  • the operating unit 38 is, for example, a keyboard, pointing device, or other operating device.
  • a touch panel 7 is configured in the control device 3 in this embodiment.
  • the touch panel 7 is a device having the functions of both the display section 37 and the operation section 38 shown in FIG.
  • the speaker 39 can output various sounds.
  • the speaker 39 outputs various sounds such as a voice guide, a notification sound, an error sound, etc. regarding the control of the drone 2 .
  • a microphone 40 acquires the voice of the user 6 .
  • voice input by the user 6 is possible using the microphone 40 . That is, the user 6 can input various instructions by voice.
  • the communication unit 41 is a module for performing network communication, short-range wireless communication, etc. with other devices.
  • a wireless LAN module such as WiFi
  • a communication module such as Bluetooth (registered trademark) are provided.
  • communication with the drone 2 is realized via the communication unit 41 .
  • the storage unit 42 is a storage device such as a nonvolatile memory, and for example, an HDD, an SSD, or the like is used. In addition, any computer-readable non-transitory storage medium may be used.
  • a control program for controlling the overall operation of the control device 3 is stored in the storage unit 42 .
  • An application (application program) for controlling the operation of the drone 2 is installed in the storage unit 42 .
  • various data such as user 6 information and map data are stored.
  • the controller 43 controls the operation of each block of the control device 3 .
  • the controller 43 has hardware necessary for a computer such as a CPU and memory (RAM, ROM). Various processes are executed by the CPU executing a program according to the present technology stored in the storage unit 42 or memory.
  • a PLD such as FPGA or a device such as ASIC may be used.
  • the CPU of the controller 43 executes the program according to the present technology, thereby realizing a flight instruction unit 44, a shooting instruction unit 45, a work instruction unit 46, and a UI presentation unit 47 as functional blocks.
  • These functional blocks execute the information processing method according to the present embodiment.
  • dedicated hardware such as an IC (integrated circuit) may be used as appropriate.
  • the flight instruction unit 44 transmits various instructions regarding the flight of the drone 2 to the drone 2 in response to instruction input from the user 6 (including input via the touch panel 7, voice input, etc.). For example, instructions related to flight plans such as destinations and flight routes, and instructions related to flight operations such as traveling directions and speeds are transmitted.
  • the photographing instruction unit 45 transmits various instructions regarding photographing of each camera mounted on the drone 2 to the drone 2 in response to an instruction input from the user 6 . For example, various instructions related to shooting such as the shooting direction, angle of view, focal length, and shooting mode of the main camera 30 are transmitted.
  • the work instruction unit 46 transmits various instructions regarding the work of the user 6 to the drone 2 to the drone 2 .
  • a message to the effect that the work of the user 6 is to be started is transmitted.
  • the work of the user 6 on the drone 2 includes, for example, calibration work on the sensor unit 24 .
  • the user 6 performs calibration work for the inertial sensor 26, the compass 27, and each camera, the user 6 activates an application for controlling the drone 2 and inputs the start of work.
  • the operation instructing unit 46 transmits an instruction to execute the calibration process to the drone 2, and the drone 2 shifts to the execution mode of the calibration process.
  • Work performed by the user 6 on the drone 2 includes work to replace parts mounted on the drone 2 .
  • arbitrary work such as maintenance work and operation check work is included.
  • the work instructing unit 46 transmits an instruction to the drone 2 to execute the process corresponding to the work, and the drone 2 shifts to the execution mode of the process.
  • the UI presentation unit 47 notifies the user 6 of various information by controlling the operation of the touch panel 7 (the display unit 37 and the operation unit 38) and the speaker 39.
  • FIG. For example, the auxiliary information described above may be displayed on the touch panel 7 or the like of the control device 3 or output via the speaker 39 .
  • the control device 3 corresponds to an embodiment of a receiving unit that receives an instruction from the user to the effect that the user's work on the mobile object is to be performed.
  • the drone 2 defines a front portion, a left side portion, a rear portion, a right side portion, a bottom portion, and a top portion.
  • the front part includes a part facing the front side of the drone 2 .
  • a part that is recognized as being positioned on the front side is also included in the front part.
  • the facing portion is included in the front portion.
  • the parts that protrude forward are included in the front part, including the parts that do not face the front.
  • the front surface portion 8a of the body portion 8, the forward facing portions of the arm portions 9a and 9d, the rotor portions 10a and 10d protruding forward, the front holding portion 11, and the front portion of the leg portion 13a are provided.
  • the side end portion 16a, the front side end portion 16b of the leg portion 13b, and the like are parts included in the front portion.
  • the left side portion includes a portion facing the left side of the drone 2 . Further, when the user 6 looks at the drone 2 as a whole, a part that is recognized as being located on the left side is also included in the left side part. For example, when the drone 2 is viewed from the left side, the facing portion is included in the left side portion. In addition, the portion protruding leftward is included in the left side portion, including the portion not facing the left side.
  • the portion 15a and the like are portions included in the left side portion.
  • the rear portion includes a portion facing the rear side of the drone 2 . Also, when the user 6 looks at the drone 2 as a whole, a part that is recognized as being located on the rear side is also included in the rear part. For example, when the drone 2 is viewed from the rear side, the facing portion is included in the rear surface portion. In addition, the parts that protrude rearward are included in the rear surface part, including the parts that do not face the rear side.
  • the rear surface portion 8c of the main body portion 8, the portions facing the rear side of the arm portions 9b and 9c, the rotor portions 10b and 10c protruding rearward, the rear side holding portion 12, and the rear portion of the leg portion 13a are provided.
  • the side end portion 17a, the rear side end portion 17b of the leg portion 13b, and the like are parts included in the rear surface portion.
  • the right side portion includes a portion facing the right side of the drone 2 . Moreover, when the user 6 looks at the drone 2 as a whole, a part that is recognized as being located on the right side is also included in the right side part. For example, when the drone 2 is viewed from the right side, the facing portion is included in the right side portion. In addition, the portion protruding to the right side is a portion included in the right side portion, including the portion not facing the right side.
  • the right side portion 8b of the main body portion 8 the portions facing the right side of the arm portions 9c and db, the rotor portions 10c and 10d projecting to the right side, the connection portion 14b and the tip of the leg portion 13b
  • the portion 15b and the like are portions included in the right side portion.
  • the upper surface portion includes a portion facing upward of the drone 2 . Moreover, when the user 6 looks at the drone 2 as a whole, a part that is recognized as being located on the upper side is also included in the upper surface part. For example, when the drone 2 is viewed from above, the facing portion is included in the upper surface portion. In addition, the portion protruding upward is included in the upper surface portion, including the portion not facing upward.
  • the upper surface portion includes the upper surface portion 8e of the main body portion 8, the upwardly facing portions of the arm portions 9a to 9d, the rotor portions 10a to 10d protruding upward, and the like.
  • the lower surface portion includes a portion facing downward of the drone 2 .
  • a part that is recognized as being positioned on the lower side is also a part included in the lower surface portion.
  • the facing portion is included in the lower surface portion.
  • the portion protruding downward is a portion included in the lower surface portion, including the portion not facing downward.
  • the lower surface portion 8f of the main body portion 8 the downward facing portions of the arm portions 9a to 9d and the rotor portions 10a to 10d, the tip portions 15a of the leg portions 13a projecting downward, and the leg portions
  • the tip portion 15b of 13b and the like are parts included in the lower surface portion.
  • the front side, Recognized parts located on the left side, rear side, right side, upper side, and lower side are parts included in the front part, left side part, rear part, right side part, top part, and bottom part becomes.
  • the LED 20a installed on the rotor portion 10a functions as an embodiment of a first light source provided on the boundary between the front portion and the left side portion. Further, the LED 20a functions as an embodiment of a front side light source provided on the front side, and also functions as an embodiment of a left side light source provided on the left side.
  • the LED 20b installed on the rotor portion 10b functions as an embodiment of a third light source provided at the boundary between the left side portion and the rear portion. Further, the LED 20b functions as an embodiment of a left side light source provided on the left side, and also functions as an embodiment of a rear side light source provided on the rear side.
  • the LED 20c installed on the rotor portion 10c functions as an embodiment of a fourth light source provided on the boundary between the rear surface portion and the right side surface portion. Further, the LED 20c functions as an embodiment of a rear side light source provided on the rear side, and also functions as an embodiment of a right side light source provided on the right side.
  • the LED 20d installed on the rotor portion 10d functions as an embodiment of a second light source provided on the boundary between the front portion and the right side portion. Further, the LED 20d functions as an embodiment of a right side light source provided on the right side, and also functions as an embodiment of a front side light source provided on the front side. That is, in this embodiment, the front side light source section includes the LEDs 20a and 20d.
  • the left side light source section includes LEDs 20a and 20b.
  • the rear side light source section includes LEDs 20b and 20c.
  • the right side light source section includes LEDs 20c and 20d.
  • the LEDs 20a to 20d are provided in the rotor portions 10a to 10d included in the upper surface portion. That is, each of the LEDs 20a to 20d is provided at a position included in the upper surface portion. Therefore, each of the LEDs 20a to 20d also functions as an upper surface side light source provided on the upper surface.
  • the UI presentation unit 35 of the drone 2 controls the operations of the LED 20, the speaker 21, and the like, so that the user 6 is notified of auxiliary information for assisting the user 6 in working with the drone 2. be done.
  • the auxiliary information includes information regarding at least one of the orientation of the fuselage 4 and the position on the fuselage 4 . In this embodiment, both the information regarding the orientation of the body section 4 and the information regarding the position on the body section 4 are output as auxiliary information.
  • the information about the orientation of the airframe section 4 indicates in which orientation the drone 2 should be placed on the ground or the like in a specific orientation (specific posture), for example, when the user 6 performs work. Contains information. For example, information that allows the user 6 to intuitively grasp which orientation should be arranged is reported as auxiliary information. Alternatively, information indicating in which direction the drone 2 is arranged may be notified as auxiliary information when the user 6 is working. In addition, any information regarding the orientation of the body section 4 that can assist the work of the user 6 may be notified as auxiliary information.
  • the information about the position on the body section 4 includes, for example, information indicating the position of a part to be worked on when the user 6 works. For example, information that allows the user 6 to intuitively grasp which part is the part to be worked on is notified as auxiliary information. For example, information indicating the position of a functional component to be replaced can be notified as auxiliary information. Alternatively, information indicating the position of the functional component to be maintained may be notified as auxiliary information. In addition, any information regarding the position on the body section 4 that can assist the work of the user 6 may be notified as auxiliary information.
  • the functional parts provided in the body section 4 include the propeller 5, the motor 19, each device included in the sensor section 24, and the like.
  • the functional parts also include the LED 20 and the speaker 21 that function as a notification unit.
  • auxiliary information information different from the information regarding the orientation of the body section 4 and the position on the body section 4 may be reported.
  • information regarding the progress of work performed by the user 6 on the drone 2 is notified as auxiliary information.
  • auxiliary information information indicating that the work of the user 6 on the drone 2 has been completed.
  • auxiliary information information indicating that the work of the user 6 on the drone 2 has failed.
  • auxiliary information information indicating that each of the plurality of steps has been completed is notified as auxiliary information.
  • auxiliary information for each of the plurality of steps. All of these pieces of auxiliary information may be notified, or any one of them may be notified.
  • the UI presenting unit 35 notifies the user 6 of these various types of auxiliary information by controlling the lighting of the four LEDs 20a to 20d functioning as light source devices. For example, by controlling the lighting patterns of the four LEDs 20a to 20b, various different auxiliary information can be notified.
  • the UI presenting unit 35 notifies the user 6 of various types of auxiliary information by controlling the sound output of the motor 19 and the speaker 21 when the propeller 5 functioning as a sound output device is removed. do. For example, by outputting voice information including the contents of the auxiliary information, or by outputting buzzers, notification sounds, error sounds, etc. of various tones, various different auxiliary information can be notified.
  • FIG. 6 is a flow chart showing an operation example of notifying auxiliary information.
  • the notification of the auxiliary information shown in FIG. 4 will be described using the calibration work as an example.
  • FIG. 7 to 9 are schematic diagrams for explaining an example of calibration work for the inertial sensor 26.
  • FIG. 7 to 9 the XYZ coordinate axes are schematically illustrated so that the orientation of the body section 4 can be easily understood (the XYZ coordinate axes are illustrated without reflecting the slight inclination of the body section 4). ing).
  • the inertial sensor 26 is calibrated with the propeller 5 and the main camera 30 (three-axis gimbal 31) removed.
  • the user 6 operates the control device 3 to activate an application for controlling the operation of the drone 2 .
  • the user 6 inputs an instruction to perform calibration of the inertial sensor 26 by a predetermined touch operation or voice input.
  • An instruction to perform the calibration process of the inertial sensor 26 is transmitted to the drone 2 by the work instruction unit 46 of the control device 3 .
  • the drone 2 is set to a mode in which the inertial sensor 26 is calibrated.
  • a step to be executed is set by the calibration processing unit 34 of the drone 2 (step 101).
  • the inertial sensor 26 calibration operation includes multiple steps. Specifically, the user 6 places the airframe section 4 on the ground 49 multiple times in different orientations. Measurements are then performed by the inertial sensors 26 with the fuselage section 4 placed on the ground 49 in each orientation. Calibration of the inertial sensor 26 is performed based on the measurement results corresponding to each orientation.
  • the calibration work and calibration process performed by the user 6 to calibrate the inertial sensor 26 are not limited.
  • step 101 a step in which measurement is executed by the inertial sensor 26 with the body section 4 placed on the ground 49 with the front portion of the body section 4 facing upward is set as a step to be executed.
  • the part facing upward of the body part 4 corresponds to the part opposite to the ground 49 .
  • the UI presenting unit 35 notifies the auxiliary information about the step (step 102).
  • the lighting of each of the LEDs 20a to 20d it is possible to notify the part on the opposite side of the ground 49 among the front part, the left side part, the rear part, and the right side part. be.
  • LEDs 20a and 20d provided in rotor portions 10a and 10d included in the front portion are lit.
  • LEDs 20a and 20d are lit blue.
  • a predetermined notification sound is output by rotating the motors 19 provided in the rotor portions 10a and 10d.
  • the speaker 21 outputs a voice saying, "Place the aircraft on the ground with the front part where the LED is illuminated facing up.”
  • the user 6 can intuitively grasp that the body section 4 is to be placed on the ground 49 with the front section facing upward.
  • the UI presentation unit 35 of the drone 2 and the UI presentation unit 47 of the control device 3 are interlocked, so that the control device 3 also notifies the auxiliary information.
  • the speaker 39 of the control device 3 also outputs a voice such as "Place the aircraft on the ground with the front part where the LED is illuminated facing up.”
  • the touch panel 7 displays a text to the effect that the body section 4 is placed on the ground 49 with the front side facing upward, and an image of the body section 4 that is placed on the ground 49 with the front side facing upward. be done.
  • the calibration processing unit 34 determines whether or not the step was successful (step 103). That is, it is determined whether or not the inertial sensor 26 has appropriately performed measurement with the body section 4 placed on the ground 49 with the front portion of the body section 4 directed upward.
  • a step is determined to have failed, such as when the inertial sensor 26 fails to properly perform a measurement. For example, when it is determined that the measurement result of the inertial sensor 26 is not appropriate as the measurement result of the state in which the front portion of the body section 4 is directed upward, it is determined that the step has failed. For example, if any of the left side, rear, and right side, other than the front side, is directed upward, it is determined that the step has failed.
  • auxiliary information information indicating an error is notified as auxiliary information (step 104).
  • the LEDs 20a and 20d on the front side are highlighted. For example, LEDs 20a and 20d are lit red.
  • the lighting of the LEDs 20a to 20d is controlled and an error is notified.
  • a predetermined error sound is output by rotating the motors 19 provided in the rotor portions 10a and 10b.
  • the speaker 21 outputs a voice such as "Calibration failed. Please check the orientation of the aircraft.”
  • Auxiliary information indicating an error corresponds to auxiliary information indicating that a step has failed. By notifying such auxiliary information, the user 6 can intuitively grasp that the step of the calibration work has failed. This makes it possible to easily change the orientation of the body section 4 .
  • a notification method of auxiliary information indicating an error is not limited, and may be set arbitrarily. Of course, auxiliary information indicating an error may also be reported from the control device 3 .
  • the auxiliary information indicating an error also corresponds to auxiliary information indicating that the user's 6 work on the drone 2 has failed.
  • step 105 it is determined whether all steps of the calibration operation have been completed.
  • step 105 becomes No and the process proceeds to step 106 .
  • auxiliary information is reported indicating that the step has been completed.
  • the four LEDs 20a-20d are lit in a predetermined lighting pattern. For example, four LEDs 20a-20d are lit green.
  • a predetermined notification sound is output by rotating the motors 19 provided in the four rotor portions 10a to 10d.
  • the speaker 21 outputs a voice message such as "The step has been completed. Please proceed to the next step.”
  • the notification method of auxiliary information indicating that the step has been completed is not limited, and may be set arbitrarily. Of course, auxiliary information indicating that the step has been completed may also be notified from the control device 3 .
  • a step to be executed is set.
  • a step is set in which measurement is performed by the inertial sensor 26 in a state in which the body section 4 is placed on the ground 49 with the left side surface of the body section 4 facing upward. .
  • auxiliary information about the step is announced.
  • LEDs 20a and 20b provided on rotor portions 10a and 10b included in the left side portion are lit.
  • LEDs 20a and 20b are lit blue.
  • output of a predetermined notification sound by the motor 19 and output of a predetermined sound from the speaker 21 are executed.
  • Auxiliary information is also reported from the control device 3 . This allows the user 6 to intuitively grasp that the body section 4 is to be placed on the ground 49 with the left side facing upward.
  • step 104 information indicating an error is notified as auxiliary information. For example, LEDs 20a and 20c are lit red.
  • output of a predetermined error sound by the motor 19 and output of a predetermined sound from the speaker 21 are executed.
  • Auxiliary information is also reported from the control device 3 . This enables the user 6 to intuitively grasp that the step of the calibration work has failed.
  • step 106 auxiliary information is reported indicating that the step has been completed. For example, four LEDs 20a-20d are lit green. In addition, output of a predetermined notification sound by the motor 19 and output of a predetermined sound from the speaker 21 are executed. Auxiliary information is also reported from the control device 3 . This enables the user 6 to intuitively grasp that the steps of the calibration work have been successful and the progress of the calibration work.
  • a step to be executed is set.
  • a step is set in which measurement is performed by the inertial sensor 26 in a state in which the body section 4 is placed on the ground 49 with the rear surface portion of the body section 4 facing upward. .
  • auxiliary information regarding the step is notified.
  • the LEDs 20b and 20c provided in the rotor portions 10b and 10c included in the rear surface portion are lit.
  • LEDs 20b and 20c are lit blue.
  • output of a predetermined notification sound by the motor 19 and output of a predetermined sound from the speaker 21 are executed.
  • Auxiliary information is also reported from the control device 3 . This enables the user 6 to intuitively grasp that the body section 4 is to be placed on the ground 49 with the rear surface facing upward.
  • step 104 information indicating an error is notified as auxiliary information (step 104). For example, LEDs 20b and 20c are lit red.
  • the motor 19 outputs a predetermined error sound and the speaker 21 outputs a predetermined sound.
  • Auxiliary information is also reported from the control device 3 . This enables the user 6 to intuitively grasp that the step of the calibration work has failed.
  • step 106 auxiliary information is reported indicating that the step has been completed. For example, four LEDs 20a-20d are lit green. In addition, output of a predetermined notification sound by the motor 19 and output of a predetermined sound from the speaker 21 are executed. Auxiliary information is also reported from the control device 3 . This enables the user 6 to intuitively grasp that the steps of the calibration work have been successful and the progress of the calibration work.
  • a step to be executed is set.
  • a step is set in which measurement is performed by the inertial sensor 26 in a state in which the body section 4 is placed on the ground 49 with the right side surface of the body section 4 facing upward. .
  • auxiliary information about the step is announced.
  • the LEDs 20c and 20d provided in the rotor portions 10c and 10d included in the right side portion are lit.
  • LEDs 20c and 20d are lit blue.
  • output of a predetermined notification sound by the motor 19 and output of a predetermined sound from the speaker 21 are executed.
  • Auxiliary information is also reported from the control device 3 . This allows the user 6 to intuitively grasp that the body section 4 is to be placed on the ground 49 with the right side facing upward.
  • step 104 information indicating an error is notified as auxiliary information. For example, LEDs 20c and 20d are lit red.
  • the motor 19 outputs a predetermined error sound and the speaker 21 outputs a predetermined sound.
  • Auxiliary information is also reported from the control device 3 . This enables the user 6 to intuitively grasp that the step of the calibration work has failed.
  • step 105 it is determined that all the steps of the calibration work have been completed (Yes), and the process proceeds to step 107.
  • auxiliary information indicating that the user 6 has completed the work on the drone 2 is notified. That is, auxiliary information indicating that the calibration work for the inertial sensor 26 has been completed is notified.
  • the four LEDs 20a-20d are lit in a predetermined lighting pattern. For example, four LEDs 20a to 20d are lit in order of green, red, and blue.
  • a predetermined notification sound is output by rotating the motors 19 provided in the four rotor portions 10a to 10d.
  • the speaker 21 outputs a voice message such as "The calibration work has been completed. Thank you for your hard work.” By notifying such auxiliary information, the user 6 can intuitively grasp that the calibration work has been successfully completed.
  • auxiliary information indicating that the user 6 has completed the work on the drone 2 is not limited, and may be set arbitrarily.
  • auxiliary information indicating that the user 6 has completed the work on the drone 2 may also be reported from the control device 3 .
  • the user 6 inputs an instruction to perform calibration of the compass 27 , and the drone 2 is set to a mode in which the compass 27 is calibrated.
  • a step to be executed is set.
  • the user 6 holds the body section 4 so that the front portion of the body section 4 faces the user 6 . Then, while holding the body section 4, the user 6 rotates clockwise 360 degrees on the spot.
  • a step in which the compass 27 performs a measurement while the operation is being performed is set as a step to be performed.
  • the calibration work and calibration process performed by the user 6 to calibrate the compass 27 are not limited.
  • the UI presenting unit 35 notifies the auxiliary information about the step (step 102).
  • the LEDs 20a and 20d provided in the rotor portions 10a and 10d included in the front portion are lit.
  • LEDs 20a and 20d are lit blue.
  • a predetermined notification sound is output by rotating the motors 19 provided in the rotor portions 10a and 10d.
  • the speaker 21 outputs a voice such as "Turn clockwise on the spot with the front part where the LED is lit facing the direction of the user.”
  • the auxiliary information may also be notified from the control device 3 .
  • the calibration processing unit 34 determines whether or not the step was successful (step 103).
  • a step is determined to have failed, such as when the inertial sensor 26 fails to properly perform a measurement. For example, if any of the left side, back, and right side, other than the front side, is facing the user 6, it is determined that the step has failed.
  • auxiliary information information indicating an error is notified as auxiliary information (step 104).
  • the LEDs 20a and 20d on the front side are highlighted. For example, LEDs 20a and 20d are lit red.
  • the lighting of the LEDs 20a to 20d is controlled and an error is notified.
  • a predetermined error sound is output by rotating the motors 19 provided in the rotor portions 10a and 10b.
  • the speaker 21 outputs a voice such as "Calibration failed. Please check the orientation of the aircraft.”
  • Auxiliary information indicating an error corresponds to auxiliary information indicating that a step has failed. By notifying such auxiliary information, the user 6 can intuitively grasp that the calibration work has failed. This makes it possible to easily change the orientation of the body section 4 .
  • a notification method of auxiliary information indicating an error is not limited, and may be set arbitrarily. Of course, auxiliary information indicating an error may also be reported from the control device 3 .
  • step 105 it is determined whether all steps of the calibration operation have been completed. In this embodiment, the calibration of the compass 27 is completed at this point. Therefore, in step 105, it is determined that all steps of the calibration work have been completed (Yes), and step 107 is proceeded to.
  • auxiliary information indicating that the user 6 has completed the work on the drone 2 is notified. That is, auxiliary information indicating that the compass 27 has been calibrated is notified.
  • the four LEDs 20a-20d are lit in a predetermined lighting pattern. For example, the four LEDs 20a-20d are lit in order of green, red, and blue.
  • a predetermined notification sound is output by rotating the motors 19 provided in the four rotor portions 10a to 10d.
  • the speaker 21 outputs a voice message such as "The calibration work has been completed. Thank you for your hard work.” By notifying such auxiliary information, the user 6 can intuitively grasp that the calibration work has been successfully completed.
  • a notification method of the auxiliary information indicating that the user 6 has completed the work on the drone 2 is not limited, and may be set arbitrarily.
  • auxiliary information indicating that the user 6 has completed the work on the drone 2 may also be reported from the control device 3 .
  • the propellers 5a-5d are installed in each of the rotor portions 10a-10d.
  • the user 6 inputs an instruction to execute the propeller 5 replacement work, and the drone 2 is set to a mode for executing the propeller 5 replacement process.
  • the UI presentation unit 35 of the drone 2 determines which propeller 5 needs to be replaced among the propellers 5a to 5d.
  • the LED 20 provided on the rotor section 10 on which the propeller 5 that requires replacement is installed is lit. This allows the user 6 to intuitively grasp the position of the propeller 5 to be replaced.
  • a predetermined notification sound may be output by rotating the motor 19 provided in the rotor section 10 on which the propeller 5 requiring replacement is installed.
  • the speaker 21 may output a sound indicating the propeller 5 that needs to be replaced.
  • the auxiliary information may also be notified from the control device 3 .
  • the rotor portions 10a to 10d provided with the propellers 5a to 5d correspond to one embodiment of a plurality of holding portions holding a plurality of propellers.
  • the four LEDs 20a to 20d correspond to one embodiment of the light source provided on each of the plurality of holding portions.
  • the position of the stereo camera 28 to be calibrated among the four stereo cameras 28 is It is possible to notify the auxiliary information to be shown.
  • the position of the front stereo camera 28 can be notified by turning on the LEDs 20a and 20d.
  • the position of the left stereo camera 28 can be notified by turning on the LEDs 20a and 20b.
  • the position of the rear stereo camera 28 can be notified by turning on the LEDs 20b and 20c.
  • the position of the right stereo camera 28 can be notified by turning on the LEDs 20c and 20d.
  • the motor 19 or the speaker 21 may be used to notify the auxiliary information by voice.
  • the auxiliary information may be reported by the control device 3 .
  • the direction of movement can be notified by turning on the LEDs 20a and 20d.
  • the direction of movement can be notified by turning on the LEDs 20a and 20b.
  • the movement direction can be notified by turning on the LEDs 20b and 20d.
  • the direction of movement can be notified by turning on the LEDs 20c and 20d.
  • auxiliary information for assisting the work of moving the functional component.
  • the motor 19 or the speaker 21 may be used to notify the auxiliary information by voice.
  • the auxiliary information may be reported by the control device 3 .
  • movement also includes rotational movement. That is, movement includes not only positional changes, but also orientational changes at the same position.
  • moving an object includes not only moving a linearly movable object, but also rotating a rotatable object.
  • the moving direction includes the rotating direction.
  • the functional parts such as the propeller 5 and each device of the sensor section 24 are also moved. Therefore, the work of moving the body section 4 is included in the work of moving the functional parts. Therefore, the work of changing the direction of the body section 4 and arranging it on the ground 49 during the calibration of the inertial sensor 26 is included in the work of moving the functional parts. Further, the work of turning the front part toward itself during calibration of the compass 27 is also included in the work of moving the functional parts.
  • the LED 20 set below the propeller 5 undergoing maintenance work is lit in a predetermined lighting pattern. This makes it possible to intuitively grasp the position of the propeller 5 for which maintenance work is being performed among the four propellers 5a to 5d. Also, the LED 20 set on the lower side of the propeller 5 for which maintenance has been completed is lit in a predetermined lighting pattern. This makes it possible to grasp the position of the propeller 5 for which maintenance has been completed. As a result, it is possible to intuitively grasp the progress of the maintenance work for the four propellers 5a to 5d.
  • the motor 19 or the speaker 21 may be used to notify the auxiliary information by voice. Further, the auxiliary information may be reported by the control device 3 .
  • the drone 2 by controlling the operation of the notification unit (the motor 19, the LED 20, the speaker 21) provided in the body section 4, the orientation of the body section 4 or the Information about at least one of the positions is notified as auxiliary information for assisting the work of the user 6 on the drone 2 .
  • the notification unit the motor 19, the LED 20, the speaker 21
  • the orientation of the body section 4 or the Information about at least one of the positions is notified as auxiliary information for assisting the work of the user 6 on the drone 2 . This makes it possible to improve the workability of the user's work on the drone 2 .
  • the touch panel 7 of the control device 3 displays the procedure of the work performed by the user 6.
  • FIG. While watching the procedure displayed on the touch panel 7, the user 6 performs a plurality of steps such as placing the body section 4 on the ground in a specific direction. For example, by using the touch panel 7, "Place the aircraft on the ground with the nose side (front side) facing upward", “Next, place the aircraft on the ground with the left side facing upward.” ” is displayed. The user 6 confirms the steps to be performed by looking at the touch panel 7, and performs the steps by moving the body section 4 with his or her hand.
  • the drone 2 is configured with a notification unit (motor 19, LED 20, speaker 21).
  • a notification unit motor 19, LED 20, speaker 21.
  • the above-described various types of auxiliary information are notified.
  • the user 6 by combining lighting patterns of a plurality of LEDs 20a to 20d, it is possible for the user 6 to intuitively recognize in which direction the body section 4 should be oriented.
  • the LEDs 20a and 20b are blinked. As a result, the user 6 simply points upward to the side where the LEDs 20a and 20b are blinking, without being conscious of whether it is the left side or the right side of the body section 4.
  • the present technology is applicable not only to the calibration of the sensor unit 24 but also to various tasks for the drone 2 .
  • the number and positions of the front side light sources provided on the front side, the number and positions of the left side light sources provided on the left side, and the number and positions of the rear side light sources provided on the rear are not limited.
  • the front side light source may be provided at an arbitrary position on the front side, and the left side light source may be provided at an arbitrary position on the left side. Further, the rear side light source may be provided at an arbitrary position on the rear side, and the left side light source may be provided at an arbitrary position on the left side. In either case, auxiliary information can be notified by controlling lighting of each of the front side light source, left side light source, rear side light source, and right side light source.
  • the drone 2 When constructing a moving body such as the drone 2, various shapes are conceivable as the outer shape. As shown in FIG. 1, in this embodiment, the drone 2 is configured around a substantially rectangular parallelepiped main body 8. As shown in FIG. The drone 2 is not limited to such a shape, and the drone 2 or the like may have a shape in which each part of the body portion 4 is configured around a curved surface, such as a configuration centered on a substantially spherical body portion 8 . Of course, even the drone 2 or the like having such a shape can be applied with the present technology, and can be configured as a moving object according to the present technology.
  • a front portion for example, as described above, it is possible to define a front portion, a left side portion, a rear portion, a right side portion, an upper portion, and a lower portion.
  • an LED or the like, a speaker, or the like is provided as a notification unit for curved surfaces included in each of the front surface, the left side, the rear, the right side, the top, and the bottom, so that the user 6 can receive various information. can be notified.
  • the body section 4 it may be necessary to arrange the body section 4 so that the upper surface and the lower surface are on the opposite side of the ground 49 (conversely, on the ground 49 side). could be.
  • the present technology for example, by controlling the lighting of each of the upper surface portion side light source provided on the upper surface portion and the lower surface portion side light source provided on the lower surface portion, the body portion 4 is placed on the ground 49. It is possible to notify the portion of the upper surface portion and the lower surface portion that are on the opposite side to the ground 49 for the work to be performed. For example, a configuration in which one or more LEDs are provided on each of the upper surface portion and the lower surface portion may be employed.
  • the LEDs 20a to 20d also function as top-side light sources. Therefore, for example, by turning on all of the LEDs 20a to 20d, it is possible to notify the user 6 that the top surface is placed on the side opposite to the ground 49.
  • FIG. the number and positions of the upper surface side light sources provided on the upper surface portion and the number and positions of the lower surface portion side light sources provided on the lower surface portion are not limited, and may be designed arbitrarily.
  • the front side light source (LEDs 20a and 20d), the left side side light source (LEDs 20a and 20b), the rear side side light source (LEDs 20b and 20c), and the right side side light source (LEDs 20c and 20a) By controlling the lighting of each of the above, the part facing the user 6 among the front part, the left side part, the rear part, and the right side part for the work of holding the body part 4 and performing a predetermined movement reported. Informing the user 6 of the side facing the user 6 is included in informing the orientation of the body section 4 held by the user 6 .
  • the case where the motor 19, the LED 20, and the speaker 21 are configured as the notification unit provided in the drone 2 is taken as an example.
  • the configuration is not limited to this, and only one of these devices may be configured, or these devices may be combined arbitrarily.
  • any device capable of notifying auxiliary information by visual or auditory expression may be used.
  • a display device using liquid crystal, EL, or the like may be used as the notification unit and mounted on the drone 2 . By informing various auxiliary information by the display device, it is possible to improve the workability of the user's work on the drone 2 .
  • a device configured separately from the drone 2 may be used to report the auxiliary information by auditory expression.
  • the auxiliary information is notified from the speaker 39 of the control device 3 .
  • any other device may be used.
  • a work instruction is input to the control device 3 . It is not limited to this, and an operation to the effect that work is to be performed may be input to the drone 2 side.
  • the drone 2 itself functions as an embodiment of a receiving unit that receives an instruction from the user to the effect that the user's work on the mobile object is to be performed.
  • Any control method may be adopted for the method of controlling the reporting unit for reporting the auxiliary information.
  • four LEDs 20 are illuminated in sequence each time a step is completed. Such control is also possible.
  • the drone 2 is taken as an example of the moving body.
  • the present technology is not limited to this, and for example, the present technology can also be applied to small vehicles, robots, etc. that can move independently for the purpose of selling, cleaning, monitoring, etc. in facilities, trains, and the like.
  • it includes a robot that can move by rotating wheels, a multi-legged robot, and the like.
  • this technology it is also possible to apply this technology to arbitrary mobile objects such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, ships, robots, construction machinery, and agricultural machinery (tractors). is.
  • expressions using "more than” such as “greater than A” and “less than A” encompass both concepts that include the case of being equivalent to A and concepts that do not include the case of being equivalent to A. is an expression contained in For example, “greater than A” is not limited to not including equal to A, but also includes “greater than or equal to A.” Also, “less than A” is not limited to “less than A”, but also includes “less than A”. When implementing the present technology, specific settings and the like may be appropriately adopted from concepts included in “greater than A” and “less than A” so as to exhibit the effects described above.
  • the present technology can also adopt the following configuration.
  • (1) being mobile, Airframe and a notification unit provided in the body unit; Notification control for notifying information regarding at least one of the orientation of the body section and the position on the body section as auxiliary information for assisting the user's work on the moving object by controlling the operation of the notification section.
  • a moving object comprising a part and .
  • the notification control unit notifies, as the auxiliary information, information about the progress of work performed by the user on the mobile object by controlling the operation of the notification unit.
  • (3) The moving body according to (2), The notification control unit notifies, as the auxiliary information, at least one of information indicating that the user's work on the mobile body has been completed and information indicating that the user's work on the mobile body has failed.
  • the mobile body according to (2) or (3) When the user's work on the mobile body includes a plurality of steps, the notification control unit provides information indicating that the step has been completed or indicates that the step has failed for each of the plurality of steps.
  • the moving body according to any one of (1) to (6) further comprising: Equipped with a predetermined functional part provided in the airframe,
  • the notification control unit notifies, as the auxiliary information for assisting the work of moving the functional component, information indicating a direction in which the functional component is moved.
  • the fuselage section has a front section, a left side section, a rear section, and a right side section;
  • the reporting unit includes a front side light source provided on the front side, a left side light source provided on the left side, a rear side light source provided on the rear, and a right side.
  • the notification control unit controls lighting of each of the front side light source, the left side light source, the rear side light source, and the right side light source, thereby performing the work of placing the body section on the ground.
  • a moving body that notifies a portion of the front portion, the left side portion, the rear portion, and the right side portion that is opposite to the ground.
  • the moving body includes an upper surface section and a lower surface section
  • the notification unit has an upper surface side light source provided on the upper surface portion and a lower surface portion side light source provided on the lower surface portion
  • the notification control unit controls lighting of each of the upper surface portion side light source and the lower surface portion side light source so that the operation of placing the body portion on the ground is performed by controlling the lighting of the upper surface portion and the lower surface portion.
  • a moving body that notifies a portion of the portion on the opposite side to the ground.
  • the front side light source has a first light source provided at the boundary between the front side and the left side, and a second light source provided at the boundary between the front side and the right side
  • the left side light source has the first light source and a third light source provided at the boundary between the left side and the rear side
  • the rear surface side light source has the third light source and a fourth light source provided at the boundary between the rear surface portion and the right side surface portion
  • the right side light source has the second light source and the fourth light source
  • the notification control unit controls lighting of each of the first light source, the second light source, the third light source, and the fourth light source, thereby performing a task of placing the body section on the ground.
  • each of the first light source, the second light source, the third light source, and the fourth light source is provided at a position included in the upper surface portion and functions as the upper surface portion side light source;
  • the notification control unit controls lighting of each of the first light source, the second light source, the third light source, and the fourth light source, thereby performing a task of placing the body section on the ground.
  • a moving body that notifies a portion of the upper surface portion and the lower surface portion that is opposite to the ground.
  • the fuselage section has a front section, a left side section, a rear section, and a right side section;
  • the reporting unit includes a front side light source provided on the front side, a left side light source provided on the left side, a rear side light source provided on the rear, and a right side. and a right side light source,
  • the notification control unit controls lighting of each of the front side light source, the left side light source, the rear side light source, and the right side light source, thereby holding the body section and performing a predetermined movement.
  • a moving body that notifies the user of the orientation of the body portion held by the user for the task of performing the movement.
  • the notification control unit controls lighting of each of the front side light source, the left side light source, the rear side light source, and the right side light source so that the front side, the left side, and the rear Informing the user of the side of the surface portion and the right side portion, or informing the portion of the front portion, the left side portion, the rear side portion, and the right side portion that is opposite to the ground. Do Mobile.
  • the notification unit includes a light source provided in each of the plurality of holding units, The notification control unit notifies the position of the propeller to be replaced by controlling lighting of the light source provided in each of the plurality of holding units.
  • the notification unit includes at least one of a light source device, a sound output device, or a display device, The notification unit control unit notifies the auxiliary information by controlling at least one of lighting of the light source device, sound output of the sound output device, and display of an image on the display device.
  • the light source device includes a plurality of LEDs (Light Emitting Diodes),
  • the notification control unit notifies the auxiliary information by controlling lighting patterns of the plurality of LEDs.
  • Information about at least one of the orientation of the body and the position on the body is provided by controlling the operation of a notification unit provided on the body of the body to assist the user's work on the body.
  • Notification method to notify as auxiliary information for (20) a reception unit that receives an instruction from the user to perform the user's work on the mobile object; When the fact that the user's work on the moving body is to be performed is accepted, by controlling the operation of the notification unit provided in the body part of the moving body, the direction of the body part or the position of the body part
  • a notification system comprising: a notification control unit that notifies information regarding at least one of positions as auxiliary information for assisting a user's work on the mobile body.
  • the auxiliary information includes information indicating the position of a part to be worked by the user.
  • the moving body according to (21) further comprising: Equipped with a predetermined functional part provided in the airframe,
  • the auxiliary information includes information indicating the position of the functional component to be replaced.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Toys (AREA)

Abstract

本技術の一形態に係る移動体は、機体部と、報知部と、報知制御部とを具備する。前記報知部は、前記機体部に設けられる。前記報知制御部は、前記報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知する。これにより、機体部をどの向きにすべきかといったことをユーザが直感的に認識することが可能となり、ユーザの作業の作業性を向上させることが可能となる。

Description

移動体、報知方法、及び報知システム
 本技術は、移動体、移動体に関する情報の報知方法、及び報知システムに関する。
 特許文献1に記載のカメラのキャリブレーション装置では、キャリブレーションを行うための作業内容が画面に表示され、作業者に提示される。これにより、キャリブレーション作業の簡略化が図られている(明細書段落[0049][0050]図7等)。
特開2016-225953号公報
 このようなキャリブレーション作業等の作業性を向上させることが可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、ユーザの作業の作業性を向上させることが可能な移動体、報知方法、及び報知システムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る移動体は、機体部と、報知部と、報知制御部とを具備する
 前記報知部は、前記機体部に設けられる。
 前記報知制御部は、前記報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知する。
 この移動体では、機体部に設けられた報知部の動作が制御されることで、機体部の向き、又は機体部上の位置の少なくとも一方に関する情報が、移動体に対するユーザの作業を補助するための補助情報として報知される。これにより、移動体に対するユーザの作業の作業性を向上させることが可能となる。
 前記報知制御部は、前記報知部の動作を制御することで、前記移動体に対するユーザの作業の進捗に関する情報を、前記補助情報として報知してもよい。
 前記報知制御部は、前記移動体に対するユーザの作業が完了したことを示す情報、又は前記移動体に対するユーザの作業が失敗したことを示す情報の少なくとも一方を、前記補助情報として報知してもよい。
 前記報知制御部は、前記移動体に対するユーザの作業が複数のステップを有する場合、前記複数のステップの各々に対して、前記ステップが完了したことを示す情報、又は前記ステップが失敗したことを示す情報の少なくとも一方を、前記補助情報として報知してもよい。
 前記移動体は、さらに、センサ部を具備してもよい。この場合、前記補助情報は、前記センサ部に対するキャリブレーション作業を補助するための情報を含んでもよい。
 前記センサ部は、慣性センサ、地磁気センサ、又はイメージセンサの少なくとも1つを含んでもよい。
 前記移動体は、さらに、前記機体部に設けられた所定の機能部品を具備してもよい。この場合、前記報知制御部は、前記機能部品を移動させる作業を補助するための前記補助情報として、前記機能部品を移動させる方向を示す情報を報知してもよい。
 前記機体部は、前面部、左側面部、後面部、及び右側面部を有してもよい。この場合、前記報知部は、前記前面部に設けられた前面部側光源と、前記左側面部に設けられた左側面部側光源と、前記後面部に設けられた後面部側光源と、前記右側面部に設けられた右側面部側光源とを有してもよい。また前記報知制御部は、前記前面部側光源、前記左側面部側光源、前記後面部側光源、及び前記右側面部側光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記前面部、前記左側面部、前記後面部、及び前記右側面部のうち前記地面に対して反対側となる部位を報知してもよい。
 前記機体部は、上面部及び下面部を含んでもよい。この場合、前記報知部は、前記上面部に設けられた上面部側光源と、前記下面部に設けられた下面部側光源とを有してもよい。また、前記報知制御部は、前記上面部側光源、及び前記下面部側光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記上面部、及び前記下面部のうち前記地面に対して反対側となる部位を報知してもよい。
 前記前面部側光源は、前記前面部と前記左側面部との境界に設けられた第1の光源と、前記前面部と前記右側面部との境界に設けられた第2の光源とを有してもよい。この場合、前記左側面部側光源は、前記第1の光源と、前記左側面部と前記後面部との境界に設けられた第3の光源とを有してもよい。また、前記後面部側光源は、前記第3の光源と、前記後面部と前記右側面部との境界に設けられた第4の光源とを有してもよい。また、前記右側面部側光源は、前記第2の光源と、前記第4の光源とを有してもよい。また、前記報知制御部は、前記第1の光源、前記第2の光源、前記第3の光源、及び前記第4の光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記前面部、前記左側面部、前記後面部、及び前記右側面部のうち前記地面に対して反対側となる部位を報知してもよい。
 前記第1の光源、前記第2の光源、前記第3の光源、及び前記第4の光源の各々は、前記上面部に含まれる位置に設けられ、前記上面部側光源として機能してもよい。この場合、前記報知制御部は、前記第1の光源、前記第2の光源、前記第3の光源、及び前記第4の光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記上面部、及び前記下面部のうち前記地面に対して反対側となる部位を報知してもよい。
 前記機体部は、前面部、左側面部、後面部、及び右側面部を有してもよい。この場合、前記報知部は、前記前面部に設けられた前面部側光源と、前記左側面部に設けられた左側面部側光源と、前記後面部に設けられた後面部側光源と、前記右側面部に設けられた右側面部側光源とを有してもよい。また、前記報知制御部は、前記前面部側光源、前記左側面部側光源、前記後面部側光源、及び前記右側面部側光源の各々の点灯を制御することで、前記機体部を保持して所定の動きを行う作業に対して、ユーザに保持される前記機体部の向きを報知してもよい。
 前記報知制御部は、前記前面部側光源、前記左側面部側光源、前記後面部側光源、及び前記右側面部側光源の各々の点灯を制御することで、前記前面部、前記左側面部、前記後面部、及び前記右側面部のうちユーザに向ける側となる部位を報知する、又は前記前面部、前記左側面部、前記後面部、及び前記右側面部のうち前記地面に対して反対側となる部位を報知してもよい。
 前記移動体は、さらに、複数のプロペラを具備してもよい。この場合、前記機体部は、前記複数のプロペラを保持する複数の保持部を含んでもよい。また、前記報知部は、前記複数の保持部の各々に設けられた光源を含んでもよい。また、前記報知制御部は、前記複数の保持部の各々に設けられた前記光源の点灯を制御することで、交換作業の対象となる前記プロペラの位置を報知してもよい。
 前記報知部は、光源装置、音出力装置、又はディスプレイ装置の少なくとも1つを含み、
 前記報知部制御部は、前記光源装置の点灯、前記音出力装置の音の出力、又は前記ディスプレイ装置の画像の表示の少なくとも1つを制御することで、前記補助情報を報知してもよい。
 前記光源装置は、複数のLED(Light Emitting Diode)を含んでもよい。この場合、前記報知制御部は、前記複数のLEDの点灯パターンを制御することで、前記補助情報を報知してもよい。
 前記移動体は、さらに、前記機体部に設けられたプロペラと、前記プロペラを回転させるモータとを具備してもよい。この場合、前記モータは、前記プロペラが取り外された状態の場合に、回転することで音を出力することで前記音声出力装置として機能してもよい。
 前記移動体は、ドローンとして構成されてもよい。
 本技術の一形態に係る報知方法は、移動体が有する機体部に設けられた報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知することを含む。
 本技術の一形態に係る報知システムは、受付部と、報知制御部とを具備する。
 前記受付部は、ユーザから、移動体に対するユーザの作業を行う旨の指示を受付ける。
 前記報知制御部は、前記移動体に対するユーザの作業を行う旨が受付けられた場合に、前記移動体が有する機体部に設けられた報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知する。
本技術の一実施形態に係るドローン飛行制御システムの構成例を示す模式図である。 飛行している状態のドローンを示す模式図である。 主にドローンの機体部を示す模式図である。 ドローンの機能的な構成例を示すブロック図である。 コントロール装置の機能的な構成例を示すブロック図である。 補助情報の報知の動作例を示すフローチャートである。 慣性センサのキャリブレーション作業の一例を説明するための模式図である。 慣性センサのキャリブレーション作業の一例を説明するための模式図である。 慣性センサのキャリブレーション作業の一例を説明するための模式図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 [ドローン飛行制御システム]
 図1は、本技術の一実施形態に係るドローン飛行制御システムの構成例を示す模式図である。
 図1に示すドローン飛行制御システム1は、本技術に係る報知システムを適用したシステムである。またドローン飛行制御システム1は、本技術に係る移動体制御システムの一実施形態にも相当する。
 ドローン飛行制御システム1は、ドローン2と、コントロール装置3とを有する。
 ドローン2とコントロール装置3とは、互いに通信可能に接続されている。両デバイスを通信可能に接続するための通信形態は限定されず、任意の通信技術が用いられてよい。例えば、WiFi等の無線ネットワーク通信や、Bluetooth(登録商標)等の近距離無線通信等を用いることが可能である。
 図1に示すように、ドローン2は、機体部4に取付けられるプロペラ5を有する。ドローン2は、プロペラ5が回転することで、飛行することが可能である。
 コントロール装置3は、ユーザ6から入力される操作(指示)に応じて、ドローン2の飛行等を含む種々の動作を制御することが可能である。
 ドローン2は、本技術に係る移動体の一実施形態に相当する。
 本実施形態では、コントロール装置3として、スマートフォンやタブレット装置が用いられる。これらスマートフォン等に、ドローン2の動作を制御するためのアプリケーション(アプリケーションプログラム)がインストールされる。
 ユーザ6は、ドローン2の動作を制御するためのアプリケーションを起動させる。そして、タッチパネル7に表示される種々のGUI(Graphical User Interface)に対してタッチ操作等を入力することで、ドローン2の動作を制御することが可能となる。
 ドローン2の動作を制御するためのアプリケーションは、本技術に係るプログラムの一実施形態ともいえる。
 ドローン2の動作を制御するために表示されるGUIの具体的な構成は限定されず、任意に設定されてよい。
 なお、コントロール装置3として、操縦機や送信機(プロポ)等が用いられてもよい。
 図2は、飛行している状態のドローン2を示す模式図である。
 図1及び図2に示すように、ドローン2の機体部4は、ドローン2を地面に配置する際に、地面と接触して機体部4全体を支持する2個の脚部13を有する。
 図1に示す状態は、ドローン2が地面に配置されている状態(以下、基本配置状態と記載する)であり、2個の脚部13によりドローン2の機体部4全体が支持されている。
 図2に示すように、ドローン2が飛行する場合には、2個の脚部13は先端(基本配置状態において地面に当接する部分)同士の間隔が広がるように、先端が上方側(地面とは反対側)に持ち上げられる(以下、飛行姿勢状態と記載する)。
 例えば、ドローン2の飛行開始時に、プロペラ5が回転することで、図1に示す基本配置状態のままで、機体部4の全体が上方に浮上する。その状態で、2個の脚部13の先端が上方に持ち上げられ、図2に示す飛行姿勢状態に移行される。そして、飛行姿勢状態にて、コントロール装置3からの飛行指示等に応じて、ドローン2が飛行する。
 もちろん、ドローン2の飛行時の姿勢や、飛行開始時の動作については限定されず、任意の姿勢や動作が採用されてよい。
 図3は、主にドローン2の機体部4を示す模式図である。
 図3には、地面に配置された基本配置状態における機体部4が図示されている。
 図3Aは、機体部4の前面側を示す斜視図である。
 図3Bは、機体部4の上方側(地面の反対側)から見た場合の上面図である。
 機体部4の前面側は、典型的には、ドローン2が移動する際の進行方向側を意味する。
 以下、機体部4を前面側から見て左右方向をX方向とする(X方向の矢印の向きが右側、反対側が左側)。また機体部4を前面側から見て奥行方向をY方向とする(Y方向の矢印の向きが奥側(背面側)、反対側が正面側)。また上下方向をZ方向とする(Z方向の矢印の向きが上方側、反対側が下方側)。
 図3に示すように、機体部4は、本体部8と、4個のアーム部9a~9dと、4個のロータ部10a~10dと、前方側保持部11と、後方側保持部12と、2個の脚部13a及び13bとを有する。
 図3Bに示すように、本体部8は、おおよその形状として、直方体形状を有する。本体部8は、前方側を向く前面部8aと、左側を向く左側面部8bと、後方側を向く後面部8cと、右側を向く右側面部8dとを有する。また、本体部8は、上方側を向く上面部8eと、下方側を向く下面部8fとを有する。
 図3Bに示すように、本体部8は、機体部4を上方から見た場合に、機体部4の中心の位置に配置される。逆に言えば、機体部4を上方から見た場合に、本体部8が中心の位置となるように、機体部4が構成される。
 もちろんこのような構成に限定される訳ではない。
 図3Bに示すように、4つのアーム部9a~9dは、機体部4を上方から見た場合に、本体部8に対して対称となるように放射状に延在して構成される。4つのアーム部9a~9dは、機体部4を上方から見た場合に、本体部8の4隅の位置からそれぞれ延在するように構成される。
 アーム部9aは、本体部8の前面部8aと左側面部8bとの境界から、左前方側に延在するように構成される。
 アーム部9bは、本体部8の左側面部8bと後面部8cとの境界から、左後方側に延在するように構成される。
 アーム部9cは、本体部8の後面部8cと右側面部8dとの境界から、右後方側に延在するように構成される。
 アーム部9dは、本体部8の右側面部8dと前面部8aとの境界間から、右前方側に延在するように構成される。
 また図1等にも示すように、4つのアーム部9a~9bの各々は、上方側に向かって延在するように、本体部8に接続されている。
 4つのアーム部9a~9dは、互いに等しい構成を有し、長さも互いに等しい。
 4つのロータ部10a~10dは、4つのアーム部9a~9dの各々の先端に構成される。
 各ロータ部10(10a~10d)は、プロペラ5(5a~5d)に接続されるモータ19(図4参照)を有する。モータ19が駆動することで、プロペラ5が回転し、上方側に向かって揚力が発生する。
 本実施形態では、機体部4を上方から見た場合に、本体部8に対して対称となる位置に4つのプロペラ5a~5dが配置される。4つプロペラ5a~5dが回転することにより、安定した飛行が可能となり、精度の高い飛行制御が実現可能となる。
 ロータ部10の具体的な構成(モータ19の具体的な構成や、プロペラ5との接続機構の構成等)は限定されず、任意に設計されてよい。
 前方側保持部11は、本体部8の下面部8fの前方側の部分に接続される。前方側保持部11は、本体部8から、前方かつ下方に向かって突出するように構成される。
 後方側保持部12は、本体部8の下面部8fの後方側の部分に接続される。後方側保持部12は、本体部8から、後方かつ下方に向かって突出するように構成される。
 前方側保持部11と、後方側保持部12とは、互いに略等しい構成を有する。また前方側保持部11と、後方側保持部12とは、本体部8に対して対称となるように構成される。
 2個の脚部13a及び13bは、本体部8の下面部8fに接続される。各脚部13は、T字の形状を有し、接続部14a(14b)と、先端部15b(15b)とを有する。接続部14a(14b)及び先端部15b(15b)は、棒状の形状を有し、互いに直交するように連結される。
 図3に示すように、左側の脚部13aは、下面部8fの左側方側の部分から、下方かつ左側方側に向かって延在する接続部14aと、中心が接続部14aに連結される先端部15aとを有する。先端部15aは、Y方向に沿って延在し、前方側端部16aと、後方側端部17aとを有する。
 右側の脚部13bは、下面部8fの右側方側の部分から、下方かつ右側方側に向かって延在する接続部14bと、中心が接続部14bに連結される先端部15bとを有する。先端部15bは、Y方向に沿って延在し、前方側端部16aと、後方側端部17bとを有する。
 脚部13aの先端部15aと、脚部13bの先端部15bとが、地面に当接することで、安定して機体部4の全体を支持することが可能となっている。
 機体部4は、本技術に係る機体部の一実施形態に相当する。
 図4は、ドローン2の機能的な構成例を示すブロック図である。
 ドローン2は、モータ19と、LED(Light Emitting Diode)20と、スピーカ21と、通信部22と、記憶部23と、センサ部24と、コントローラ25とを有する。
 モータ19は、4個のロータ部10a~10dに配置される。モータ19は、プロペラ5と接続される。
 図1~図3に示すように、LED20は、4個のロータ部10a~10dの外周に設置される。従って、機体部4には、4つのLED20a~20dが搭載されることになる。
 LED20aは、ロータ部10aの外周に設置される。
 LED20bは、ロータ部10bの外周に設置される。
 LED20cは、ロータ部10cの外周に設置される。
 LED20dは、ロータ部10dの外周に設置される。
 4つのLED20a~20dは、機体部4を上方から見た場合に、本体部8に対して対称となる位置にそれぞれ配置される。各LED20は、主にアーム部9の延在方向を正面方向として、光を出射可能に設置される。従って、4つのLED20a~20dの点灯を制御することで、機体部4の周囲(すなわちドローン2の周囲)に対して、光を出射することが可能となる。
 また各LED20は、複数の色の光を出射することが可能である。例えば、赤色、青色、緑色、黄色等の光を切替え可能に出射することが可能である。
 各LED20の点灯パターン(点滅等)や色等を制御して組み合わせることで、様々な光の出射態様(出射パターン)を実現することが可能である。
 LED20a~20dは、本技術に係る機体部に設けられた報知部の一実施形態に相当する。
 またLED20a~20dは、本技術に係る光源装置、及び複数のLEDの一実施形態にも相当する。
 なお、本技術に係る報知部及び光源装置として、他の任意のデバイスが用いられてよい。例えばLD(Laser Diode)やランプ等が用いられてもよい。もちろん異なる種類の光源装置が組み合わされて使用されてもよい(LD及びLEDの併用等)。
 スピーカ21は、種々の音を出力可能であり、本体部8に設けられる(詳しい図示は省略)。スピーカ21の具体的な構成は限定されない。
 スピーカ21は、本技術に係る機体部に設けられた報知部の一実施形態に相当する。
 またスピーカ21は、本技術に係る音出力装置の一実施形態にも相当する。
 本技術に係る報知部及び音出力装置として、他の任意のデバイスが用いられてもよい。
 本実施形態では、プロペラ5が取り外された状態の場合に、モータ19を回転させることで所定の音(通知音やエラー音等)を出力することが可能である。すなわち、本実施形態では、プロペラ5が取り外された状態のモータ19が、音出力装置の一実施形態として機能する。
 もちろん、プロペラ5が接続されている状態で、モータ19を回転させることで所定の音が出力可能であってもよい。一方で、プロペラ5が取り外された状態の場合に所定の音を出力可能であるという構成を採用することで、音の出力時における安全性を向上させることが可能となる。
 当該構成が採用される場合は、本技術の報知部の一実施形態として、モータ19以外のデバイス(例えばLED20等)が採用されることが望ましい。もちろん、音出力装置としてはスピーカ21が用いられず、モータ19のみを使用するといった構成も考えられる。
 通信部22は、他のデバイスとの間で、ネットワーク通信や近距離無線通信等を実行するためのモジュールである。例えばWiFi等の無線LANモジュールや、Bluetooth(登録商標)等の通信モジュールが設けられる。
 本実施形態では、通信部22を介して、コントロール装置3との間の通信が実現される。
 記憶部23は、不揮発性メモリ等の記憶デバイスであり、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等が用いられる。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 記憶部23には、ドローン2の全体の動作を制御するための制御プログラムが記憶される。その他、マップデータ等の飛行に必要なデータ等、種々のデータが記憶される。
 センサ部24は、慣性センサ26と、コンパス27と、ステレオカメラ28と、FPV(First Person View)カメラ29と、メインカメラ30とを有する。
 本開示では、カメラ(撮像装置)も、センサに含まれる。
 慣性センサ26は、慣性力を測定可能なセンサである。慣性センサ26は、機体部4の本体部8に設置される(具体的な図示は省略)。
 本実施形態では、慣性センサ26は、加速度センサ、又は角速度センサの少なくとも一方を含むように構成される。本実施形態では、慣性センサ26として、IMU(Inertial Measurement Unit)センサが用いられる。IMUセンサは、慣性計測装置とも呼ばれる。
 IMUセンサは、例えば互いに直交する3軸に対して、ドローン2の加速度及び角速度を検出することが可能である。
 もちろん、慣性センサ26として、加速度センサのみが用いられてもよいし、角速度センサのみが用いられてもよい。
 また慣性センサ26の具体的な構成として、任意の構成が採用されてよい。
 コンパス27は、ドローン2が向いている方位を検出するために用いられる。コンパス27は、機体部4の本体部8に設置される(具体的な図示は省略)。
 コンパス27の具体的な構成は限定されず、3軸電子コンパス等の任意の構成が採用されてよい。
 ステレオカメラ28は、測距センサとして用いられる。本実施形態では、前方用、左側方用、後方用、右側方用の4つのステレオカメラ28が用いられる。
 前方用のステレオカメラ28は、機体部4の前方側保持部11に設けられる(具体的な図示は省略)。
 後方用のステレオカメラ28は、後方側保持部12に設けられる(具体的な図示は省略)。
 左側方用のステレオカメラ28は、本体部8の左側面部8bに設けられる(具体的な図示は省略)。
 後方用のステレオカメラ28は、後方側保持部12に設けられる(具体的な図示は省略)。
 右側方用のステレオカメラ28は、本体部8の右側面部8dに設けられる(具体的な図示は省略)。
 ステレオカメラ28の具体的な構成は限定されない。またToF(Time Of Flight)カメラ等の、他の測距センサが用いられてもよい。
 FPVカメラ29は、ドローン2が進行する前方側の範囲を撮影する。FVPカメラ29は、機体部4の前方側保持部11に設けられる(具体的な図示は省略)。
 FPVカメラ29の具体的な構成は限定されない。
 メインカメラ30は、図1に例示するように、3軸ジンバル31を介して、本体部8の下面部8eに設置される。
 3軸ジンバル31の動作を制御することで、ドローン2の進行方向とは異なる種々の方向を撮影方向として、撮影を実行することが可能となる。
 メインカメラ30及び3軸ジンバル31は、ドローン2の本体部8に対して、着脱可能に取付けられる。ユーザ6は、所望のカメラや3軸ジンバルを、本体部8に取付けて、メインカメラ30として使用することが可能である。
 メインカメラ30及び3軸ジンバル31の具体的な構成は限定されない。
 センサ部24として設けられるセンサの種類は限定されず、任意のセンサが設けられてもよい。
 例えば、ドローン2の現在位置の情報を取得するGPSセンサが搭載されてもよい。あるいは、温度センサや湿度センサ等が搭載されてもよい。
 本実施形態において、センサ部24は、本技術に係るセンサ部の一実施形態に相当する。
 慣性センサ26及びコンパス27は、本技術に係る慣性センサ及び地磁気センサの一実施形態に相当する。
 ステレオカメラ28、FVPカメラ29、及びメインカメラ30は、本技術に係るイメージセンサ(撮像装置)の一実施形態に相当する。
 コントローラ25は、ドローン2が有する各ブロックの動作を制御する。コントローラ25は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェアを有する。CPUが記憶部23やメモリに記憶されている本技術に係るプログラムを実行することにより、種々の処理が実行される。
 コントローラ25として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。
 本実施形態では、コントローラ25のCPUが本技術に係るプログラムを実行することで、機能ブロックとして、飛行制御部32、撮影制御部33、キャリブレーション処理部34、及びUI提示部35が実現される。
 そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法(報知方法)が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
 飛行制御部32は、ドローン2の飛行に関する種々の処理を実行する。例えば、コントロール装置3に入力された指示に応じて、モータ19等が制御され、ドローン2の進行方向、高度、速度等が制御される。または、自律飛行が可能であってもよい。
 例えば、センサ部24からの検出結果(センシング結果)等に基づいて、ドローン2の飛行が制御されてもよい。
 ドローン2の飛行を制御するためのアルゴリズムは限定されず、任意のアルゴリズムが用いられてよい。例えばDNN(Deep Neural Network:深層ニューラルネットワーク)等を用いた任意の機械学習アルゴリズムが用いられてもよい。例えばディープラーニング(深層学習)を行うAI(人工知能)等を用いることで、飛行制御の精度を向上させることが可能となる。
 なお機械学習アルゴリズムの適用は、本開示内の任意の処理に対して実行されてよい。
 撮影制御部33は、4つのステレオカメラ28、FVPカメラ29、メインカメラ30の撮影を制御する。例えば、コントロール装置3に入力された指示に応じて、各カメラによる撮影が制御されてもよい。もちろん、自動的な撮影が実行されてもよい。
 例えば、撮影制御部33により、3軸ジンバル31が制御され、メインカメラ30の撮影方向や画角が制御されてもよい。その他、任意の撮影パラメータが制御されてもよい。
 各カメラの撮影を制御するためのアルゴリズムは限定されず、任意のアルゴリズムが用いられてよい。
 キャリブレーション処理部34は、センサ部24に対するキャリブレーション処理を実行する。
 本実施形態では、慣性センサ26、コンパス27、各カメラのキャリブレーションを実行することが可能である。
 UI提示部35は、報知部(モータ19、LED20、スピーカ21)の動作を制御することで、ユーザ6に対して補助情報を報知する。
 補助情報は、移動体(ドローン2)に対するユーザ6の作業を補助するための情報であり、詳しくは後述する。
 UI提示部35は、本技術に係る報知制御部の一実施形態に相当する。
 図5は、コントロール装置3の機能的な構成例を示すブロック図である。
 コントロール装置3は、表示部37と、操作部38と、スピーカ39と、マイク40と、通信部41と、記憶部42と、コントローラ43とを有する。
 表示部37は、例えば液晶、EL(Electro-Luminescence)等を用いた表示デバイスであり、種々の画像や種々のGUI等が表示される。操作部38は、例えばキーボード、ポインティングデバイス、その他の操作装置である。
 図1に示すように、本実施形態では、コントロール装置3にタッチパネル7が構成される。タッチパネル7は、図5に示す表示部37及び操作部38の両方の機能を有するデバイスとなる。
 スピーカ39は、種々の音を出力可能である。例えば、スピーカ39からドローン2の制御に関する音声ガイド、通知音、エラー音等の種々の音声が出力される。
 マイク40は、ユーザ6の音声を取得する。本実施形態では、マイク40を利用して、ユーザ6による音声入力が可能である。すなわち、ユーザ6は、音声により種々の指示を入力することが可能である。
 通信部41は、他のデバイスとの間で、ネットワーク通信や近距離無線通信等を実行するためのモジュールである。例えばWiFi等の無線LANモジュールや、Bluetooth(登録商標)等の通信モジュールが設けられる。
 本実施形態では、通信部41を介して、ドローン2との間の通信が実現される。
 記憶部42は、不揮発性メモリ等の記憶デバイスであり、例えばHDDやSSD等が用いられる。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 記憶部42には、コントロール装置3の全体の動作を制御するための制御プログラムが記憶される。また記憶部42は、ドローン2の動作を制御するためのアプリケーション(アプリケーションプログラム)がインストールされる。その他、ユーザ6の情報やマップデータ等の種々のデータが記憶される。
 コントローラ43は、コントロール装置3が有する各ブロックの動作を制御する。コントローラ43は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェアを有する。CPUが記憶部42やメモリに記憶されている本技術に係るプログラムを実行することにより、種々の処理が実行される。
 コントローラ43として、例えばFPGA等のPLD、その他ASIC等のデバイスが用いられてもよい。
 本実施形態では、コントローラ43のCPUが本技術に係るプログラムを実行することで、機能ブロックとして、飛行指示部44、撮影指示部45、作業指示部46、及びUI提示部47が実現される。
 そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
 飛行指示部44は、ユーザ6からの指示の入力(タッチパネル7を介した入力や音声入力等を含む)に応じて、ドローン2の飛行に関する種々の指示を、ドローン2に対して送信する。
 例えば、目的地や飛行経路等の飛行計画に関する指示や、進行方向や速度等の飛行動作に関する指示等が送信される。
 撮影指示部45は、ユーザ6からの指示の入力に応じて、ドローン2に搭載された各カメラの撮影に関する種々の指示を、ドローン2に対して送信する。
 例えば、メインカメラ30の撮影方向、画角、焦点距離、撮影モード等、撮影に関する種々の指示が送信される。
 作業指示部46は、ドローン2に対するユーザ6の作業に関する種々の指示を、ドローン2に対して送信する。例えば、ユーザ6の作業を開始する旨等が送信される。
 ドローン2に対するユーザ6の作業としては、例えば、センサ部24に対するキャリブレーション作業が挙げられる。
 ユーザ6は、慣性センサ26、コンパス27、各カメラのキャリブレーション作業を行う際に、ドローン2を制御するためのアプリケーションを起動させ作業の開始を入力する。
 作業指示部46により、キャリブレーション処理を実行する旨の指示がドローン2に送信され、ドローン2はキャリブレーション処理の実行モードに移行する。
 ドローン2に対するユーザ6の作業として、ドローン2に搭載された部品の交換作業も挙げられる。その他、メンテナンス作業や動作確認作業等、任意の作業が含まれる。
 ユーザ6は、作業を開始する際に、アプリケーションを起動させ作業の開始を入力する。作業指示部46により、作業に対応する処理を実行する旨の指示がドローン2に送信され、ドローン2は当該処理の実行モードに移行する。
 UI提示部47は、タッチパネル7(表示部37及び操作部38)、スピーカ39の動作を制御することで、ユーザ6に対して種々の情報を報知する。例えば、上記した補助情報がコントロール装置3のタッチパネル7等に表示されたり、スピーカ39を介して出力されてもよい。
 コントロール装置3は、ユーザから、移動体に対するユーザの作業を行う旨の指示を受付ける受付部の一実施形態に相当する。
 図3に示すように、ドローン2に対して、前面部、左側面部、後面部、右側面部、下面部、及び上面部を規定する。
 前面部は、ドローン2の前方側を向いている部位を含む。またユーザ6がドローン2の全体を見た場合に、その部位が前方側に位置していると認識される部位も、前面部に含まれる部位となる。
 例えば、ドローン2を前方側から見た場合、正対する部位は前面部に含まれる。また、前方側に突出している部位は、前方側を向いていない部位も含めて、前面部に含まれる部位となる。
 本実施形態では、本体部8の前面部8a、アーム部9a及び9dの前方側を向いている部分、前方側に突出しているロータ部10a及び10d、前方側保持部11、脚部13aの前方側端部16a、及び脚部13bの前方側端部16b等が、前面部に含まれる部位となる。
 左側面部は、ドローン2の左側方側を向いている部位を含む。またユーザ6がドローン2の全体を見た場合に、その部位が左側方側に位置していると認識される部位も、左側面部に含まれる部位となる。
 例えば、ドローン2を左側方側から見た場合、正対する部位は左側面部に含まれる。また、左側方側に突出している部位は、左側方側を向いていない部位も含めて、左側面部に含まれる部位となる。
 本実施形態では、本体部8の左側面部8b、アーム部9a及び9bの左側方側を向いている部分、左側方側に突出しているロータ部10a及び10b、脚部13aの接続部14a及び先端部15a等が、左側面部に含まれる部位となる。
 後面部は、ドローン2の後方側を向いている部位を含む。またユーザ6がドローン2の全体を見た場合に、その部位が後方側に位置していると認識される部位も、後面部に含まれる部位となる。
 例えば、ドローン2を後方側から見た場合、正対する部位は後面部に含まれる。また、後方側に突出している部位は、後方側を向いていない部位も含めて、後面部に含まれる部位となる。
 本実施形態では、本体部8の後面部8c、アーム部9b及び9cの後方側を向いている部分、後方側に突出しているロータ部10b及び10c、後方側保持部12、脚部13aの後方側端部17a、及び脚部13bの後方側端部17b等が、後面部に含まれる部位となる。
 右側面部は、ドローン2の右側方側を向いている部位を含む。またユーザ6がドローン2の全体を見た場合に、その部位が右側方側に位置していると認識される部位も、右側面部に含まれる部位となる。
 例えば、ドローン2を右側方側から見た場合、正対する部位は右側面部に含まれる。また、右側方側に突出している部位は、右側方側を向いていない部位も含めて、右側面部に含まれる部位となる。
 本実施形態では、本体部8の右側面部8b、アーム部9c及びdbの右側方側を向いている部分、右側方側に突出しているロータ部10c及び10d、脚部13bの接続部14b及び先端部15b等が、右側面部に含まれる部位となる。
 上面部は、ドローン2の上方側を向いている部位を含む。またユーザ6がドローン2の全体を見た場合に、その部位が上方側に位置していると認識される部位も、上面部に含まれる部位となる。
 例えば、ドローン2を上方側から見た場合、正対する部位は上面部に含まれる。また、上方側に突出している部位は、上方側を向いていない部位も含めて、上面部に含まれる部位となる。
 本実施形態では、本体部8の上面部8e、アーム部9a~9dの上方側を向いている部分、上方側に突出しているロータ部10a~10d等が、上面部に含まれる部位となる。
 下面部は、ドローン2の下方側を向いている部位を含む。またユーザ6がドローン2の全体を見た場合に、その部位が下方側に位置していると認識される部位も、下面部に含まれる部位となる。
 例えば、ドローン2を下方側から見た場合、正対する部位は下面部に含まれる。また、下方側に突出している部位は、下方側を向いていない部位も含めて、下面部に含まれる部位となる。
 本実施形態では、本体部8の下面部8f、アーム部9a~9d及びロータ部10a~10dの下方側を向いている部分、下方側に突出している脚部13aの先端部15a、及び脚部13bの先端部15b等が、下面部に含まれる部位となる。
 その他、ドローン2に含まれる各部分や、プロペラ5等の部品に対して、前方側、左側方側、後方側、右側方側、上方側、及び下方側を向いている部位や、前方側、左側方側、後方側、右側方側、上方側、及び下方側に位置している認識される部位が、前面部、左側面部、後面部、右側面部、上面部、及び下面部に含まれる部位となる。
 本実施形態において、ロータ部10aに設置されるLED20aは、前面部と左側面部との境界に設けられた第1の光源の一実施形態として機能する。またLED20aは、前面部に設けられた前面部側光源の一実施形態として機能し、また左側面部に設けられた左側面部側光源の一実施形態としても機能する。
 ロータ部10bに設置されるLED20bは、左側面部と後面部との境界に設けられた第3の光源の一実施形態として機能する。またLED20bは、左側面部に設けられた左側面部側光源の一実施形態として機能し、また後面部に設けられた後面部側光源の一実施形態としても機能する。
 ロータ部10cに設置されるLED20cは、後面部と右側面部との境界に設けられた第4の光源の一実施形態として機能する。またLED20cは、後面部に設けられた後面部側光源の一実施形態として機能し、また右側面部に設けられた右側面部側光源の一実施形態としても機能する。
 ロータ部10dに設置されるLED20dは、前面部と右側面部との境界に設けられた第2の光源の一実施形態として機能する。またLED20dは、右側面部に設けられた右側面部側光源の一実施形態として機能し、また前面部に設けられた前面部側光源の一実施形態としても機能する。
 すなわち本実施形態では、前面部側光源部は、LED20a及び20dを含む。また左側面部側光源部は、LED20a及び20bを含む。また後面部側光源部は、LED20b及び20cを含む。また右側面側光源部は、LED20c及び20dを含む。
 また本実施形態では、LED20a~20dの各々は、上面部に含まれるロータ部10a~10dに設けられる。すなわち、LED20a~20dの各々は、上面部に含まれる位置に設けられる。従って、LED20a~20dの各々は、上面部に設けられた上面部側光源としても機能する。
 [補助情報の報知]
 本実施形態では、ドローン2のUI提示部35により、LED20やスピーカ21等の動作が制御されることで、ドローン2に対するユーザ6の作業を補助するための補助情報が、ユーザ6に対して報知される。
 補助情報は、機体部4の向き、又は機体部4上の位置の少なくとも一方に関する情報を含む。本実施形態では、機体部4の向きに関する情報、及び機体部4上の位置に関する情報の両方ともが、補助情報として出力される。
 機体部4の向きに関する情報は、例えばユーザ6が作業するにあたって、ドローン2を特定の向き(特定の姿勢)で地面等に配置する必要がある場合に、どの向きで配置すればよいのかを示す情報が含まれる。例えば、どの向きで配置すればよいのかをユーザ6が直感的に把握できるような情報が、補助情報として報知される。
 あるいは、ユーザ6が作業するにあたって、ドローン2がどの向きで配置されているかを示す情報が、補助情報として報知されてもよい。
 その他、ユーザ6の作業を補助することが可能な、機体部4の向きに関する任意の情報が、補助情報として報知されてよい。
 機体部4上の位置に関する情報は、例えばユーザ6が作業するにあたって、作業の対象となる部品の位置を示す情報が含まれる。例えば、どの位置にある部品が作業の対象となる部品であるかを、ユーザ6が直感的に把握できるような情報が、補助情報として報知される。
 例えば、交換作業の対象となる機能部品の位置を示す情報を、補助情報として報知することも可能である。あるいは、メンテナンス対象となる機能部品の位置を示す情報が、補助情報として報知されてもよい。
 その他、ユーザ6の作業を補助することが可能な、機体部4上の位置に関する任意の情報が、補助情報として報知されてよい。
 なお、機体部4に設けられた機能部品としては、プロペラ5、モータ19、センサ部24に含まれる各デバイス等が含まれる。また報知部として機能するLED20やスピーカ21も、機能部品に含まれる。
 補助情報として、機体部4の向き、及び機体部4上の位置に関する情報とは異なる情報が報知されてもよい。
 本実施形態では、LED20等の動作を制御することで、ドローン2に対するユーザ6の作業の進捗に関する情報が、補助情報として報知される。
 例えば、ドローン2に対するユーザ6の作業が完了したことを示す情報が、補助情報として報知される。
 また、ドローン2に対するユーザ6の作業が失敗した場合には、ドローン2に対するユーザ6の作業が失敗したことを示す情報が、補助情報として報知される。
 また、ドローン2に対するユーザ6の作業が複数のステップを有する場合、複数のステップの各々に対して、ステップが完了したことを示す情報が、補助情報として報知される。
 また、ドローン2に対するユーザ6の作業が複数のステップを有する場合、複数のステップの各々に対して、ステップが失敗したことを示す情報が、補助情報として報知される。
 これらの補助情報の全てが報知可能であってもよいし、いずれかの1つが報知可能であってもよい。
 UI提示部35は、これら各種の補助情報を、光源装置として機能する4つのLED20a~20dの点灯を制御することでユーザ6に対して報知する。例えば、4つのLED20a~20bの点灯パターンを制御することで、種々の異なる補助情報を報知することが可能となる。
 またUI提示部35は、各種の補助情報を、音出力装置として機能するプロペラ5が取り外されている状態のモータ19、及びスピーカ21の音の出力を制御することで、ユーザ6に対して報知する。例えば、補助情報の内容を含む音声情報を出力することや、種々の音色のブザー、通知音、エラー音等を出力することで、種々の異なる補助情報を報知することが可能となる。
 [補助情報の報知例]
 図6は、補助情報の報知の動作例を示すフローチャートである。
 以下、キャリブレーション作業を例に挙げて、図4に示す補助情報の報知について説明する。
 [キャリブレーション作業の補助]
 本実施形態では、センサ部24に対するキャリブレーション作業を補助するための補助情報を出力することが可能である。
 図7~図9は、慣性センサ26に対するキャリブレーション作業の一例を説明するための模式図である。なお、図7~図9では、機体部4の向きを理解しやすいように、XYZの座標軸は模式的に図示されている(機体部4の若干の傾きを反映することなくXYZ座標軸が図示されている)。
 本実施形態では、プロペラ5、及びメインカメラ30(3軸ジンバル31)が取り外された状態で、慣性センサ26のキャリブレーション作業が行われるとする。
 まず、ユーザ6は、コントロール装置3を操作して、ドローン2の動作を制御するためのアプリケーションを起動させる。
 ユーザ6は、所定のタッチ操作や音声入力により、慣性センサ26のキャリブレーションを実行する旨の指示を入力する。
 コントロール装置3の作業指示部46により、慣性センサ26のキャリブレーション処理を実行する旨の指示がドローン2に送信される。この結果、ドローン2は、慣性センサ26のキャリブレーション処理を実行するモードに設定される。
 ドローン2のキャリブレーション処理部34により、実行対象となるステップが設定される(ステップ101)。
 本実施形態では、慣性センサ26のキャリブレーション作業は、複数のステップを含む。具体的には、ユーザ6により、機体部4が異なる向きで複数回地面49に配置される。そして、各々の向きで機体部4が地面49に配置された状態で、慣性センサ26により測定が実行される。各々の向きに対応する測定結果に基づいて、慣性センサ26のキャリブレーションが実行される。
 もちろん、慣性センサ26のキャリブレーションを実行するためにユーザ6により行われるキャリブレーション作業、及びキャリブレーション処理が限定されるわけではない。
 ステップ101では、まず機体部4の前面部を上方に向けて機体部4が地面49に配置された状態で慣性センサ26により測定が実行されるステップが、実行対象となるステップとして設定される。
 なお、機体部4の上方側に向けられる部位は、地面49に対して反対側となる部位に相当する。
 UI提示部35により、ステップに関する補助情報が報知される(ステップ102)。
 本実施形態では、LED20a~20dの各々の点灯を制御することで、前面部、左側面部、後面部、及び右側面部のうち、地面49に対して反対側となる部位を報知することが可能である。
 具体的には、図7A及びBに示すように、前面部に含まれるロータ部10a及び10dに設けられるLED20a及び20dが点灯される。例えば、LED20a及び20dが青色に点灯される。
 また、本実施形態では、ロータ部10a及び10dに設けられるモータ19が回転することで、所定の通知音が出力される。
 また、本実施形態では、スピーカ21から、「LEDが光っている前面部分を上にして、機体を地面に配置してください」といった内容の音声が出力される。
 このような補助情報が報知されることで、ユーザ6は、前面部を上方側に向けて機体部4を地面49に配置することを直感的に把握することが可能となる。
 また、本実施形態では、ドローン2のUI提示部35と、コントロール装置3のUI提示部47が連動することで、コントロール装置3からも補助情報が報知される。
 例えば、コントロール装置3のスピーカ39からも、「LEDが光っている前面部分を上にして、機体を地面に配置してください」といった内容の音声が出力される。
 また、タッチパネル7に、前面部を上方側に向けて機体部4を地面49に配置する旨のテキストや、前面部を上方側に向けて地面49に配置されている機体部4の画像が表示される。
 キャリブレーション処理部34により、ステップが成功したか否かが判定される(ステップ103)。すなわち、機体部4の前面部を上方に向けて機体部4が地面49に配置された状態で、適正に慣性センサ26により測定が実行されたか否かが判定される。
 慣性センサ26により適正に測定が実行されない場合等では、ステップは失敗したと判定される。例えば、慣性センサ26の測定結果が、機体部4の前面部が上方に向けられている状態の測定結果として適正ではないと判定された場合には、ステップは失敗したと判定される。例えば、前面部以外の、左側面部、後面部、及び右側面部のいずれかが上方に向けられている場合等では、ステップは失敗したと判定される。
 ステップが失敗したと判定された場合(ステップ103のNo)、補助情報として、エラーを示す情報が報知される(ステップ104)。
 本実施形態では、前面部側のLED20a及び20dが強調表示される。例えば、LED20a及び20dが赤色に点灯される。その他、LED20a~20dの点灯が制御され、エラーが通知される。
 またロータ部10a及び10bに設けられるモータ19が回転することで、所定のエラー音が出力される。
 また、スピーカ21から、「キャリブレーションが失敗しました、機体の向きを確認してください」といった内容の音声が出力される。
 エラーを示す補助情報は、ステップが失敗したことを示す補助情報に相当する。
 このような補助情報が報知されることで、ユーザ6は、キャリブレーション作業のステップが失敗したことを直感的に把握することが可能となる。これにより、機体部4の向きを改めることが容易に可能となる。
 エラーを示す補助情報の報知方法は限定されず、任意に設定されてよい。もちろん、コントロール装置3からも、エラーを示す補助情報が報知されてもよい。
 図6に示すように、本実施形態では、エラーを示す補助情報が報知された場合、キャリブレーション処理は終了する。従って、エラーを示す補助情報は、ドローン2に対するユーザ6の作業が失敗したことを示す補助情報にも相当する。
 ステップが成功したと判定された場合(ステップ103のYes)、キャリブレーション作業の全てのステップが完了したか否かが判定される(ステップ105)。
 ここでは、キャリブレーション作業の全てのステップが完了していないので、ステップ105はNoとなり、ステップ106に進む。
 ステップ106では、ステップが完了したことを示す補助情報が報知される。
 図8A及びBに示すように、本実施形態では、4つのLED20a~20dが、所定の点灯パターンで点灯される。例えば、4つのLED20a~20dが緑色に点灯される。
 また4つのロータ部10a~10dに設けられるモータ19が回転することで、所定の通知音が出力される。
 また、スピーカ21から、「ステップが完了しました、次のステップに進んでください」といった内容の音声が出力される。
 このような補助情報が報知されることで、ユーザ6は、キャリブレーション作業のステップが成功したこと、及びキャリブレーション作業の進捗を直感的に把握することが可能となる。
 ステップが完了したことを示す補助情報の報知方法は限定されず、任意に設定されてよい。もちろん、コントロール装置3からも、ステップが完了したことを示す補助情報が報知されてもよい。
 ステップ101に戻り、実行対象となるステップが設定される。
 本実施形態では、次に設定されるステップとして、機体部4の左側面部を上方に向けて機体部4が地面49に配置された状態で慣性センサ26により測定が実行されるステップが設定される。
 ステップ102では、ステップに関する補助情報が報知される。
 図9A及びBに示すように、本実施形態では、左側面部に含まれるロータ部10a及び10bに設けられるLED20a及び20bが点灯される。例えば、LED20a及び20bが青色に点灯される。その他、モータ19による所定の通知音の出力や、スピーカ21からの所定の音声の出力が実行される。コントロール装置3からも補助情報が報知される。
 これにより、ユーザ6は、左側面部を上方側に向けて機体部4を地面49に配置することを直感的に把握することが可能となる。
 ステップ103にて、ステップが失敗したと判定された場合、補助情報として、エラーを示す情報が報知される(ステップ104)。例えば、LED20a及び20cが赤色に点灯される。その他、モータ19による所定のエラー音の出力や、スピーカ21からの所定の音声の出力が実行される。コントロール装置3からも補助情報が報知される。
 これにより、ユーザ6は、キャリブレーション作業のステップが失敗したことを直感的に把握することが可能となる。
 ユーザ6により左側面部が上方を向くように機体部4の向きが変更され、適正に慣性センサ26により計測が実行された場合には、ステップが成功したと判定される。
 この時点では、まだキャリブレーション作業の全てのステップが完了していないので、ステップ105はNoとなり、ステップ106に進む。
 ステップ106では、ステップが完了したことを示す補助情報が報知される。例えば、4つのLED20a~20dが緑色に点灯される。その他、モータ19による所定の通知音の出力や、スピーカ21からの所定の音声の出力が実行される。コントロール装置3からも補助情報が報知される。
 これにより、ユーザ6は、キャリブレーション作業のステップが成功したこと、及びキャリブレーション作業の進捗を直感的に把握することが可能となる。
 ステップ101に戻り、実行対象となるステップが設定される。
 本実施形態では、次に設定されるステップとして、機体部4の後面部を上方に向けて機体部4が地面49に配置された状態で慣性センサ26により測定が実行されるステップが設定される。
 ステップ102では、ステップに関する補助情報が報知される。
 本実施形態では、後面部に含まれるロータ部10b及び10cに設けられるLED20b及び20cが点灯される。例えば、LED20b及び20cが青色に点灯される。その他、モータ19による所定の通知音の出力や、スピーカ21からの所定の音声の出力が実行される。コントロール装置3からも補助情報が報知される。
 これにより、ユーザ6は、後面部を上方側に向けて機体部4を地面49に配置することを直感的に把握することが可能となる。
 ステップ103にて、ステップが失敗したと判定された場合、補助情報として、エラーを示す情報が報知される(ステップ104)。例えば、LED20b及び20cが赤色に点灯される。その他、モータ19による所定のエラー音の出力や、スピーカ21からの所定の音声の出力が実行される。コントロール装置3からも補助情報が報知される。
 これにより、ユーザ6は、キャリブレーション作業のステップが失敗したことを直感的に把握することが可能となる。
 ユーザ6により後面部が上方を向くように機体部4の向きが変更され、適正に慣性センサ26により計測が実行された場合には、ステップが成功したと判定される。
 この時点では、まだキャリブレーション作業の全てのステップが完了していないので、ステップ105はNoとなり、ステップ106に進む。
 ステップ106では、ステップが完了したことを示す補助情報が報知される。例えば、4つのLED20a~20dが緑色に点灯される。その他、モータ19による所定の通知音の出力や、スピーカ21からの所定の音声の出力が実行される。コントロール装置3からも補助情報が報知される。
 これにより、ユーザ6は、キャリブレーション作業のステップが成功したこと、及びキャリブレーション作業の進捗を直感的に把握することが可能となる。
 ステップ101に戻り、実行対象となるステップが設定される。
 本実施形態では、次に設定されるステップとして、機体部4の右側面部を上方に向けて機体部4が地面49に配置された状態で慣性センサ26により測定が実行されるステップが設定される。
 ステップ102では、ステップに関する補助情報が報知される。
 本実施形態では、右側面部に含まれるロータ部10c及び10dに設けられるLED20c及び20dが点灯される。例えば、LED20c及び20dが青色に点灯される。その他、モータ19による所定の通知音の出力や、スピーカ21からの所定の音声の出力が実行される。コントロール装置3からも補助情報が報知される。
 これにより、ユーザ6は、右側面部を上方側に向けて機体部4を地面49に配置することを直感的に把握することが可能となる。
 ステップ103にて、ステップが失敗したと判定された場合、補助情報として、エラーを示す情報が報知される(ステップ104)。例えば、LED20c及び20dが赤色に点灯される。その他、モータ19による所定のエラー音の出力や、スピーカ21からの所定の音声の出力が実行される。コントロール装置3からも補助情報が報知される。
 これにより、ユーザ6は、キャリブレーション作業のステップが失敗したことを直感的に把握することが可能となる。
 ユーザ6により右側面部が上方を向くように機体部4の向きが変更され、適正に慣性センサ26により計測が実行された場合には、ステップが成功したと判定される。
 本実施形態では、この時点で、慣性センサ26のキャリブレーションが完了する。従って、ステップ105では、キャリブレーション作業の全てのステップが完了したと判定され(Yes)、ステップ107に進む。
 ステップ107では、ドローン2に対するユーザ6の作業が完了したことを示す補助情報が報知される。すなわち、慣性センサ26のキャリブレーション作業が完了したことを示す補助情報が報知される。
 本実施形態では、4つのLED20a~20dが、所定の点灯パターンで点灯される。例えば、4つのLED20a~20dが緑色、赤色、青色の順番で点灯される。
 また4つのロータ部10a~10dに設けられるモータ19が回転することで、所定の通知音が出力される。
 また、スピーカ21から、「キャリブレーション作業が完了しました、お疲れ様でした」といった内容の音声が出力される。
 このような補助情報が報知されることで、ユーザ6は、キャリブレーション作業が無事に完了したことを直感的に把握することが可能となる。
 ドローン2に対するユーザ6の作業が完了したことを示す補助情報の報知方法は限定されず、任意に設定されてよい。もちろん、コントロール装置3からも、ドローン2に対するユーザ6の作業が完了したことを示す補助情報が報知されてもよい。
 このように本実施形態では、LED20a~20dの各々の点灯を制御することで、機体部4を地面49に配置する作業に対して、前面部、左側面部、後面部、及び右側面部のうち地面49に対して反対側となる部位を報知することが可能である。
 本実施形態では、コンパス27のキャリブレーション作業を補助することも可能である。
 ユーザ6により、コンパス27のキャリブレーションを実行する旨の指示が入力され、ドローン2がコンパス27のキャリブレーション処理を実行するモードに設定される。
 図6に示すステップ101では、実行対象となるステップが設定される。
 本実施形態では、ユーザ6により、機体部4の前面部がユーザ6の方を向くように機体部4が保持される。そして、機体部4を保持した状態でユーザ6がその場で右回りに360度回転する動作を行う。その動作が行われている間にコンパス27により測定が実行されるステップが、実行対象となるステップとして設定される。
 もちろん、コンパス27のキャリブレーションを実行するためにユーザ6により行われるキャリブレーション作業、及びキャリブレーション処理が限定されるわけではない。
 UI提示部35により、ステップに関する補助情報が報知される(ステップ102)。
 本実施形態では、前面部に含まれるロータ部10a及び10dに設けられるLED20a及び20dが点灯される。例えば、LED20a及び20dが青色に点灯される。
 また、本実施形態では、ロータ部10a及び10dに設けられるモータ19が回転することで、所定の通知音が出力される。
 また、本実施形態では、スピーカ21から、「LEDが光っている前面部分を自分指示に向けて、その場で右回りに回転してください」といった内容の音声が出力される。
 このような補助情報が報知されることで、ユーザ6は、自分自身に向ける部位を直感的に把握することが可能となる。
 もちろん、コントロール装置3からも、補助情報が報知されてもよい。
 キャリブレーション処理部34により、ステップが成功したか否かが判定される(ステップ103)。
 慣性センサ26により適正に測定が実行されない場合等では、ステップは失敗したと判定される。例えば、前面部以外の、左側面部、後面部、及び右側面部のいずれかがユーザ6に向けられている場合等では、ステップは失敗したと判定される。
 ステップが失敗したと判定された場合(ステップ103のNo)、補助情報として、エラーを示す情報が報知される(ステップ104)。
 本実施形態では、前面部側のLED20a及び20dが強調表示される。例えば、LED20a及び20dが赤色に点灯される。その他、LED20a~20dの点灯が制御され、エラーが通知される。
 またロータ部10a及び10bに設けられるモータ19が回転することで、所定のエラー音が出力される。
 また、スピーカ21から、「キャリブレーションが失敗しました、機体の向きを確認してください」といった内容の音声が出力される。
 エラーを示す補助情報は、ステップが失敗したことを示す補助情報に相当する。
 このような補助情報が報知されることで、ユーザ6は、キャリブレーション作業が失敗したことを直感的に把握することが可能となる。これにより、機体部4の向きを改めることが容易に可能となる。
 エラーを示す補助情報の報知方法は限定されず、任意に設定されてよい。もちろん、コントロール装置3からも、エラーを示す補助情報が報知されてもよい。
 ステップが成功したと判定された場合(ステップ103のYes)、キャリブレーション作業の全てのステップが完了したか否かが判定される(ステップ105)。
 本実施形態では、この時点で、コンパス27のキャリブレーションが完了する。従って、ステップ105では、キャリブレーション作業の全てのステップが完了したと判定され(Yes)、ステップ107に進む。
 ステップ107では、ドローン2に対するユーザ6の作業が完了したことを示す補助情報が報知される。すなわち、コンパス27のキャリブレーション作業が完了したことを示す補助情報が報知される。
 本実施形態では、4つのLED20a~20dが、所定の点灯パターンで点灯される。例えば、4つのLED20a~20dが緑色、赤色、青色の順番で点灯される。
 また4つのロータ部10a~10dに設けられるモータ19が回転することで、所定の通知音が出力される。
 また、スピーカ21から、「キャリブレーション作業が完了しました、お疲れ様でした」といった内容の音声が出力される。
 このような補助情報が報知されることで、ユーザ6は、キャリブレーション作業が無事に完了したことを直感的に把握することが可能となる。
 ドローン2に対するユーザ6の作業が完了したことを示す補助情報の報知方法は限定されず、任意に設定されてよい。もちろん、コントロール装置3からも、ドローン2に対するユーザ6の作業が完了したことを示す補助情報が報知されてもよい。
 このように、本実施形態では、LED20a~20dの各々の点灯を制御することで、機体部4を保持して所定の動きを行う作業に対して、前面部、左側面部、後面部、及び右側面部のうちユーザ6に向ける側となる部位を報知することが可能となる。
 [部品の交換作業の補助]
 例えば、機能部品に相当するプロペラ5a~5dの交換作業を補助することも可能である。プロペラ5a~5dは、ロータ部10a~10dの各々に設置されている。
 ユーザ6により、プロペラ5の交換作業を実行する旨の指示が入力され、ドローン2がプロペラ5の交換処理を実行するモードに設定される。
 ドローン2のUI提示部35により、プロペラ5a~5dのうち、交換が必要なプロペラ5が判定される。交換が必要なプロペラ5が存在する場合、交換が必要なプロペラ5が設置されているロータ部10に設けられたLED20が点灯される。
 これにより、ユーザ6は、交換作業の対象となるプロペラ5の位置を直感的に把握することが可能となる。
 もちろん、交換が必要なプロペラ5が設置されているロータ部10に設けられたモータ19が回転することで、所定の通知音が出力されてもよい。またスピーカ21により、交換が必要なプロペラ5を示す音声が出力されてもよい。コントロール装置3からも、補助情報が報知されてもよい。
 なお、プロペラ5a~5dが設けられるロータ部10a~10dは、複数のプロペラを保持する複数の保持部の一実施形態に相当する。
 また、4個のLED20a~20dは、複数の保持部の各々に設けられた光源の一実施形態に相当する。
 その他、本技術を適用することで、ドローン2に対するユーザ6の種々の作業を補助することが可能である。
 例えば、前方用、左側方用、後方用、右側方用の4つのステレオカメラ28を順番にキャリブレーションする際に、4つのステレオカメラ28のうちキャリブレーション作業の対象となるステレオカメラ28の位置を示す補助情報を報知することが可能となる。
 例えば、前方用のステレオカメラ28の位置は、LED20a及び20dを点灯することで報知することが可能である。
 左側方用のステレオカメラ28の位置は、LED20a及び20bを点灯することで報知することが可能である。
 後方用のステレオカメラ28の位置は、LED20b及び20cを点灯することで報知することが可能である。
 右側方用のステレオカメラ28の位置は、LED20c及び20dを点灯することで報知することが可能である。
 もちろん、モータ19やスピーカ21を用いて音声による補助情報の報知が実行されてもよい。またコントロール装置3により、補助情報が報知されてもよい。
 また、メインカメラ30や3軸ジンバル31の本体部8に対する位置を調整する作業を補助することも可能である。
 例えば、メインカメラ30等を前方側に移動させた方がよい場合には、LED20a及び20dを点灯することで、移動方向を報知することが可能である。
 メインカメラ30等を左側方側に移動させた方がよい場合には、LED20a及び20bを点灯することで、移動方向を報知することが可能である。
 メインカメラ30等を後方側に移動させた方がよい場合には、LED20b及び20dを点灯することで、移動方向を報知することが可能である。
 メインカメラ30等を右側方側に移動させた方がよい場合には、LED20c及び20dを点灯することで、移動方向を報知することが可能である。
 このように、機能部品を移動させる作業を補助するための補助情報として、機能部品を移動させる方向を示す情報を報知することも可能である。
 もちろん、モータ19やスピーカ21を用いて音声による補助情報の報知が実行されてもよい。またコントロール装置3により、補助情報が報知されてもよい。
 なお本開示において、移動は、回転移動も含む。すなわち、移動は、位置の変動のみならず、同じ位置における向きの変動も含まれる。例えば、直線的に移動可能な物体を移動させる場合のみならず、回転可能に構成された物体を回転させることも、物体を移動させることに含まれる。また、移動方向は、回転方向を含む。
 本実施形態において、機体部4を移動させると、プロペラ5やセンサ部24の各デバイス等の機能部品も移動する。従って、機体部4を移動させる作業は、機能部品を移動させる作業に含まれる。
 従って、上記した慣性センサ26のキャリブレーション時に機体部4の向きを変更して地面49に配置する作業は、機能部品を移動させる作業に含まれる。また、コンパス27のキャリブレーション時に、前面部を自分自身に向けて一回転する作業も、機能部品を移動させる作業に含まれる。
 また、4つのプロペラ5a~5dの各々の状態を確認するメンテナンス作業が行われる場合、メンテナンス作業が行われているプロペラ5の下方側に設定されているLED20を所定の点灯パターンで点灯する。これにより、4つのプロペラ5a~5dのうちメンテナンス作業が行われているプロペラ5の位置を直感的に把握することが可能となる。
 また、メンテナンスが完了したプロペラ5の下方側に設定されているLED20を所定の点灯パターンで点灯する。これにより、メンテナンスが完了したプロペラ5の位置を把握することが可能となる。この結果、4つのプロペラ5a~5dに対するメンテナンス作業の進捗を直感的に把握することが可能となる。
 もちろん、モータ19やスピーカ21を用いて音声による補助情報の報知が実行されてもよい。またコントロール装置3により、補助情報が報知されてもよい。
 以上、本実施形態に係るドローン2では、機体部4に設けられた報知部(モータ19、LED20、スピーカ21)の動作が制御されることで、機体部4の向き、又は機体部4上の位置の少なくとも一方に関する情報が、ドローン2に対するユーザ6の作業を補助するための補助情報として報知される。これにより、ドローン2に対するユーザの作業の作業性を向上させることが可能となる。
 例えば、慣性センサ26やコンパス27のキャリブレーション等を行う際に、コントロール装置3のタッチパネル7のみに、ユーザ6が行う作業の手順が表示されるとする。ユーザ6は、タッチパネル7に表示された手順を見ながら、機体部4を特定の向きで地面に配置する等の複数のステップを行う。
 例えば、タッチパネル7により、「機首側(前面側)を上方側に向けて機体を地面に配置してください」「次に、左側面側を上方側に向けて機体を地面に配置してください」といった表示が実行される。
 ユーザ6は、タッチパネル7を見て自分が行うべきステップを確認し、機体部4を自分の手で動かして当該ステップを行う。ステップが完了した際には、再度タッチパネル7を見て次のステップを確認し、再度自分の手で機体部4を動かす。
 このような方法では、大型のドローン2に対し作業を行う場合、タッチパネル7を見ながら次のステップでどのような操作を行うかを確認するのが非常に難しい。
 また、「次に、左側面側を上方側に向けて機体を地面に配置してください」といった指示では、どちらが機体部4の左側面側なのかが、不明瞭で直感的に分かりづらい場合もあり得る。このような場合、キャリブレーション作業等のドローン2に対する作業に関して、ユーザビリティ(作業性)が低下してしまう。
 本実施形態に係るドローン2では、ドローン2に報知部(モータ19、LED20、スピーカ21)が構成される。そして報知部を制御することで、上記した種々の補助情報が報知される。
 例えば、複数のLED20a~20dの点灯パターンを組み合わせることで、機体部4をどの向きにすべきかをユーザ6が直感的に認識することが可能である。例えば、LED20a及び20bを点滅させる。これにより、ユーザ6は、それが機体部4の左側面側なのか右側面側なのかを意識することなく、LED20a及び20bが点滅している側お上方側に向けるだけで、「左側面側を上方側に向けて機体を地面に配置する」という指示通りの作業を行うことが可能となる。
 また、複数のLED20a~20dの点灯パターンを組み合わせることで、タッチパネル7を見なくても、作業の進捗(各ステップの完了等)や作業の失敗(各ステップの失敗等)を直感的に把握することが可能である。
 また、モータ19やスピーカ21による音の出力により、作業の対象となる部位や位置、作業の進捗や失敗かどうか等を、直感的に認識することが可能となった。
 例えば、各ステップ完了時、全てのステップの完了時、エラー失敗時等において、異なるパターンでLED表示(完了時は緑2秒点灯、エラー失敗時は2秒黄色点灯等)が実行される。また、異なるパターンでのサウンド再生が実行される。これにより、より直感的に進捗が把握可能となる。
 本技術を適用することで、タッチパネル7を見なくても、ユーザ6がどのような作業を行えば目的を達成できるかを、ドローン2からの視覚もしくは聴覚表現により、直感的に認識することが可能である。また、現時点でドローン2がどのような状態になっているかを、直感的に認識することが可能である。
 ユーザ6は、ドローン2からの視覚もしくは聴覚表現のみによって、作業の進捗や次の実施手順を認識できるため、いちいちタッチパネル7を確認することなく作業の各ステップを完了させることが可能である。
 また、操作方法が直感的にわかるため、間違った手順を実施してしまうことを十分に抑制することが可能である。
 上記でも述べたが、センサ部24のキャリブレーションに限定されず、ドローン2に対する種々の作業に対して、本技術は適用可能である。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記では、慣性センサ26のキャリブレーションにおいて、前面部側光源(LED20a及び20d)、左側面部側光源(LED20a及び20b)、後面部側光源(LED20b及び20c)、及び右側面部側光源(LED20c及び20a)の各々の点灯を制御することで、機体部4を地面49に配置する作業に対して、前面部、左側面部、後面部、及び右側面部のうち、地面49に対して反対側となる部位が報知された。
 前面部に設けられる前面部側光源の数や位置、左側面部に設けられる左側面部側光源の数や位置、後面部に設けられる後面部側光源の数や位置等は、限定されない。前面部の任意の位置に前面部側光源が設けられてよく、また左側面部の任意の位置に左側面部側光源が設けられてよい。また後面部の任意の位置に後面部側光源が設けられてよく、また左側面部の任意の位置に左側面部側光源が設けられてよい。
 いずれの場合でも、前面部側光源、左側面部側光源、後面部側光源、及び右側面部側光源の各々の点灯を制御することで、補助情報を報知することが可能である。
 ドローン2等の移動体を構成する際に、外形としては、様々な形状が考えられる。図1に示すように、本実施形態では、略直方体形状の本体部8を中心に、ドローン2が構成されている。このような形状に限定されず、略球形状の本体部8を中心にした構成等、機体部4の各部位が曲面を中心に構成された形状からなるドローン2等もあり得る。
 もちろん、このような形状のドローン2等であっても、本技術を適用することが可能であり、本技術に係る移動体として構成することが可能である。
 例えば、上記したように前面部、左側面部側、後面部、右側面部、上面部、及び下面部を規定することが可能である。また例えば、前面部、左側面部側、後面部、右側面部、上面部、及び下面部の各々に含まれる曲面等に対して、報知部としてLED等やスピーカ等を設け、ユーザ6に対して種々の報知情報を報知することが可能である。
 慣性センサ26のキャリブレーション等において、上面部や下面部が地面49に対して反対側となる(逆に言えば地面49側となる)ように、機体部4を配置する作業が必要な場合もあり得る。
 本技術を適用することで、例えば、上面部に設けられた上面部側光源、及び下面部に設けられた下面部側光源の各々の点灯を制御することで、機体部4を地面49に配置する作業に対して、上面部、及び下面部のうち地面49に対して反対側となる部位を報知することが可能となる。
 例えば、上面部及び下面部の各々に1つ以上のLEDが設けられる構成が採用されてもよい。
 上記の実施形態では、LED20a~20dが、上面部側光源としても機能する。従って、例えば、LED20a~20dの全てを点灯することで、上面部を地面49と反対側にして配置する旨をユーザ6に報知することが可能である。
 もちろん、上面部に設けられる上面部側光源の数や位置、下面部に設けられる下面部側光源の数や位置等は限定されず、任意に設計されてよい。
 上記では、コンパス27のキャリブレーションにおいて、前面部側光源(LED20a及び20d)、左側面部側光源(LED20a及び20b)、後面部側光源(LED20b及び20c)、及び右側面部側光源(LED20c及び20a)の各々の点灯を制御することで、機体部4を保持して所定の動きを行う作業に対して、前面部、左側面部、後面部、及び右側面部のうちユーザ6に向ける側となる部位が報知された。
 ユーザ6に向ける側となる部位を報知することは、ユーザ6に保持される機体部4の向きを報知することに含まれる。
 例えば、コンパス27のキャリブレーション等において、機体部4の所定の部位を上方側(地面49とは反対側)に向けて、その場で一回転する作業が必要な場合もあり得る。
 本技術を適用することで、前面部側光源、左側面部側光源、後面部側光源、及び右側面部側光源の各々の点灯を制御することで、前面部、左側面部、後面部、及び右側面部のうち地面49に対して反対側となる部位を報知することが可能である。この結果、ユーザ6の作業性を向上させることが可能となる。
 もちろん、地面49に対して反対側となる部位を報知することは、ユーザ6に保持される機体部4の向きを報知することに含まれる。
 上記では、ドローン2に設けられる報知部として、モータ19、LED20、スピーカ21が構成される場合を例に挙げた。これに限定されず、これらのデバイスのうち1つのみが構成されてもよいし、これらのデバイスが任意に組み合わされて構成されてもよい。
 また、これらのデバイス以外の、視覚もしくは聴覚に表現により補助情報を報知可能な任意のデバイスが用いられてもよい。
 例えば、例えば液晶、EL等を用いたディスプレイ装置が報知部として用いられ、ドローン2に搭載されてもよい。ディスプレイ装置により種々の補助情報を報知することで、ドローン2に対するユーザの作業の作業性を向上させることが可能となる。
 聴覚表現により補助情報を報知する場合には、ドローン2とは別に構成されたデバイスが用いられてもよい。上記の実施形態では、コントロール装置3のスピーカ39から補助情報が報知されている。これにより、タッチパネル7を見ることなく、ドローン2に対して作業を行うことが可能となり、作業性が向上する。
 もちろん、他の任意のデバイスが用いられてよい。
 上記では、ユーザ6がキャリブレーション作業等を行う場合に、コントロール装置3に作業の指示が入力された。これに限定されず、ドローン2側に、作業を行う旨の操作が入力可能であってもよい。
 この場合、ドローン2自身が、ユーザから、移動体に対するユーザの作業を行う旨の指示を受付ける受付部の一実施形態として機能する。
 補助情報を報知するための報知部を制御方法について、任意の制御方法が採用されてよい。例えば、ステップが完了するたびに、4つのLED20が順番に点灯される。このような制御も可能である。
 上記では、移動体として、ドローン2を例に挙げた。
 これに限定されず、例えば、施設や電車等において販売、清掃、監視等を目的に自立移動が可能な小型の車両やロボット等に対しても、本技術は適用可能である。例えば、車輪が回転することで移動可能なロボットや、多足歩行型のロボット等も含まれる。
 その他、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、船舶、ロボット、建設機械、農業機械(トラクター)等の、任意の移動体に、本技術を適用することも可能である。
 各図面を参照して説明したドローン、コントロール装置、機体部、報知部、センサ部等の各構成、各処理フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
 本開示において、説明の理解を容易とするために、「略」「ほぼ」「おおよそ」等の文言が適宜使用されている。一方で、これら「略」「ほぼ」「おおよそ」等の文言を使用する場合と使用しない場合とで、明確な差異が規定されるわけではない。
 すなわち、本開示において、「中心」「中央」「均一」「等しい」「同じ」「直交」「平行」「対称」「延在」「軸方向」「円柱形状」「円筒形状」「リング形状」「円環形状」等の、形状、サイズ、位置関係、状態等を規定する概念は、「実質的に中心」「実質的に中央」「実質的に均一」「実質的に等しい」「実質的に同じ」「実質的に直交」「実質的に平行」「実質的に対称」「実質的に延在」「実質的に軸方向」「実質的に円柱形状」「実質的に円筒形状」「実質的にリング形状」「実質的に円環形状」等を含む概念とする。
 例えば「完全に中心」「完全に中央」「完全に均一」「完全に等しい」「完全に同じ」「完全に直交」「完全に平行」「完全に対称」「完全に延在」「完全に軸方向」「完全に円柱形状」「完全に円筒形状」「完全にリング形状」「完全に円環形状」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
 従って、「略」「ほぼ」「おおよそ」等の文言が付加されていない場合でも、いわゆる「略」「ほぼ」「おおよそ」等を付加して表現され得る概念が含まれ得る。反対に、「略」「ほぼ」「おおよそ」等を付加して表現された状態について、完全な状態が必ず排除されるというわけではない。
 本開示において、「Aより大きい」「Aより小さい」といった「より」を使った表現は、Aと同等である場合を含む概念と、Aと同等である場合を含まない概念の両方を包括的に含む表現である。例えば「Aより大きい」は、Aと同等は含まない場合に限定されず、「A以上」も含む。また「Aより小さい」は、「A未満」に限定されず、「A以下」も含む。
 本技術を実施する際には、上記で説明した効果が発揮されるように、「Aより大きい」及び「Aより小さい」に含まれる概念から、具体的な設定等を適宜採用すればよい。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)
 移動体であって、
 機体部と、
 前記機体部に設けられた報知部と、
 前記報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知する報知制御部と
 を具備する移動体。
(2)(1)に記載の移動体であって、
 前記報知制御部は、前記報知部の動作を制御することで、前記移動体に対するユーザの作業の進捗に関する情報を、前記補助情報として報知する
 移動体。
(3)(2)に記載の移動体であって、
 前記報知制御部は、前記移動体に対するユーザの作業が完了したことを示す情報、又は前記移動体に対するユーザの作業が失敗したことを示す情報の少なくとも一方を、前記補助情報として報知する
 移動体。
(4)(2)又は(3)に記載の移動体であって、
 前記報知制御部は、前記移動体に対するユーザの作業が複数のステップを有する場合、前記複数のステップの各々に対して、前記ステップが完了したことを示す情報、又は前記ステップが失敗したことを示す情報の少なくとも一方を、前記補助情報として報知する
 移動体。
(5)(1)から(4)のうちいずれか1つに記載の移動体であって、さらに、
 センサ部を具備し、
 前記補助情報は、前記センサ部に対するキャリブレーション作業を補助するための情報を含む
 移動体。
(6)(5)に記載の移動体であって、
 前記センサ部は、慣性センサ、地磁気センサ、又はイメージセンサの少なくとも1つを含む
 移動体。
(7)(1)から(6)のうちいずれか1つに記載の移動体であって、さらに、
 前記機体部に設けられた所定の機能部品を具備し、
 前記報知制御部は、前記機能部品を移動させる作業を補助するための前記補助情報として、前記機能部品を移動させる方向を示す情報を報知する
 移動体。
(8)(1)から(7)のうちいずれか1つに記載の移動体であって、
 前記機体部は、前面部、左側面部、後面部、及び右側面部を有し、
 前記報知部は、前記前面部に設けられた前面部側光源と、前記左側面部に設けられた左側面部側光源と、前記後面部に設けられた後面部側光源と、前記右側面部に設けられた右側面部側光源とを有し、
 前記報知制御部は、前記前面部側光源、前記左側面部側光源、前記後面部側光源、及び前記右側面部側光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記前面部、前記左側面部、前記後面部、及び前記右側面部のうち前記地面に対して反対側となる部位を報知する
 移動体。
(9)(8)に記載の移動体であって、
 前記機体部は、上面部及び下面部を含み、
 前記報知部は、前記上面部に設けられた上面部側光源と、前記下面部に設けられた下面部側光源とを有し、
 前記報知制御部は、前記上面部側光源、及び前記下面部側光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記上面部、及び前記下面部のうち前記地面に対して反対側となる部位を報知する
 移動体。
(10)(9)に記載の移動体であって、
 前記前面部側光源は、前記前面部と前記左側面部との境界に設けられた第1の光源と、前記前面部と前記右側面部との境界に設けられた第2の光源とを有し、
 前記左側面部側光源は、前記第1の光源と、前記左側面部と前記後面部との境界に設けられた第3の光源とを有し、
 前記後面部側光源は、前記第3の光源と、前記後面部と前記右側面部との境界に設けられた第4の光源とを有し、
 前記右側面部側光源は、前記第2の光源と、前記第4の光源とを有し、
 前記報知制御部は、前記第1の光源、前記第2の光源、前記第3の光源、及び前記第4の光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記前面部、前記左側面部、前記後面部、及び前記右側面部のうち前記地面に対して反対側となる部位を報知する
 移動体。
(11)(10)に記載の移動体であって、
 前記第1の光源、前記第2の光源、前記第3の光源、及び前記第4の光源の各々は、前記上面部に含まれる位置に設けられ、前記上面部側光源として機能し、
 前記報知制御部は、前記第1の光源、前記第2の光源、前記第3の光源、及び前記第4の光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記上面部、及び前記下面部のうち前記地面に対して反対側となる部位を報知する
 移動体。
(12)(1)から(11)のうちいずれか1つに記載の移動体であって、
 前記機体部は、前面部、左側面部、後面部、及び右側面部を有し、
 前記報知部は、前記前面部に設けられた前面部側光源と、前記左側面部に設けられた左側面部側光源と、前記後面部に設けられた後面部側光源と、前記右側面部に設けられた右側面部側光源とを有し、
 前記報知制御部は、前記前面部側光源、前記左側面部側光源、前記後面部側光源、及び前記右側面部側光源の各々の点灯を制御することで、前記機体部を保持して所定の動きを行う作業に対して、ユーザに保持される前記機体部の向きを報知する
 移動体。
(13)(12)に記載の移動体であって、
 前記報知制御部は、前記前面部側光源、前記左側面部側光源、前記後面部側光源、及び前記右側面部側光源の各々の点灯を制御することで、前記前面部、前記左側面部、前記後面部、及び前記右側面部のうちユーザに向ける側となる部位を報知する、又は前記前面部、前記左側面部、前記後面部、及び前記右側面部のうち前記地面に対して反対側となる部位を報知する
 移動体。
(14)(1)から(13)のうちいずれか1つに記載の移動体であって、さらに、
 複数のプロペラを具備し、
 前記機体部は、前記複数のプロペラを保持する複数の保持部を含み、
 前記報知部は、前記複数の保持部の各々に設けられた光源を含み、
 前記報知制御部は、前記複数の保持部の各々に設けられた前記光源の点灯を制御することで、交換作業の対象となる前記プロペラの位置を報知する
 移動体。
(15)(1)から(14)のうちいずれか1つに記載の移動体であって、
 前記報知部は、光源装置、音出力装置、又はディスプレイ装置の少なくとも1つを含み、
 前記報知部制御部は、前記光源装置の点灯、前記音出力装置の音の出力、又は前記ディスプレイ装置の画像の表示の少なくとも1つを制御することで、前記補助情報を報知する
 移動体。
(16)(15)に記載の移動体であって、
 前記光源装置は、複数のLED(Light Emitting Diode)を含み、
 前記報知制御部は、前記複数のLEDの点灯パターンを制御することで、前記補助情報を報知する
 移動体。
(17)(15)又は(16)に記載の移動体であって、さらに、
 前記機体部に設けられたプロペラと、前記プロペラを回転させるモータとを具備し、
 前記モータは、前記プロペラが取り外された状態の場合に、回転することで音を出力することで前記音声出力装置として機能する
 移動体。
(18)(1)から(17)のうちいずれか1つに記載の移動体であって、
 ドローンとして構成されている
 移動体。
(19)
 移動体が有する機体部に設けられた報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知する
 報知方法。
(20)
 ユーザから、移動体に対するユーザの作業を行う旨の指示を受付ける受付部と、
 前記移動体に対するユーザの作業を行う旨が受付けられた場合に、前記移動体が有する機体部に設けられた報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知する報知制御部と
 を具備する報知システム。
(21)(1)から(18)のうちいずれか1つに記載の移動体であって、
 前記補助情報は、ユーザの作業の対象となる部品の位置を示す情報を含む
 移動体。
(22)(21)に記載の移動体であって、さらに、
 前記機体部に設けられた所定の機能部品を具備し、
 前記補助情報は、交換作業の対象となる前記機能部品の位置を示す情報を含む
 移動体。
 1…ドローン飛行制御システム
 2…ドローン
 3…コントロール装置
 4…機体部
 5…プロペラ
 6…ユーザ
 7…コンパス
 8…本体部
 9…アーム部
 10…ロータ部
 11…前方側保持部
 12…後方側保持部
 19…モータ
 20…LED
 21…スピーカ
 24…センサ部
 26…慣性センサ
 27…コンパス
 28…ステレオカメラ
 29…FVPカメラ
 30…メインカメラ
 34…キャリブレーション処理部
 35…UI提示部
 46…作業指示部
 47…UI提示部
 49…地面

Claims (20)

  1.  移動体であって、
     機体部と、
     前記機体部に設けられた報知部と、
     前記報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知する報知制御部と
     を具備する移動体。
  2.  請求項1に記載の移動体であって、
     前記報知制御部は、前記報知部の動作を制御することで、前記移動体に対するユーザの作業の進捗に関する情報を、前記補助情報として報知する
     移動体。
  3.  請求項2に記載の移動体であって、
     前記報知制御部は、前記移動体に対するユーザの作業が完了したことを示す情報、又は前記移動体に対するユーザの作業が失敗したことを示す情報の少なくとも一方を、前記補助情報として報知する
     移動体。
  4.  請求項2に記載の移動体であって、
     前記報知制御部は、前記移動体に対するユーザの作業が複数のステップを有する場合、前記複数のステップの各々に対して、前記ステップが完了したことを示す情報、又は前記ステップが失敗したことを示す情報の少なくとも一方を、前記補助情報として報知する
     移動体。
  5.  請求項1に記載の移動体であって、さらに、
     センサ部を具備し、
     前記補助情報は、前記センサ部に対するキャリブレーション作業を補助するための情報を含む
     移動体。
  6.  請求項5に記載の移動体であって、
     前記センサ部は、慣性センサ、地磁気センサ、又はイメージセンサの少なくとも1つを含む
     移動体。
  7.  請求項1に記載の移動体であって、さらに、
     前記機体部に設けられた所定の機能部品を具備し、
     前記報知制御部は、前記機能部品を移動させる作業を補助するための前記補助情報として、前記機能部品を移動させる方向を示す情報を報知する
     移動体。
  8.  請求項1に記載の移動体であって、
     前記機体部は、前面部、左側面部、後面部、及び右側面部を有し、
     前記報知部は、前記前面部に設けられた前面部側光源と、前記左側面部に設けられた左側面部側光源と、前記後面部に設けられた後面部側光源と、前記右側面部に設けられた右側面部側光源とを有し、
     前記報知制御部は、前記前面部側光源、前記左側面部側光源、前記後面部側光源、及び前記右側面部側光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記前面部、前記左側面部、前記後面部、及び前記右側面部のうち前記地面に対して反対側となる部位を報知する
     移動体。
  9.  請求項8に記載の移動体であって、
     前記機体部は、上面部及び下面部を含み、
     前記報知部は、前記上面部に設けられた上面部側光源と、前記下面部に設けられた下面部側光源とを有し、
     前記報知制御部は、前記上面部側光源、及び前記下面部側光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記上面部、及び前記下面部のうち前記地面に対して反対側となる部位を報知する
     移動体。
  10.  請求項9に記載の移動体であって、
     前記前面部側光源は、前記前面部と前記左側面部との境界に設けられた第1の光源と、前記前面部と前記右側面部との境界に設けられた第2の光源とを有し、
     前記左側面部側光源は、前記第1の光源と、前記左側面部と前記後面部との境界に設けられた第3の光源とを有し、
     前記後面部側光源は、前記第3の光源と、前記後面部と前記右側面部との境界に設けられた第4の光源とを有し、
     前記右側面部側光源は、前記第2の光源と、前記第4の光源とを有し、
     前記報知制御部は、前記第1の光源、前記第2の光源、前記第3の光源、及び前記第4の光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記前面部、前記左側面部、前記後面部、及び前記右側面部のうち前記地面に対して反対側となる部位を報知する
     移動体。
  11.  請求項10に記載の移動体であって、
     前記第1の光源、前記第2の光源、前記第3の光源、及び前記第4の光源の各々は、前記上面部に含まれる位置に設けられ、前記上面部側光源として機能し、
     前記報知制御部は、前記第1の光源、前記第2の光源、前記第3の光源、及び前記第4の光源の各々の点灯を制御することで、前記機体部を地面に配置する作業に対して、前記上面部、及び前記下面部のうち前記地面に対して反対側となる部位を報知する
     移動体。
  12.  請求項1に記載の移動体であって、
     前記機体部は、前面部、左側面部、後面部、及び右側面部を有し、
     前記報知部は、前記前面部に設けられた前面部側光源と、前記左側面部に設けられた左側面部側光源と、前記後面部に設けられた後面部側光源と、前記右側面部に設けられた右側面部側光源とを有し、
     前記報知制御部は、前記前面部側光源、前記左側面部側光源、前記後面部側光源、及び前記右側面部側光源の各々の点灯を制御することで、前記機体部を保持して所定の動きを行う作業に対して、ユーザに保持される前記機体部の向きを報知する
     移動体。
  13.  請求項12に記載の移動体であって、
     前記報知制御部は、前記前面部側光源、前記左側面部側光源、前記後面部側光源、及び前記右側面部側光源の各々の点灯を制御することで、前記前面部、前記左側面部、前記後面部、及び前記右側面部のうちユーザに向ける側となる部位を報知する、又は前記前面部、前記左側面部、前記後面部、及び前記右側面部のうち前記地面に対して反対側となる部位を報知する
     移動体。
  14.  請求項1に記載の移動体であって、さらに、
     複数のプロペラを具備し、
     前記機体部は、前記複数のプロペラを保持する複数の保持部を含み、
     前記報知部は、前記複数の保持部の各々に設けられた光源を含み、
     前記報知制御部は、前記複数の保持部の各々に設けられた前記光源の点灯を制御することで、交換作業の対象となる前記プロペラの位置を報知する
     移動体。
  15.  請求項1に記載の移動体であって、
     前記報知部は、光源装置、音出力装置、又はディスプレイ装置の少なくとも1つを含み、
     前記報知部制御部は、前記光源装置の点灯、前記音出力装置の音の出力、又は前記ディスプレイ装置の画像の表示の少なくとも1つを制御することで、前記補助情報を報知する
     移動体。
  16.  請求項15に記載の移動体であって、
     前記光源装置は、複数のLED(Light Emitting Diode)を含み、
     前記報知制御部は、前記複数のLEDの点灯パターンを制御することで、前記補助情報を報知する
     移動体。
  17.  請求項15に記載の移動体であって、さらに、
     前記機体部に設けられたプロペラと、前記プロペラを回転させるモータとを具備し、
     前記モータは、前記プロペラが取り外された状態の場合に、回転することで音を出力することで前記音声出力装置として機能する
     移動体。
  18.  請求項1に記載の移動体であって、
     ドローンとして構成されている
     移動体。
  19.  移動体が有する機体部に設けられた報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知する
     報知方法。
  20.  ユーザから、移動体に対するユーザの作業を行う旨の指示を受付ける受付部と、
     前記移動体に対するユーザの作業を行う旨が受付けられた場合に、前記移動体が有する機体部に設けられた報知部の動作を制御することで、前記機体部の向き、又は前記機体部上の位置の少なくとも一方に関する情報を、前記移動体に対するユーザの作業を補助するための補助情報として報知する報知制御部と
     を具備する報知システム。
PCT/JP2022/006871 2021-06-09 2022-02-21 移動体、報知方法、及び報知システム WO2022259631A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280039490.9A CN117412902A (zh) 2021-06-09 2022-02-21 移动体、通知方法和通知系统
JP2023527494A JPWO2022259631A1 (ja) 2021-06-09 2022-02-21
EP22819821.4A EP4353586A1 (en) 2021-06-09 2022-02-21 Moving body, notification method, and notification system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021096678 2021-06-09
JP2021-096678 2021-06-09

Publications (1)

Publication Number Publication Date
WO2022259631A1 true WO2022259631A1 (ja) 2022-12-15

Family

ID=84425091

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/006871 WO2022259631A1 (ja) 2021-06-09 2022-02-21 移動体、報知方法、及び報知システム

Country Status (4)

Country Link
EP (1) EP4353586A1 (ja)
JP (1) JPWO2022259631A1 (ja)
CN (1) CN117412902A (ja)
WO (1) WO2022259631A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003062127A1 (fr) * 2002-01-23 2003-07-31 Kabushiki Kaisha Toyota Jidoshokki Dispositif et procede de commande de la position d'un appareil de manutention dans un vehicule industriel
JP2016143954A (ja) * 2015-01-30 2016-08-08 ソニー株式会社 無線通信装置及び無線通信方法
JP2016225953A (ja) 2015-06-03 2016-12-28 株式会社日立製作所 カメラのキャリブレーション装置、カメラシステム及び、カメラのキャリブレーション方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003062127A1 (fr) * 2002-01-23 2003-07-31 Kabushiki Kaisha Toyota Jidoshokki Dispositif et procede de commande de la position d'un appareil de manutention dans un vehicule industriel
JP2016143954A (ja) * 2015-01-30 2016-08-08 ソニー株式会社 無線通信装置及び無線通信方法
JP2016225953A (ja) 2015-06-03 2016-12-28 株式会社日立製作所 カメラのキャリブレーション装置、カメラシステム及び、カメラのキャリブレーション方法

Also Published As

Publication number Publication date
JPWO2022259631A1 (ja) 2022-12-15
EP4353586A1 (en) 2024-04-17
CN117412902A (zh) 2024-01-16

Similar Documents

Publication Publication Date Title
JP6816156B2 (ja) Uav軌道を調整するシステム及び方法
US10569901B2 (en) Light emission control apparatus, drone, and method for controlling emission of light
ES2808029T3 (es) Dispositivo de control remoto para grúa, máquina de construcción y/o camión industrial, y sistema que comprende este dispositivo de control remoto y una grúa, una máquina de construcción y/o un camión industrial
CN107428411B (zh) 无人飞行体、飞行控制方法、飞行控制程序及操纵器
JP6919206B2 (ja) 表示装置、及び、表示装置の制御方法
US8521339B2 (en) Method and system for directing unmanned vehicles
US20180299879A1 (en) Self-propelled device with center of mass drive system
CN109313487B (zh) 对象控制器
JP2016203978A (ja) 無人機を没入状態で操縦するためのシステム
JP6915136B2 (ja) 発光制御装置、無人飛行体、及び発光制御方法
KR101617411B1 (ko) 드론 제어 방법 및 시스템
JP2016525973A (ja) 多目的自己推進デバイス
CN107249955A (zh) 控制自主车辆中的自主驾驶模式
KR101614620B1 (ko) 기계 작업이 가능한 멀티 로터 기반의 무인 비행로봇 시스템
CN110297105B (zh) 移动体
WO2022259631A1 (ja) 移動体、報知方法、及び報知システム
JP6974247B2 (ja) 情報処理装置、情報提示指示方法、プログラム、及び記録媒体
WO2018203520A1 (ja) 飛行機能付加装置およびロータユニット
JP2019016916A (ja) 移動型撮像装置
EP3845992A1 (en) Control method for movable platform, movable platform, terminal device and system
JP2019182155A (ja) 飛行体
JP7459253B2 (ja) 撮像システム、ロボットシステム及び撮像システムの制御方法
WO2018045654A1 (zh) 显示可移动装置的状态的方法、系统和控制装置
WO2020171229A1 (ja) ドローン操縦機、および、操縦用プログラム
JP2017193250A (ja) 無人飛行体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22819821

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023527494

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280039490.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022819821

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022819821

Country of ref document: EP

Effective date: 20240109