WO2023112241A1 - 制御装置、ドローン、制御方法、および記録媒体 - Google Patents

制御装置、ドローン、制御方法、および記録媒体 Download PDF

Info

Publication number
WO2023112241A1
WO2023112241A1 PCT/JP2021/046451 JP2021046451W WO2023112241A1 WO 2023112241 A1 WO2023112241 A1 WO 2023112241A1 JP 2021046451 W JP2021046451 W JP 2021046451W WO 2023112241 A1 WO2023112241 A1 WO 2023112241A1
Authority
WO
WIPO (PCT)
Prior art keywords
drone
control
guide light
unit
corridor
Prior art date
Application number
PCT/JP2021/046451
Other languages
English (en)
French (fr)
Inventor
伶実 田中
武志 庄田
裕幸 柿沼
知之 武藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/046451 priority Critical patent/WO2023112241A1/ja
Publication of WO2023112241A1 publication Critical patent/WO2023112241A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]

Definitions

  • the present disclosure relates to control devices and the like that control drones that use drone-dedicated airspace.
  • Patent Document 1 discloses a drone navigation system.
  • US Pat. No. 6,200,000 discloses a drone highway configured to navigate drones using existing infrastructure such as power lines, roads and pipelines.
  • a drone collects environmental data related to infrastructure heat, infrared, visible light, and other spectra. The drone determines its position on the drone highway by comparing the collected environmental data to data signatures associated with the drone highway.
  • Patent Literature 2 discloses a lighting system for a moving object in which a front portion facing the direction of travel can be selected from a plurality of locations.
  • the system of Patent Document 2 includes a plurality of light units capable of changing the color of lights, and a control unit that controls the plurality of light units based on the traveling direction of the moving body.
  • the control unit causes the light unit located at the right end of the unmanned aerial vehicle to shine in a first color and the light unit located at the left end of the unmanned aerial vehicle to shine in a second color. Controls the light section.
  • the drone can be navigated over a long distance by controlling the drone's navigation according to the position of the drone on the drone highway.
  • Patent Document 1 does not assume that a plurality of drones use the same drone highway at the same time. For example, when multiple drones use the same drone highway at the same time, the drones may deviate from the drone highway depending on their positional relationship.
  • the traveling direction of the unmanned aerial vehicle can be identified according to the combination of the colors of the lights.
  • the traveling direction of the unmanned aerial vehicle can be identified.
  • the traveling direction of the unmanned aerial vehicle cannot be identified. Therefore, in the method of Patent Document 2, when multiple unmanned aerial vehicles use the same corridor at the same time, there is a possibility that safe navigation cannot be continued unless the multiple unmanned aerial vehicles can confirm each other's lights.
  • the purpose of the present disclosure is to provide a control device etc. that can realize autonomous navigation of drones using corridors.
  • a control device detects guide lights used to form a corridor used by the drone from images captured by a camera mounted on the drone, and detects the positions of the detected guide lights.
  • a calculation unit that calculates, according to the positions of the drone and the guide light, the predicted arrival position of the drone at the control timing subsequent to the image capturing timing, and the control target position according to the positional relationship between the drone and the guide light;
  • a control condition generation unit that generates control conditions for the motors that drive the propellers of the drone according to the predicted arrival position and the control target position
  • a control condition setting unit that sets the control conditions for the motors of the drone.
  • the guide lights used to form the corridor used by the drone are detected from the image captured by the camera mounted on the drone, and the positions of the detected guide lights are specified. , according to the positions of the drone and the guide light, calculate the predicted arrival position of the drone at the control timing following the image capturing timing, and the control target position according to the positional relationship between the drone and the guide light, and calculate the predicted arrival position And according to the control target position, it generates control conditions for the motors that drive the propellers of the drone, and sets the control conditions for the motors of the drone.
  • a program detects guide lights used to form a corridor used by the drone from an image captured by a camera mounted on the drone, and processes identifying the positions of the detected guide lights. , a process of calculating, according to the positions of the drone and the guide light, a predicted arrival position of the drone at a control timing subsequent to the image capturing timing and a control target position according to the positional relationship between the drone and the guide light; According to the predicted position and the control target position, the computer is caused to execute a process of generating control conditions for the motors that drive the propellers of the drone and a process of setting the control conditions for the motors of the drone.
  • FIG. 1 is a block diagram showing an example of a configuration of a drone according to a first embodiment
  • FIG. 1 is a conceptual diagram showing an example of the appearance of a drone according to a first embodiment
  • FIG. 4 is a conceptual diagram showing another example of the appearance of the drone according to the first embodiment
  • FIG. 1 is a conceptual diagram showing an example of a corridor used by a drone according to the first embodiment
  • FIG. 1 is a conceptual diagram showing an example of a corridor used by a drone according to the first embodiment
  • FIG. It is a block diagram showing an example of the configuration of a control unit provided in the drone according to the first embodiment.
  • FIG. 4 is a conceptual diagram for explaining an example of control of the drone according to the first embodiment
  • FIG. 4 is a conceptual diagram for explaining an example of control of the drone according to the first embodiment
  • FIG. 4 is a conceptual diagram for explaining an example of control of the drone according to the first embodiment;
  • FIG. 4 is a conceptual diagram for explaining an example of control of the drone according to the first embodiment;
  • 1 is a conceptual diagram showing an example of a corridor used by a drone according to the first embodiment;
  • FIG. 1 is a conceptual diagram showing an example of a corridor used by a drone according to the first embodiment;
  • FIG. 4 is a flow chart for explaining an example of the operation of a control unit included in the drone according to the first embodiment;
  • FIG. 7 is a block diagram showing an example of the configuration of a drone according to a second embodiment;
  • FIG. FIG. 11 is a block diagram showing an example of the configuration of a control unit included in a drone according to a second embodiment;
  • FIG. 10 is a conceptual diagram for explaining an example of control of a drone according to the second embodiment;
  • FIG. 10 is a conceptual diagram for explaining an example of control of a drone according to the second embodiment;
  • 9 is a flow chart for explaining an example of the operation of a control unit included in the drone according to the second embodiment;
  • FIG. 11 is a block diagram showing an example of the configuration of a drone according to a third embodiment;
  • FIG. 11 is a block diagram showing an example of a configuration of a control unit included in a drone according to a third embodiment;
  • FIG. FIG. 11 is a conceptual diagram for explaining an example of control of a drone according to a third embodiment;
  • FIG. 11 is a conceptual diagram for explaining an example of control of a drone according to a third embodiment;
  • FIG. 11 is a conceptual diagram for explaining an example of control of a drone according to a third embodiment;
  • FIG. 11 is a conceptual diagram for explaining an example of control of a drone according to a third embodiment;
  • FIG. 11 is a flow chart for explaining an example of the operation of a control unit included in the drone according to the third embodiment;
  • FIG. FIG. 11 is a block diagram showing an example of the configuration of a drone according to a fourth embodiment;
  • FIG. 11 is a conceptual diagram showing an example of the appearance of a drone according to a fourth embodiment;
  • FIG. 14 is a block diagram showing an example of the configuration of a control unit included in a drone according to a fourth embodiment;
  • FIG. FIG. 14 is a conceptual diagram for explaining an example of control of a drone according to the fourth embodiment;
  • FIG. 14 is a flow chart for explaining an example of the operation of a control unit included in the drone according to the fourth embodiment;
  • FIG. 14 is a block diagram showing an example of the configuration of a management device according to the fifth embodiment
  • FIG. FIG. 11 is a block diagram showing an example of a configuration of a drone that uses corridors managed by a management device according to a fifth embodiment
  • FIG. 11 is a block diagram showing an example of a configuration of a control unit provided in a drone that uses a corridor managed by a management device according to a fifth embodiment
  • FIG. 14 is a conceptual diagram for explaining an example of guiding a drone according to the fifth embodiment
  • FIG. 14 is a conceptual diagram for explaining an example of guiding a drone according to the fifth embodiment
  • FIG. 14 is a conceptual diagram for explaining an example of guiding a drone according to the fifth embodiment
  • FIG. 14 is a conceptual diagram for explaining an example of guiding a drone according to the fifth embodiment
  • FIG. 14 is a conceptual diagram for explaining an example of guiding a drone according to the fifth embodiment
  • FIG. 11 is a block diagram showing an example of guiding a drone according to the
  • FIG. 14 is a flowchart for explaining an example of the operation of a management device according to the fifth embodiment;
  • FIG. FIG. 14 is a flowchart for explaining an example of the operation of a drone that uses a corridor managed by a management device according to the fifth embodiment;
  • FIG. FIG. 12 is a block diagram showing an example of the configuration of a control device according to a sixth embodiment;
  • FIG. It is a block diagram showing an example of the configuration of hardware that executes control and processing of each embodiment.
  • the drone of this embodiment autonomously navigates (also referred to as autonomous navigation) a corridor that is an airspace (corridor) in which the drone flies exclusively.
  • a corridor that is an airspace (corridor) in which the drone flies exclusively.
  • Corridors may be formed above not only rivers but also power lines, railroad tracks, roads, and the like. As long as the drone is navigable, there are no particular restrictions on the formation area of the corridor. Further, the drone is not limited to a flying type, and may be one that travels on the ground, or one that navigates on the surface of water or underwater.
  • a drone is not limited to an unmanned aerial vehicle, and may be a flying vehicle on which a person can board.
  • a corridor may be a drone highway.
  • a drone highway is an airspace for the exclusive use of drones that has been developed so that drones can fly safely.
  • the Drone Highway is managed by an administrator who has control over the drones that use the Drone Highway.
  • the Drone Highway is an area where comprehensive services are provided by the Drone Highway Manager. For example, drone flights using the Drone Highway are automated under the control of an administrator.
  • a drone highway may be an airspace in which ancillary services for safe drone flight are provided by facilities surrounding the drone highway.
  • FIG. 1 to 3 are conceptual diagrams showing an example of the configuration of a drone 10 according to this embodiment.
  • FIG. 1 is a block diagram for explaining the functional configuration of the drone 10.
  • FIG. 2 is a plan view of the drone 10.
  • FIG. 3 is a bottom view of the drone 10.
  • FIG. A side view, a rear view, a slope view, etc. of the drone 10 are omitted.
  • the drone 10 is equipped with an RID (Remote Identification) device that transmits transmission information including registration number, manufacturing number, position information, time, and authentication information.
  • RID Remote Identification
  • the drone 10 includes a main body 11, a propeller 12, a control section 13, a motor 14, a camera 15, a communication section 16, a transmission information generation section 17, and a rechargeable battery 19.
  • Control unit 13 , communication unit 16 , transmission information generation unit 17 , and rechargeable battery 19 are housed inside body 11 .
  • Most of the camera 15 is housed inside the main body 11 except for the lens.
  • FIG. 3 shows the lens portion of camera 15 .
  • the drone 10 also has a function (not shown) for transporting packages.
  • the drone 10 carries a load by storing the load inside the main body 11 , hanging the load from the main body 11 , or placing the load on the main body 11 .
  • the camera 15 may be attached under the luggage in order to photograph the lower side of the drone 10.
  • the main body 11 is a housing that houses the control unit 13, the camera 15, the communication unit 16, the transmission information generation unit 17, the rechargeable battery 19, and the like. At least one propeller 12 for flying the drone 10 is attached to the main body 11 .
  • the main body 11 is provided with a space for storing baggage therein, a mechanism for hanging the baggage, a place on which the baggage is placed, and the like, depending on the application.
  • the shape and material of the main body 11 are not particularly limited.
  • the propeller 12 is a mechanism that makes the drone 10 fly.
  • the propeller 12 is also called a rotor or rotor blade.
  • Propeller 12 is fixed to main body 11 by arm 120 .
  • the propeller 12 is a blade for floating the main body 11 by rotating.
  • a motor 14 for rotating the propeller 12 is installed on the propeller 12 .
  • the size and mounting position of the propellers 12 in FIGS. 2-3 are not fully designed for flying the drone 10, but are conceptual.
  • the main body 11 of the drone 10 is provided with four propellers 12 .
  • the rotation speeds of the propellers 12 are controlled independently of each other.
  • the drone 10 may be equipped with a single propeller 12 or may be a multicopter equipped with multiple propellers 12 . Considering attitude stability and flight performance in the air, the drone 10 is preferably a multicopter equipped with a plurality of propellers 12 .
  • the propellers 12 may have different sizes. Also, the planes of rotation of the plurality of propellers 12 may be different from each other.
  • a motor 14 is installed in each of the plurality of propellers 12 .
  • a motor 14 is a drive mechanism for rotating the propeller 12 .
  • the motor 14 rotates the propeller 12 under the control of the controller 13 .
  • the control unit 13 is a control device that controls the drone 10 .
  • the control unit 13 is implemented by a control device such as a microcomputer or microcontroller.
  • the control unit 13 controls rotation of the propeller 12 .
  • the control unit 13 controls the rotation speed of each propeller 12 by driving and controlling the motor 14 for each propeller 12 .
  • the control unit 13 controls the flight of the drone 10 by controlling the number of rotations of each propeller 12 according to the features included in the image captured by the camera 15 .
  • the control unit 13 causes the drone 10 to travel by controlling the rotation of the propeller 12 according to a preset flight route.
  • the control unit 13 causes the drone 10 to fly by controlling the rotation of the propeller 12 according to preset flight conditions.
  • the flight conditions are conditions in which operations performed by the drone 10 are organized in a table format.
  • the navigation route and flight conditions may be stored in a storage unit (not shown).
  • the control unit 13 controls the camera 15 for imaging.
  • the control unit 13 causes the camera 15 to take an image at a predetermined timing.
  • the control unit 13 acquires an image captured by the camera 15 .
  • the control unit 13 may be configured to acquire an image captured by the camera 15 without controlling the camera 15 for imaging.
  • the control unit 13 outputs the acquired image to the communication unit 16 .
  • the control unit 13 controls the rotation of the propeller 12 based on the position of the guide light included in the image captured by the camera 15 while the drone 10 is navigating inside the corridor.
  • the control unit 13 controls the rotation of the propeller 12 so that the drone 10 flies to an appropriate position according to the position of the guide light that emits light in the color to be referenced.
  • the control unit 13 controls the rotation of the propeller 12 so as to maintain a predetermined positional relationship with the guide lights.
  • the camera 15 is arranged to photograph the surroundings of the drone 10. In the case of FIG. 3 , the camera 15 captures an image below the drone 10 .
  • a plurality of cameras 15 may be mounted on the drone 10 in order to photograph the front, sides, and above of the drone 10 .
  • the cameras 15 may be arranged so as to capture images in multiple directions by changing the aerial attitude of the drone 10 .
  • the camera 15 takes pictures according to the control of the control unit 13 .
  • the camera 15 may be configured to capture an image at a predetermined timing without being controlled by the control section 13 .
  • the camera 15 outputs captured image data (also referred to as an image) to the communication unit 16 .
  • the camera 15 incorporates a lens for imaging.
  • the lens is a zoom lens with variable focal length.
  • the lens may be provided with a protective member such as a protective film or protective glass.
  • the camera 15 preferably has an autofocus function for automatic focusing. Moreover, it is preferable that the camera 15 is equipped with a function that is applied to a general digital camera, such as a function for preventing camera shake. Description of the specific structure of the camera 15 is omitted.
  • the communication unit 16 receives radio signals transmitted from the management tower 190 . Further, the communication unit 16 transmits transmission information generated by the transmission information generation unit 17 and a signal including an image captured by the camera 15 .
  • the transmission information includes registration information, manufacturing number, position information, time, authentication information (also referred to as identification information), and the like of the drone 10 .
  • the registration information, manufacturing number, authentication information, and the like of the drone 10 are information that does not change while the corridor is in use (also called immutable information).
  • the location information and time are information (also called fluctuation information) that is updated as needed.
  • the communication unit 16 uses a communication method such as Bluetooth (registered trademark) to transmit a signal at a transmission cycle of one or more times per second.
  • the transmission information generation unit 17 generates transmission information unique to the drone 10 .
  • the outgoing information includes constant information and variable information.
  • the transmission information generating unit 17 generates transmission information including constant information and variable information at predetermined intervals. For example, the transmission information generation unit 17 generates transmission information at a predetermined cycle of about three times per second.
  • the permanent information includes registration information, manufacturing number, authentication information, etc. of the drone 10 .
  • the constant information may be stored in a storage unit (not shown).
  • the variation information includes position information and time.
  • the transmission information generation unit 17 generates position information using data collected by a positioning system such as GPS (Global Positioning System).
  • the transmission information generator 17 may acquire the position information of a position measuring device (not shown) installed around the corridor.
  • the transmission information generator 17 may use data collected by those sensors to generate position information.
  • sensors include, for example, geomagnetic sensors, acceleration sensors, speed sensors, altitude sensors, range sensors, and the like.
  • the transmission information generation unit 17 outputs the generated transmission information to the communication unit 16 .
  • the rechargeable battery 19 is a general secondary battery with a charging function.
  • the rechargeable battery 19 is a power source for the drone 10 .
  • the rechargeable battery 19 is not particularly limited as long as the drone 10 can navigate the corridor.
  • the rechargeable battery 19 is preferably capable of controlling charging to the rechargeable battery 19 and monitoring the amount of charge of the rechargeable battery 19 .
  • FIG. 4 and 5 are conceptual diagrams showing an example of a corridor 1 formed above a river.
  • FIG. 4 is a conceptual diagram looking down on the corridor 1 obliquely from above.
  • FIG. 5 is a conceptual diagram looking down on the corridor 1 from above. 4 and 5 show how a plurality of drones 10 navigate inside the corridor 1.
  • FIG. 4 and 5 show how a plurality of drones 10 navigate inside the corridor 1.
  • Corridor 1 is formed at an altitude of 150 m (meters) or less from the surface of the river.
  • the left side is upstream and the right side is downstream.
  • arrows indicate the direction of river flow. Looking at a river from upstream (left) to downstream (right), the right bank is called the right bank and the left bank is called the left bank.
  • the position where corridor 1 is formed is defined by a plurality of guide lights 140 arranged on both banks of the river. 4 and 5, the guide light 140 installed on the left bank is denoted as guide light 140L, and the guide light 140 installed on the right bank is denoted as guide light 140R.
  • the guide light 140L installed on the left bank and the guide light 140R installed on the right bank emit light in different colors.
  • the guide light 140L placed on the left bank emits green light
  • the guide light 140R placed on the right bank emits red light.
  • the emission color of the guide lights 140 is not particularly limited as long as the guide lights 140 installed on the same bank emit light of the same color.
  • a warning light indicating prohibition of entry of the drone 10 may be installed.
  • the warning light is installed at a position farther from the river than the guide light 140. - ⁇ For example, a warning light glows yellow.
  • the direction of travel inside Corridor 1 is from left to right on the paper surface of FIGS. 4 and 5.
  • the multiple drones 10 are equipped with a camera 15 that captures downward images.
  • the drone 10 navigates inside the corridor 1 according to the emission color of the guide light 140 included in the lower image captured by the camera 15 .
  • drone 10 navigates according to guide lights 140 placed on one bank of a river.
  • the drone 10 may navigate according to guide lights 140 placed on both banks of a river.
  • FIG. 4 and 5 show a waiting space WS, an elevating route EL, a plurality of corridor areas C, an entry area E, and an exit area O.
  • FIG. The waiting space WS is a space where the drones 10 using the corridor 1 wait.
  • the elevating route EL is an airspace for heading to the corridor 1 from the ground.
  • a plurality of corridor areas C are air spaces that become main lines of the corridor 1 .
  • the entry E is an airspace for the drone 10 to enter the corridor 1 .
  • the exit O is an airspace for the drone 10 to exit from the corridor 1 .
  • a management tower 190 is placed on the side of the river.
  • the management tower 190 has a communication function and a camera.
  • the control tower 190 receives signals emitted from drones 10 navigating the interior of corridor 1 .
  • Signals transmitted from drones 10 include transmission information for identifying individual drones 10 .
  • the transmission information is transmitted from an RID (Remote Identification) device mounted on the drone 10 .
  • the transmission information includes registration information, manufacturing number, position information, time, authentication information, etc. of each drone 10 .
  • a drone 10 that navigates inside the corridor 1 transmits transmission information at a transmission cycle of one or more times per second by a communication method such as Bluetooth (registered trademark).
  • the control tower 190 also captures the drones 10 using Corridor 1 .
  • the management tower 190 transmits transmission information included in signals transmitted from the plurality of drones 10 and captured images to a management device (not shown) that manages the corridor 1 .
  • the outgoing information transmitted from the management tower 190 is used for the management of the drones 10 using the corridor 1 .
  • one of the guide lights 140 arranged on both banks of the river may have the function of the management tower 190 .
  • FIG. 6 is a block diagram showing an example of the configuration of the control section 13. As shown in FIG.
  • the control unit 13 has an imaging control unit 131 , a detection unit 132 , a calculation unit 133 , a control condition generation unit 134 and a control condition setting unit 135 .
  • the imaging control unit 131 controls imaging of the camera 15 .
  • the imaging control unit 131 causes the camera 15 to take an image at a predetermined timing.
  • the imaging control unit 131 acquires an image captured by the camera 15 .
  • the imaging control unit 131 outputs the acquired image to the detection unit 132 .
  • the imaging control unit 131 outputs the acquired image to the communication unit 16 .
  • the imaging conditions for images used by the imaging control unit 131 and the imaging conditions for images output to the communication unit 16 may be set to conditions different from each other.
  • the imaging condition of the image used by the imaging control unit 131 is set to a condition in which the image is shot at a high frequency with a low resolution that can detect the position of the guide light 140 .
  • the imaging condition of the image output to the communication unit 16 is set to a condition in which the image is shot infrequently at a high resolution to the extent that the situation around the drone 10 can be verified.
  • the detection unit 132 acquires the image captured by the camera 15 from the imaging control unit 131 .
  • the detection unit 132 detects light emission of the guide light 140 from the acquired image.
  • the detection unit 132 extracts the light emission color of the guide light 140 to be referenced from the detected light emission of the guide light 140 .
  • the left bank guide light 140L emits green light
  • the right bank guide light 140R emits red light.
  • the detection unit 132 identifies the positions of the guide light 140 and the drone itself (drone 10) in the area where the corridor 1 is formed, based on the light emission of the guide light 140 extracted from the image.
  • the detection unit 132 outputs the position of the guide light 140 and the drone 10 extracted from the image to the calculation unit 133 .
  • the detection unit 132 identifies the position of the drone 10 in the corridor 1 according to the emission color (green) of the left bank guide light 140L. For example, when the drone 10 sails from downstream to upstream, the detection unit 132 identifies the position of the drone 10 in the corridor 1 according to the emission color (red) of the guide light 140R on the right bank.
  • the detection unit 132 may specify the position of the drone (drone 10) in the corridor 1 according to the emission colors (green, red) of the guide lights 140 on both banks.
  • the detection unit 132 may identify the position of the drone itself (drone 10) not only according to the emission color of the guide light 140 but also according to features extracted from the image. For example, the detection unit 132 may specify the position of the drone 10 according to the features of the surface of the river extracted from the image. For example, the detection unit 132 may specify the position of the drone (drone 10) according to the characteristics of a riverbed, embankment, or the like extracted from the image. For example, the detection unit 132 may identify the position of the drone 10 based on structures such as bridges and power lines extracted from the image. For example, the detection unit 132 may specify the position of the drone (drone 10) based on the shapes and symbols of signs installed in and around the river, which are extracted from the image.
  • the calculation unit 133 acquires the positions of the guide light 140 and the drone itself (drone 10) from the detection unit 132. If the drone (drone 10) has a function of receiving a GPS (Global Positioning System) signal, the calculation unit 133 may acquire position information included in the GPS signal. The calculation unit 133 calculates the positional relationship between the guide light 140 and the drone 10 according to the obtained positions of the guide light 140 and the drone 10 itself. The positional relationship calculated by the calculator 133 includes the distance between the guide light 140 and the drone 10 itself. The calculator 133 calculates the distance between the guide light 140 identified by the detector 132 and the drone 10 . For example, the control timing of the drone 10 is set at time intervals at which the drone 10 can safely and autonomously navigate the corridor 1 . The control timing of the drones 10 may be common to all the drones 10 navigating the corridor 1 or may be different for each drone 10 .
  • GPS Global Positioning System
  • the calculation unit 133 calculates the distance between the guide light 140 closest to the drone 10 and the drone 10 .
  • the calculator 133 calculates the distance between a straight line passing through two guide lights 140 close to the drone 10 and the drone 10 .
  • the calculation unit 133 calculates a curve that smoothly connects the plurality of guide lights 140 specified from the image and the distance from the drone 10 .
  • a method of calculating the distance between the guide light 140 and the drone 10 is not particularly limited as long as the drone 10 can navigate the corridor 1 .
  • the distance (also referred to as the designated distance) of the drone 10 to the guide light 140 is set in advance for each drone 10 that uses the corridor 1.
  • the designated distance may be changed according to the usage of corridor 1 .
  • the designated distance is defined by a minimum designated distance and a maximum designated distance.
  • the drone 10 flies within a range (also referred to as a designated range) between the minimum designated distance and the maximum designated distance set for each drone 10 .
  • the minimum designated distance is set for each drone 10 to the portion closest to the guide light 140 .
  • the maximum designated distance is set to the furthest part from the guide light 140 for each drone 10 .
  • the minimum specified distance and the maximum specified distance may be set at the center of the drone 10 or other parts.
  • the calculation unit 133 calculates the position (also called the predicted arrival position) of the drone 10 at the next control timing (also called the next control timing) for the drone 10 following the imaging timing of the image. For example, the calculation unit 133 calculates the position of the drone 10 as the predicted arrival position when the drone 10 continues to fly in the direction/speed at the image capturing timing. Further, the calculation unit 133 calculates the target position (also referred to as the control target position) of the drone 10 at the next control timing. The control target position is set within the specified range. For example, the control target position is set along the middle line between the minimum designated distance boundary line and the maximum designated distance boundary line. The calculation unit 133 outputs the calculated predicted arrival position and control target position to the control condition generation unit 134 .
  • the control condition generation unit 134 acquires the predicted arrival position and the control target position calculated by the calculation unit 133 .
  • the control condition generation unit 134 generates control conditions for controlling the drone 10 from the predicted arrival position to the control target position.
  • the control condition is a condition for rotating the propeller 12 that causes the drone 10 to fly.
  • the control condition generator 134 calculates the traveling direction/speed of the drone 10 according to the control target position from the predicted arrival position.
  • the control condition generator 134 sets the number of rotations of the propellers 12 according to the traveling direction/speed.
  • the control condition generator 134 outputs the generated control conditions to the control condition setter 135 .
  • FIG. 7 to 9 are conceptual diagrams for explaining an example of control of the drone 10.
  • FIG. 7 to 9 the river flows from the bottom (upstream) to the top (downstream) of the paper.
  • the drone 10 navigates inside the corridor 1 according to the light emission of the guide light 140L installed on the left bank of the river (left side of the paper surface).
  • the drone 10 may navigate inside the corridor 1 according to the light emission of the guide light 140R installed on the right bank of the river (right side of the paper surface).
  • Corridor 1 is omitted in FIG.
  • a first designation line L1 for designating a minimum designated distance and a second designation line L2 for designating a maximum designated distance are set with respect to the guide light 140L.
  • the drone 10 is permitted to navigate the designated range S between the first designated line L1 and the second designated line L2.
  • both the predicted arrival position P p and the control target position P T are within the specified range S.
  • the drone 10 is positioned inside the designated range S. Therefore, the control condition generator 134 does not change the traveling direction of the drone 10 at the next control timing.
  • the control condition generation unit 134 generates a control condition for moving from the predicted arrival position P p to the control target position P T without changing the traveling direction.
  • both the predicted arrival position P p and the control target position P T are within the designated range S.
  • part of the drone 10 is positioned outside the designated range S beyond the first designation line L1. Therefore, the control condition generator 134 changes the traveling direction of the drone 10 at the next control timing toward the control target position.
  • the control condition generator 134 generates a control condition for moving from the predicted arrival position P p to the control target position PT .
  • both the predicted arrival position P p and the control target position P T are within the designated range S.
  • part of the drone 10 is located outside the designated range S beyond the second designated line L2. Therefore, the control condition generator 134 changes the traveling direction of the drone 10 at the next control timing toward the control target position.
  • the control condition generator 134 generates a control condition for moving from the predicted arrival position P p to the control target position PT .
  • the control condition setting unit 135 acquires control conditions from the control condition generation unit 134 .
  • the control condition setting unit 135 sets the control condition to the motor 14 at the next control timing.
  • the rotation speed of each propeller 12 is controlled by driving the motor 14 according to the control conditions. As a result, the drone 10 travels at a direction/speed according to the control conditions.
  • FIG. 10 is a conceptual diagram for explaining another example of corridor 1.
  • FIG. 10 shows an example in which a downstream corridor 1-1 from upstream to downstream and an upstream corridor 1-2 from downstream to upstream are formed above a river.
  • multiple paths can be formed above the river.
  • multiple routes are formed according to altitude.
  • multiple paths may be formed in a plane parallel to the surface of the river.
  • FIG. 11 is a conceptual diagram for explaining yet another example of corridor 1.
  • FIG. 11 shows an example in which a drone 10L that navigates from the bottom (upstream) to the top (downstream) of the paper and a drone 10R that navigates from the downstream to the upstream navigate above a river.
  • FIG. 11 shows an example in which a guide light 140 is provided with a plurality of light emitting units.
  • a first light emitting part 141L is installed above the guide light 140L for guiding the drone 10L.
  • the first light emitting unit 141L emits green light.
  • at least some of the guide lights 140L are provided with the second light emitters 142L.
  • the second light emitting section 142L emits yellow light. The drone 10L navigates while referring to the first light emitting section 141L and the second light emitting section 142L.
  • the drone 10L navigates while referring to either the first light emitting unit 141L or the second light emitting unit 142L. Normally, the drone 10L navigates while referring to the first light emitting section 141L. The drone 10L switches to refer to the second light emitting unit 142L according to the instruction from the management side.
  • the drone 10L navigates while referring to both the first light emitting section 141L and the second light emitting section 142L.
  • the first light emitting part 141L and the second light emitting part 142L are installed at different heights. Therefore, by referring to both the first light emitting unit 141L and the second light emitting unit 142L, it is possible to three-dimensionally set the designated range in which the drone 10 flies.
  • a first light emitting unit 141R is installed above the guide light 140R for guiding the drone 10R.
  • the first light emitting unit 141R emits red light.
  • at least some of the guide lights 140R are provided with second light emitting units 142R.
  • the second light emitting unit 142L emits blue light.
  • the drone 10R navigates while referring to the first light emitting section 141R and the second light emitting section 142R.
  • a corridor can be formed according to the purpose of use by designating the light-emitting units to be referred to. For example, depending on the weight and size of the cargo to be carried by the drone 10 and the speed of the drone 10, different corridors can be set to be used. For example, a low-speed corridor for the drone 10 that carries heavy loads is set in the lower second light emitting unit 142L and the second light emitting unit 142R.
  • a high-speed corridor for the drone 10 that carries light loads is set in the upper first light emitting unit 141L and the first light emitting unit 141R.
  • the upper first light emitting section 141L and the first light emitting section 141R may be used for normal corridor reference
  • the lower second light emitting section 142L and second light emitting section 142R may be used for emergency corridor reference. In this way, emergency corridors can be formed sequentially in the event of an emergency.
  • FIG. 12 is a flowchart for explaining an example of the operation of the control section 13. As shown in FIG. In the following, the control unit 13 will be described as an operating entity.
  • the control unit 13 controls the camera 15 mounted on the drone 10 to capture an image (step S11).
  • the image captured by the camera 15 includes a guide light 140 installed on the bank of the river.
  • control section 13 detects the light-emitting section of the guide light 140 to be referenced by image recognition from the image captured by the camera 15 (step S12).
  • control unit 13 calculates the positional relationship between the drone 10 and the guide light 140 (step S13). For example, the control unit 13 calculates the distance between the drone 10 and the guide light 140 as the positional relationship between the guide light 140 and the drone 10 .
  • control unit 13 calculates the predicted arrival position/control target position according to the positional relationship between the drone 10 and the guide light 140 (step S14).
  • control unit 13 generates a control condition according to the calculated predicted arrival position/control target position (step S15).
  • the control unit 13 generates control conditions for the drone 10 to move from the predicted arrival position toward the control target position.
  • control unit 13 outputs the generated control conditions to the motor 14 (step S16).
  • the drone 10 can navigate within the specified range set inside the corridor.
  • it returns to step S11 after step S16.
  • the drone of this embodiment includes a main body, a propeller, a motor, a transmission information generation unit, a communication unit, a camera, a rechargeable battery, and a control unit (control device).
  • the motor is driven and controlled by a control device.
  • a propeller is rotatably mounted on the main body via an arm. The propeller rotates according to the driving of the motor.
  • the transmission information generation unit generates transmission information including identification information and position information of the device itself.
  • the communication unit communicates with a management device that manages the corridor.
  • the communication unit transmits transmission information to the management device.
  • the camera is image-controlled by a control device. Rechargeable batteries are the drone's power source.
  • the control unit has an imaging control unit, a detection unit, a calculation unit, a control condition generation unit, and a control condition setting unit.
  • the imaging control unit performs imaging control of the camera mounted on the drone.
  • the detection unit detects the guide lights used to form the corridor used by the drone from the image captured by the camera.
  • the detector identifies the position of the detected guide light.
  • the calculation unit calculates, according to the positions of the drone and the guide light, a predicted arrival position of the drone at a control timing subsequent to the image capturing timing, and a control target position according to the positional relationship between the drone and the guide light.
  • the control condition generator generates a control condition for the motor that drives the propeller of the drone according to the predicted arrival position and the control target position. For example, the control condition generator generates a control condition for moving the drone from the predicted arrival position toward the control target position.
  • the control condition setting unit sets control conditions for the motors of the drone.
  • the control unit of the present embodiment sets control conditions for moving the drone from the predicted arrival position toward the control target position according to the position of the guide light detected from the image captured by the camera mounted on the drone. motor. Therefore, according to this embodiment, autonomous navigation of a drone using a corridor can be realized.
  • the detection unit detects a reference guide light that is referred to when using the corridor, according to the emission color of the guide light.
  • the detector identifies the position of the detected reference guide light. According to this aspect, the drone using the corridor can reliably navigate by detecting the reference guide light according to the emitted light color.
  • the detection unit detects a reference guide light that is referred to when using a corridor, according to a plurality of emission colors at different heights of the guide light.
  • the detection unit identifies the position of the drone in the corridor in the height direction according to the plurality of detected emission colors of the reference guide lights.
  • the position of the drone in the corridor can be specified three-dimensionally according to the plurality of colors of light emitted from the guide lights at different heights. Therefore, according to this aspect, the drone using the corridor can autonomously navigate the interior of the corridor three-dimensionally.
  • control condition generation unit causes the drone to move away from the reference guide light when the distance between the reference guide light and the drone is smaller than the minimum specified distance set for the reference guide light. Generate control conditions to control the motor. In addition, when the distance between the reference guide light and the drone is greater than the maximum specified distance set for the reference guide light, the control condition generator controls the motor so that the drone approaches the reference guide light. to generate According to this aspect, the drone using the corridor can safely and autonomously navigate inside the corridor according to the distance from the reference guide light.
  • FIG. 13 is a conceptual diagram showing an example of the configuration of the drone 20 according to this embodiment.
  • FIG. 13 is a block diagram for explaining the functional configuration of the drone 20. As shown in FIG. The drone 20 has an appearance similar to the drone 10 of the first embodiment.
  • the drone 20 includes a main body (not shown), a propeller 22, a control section 23, a motor 24, a camera 25, a communication section 26, a transmission information generation section 27, and a rechargeable battery 29.
  • the control unit 23, the communication unit 26, the transmission information generation unit 27, and the rechargeable battery 29 are stored inside the main body.
  • Most of the camera 25, except for the lens, is housed inside the main body.
  • the drone 20 has a cargo transport function (not shown), like the drone 10 of the first embodiment.
  • the propeller 22 has the same configuration as the propeller 12 of the first embodiment.
  • the propeller 22 is a mechanism that causes the drone 20 to fly.
  • Propeller 22 is fixed to the main body by an arm (not shown).
  • the propeller 22 is provided with a motor 24 for rotating the propeller 22 .
  • Four propellers 22 are installed on the main body of the drone 20 . The rotation speeds of the propellers 22 are controlled independently of each other.
  • the motor 24 has the same configuration as the motor 14 of the first embodiment.
  • a motor 24 is installed in each of the plurality of propellers 22 .
  • a motor 24 is a drive mechanism for rotating the propeller 22 .
  • the motor 24 rotates the propeller 22 under the control of the controller 23 .
  • the control unit 23 has the same configuration as the control unit 13 of the first embodiment.
  • the control unit 23 is a control device that controls the drone 20 .
  • the control unit 23 controls rotation of the propeller 22 .
  • the control unit 23 controls the rotation speed of each propeller 22 by driving and controlling the motor 24 of each propeller 22 .
  • the control unit 23 controls the camera 25 to capture images.
  • the control unit 23 causes the camera 25 to take an image at a predetermined timing.
  • the control unit 23 acquires an image captured by the camera 25 .
  • the control unit 23 controls the rotation of the propeller 22 based on the position of the guide light included in the image captured by the camera 25 while the drone 20 is navigating the interior of the corridor.
  • the control unit 23 controls the rotation of the propeller 22 so that the drone 20 flies to an appropriate position according to the position of the guide light that emits light in the color to be referenced.
  • control unit 23 monitors the charge amount of the rechargeable battery 29 .
  • the control unit 23 executes control according to the charge amount of the rechargeable battery 29 . For example, when the charge amount of the rechargeable battery 29 becomes equal to or less than a predetermined value, the controller 23 shifts to a preparatory stage (charging standby stage) for charging the rechargeable battery 29 . In the charging standby stage, when the charging station is detected in the image captured by the camera 25, the control unit 23 controls the rotation of the propeller 22 so as to move toward the charging station.
  • a preparatory stage charging standby stage
  • the camera 25 has the same configuration as the camera 15 of the first embodiment.
  • a camera 25 is arranged to photograph the surroundings of the drone 20 .
  • a plurality of cameras 25 may be mounted on the drone 20 in order to photograph the front, side, top, and bottom of the drone 20 .
  • the camera 25 takes pictures according to the control of the control section 23 .
  • the camera 25 outputs captured image data (also referred to as an image) to the communication unit 26 .
  • the communication unit 26 has the same configuration as the communication unit 16 of the first embodiment.
  • the communication unit 26 receives radio signals transmitted from the management tower. Further, the communication unit 26 transmits signals including transmission information generated by the transmission information generation unit 27 and images captured by the camera 25 .
  • the transmission information generation unit 27 has the same configuration as the transmission information generation unit 17 of the first embodiment.
  • the transmission information generation unit 27 generates transmission information unique to the drone 20 .
  • the outgoing information includes constant information and variable information.
  • the transmission information generation unit 27 generates transmission information including constant information and variable information in a predetermined cycle.
  • the permanent information includes registration information, manufacturing number, authentication information, etc. of the drone 20 .
  • the variation information includes position information and time.
  • the transmission information generation unit 27 outputs the generated transmission information to the communication unit 26 .
  • the rechargeable battery 29 is a general secondary battery with a charging function.
  • a rechargeable battery 29 is a power source for the drone 20 .
  • the amount of charge in the rechargeable battery 29 is monitored by the controller 23 .
  • the rechargeable battery 29 is not particularly limited as long as the drone 20 can navigate the corridor.
  • the rechargeable battery 29 can control charging to the rechargeable battery 29 and monitor the amount of charge of the rechargeable battery 29 .
  • FIG. 14 is a block diagram showing an example of the configuration of the control section 23.
  • the control unit 23 has an imaging control unit 231 , a detection unit 232 , a calculation unit 233 , a control condition generation unit 234 , a control condition setting unit 235 and a charge management unit 239 .
  • the imaging control unit 231 has the same configuration as the imaging control unit 131 of the first embodiment.
  • the imaging control unit 231 controls imaging of the camera 25 .
  • the imaging control unit 231 causes the camera 25 to take an image at a predetermined timing.
  • the imaging control unit 231 acquires an image captured by the camera 25 .
  • the imaging control section 231 outputs the acquired image to the detection section 232 .
  • the imaging control unit 231 outputs the acquired image to the communication unit 26 .
  • the charging management unit 239 monitors the charging amount of the rechargeable battery 29 . When the charge amount of the rechargeable battery 29 falls below the reference value, the charging management unit 239 outputs a signal (also referred to as a charging standby signal) indicating a charging standby state to the detecting unit 232 .
  • a signal also referred to as a charging standby signal
  • the detection unit 232 has the same configuration as the detection unit 132 of the first embodiment.
  • the detection unit 232 acquires the image captured by the camera 25 from the imaging control unit 231 .
  • the detection unit 232 detects light emission of a guide light (not shown) from the acquired image.
  • the detection unit 232 extracts the light emission color of the guide light to be referred to from the detected light emission of the guide light. For example, assume that the guide light on the left bank emits green light and the guide light on the right bank emits red light.
  • the detection unit 232 identifies the position of the guide light and the drone itself (the drone 20) in the area where the corridor is formed, based on the light emission of the guide light extracted from the image.
  • the detection unit 232 outputs to the calculation unit 233 the guide lights and the position of the drone 20 extracted from the image.
  • the detection unit 232 Upon receiving the charging standby signal, the detection unit 232 detects a charging station (not shown) from the acquired image. Detector 232 identifies the position of the detected charging station. The detection unit 232 outputs the position of the charging station to the calculation unit 233 in addition to the position of the guidance light and the drone itself (drone 20 ). If the charging station is not detected from the image, the charging standby state is maintained. The detection unit 232 maintains the charging standby state until the charging station is detected from the image. For example, if the charging station is not detected from the image even after a predetermined period of time has passed, the detection section 232 may output the emergency landing position to the calculation section 233 . With such a configuration, even if the charging amount of the rechargeable battery 29 becomes insufficient, the drone 20 can be safely landed.
  • the calculation unit 233 has the same configuration as the calculation unit 133 of the first embodiment.
  • the calculation unit 233 acquires the positions of the guide light 240 and the drone 20 from the detection unit 232 . If the drone (drone 20) has a function of receiving a GPS (Global Positioning System) signal, the calculation unit 233 may acquire position information included in the GPS signal.
  • the calculation unit 233 calculates the positional relationship between the guide light 240 and the drone 20 according to the acquired positions of the guide light 240 and the drone 20 itself.
  • the calculation unit 233 calculates the position (also called predicted arrival position) of the drone 20 at the next control timing (also called the next control timing) for the drone 20 following the imaging timing of the image.
  • the calculation unit 233 also calculates the target position (also called the control target position) of the drone 20 at the next control timing.
  • the calculation unit 233 calculates the position of the charging station as the control target position.
  • the calculation unit 233 outputs the calculated predicted arrival position and control target position to the control condition generation unit 234 .
  • the control condition generator 234 has the same configuration as the control condition generator 134 of the first embodiment.
  • the control condition generator 234 acquires the predicted arrival position and the control target position calculated by the calculator 233 .
  • the control condition generator 234 generates a control condition for controlling the drone 20 from the predicted arrival position to the control target position.
  • the control condition generation unit 234 calculates the traveling direction/speed of the drone 20 according to the control target position from the predicted arrival position.
  • the control condition generator 234 sets the number of rotations of the propellers 22 according to the traveling direction/speed.
  • the control condition generator 234 outputs the generated control conditions to the control condition setter 235 .
  • the control condition setting unit 235 has the same configuration as the control condition setting unit 135 of the first embodiment.
  • the control condition setting unit 235 acquires control conditions from the control condition generation unit 234 .
  • the control condition setting unit 235 sets the control condition to the motor 24 at the next control timing.
  • the rotation speed of each propeller 22 is controlled by driving the motor 24 according to the control conditions. As a result, the drone 20 travels at a direction/speed according to the control conditions.
  • FIGS. 15 and 16 are conceptual diagrams for explaining an example of control of the drone 20.
  • the drone 20 navigates inside the corridor according to the light emission of the guide light 240L installed on the left bank of the river (left side of the paper surface).
  • the drone 20 may navigate inside the corridor according to the light emission of the guide light 240R installed on the right bank of the river (right side of the paper surface).
  • corridors are omitted.
  • the image captured by the camera 25 mounted on the drone 20 includes the charging station CS.
  • the charging station CS emits light in a color different from that of the guide lights 240L and 240R.
  • the charging station CS may emit light depending on its availability. For example, by preventing the charging station CS from emitting light when there is no vacant charging port, it is possible to prevent the drone 20 from heading toward the charging station CS when the charging station CS cannot be used.
  • the top and pillars of the guide light 240 near the charging station CS can emit light in different colors, the light emitted from the guide light 240 serves as a mark in the height direction. easier to control.
  • FIG. 17 is a flowchart for explaining an example of the operation of the control section 23. As shown in FIG. In the following description, the controller 23 will be described as an operating body.
  • the control unit 23 acquires an image by controlling the imaging of the camera 25 mounted on the drone 20 (step S201).
  • the image captured by the camera 25 includes a guide light 240 installed on the bank of the river.
  • control unit 23 acquires the charge amount of the rechargeable battery 29 (step S202).
  • control unit 23 detects the light emitting unit of the guide light 240 to be referred to by image recognition from the image captured by the camera 25. (step S204).
  • control unit 23 calculates the positional relationship between the drone 20 and the guide light 240 (step S205). For example, the control unit 23 calculates the distance between the drone 20 and the guide light 240 as the positional relationship between the drone 20 and the guide light 240 .
  • control unit 23 calculates the predicted arrival position/control target position according to the positional relationship between the drone 20 and the guide light 240 (step S206).
  • step S203 if the charging amount of the rechargeable battery 29 is equal to or less than the predetermined value (No in step S203), the control unit 23 detects the charging station CS by image recognition from the image captured by the camera 25 (step S207). . For example, the control unit 23 detects light emission of the charging station CS.
  • control unit 23 calculates the positional relationship between the charging station CS and the drone 20 (step S208). For example, the control unit 23 calculates the distance between the charging station CS and the drone 20 detected from the image as the positional relationship between the charging station CS and the drone 20 .
  • control unit 23 calculates the predicted arrival position/control target position for parking the drone 20 at the charging station CS according to the positional relationship between the charging station CS and the drone 20 (step S207).
  • control unit 23 After step S206 or step S209, the control unit 23 generates control conditions according to the calculated predicted arrival position/control target position (step S210). The control unit 23 generates control conditions for the drone 20 to move from the predicted arrival position toward the control target position.
  • control unit 23 outputs the generated control conditions to the motor 24 (step S211).
  • the control unit 23 By driving the motor 24 according to the control conditions, it becomes possible for the drone 20 to fly within the specified range set inside the corridor and to park the drone 20 at the charging station CS. If the use of the corridor is to be continued, the process returns to step S201 after step S211.
  • the drone of this embodiment includes a main body, a propeller, a motor, a transmission information generation unit, a communication unit, a camera, a rechargeable battery, and a control unit (control device).
  • the motor is driven and controlled by a control device.
  • a propeller is rotatably mounted on the main body via an arm. The propeller rotates according to the driving of the motor.
  • the transmission information generation unit generates transmission information including identification information and position information of the device itself.
  • the communication unit communicates with a management device that manages the corridor.
  • the communication unit transmits transmission information to the management device.
  • the camera is image-controlled by a control device.
  • Rechargeable batteries are the drone's power source. The rechargeable battery can monitor and control the amount of charge.
  • the control unit has an imaging control unit, a detection unit, a calculation unit, a control condition generation unit, a control condition setting unit, and a charging management unit.
  • the imaging control unit performs imaging control of the camera mounted on the drone.
  • the charging management unit monitors the charging amount of the rechargeable battery mounted on the drone.
  • the charge management unit outputs a charge standby signal to the detection unit when the charge amount of the rechargeable battery falls below the reference value.
  • the detection unit detects the guide lights used to form the corridor used by the drone from the image captured by the camera.
  • the detector identifies the position of the detected guide light.
  • the detection unit detects a charging station capable of charging the rechargeable battery from the image captured by the camera in response to the charging standby signal.
  • the detector identifies the position of the detected charging station.
  • the calculation unit calculates, according to the positions of the drone and the guide light, a predicted arrival position of the drone at a control timing subsequent to the image capturing timing, and a control target position according to the positional relationship between the drone and the guide light. Also, the calculation unit calculates the position of the charging station as the control target position.
  • the control condition generator generates a control condition for the motor that drives the propeller of the drone according to the predicted arrival position and the control target position. For example, the control condition generator generates a control condition for moving the drone from the predicted arrival position toward the control target position.
  • the control condition setting unit sets control conditions for the motors of the drone.
  • the control unit of this embodiment detects the charging station from the image captured by the camera when the charge amount of the rechargeable battery mounted on the drone falls below the reference value.
  • the control unit sets a control condition for the drone motor to move the drone toward the detected charging station (control target position). Therefore, according to the present embodiment, safe autonomous navigation of the drone using the corridor can be realized according to the charge amount of the rechargeable battery mounted on the drone.
  • a drone according to a third embodiment will be described with reference to the drawings.
  • the drone of this embodiment performs navigation control according to the positional relationship with other drones.
  • an example of adding a function of performing navigation control according to the positional relationship with other drones to the first embodiment will be given.
  • the functionality of this embodiment may be added to the second embodiment.
  • configurations and functions similar to those of the first and second embodiments may be omitted.
  • FIG. 18 is a conceptual diagram showing an example of the configuration of the drone 30 according to this embodiment.
  • FIG. 18 is a block diagram for explaining the functional configuration of the drone 30. As shown in FIG. The drone 30 has an appearance similar to the drone 10 of the first embodiment.
  • the drone 30 includes a main body (not shown), a propeller 32, a control section 33, a motor 34, a camera 35, a communication section 36, a transmission information generation section 37, and a rechargeable battery 39.
  • the control unit 33, the communication unit 36, the transmission information generation unit 37, and the rechargeable battery 39 are stored inside the main body.
  • Most of the camera 35, except for the lens, is housed inside the main body.
  • the drone 30 has a cargo transport function (not shown), like the drone 10 of the first embodiment.
  • the propeller 32 has the same configuration as the propeller 12 of the first embodiment.
  • the propeller 32 is a mechanism that causes the drone 30 to fly.
  • Propeller 32 is fixed to the main body by an arm (not shown).
  • a motor 34 for rotating the propeller 32 is installed on the propeller 32 .
  • Four propellers 32 are installed on the main body of the drone 30 . The rotational speeds of the propellers 32 are controlled independently of each other.
  • the motor 34 has the same configuration as the motor 14 of the first embodiment.
  • a motor 34 is installed in each of the plurality of propellers 32 .
  • a motor 34 is a drive mechanism for rotating the propeller 32 .
  • the motor 34 rotates the propeller 32 under the control of the controller 33 .
  • the control unit 33 has the same configuration as the control unit 13 of the first embodiment.
  • the control unit 33 is a control device that controls the drone 30 .
  • the control unit 33 controls rotation of the propeller 32 .
  • the control unit 33 controls the rotation speed of each propeller 32 by driving and controlling the motor 34 of each propeller 32 .
  • the control unit 33 controls the camera 35 for imaging.
  • the control unit 33 causes the camera 35 to take an image at a predetermined timing.
  • the control unit 33 acquires an image captured by the camera 35 .
  • the control unit 33 controls the rotation of the propeller 32 based on the position of the guide light included in the image captured by the camera 35 while the drone 30 is navigating the interior of the corridor.
  • the control unit 33 controls the rotation of the propeller 32 so that the drone 30 flies to an appropriate position according to the position of the guide light that emits light in the color to be referenced.
  • control unit 33 acquires from the communication unit 36 the position information included in the transmission information of the other drones 30 that are navigating the corridor.
  • the control unit 33 calculates the positional relationship with the other drones 30 according to the acquired positional information.
  • the control unit 33 executes control according to the positional relationship with other drones 30 . For example, when the distance to another drone 30 becomes equal to or less than a predetermined value, the control unit 33 controls the rotation of the propeller 32 so as to move away from that drone 30 .
  • the camera 35 has the same configuration as the camera 15 of the first embodiment.
  • a camera 35 is arranged to photograph the surroundings of the drone 30 .
  • a plurality of cameras 35 may be mounted on the drone 30 in order to photograph the front, side, top, and bottom of the drone 30 .
  • the camera 35 takes pictures according to the control of the control section 33 .
  • the camera 35 outputs captured image data (also called an image) to the communication unit 36 .
  • the communication unit 36 has the same configuration as the communication unit 16 of the first embodiment.
  • the communication unit 36 receives radio signals transmitted from the management tower.
  • the communication unit 36 transmits signals including transmission information generated by the transmission information generation unit 37 and images captured by the camera 35 .
  • the communication unit 36 receives signals transmitted by other drones 30 that are navigating the corridor.
  • a signal transmitted by another drone 30 includes transmission information unique to that drone 30 .
  • the transmission information includes position information of the drone 30 that is the source of the signal.
  • the communication unit 36 outputs the position information included in the received transmission information to the control unit 33 .
  • the transmission information generation unit 37 has the same configuration as the transmission information generation unit 17 of the first embodiment.
  • the transmission information generation unit 37 generates transmission information unique to the drone 30 .
  • the outgoing information includes constant information and variable information.
  • the transmission information generation unit 37 generates transmission information including constant information and variable information at predetermined intervals.
  • the permanent information includes registration information, manufacturing number, authentication information, etc. of the drone 30 .
  • the variation information includes position information and time.
  • the transmission information generation unit 37 outputs the generated transmission information to the communication unit 36 .
  • the rechargeable battery 39 has the same configuration as the rechargeable battery 19 of the first embodiment.
  • the rechargeable battery 39 is a general secondary battery with a charging function.
  • a rechargeable battery 39 is a power source for the drone 30 .
  • FIG. 19 is a block diagram showing an example of the configuration of the control section 33.
  • the control unit 33 has an imaging control unit 331 , a detection unit 332 , a calculation unit 333 , a control condition generation unit 334 , a control condition setting unit 335 and an other device information acquisition unit 336 .
  • the imaging control unit 331 has the same configuration as the imaging control unit 131 of the first embodiment.
  • the imaging control unit 331 controls imaging of the camera 35 .
  • the imaging control unit 331 causes the camera 35 to take an image at a predetermined timing.
  • the imaging control unit 331 acquires an image captured by the camera 35 .
  • the imaging control section 331 outputs the acquired image to the detection section 332 .
  • the imaging control unit 331 outputs the acquired image to the communication unit 36 .
  • the detection unit 332 has the same configuration as the detection unit 132 of the first embodiment.
  • the detection unit 332 acquires the image captured by the camera 35 from the imaging control unit 331 .
  • the detection unit 332 detects light emission of a guide light (not shown) from the acquired image.
  • the detection unit 332 extracts the light emission color of the guide light to be referred to from the detected light emission of the guide light. For example, assume that the guide light on the left bank emits green light and the guide light on the right bank emits red light.
  • the detection unit 332 identifies the position of the guide light and the drone itself (the drone 30) in the area where the corridor is formed, based on the light emission of the guide light extracted from the image.
  • the detection unit 332 outputs to the calculation unit 333 the guide lights and the position of the drone itself (drone 30 ) extracted from the image.
  • the other aircraft information acquisition unit 336 acquires the position information of another drone 30 (other aircraft) from the communication unit 36.
  • the other device information acquisition unit 336 outputs the acquired position information of the other device to the calculation unit 333 .
  • the calculation unit 333 has the same configuration as the calculation unit 133 of the first embodiment.
  • the calculation unit 333 acquires the positions of the guide light 340 and the drone 30 from the detection unit 332 . If the drone (drone 30) has a function of receiving a GPS (Global Positioning System) signal, the calculator 333 may acquire position information included in the GPS signal.
  • the calculation unit 333 calculates the positional relationship between the guide light 340 and the own machine according to the obtained positions of the guide light 340 and the own machine.
  • the calculation unit 333 calculates the position (also called predicted arrival position) of the drone 30 at the next control timing (also called the next control timing) for the drone 30 following the imaging timing of the image.
  • the calculator 333 calculates a target position (also called a control target position) of the drone 30 at the next control timing.
  • the calculation unit 333 outputs the calculated predicted arrival position and control target position to the control condition generation unit 334 .
  • the calculation unit 333 acquires the position information of the other drones 30 (other aircraft) that are navigating the corridor from the other aircraft information acquisition unit 336 .
  • the calculation unit 333 uses the position information of the other aircraft to calculate the positional relationship between the other aircraft and the own aircraft. For example, the calculation unit 333 calculates the distance between the other machine and the own machine as the positional relationship between the other machine and the own machine.
  • the calculation unit 333 calculates the control target position so as to move away from the other aircraft. For example, the calculator 333 sets the control target position in the direction away from the position of the other aircraft.
  • the calculation unit 333 outputs the calculated predicted arrival position and control target position to the control condition generation unit 334 .
  • the control condition generator 334 has the same configuration as the control condition generator 134 of the first embodiment.
  • the control condition generator 334 acquires the predicted arrival position and the control target position calculated by the calculator 333 .
  • the control condition generator 334 generates a control condition for controlling the drone 30 from the predicted arrival position to the control target position.
  • the control condition generator 334 calculates the traveling direction/speed of the drone 30 according to the control target position from the predicted arrival position.
  • the control condition generator 334 sets the number of rotations of the propellers 32 according to the traveling direction/speed.
  • the control condition generator 334 outputs the generated control conditions to the control condition setter 335 .
  • the control condition setting unit 335 has the same configuration as the control condition setting unit 135 of the first embodiment.
  • the control condition setting unit 335 acquires control conditions from the control condition generation unit 334 .
  • the control condition setting unit 335 sets the control condition to the motor 34 at the next control timing.
  • the rotation speed of each propeller 32 is controlled by driving the motor 34 according to the control conditions. As a result, the drone 30 travels at a direction/speed according to the control conditions.
  • FIGS. 20 and 21 are conceptual diagrams for explaining an example of control of the drone 30.
  • FIG. 20 and 21 the river flows from the bottom (upstream) to the top (downstream) of the paper.
  • the drone 30 navigates inside the corridor according to the light emission of the guide light 340L installed on the left bank of the river (left side of the paper surface).
  • the drone 30 may navigate inside the corridor according to the light emission of the guide light 340R installed on the right bank of the river (right side of the paper surface).
  • corridors are omitted.
  • An occupation range R is set around the drones 30-1 to 30-3.
  • the occupied range R is indicated by a dashed circle.
  • the speed differences of the drones 30-1 to 30-3 are indicated by the length of the arrows. The longer the arrow, the faster the speed, and the shorter the arrow, the slower the speed.
  • three drones 30-1 to 30-3 are sailing along the corridor.
  • the scene in FIG. 20 shows a situation in which a fast-speed drone 30-2 is traveling behind the drones 30-1 and 30-3, which are traveling at normal speed.
  • the occupied range R of the drones 30-1 and 30-3 overlaps the occupied range R of the drone 30-2.
  • the drones 30-1 to 30-3 control their own propellers 32 so that their occupied ranges R do not overlap each other. That is, the drones 30-1 to 30-3 are cooperatively controlled so that their occupied ranges R do not overlap each other.
  • the scene in FIG. 21 is the situation as a result of cooperative control performed by the drones 30-1 to 30-3 after the scene in FIG.
  • the drone 30-1 speeds up and moves forward to the left so as to move away from the drone 30-2.
  • the drone 30-2 slows down so as not to approach the drones 30-1 and 30-2.
  • the drone 30-3 speeds up and moves forward to the right so as to move away from the drone 30-2.
  • FIG. 22 is a flowchart for explaining an example of the operation of the control section 33. As shown in FIG. In the following description, the controller 33 will be described as an operating body.
  • the control unit 33 acquires an image by controlling the imaging of the camera 35 mounted on the drone 30 (step S301).
  • the image captured by the camera 35 includes a guide light 340 installed on the bank of the river.
  • control unit 33 detects the light emitting unit of the guide light 340 to be referenced by image recognition from the image captured by the camera 35 (step S302).
  • control unit 33 Upon receiving information transmitted by another aircraft (also referred to as other aircraft information) (Yes in step S303), the control unit 33 determines whether the cooperation range overlaps with that of another drone 30 (other aircraft) (step S304).
  • the control unit 33 calculates the positional relationship between the guide light 340 and the other drone and the own drone (step S305). For example, the control unit 33 calculates the distance between the drone 30 and the guide light 340 as the positional relationship between the drone 30 and the guide light 340 . Also, the control unit 33 uses the positional information of the other aircraft and the own aircraft to calculate the distance between the other aircraft and the own aircraft as the positional relationship between the other aircraft and the own aircraft.
  • control unit 33 calculates the predicted arrival position/control target position according to the positional relationship between the guide light 340, the other aircraft, and the own aircraft (step S306).
  • step S303 if the charge amount of the rechargeable battery 39 is equal to or less than the predetermined value (No in step S303), the control unit 33 recognizes the light emitting unit of the guide light 340 to be referenced from the image captured by the camera 35. to detect
  • control unit 33 calculates the positional relationship between the drone 30 and the guide light 340 (step S308). For example, the control unit 33 calculates the distance between the drone 30 and the guide light 340 as the positional relationship between the guide light 340 and the drone 30 .
  • control unit 33 After step S306 or step S308, the control unit 33 generates a control condition according to the calculated predicted arrival position/control target position (step S309).
  • the control unit 33 generates control conditions for the drone 30 to move from the predicted arrival position toward the control target position.
  • control unit 33 outputs the generated control conditions to the motor 34 (step S310).
  • the drone 30 can navigate within the specified range set inside the corridor. If the use of the corridor is to be continued, the process returns to step S301 after step S310.
  • the drone of this embodiment includes a main body, a propeller, a motor, a transmission information generation unit, a communication unit, a camera, a rechargeable battery, and a control unit (control device).
  • the motor is driven and controlled by a control device.
  • a propeller is rotatably mounted on the main body via an arm. The propeller rotates according to the driving of the motor.
  • the transmission information generation unit generates transmission information including identification information and position information of the device itself.
  • the communication unit communicates with a management device that manages the corridor.
  • the communication unit transmits transmission information to the management device.
  • the communication unit receives transmission information from other drones (other devices).
  • the camera is image-controlled by a control device. Rechargeable batteries are the drone's power source.
  • the control unit has an imaging control unit, a detection unit, a calculation unit, a control condition generation unit, a control condition setting unit, and an other device information acquisition unit.
  • the imaging control unit performs imaging control of the camera mounted on the drone.
  • the detection unit detects the guide lights used to form the corridor used by the drone from the image captured by the camera.
  • the detector identifies the position of the detected guide light.
  • the other aircraft information acquisition unit acquires position information of other drones that use the corridor.
  • the calculation unit calculates, according to the positions of the drone and the guide light, a predicted arrival position of the drone at a control timing subsequent to the image capturing timing, and a control target position according to the positional relationship between the drone and the guide light. Also, the calculation unit calculates the distance between the other drone and the own drone.
  • the calculation unit sets the control target position in a direction away from the other drone when the distance between the other drone and the own aircraft is less than a predetermined distance.
  • the control condition generator generates a control condition for the motor that drives the propeller of the drone according to the predicted arrival position and the control target position. For example, the control condition generator generates a control condition for moving the drone from the predicted arrival position toward the control target position.
  • the control condition setting unit sets control conditions for the motors of the drone.
  • the control unit of this embodiment sets the control target position according to the positional relationship between the own machine and the other machine. Therefore, according to this embodiment, a plurality of drones using the corridor can safely and autonomously navigate according to their mutual positional relationships.
  • the drone of this embodiment performs navigation control according to sound waves emitted from the guide lights.
  • the sound emitted from the guide light may be an ultrasonic wave or a sound in the audible range.
  • the sound wave emitted from the guide light preferably has a wavelength band different from that of the flying sound of the drone and the environmental sound.
  • the guide light may be provided with a directional speaker capable of emitting highly directional sound waves.
  • Directional speakers can be used to project highly directional sound waves to drones using corridors.
  • a function of performing navigation control according to sound waves emitted from a guide light is added to the first embodiment.
  • the functionality of this embodiment may be added to the second and third embodiments. In the following, configurations and functions similar to those of the first to third embodiments may be omitted.
  • composition 23 and 24 are conceptual diagrams showing an example of the configuration of the drone 40 according to this embodiment.
  • FIG. 23 is a block diagram for explaining the functional configuration of the drone 40.
  • FIG. 24 is a bottom view of the drone 40.
  • FIG. The top surface of the drone 40 is similar to that of the drone 10 of the first embodiment.
  • the drone 40 includes a main body 41 , a propeller 42 , a control section 43 , a motor 44 , a camera 45 , a communication section 46 , a transmission information generation section 47 , a microphone 48 and a rechargeable battery 49 .
  • the control unit 43, communication unit 46, transmission information generation unit 47, microphone 48, and rechargeable battery 49 are housed inside the main body.
  • Most of the camera 45, except for the lens, is housed inside the main body.
  • the drone 40 has a cargo transport function (not shown), like the drone 10 of the first embodiment.
  • the main body 41 is a housing that houses the control unit 43, the camera 45, the communication unit 46, the transmission information generation unit 47, the microphone 48, the rechargeable battery 49, and the like. At least one propeller 42 for flying the drone 40 is attached to the main body 41 .
  • the main body 41 is provided with a space for storing a load therein, a mechanism for hanging the load, a place on which the load is placed, and the like, depending on the application.
  • the shape and material of the main body 41 are not particularly limited.
  • the propeller 42 has the same configuration as the propeller 12 of the first embodiment.
  • the propeller 42 is a mechanism that causes the drone 40 to fly.
  • Propeller 42 is fixed to the main body by arm 420 .
  • a motor 44 for rotating the propeller 42 is installed on the propeller 42 .
  • Four propellers 42 are installed on the main body of the drone 40 .
  • the rotational speeds of the propellers 42 are controlled independently of each other.
  • Propeller 42 may be of a silent design. For example, if the width of the propellers 42 is increased or the number of propellers 42 is increased, a sufficient thrust force can be obtained with a small number of revolutions, so that flying noise caused by the rotation of the propellers 42 can be reduced.
  • the motor 44 has the same configuration as the motor 14 of the first embodiment.
  • a motor 44 is installed in each of the plurality of propellers 42 .
  • a motor 44 is a drive mechanism for rotating the propeller 42 .
  • the motor 44 rotates the propeller 42 under the control of the controller 43 .
  • Motor 44 may be of a silent design. For example, if a brushless motor is used as the motor 44, quietness can be improved. Further, a vibration isolating member such as vibration isolating rubber may be interposed in the connecting portion so that the vibration of the motor 44 is less likely to be transmitted to the main body (housing).
  • the microphone 48 receives sound waves emitted from the guide lights.
  • the microphone 48 converts received sound waves into electrical signals (also referred to as sound wave signals).
  • the microphone 48 outputs the converted sound wave signal to the control unit 43 .
  • the microphone 48 may be configured to selectively receive sound waves in a specific frequency band emitted from the guide lights. If the frequency band of the sound waves received by the microphone 48 is limited, it is possible to prevent the sound waves emitted from the guide lights from being difficult to receive due to the flying sound of the drone 40 and environmental sounds.
  • the microphone 48 may have directivity to selectively receive sound waves arriving from a specific direction. If the microphone 48 has directivity, it can selectively receive sound waves coming from the direction of the guide light, so that the effects of flying sounds of the drone 40 and environmental sounds can be reduced.
  • the control unit 43 has the same configuration as the control unit 13 of the first embodiment.
  • the control unit 43 is a control device that controls the drone 40 .
  • the control unit 43 controls rotation of the propeller 42 .
  • the control unit 43 controls the rotation speed of each propeller 42 by driving and controlling the motor 44 of each propeller 42 .
  • the control unit 43 controls the camera 45 to capture images.
  • the control unit 43 causes the camera 45 to take an image at a predetermined timing.
  • the control unit 43 acquires an image captured by the camera 45 .
  • the control unit 43 acquires sound wave signals from the microphone 48 . While the drone 40 is navigating inside the corridor, the control unit 43 calculates the positional relationship between the drone 40 and the guide light based on the image captured by the camera 45 and the sound wave signal received by the microphone 48. .
  • the control unit 43 controls rotation of the propeller 42 according to the calculated positional relationship.
  • the control unit 43 uses sound wave signals to assist control based on images captured by the camera 45 .
  • the controller 43 may control the rotation of the propeller 42 based only on the sound wave signal.
  • the camera 45 has the same configuration as the camera 15 of the first embodiment.
  • a camera 45 is arranged to photograph the surroundings of the drone 40 .
  • a plurality of cameras 45 may be mounted on the drone 40 in order to photograph the front, side, top, and bottom of the drone 40 .
  • the camera 45 shoots according to the control of the control section 43 .
  • the camera 45 outputs captured image data (also referred to as an image) to the communication unit 46 .
  • the communication unit 46 has the same configuration as the communication unit 16 of the first embodiment.
  • the communication unit 46 receives radio signals transmitted from the management tower. Further, the communication unit 46 transmits transmission information generated by the transmission information generation unit 47 and a signal including an image captured by the camera 45 . Furthermore, the communication unit 46 receives signals transmitted by other drones 40 that are navigating the corridor. A signal transmitted by another drone 40 includes transmission information unique to that drone 40 .
  • the transmission information includes position information of the drone 40 that is the source of the signal.
  • the communication unit 46 outputs the position information included in the received transmission information to the control unit 43 .
  • the transmission information generation unit 47 has the same configuration as the transmission information generation unit 17 of the first embodiment.
  • the transmission information generation unit 47 generates transmission information unique to the drone 40 .
  • the outgoing information includes constant information and variable information.
  • the transmission information generation unit 47 generates transmission information including constant information and variable information at predetermined intervals.
  • the permanent information includes registration information, manufacturing number, authentication information, etc. of the drone 40 .
  • the variation information includes position information and time.
  • the transmission information generation unit 47 outputs the generated transmission information to the communication unit 46 .
  • the rechargeable battery 49 has the same configuration as the rechargeable battery 19 of the first embodiment.
  • the rechargeable battery 49 is a general secondary battery with a charging function.
  • a rechargeable battery 49 is a power source for the drone 40 .
  • FIG. 25 is a block diagram showing an example of the configuration of the control section 43.
  • the control unit 43 has an imaging control unit 431 , a detection unit 432 , a calculation unit 433 , a control condition generation unit 434 , a control condition setting unit 435 and a sound wave signal acquisition unit 438 .
  • the imaging control unit 431 has the same configuration as the imaging control unit 131 of the first embodiment.
  • the imaging control unit 431 controls imaging of the camera 45 .
  • the imaging control unit 431 causes the camera 45 to take an image at a predetermined timing.
  • the imaging control unit 431 acquires an image captured by the camera 45 .
  • the imaging control section 431 outputs the acquired image to the detection section 432 .
  • the imaging control unit 431 outputs the acquired image to the communication unit 46 .
  • the detection unit 432 has the same configuration as the detection unit 132 of the first embodiment.
  • the detection unit 432 acquires the image captured by the camera 45 from the imaging control unit 431 .
  • the detection unit 432 detects light emission of a guide light (not shown) from the acquired image.
  • the detection unit 432 extracts the light emission color of the guide light to be referred to from the detected light emission of the guide light. For example, assume that the guide light on the left bank emits green light and the guide light on the right bank emits red light.
  • the detection unit 432 identifies the position of the guide light and the drone itself (drone 40) in the area where the corridor is formed, based on the light emission of the guide light extracted from the image.
  • the detection unit 432 outputs to the calculation unit 433 the guide lights and the position of the drone 40 extracted from the image.
  • the sound wave signal acquisition unit 438 acquires from the microphone 48 a sound wave signal based on the sound wave emitted from the guide light.
  • the sound wave signal acquisition unit 438 outputs the acquired sound wave signal to the calculation unit 433 .
  • the sonic signal acquisition unit 438 may filter the sonic signal using a filter that selectively passes the frequency band of the sonic wave emitted from the guide light. By filtering the sound wave signal, it is possible to reduce the disturbance caused by the flying sound of the drone 40, the environmental sound, and the like. Also, the sound wave signal acquisition unit 438 may cancel the flight sound of the drone 40 from the sound wave signal.
  • the flying sound of the drone 40 is mainly the driving sound of the motor 44, the rotating sound of the propeller 42, the resonance sound of the main body (housing), and the like, and is characterized by its frequency band and regularity. Therefore, by canceling the flight sound of the drone 40 from the sound wave signal according to the characteristics of the flight sound of the drone 40, the disturbance caused by the flight sound of the drone 40 can be reduced.
  • the calculation unit 433 has the same configuration as the calculation unit 133 of the first embodiment.
  • the calculation unit 433 acquires the positions of the guide light 440 and the drone 40 from the detection unit 432 . If the drone (drone 40) has a function of receiving a GPS (Global Positioning System) signal, the calculation unit 433 may acquire position information included in the GPS signal.
  • the calculation unit 433 calculates the positional relationship between the guide light 440 and the own machine according to the obtained positions of the guide light 440 and the own machine.
  • the calculation unit 433 calculates the position (also called predicted arrival position) of the drone 40 at the next control timing (also called the next control timing) for the drone 40 following the imaging timing of the image.
  • the calculator 433 calculates a target position (also called a control target position) of the drone 40 at the next control timing.
  • the calculation unit 433 outputs the calculated predicted arrival position and control target position to the control condition generation unit 434 .
  • the calculation unit 433 acquires, from the sound wave signal acquisition unit 438, a sound wave signal corresponding to the sound wave emitted from the guide light.
  • the calculation unit 433 calculates the positional relationship with the guide light according to the frequency, strength (sound intensity), etc. of the acquired sound wave signal.
  • Sound intensity is the amount of energy of sound waves per unit area per unit time.
  • the frequency of the sound waves received by the microphone 48 changes due to the Doppler effect.
  • the microphone 48 picks up sound waves with a higher frequency than the sound waves emitted by the guidance light.
  • the microphone 48 receives sound waves having the same height as the sound waves emitted by the guide light.
  • the microphone 48 picks up sound waves with a lower frequency than the sound waves emitted by the guide light. That is, the positional relationship with the guide light can be grasped according to the frequency of the sound wave received by the microphone 48 .
  • a corridor along which the drone 40 navigates is formed by a plurality of guide lights. Therefore, the drone 40 navigating the corridor can grasp the positional relationship of the guide lights according to the change in the frequency of the sound waves emitted from the guide lights.
  • the intensity of the sound waves (sound intensity) received by the microphone 48 varies depending on the distance from the guide light. change by As the drone 40 approaches the guidance light, the microphone 48 gradually increases the acoustic intensity of the sound waves it receives. At the timing when the drone 40 is closest to the guide light, the sound intensity of the received sound waves is maximized. As the drone 40 moves away from the guide light, the sound intensity of the sound waves it receives gradually decreases. That is, the positional relationship with the guide lights can be grasped according to the sound intensity of the sound waves received by the microphone 48 .
  • a corridor along which the drone 40 navigates is formed by a plurality of guide lights. Therefore, the drone 40 navigating the corridor can grasp the positional relationship of the guide lights according to changes in the sound intensity emitted from the guide lights. For example, the drone 40 can be guided more accurately by emitting highly directional sound waves from the guide lights toward the corridor.
  • the calculation unit 433 calculates the positional relationship between the drone 40 and the guide light according to changes in the frequency of the sound wave signal and the sound intensity. For example, when the distance between the drone 40 and the guide light is less than the minimum specified distance, the calculator 433 calculates the control target position in the direction away from the guide light. For example, when the distance between the drone 40 and the guide light is greater than or equal to the maximum designated distance, the calculation unit 433 calculates the control target position in the direction toward the guide light. The calculation unit 433 outputs the calculated predicted arrival position and control target position to the control condition generation unit 434 .
  • the control condition generator 434 has the same configuration as the control condition generator 134 of the first embodiment.
  • the control condition generator 434 acquires the predicted arrival position and the control target position calculated by the calculator 433 .
  • the control condition generator 434 generates a control condition for controlling the drone 40 from the predicted arrival position to the control target position.
  • the control condition generation unit 434 calculates the traveling direction/speed of the drone 40 according to the control target position from the predicted arrival position.
  • the control condition generator 434 sets the number of rotations of the propellers 42 according to the traveling direction/speed.
  • the control condition generator 434 outputs the generated control conditions to the control condition setter 435 .
  • the control condition setting unit 435 has the same configuration as the control condition setting unit 135 of the first embodiment.
  • the control condition setting unit 435 acquires control conditions from the control condition generation unit 434 .
  • the control condition setting unit 435 sets the control condition to the motor 44 at the next control timing.
  • the rotation speed of each propeller 42 is controlled by driving the motor 44 according to the control conditions. As a result, the drone 40 travels in a direction/speed according to the control conditions.
  • FIG. 26 is a conceptual diagram for explaining an example of control of the drone 40.
  • the river flows from the bottom (upstream) to the top (downstream) of the paper.
  • the drone 40 navigates inside the corridor according to the light emission/sound wave of the guide light 440L installed on the left bank of the river (left side of the paper surface).
  • the drone 40 may navigate inside the corridor according to the light emission/sound wave of the guide light 440R installed on the right bank of the river (right side of the paper surface).
  • corridors are omitted.
  • the guide lights 440L and 440R emit sound waves of different frequencies.
  • the guide lights 440L and 440R emit sound waves of different tones.
  • the guidance light 440L and the guidance light 440R are configured to receive the flight sound of the drone 40, and the corridor management side identifies the flight state of the drone 40 traveling in the corridor according to the received flight sound.
  • the management side receives the flight sound of the drone 40 and identifies the position of the drone 40 .
  • the management side can manage the drones 40 navigating the corridor according to the identified positions of the drones.
  • FIG. 27 is a flowchart for explaining an example of the operation of the control section 43.
  • a normal mode for control using an image picked up by the camera 45 and a sound wave mode for control using a sound wave received by the microphone 48 are performed separately will be given.
  • the normal mode and the sonic mode may be used together.
  • the controller 43 will be described as an operating entity.
  • step S41 if it is not the sound wave mode (Yes in step S41), the control unit 43 controls the imaging of the camera 45 mounted on the drone 40 to acquire an image (step S42).
  • the image captured by the camera 45 includes guide lights installed on the bank of the river.
  • control section 43 detects the light-emitting section of the guide light to be referenced by image recognition from the image captured by the camera 45 (step S43).
  • step S41 the control unit 43 receives sound waves emitted from the guide light (step S44).
  • control unit 43 calculates the positional relationship between the drone 40 and the guide lights according to the received sound waves (step S45).
  • control unit 43 calculates the predicted arrival position/control target position according to the positional relationship between the drone 40 and the guide light (step S46).
  • control unit 43 generates a control condition according to the calculated predicted arrival position/control target position (step S47).
  • the control unit 43 generates control conditions for the drone 40 to move from the predicted arrival position toward the control target position.
  • control unit 43 outputs the generated control conditions to the motor 44 (step S48).
  • the drone 40 can navigate within the specified range set inside the corridor. If the use of the corridor is to be continued, the process returns to step S41 after step S48.
  • the drone of this embodiment includes a main body, a propeller, a motor, a transmission information generation section, a communication section, a camera, a rechargeable battery, a microphone, and a control section (control device).
  • the motor is driven and controlled by a control device.
  • a propeller is rotatably mounted on the main body via an arm. The propeller rotates according to the driving of the motor.
  • the transmission information generation unit generates transmission information including identification information and position information of the device itself.
  • the communication unit communicates with a management device that manages the corridor.
  • the communication unit transmits transmission information to the management device.
  • the camera is image-controlled by a control device.
  • a microphone picks up the sound waves emitted by the guide lights used to form the corridor.
  • Rechargeable batteries are the drone's power source.
  • the control unit has an imaging control unit, a detection unit, a calculation unit, a control condition generation unit, a control condition setting unit, and a sound wave signal acquisition unit.
  • the imaging control unit performs imaging control of the camera mounted on the drone.
  • the detection unit detects the guide lights used to form the corridor used by the drone from the image captured by the camera.
  • the detector identifies the position of the detected guide light.
  • the sound wave signal acquisition unit acquires a sound wave signal corresponding to the sound wave emitted from the guide light.
  • the calculation unit calculates, according to the positions of the drone and the guide light, a predicted arrival position of the drone at a control timing subsequent to the image capturing timing, and a control target position according to the positional relationship between the drone and the guide light.
  • the calculation unit calculates the positional relationship with the guide light using the acquired sound wave signal. For example, the calculator calculates the distance to the guide light according to the frequency of the acquired sound wave signal. For example, the calculator calculates the distance to the guide light according to the acoustic intensity of the acquired sound wave signal.
  • the control condition generator generates a control condition for the motor that drives the propeller of the drone according to the predicted arrival position and the control target position. For example, the control condition generator generates a control condition for moving the drone from the predicted arrival position toward the control target position.
  • the control condition setting unit sets control conditions for the motors of the drone.
  • the control unit of this embodiment can control the navigation of the drone according to the sound waves received by the microphone mounted on the drone. Therefore, according to this embodiment, autonomous navigation of the drone can be realized even in a situation with poor visibility.
  • radio waves radar
  • laser light rays
  • a drone navigating inside a corridor can be guided to an appropriate navigation route by irradiating a radar/laser from a bridge in the direction of travel of the drone toward the corridor and guiding an aircraft to land. If you are on a bridge over a river, it is easy to aim the drone and irradiate the radar/laser along the direction of travel of the drone.
  • the laser is more directional than the radar, making it easier to aim at the drone.
  • guidance radio waves containing ID information (RID) of a specific drone may be emitted from a guide light or control tower toward the corridor to guide a specific drone with the matching RID.
  • the drone to be guided can be guided regardless of the directivity of the radio wave.
  • guided radio waves can be used to guide a drone that is about to stray from a corridor to the inside of the corridor or to the guide light/control tower.
  • guidance radio waves it is possible to control a drone illegally using the corridor to guide it to the outside of the corridor, to a guide light/management tower, or to crash it into a river.
  • the management device of the present embodiment transmits guidance information for guiding the drones navigating the interior of the corridor in an appropriate positional relationship to the drones.
  • the management device of this embodiment manages the flight of the drones according to the first to fourth embodiments within the corridor to be managed.
  • FIG. 28 is a block diagram showing an example of the configuration of the management device 500.
  • Management device 500 has transmission information acquisition section 501 , position calculation section 502 , guidance position calculation section 503 , guidance information generation section 505 , and guidance information output section 507 .
  • the management device 500 is constructed in a cloud or server (not shown).
  • the management device 500 may be located at a guide light or management tower used to form a corridor.
  • the transmission information acquisition unit 501 acquires transmission information 560 of a plurality of drones using the corridor from a management tower (not shown) placed near the corridor. Transmission information acquisition section 501 extracts the time (transmission time) and location information included in transmission information 560 . Transmission information acquisition section 501 outputs the extracted transmission time and position information to position calculation section 502 . There are no particular restrictions on the use of information other than the origination time and location information.
  • the location calculation unit 502 acquires the transmission time and location information of multiple drones using the corridor from the transmission information acquisition unit 501 .
  • a position calculation unit 502 calculates the positions of a plurality of drones using the acquired position information. For example, the position calculator 502 calculates the positions of multiple drones at the time of transmission. For example, the position calculator 502 calculates the positions of the plurality of drones at a point in time after a predetermined time has passed since the time of transmission. For example, the position calculator 502 calculates the positions of the plurality of drones at the time the guidance information 570 generated based on the dispatch time is received by the plurality of drones navigating the corridor.
  • the position calculator 502 calculates the positions of the plurality of drones at the time the guidance information 570 is received, based on the positions and velocities of the plurality of drones that have been calculated so far.
  • the position calculation unit 502 outputs the calculated positions of the plurality of drones to the guidance position calculation unit 503 .
  • the guidance position calculation unit 503 acquires the positions of multiple drones calculated by the position calculation unit 502 .
  • the guidance position calculation unit 503 calculates the guidance positions of the plurality of drones inside the corridor based on the acquired positional relationships of the plurality of drones. For example, the guidance position calculation unit 503 calculates positions to guide the drones according to the positions of the drones at the time when the guidance information 570 is received. For example, when the ranges (also referred to as occupied ranges) set for each of the plurality of drones overlap each other at the time the guidance information 570 is received, the position where the occupied ranges do not overlap is calculated as the guidance position. For example, the occupied range is set as a sphere or circle centered on the drone.
  • the guidance position calculation unit 503 outputs the calculated guidance positions of the plurality of drones to the guidance information generation unit 505 .
  • the guidance information generation unit 505 acquires the guidance position calculated by the guidance position calculation unit 503.
  • the guidance information generation unit 505 generates guidance information 570 including control conditions for each drone using the acquired guidance positions of the plurality of drones.
  • the control conditions included in the guidance information 570 are information for controlling the directions and speeds of multiple drones.
  • the guidance information generation unit 505 generates the guidance information 570 that controls the positions of the drones whose occupied ranges overlap each other at the reception time of the guidance information 570 so that the drones are moved away from each other. If there are no drones whose occupied ranges overlap each other at the time when the guidance information is received, the guidance information generation unit 505 does not generate the guidance information 570 for those drones. For example, even if there are no drones whose occupied ranges overlap each other at the time when the guidance information is received, the guidance information generation unit 505 may generate the guidance information 570 that controls the positions of these drones so that they do not approach each other. .
  • the guidance information generation unit 505 may generate guidance information 570 for multiple drones using a machine learning technique. For example, a model is generated that outputs guidance information 570 that arranges a plurality of drones in an appropriate positional relationship in response to input of positional information of a plurality of drones navigating inside a corridor. If such a model is used, calculation by the guidance position calculation unit 503 can be omitted. Description of the details of the model that outputs the guidance information 570 according to the input of the positional information of a plurality of drones will be omitted.
  • the guidance information output unit 507 outputs the guidance information 570 generated by the guidance information generation unit 505 to the management tower. If the management device 500 is placed near the corridor, the management device 500 may be configured to transmit the guidance information 570 to the drones navigating the corridor. For example, the management device 500 may be placed in a management tower or guide light.
  • FIG. 29 is a conceptual diagram showing an example of the configuration of the drone 50 that uses the corridor that is managed by the management device 500 according to this embodiment.
  • FIG. 29 is a block diagram for explaining the functional configuration of the drone 50.
  • the drone 50 has an appearance similar to the drone 10 of the first embodiment.
  • Drone 50 may have a similar appearance/function as drone 40 of the fourth embodiment.
  • the drone 50 includes a main body (not shown), a propeller 52, a control section 53, a motor 54, a camera 55, a communication section 56, a transmission information generation section 57, and a rechargeable battery 59.
  • Control unit 53, communication unit 56, transmission information generation unit 57, and rechargeable battery 59 are housed inside the main body.
  • Most of the camera 55, except for the lens, is housed inside the main body.
  • the drone 50 has a cargo transport function (not shown), like the drone 10 of the first embodiment.
  • the propeller 52 has the same configuration as the propeller 12 of the first embodiment.
  • the propeller 52 is a mechanism that causes the drone 50 to fly.
  • Propeller 52 is fixed to the main body by an arm (not shown).
  • a motor 54 for rotating the propeller 52 is installed on the propeller 52 .
  • Four propellers 52 are installed on the main body of the drone 50 . The rotation speeds of the propellers 52 are controlled independently of each other.
  • the motor 54 has the same configuration as the motor 14 of the first embodiment.
  • a motor 54 is installed in each of the plurality of propellers 52 .
  • a motor 54 is a drive mechanism for rotating the propeller 52 .
  • the motor 54 rotates the propeller 52 under the control of the controller 53 .
  • the control unit 53 has the same configuration as the control unit 13 of the first embodiment.
  • the control unit 53 is a control device that controls the drone 50 .
  • the control unit 53 controls rotation of the propeller 52 .
  • the control unit 53 controls the rotation speed of each propeller 52 by driving and controlling the motor 54 of each propeller 52 .
  • the control unit 53 controls the camera 35 for imaging.
  • the control unit 53 causes the camera 55 to take an image at a predetermined timing.
  • the control unit 53 acquires an image captured by the camera 55 .
  • the control unit 53 controls the rotation of the propeller 52 based on the position of the guide light included in the image captured by the camera 55 while the drone 50 is navigating the interior of the corridor.
  • the control unit 53 controls the rotation of the propeller 52 so that the drone 50 flies to an appropriate position according to the position of the guide light that emits light in the color to be referenced.
  • control unit 53 acquires the guidance information 570 transmitted from the management device 500 from the communication unit 56 .
  • the control section 53 controls the rotation of the propeller 52 according to the guidance information.
  • the camera 55 has the same configuration as the camera 15 of the first embodiment.
  • a camera 55 is arranged to photograph the surroundings of the drone 50 .
  • a plurality of cameras 55 may be mounted on the drone 50 in order to photograph the front, side, top, and bottom of the drone 50 .
  • the camera 55 shoots according to the control of the control section 53 .
  • the camera 55 outputs captured image data (also referred to as an image) to the communication unit 56 .
  • the communication unit 56 has the same configuration as the communication unit 16 of the first embodiment.
  • the communication unit 56 receives radio signals transmitted from the management tower.
  • the radio signal transmitted from the control tower contains guidance information 570 .
  • the communication unit 56 transmits transmission information generated by the transmission information generation unit 57 and a signal including an image captured by the camera 55 .
  • the communication unit 56 outputs the received guidance information 570 to the control unit 53 .
  • the transmission information generation unit 57 has the same configuration as the transmission information generation unit 17 of the first embodiment.
  • the transmission information generation unit 57 generates transmission information unique to the drone 50 .
  • the outgoing information includes constant information and variable information.
  • Transmission information generation unit 57 generates transmission information including constant information and variable information at predetermined intervals.
  • the permanent information includes registration information, manufacturing number, authentication information, etc. of the drone 50 .
  • the variation information includes position information and time.
  • the transmission information generation unit 57 outputs the generated transmission information to the communication unit 56 .
  • the rechargeable battery 59 has the same configuration as the rechargeable battery 19 of the first embodiment.
  • the rechargeable battery 59 is a general secondary battery with a charging function.
  • a rechargeable battery 59 is a power source for the drone 50 .
  • FIG. 30 is a block diagram showing an example of the configuration of the control section 53.
  • the control unit 53 has an imaging control unit 531 , a detection unit 532 , a calculation unit 533 , a control condition generation unit 534 , a control condition setting unit 535 and a guidance information acquisition unit 536 .
  • the imaging control unit 531 has the same configuration as the imaging control unit 131 of the first embodiment.
  • the imaging control unit 531 controls imaging of the camera 55 .
  • the imaging control unit 531 causes the camera 55 to take an image at a predetermined timing.
  • the imaging control unit 531 acquires an image captured by the camera 55 .
  • the imaging control section 531 outputs the acquired image to the detection section 532 .
  • the imaging control unit 531 outputs the acquired image to the communication unit 56 .
  • the detection unit 532 has the same configuration as the detection unit 132 of the first embodiment.
  • the detection unit 532 acquires the image captured by the camera 55 from the imaging control unit 531 .
  • the detection unit 532 detects light emission of a guide light (not shown) from the acquired image.
  • the detection unit 532 extracts the light emission color of the guide light to be referred to from the detected light emission of the guide light. For example, assume that the guide light on the left bank emits green light and the guide light on the right bank emits red light.
  • the detection unit 532 identifies the position of the guide light and the drone itself (drone 50) in the area where the corridor is formed, based on the light emission of the guide light extracted from the image.
  • the detection unit 532 outputs to the calculation unit 533 the guide lights and the position of the drone 50 extracted from the image.
  • the calculation unit 533 has the same configuration as the calculation unit 133 of the first embodiment.
  • the calculation unit 533 acquires the positions of the guide light 540 and the drone 50 from the detection unit 532 . If the drone (drone 50) has a function of receiving a GPS (Global Positioning System) signal, the calculation unit 533 may acquire position information included in the GPS signal.
  • the calculation unit 533 calculates the positional relationship between the guide light 540 and the own machine according to the obtained positions of the guide light 540 and the own machine.
  • the calculation unit 533 calculates the position (also called predicted arrival position) of the drone 50 at the next control timing (also called the next control timing) for the drone 50 following the imaging timing of the image.
  • the calculator 533 calculates a target position (also called a control target position) of the drone 50 at the next control timing.
  • the calculation unit 533 outputs the calculated predicted arrival position and control target position to the control condition generation unit 534 .
  • the guidance information acquisition unit 536 acquires the guidance information 570 transmitted from the management device 500 from the communication unit 56.
  • the guidance information acquisition unit 536 outputs the acquired guidance information 570 to the control condition generation unit 534 .
  • the control condition generator 534 has the same configuration as the control condition generator 134 of the first embodiment.
  • the control condition generator 534 acquires the predicted arrival position and the control target position calculated by the calculator 533 .
  • the control condition generator 534 generates control conditions for controlling the drone 50 from the predicted arrival position to the control target position.
  • the control condition generation unit 534 calculates the traveling direction/speed of the drone 50 according to the control target position from the predicted arrival position.
  • the control condition generator 534 sets the number of rotations of the propellers 52 according to the traveling direction/speed.
  • the control condition generating section 534 outputs the generated control conditions to the control condition setting section 535 .
  • control condition generation unit 534 acquires the guidance information 570 transmitted from the management device 500 from the guidance information acquisition unit 536 . After obtaining the guidance information 570 , the control condition generation unit 534 outputs the control conditions included in the obtained guidance information 570 to the control condition setting unit 535 .
  • the control condition setting unit 535 has the same configuration as the control condition setting unit 135 of the first embodiment.
  • the control condition setting unit 535 acquires control conditions from the control condition generation unit 534 .
  • the control condition setting unit 535 sets the control condition to the motor 54 at the next control timing.
  • the rotation speed of each propeller 52 is controlled by driving the motor 54 according to the control conditions. As a result, the drone 50 travels at a direction/speed according to the control conditions.
  • FIG. 31 is a conceptual diagram for explaining an example of control of the drone 50.
  • the river flows from the bottom (upstream) to the top (downstream) of the paper.
  • the drone 50 navigates inside the corridor 5 according to the light emission of the guide light 540L installed on the left bank of the river (left side of the paper surface).
  • the drone 50 may navigate inside the corridor 5 according to the light emission of the guide light 540R installed on the right bank of the river (right side of the paper surface).
  • FIG. 31 shows management device 500 and management tower 590 .
  • the management device 500 and the management tower 590 are connected via an internet line or a wireless communication network.
  • the control tower 590 receives information transmitted by the drones 50 navigating the corridor 5 .
  • the management tower 590 transmits the guidance information 570 received from the management device 500 to each of the plurality of drones 50 via radio signals.
  • FIG. 32 and 33 are conceptual diagrams for explaining an example of control of the drone 50.
  • FIG. 32 and 33 are views looking down on the corridor 5 from above.
  • the drones 50-1 to 50-6 using the corridor 5 move from the bottom to the top of the paper.
  • An occupation range R is set around the drone 50 .
  • the occupied range R is a sphere or circle centered on each of the plurality of drones 50 .
  • the occupied range R is set to a size that makes it difficult for the plurality of drones 50 navigating the corridor 5 to collide with each other.
  • the occupied range R may be set to the same size or different sizes for the plurality of drones 50 .
  • the occupied range R is set according to the size of the drone 50 .
  • the occupied range R is set according to the importance of the cargo that the drone 50 carries.
  • the occupation range R is set according to the speed of the drone 50 .
  • the occupied range R is indicated by a solid circle.
  • the difference in speed of the drone 50 is indicated by the length of the arrows. The longer the arrow, the faster the speed, and the shorter the arrow, the slower the speed.
  • the management device 500 generates guidance information 570 for the drones 50-1-5.
  • the management device 500 does not generate the guidance information 570 for the drones 50-6 whose occupied ranges R do not overlap.
  • the management device 500 generates guidance information 570 so that the occupied ranges R of the drones 50-1 to 50-5 do not overlap.
  • the management device 500 generates guidance information 570 for speeding up the drone 50-1.
  • the management device 500 generates guidance information 570 for moving the drone 50-2 to the left front.
  • the management device 500 generates guidance information 570 for moving the drone 50-3 to the right front.
  • the management device 500 generates guidance information 570 for moving the drone 50-4 to the left front.
  • the management device 500 generates guidance information 570 for slowing down the drone 50-5.
  • the management device 500 does not generate guidance information 570 for the drone 50-6.
  • the drones 50 - 1 to 5 that have received the guidance information 570 generated by the management device 500 are controlled according to the guidance information 570 .
  • Drone 50 - 1 speeds up according to guidance information 570 .
  • Drone 50-2 moves to the left front according to guidance information 570.
  • FIG. Drone 50-3 moves forward and to the right in accordance with guidance information 570.
  • FIG. Drone 50-4 moves left and forward according to guidance information 570.
  • FIG. Drone 50 - 5 slows down in response to guidance information 570 .
  • Drone 50-6 continues autonomous control.
  • the scene in FIG. 33 is the result of guiding the drones 50-1 to 50-5 through the scene in FIG. As a result of the guidance as described above, as shown in FIG. 33, there is no overlapping of the occupied ranges R of the drones 50-1 to 50-6.
  • FIG. 34 is a flowchart for explaining an example of the operation of the management device 500.
  • FIG. In the description according to the flowchart of FIG. 34, the management device 500 will be described as an operating entity.
  • the management device 500 receives the transmission information of the drone 50 that is using the corridor 5 (step S511).
  • the management device 500 receives transmission information of the drones 50 that are using the corridor 5 via the management tower 590 .
  • the management device 500 uses the location information included in the transmission information to calculate the location of the drone 50 that is using the corridor 5 (step S512).
  • step S511 If the occupied ranges R overlap (Yes in step S513), the management device 500 generates guidance information 570 for the drones 50 where the occupied ranges R overlap (step S514). If the occupied ranges R do not overlap (No in step S513), the process returns to step S511.
  • step S514 the guidance information 570 is output to the drones 50 whose occupied ranges overlap (step S515).
  • the guidance information 570 is output to the drones 50 whose occupied ranges overlap (step S515).
  • FIG. 35 is a flowchart for explaining an example of the operation of the control section 53. As shown in FIG. In the description along the flow chart of FIG. 35, the controller 53 will be described as an operating entity.
  • the control unit 53 controls the camera 55 mounted on the drone 50 to capture an image (step S521).
  • the image captured by the camera 55 includes a guide light 540 installed on the bank of the river.
  • control section 53 detects the light emitting section of the guide light 540 to be referenced by image recognition from the image captured by the camera 55 (step S523).
  • control unit 53 calculates the positional relationship between the drone 50 and the guide light 540 (step S524). For example, the control unit 53 calculates the distance between the drone 50 and the guide light 540 as the positional relationship between the guide light 540 and the drone 50 .
  • control unit 53 calculates the predicted arrival position/control target position according to the positional relationship between the drone 50 and the guide light 540 (step S524).
  • control unit 53 generates a control condition according to the calculated predicted arrival position/control target position (step S525).
  • the control unit 53 generates control conditions for the drone 50 to move from the predicted arrival position toward the control target position.
  • step S521 When the guidance information 570 is received in step S521 (Yes in step S521), the control unit 53 extracts the control conditions included in the guidance information 570 (step S526).
  • the drone 50 is set inside the corridor 5). If the passenger continues to use the corridor, the process returns to step S521 after step S527.
  • the management device of this embodiment includes a transmission information acquisition unit, a position calculation unit, a guidance position calculation unit, a guidance information generation unit, and a guidance information output unit.
  • the transmission information acquisition unit acquires transmission information transmitted by a drone using the corridor.
  • a position calculation unit calculates the position of the drone using the position information included in the transmission information.
  • the guidance position calculation unit calculates the guidance positions of the plurality of drones inside the corridor based on the positional relationship of the plurality of drones.
  • the guidance information generation unit generates guidance information including control conditions for each drone using guidance positions of a plurality of drones.
  • the guidance information output unit outputs the generated guidance information.
  • a drone that uses a corridor managed by a management device includes a main body, a propeller, a motor, a transmission information generation unit, a communication unit, a camera, a rechargeable battery, and a control unit (control device).
  • the motor is driven and controlled by a control device.
  • a propeller is rotatably mounted on the main body via an arm. The propeller rotates according to the driving of the motor.
  • the transmission information generation unit generates transmission information including identification information and position information of the device itself.
  • the communication unit communicates with a management device that manages the corridor.
  • the communication unit transmits transmission information to the management device.
  • the camera is image-controlled by a control device. Rechargeable batteries are the drone's power source.
  • the control unit has an imaging control unit, a detection unit, a calculation unit, a control condition generation unit, a control condition setting unit, and a guidance information acquisition unit.
  • the imaging control unit performs imaging control of the camera mounted on the drone.
  • the detection unit detects the guide lights used to form the corridor used by the drone from the image captured by the camera.
  • the detector identifies the position of the detected guide light.
  • the calculation unit calculates, according to the positions of the drone and the guide light, a predicted arrival position of the drone at a control timing subsequent to the image capturing timing, and a control target position according to the positional relationship between the drone and the guide light.
  • a guidance information acquisition unit acquires guidance information including control conditions generated by a management device that manages a corridor.
  • the control condition generator generates a control condition for the motor that drives the propeller of the drone according to the predicted arrival position and the control target position.
  • the control condition generation unit outputs the control condition included in the guidance information to the control condition setting unit in response to acquisition of the guidance information.
  • the control condition setting unit sets control conditions for the motors of the drone.
  • the management device of this embodiment generates guidance information that guides drones that use the corridor.
  • Drones that use the corridor normally navigate autonomously according to the position of the guide lights. Also, drones using the corridor are guided according to the guidance information when the guidance information is obtained. Therefore, according to the present embodiment, it is possible to achieve both autonomous navigation of the drone using the corridor and guidance navigation from the outside.
  • FIG. 36 is a block diagram showing an example of the configuration of the control device 63 according to this embodiment.
  • the control device 63 includes a detection section 632 , a calculation section 633 , a control condition generation section 634 and a control condition setting section 635 .
  • the detection unit 632 detects the guide lights used to form the corridor used by the drone from the image captured by the camera mounted on the drone.
  • the detector 632 identifies the position of the detected guide light.
  • the calculation unit 633 calculates, according to the positions of the drone and the guide light, the predicted arrival position of the drone at the control timing subsequent to the image capturing timing, and the control target position according to the positional relationship between the drone and the guide light.
  • the control condition generation unit 634 generates control conditions for the motor that drives the propeller of the drone according to the predicted arrival position and the control target position.
  • the control condition setting unit 635 sets control conditions for the motors of the drone.
  • the corridor is used by setting the control conditions for the motors of the drone according to the position of the guide light detected from the image captured by the camera mounted on the drone. It is possible to realize autonomous navigation of drones.
  • the information processing device 90 includes a processor 91, a main storage device 92, an auxiliary storage device 93, an input/output interface 95, and a communication interface 96.
  • the interface is abbreviated as I/F (Interface).
  • Processor 91 , main storage device 92 , auxiliary storage device 93 , input/output interface 95 , and communication interface 96 are connected to each other via bus 98 so as to enable data communication.
  • the processor 91 , the main storage device 92 , the auxiliary storage device 93 and the input/output interface 95 are connected to a network such as the Internet or an intranet via a communication interface 96 .
  • the processor 91 loads the program stored in the auxiliary storage device 93 or the like into the main storage device 92 .
  • the processor 91 executes programs developed in the main memory device 92 .
  • a configuration using a software program installed in the information processing device 90 may be used.
  • the processor 91 executes control and processing according to each embodiment.
  • the main storage device 92 has an area in which programs are expanded.
  • a program stored in the auxiliary storage device 93 or the like is developed in the main storage device 92 by the processor 91 .
  • the main memory device 92 is realized by a volatile memory such as a DRAM (Dynamic Random Access Memory). Further, as the main storage device 92, a non-volatile memory such as MRAM (Magnetoresistive Random Access Memory) may be configured/added.
  • the auxiliary storage device 93 stores various data such as programs.
  • the auxiliary storage device 93 is implemented by a local disk such as a hard disk or flash memory. It should be noted that it is possible to store various data in the main storage device 92 and omit the auxiliary storage device 93 .
  • the input/output interface 95 is an interface for connecting the information processing device 90 and peripheral devices based on standards and specifications.
  • a communication interface 96 is an interface for connecting to an external system or device through a network such as the Internet or an intranet based on standards and specifications.
  • the input/output interface 95 and the communication interface 96 may be shared as an interface for connecting with external devices.
  • Input devices such as a keyboard, mouse, and touch panel may be connected to the information processing device 90 as necessary. These input devices are used to enter information and settings.
  • a touch panel is used as an input device, the display screen of the display device may also serve as an interface of the input device. Data communication between the processor 91 and the input device may be mediated by the input/output interface 95 .
  • the information processing device 90 may be equipped with a display device for displaying information.
  • the information processing device 90 is preferably provided with a display control device (not shown) for controlling the display of the display device.
  • the display device may be connected to the information processing device 90 via the input/output interface 95 .
  • the information processing device 90 may be equipped with a drive device. Between the processor 91 and a recording medium (program recording medium), the drive device mediates reading of data and programs from the recording medium, writing of processing results of the information processing device 90 to the recording medium, and the like.
  • the drive device may be connected to the information processing device 90 via the input/output interface 95 .
  • the above is an example of the hardware configuration for enabling control and processing according to each embodiment of the present invention.
  • the hardware configuration of FIG. 37 is an example of a hardware configuration for executing control and processing according to each embodiment, and does not limit the scope of the present invention.
  • the scope of the present invention also includes a program that causes a computer to execute control and processing according to each embodiment.
  • the scope of the present invention also includes a program recording medium on which the program according to each embodiment is recorded.
  • the recording medium can be implemented as an optical recording medium such as a CD (Compact Disc) or a DVD (Digital Versatile Disc).
  • the recording medium may be implemented by a semiconductor recording medium such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) card.
  • the recording medium may be realized by a magnetic recording medium such as a flexible disk, or other recording medium.
  • each embodiment may be combined arbitrarily. Also, the components of each embodiment may be realized by software or by circuits.
  • (Appendix 1) a detection unit that detects a guide light used to form a corridor used by the drone from an image captured by a camera mounted on the drone and identifies the position of the detected guide light; Calculating a predicted arrival position of the drone at a control timing subsequent to the imaging timing of the image, and a control target position according to the positional relationship between the drone and the guide light, according to the positions of the drone and the guide light.
  • the control condition generation unit is The control device according to appendix 1, which generates the control condition for moving the drone from the predicted arrival position toward the control target position.
  • the detection unit is detecting a reference guide light to be referred to when using the corridor according to the emission color of the guide light; 3.
  • the detection unit is Detecting the reference guide light to be referenced in the use of the corridor according to a plurality of emission colors at different heights of the guide light; 3. The control device according to claim 3, wherein the position of the drone in the corridor in the height direction is determined according to the plurality of detected emission colors of the reference guide lights.
  • the control condition generation unit is setting the control condition to control the motor so that the drone moves away from the reference guide light when the distance between the reference guide light and the drone is smaller than the minimum specified distance set for the reference guide light; generate and If the distance between the reference guide light and the drone is greater than the maximum specified distance set for the reference guide light, the control condition is set to control the motor so that the drone approaches the reference guide light. 5.
  • a control device for generating. (Appendix 6) Equipped with a charge management unit that monitors the charge amount of the rechargeable battery mounted on the drone, The charging management unit outputting a charge standby signal to the detection unit when the charge amount of the rechargeable battery falls below a reference value;
  • the detection unit is Detecting a charging station capable of charging the rechargeable battery from the image captured by the camera in response to the charging standby signal, and specifying the position of the detected charging station;
  • the calculation unit 6 6.
  • the control device according to any one of appendices 1 to 5, wherein the position of the charging station is calculated as the control target position.
  • (Appendix 7) An other aircraft information acquisition unit that acquires position information of other drones that use the corridor, The calculation unit Calculate the distance between the other drone and the own aircraft, 7.
  • the control device according to any one of appendices 1 to 6, wherein the control target position is set in a direction away from the other drone when the distance between the other drone and the own aircraft is less than a predetermined distance.
  • (Appendix 8) A sound wave signal acquisition unit that acquires a sound wave signal corresponding to the sound wave emitted from the guide light, The calculation unit 8.
  • the control device according to appendix 8, wherein the distance to the guide light is calculated according to the frequency of the acquired sound wave signal.
  • the calculation unit 10 The control device according to appendix 8 or 9, wherein the distance to the guide light is calculated according to the acoustic intensity of the acquired sound wave signal.
  • a guidance information acquisition unit that acquires guidance information including the control conditions generated by a management device that manages the corridor, The control condition generation unit is 11.
  • the control device according to any one of appendices 1 to 10 which outputs the control conditions included in the guidance information to a control condition setting unit in response to acquisition of the guidance information.
  • Appendix 12 A control device according to any one of Appendices 1 to 11; a motor driven and controlled by the control device; a propeller that rotates according to the drive of the motor; a transmission information generation unit that generates transmission information including identification information and location information of the device itself; a communication unit that communicates with a management device that manages a corridor and transmits the outgoing information to the management device; a camera whose imaging is controlled by the control device; A drone comprising a rechargeable battery. (Appendix 13) 13. The drone of clause 12, comprising a microphone for receiving sound waves emitted from guide lights used to form the corridor.
  • (Appendix 14) the computer Detecting a guide light used to form a corridor used by the drone from an image captured by a camera mounted on the drone, identifying the position of the detected guide light, Calculating a predicted arrival position of the drone at a control timing subsequent to the imaging timing of the image, and a control target position according to the positional relationship between the drone and the guide light, according to the positions of the drone and the guide light. death, generating control conditions for a motor that drives a propeller of the drone according to the predicted arrival position and the control target position; A control method for setting the control conditions for the motors of the drone.
  • Appendix 15 A process of detecting guide lights used to form a corridor used by the drone from an image captured by a camera mounted on the drone and identifying the position of the detected guide lights; Calculating a predicted arrival position of the drone at a control timing subsequent to the imaging timing of the image, and a control target position according to the positional relationship between the drone and the guide light, according to the positions of the drone and the guide light. and a process of generating control conditions for a motor that drives a propeller of the drone according to the predicted arrival position and the control target position; A program for causing a computer to execute a process of setting the control conditions for the motors of the drone.

Abstract

コリドーを利用するドローンの自律航行を実現するために、ドローンに搭載されたカメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された誘導灯の位置を特定する検出部と、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算する計算部と、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成する制御条件生成部と、ドローンのモーターに制御条件を設定する制御条件設定部と、を備える制御装置とする。

Description

制御装置、ドローン、制御方法、および記録媒体
 本開示は、ドローン専用の空域を利用するドローンを制御する制御装置等に関する。
 都市部など人口密集地域において、ドローンを運用するニーズが高まっている。安全で安定した運行を確保するために、ドローンが安全に飛行できるように整備された空域(コリドーとも呼ぶ)の整備が検討されている。
 特許文献1には、ドローンのナビゲーションシステムについて開示されている。特許文献1には、電力線や道路、パイプライン等の既存のインフラストラクチャを使用して、ドローンをナビゲートするように構成されたドローンハイウェイについて開示されている。特許文献1の手法では、インフラストラクチャの熱や、赤外線、可視光等のスペクトルに関する環境データを、ドローンが収集する。ドローンは、収集された環境データを、ドローンハイウェイと関連付けられたデータシグネチャと比較することで、そのドローンハイウェイにおける自機の位置を決定する。
 特許文献2には、進行方向を向く前方部が複数個所から選択可能に構成された移動体の灯火システムについて開示されている。特許文献2のシステムは、灯火の色を変更可能な複数のライト部と、移動体の進行方向に基づいて複数のライト部を制御する制御部とを備える。移動体が無人機の場合、制御部は、無人航空機の右端に位置するライト部を第1の色に光らせ、無人航空機の左端に位置するライト部を第2の色に光らせるように、複数のライト部を制御する。
特表2020-513122号公報 特開2020-093763号公報
 特許文献1の手法によれば、ドローンハイウェイにおけるドローンの位置に応じて、ドローンを航行制御することによって、長い距離にわたって、ドローンをナビゲートすることができる。特許文献1では、同じドローンハイウェイを複数のドローンが同時に使用することを想定していない。例えば、同じドローンハイウェイを複数のドローンが同時に使用する場合、それらのドローンの位置関係に応じて、ドローンハイウェイからドローンが外れる可能性がある。
 特許文献2の手法によれば、無人航空機の前方部が変わっても、灯火の色の組み合わせに応じて、その無人航空機の進行方向を識別できる。特許文献2の手法では、例えば、無人航空機の全体を視認できる場合は、その無人航空機の進行方向を識別できる。しかしながら、特許文献2の手法では、無人航空機の一部しか確認できない場合、その無人航空機の進行方向を識別できない可能性がある。そのため、特許文献2の手法では、同じコリドーを複数の無人航空機が同時に使用する場合、複数の無人航空機がお互いの灯火を確認し合えない限り、安全な航行を継続できない可能性がある。
 本開示の目的は、コリドーを利用するドローンの自律航行を実現できる制御装置等を提供することにある。
 本開示の一態様の制御装置は、ドローンに搭載されたカメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された誘導灯の位置を特定する検出部と、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算する計算部と、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成する制御条件生成部と、ドローンのモーターに制御条件を設定する制御条件設定部と、を備える。
 本開示の一態様の制御方法においては、ドローンに搭載されたカメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された誘導灯の位置を特定し、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算し、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成し、ドローンのモーターに制御条件を設定する。
 本開示の一態様のプログラムは、ドローンに搭載されたカメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された誘導灯の位置を特定する処理と、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算する処理と、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成する処理と、ドローンのモーターに制御条件を設定する処理とをコンピュータに実行させる。
 本開示によれば、コリドーを利用するドローンの自律航行を実現できる制御装置等を提供することが可能になる。
第1の実施形態に係るドローンの構成の一例を示すブロック図である。 第1の実施形態に係るドローンの外観の一例を示す概念図である。 第1の実施形態に係るドローンの外観の別の一例を示す概念図である。 第1の実施形態に係るドローンが利用するコリドーの一例を示す概念図である。 第1の実施形態に係るドローンが利用するコリドーの一例を示す概念図である。 第1の実施形態に係るドローンが備える制御部の構成の一例を示すブロック図である。 第1の実施形態に係るドローンの制御例について説明するための概念図である。 第1の実施形態に係るドローンの制御例について説明するための概念図である。 第1の実施形態に係るドローンの制御例について説明するための概念図である。 第1の実施形態に係るドローンが利用するコリドーの一例を示す概念図である。 第1の実施形態に係るドローンが利用するコリドーの一例を示す概念図である。 第1の実施形態に係るドローンが備える制御部の動作の一例について説明するためのフローチャートである。 第2の実施形態に係るドローンの構成の一例を示すブロック図である。 第2の実施形態に係るドローンが備える制御部の構成の一例を示すブロック図である。 第2の実施形態に係るドローンの制御例について説明するための概念図である。 第2の実施形態に係るドローンの制御例について説明するための概念図である。 第2の実施形態に係るドローンが備える制御部の動作の一例について説明するためのフローチャートである。 第3の実施形態に係るドローンの構成の一例を示すブロック図である。 第3の実施形態に係るドローンが備える制御部の構成の一例を示すブロック図である。 第3の実施形態に係るドローンの制御例について説明するための概念図である。 第3の実施形態に係るドローンの制御例について説明するための概念図である。 第3の実施形態に係るドローンが備える制御部の動作の一例について説明するためのフローチャートである。 第4の実施形態に係るドローンの構成の一例を示すブロック図である。 第4の実施形態に係るドローンの外観の一例を示す概念図である。 第4の実施形態に係るドローンが備える制御部の構成の一例を示すブロック図である。 第4の実施形態に係るドローンの制御例について説明するための概念図である。 第4の実施形態に係るドローンが備える制御部の動作の一例について説明するためのフローチャートである。 第5の実施形態に係る管理装置の構成の一例を示すブロック図である。 第5の実施形態に係る管理装置の管理対象のコリドーを利用するドローンの構成の一例を示すブロック図である。 第5の実施形態に係る管理装置の管理対象のコリドーを利用するドローンが備える制御部の構成の一例を示すブロック図である。 第5の実施形態に係るドローンの誘導例について説明するための概念図である。 第5の実施形態に係るドローンの誘導例について説明するための概念図である。 第5の実施形態に係るドローンの誘導例について説明するための概念図である。 第5実施形態に係る管理装置の動作の一例について説明するためのフローチャートである。 第5の実施形態に係る管理装置の管理対象のコリドーを利用するドローンの動作の一例について説明するためのフローチャートである。 第6の実施形態に係る制御装置の構成の一例を示すブロック図である。 各実施形態の制御や処理を実行するハードウェアの構成の一例を示すブロック図である。
 以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。なお、以下の実施形態の説明に用いる全図においては、特に理由がない限り、同様箇所には同一符号を付す。また、以下の実施形態において、同様の構成・動作に関しては繰り返しの説明を省略する場合がある。
 (第1の実施形態)
 まず、第1の実施形態に係るドローンについて図面を参照しながら説明する。本実施形態のドローンは、ドローンが専用で飛行する空域(回廊)であるコリドーを自律的に航行する(自律航行とも呼ぶ)。以下においては、河川の上方に形成されたコリドーを、飛行型のドローンが航行する例を挙げる。コリドーは、河川のみならず、送電線や線路、道路等の上方に形成されてもよい。ドローンが航行可能であれば、コリドーの形成領域には、特に限定を加えない。また、ドローンは、飛行型に限らず、地上を走行するものや、水面や水中を航行するものであってもよい。ドローンは、無人航空機に限らず、人が搭乗可能な空飛ぶ乗り物であってもよい。コリドーは、ドローンハイウェイであってもよい。ドローンハイウェイは、ドローンが安全に飛行できるように整備され、ドローンが専用で飛行する空域である。ドローンハイウェイは、ドローンハイウェイを利用するドローンの制御権を有する管理者によって管理される。ドローンハイウェイは、ドローンハイウェイの管理者による総合的なサービスが提供されるエリアである。例えば、ドローンハイウェイを利用するドローンの飛行は、管理者の管理下において、自動化される。例えば、ドローンハイウェイは、ドローンの安全航行のための付帯サービスが、ドローンハイウェイの周辺施設で提供される空域であってもよい。
 (構成)
 図1~図3は、本実施形態に係るドローン10の構成の一例を示す概念図である。図1は、ドローン10の機能構成について説明するためのブロック図である。図2は、ドローン10の平面図である。図3は、ドローン10の下面図である。なお、ドローン10の側面図や背面図、斜面図等は省略する。ドローン10は、登録番号、製造番号、位置情報、時刻、および認証情報を含む発信情報を発信するRID(Remote Identification)機器を搭載する。
 ドローン10は、本体11、プロペラ12、制御部13、モーター14、カメラ15、通信部16、発信情報生成部17、および充電池19を備える。制御部13、通信部16、発信情報生成部17、および充電池19は、本体11の内部に格納される。カメラ15は、レンズ以外の大部分は、本体11の内部に格納される。図3には、カメラ15のレンズの部分を示す。また、ドローン10は、荷物の運搬機能(図示しない)を有する。例えば、ドローン10は、本体11の内部に荷物を格納したり、本体11から荷物をぶら下げたり、本体11の上に荷物を載せたりすることで、荷物を運搬する。本体11から荷物をぶら下げる場合、ドローン10の下方を撮影するために、荷物の下にカメラ15を取り付け可能にしてもよい。
 本体11は、制御部13、カメラ15、通信部16、発信情報生成部17、および充電池19等を格納する筐体である。本体11には、ドローン10を飛翔させるための少なくとも一つのプロペラ12が取り付けられる。例えば、本体11には、用途に応じて、内部に荷物を格納するスペースや、荷物をぶら下げる機構、荷物を上に載せる箇所等が設けられる。本体11の形状や材質には、特に限定を加えない。
 プロペラ12は、ドローン10を飛翔させる機構である。プロペラ12は、ローターや回転翼とも呼ばれる。プロペラ12は、アーム120によって、本体11に固定される。プロペラ12は、回転することによって本体11を浮上させるためのブレードである。プロペラ12には、プロペラ12を回転させるためのモーター14が設置される。図2~図3のプロペラ12の大きさや取り付け位置は、ドローン10を飛行させるために十分に設計されたものではなく、概念的なものである。図2~図3の例では、ドローン10の本体11に、4つのプロペラ12が設置されている。複数のプロペラ12の回転数は、互いに独立して制御される。
 図2~図3には、4つのプロペラ12を備えるクワッドコプターを一例として挙げている。ドローン10は、単一のプロペラ12を備えるものであってもよいし、複数のプロペラ12を備えるマルチコプターであってもよい。空中での姿勢安定性や飛行性能を考慮すると、ドローン10は、複数のプロペラ12を備えるマルチコプターであることが好ましい。ドローン10に複数のプロペラ12を設ける場合、プロペラ12の大きさが異なっていてもよい。また、複数のプロペラ12の回転面は、互いに異なっていてもよい。
 モーター14は、複数のプロペラ12の各々に設置される。モーター14は、プロペラ12を回転させるための駆動機構である。モーター14は、制御部13の制御に応じて、プロペラ12を回転させる。
 制御部13は、ドローン10を制御する制御装置である。例えば、制御部13は、マイクロコンピュータやマイクロコントローラなどの制御装置によって実現される。制御部13は、プロペラ12の回転を制御する。制御部13は、プロペラ12ごとのモーター14を駆動制御することで、プロペラ12ごとの回転数を制御する。例えば、制御部13は、カメラ15によって撮影された画像に含まれる特徴に応じて、プロペラ12ごとの回転数を制御することで、ドローン10の航行を制御する。例えば、制御部13は、予め設定された航行ルートに従ってプロペラ12の回転を制御することで、ドローン10を航行させる。例えば、制御部13は、予め設定された飛行条件に従って、プロペラ12の回転を制御することで、ドローン10を航行させる。例えば、飛行条件は、ドローン10の行う動作がテーブル形式でまとめられた条件である。航行ルートや飛行条件は、図示しない記憶部に記憶させておけばよい。
 制御部13は、カメラ15を撮像制御する。制御部13は、所定のタイミングでカメラ15に撮像させる。制御部13は、カメラ15によって撮影された画像を取得する。制御部13は、カメラ15を撮像制御せずに、カメラ15によって撮像された画像を取得するように構成されてもよい。コリドーの管理側に画像を提供する場合、制御部13は、取得した画像を通信部16に出力する。
 制御部13は、ドローン10がコリドーの内部を航行中は、カメラ15によって撮影される画像に含まれる誘導灯の位置に基づいて、プロペラ12の回転を制御する。制御部13は、参照すべき色で発光する誘導灯の位置に応じて、ドローン10が適切な位置を航行するように、プロペラ12の回転を制御する。例えば、制御部13は、予め決められた誘導灯との位置関係を保つように、プロペラ12の回転を制御する。
 カメラ15は、ドローン10の周辺を撮影するために配置される。図3の場合、カメラ15は、ドローン10の下方を撮影する。ドローン10の前方や側方、上方を撮影するために、複数のカメラ15がドローン10に搭載されてもよい。例えば、カメラ15は、ドローン10の空中姿勢を変えることによって、多方向を撮影できるように配置されてもよい。カメラ15は、制御部13の制御に応じて撮影する。カメラ15は、制御部13の制御を受けずに、所定のタイミングで画像を撮像するように構成されてもよい。カメラ15は、撮影された画像データ(画像とも呼ぶ)を通信部16に出力する。カメラ15には、撮像用のレンズが組み込まれている。レンズは、焦点距離を変えることができるズームレンズであることが好ましい。レンズには、保護フィルムや保護ガラスなどの保護部材が設けられてもよい。カメラ15には、自動的に焦点を合わせるオートフォーカス機能が搭載されていることが好ましい。また、カメラ15には、手振れを防止する機能などのように、一般的なデジタルカメラに適用されている機能が搭載されていることが好ましい。カメラ15の具体的な構造については、説明を省略する。
 通信部16は、管理塔190から送信された無線信号を受信する。また、通信部16は、発信情報生成部17によって生成される発信情報や、カメラ15によって撮影される画像を含む信号を発信する。発信情報には、ドローン10の登録情報や製造番号、位置情報、時刻、認証情報(識別情報とも呼ぶ)等が含まれる。ドローン10の登録情報や製造番号、認証情報等は、コリドーを利用中には変動しない情報(不変情報とも呼ぶ)である。位置情報や時刻は、随時更新される情報(変動情報ともよぶ)である。例えば、通信部16は、ブルートゥース(登録商標)等の通信方式によって、1秒間に1回以上の発信周期で信号を発信する。
 発信情報生成部17は、ドローン10に固有な発信情報を生成する。発信情報には、不変情報と変動情報が含まれる。発信情報生成部17は、不変情報と変動情報とを含む発信情報を所定周期で生成する。例えば、発信情報生成部17は、1秒間に3回程度の所定周期で、発信情報を生成する。不変情報には、ドローン10の登録情報や製造番号、認証情報等が含まれる。不変情報は、図示しない記憶部に記憶させておけばよい。変動情報には、位置情報や時刻が含まれる。例えば、発信情報生成部17は、GPS(Global Positioning System)などの測位システムによって収集されるデータを用いて、位置情報を生成する。発信情報生成部17は、コリドーの周辺に設置された位置計測装置(図示しない)から、その位置計測装置の位置情報を取得してもよい。飛行位置を特定することができるセンサがドローン10に搭載されている場合、発信情報生成部17は、それらのセンサによって収集されるデータを用いて、位置情報を生成してもよい。そのようなセンサとしては、例えば、地磁気センサや加速度センサ、速度センサ、高度センサ、測距センサなどがある。発信情報生成部17は、生成した発信情報を通信部16に出力する。
 充電池19は、充電機能を有する一般的な二次電池である。充電池19は、ドローン10の電力源である。充電池19については、ドローン10がコリドーを航行できさえすれば、特に限定を加えない。例えば、充電池19は、充電池19への充電制御や、充電池19の充電量のモニターが可能なものが好ましい。
 〔コリドー〕
 次に、ドローン10が航行するコリドーについて図面を参照しながら説明する。図4~図5は、河川の上方に形成されたコリドー1の一例を示す概念図である。図4は、コリドー1を斜め上方から見下ろした概念図である。図5は、コリドー1を上方から見下ろした概念図である。図4~図5には、コリドー1の内部を複数のドローン10が航行する様子を示す。
 例えば、コリドー1は、河川の水面から150m(メートル)以下の高度に形成される。図4~図5の例では、左側が上流であり、右側が下流である。以下の図においては、河川の流れる方向を矢印で示す。河川を上流(左側)から下流(右側)に向かって眺めて、右側の岸を右岸と呼び、左側の岸を左岸と呼ぶ。
 コリドー1が形成される位置は、河川の両岸に配置された複数の誘導灯140によって、規定される。図4~図5には、左岸に設置された誘導灯140を誘導灯140L表記し、右岸に設置された誘導灯140を誘導灯140Rと表記する。左岸に設置された誘導灯140Lと、右岸に設置された誘導灯140Rとは、異なる色で発光する。例えば、左岸に配置された誘導灯140Lは緑色に発光し、右岸に配置された誘導灯140Rは赤色に発光する。同じ側の岸に設置された誘導灯140が同じ色で発光しさえすれば、誘導灯140の発光色に関しては、特に限定を加えない。また、誘導灯140の他に、ドローン10の進入禁止を示す警告灯が設置されてもよい。警告灯は、誘導灯140よりも河川から離れた位置に設置される。例えば、警告灯は、黄色に発光する。
 コリドー1の内部における進行方向は、図4~図5の紙面の左から右に向けた向きである。例えば、複数のドローン10は、下方を撮影するカメラ15を搭載する。ドローン10は、カメラ15によって撮影された下方の画像に含まれる誘導灯140の発光色に従って、コリドー1の内部を航行する。例えば、ドローン10は、河川の一方の岸に配置された誘導灯140に従って、航行する。例えば、ドローン10は、河川の両岸に配置された誘導灯140に従って、航行してもよい。
 図4~図5には、待機スペースWS、昇降経路EL、複数のコリドー領域C、入域E、および出域Oを示す。待機スペースWSは、コリドー1を使用するドローン10が待機するスペースである。昇降経路ELは、地上からコリドー1に向かうための空域である。複数のコリドー領域Cは、コリドー1の本線となる空域である。入域Eは、ドローン10がコリドー1に入場するための空域である。出域Oは、コリドー1からドローン10が退場するための空域である。
 河川の脇には、管理塔190が配置される。管理塔190は、通信機能やカメラを備える。管理塔190は、コリドー1の内部を航行するドローン10から発信される信号を受信する。ドローン10から送信される信号には、個々のドローン10を識別するための発信情報が含まれる。例えば、発信情報は、ドローン10に搭載されたRID(Remote Identification)機器から発信される。発信情報には、個々のドローン10の登録情報や製造番号、位置情報、時刻、認証情報等が含まれる。例えば、コリドー1の内部を航行するドローン10は、ブルートゥース(登録商標)等の通信方式によって、1秒間に1回以上の発信周期で発信情報を発信する。また、管理塔190は、コリドー1を使用するドローン10を撮影する。管理塔190は、複数のドローン10から発信された信号に含まれる発信情報や撮影した画像を、コリドー1を管理する管理装置(図示しない)に送信する。管理塔190から送信される発信情報は、コリドー1を使用するドローン10の管理に用いられる。例えば、河川の両岸に配置された複数の誘導灯140のいずれかに、管理塔190の機能をもたせてもよい。
 〔制御部〕
 次に、ドローン10に搭載される制御部13の構成について詳細に説明する。図6は、制御部13の構成の一例を示すブロック図である。制御部13は、撮像制御部131、検出部132、計算部133、制御条件生成部134、および制御条件設定部135を有する。
 撮像制御部131は、カメラ15を撮像制御する。撮像制御部131は、所定のタイミングでカメラ15に撮像させる。撮像制御部131は、カメラ15によって撮影された画像を取得する。撮像制御部131は、取得した画像を検出部132に出力する。コリドーの管理側に画像を提供する場合、撮像制御部131は、取得した画像を通信部16に出力する。撮像制御部131が用いる画像の撮像条件と、通信部16に出力する画像の撮像条件とは、互いに異なる条件に設定されてもよい。例えば、撮像制御部131が用いる画像の撮像条件は、誘導灯140の位置を検出できる程度の低解像度で、高頻度で撮影される条件に設定される。例えば、通信部16に出力される画像の撮像条件は、ドローン10の周辺の状況を検証できる程度の高解像度で、低頻度で撮影される条件に設定される。このように撮像条件を設定すれば、航行制御に求められる情報と、周辺状況の検証に求められる情報とを、切り分けることができる。
 検出部132は、カメラ15によって撮像された画像を、撮像制御部131から取得する。検出部132は、取得した画像から、誘導灯140の発光を検出する。検出部132は、検出された誘導灯140の発光のうち、参照すべき誘導灯140の発光色を抽出する。例えば、左岸の誘導灯140Lが緑色に発光し、右岸の誘導灯140Rが赤色に発光するものとする。検出部132は、画像から抽出された誘導灯140の発光に基づいて、コリドー1が形成された領域における誘導灯140や自機(ドローン10)の位置を特定する。検出部132は、画像から抽出された誘導灯140と自機(ドローン10)の位置を計算部133に出力する。
 例えば、上流から下流に向かってドローン10が航行する場合、検出部132は、左岸の誘導灯140Lの発光色(緑色)に従って、コリドー1における自機(ドローン10)の位置を特定する。例えば、下流から上流に向かってドローン10が航行する場合、検出部132は、右岸の誘導灯140Rの発光色(赤色)に従って、コリドー1における自機(ドローン10)の位置を特定する。検出部132は、両岸の誘導灯140の発光色(緑色、赤色)に従って、コリドー1における自機(ドローン10)の位置を特定してもよい。
 検出部132は、誘導灯140の発光色のみならず、画像から抽出される特徴に応じて、自機(ドローン10)の位置を特定してもよい。例えば、検出部132は、画像から抽出される河川の水面の特徴に応じて、自機(ドローン10)の位置を特定してもよい。例えば、検出部132は、画像から抽出される河川敷や土手などの特徴に応じて、自機(ドローン10)の位置を特定してもよい。例えば、検出部132は、画像から抽出される橋梁や送電線等の構造物に基づいて、自機(ドローン10)の位置を特定してもよい。例えば、検出部132は、画像から抽出される、河川やその周囲に設置された標識の形状や記号に基づいて、自機(ドローン10)の位置を特定してもよい。
 計算部133は、誘導灯140と自機(ドローン10)の位置を検出部132から取得する。自機(ドローン10)がGPS(Global Positioning System)信号を受信する機能を有する場合、計算部133は、GPS信号に含まれる位置情報を取得してもよい。計算部133は、取得した誘導灯140と自機(ドローン10)の位置に応じて、誘導灯140と自機(ドローン10)の位置関係を計算する。計算部133が計算する位置関係には、誘導灯140と自機(ドローン10)の距離が含まれる。計算部133は、検出部132によって特定された誘導灯140とドローン10の距離を計算する。例えば、ドローン10の制御タイミングは、ドローン10がコリドー1を安全に自律航行できる時間間隔で設定される。ドローン10の制御タイミングは、コリドー1を航行する全てのドローン10に共通であってもよいし、ドローン10ごとに異なってもよい。
 例えば、計算部133は、ドローン10に最も近い誘導灯140と、そのドローン10との距離を計算する。例えば、計算部133は、ドローン10に近い二つの誘導灯140を通過する直線と、そのドローン10との距離を計算する。例えば、計算部133は、画像から特定された複数の誘導灯140を滑らかに結ぶ曲線と、そのドローン10との距離を計算する。誘導灯140とドローン10との距離の計算方法については、ドローン10がコリドー1を航行できさえすれば、特に限定を加えない。
 誘導灯140に対するドローン10の距離(指定距離とも呼ぶ)は、コリドー1を使用するドローン10ごとに、予め設定されている。指定距離は、コリドー1の使用状況に応じて、変更されてもよい。例えば、指定距離は、最小指定距離と最大指定距離で規定される。ドローン10は、ドローン10ごとに設定された最小指定距離と最大指定距離の内側の範囲(指定範囲とも呼ぶ)を航行する。例えば、最小指定距離は、個々のドローン10に対して、誘導灯140に最も近い部分に設定される。例えば、最大指定距離は、個々のドローン10に対して、誘導灯140から最も遠い部分に設定される。例えば、最小指定距離や最大指定距離は、ドローン10の中心やその他の部分に設定されてもよい。
 計算部133は、画像の撮像タイミングに後続する、ドローン10に対する次の制御タイミング(次回の制御タイミングとも呼ぶ)におけるドローン10の位置(到達予測位置とも呼ぶ)を計算する。例えば、計算部133は、画像の撮像タイミングの方向/速度で航行を継続した場合における、ドローン10の位置を到達予測位置として計算する。また、計算部133は、次回の制御タイミングにおけるドローン10の目標位置(制御目標位置とも呼ぶ)を計算する。制御目標位置は、指定範囲の内部に設定される。例えば、制御目標位置は、最小指定距離の境界線と最大指定距離の境界線との中間線に沿って設定される。計算部133は、算出した到達予測位置と制御目標位置を、制御条件生成部134に出力する。
 制御条件生成部134は、計算部133によって算出された到達予測位置と制御目標位置を取得する。制御条件生成部134は、到達予測位置から制御目標位置に向けてドローン10を制御するための制御条件を生成する。制御条件は、ドローン10を飛翔させるプロペラ12を回転させる条件である。制御条件生成部134は、到達予測位置から制御目標位置に応じて、ドローン10の進行方向/速度を計算する。制御条件生成部134は、進行方向/速度に応じて、複数のプロペラ12の回転数を設定する。制御条件生成部134は、生成した制御条件を制御条件設定部135に出力する。
 図7~図9、ドローン10の制御の一例について説明するための概念図である。図7~図9において、河川は、紙面の下(上流)から上(下流)に向けて流れている。ドローン10は、河川の左岸(紙面の左側)に設置された誘導灯140Lの発光に従って、コリドー1の内部を航行する。ドローン10は、河川の右岸(紙面の右側)に設置された誘導灯140Rの発光に従って、コリドー1の内部を航行してもよい。図7においては、コリドー1を省略する。ドローン10には、誘導灯140Lに対して、最小指定距離を指定する第1指定線L1と、最大指定距離を指定する第2指定線L2とが設定される。ドローン10は、第1指定線L1と第2指定線L2の間の指定範囲Sを航行することが許可される。
 図7の例では、到達予測位置Ppと制御目標位置PTがともに指定範囲Sの内部にある。ドローン10は、指定範囲Sの内部に位置する。そのため、制御条件生成部134は、次回の制御タイミングにおけるドローン10の進行方向を変更させない。制御条件生成部134は、進行方向を変更させずに、到達予測位置Ppから制御目標位置PTに向かう制御条件を生成する。
 図8の例では、到達予測位置Ppと制御目標位置PTがともに指定範囲Sの内部にある。しかし、ドローン10の一部は、第1指定線L1を越えて、指定範囲Sの外部に位置する。そのため、制御条件生成部134は、次回の制御タイミングにおけるドローン10の進行方向を、制御目標位置に向けて変更する。制御条件生成部134は、到達予測位置Ppから制御目標位置PTに向かう制御条件を生成する。
 図9の例では、到達予測位置Ppと制御目標位置PTがともに指定範囲Sの内部にある。しかし、ドローン10の一部は、第2指定線L2を越えて、指定範囲Sの外部に位置する。そのため、制御条件生成部134は、次回の制御タイミングにおけるドローン10の進行方向を、制御目標位置に向けて変更する。制御条件生成部134は、到達予測位置Ppから制御目標位置PTに向かう制御条件を生成する。
 制御条件設定部135は、制御条件生成部134から制御条件を取得する。制御条件設定部135は、次回の制御タイミングにおいて、制御条件をモーター14に設定する。モーター14が制御条件に応じて駆動することによって、プロペラ12ごとの回転数が制御される。その結果、ドローン10は、制御条件に応じた方向/速度で進行する。
 図10は、コリドー1の別の一例について説明するための概念図である。図10には、上流から下流に向けた下り経路のコリドー1-1と、下流から上流に向けた上り経路のコリドー1-2とが、河川の上方に形成される例を示す。図10のように、河川の上方には、複数の経路を形成できる。例えば、複数の経路は、高度に応じて形成される。例えば、複数の経路は、河川の水面に対して平行な面内で形成されてもよい。
 図11は、コリドー1のさらに別の一例について説明するための概念図である。図11には、紙面の下(上流)から上(下流)に向けて航行するドローン10Lと、下流から上流に向けて航行するドローン10Rとが、河川の上方を航行する例を示す。図11は、誘導灯140に複数の発光部が設置される例である。
 図11において、ドローン10Lを誘導するための誘導灯140Lの上部には、第1発光部141Lが設置される。例えば、第1発光部141Lは、緑色に発光する。また、誘導灯140Lのうち少なくともいくつかには、第2発光部142Lが設置される。例えば、第2発光部142Lは、黄色に発光する。ドローン10Lは、第1発光部141Lと第2発光部142Lを参照しながら航行する。
 例えば、ドローン10Lは、第1発光部141Lまたは第2発光部142Lの一方を参照しながら航行する。通常時、ドローン10Lは、第1発光部141Lを参照しながら航行する。ドローン10Lは、管理側の指示に応じて、第2発光部142Lを参照するように切り替える。
 例えば、ドローン10Lは、第1発光部141Lおよび第2発光部142Lの両方を参照しながら航行する。第1発光部141Lと第2発光部142Lは、異なる高さに設置される。そのため、第1発光部141Lおよび第2発光部142Lの両方を参照すれば、ドローン10の航行する指定範囲を三次元的に設定できる。
 図11において、ドローン10Rを誘導するための誘導灯140Rの上部には、第1発光部141Rが設置される。例えば、第1発光部141Rは、赤色に発光する。また、誘導灯140Rのうち少なくともいくつかには、第2発光部142Rが設置される。例えば、第2発光部142Lは、青色に発光する。ドローン10Lと同様に、ドローン10Rは、第1発光部141Rと第2発光部142R参照しながら航行する。
 図11のように、誘導灯140に複数の発光部が設置されれば、ドローン10に対して、指定範囲を三次元的に設定できる。また、誘導灯140に複数の発光部が設置される場合、参照する発光部を指定することで、使用目的に応じたコリドーを形成できる。例えば、ドローン10の運搬する荷物の重量や大きさ、ドローン10の速度に応じて、異なるコリドーを使用するように設定できる。例えば、下方の第2発光部142Lや第2発光部142Rには、重い荷物を運搬するドローン10のための低速用のコリドーを設定する。そして、上方の第1発光部141Lや第1発光部141Rには、軽い荷物を運搬するドローン10のための高速用のコリドーを設定する。このようにすれば、速度差に応じてドローン10の間に発生しうる衝突を回避することができる。例えば、上方の第1発光部141Lや第1発光部141Rを通常用のコリドーの参照用とし、下方の第2発光部142Lや第2発光部142Rを緊急用のコリドーの参照用としてもよい。このようにすれば、緊急事態が発生した際に、緊急用のコリドーを逐次形成できる。
 (動作)
 次に、本実施形態のドローン10に搭載される制御部13の動作の一例について図面を参照しながら説明する。図12は、制御部13の動作の一例について説明するためのフローチャートである。以下においては、制御部13を動作主体として説明する。
 図12において、まず、制御部13は、ドローン10に搭載されたカメラ15を撮像制御して画像を取得する(ステップS11)。カメラ15によって撮像された画像には、河川の岸に設置された誘導灯140が含まれる。
 次に、制御部13は、カメラ15によって撮像された画像から、画像認識によって、参照対象の誘導灯140の発光部を検出する(ステップS12)。
 次に、制御部13は、ドローン10と誘導灯140との位置関係を計算する(ステップS13)。例えば、制御部13は、ドローン10と誘導灯140との距離を、誘導灯140とドローン10の位置関係として計算する。
 次に、制御部13は、ドローン10と誘導灯140との位置関係に応じて、到達予測位置/制御目標位置を計算する(ステップS14)。
 次に、制御部13は、算出された到達予測位置/制御目標位置に応じた制御条件を生成する(ステップS15)。制御部13は、到達予測位置から制御目標位置に向けてドローン10が移動するための制御条件を生成する。
 次に、制御部13は、生成した制御条件をモーター14に出力する(ステップS16)。制御条件に応じてモーター14が駆動することで、ドローン10がコリドーの内部に設定された指定範囲の内部を航行できる。コリドーの利用を継続する場合は、ステップS16の後、ステップS11に戻る。
 以上のように、本実施形態のドローンは、本体、プロペラ、モーター、発信情報生成部、通信部、カメラ、充電池、および制御部(制御装置)を備える。モーターは、制御装置によって駆動制御される。プロペラは、アームを介して、回転可能に本体に設置される。プロペラは、モーターの駆動に応じて回転する。発信情報生成部は、自機の識別情報と位置情報を含む発信情報を生成する。通信部は、コリドーを管理する管理装置と通信する。通信部は、発信情報を管理装置に送信する。カメラは、制御装置によって撮像制御される。充電池は、ドローンの電力源である。
 制御部は、撮像制御部、検出部、計算部、制御条件生成部、および制御条件設定部を有する。撮像制御部は、ドローンに搭載されたカメラの撮像制御を行う。検出部は、カメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出する。検出部は、検出された誘導灯の位置を特定する。計算部は、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算する。制御条件生成部は、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成する。例えば、制御条件生成部は、到達予測位置から制御目標位置に向けてドローンを移動させる制御条件を生成する。制御条件設定部は、ドローンのモーターに制御条件を設定する。
 本実施形態の制御部は、ドローンに搭載されたカメラによって撮像された画像から検出された誘導灯の位置に応じて、到達予測位置から制御目標位置に向けてドローンを移動させる制御条件を、ドローンのモーターに設定する。そのため、本実施形態によれば、コリドーを利用するドローンの自律航行を実現できる。
 本実施形態の一態様において、検出部は、誘導灯の発光色に応じて、コリドーの利用で参照する参照誘導灯を検出する。検出部は、検出された参照誘導灯の位置を特定する。本態様によれば、発光色に応じて参照誘導灯を検出することによって、コリドーを利用するドローンが確実に航行できる。
 本実施形態の一態様において、検出部は、誘導灯の異なる高さにおける複数の発光色に応じて、コリドーの利用で参照する参照誘導灯を検出する。検出部は、検出された参照誘導灯の複数の発光色に応じて、コリドーにおけるドローンの高さ方向の位置を特定する。本態様によれば、誘導灯の異なる高さにおける複数の発光色に応じて、コリドーにおけるドローンの位置を三次元的に特定できる。そのため、本態様によれば、コリドーを利用するドローンは、コリドーの内部を三次元的に自律航行できる。
 本実施形態の一態様において、制御条件生成部は、参照誘導灯に対して設定された最小指定距離よりも、参照誘導灯とドローンとの距離が小さい場合、ドローンが参照誘導灯から離れるようにモーターを制御する制御条件を生成する。また、制御条件生成部は、参照誘導灯に対して設定された最大指定距離よりも、参照誘導灯とドローンとの距離が大きい場合、ドローンが参照誘導灯に近づくようにモーターを制御する制御条件を生成する。本態様によれば、コリドーを利用するドローンは、参照誘導灯との距離に応じて、コリドーの内部を安全に自律航行できる。
 (第2の実施形態)
 次に、第2の実施形態に係るドローンについて図面を参照しながら説明する。本実施形態のドローンは、ドローンに搭載された充電池の充電量に応じた航行制御を行う。以下において、第1の実施形態と同様の構成や機能については、省略する場合がある。
 (構成)
 図13は、本実施形態に係るドローン20の構成の一例を示す概念図である。図13は、ドローン20の機能構成について説明するためのブロック図である。ドローン20は、第1の実施形態のドローン10と同様の外観を有する。
 ドローン20は、本体(図示しない)、プロペラ22、制御部23、モーター24、カメラ25、通信部26、発信情報生成部27、および充電池29を備える。制御部23、通信部26、発信情報生成部27、および充電池29は、本体の内部に格納される。カメラ25は、レンズ以外の大部分は、本体の内部に格納される。また、ドローン20は、第1の実施形態のドローン10と同様に、荷物の運搬機能(図示しない)を有する。
 プロペラ22は、第1の実施形態のプロペラ12と同様の構成である。プロペラ22は、ドローン20を飛翔させる機構である。プロペラ22は、アーム(図示しない)によって、本体に固定される。プロペラ22には、プロペラ22を回転させるためのモーター24が設置される。ドローン20の本体には、4つのプロペラ22が設置されている。複数のプロペラ22の回転数は、互いに独立して制御される。
 モーター24は、第1の実施形態のモーター14と同様の構成である。モーター24は、複数のプロペラ22の各々に設置される。モーター24は、プロペラ22を回転させるための駆動機構である。モーター24は、制御部23の制御に応じて、プロペラ22を回転させる。
 制御部23は、第1の実施形態の制御部13と同様の構成である。制御部23は、ドローン20を制御する制御装置である。制御部23は、プロペラ22の回転を制御する。制御部23は、プロペラ22ごとのモーター24を駆動制御することで、プロペラ22ごとの回転数を制御する。また、制御部23は、カメラ25を撮像制御する。制御部23は、所定のタイミングでカメラ25に撮像させる。制御部23は、カメラ25によって撮影された画像を取得する。制御部23は、ドローン20がコリドーの内部を航行中は、カメラ25によって撮影される画像に含まれる誘導灯の位置に基づいて、プロペラ22の回転を制御する。制御部23は、参照すべき色で発光する誘導灯の位置に応じて、ドローン20が適切な位置を航行するように、プロペラ22の回転を制御する。
 また、制御部23は、充電池29の充電量をモニターする。制御部23は、充電池29の充電量に応じた制御を実行する。例えば、制御部23は、充電池29の充電量が所定値以下になった場合、充電池29を充電する準備段階(充電待機段階)に移行する。充電待機段階において、カメラ25によって撮像された画像中に充電ステーションが検出されると、制御部23は、充電ステーションに向けて移動するように、プロペラ22の回転を制御する。
 カメラ25は、第1の実施形態のカメラ15と同様の構成である。カメラ25は、ドローン20の周辺を撮影するために配置される。ドローン20の前方や側方、上方、下方を撮影するために、複数のカメラ25がドローン20に搭載されてもよい。カメラ25は、制御部23の制御に応じて撮影する。カメラ25は、撮影された画像データ(画像とも呼ぶ)を通信部26に出力する。
 通信部26は、第1の実施形態の通信部16と同様の構成である。通信部26は、管理塔から送信された無線信号を受信する。また、通信部26は、発信情報生成部27によって生成される発信情報や、カメラ25によって撮影される画像を含む信号を発信する。
 発信情報生成部27は、第1の実施形態の発信情報生成部17と同様の構成である。発信情報生成部27は、ドローン20に固有な発信情報を生成する。発信情報には、不変情報と変動情報が含まれる。発信情報生成部27は、不変情報と変動情報とを含む発信情報を所定周期で生成する。不変情報には、ドローン20の登録情報や製造番号、認証情報等が含まれる。変動情報には、位置情報や時刻が含まれる。発信情報生成部27は、生成した発信情報を通信部26に出力する。
 充電池29は、充電機能を有する一般的な二次電池である。充電池29は、ドローン20の電力源である。充電池29の充電量は、制御部23によってモニターされる。充電池29については、ドローン20がコリドーを航行できさえすれば、特に限定を加えない。充電池29は、充電池29への充電制御や、充電池29の充電量のモニターが可能である。
 〔制御部〕
 次に、ドローン20に搭載される制御部23の構成について詳細に説明する。図14は、制御部23の構成の一例を示すブロック図である。制御部23は、撮像制御部231、検出部232、計算部233、制御条件生成部234、制御条件設定部235、および充電管理部239を有する。
 撮像制御部231は、第1の実施形態の撮像制御部131と同様の構成である。撮像制御部231は、カメラ25を撮像制御する。撮像制御部231は、所定のタイミングでカメラ25に撮像させる。撮像制御部231は、カメラ25によって撮影された画像を取得する。撮像制御部231は、取得した画像を検出部232に出力する。コリドーの管理側に画像を提供する場合、撮像制御部231は、取得した画像を通信部26に出力する。
 充電管理部239は、充電池29の充電量をモニターする。充電池29の充電量が基準値を下回ると、充電管理部239は、充電待機状態であることを示す信号(充電待機信号とも呼ぶ)を検出部232に出力する。
 検出部232は、第1の実施形態の検出部132と同様の構成である。検出部232は、カメラ25によって撮像された画像を、撮像制御部231から取得する。検出部232は、取得した画像から、誘導灯(図示しない)の発光を検出する。検出部232は、検出された誘導灯の発光のうち、参照すべき誘導灯の発光色を抽出する。例えば、左岸の誘導灯が緑色に発光し、右岸の誘導灯が赤色に発光するものとする。検出部232は、画像から抽出された誘導灯の発光に基づいて、コリドーが形成された領域における誘導灯や自機(ドローン20)の位置を特定する。検出部232は、画像から抽出された誘導灯と自機(ドローン20)の位置を計算部233に出力する。
 充電待機信号を受信すると、検出部232は、取得した画像から充電ステーション(図示しない)を検出する。検出部232は、検出された充電ステーションの位置を特定する。検出部232は、誘導灯と自機(ドローン20)の位置に加えて、充電ステーションの位置を、計算部233に出力する。画像から充電ステーションが検出されなかった場合は、充電待機状態が維持される。検出部232は、画像から充電ステーションが検出されるまで、充電待機状態を維持する。例えば、所定時間が経過しても画像から充電ステーションが検出なかった場合、検出部232は、緊急着陸位置を計算部233に出力してもよい。そのように構成すれば、充電池29の充電量が不十分になっても、ドローン20を安全に着陸させることができる。
 計算部233は、第1の実施形態の計算部133と同様の構成である。計算部233は、誘導灯240と自機(ドローン20)の位置を検出部232から取得する。自機(ドローン20)がGPS(Global Positioning System)信号を受信する機能を有する場合、計算部233は、GPS信号に含まれる位置情報を取得してもよい。計算部233は、取得した誘導灯240と自機(ドローン20)の位置に応じて、誘導灯240と自機(ドローン20)の位置関係を計算する。計算部233は、画像の撮像タイミングに後続する、ドローン20に対する次の制御タイミング(次回の制御タイミングとも呼ぶ)におけるドローン20の位置(到達予測位置とも呼ぶ)を計算する。また、計算部233は、次回の制御タイミングにおけるドローン20の目標位置(制御目標位置とも呼ぶ)を計算する。
 充電待機状態の場合、計算部233は、充電ステーションの位置を制御目標位置として計算する。計算部233は、算出した到達予測位置と制御目標位置を、制御条件生成部234に出力する。
 制御条件生成部234は、第1の実施形態の制御条件生成部134と同様の構成である。制御条件生成部234は、計算部233によって算出された到達予測位置と制御目標位置を取得する。制御条件生成部234は、到達予測位置から制御目標位置に向けてドローン20を制御するための制御条件を生成する。制御条件生成部234は、到達予測位置から制御目標位置に応じて、ドローン20の進行方向/速度を計算する。制御条件生成部234は、進行方向/速度に応じて、複数のプロペラ22の回転数を設定する。制御条件生成部234は、生成した制御条件を制御条件設定部235に出力する。
 制御条件設定部235は、第1の実施形態の制御条件設定部135と同様の構成である。制御条件設定部235は、制御条件生成部234から制御条件を取得する。制御条件設定部235は、次回の制御タイミングにおいて、制御条件をモーター24に設定する。モーター24が制御条件に応じて駆動することによって、プロペラ22ごとの回転数が制御される。その結果、ドローン20は、制御条件に応じた方向/速度で進行する。
 図15~図16は、ドローン20の制御の一例について説明するための概念図である。図15~図16において、河川は、紙面の下(上流)から上(下流)に向けて流れている。ドローン20は、河川の左岸(紙面の左側)に設置された誘導灯240Lの発光に従って、コリドーの内部を航行する。ドローン20は、河川の右岸(紙面の右側)に設置された誘導灯240Rの発光に従って、コリドーの内部を航行してもよい。図15~図16においては、コリドーを省略する。
 図15の例では、ドローン20に搭載されたカメラ25によって撮像された画像中に、充電ステーションCSが含まれる。例えば、充電ステーションCSは、誘導灯240Lや誘導灯240Rとは異なる色で発光する。例えば、充電ステーションCSは、空き状態に応じて発光してもよい。例えば、充電ポートに空きがない場合は充電ステーションCSが発光しないようにすれば、充電ステーションCSを使用できない状況で、ドローン20が充電ステーションCSに向かうことを防止できる。例えば、図16のように、充電ステーションCSの近傍にある誘導灯240の上部や柱部が異なる色で発光できれば、誘導灯240の発光が高さ方向の目印になるので、ドローン20を三次元的に制御しやすくなる。
 (動作)
 次に、本実施形態のドローン20に搭載される制御部23の動作の一例について図面を参照しながら説明する。図17は、制御部23の動作の一例について説明するためのフローチャートである。以下においては、制御部23を動作主体として説明する。
 図17において、まず、制御部23は、ドローン20に搭載されたカメラ25を撮像制御して画像を取得する(ステップS201)。カメラ25によって撮像された画像には、河川の岸に設置された誘導灯240が含まれる。
 次に、制御部23は、充電池29の充電量を取得する(ステップS202)。
 充電池29の充電量が所定値を上回っている場合(ステップS203でYes)、制御部23は、カメラ25によって撮像された画像から、画像認識によって、参照対象の誘導灯240の発光部を検出する(ステップS204)。
 次に、制御部23は、ドローン20と誘導灯240との位置関係を計算する(ステップS205)。例えば、制御部23は、ドローン20と誘導灯240との距離を、ドローン20と誘導灯240との位置関係として計算する。
 次に、制御部23は、ドローン20と誘導灯240との位置関係に応じて、到達予測位置/制御目標位置を計算する(ステップS206)。
 ステップS203において、充電池29の充電量が所定値以下の場合(ステップS203でNo)、制御部23は、カメラ25によって撮像された画像から、画像認識によって充電ステーションCSを検出する(ステップS207)。例えば、制御部23は、充電ステーションCSの発光を検出する。
 次に、制御部23は、充電ステーションCSとドローン20との位置関係を計算する(ステップS208)。例えば、制御部23は、画像から検出された充電ステーションCSとドローン20との距離を、充電ステーションCSとドローン20の位置関係として計算する。
 次に、制御部23は、充電ステーションCSとドローン20との位置関係に応じて、充電ステーションCSにドローン20を駐機させるための到達予測位置/制御目標位置を計算する(ステップS207)。
 ステップS206またはステップS209の次に、制御部23は、算出された到達予測位置/制御目標位置に応じた制御条件を生成する(ステップS210)。制御部23は、到達予測位置から制御目標位置に向けてドローン20が移動するための制御条件を生成する。
 次に、制御部23は、生成した制御条件をモーター24に出力する(ステップS211)。制御条件に応じてモーター24が駆動することで、コリドーの内部に設定された指定範囲の内部をドローン20が航行したり、充電ステーションCSにドローン20が駐機したりすることが可能になる。コリドーの利用を継続する場合は、ステップS211の後、ステップS201に戻る。
 以上のように、本実施形態のドローンは、本体、プロペラ、モーター、発信情報生成部、通信部、カメラ、充電池、および制御部(制御装置)を備える。モーターは、制御装置によって駆動制御される。プロペラは、アームを介して、回転可能に本体に設置される。プロペラは、モーターの駆動に応じて回転する。発信情報生成部は、自機の識別情報と位置情報を含む発信情報を生成する。通信部は、コリドーを管理する管理装置と通信する。通信部は、発信情報を管理装置に送信する。カメラは、制御装置によって撮像制御される。充電池は、ドローンの電力源である。充電池は、充電量のモニターや制御が可能である。
 制御部は、撮像制御部、検出部、計算部、制御条件生成部、制御条件設定部、および充電管理部を有する。撮像制御部は、ドローンに搭載されたカメラの撮像制御を行う。充電管理部は、ドローンに搭載された充電池の充電量をモニターする。充電管理部は、充電池の充電量が基準値を下回ると、充電待機信号を検出部に出力する。検出部は、カメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出する。検出部は、検出された誘導灯の位置を特定する。また、検出部は、充電待機信号に応じて、カメラによって撮像された画像から、充電池への充電が可能な充電ステーションを検出する。検出部は、検出された充電ステーションの位置を特定する。計算部は、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算する。また、計算部は、充電ステーションの位置を制御目標位置として計算する。制御条件生成部は、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成する。例えば、制御条件生成部は、到達予測位置から制御目標位置に向けてドローンを移動させる制御条件を生成する。制御条件設定部は、ドローンのモーターに制御条件を設定する。
 本実施形態の制御部は、ドローンに搭載された充電池の充電量が基準値を下回った場合、カメラによって撮像された画像から、充電ステーションを検出する。制御部は、検出された充電ステーション(制御目標位置)に向けてドローンを移動させる制御条件を、ドローンのモーターに設定する。そのため、本実施形態によれば、ドローンに搭載された充電池の充電量に応じて、コリドーを利用するドローンの安全な自律航行を実現できる。
 (第3の実施形態)
 次に、第3の実施形態に係るドローンについて図面を参照しながら説明する。本実施形態のドローンは、他のドローンとの位置関係に応じた航行制御を行う。以下においては、第1の実施形態に、他のドローンとの位置関係に応じた航行制御を行う機能を追加する例を挙げる。本実施形態の機能は、第2の実施形態に追加されてもよい。以下において、第1~第2の実施形態と同様の構成や機能については、省略する場合がある。
 (構成)
 図18は、本実施形態に係るドローン30の構成の一例を示す概念図である。図18は、ドローン30の機能構成について説明するためのブロック図である。ドローン30は、第1の実施形態のドローン10と同様の外観を有する。
 ドローン30は、本体(図示しない)、プロペラ32、制御部33、モーター34、カメラ35、通信部36、発信情報生成部37、および充電池39を備える。制御部33、通信部36、発信情報生成部37、および充電池39は、本体の内部に格納される。カメラ35は、レンズ以外の大部分は、本体の内部に格納される。また、ドローン30は、第1の実施形態のドローン10と同様に、荷物の運搬機能(図示しない)を有する。
 プロペラ32は、第1の実施形態のプロペラ12と同様の構成である。プロペラ32は、ドローン30を飛翔させる機構である。プロペラ32は、アーム(図示しない)によって、本体に固定される。プロペラ32には、プロペラ32を回転させるためのモーター34が設置される。ドローン30の本体には、4つのプロペラ32が設置されている。複数のプロペラ32の回転数は、互いに独立して制御される。
 モーター34は、第1の実施形態のモーター14と同様の構成である。モーター34は、複数のプロペラ32の各々に設置される。モーター34は、プロペラ32を回転させるための駆動機構である。モーター34は、制御部33の制御に応じて、プロペラ32を回転させる。
 制御部33は、第1の実施形態の制御部13と同様の構成である。制御部33は、ドローン30を制御する制御装置である。制御部33は、プロペラ32の回転を制御する。制御部33は、プロペラ32ごとのモーター34を駆動制御することで、プロペラ32ごとの回転数を制御する。また、制御部33は、カメラ35を撮像制御する。制御部33は、所定のタイミングでカメラ35に撮像させる。制御部33は、カメラ35によって撮影された画像を取得する。制御部33は、ドローン30がコリドーの内部を航行中は、カメラ35によって撮影される画像に含まれる誘導灯の位置に基づいて、プロペラ32の回転を制御する。制御部33は、参照すべき色で発光する誘導灯の位置に応じて、ドローン30が適切な位置を航行するように、プロペラ32の回転を制御する。
 また、制御部33は、コリドーを航行している他のドローン30の発信情報に含まれる位置情報を、通信部36から取得する。制御部33は、取得した位置情報に応じて、他のドローン30との位置関係を計算する。制御部33は、他のドローン30との位置関係に応じた制御を実行する。例えば、制御部33は、他のドローン30との距離が所定値以下になった場合、そのドローン30から離れるように、プロペラ32の回転を制御する。
 カメラ35は、第1の実施形態のカメラ15と同様の構成である。カメラ35は、ドローン30の周辺を撮影するために配置される。ドローン30の前方や側方、上方、下方を撮影するために、複数のカメラ35がドローン30に搭載されてもよい。カメラ35は、制御部33の制御に応じて撮影する。カメラ35は、撮影された画像データ(画像とも呼ぶ)を通信部36に出力する。
 通信部36は、第1の実施形態の通信部16と同様の構成である。通信部36は、管理塔から送信された無線信号を受信する。また、通信部36は、発信情報生成部37によって生成される発信情報や、カメラ35によって撮影される画像を含む信号を発信する。さらに、通信部36は、コリドーを航行している他のドローン30が発信した信号を受信する。他のドローン30が発信した信号には、そのドローン30に固有の発信情報が含まれる。発信情報には、信号の発信元であるドローン30の位置情報が含まれる。通信部36は、受信した発信情報に含まれる位置情報を制御部33に出力する。
 発信情報生成部37は、第1の実施形態の発信情報生成部17と同様の構成である。発信情報生成部37は、ドローン30に固有な発信情報を生成する。発信情報には、不変情報と変動情報が含まれる。発信情報生成部37は、不変情報と変動情報とを含む発信情報を所定周期で生成する。不変情報には、ドローン30の登録情報や製造番号、認証情報等が含まれる。変動情報には、位置情報や時刻が含まれる。発信情報生成部37は、生成した発信情報を通信部36に出力する。
 充電池39は、第1の実施形態の充電池19と同様の構成である。充電池39は、充電機能を有する一般的な二次電池である。充電池39は、ドローン30の電力源である。
 〔制御部〕
 次に、ドローン30に搭載される制御部33の構成について詳細に説明する。図19は、制御部33の構成の一例を示すブロック図である。制御部33は、撮像制御部331、検出部332、計算部333、制御条件生成部334、制御条件設定部335、および他機情報取得部336を有する。
 撮像制御部331は、第1の実施形態の撮像制御部131と同様の構成である。撮像制御部331は、カメラ35を撮像制御する。撮像制御部331は、所定のタイミングでカメラ35に撮像させる。撮像制御部331は、カメラ35によって撮影された画像を取得する。撮像制御部331は、取得した画像を検出部332に出力する。コリドーの管理側に画像を提供する場合、撮像制御部331は、取得した画像を通信部36に出力する。
 検出部332は、第1の実施形態の検出部132と同様の構成である。検出部332は、カメラ35によって撮像された画像を、撮像制御部331から取得する。検出部332は、取得した画像から、誘導灯(図示しない)の発光を検出する。検出部332は、検出された誘導灯の発光のうち、参照すべき誘導灯の発光色を抽出する。例えば、左岸の誘導灯が緑色に発光し、右岸の誘導灯が赤色に発光するものとする。検出部332は、画像から抽出された誘導灯の発光に基づいて、コリドーが形成された領域における誘導灯や自機(ドローン30)の位置を特定する。検出部332は、画像から抽出された誘導灯と自機(ドローン30)の位置を計算部333に出力する。
 他機情報取得部336は、他のドローン30(他機)の位置情報を、通信部36から取得する。他機情報取得部336は、取得した他機の位置情報を計算部333に出力する。
 計算部333は、第1の実施形態の計算部133と同様の構成である。計算部333は、誘導灯340と自機(ドローン30)の位置を検出部332から取得する。自機(ドローン30)がGPS(Global Positioning System)信号を受信する機能を有する場合、計算部333は、GPS信号に含まれる位置情報を取得してもよい。計算部333は、取得した誘導灯340と自機の位置に応じて、誘導灯340と自機の位置関係を計算する。計算部333は、画像の撮像タイミングに後続する、ドローン30に対する次の制御タイミング(次回の制御タイミングとも呼ぶ)におけるドローン30の位置(到達予測位置とも呼ぶ)を計算する。計算部333は、次回の制御タイミングにおけるドローン30の目標位置(制御目標位置とも呼ぶ)を計算する。計算部333は、算出した到達予測位置と制御目標位置を、制御条件生成部334に出力する。
 また、計算部333は、コリドーを航行している他のドローン30(他機)の位置情報を、他機情報取得部336から取得する。他機の位置情報を取得した場合、計算部333は、他機の位置情報を用いて、他機と自機の位置関係を計算する。例えば、計算部333は、他機と自機の位置関係として、他機と自機の距離を計算する。計算部333は、他機と自機の距離が所定距離未満の場合、他機から遠ざかるように、制御目標位置を計算する。例えば、計算部333は、他機の位置から離れる方向に、制御目標位置を設定する。計算部333は、算出した到達予測位置と制御目標位置を、制御条件生成部334に出力する。
 制御条件生成部334は、第1の実施形態の制御条件生成部134と同様の構成である。制御条件生成部334は、計算部333によって算出された到達予測位置と制御目標位置を取得する。制御条件生成部334は、到達予測位置から制御目標位置に向けてドローン30を制御するための制御条件を生成する。制御条件生成部334は、到達予測位置から制御目標位置に応じて、ドローン30の進行方向/速度を計算する。制御条件生成部334は、進行方向/速度に応じて、複数のプロペラ32の回転数を設定する。制御条件生成部334は、生成した制御条件を制御条件設定部335に出力する。
 制御条件設定部335は、第1の実施形態の制御条件設定部135と同様の構成である。制御条件設定部335は、制御条件生成部334から制御条件を取得する。制御条件設定部335は、次回の制御タイミングにおいて、制御条件をモーター34に設定する。モーター34が制御条件に応じて駆動することによって、プロペラ32ごとの回転数が制御される。その結果、ドローン30は、制御条件に応じた方向/速度で進行する。
 図20~図21は、ドローン30の制御の一例について説明するための概念図である。図20~図21において、河川は、紙面の下(上流)から上(下流)に向けて流れている。ドローン30は、河川の左岸(紙面の左側)に設置された誘導灯340Lの発光に従って、コリドーの内部を航行する。ドローン30は、河川の右岸(紙面の右側)に設置された誘導灯340Rの発光に従って、コリドーの内部を航行してもよい。図20~図21においては、コリドーを省略する。ドローン30-1~3の周囲には、占有範囲Rが設定される。図20~図21には、占有範囲Rを破線の円で示す。図20~図21の例では、ドローン30-1~3の速度の違いを、矢印の長さで示す。矢印が長いほど速度が速く、矢印が短いほど速度が遅い。
 図20の例では、三機のドローン30-1~3がコリドーを航行している。図20の場面は、通常の速度で航行していたドローン30-1およびドローン30-3の後方から、速度の速いドローン30-2が航行してきた状況である。ドローン30-1およびドローン30-3の占有範囲Rは、ドローン30-2の占有範囲Rと重なっている。このような場合、ドローン30-1~3は、互いの占有範囲Rが重ならなくなるように、自機のプロペラ32を制御する。すなわち、ドローン30-1~3は、互いの占有範囲Rが重ならなくなるように協調制御する。
 図21の場面は、図20の場面を経て、ドローン30-1~3が協調制御を実行した結果の状況である。ドローン30-1は、ドローン30-2から離れるように、左前方に速度を上げて移動する。ドローン30-2は、ドローン30-1およびドローン30-2に近づかないように、速度を下げる。ドローン30-3は、ドローン30-2から離れるように、右前方に速度を上げて移動する。以上のような協調制御の結果、図21のように、ドローン30-1~3の占有範囲Rの重なりがなくなる。
 (動作)
 次に、本実施形態のドローン30に搭載される制御部33の動作の一例について図面を参照しながら説明する。図22は、制御部33の動作の一例について説明するためのフローチャートである。以下においては、制御部33を動作主体として説明する。
 図22において、まず、制御部33は、ドローン30に搭載されたカメラ35を撮像制御して画像を取得する(ステップS301)。カメラ35によって撮像された画像には、河川の岸に設置された誘導灯340が含まれる。
 次に、制御部33は、カメラ35によって撮像された画像から、画像認識によって、参照対象の誘導灯340の発光部を検出する(ステップS302)。
 他機の発信情報(他機情報とも呼ぶ)を受信すると(ステップS303でYes)、制御部33は、他のドローン30(他機)と協調範囲が重なるか判定する(ステップS304)。
 他のドローン30(他機)と協調範囲が重なる場合(ステップS304でYes)、制御部33は、誘導灯340および他機と、自機との位置関係を計算する(ステップS305)。例えば、制御部33は、ドローン30と誘導灯340との距離を、ドローン30と誘導灯340との位置関係として計算する。また、制御部33は、他機と自機の位置情報を用いて、他機と自機との距離を、他機と自機との位置関係として計算する。
 次に、制御部33は、誘導灯340および他機と、自機との位置関係に応じて、到達予測位置/制御目標位置を計算する(ステップS306)。
 ステップS303において、充電池39の充電量が所定値以下の場合(ステップS303でNo)、制御部33は、カメラ35によって撮像された画像から、画像認識によって、参照対象の誘導灯340の発光部を検出する。
 次に、制御部33は、ドローン30と誘導灯340との位置関係を計算する(ステップS308)。例えば、制御部33は、ドローン30と誘導灯340との距離を、誘導灯340とドローン30の位置関係として計算する。
 ステップS306またはステップS308の次に、制御部33は、算出された到達予測位置/制御目標位置に応じた制御条件を生成する(ステップS309)。制御部33は、到達予測位置から制御目標位置に向けてドローン30が移動するための制御条件を生成する。
 次に、制御部33は、生成した制御条件をモーター34に出力する(ステップS310)。制御条件に応じてモーター34が駆動することで、ドローン30がコリドーの内部に設定された指定範囲の内部を航行することが可能になる。コリドーの利用を継続する場合は、ステップS310の後、ステップS301に戻る。
 以上のように、本実施形態のドローンは、本体、プロペラ、モーター、発信情報生成部、通信部、カメラ、充電池、および制御部(制御装置)を備える。モーターは、制御装置によって駆動制御される。プロペラは、アームを介して、回転可能に本体に設置される。プロペラは、モーターの駆動に応じて回転する。発信情報生成部は、自機の識別情報と位置情報を含む発信情報を生成する。通信部は、コリドーを管理する管理装置と通信する。通信部は、発信情報を管理装置に送信する。また、通信部は、他のドローン(他機)の発信情報を受信する。カメラは、制御装置によって撮像制御される。充電池は、ドローンの電力源である。
 制御部は、撮像制御部、検出部、計算部、制御条件生成部、制御条件設定部、および他機情報取得部を有する。撮像制御部は、ドローンに搭載されたカメラの撮像制御を行う。検出部は、カメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出する。検出部は、検出された誘導灯の位置を特定する。他機情報取得部は、コリドーを利用する他のドローンの位置情報を取得する。計算部は、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算する。また、計算部は、他のドローンと自機との距離を計算する。計算部は、他のドローンと自機との距離が所定距離未満の場合、他のドローンから離れる方向に制御目標位置を設定する。制御条件生成部は、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成する。例えば、制御条件生成部は、到達予測位置から制御目標位置に向けてドローンを移動させる制御条件を生成する。制御条件設定部は、ドローンのモーターに制御条件を設定する。
 本実施形態の制御部は、自機と他機との位置関係に応じて、制御目標位置を設定する。そのため、本実施形態によれば、コリドーを利用する複数のドローンが、お互いの位置関係に応じて、安全に自律航行できる。
 (第4の実施形態)
 次に、第4の実施形態に係るドローンについて図面を参照しながら説明する。本実施形態のドローンは、誘導灯から発せられる音波に従って、航行制御を行う。誘導灯から発せられる音は、超音波であってもよいし、可聴域の音であってもよい。誘導灯から発せられる音波は、ドローンの飛翔音や環境音とは異なる波長帯であることが好ましい。また、誘導灯には、指向性の高い音波を発することができる指向性スピーカが配備されてもよい。指向性スピーカを用いれば、コリドーを利用するドローンに対して、指向性の高い音波を照射できる。以下においては、第1の実施形態に、誘導灯から発せられる音波に従って航行制御を行う機能を追加する例を挙げる。本実施形態の機能は、第2~第3の実施形態に追加されてもよい。以下において、第1~第3の実施形態と同様の構成や機能については、省略する場合がある。
 (構成)
 図23~図24は、本実施形態に係るドローン40の構成の一例を示す概念図である。図23は、ドローン40の機能構成について説明するためのブロック図である。図24は、ドローン40の下面図である。ドローン40の上面は、第1の実施形態のドローン10と同様である。
 ドローン40は、本体41、プロペラ42、制御部43、モーター44、カメラ45、通信部46、発信情報生成部47、マイクロホン48、および充電池49を備える。制御部43、通信部46、発信情報生成部47、マイクロホン48、および充電池49は、本体の内部に格納される。カメラ45は、レンズ以外の大部分は、本体の内部に格納される。また、ドローン40は、第1の実施形態のドローン10と同様に、荷物の運搬機能(図示しない)を有する。
 本体41は、制御部43、カメラ45、通信部46、発信情報生成部47、マイクロホン48、および充電池49等を格納する筐体である。本体41には、ドローン40を飛翔させるための少なくとも一つのプロペラ42が取り付けられる。例えば、本体41には、用途に応じて、内部に荷物を格納するスペースや、荷物をぶら下げる機構、荷物を上に載せる箇所等が設けられる。本体41の形状や材質には、特に限定を加えない。
 プロペラ42は、第1の実施形態のプロペラ12と同様の構成である。プロペラ42は、ドローン40を飛翔させる機構である。プロペラ42は、アーム420によって、本体に固定される。プロペラ42には、プロペラ42を回転させるためのモーター44が設置される。ドローン40の本体には、4つのプロペラ42が設置されている。複数のプロペラ42の回転数は、互いに独立して制御される。プロペラ42は、静音設計のものであってもよい。例えば、プロペラ42の幅を広くしたり、プロペラ42の数を増やしたりすれば、少ない回転数で十分な推力が得られるので、プロペラ42の回転に伴う飛翔音を軽減できる。
 モーター44は、第1の実施形態のモーター14と同様の構成である。モーター44は、複数のプロペラ42の各々に設置される。モーター44は、プロペラ42を回転させるための駆動機構である。モーター44は、制御部43の制御に応じて、プロペラ42を回転させる。モーター44は、静音設計のものであってもよい。例えば、モーター44としてブラシレスモーターを用いれば、静音性を向上できる。また、モーター44の振動が本体(筐体)に伝わりにくくなるように、接続部分に防振ゴムなどの防振部材を介在させてもよい。
 マイクロホン48は、誘導灯から発せられた音波を受音する。マイクロホン48は、受音した音波を電気信号(音波信号とも呼ぶ)に変換する。マイクロホン48は、変換後の音波信号を制御部43に出力する。例えば、マイクロホン48は、誘導灯から発せられた特定の周波数帯の音波を選択的に受音するように構成されてもよい。マイクロホン48が受音する音波の周波数帯が限定されれば、ドローン40の飛翔音や環境音の影響で誘導灯から発せられた音波が受音されにくくなることを抑制できる。例えば、マイクロホン48は、特定の方向から到来する音波を選択的に受音する指向性を有してもよい。マイクロホン48が指向性を持てば、誘導灯の方向から到来する音波を選択的に受音できるので、ドローン40の飛翔音や環境音の影響を低減できる。
 制御部43は、第1の実施形態の制御部13と同様の構成である。制御部43は、ドローン40を制御する制御装置である。制御部43は、プロペラ42の回転を制御する。制御部43は、プロペラ42ごとのモーター44を駆動制御することで、プロペラ42ごとの回転数を制御する。また、制御部43は、カメラ45を撮像制御する。制御部43は、所定のタイミングでカメラ45に撮像させる。制御部43は、カメラ45によって撮影された画像を取得する。さらに、制御部43は、マイクロホン48から音波信号を取得する。制御部43は、ドローン40がコリドーの内部を航行中は、カメラ45によって撮影される画像と、マイクロホン48によって受音される音波信号とに基づいて、ドローン40と誘導灯の位置関係を計算する。制御部43は、算出された位置関係に応じて、プロペラ42の回転を制御する。例えば、制御部43は、カメラ45によって撮影される画像に基づく制御の補助として、音波信号を用いる。例えば、制御部43は、音波信号のみに基づいて、プロペラ42の回転を制御してもよい。
 カメラ45は、第1の実施形態のカメラ15と同様の構成である。カメラ45は、ドローン40の周辺を撮影するために配置される。ドローン40の前方や側方、上方、下方を撮影するために、複数のカメラ45がドローン40に搭載されてもよい。カメラ45は、制御部43の制御に応じて撮影する。カメラ45は、撮影された画像データ(画像とも呼ぶ)を通信部46に出力する。
 通信部46は、第1の実施形態の通信部16と同様の構成である。通信部46は、管理塔から送信された無線信号を受信する。また、通信部46は、発信情報生成部47によって生成される発信情報や、カメラ45によって撮影される画像を含む信号を発信する。さらに、通信部46は、コリドーを航行している他のドローン40が発信した信号を受信する。他のドローン40が発信した信号には、そのドローン40に固有の発信情報が含まれる。発信情報には、信号の発信元であるドローン40の位置情報が含まれる。通信部46は、受信した発信情報に含まれる位置情報を制御部43に出力する。
 発信情報生成部47は、第1の実施形態の発信情報生成部17と同様の構成である。発信情報生成部47は、ドローン40に固有な発信情報を生成する。発信情報には、不変情報と変動情報が含まれる。発信情報生成部47は、不変情報と変動情報とを含む発信情報を所定周期で生成する。不変情報には、ドローン40の登録情報や製造番号、認証情報等が含まれる。変動情報には、位置情報や時刻が含まれる。発信情報生成部47は、生成した発信情報を通信部46に出力する。
 充電池49は、第1の実施形態の充電池19と同様の構成である。充電池49は、充電機能を有する一般的な二次電池である。充電池49は、ドローン40の電力源である。
 〔制御部〕
 次に、ドローン40に搭載される制御部43の構成について詳細に説明する。図25は、制御部43の構成の一例を示すブロック図である。制御部43は、撮像制御部431、検出部432、計算部433、制御条件生成部434、制御条件設定部435、および音波信号取得部438を有する。
 撮像制御部431は、第1の実施形態の撮像制御部131と同様の構成である。撮像制御部431は、カメラ45を撮像制御する。撮像制御部431は、所定のタイミングでカメラ45に撮像させる。撮像制御部431は、カメラ45によって撮影された画像を取得する。撮像制御部431は、取得した画像を検出部432に出力する。コリドーの管理側に画像を提供する場合、撮像制御部431は、取得した画像を通信部46に出力する。
 検出部432は、第1の実施形態の検出部132と同様の構成である。検出部432は、カメラ45によって撮像された画像を、撮像制御部431から取得する。検出部432は、取得した画像から、誘導灯(図示しない)の発光を検出する。検出部432は、検出された誘導灯の発光のうち、参照すべき誘導灯の発光色を抽出する。例えば、左岸の誘導灯が緑色に発光し、右岸の誘導灯が赤色に発光するものとする。検出部432は、画像から抽出された誘導灯の発光に基づいて、コリドーが形成された領域における誘導灯や自機(ドローン40)の位置を特定する。検出部432は、画像から抽出された誘導灯と自機(ドローン40)の位置を計算部433に出力する。
 音波信号取得部438は、誘導灯から発せられた音波に基づく音波信号を、マイクロホン48から取得する。音波信号取得部438は、取得した音波信号を計算部433に出力する。音波信号取得部438は、誘導灯から発せられた音波の周波数帯を選択的に通過させるフィルタを用いて、音波信号をフィルタリングしてもよい。音波信号をフィルタリングすれば、ドローン40の飛翔音や環境音などの影響による外乱を低減できる。また、音波信号取得部438は、音波信号から、ドローン40の飛翔音をキャンセルしてもよい。ドローン40の飛翔音は、モーター44の駆動音や、プロペラ42の回転音、本体(筐体)の共振音などがメインであり、周波数帯や規則性に特徴を有する。そのため、ドローン40の飛翔音の特徴に応じて、ドローン40の飛翔音を音波信号からキャンセルすれば、ドローン40の飛翔音の影響による外乱を低減できる。
 計算部433は、第1の実施形態の計算部133と同様の構成である。計算部433は、誘導灯440と自機(ドローン40)の位置を検出部432から取得する。自機(ドローン40)がGPS(Global Positioning System)信号を受信する機能を有する場合、計算部433は、GPS信号に含まれる位置情報を取得してもよい。計算部433は、取得した誘導灯440と自機の位置に応じて、誘導灯440と自機の位置関係を計算する。計算部433は、画像の撮像タイミングに後続する、ドローン40に対する次の制御タイミング(次回の制御タイミングとも呼ぶ)におけるドローン40の位置(到達予測位置とも呼ぶ)を計算する。計算部433は、次回の制御タイミングにおけるドローン40の目標位置(制御目標位置とも呼ぶ)を計算する。計算部433は、算出した到達予測位置と制御目標位置を、制御条件生成部434に出力する。
 また、計算部433は、誘導灯から発せられた音波に応じた音波信号を、音波信号取得部438から取得する。計算部433は、取得した音波信号の周波数や強さ(音響インテンシティ)等に応じて、誘導灯との位置関係を計算する。音響インテンシティは、単位面積・単位時間あたりの音波のエネルギー量である。
 例えば、ドローン40が参照する誘導灯が、同じ周波数の音波を同じ強度で発し続けている場合、マイクロホン48によって受音される音波の周波数は、ドップラー効果で変化する。ドローン40が誘導灯に近づくにつれて、マイクロホン48は、誘導灯が発した音波よりも高い周波数の音波を受音する。ドローン40が誘導灯に最接近したタイミングにおいて、マイクロホン48は、誘導灯が発した音波と同じ高さの音波を受音する。ドローン40が誘導灯に遠ざかるにつれて、マイクロホン48は、誘導灯が発した音波よりも低い周波数の音波を受音する。すなわち、マイクロホン48が受音した音波の周波数に応じて、誘導灯との位置関係を把握できる。ドローン40が航行するコリドーは、複数の誘導灯によって形成される。そのため、コリドーを航行するドローン40は、複数の誘導灯から発せられた音波の周波数の変化に応じて、誘導灯の位置関係を把握できる。
 例えば、ドローン40が参照する誘導灯が、同じ周波数の音波を同じ強度で発し続けている場合、マイクロホン48によって受音される音波の強さ(音響インテンシティ)は、誘導灯との距離に応じて変化する。ドローン40が誘導灯に近づくにつれて、マイクロホン48は、受音する音波の音響インテンシティが次第に大きくなる。ドローン40が誘導灯に最接近したタイミングにおいて、受音する音波の音響インテンシティが最大になる。ドローン40が誘導灯に遠ざかるにつれて、受音する音波の音響インテンシティが次第に小さくなる。すなわち、マイクロホン48が受音した音波の音響インテンシティに応じて、誘導灯との位置関係を把握できる。ドローン40が航行するコリドーは、複数の誘導灯によって形成される。そのため、コリドーを航行するドローン40は、複数の誘導灯から発せられた音響インテンシティの変化に応じて、誘導灯の位置関係を把握できる。例えば、誘導灯からコリドーに向けて指向性の高い音波を照射すれば、ドローン40をより正確に誘導できる。
 計算部433は、音波信号の周波数や音響インテンシティの変化に応じて、ドローン40と誘導灯の位置関係を計算する。例えば、計算部433は、ドローン40と誘導灯の距離が最小指定距離未満の場合、誘導灯から遠ざかる方向に、制御目標位置を計算する。例えば、計算部433は、ドローン40と誘導灯の距離が最大指定距離以上の場合、誘導灯に近づく方向に、制御目標位置を計算する。計算部433は、算出した到達予測位置と制御目標位置を、制御条件生成部434に出力する。
 制御条件生成部434は、第1の実施形態の制御条件生成部134と同様の構成である。制御条件生成部434は、計算部433によって算出された到達予測位置と制御目標位置を取得する。制御条件生成部434は、到達予測位置から制御目標位置に向けてドローン40を制御するための制御条件を生成する。制御条件生成部434は、到達予測位置から制御目標位置に応じて、ドローン40の進行方向/速度を計算する。制御条件生成部434は、進行方向/速度に応じて、複数のプロペラ42の回転数を設定する。制御条件生成部434は、生成した制御条件を制御条件設定部435に出力する。
 制御条件設定部435は、第1の実施形態の制御条件設定部135と同様の構成である。制御条件設定部435は、制御条件生成部434から制御条件を取得する。制御条件設定部435は、次回の制御タイミングにおいて、制御条件をモーター44に設定する。モーター44が制御条件に応じて駆動することによって、プロペラ42ごとの回転数が制御される。その結果、ドローン40は、制御条件に応じた方向/速度で進行する。
 図26は、ドローン40の制御の一例について説明するための概念図である。図26において、河川は、紙面の下(上流)から上(下流)に向けて流れている。ドローン40は、河川の左岸(紙面の左側)に設置された誘導灯440Lの発光/音波に従って、コリドーの内部を航行する。ドローン40は、河川の右岸(紙面の右側)に設置された誘導灯440Rの発光/音波に従って、コリドーの内部を航行してもよい。図26においては、コリドーを省略する。例えば、誘導灯440Lと誘導灯440Rは、異なる周波数の音波を発する。例えば、誘導灯440Lと誘導灯440Rは、異なる音色の音波を発する。例えば、誘導灯440Lと誘導灯440Rがドローン40の飛翔音を受音し、受音した飛翔音に応じて、コリドーを航行するドローン40の航行状態をコリドーの管理側で特定するように構成されてもよい。例えば、管理側は、ドローン40の飛翔音を受音して、ドローン40の位置を特定する。管理側は、特定されたドローンの位置に応じて、コリドーを航行するドローン40を管理できる。
 (動作)
 次に、本実施形態のドローン40に搭載される制御部43の動作の一例について図面を参照しながら説明する。図27は、制御部43の動作の一例について説明するためのフローチャートである。以下においては、カメラ45によって撮像された画像を用いて制御する通常モードと、マイクロホン48によって受音された音波を用いて制御する音波モードとを別々に行う例を挙げる。通常モードと音波モードは、併用されてもよい。以下においては、制御部43を動作主体として説明する。
 図27において、音波モードではない場合(ステップS41でYes)、制御部43は、ドローン40に搭載されたカメラ45を撮像制御して画像を取得する(ステップS42)。カメラ45によって撮像された画像には、河川の岸に設置された誘導灯が含まれる。
 次に、制御部43は、カメラ45によって撮像された画像から、画像認識によって、参照対象の誘導灯の発光部を検出する(ステップS43)。
 ステップS41で音波モードの場合(ステップS41でYes)、制御部43は、誘導灯から発せられた音波を受音する(ステップS44)。
 次に、制御部43は、受音された音波に応じて、ドローン40と誘導灯との位置関係を計算する(ステップS45)。
 ステップS43またはステップS45の次に、制御部43は、ドローン40と誘導灯との位置関係に応じて、到達予測位置/制御目標位置を計算する(ステップS46)。
 次に、制御部43は、算出された到達予測位置/制御目標位置に応じた制御条件を生成する(ステップS47)。制御部43は、到達予測位置から制御目標位置に向けてドローン40が移動するための制御条件を生成する。
 次に、制御部43は、生成した制御条件をモーター44に出力する(ステップS48)。制御条件に応じてモーター44が駆動することで、ドローン40がコリドーの内部に設定された指定範囲の内部を航行できる。コリドーの利用を継続する場合は、ステップS48の後、ステップS41に戻る。
 以上のように、本実施形態のドローンは、本体、プロペラ、モーター、発信情報生成部、通信部、カメラ、充電池、マイクロホン、および制御部(制御装置)を備える。モーターは、制御装置によって駆動制御される。プロペラは、アームを介して、回転可能に本体に設置される。プロペラは、モーターの駆動に応じて回転する。発信情報生成部は、自機の識別情報と位置情報を含む発信情報を生成する。通信部は、コリドーを管理する管理装置と通信する。通信部は、発信情報を管理装置に送信する。カメラは、制御装置によって撮像制御される。マイクロホンは、コリドーの形成に用いられる誘導灯から発せられた音波を受音する。充電池は、ドローンの電力源である。
 制御部は、撮像制御部、検出部、計算部、制御条件生成部、制御条件設定部、および音波信号取得部を有する。撮像制御部は、ドローンに搭載されたカメラの撮像制御を行う。検出部は、カメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出する。検出部は、検出された誘導灯の位置を特定する。音波信号取得部は、誘導灯から発せられた音波に応じた音波信号を取得する。計算部は、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算する。また、計算部は、取得した音波信号を用いて、誘導灯との位置関係を計算する。例えば、計算部は、取得した音波信号の周波数に応じて、誘導灯との距離を計算する。例えば、計算部は、取得した音波信号の音響インテンシティに応じて、誘導灯との距離を計算する。制御条件生成部は、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成する。例えば、制御条件生成部は、到達予測位置から制御目標位置に向けてドローンを移動させる制御条件を生成する。制御条件設定部は、ドローンのモーターに制御条件を設定する。
 本実施形態の制御部は、ドローンに搭載されたマイクロホンによって受音された音波に応じて、ドローンを航行制御できる。そのため、本実施形態によれば、視界が悪い状況であっても、ドローンの自律航行を実現できる。本実施形態では、音波を用いてドローンを誘導する例を示したが、電波(レーダー)や光線(レーザー)を用いてドローンを誘導してもよい。例えば、ドローンの進行方向にある橋の上から、レーダー/レーザーをコリドーに向けて照射し、航空機を着陸誘導する要領で、コリドーの内部を航行するドローンを適切な航行ルートに誘導できる。河川に架かる橋の上からならば、ドローンの進行方向に沿って、ドローンを狙ってレーダー/レーザーを照射しやすい。その場合、レーザーの方が、レーダーよりも指向性が高いため、ドローンに照準を合わせやすい。例えば、特定のドローンのID情報(RID)を含む誘導電波を、誘導灯や管理塔からコリドーに向けて照射し、RIDが一致する特定のドローンを誘導してもよい。RIDを含む誘導電波を用いれば、電波の指向性によらず、誘導対象のドローンを誘導できる。例えば、誘導電波を用いれば、コリドーから外れそうなドローンを、コリドーの内部や、誘導灯/管理塔の方に誘導できる。例えば、誘導電波を用いれば、コリドーを不正利用するドローンを、コリドーの外部や、誘導灯/管理塔の方に誘導する制御や、河川に墜落させる制御が可能になる。
 (第5の実施形態)
 次に、第5の実施形態に係る管理装置について図面を参照しながら説明する。本実施形態の管理装置は、コリドーの内部を航行するドローンを適切な位置関係で誘導するための誘導情報を、それらのドローンに向けて発信する。本実施形態の管理装置は、管理対象のコリドー内における、第1~第4実施形態に係るドローンの航行を管理する。
 〔管理装置〕
 図28は、管理装置500の構成の一例を示すブロック図である。管理装置500は、発信情報取得部501、位置計算部502、誘導位置計算部503、誘導情報生成部505、および誘導情報出力部507を有する。例えば、管理装置500は、図示しないクラウドやサーバに構築される。例えば、管理装置500は、コリドーの形成に用いられる誘導灯や管理塔に配置されてもよい。
 発信情報取得部501は、コリドーの近傍に配置された管理塔(図示しない)から、コリドーを利用している複数のドローンの発信情報560を取得する。発信情報取得部501は、発信情報560に含まれる時刻(発信時刻)および位置情報を抽出する。発信情報取得部501は、抽出した発信時刻および位置情報を位置計算部502に出力する。発信時刻および位置情報以外の情報の用途については、特に限定を加えない。
 位置計算部502は、発信情報取得部501から、コリドーを利用している複数のドローンの発信時刻および位置情報を取得する。位置計算部502は、取得した位置情報を用いて、複数のドローンの位置を計算する。例えば、位置計算部502は、発信時刻における複数のドローンの位置を計算する。例えば、位置計算部502は、発信時刻から所定時間が経過した後の時点における複数のドローンの位置を計算する。例えば、位置計算部502は、発信時刻に基づいて生成された誘導情報570が、コリドーを航行する複数のドローンによって受信される時刻における、複数のドローンの位置を計算する。例えば、位置計算部502は、それまでに計算された複数のドローンの位置変化や速度に基づいて、誘導情報570が受信される時刻における複数のドローンの位置を計算する。位置計算部502は、算出した複数のドローンの位置を、誘導位置計算部503に出力する。
 誘導位置計算部503は、位置計算部502によって算出された複数のドローンの位置を取得する。誘導位置計算部503は、取得した複数のドローンの位置関係に基づいて、コリドーの内部における複数のドローンの誘導位置を計算する。例えば、誘導位置計算部503は、誘導情報570が受信される時刻における複数のドローンの位置に応じて、それらのドローンを誘導する位置を計算する。例えば、誘導情報570の受信時刻において、複数のドローンの各々に設定された範囲(占有範囲とも呼ぶ)が互いに重なる場合、それらの占有範囲が互いに重ならなくなる位置を誘導位置として算出する。例えば、占有範囲は、ドローンを中心とする球や円の範囲で設定される。誘導位置計算部503は、算出した複数のドローンの誘導位置を、誘導情報生成部505に出力する。
 誘導情報生成部505は、誘導位置計算部503によって算出された誘導位置を取得する。誘導情報生成部505は、取得した複数のドローンの誘導位置を用いて、個々のドローンに対する制御条件を含む誘導情報570を生成する。誘導情報570に含まれる制御条件は、複数のドローンの向きや速度を制御するための情報である。誘導情報570の受信時刻における占有範囲が互いに重なるドローンに対して、誘導情報生成部505は、それらのドローンの位置を遠ざけるように制御する誘導情報570を生成する。誘導情報の受信時刻における占有範囲が互いに重なるドローンがない場合、誘導情報生成部505は、それらのドローンの誘導情報570を生成しない。例えば、誘導情報の受信時刻における占有範囲が互いに重なるドローンがない場合であっても、誘導情報生成部505は、それらのドローンの位置が近づかないように制御する誘導情報570を生成してもよい。
 誘導情報生成部505は、機械学習の手法を用いて、複数のドローンの誘導情報570を生成してもよい。例えば、コリドーの内部を航行する複数のドローンの位置情報の入力に応じて、複数のドローンを適切な位置関係で配置する誘導情報570を出力するモデルを生成しておく。そのようなモデルを用いれば、誘導位置計算部503による計算を省略できる。複数のドローンの位置情報の入力に応じて誘導情報570を出力するモデルの詳細については、説明を省略する。
 誘導情報出力部507は、誘導情報生成部505によって生成された誘導情報570を、管理塔に出力する。コリドーの近傍に管理装置500が配置される場合は、管理装置500から、コリドーを航行するドローンに向けて、誘導情報570を送信するように構成されてもよい。例えば、管理塔や誘導灯に管理装置500を配置してもよい。
 〔ドローン〕
 図29は、本実施形態に係る管理装置500の管理対象であるコリドーを利用するドローン50の構成の一例を示す概念図である。図29は、ドローン50の機能構成について説明するためのブロック図である。ドローン50は、第1の実施形態のドローン10と同様の外観を有する。ドローン50は、第4の実施形態のドローン40と同様の外観/機能を有してもよい。
 ドローン50は、本体(図示しない)、プロペラ52、制御部53、モーター54、カメラ55、通信部56、発信情報生成部57、および充電池59を備える。制御部53、通信部56、発信情報生成部57、および充電池59は、本体の内部に格納される。カメラ55は、レンズ以外の大部分は、本体の内部に格納される。また、ドローン50は、第1の実施形態のドローン10と同様に、荷物の運搬機能(図示しない)を有する。
 プロペラ52は、第1の実施形態のプロペラ12と同様の構成である。プロペラ52は、ドローン50を飛翔させる機構である。プロペラ52は、アーム(図示しない)によって、本体に固定される。プロペラ52には、プロペラ52を回転させるためのモーター54が設置される。ドローン50の本体には、4つのプロペラ52が設置されている。複数のプロペラ52の回転数は、互いに独立して制御される。
 モーター54は、第1の実施形態のモーター14と同様の構成である。モーター54は、複数のプロペラ52の各々に設置される。モーター54は、プロペラ52を回転させるための駆動機構である。モーター54は、制御部53の制御に応じて、プロペラ52を回転させる。
 制御部53は、第1の実施形態の制御部13と同様の構成である。制御部53は、ドローン50を制御する制御装置である。制御部53は、プロペラ52の回転を制御する。制御部53は、プロペラ52ごとのモーター54を駆動制御することで、プロペラ52ごとの回転数を制御する。また、制御部53は、カメラ35を撮像制御する。制御部53は、所定のタイミングでカメラ55に撮像させる。制御部53は、カメラ55によって撮影された画像を取得する。制御部53は、ドローン50がコリドーの内部を航行中は、カメラ55によって撮影される画像に含まれる誘導灯の位置に基づいて、プロペラ52の回転を制御する。制御部53は、参照すべき色で発光する誘導灯の位置に応じて、ドローン50が適切な位置を航行するように、プロペラ52の回転を制御する。
 また、制御部53は、管理装置500から送信された誘導情報570を、通信部56から取得する。誘導情報570を取得した場合、制御部53は、誘導情報に応じてプロペラ52の回転を制御する。
 カメラ55は、第1の実施形態のカメラ15と同様の構成である。カメラ55は、ドローン50の周辺を撮影するために配置される。ドローン50の前方や側方、上方、下方を撮影するために、複数のカメラ55がドローン50に搭載されてもよい。カメラ55は、制御部53の制御に応じて撮影する。カメラ55は、撮影された画像データ(画像とも呼ぶ)を通信部56に出力する。
 通信部56は、第1の実施形態の通信部16と同様の構成である。通信部56は、管理塔から送信された無線信号を受信する。管理塔から送信された無線信号には、誘導情報570が含まれる。また、通信部56は、発信情報生成部57によって生成される発信情報や、カメラ55によって撮影される画像を含む信号を発信する。通信部56は、受信した誘導情報570を制御部53に出力する。
 発信情報生成部57は、第1の実施形態の発信情報生成部17と同様の構成である。発信情報生成部57は、ドローン50に固有な発信情報を生成する。発信情報には、不変情報と変動情報が含まれる。発信情報生成部57は、不変情報と変動情報とを含む発信情報を所定周期で生成する。不変情報には、ドローン50の登録情報や製造番号、認証情報等が含まれる。変動情報には、位置情報や時刻が含まれる。発信情報生成部57は、生成した発信情報を通信部56に出力する。
 充電池59は、第1の実施形態の充電池19と同様の構成である。充電池59は、充電機能を有する一般的な二次電池である。充電池59は、ドローン50の電力源である。
 〔制御部〕
 次に、ドローン50に搭載される制御部53の構成について詳細に説明する。図30は、制御部53の構成の一例を示すブロック図である。制御部53は、撮像制御部531、検出部532、計算部533、制御条件生成部534、制御条件設定部535、および誘導情報取得部536を有する。
 撮像制御部531は、第1の実施形態の撮像制御部131と同様の構成である。撮像制御部531は、カメラ55を撮像制御する。撮像制御部531は、所定のタイミングでカメラ55に撮像させる。撮像制御部531は、カメラ55によって撮影された画像を取得する。撮像制御部531は、取得した画像を検出部532に出力する。コリドーの管理側に画像を提供する場合、撮像制御部531は、取得した画像を通信部56に出力する。
 検出部532は、第1の実施形態の検出部132と同様の構成である。検出部532は、カメラ55によって撮像された画像を、撮像制御部531から取得する。検出部532は、取得した画像から、誘導灯(図示しない)の発光を検出する。検出部532は、検出された誘導灯の発光のうち、参照すべき誘導灯の発光色を抽出する。例えば、左岸の誘導灯が緑色に発光し、右岸の誘導灯が赤色に発光するものとする。検出部532は、画像から抽出された誘導灯の発光に基づいて、コリドーが形成された領域における誘導灯や自機(ドローン50)の位置を特定する。検出部532は、画像から抽出された誘導灯と自機(ドローン50)の位置を計算部533に出力する。
 計算部533は、第1の実施形態の計算部133と同様の構成である。計算部533は、誘導灯540と自機(ドローン50)の位置を検出部532から取得する。自機(ドローン50)がGPS(Global Positioning System)信号を受信する機能を有する場合、計算部533は、GPS信号に含まれる位置情報を取得してもよい。計算部533は、取得した誘導灯540と自機の位置に応じて、誘導灯540と自機の位置関係を計算する。計算部533は、画像の撮像タイミングに後続する、ドローン50に対する次の制御タイミング(次回の制御タイミングとも呼ぶ)におけるドローン50の位置(到達予測位置とも呼ぶ)を計算する。計算部533は、次回の制御タイミングにおけるドローン50の目標位置(制御目標位置とも呼ぶ)を計算する。計算部533は、算出した到達予測位置と制御目標位置を、制御条件生成部534に出力する。
 誘導情報取得部536は、管理装置500から送信された誘導情報570を、通信部56から取得する。誘導情報取得部536は、取得した誘導情報570を、制御条件生成部534に出力する。
 制御条件生成部534は、第1の実施形態の制御条件生成部134と同様の構成である。制御条件生成部534は、計算部533によって算出された到達予測位置と制御目標位置を取得する。制御条件生成部534は、到達予測位置から制御目標位置に向けてドローン50を制御するための制御条件を生成する。制御条件生成部534は、到達予測位置から制御目標位置に応じて、ドローン50の進行方向/速度を計算する。制御条件生成部534は、進行方向/速度に応じて、複数のプロペラ52の回転数を設定する。制御条件生成部534は、生成した制御条件を制御条件設定部535に出力する。
 また、制御条件生成部534は、管理装置500から送信された誘導情報570を、誘導情報取得部536から取得する。誘導情報570を取得すると、制御条件生成部534は、取得した誘導情報570に含まれる制御条件を制御条件設定部535に出力する。
 制御条件設定部535は、第1の実施形態の制御条件設定部135と同様の構成である。制御条件設定部535は、制御条件生成部534から制御条件を取得する。制御条件設定部535は、次回の制御タイミングにおいて、制御条件をモーター54に設定する。モーター54が制御条件に応じて駆動することによって、プロペラ52ごとの回転数が制御される。その結果、ドローン50は、制御条件に応じた方向/速度で進行する。
 図31は、ドローン50の制御の一例について説明するための概念図である。図31において、河川は、紙面の下(上流)から上(下流)に向けて流れている。ドローン50は、河川の左岸(紙面の左側)に設置された誘導灯540Lの発光に従って、コリドー5の内部を航行する。ドローン50は、河川の右岸(紙面の右側)に設置された誘導灯540Rの発光に従って、コリドー5の内部を航行してもよい。図31には、管理装置500と管理塔590を示す。管理装置500と管理塔590は、インターネット回線や無線通信ネットワークを介して接続される。管理塔590は、コリドー5を航行するドローン50の発信情報を受信する。また、管理塔590は、無線信号を介して、管理装置500から受信した誘導情報570を、複数のドローン50の各々に向けて送信する。
 図32~図33は、ドローン50の制御の一例について説明するための概念図である。図32~図33は、コリドー5を上方から見下ろした図である。コリドー5を利用するドローン50-1~6は、紙面の下方から上方に向けて移動する。ドローン50の周囲には、占有範囲Rが設定される。占有範囲Rは、複数のドローン50の各々を中心とする球や円の範囲である。占有範囲Rは、コリドー5を航行する複数のドローン50が互いに衝突しにくい大きさに設定される。占有範囲Rは、複数のドローン50に対して、同じ大きさに設定されてもよいし、異なる大きさに設定されてもよい。例えば、占有範囲Rは、ドローン50の大きさに応じて設定される。例えば、占有範囲Rは、ドローン50が運搬する荷物の重要度に応じて設定される。例えば、占有範囲Rは、ドローン50の速度に応じて設定される。図32~図33には、占有範囲Rを実線の円で示す。図32~図33の例では、ドローン50の速度の違いを、矢印の長さで示す。矢印が長いほど速度が速く、矢印が短いほど速度が遅い。
 図32の例では、六機のドローン50-1~6がコリドーを航行している。図32の場面では、ドローン50-1~3の占有範囲Rが重なっている。また、ドローン50-4~5の占有範囲Rも重なっている。このような場合、管理装置500は、ドローン50-1~5に対する誘導情報570を生成する。管理装置500は、占有範囲Rが重なっていないドローン50-6に対しては、誘導情報570を生成しない。管理装置500は、ドローン50-1~5の占有範囲Rが重ならなくなるようにする誘導情報570を生成する。
 図32の例において、管理装置500は、ドローン50-1に対して、速度を上げるための誘導情報570を生成する。管理装置500は、ドローン50-2に対して、左前方に移動するための誘導情報570を生成する。管理装置500は、ドローン50-3に対して、右前方に移動するための誘導情報570を生成する。管理装置500は、ドローン50-4に対して、左前方に移動するための誘導情報570を生成する。管理装置500は、ドローン50-5に対して、速度を落とすための誘導情報570を生成する。管理装置500は、ドローン50-6に対しては、誘導情報570を生成しない。
 図32の例において、管理装置500によって生成された誘導情報570を受信したドローン50-1~5は、誘導情報570に応じて制御する。ドローン50-1は、誘導情報570に応じて、速度を上げる。ドローン50-2は、誘導情報570に応じて、左前方に移動する。ドローン50-3は、誘導情報570に応じて、右前方に移動する。ドローン50-4は、誘導情報570に応じて、左前方に移動する。ドローン50-5は、誘導情報570に応じて、速度を落とす。ドローン50-6は、自律制御を継続する。
 図33の場面は、図32の場面を経て、ドローン50-1~5が誘導された結果の状況である。以上のような誘導の結果、図33のように、ドローン50-1~6の占有範囲Rの重なりがなくなる。
 (動作)
 次に、本実施形態の管理装置500と、管理装置500の管理対象のコリドーを利用するドローン50に搭載される制御部53の動作の一例について図面を参照しながら説明する。以下においては、管理装置500と制御部53の動作について個別に説明する。
 〔管理装置〕
 図34は、管理装置500の動作の一例について説明するためのフローチャートである。図34のフローチャートに沿った説明においては、管理装置500を動作主体として説明する。
 図34において、まず、管理装置500は、コリドー5を利用中のドローン50の発信情報を受信する(ステップS511)。管理装置500は、管理塔590を介して、コリドー5を利用中のドローン50の発信情報を受信する。
 次に、管理装置500は、発信情報に含まれる位置情報を用いて、コリドー5を利用中のドローン50の位置を計算する(ステップS512)。
 占有範囲Rに重なりがある場合(ステップS513でYes)、管理装置500は、占有範囲Rが重なり合うドローン50に対して、誘導情報570を生成する(ステップS514)。占有範囲Rに重なりがない場合(ステップS513でNo)、ステップS511に戻る。
 ステップS514の次に、占有範囲が重なり合うドローン50に対して、誘導情報570を出力する(ステップS515)。コリドー5の管理を継続する場合は、ステップS511に戻る。
 〔制御部〕
 図35は、制御部53の動作の一例について説明するためのフローチャートである。図35のフローチャートに沿った説明においては、制御部53を動作主体として説明する。
 図35において、誘導情報570を受信していない場合(ステップS521でNo)、制御部53は、ドローン50に搭載されたカメラ55を撮像制御して画像を取得する(ステップS521)。カメラ55によって撮像された画像には、河川の岸に設置された誘導灯540が含まれる。
 次に、制御部53は、カメラ55によって撮像された画像から、画像認識によって、参照対象の誘導灯540の発光部を検出する(ステップS523)。
 次に、制御部53は、ドローン50と誘導灯540との位置関係を計算する(ステップS524)。例えば、制御部53は、ドローン50と誘導灯540との距離を、誘導灯540とドローン50の位置関係として計算する。
 次に、制御部53は、ドローン50と誘導灯540との位置関係に応じて、到達予測位置/制御目標位置を計算する(ステップS524)。
 次に、制御部53は、算出された到達予測位置/制御目標位置に応じた制御条件を生成する(ステップS525)。制御部53は、到達予測位置から制御目標位置に向けてドローン50が移動するための制御条件を生成する。
 ステップS521において誘導情報570を受信した場合(ステップS521でYes)、制御部53は、誘導情報570に含まれる制御条件を抽出する(ステップS526)。
 ステップS525またはステップS526の次に、制御部53は、生成した制御条件をモーター54に出力する(ステップS527。制御条件に応じてモーター54が駆動することで、ドローン50がコリドー5の内部に設定された指定範囲の内部を航行できる。コリドーの利用を継続する場合は、ステップS527の後、ステップS521に戻る。
 以上のように、本実施形態の管理装置は、発信情報取得部、位置計算部、誘導位置計算部、誘導情報生成部、および誘導情報出力部を備える。発信情報取得部は、コリドーを利用するドローンが発信した発信情報を取得する。位置計算部は、発信情報に含まれる位置情報を用いて、ドローンの位置を計算する。誘導位置計算部は、複数のドローンの位置関係に基づいて、コリドーの内部における複数のドローンの誘導位置を計算する。誘導情報生成部は、複数のドローンの誘導位置を用いて、個々のドローンに対する制御条件を含む誘導情報を生成する。誘導情報出力部は、生成された誘導情報を出力する。
 本実施形態に係る管理装置の管理対象のコリドーを利用するドローンは、本体、プロペラ、モーター、発信情報生成部、通信部、カメラ、充電池、および制御部(制御装置)を備える。モーターは、制御装置によって駆動制御される。プロペラは、アームを介して、回転可能に本体に設置される。プロペラは、モーターの駆動に応じて回転する。発信情報生成部は、自機の識別情報と位置情報を含む発信情報を生成する。通信部は、コリドーを管理する管理装置と通信する。通信部は、発信情報を管理装置に送信する。カメラは、制御装置によって撮像制御される。充電池は、ドローンの電力源である。
 制御部は、撮像制御部、検出部、計算部、制御条件生成部、制御条件設定部、および誘導情報取得部を有する。撮像制御部は、ドローンに搭載されたカメラの撮像制御を行う。検出部は、カメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出する。検出部は、検出された誘導灯の位置を特定する。計算部は、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算する。誘導情報取得部は、コリドーを管理する管理装置によって生成された制御条件を含む誘導情報を取得する。制御条件生成部は、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成する。また、制御条件生成部は、誘導情報の取得に応じて、誘導情報に含まれる制御条件を制御条件設定部に出力する。制御条件設定部は、ドローンのモーターに制御条件を設定する。
 本実施形態の管理装置は、コリドーを利用するドローンを誘導する誘導情報を生成する。コリドーを利用するドローンは、通常時は誘導灯の位置に応じて自律航行する。また、コリドーを利用するドローンは、誘導情報を取得すると、その誘導情報に応じて誘導される。そのため、本実施形態によれば、コリドーを利用するドローンの自律航行と、外部からの誘導航行とを両立できる。
 (第6の実施形態)
 次に、第6の実施形態に係る制御装置について図面を参照しながら説明する。本実施形態の制御装置は、第1~第5の実施形態のドローンに搭載される制御部を簡略化した構成である。図36は、本実施形態に係る制御装置63の構成の一例を示すブロック図である。制御装置63は、検出部632、計算部633、制御条件生成部634、および制御条件設定部635を備える。
 検出部632は、ドローンに搭載されたカメラによって撮像された画像から、ドローンが利用するコリドーの形成に用いられる誘導灯を検出する。検出部632は、検出された誘導灯の位置を特定する。計算部633は、ドローンおよび誘導灯の位置に応じて、画像の撮像タイミングに後続する制御タイミングにおけるドローンの到達予測位置と、ドローンと誘導灯の位置関係に応じた制御目標位置と、を計算する。制御条件生成部634は、到達予測位置および制御目標位置に応じて、ドローンのプロペラを駆動させるモーターの制御条件を生成する。制御条件設定部635は、ドローンのモーターに制御条件を設定する。
 以上のように、本実施形態によれば、ドローンに搭載されたカメラによって撮像された画像から検出された誘導灯の位置に応じて、ドローンのモーターに制御条件を設定することによって、コリドーを利用するドローンの自律航行を実現できる。
 (ハードウェア)
 ここで、本開示の各実施形態に係る制御や処理を実行するハードウェア構成について、図37の情報処理装置90を一例として挙げて説明する。なお、図37の情報処理装置90は、各実施形態の制御や処理を実行するための構成例であって、本開示の範囲を限定するものではない。
 図37のように、情報処理装置90は、プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95、および通信インターフェース96を備える。図37においては、インターフェースをI/F(Interface)と略記する。プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95、および通信インターフェース96は、バス98を介して、互いにデータ通信可能に接続される。また、プロセッサ91、主記憶装置92、補助記憶装置93、および入出力インターフェース95は、通信インターフェース96を介して、インターネットやイントラネットなどのネットワークに接続される。
 プロセッサ91は、補助記憶装置93等に格納されたプログラムを、主記憶装置92に展開する。プロセッサ91は、主記憶装置92に展開されたプログラムを実行する。本実施形態においては、情報処理装置90にインストールされたソフトウェアプログラムを用いる構成とすればよい。プロセッサ91は、各実施形態に係る制御や処理を実行する。
 主記憶装置92は、プログラムが展開される領域を有する。主記憶装置92には、プロセッサ91によって、補助記憶装置93等に格納されたプログラムが展開される。主記憶装置92は、例えばDRAM(Dynamic Random Access Memory)などの揮発性メモリによって実現される。また、主記憶装置92として、MRAM(Magnetoresistive Random Access Memory)などの不揮発性メモリが構成/追加されてもよい。
 補助記憶装置93は、プログラムなどの種々のデータを記憶する。補助記憶装置93は、ハードディスクやフラッシュメモリなどのローカルディスクによって実現される。なお、種々のデータを主記憶装置92に記憶させる構成とし、補助記憶装置93を省略することも可能である。
 入出力インターフェース95は、規格や仕様に基づいて、情報処理装置90と周辺機器とを接続するためのインターフェースである。通信インターフェース96は、規格や仕様に基づいて、インターネットやイントラネットなどのネットワークを通じて、外部のシステムや装置に接続するためのインターフェースである。入出力インターフェース95および通信インターフェース96は、外部機器と接続するインターフェースとして共通化してもよい。
 情報処理装置90には、必要に応じて、キーボードやマウス、タッチパネルなどの入力機器が接続されてもよい。それらの入力機器は、情報や設定の入力に使用される。なお、タッチパネルを入力機器として用いる場合は、表示機器の表示画面が入力機器のインターフェースを兼ねる構成としてもよい。プロセッサ91と入力機器との間のデータ通信は、入出力インターフェース95に仲介させればよい。
 また、情報処理装置90には、情報を表示するための表示機器を備え付けてもよい。表示機器を備え付ける場合、情報処理装置90には、表示機器の表示を制御するための表示制御装置(図示しない)が備えられていることが好ましい。表示機器は、入出力インターフェース95を介して情報処理装置90に接続すればよい。
 また、情報処理装置90には、ドライブ装置が備え付けられてもよい。ドライブ装置は、プロセッサ91と記録媒体(プログラム記録媒体)との間で、記録媒体からのデータやプログラムの読み込み、情報処理装置90の処理結果の記録媒体への書き込みなどを仲介する。ドライブ装置は、入出力インターフェース95を介して情報処理装置90に接続すればよい。
 以上が、本発明の各実施形態に係る制御や処理を可能とするためのハードウェア構成の一例である。なお、図37のハードウェア構成は、各実施形態に係る制御や処理を実行するためのハードウェア構成の一例であって、本発明の範囲を限定するものではない。また、各実施形態に係る制御や処理をコンピュータに実行させるプログラムも本発明の範囲に含まれる。さらに、各実施形態に係るプログラムを記録したプログラム記録媒体も本発明の範囲に含まれる。記録媒体は、例えば、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光学記録媒体で実現できる。記録媒体は、USB(Universal Serial Bus)メモリやSD(Secure Digital)カードなどの半導体記録媒体によって実現されてもよい。また、記録媒体は、フレキシブルディスクなどの磁気記録媒体、その他の記録媒体によって実現されてもよい。プロセッサが実行するプログラムが記録媒体に記録されている場合、その記録媒体はプログラム記録媒体に相当する。
 各実施形態の構成要素は、任意に組み合わせてもよい。また、各実施形態の構成要素は、ソフトウェアによって実現されてもよいし、回路によって実現されてもよい。
 以上、実施形態を参照して本発明を説明してきたが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 ドローンに搭載されたカメラによって撮像された画像から、前記ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された前記誘導灯の位置を特定する検出部と、
 前記ドローンおよび前記誘導灯の位置に応じて、前記画像の撮像タイミングに後続する制御タイミングにおける前記ドローンの到達予測位置と、前記ドローンと前記誘導灯の位置関係に応じた制御目標位置と、を計算する計算部と、
 前記到達予測位置および前記制御目標位置に応じて、前記ドローンのプロペラを駆動させるモーターの制御条件を生成する制御条件生成部と、
 前記ドローンの前記モーターに前記制御条件を設定する制御条件設定部と、を備える制御装置。
(付記2)
 前記制御条件生成部は、
 前記到達予測位置から前記制御目標位置に向けて前記ドローンを移動させる前記制御条件を生成する付記1に記載の制御装置。
(付記3)
 前記検出部は、
 前記誘導灯の発光色に応じて、前記コリドーの利用で参照する参照誘導灯を検出し、
 検出された前記参照誘導灯の位置を特定する付記1または2に記載の制御装置。
(付記4)
 前記検出部は、
 前記誘導灯の異なる高さにおける複数の発光色に応じて、前記コリドーの利用で参照する前記参照誘導灯を検出し、
 検出された前記参照誘導灯の複数の発光色に応じて、前記コリドーにおける前記ドローンの高さ方向の位置を特定する付記3に記載の制御装置。
(付記5)
 前記制御条件生成部は、
 前記参照誘導灯に対して設定された最小指定距離よりも、前記参照誘導灯と前記ドローンとの距離が小さい場合、前記ドローンが前記参照誘導灯から離れるように前記モーターを制御する前記制御条件を生成し、
 前記参照誘導灯に対して設定された最大指定距離よりも、前記参照誘導灯と前記ドローンとの距離が大きい場合、前記ドローンが前記参照誘導灯に近づくように前記モーターを制御する前記制御条件を生成する付記3または4に記載の制御装置。
(付記6)
 前記ドローンに搭載された充電池の充電量をモニターする充電管理部を備え、
 前記充電管理部は、
 前記充電池の充電量が基準値を下回ると、充電待機信号を前記検出部に出力し、
 前記検出部は、
 前記充電待機信号に応じて、前記カメラによって撮像された前記画像から、前記充電池への充電が可能な充電ステーションを検出し、検出された前記充電ステーションの位置を特定し、
 前記計算部は、
 前記充電ステーションの位置を前記制御目標位置として計算する付記1乃至5のいずれか一つに記載の制御装置。
(付記7)
 前記コリドーを利用する他のドローンの位置情報を取得する他機情報取得部を備え、
 前記計算部は、
 前記他のドローンと自機との距離を計算し、
 前記他のドローンと前記自機との距離が所定距離未満の場合、前記他のドローンから離れる方向に前記制御目標位置を設定する付記1乃至6のいずれか一つに記載の制御装置。
(付記8)
 前記誘導灯から発せられた音波に応じた音波信号を取得する音波信号取得部を備え、
 前記計算部は、
 取得した前記音波信号を用いて、前記誘導灯との位置関係を計算する付記1乃至7のいずれか一つに記載の制御装置。
(付記9)
 前記計算部は、
 取得した前記音波信号の周波数に応じて、前記誘導灯との距離を計算する付記8に記載の制御装置。
(付記10)
 前記計算部は、
 取得した前記音波信号の音響インテンシティに応じて、前記誘導灯との距離を計算する付記8または9に記載の制御装置。
(付記11)
 前記コリドーを管理する管理装置によって生成された前記制御条件を含む誘導情報を取得する誘導情報取得部を備え、
 前記制御条件生成部は、
 前記誘導情報の取得に応じて、前記誘導情報に含まれる前記制御条件を制御条件設定部に出力する付記1乃至10のいずれか一つに記載の制御装置。
(付記12)
 付記1乃至11のいずれか一つに記載の制御装置と、
 前記制御装置によって駆動制御されるモーターと、
 前記モーターの駆動に応じて回転するプロペラと、
 自機の識別情報と位置情報を含む発信情報を生成する発信情報生成部と、
 コリドーを管理する管理装置と通信し、前記発信情報を前記管理装置に送信する通信部と、
 前記制御装置によって撮像制御されるカメラと、
 充電池と、を備えるドローン。
(付記13)
 前記コリドーの形成に用いられる誘導灯から発せられた音波を受音するマイクロホンを備える付記12に記載のドローン。
(付記14)
 コンピュータが、
 ドローンに搭載されたカメラによって撮像された画像から、前記ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された前記誘導灯の位置を特定し、
 前記ドローンおよび前記誘導灯の位置に応じて、前記画像の撮像タイミングに後続する制御タイミングにおける前記ドローンの到達予測位置と、前記ドローンと前記誘導灯の位置関係に応じた制御目標位置と、を計算し、
 前記到達予測位置および前記制御目標位置に応じて、前記ドローンのプロペラを駆動させるモーターの制御条件を生成し、
 前記ドローンの前記モーターに前記制御条件を設定する制御方法。
(付記15)
 ドローンに搭載されたカメラによって撮像された画像から、前記ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された前記誘導灯の位置を特定する処理と、
 前記ドローンおよび前記誘導灯の位置に応じて、前記画像の撮像タイミングに後続する制御タイミングにおける前記ドローンの到達予測位置と、前記ドローンと前記誘導灯の位置関係に応じた制御目標位置と、を計算する処理と、
 前記到達予測位置および前記制御目標位置に応じて、前記ドローンのプロペラを駆動させるモーターの制御条件を生成する処理と、
 前記ドローンの前記モーターに前記制御条件を設定する処理とをコンピュータに実行させるプログラム。
 10、20、30、40、50  ドローン
 11、41  本体
 12、22、32、42、52  プロペラ
 13、23、33、43、53  制御部
 14、24、34、44、54  モーター
 15、25、35、45、55  カメラ
 16、26、36、46、56  通信部
 17、27、37、47、57  発信情報生成部
 19、29、39、49、59  充電池
 120、420  アーム
 131、231、331、431  撮像制御部
 132、232、332、432、632  検出部
 133、233、333、433、633  計算部
 134、234、334、434、634  制御条件生成部
 135、235、335、435、635  制御条件設定部
 239  充電管理部
 336  他機情報取得部
 438  音波信号取得部
 500  管理装置
 501  発信情報取得部
 502  位置計算部
 503  誘導位置計算部
 505  誘導情報生成部
 507  誘導情報出力部

Claims (15)

  1.  ドローンに搭載されたカメラによって撮像された画像から、前記ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された前記誘導灯の位置を特定する検出手段と、
     前記ドローンおよび前記誘導灯の位置に応じて、前記画像の撮像タイミングに後続する制御タイミングにおける前記ドローンの到達予測位置と、前記ドローンと前記誘導灯の位置関係に応じた制御目標位置と、を計算する計算手段と、
     前記到達予測位置および前記制御目標位置に応じて、前記ドローンのプロペラを駆動させるモーターの制御条件を生成する制御条件生成手段と、
     前記ドローンの前記モーターに前記制御条件を設定する制御条件設定手段と、を備える制御装置。
  2.  前記制御条件生成手段は、
     前記到達予測位置から前記制御目標位置に向けて前記ドローンを移動させる前記制御条件を生成する請求項1に記載の制御装置。
  3.  前記検出手段は、
     前記誘導灯の発光色に応じて、前記コリドーの利用で参照する参照誘導灯を検出し、
     検出された前記参照誘導灯の位置を特定する請求項1または2に記載の制御装置。
  4.  前記検出手段は、
     前記誘導灯の異なる高さにおける複数の発光色に応じて、前記コリドーの利用で参照する前記参照誘導灯を検出し、
     検出された前記参照誘導灯の複数の発光色に応じて、前記コリドーにおける前記ドローンの高さ方向の位置を特定する請求項3に記載の制御装置。
  5.  前記制御条件生成手段は、
     前記参照誘導灯に対して設定された最小指定距離よりも、前記参照誘導灯と前記ドローンとの距離が小さい場合、前記ドローンが前記参照誘導灯から離れるように前記モーターを制御する前記制御条件を生成し、
     前記参照誘導灯に対して設定された最大指定距離よりも、前記参照誘導灯と前記ドローンとの距離が大きい場合、前記ドローンが前記参照誘導灯に近づくように前記モーターを制御する前記制御条件を生成する請求項3または4に記載の制御装置。
  6.  前記ドローンに搭載された充電池の充電量をモニターする充電管理手段を備え、
     前記充電管理手段は、
     前記充電池の充電量が基準値を下回ると、充電待機信号を前記検出手段に出力し、
     前記検出手段は、
     前記充電待機信号に応じて、前記カメラによって撮像された前記画像から、前記充電池への充電が可能な充電ステーションを検出し、検出された前記充電ステーションの位置を特定し、
     前記計算手段は、
     前記充電ステーションの位置を前記制御目標位置として計算する請求項1乃至5のいずれか一項に記載の制御装置。
  7.  前記コリドーを利用する他のドローンの位置情報を取得する他機情報取得手段を備え、
     前記計算手段は、
     前記他のドローンと自機との距離を計算し、
     前記他のドローンと前記自機との距離が所定距離未満の場合、前記他のドローンから離れる方向に前記制御目標位置を設定する請求項1乃至6のいずれか一項に記載の制御装置。
  8.  前記誘導灯から発せられた音波に応じた音波信号を取得する音波信号取得手段を備え、
     前記計算手段は、
     取得した前記音波信号を用いて、前記誘導灯との位置関係を計算する請求項1乃至7のいずれか一項に記載の制御装置。
  9.  前記計算手段は、
     取得した前記音波信号の周波数に応じて、前記誘導灯との距離を計算する請求項8に記載の制御装置。
  10.  前記計算手段は、
     取得した前記音波信号の音響インテンシティに応じて、前記誘導灯との距離を計算する請求項8または9に記載の制御装置。
  11.  前記コリドーを管理する管理装置によって生成された前記制御条件を含む誘導情報を取得する誘導情報取得手段を備え、
     前記制御条件生成手段は、
     前記誘導情報の取得に応じて、前記誘導情報に含まれる前記制御条件を制御条件設定手段に出力する請求項1乃至10のいずれか一項に記載の制御装置。
  12.  請求項1乃至11のいずれか一項に記載の制御装置と、
     前記制御装置によって駆動制御されるモーターと、
     前記モーターの駆動に応じて回転するプロペラと、
     自機の識別情報と位置情報を含む発信情報を生成する発信情報生成手段と、
     コリドーを管理する管理装置と通信し、前記発信情報を前記管理装置に送信する通信手段と、
     撮像した画像を前記制御装置に出力するカメラと、
     充電池と、を備えるドローン。
  13.  前記コリドーの形成に用いられる誘導灯から発せられた音波を受音するマイクロホンを備える請求項12に記載のドローン。
  14.  コンピュータが、
     ドローンに搭載されたカメラによって撮像された画像から、前記ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された前記誘導灯の位置を特定し、
     前記ドローンおよび前記誘導灯の位置に応じて、前記画像の撮像タイミングに後続する制御タイミングにおける前記ドローンの到達予測位置と、前記ドローンと前記誘導灯の位置関係に応じた制御目標位置と、を計算し、
     前記到達予測位置および前記制御目標位置に応じて、前記ドローンのプロペラを駆動させるモーターの制御条件を生成し、
     前記ドローンの前記モーターに前記制御条件を設定する制御方法。
  15.  ドローンに搭載されたカメラによって撮像された画像から、前記ドローンが利用するコリドーの形成に用いられる誘導灯を検出し、検出された前記誘導灯の位置を特定する処理と、
     前記ドローンおよび前記誘導灯の位置に応じて、前記画像の撮像タイミングに後続する制御タイミングにおける前記ドローンの到達予測位置と、前記ドローンと前記誘導灯の位置関係に応じた制御目標位置と、を計算する処理と、
     前記到達予測位置および前記制御目標位置に応じて、前記ドローンのプロペラを駆動させるモーターの制御条件を生成する処理と、
     前記ドローンの前記モーターに前記制御条件を設定する処理とをコンピュータに実行させるプログラムを記録させた非一過性の記録媒体。
PCT/JP2021/046451 2021-12-16 2021-12-16 制御装置、ドローン、制御方法、および記録媒体 WO2023112241A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/046451 WO2023112241A1 (ja) 2021-12-16 2021-12-16 制御装置、ドローン、制御方法、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/046451 WO2023112241A1 (ja) 2021-12-16 2021-12-16 制御装置、ドローン、制御方法、および記録媒体

Publications (1)

Publication Number Publication Date
WO2023112241A1 true WO2023112241A1 (ja) 2023-06-22

Family

ID=86773848

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/046451 WO2023112241A1 (ja) 2021-12-16 2021-12-16 制御装置、ドローン、制御方法、および記録媒体

Country Status (1)

Country Link
WO (1) WO2023112241A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142532A (ja) * 1999-11-12 2001-05-25 Nippon Signal Co Ltd:The 移動体の位置検出装置
JP2016161988A (ja) * 2015-02-26 2016-09-05 本田技研工業株式会社 移動体の制御装置
US20170323572A1 (en) * 2014-09-30 2017-11-09 Elwha LLC, a limited liability company of the State of Delaware System and method for management of airspace for unmanned aircraft

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142532A (ja) * 1999-11-12 2001-05-25 Nippon Signal Co Ltd:The 移動体の位置検出装置
US20170323572A1 (en) * 2014-09-30 2017-11-09 Elwha LLC, a limited liability company of the State of Delaware System and method for management of airspace for unmanned aircraft
JP2016161988A (ja) * 2015-02-26 2016-09-05 本田技研工業株式会社 移動体の制御装置

Similar Documents

Publication Publication Date Title
US10496107B2 (en) Autonomous security drone system and method
US11740100B2 (en) Systems and methods for providing virtual navigation guidance
US20200125845A1 (en) Systems and methods for automated image labeling for images captured from vehicles
CN110268356B (zh) 前导无人机的系统
US10067736B2 (en) Proximity based noise and chat
CN110121740A (zh) 用于无人飞行器的避碰系统及方法
CN110349404A (zh) 操作自动驾驶车辆和警示服务的方法、系统和机器可读介质
CN110069071A (zh) 无人机导航方法与装置、存储介质、电子设备
CN108732589A (zh) 利用3d lidar和定位自动采集用于对象识别的训练数据
CN104115081B (zh) 利用恒定倾斜角转弯的风计算系统
CN108073168A (zh) 对自主驾驶车辆进行决策的评估体系
JP6591627B1 (ja) 管理装置、無人飛行体、及びプログラム
ES2962278T3 (es) Sistema de dron submarino líder
CN108139756A (zh) 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统
CN105492985A (zh) 多传感器环境地图构建
CN108859938A (zh) 用于自动驾驶车辆的自动车辆应急灯控制的方法和系统
CN110226143A (zh) 前导无人机的方法
CN106489266A (zh) 播报员无人机
JP6859241B2 (ja) 飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体
JP2017068298A (ja) 自律飛行移動体、ターゲット追跡方法
KR20180131396A (ko) 실내 안내용 드론 및 그 제어 방법
CN110431506A (zh) 基于无人机的跟踪
US11906311B2 (en) Pavement marking map change detection, reaction, and live tile shipping
WO2023112241A1 (ja) 制御装置、ドローン、制御方法、および記録媒体
US20200072614A1 (en) Automated emergency response

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21968156

Country of ref document: EP

Kind code of ref document: A1