WO2023189534A1 - 無人移動体、情報処理方法及びコンピュータプログラム - Google Patents

無人移動体、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2023189534A1
WO2023189534A1 PCT/JP2023/009837 JP2023009837W WO2023189534A1 WO 2023189534 A1 WO2023189534 A1 WO 2023189534A1 JP 2023009837 W JP2023009837 W JP 2023009837W WO 2023189534 A1 WO2023189534 A1 WO 2023189534A1
Authority
WO
WIPO (PCT)
Prior art keywords
unmanned
information
drone
unique information
mobile
Prior art date
Application number
PCT/JP2023/009837
Other languages
English (en)
French (fr)
Inventor
直司 佐々木
一樹 熱田
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023189534A1 publication Critical patent/WO2023189534A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C27/00Rotorcraft; Rotors peculiar thereto
    • B64C27/04Helicopters
    • B64C27/08Helicopters with two or more rotors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions

Definitions

  • the present disclosure relates to an unmanned mobile object, an information processing method, and a computer program.
  • Drones which are an example of unmanned mobile objects, are used for a variety of purposes such as aerial photography, measurement, disaster relief, and transportation logistics. Note that when simply referred to as a drone, this term means an unmanned flying vehicle.
  • Some drones are equipped with a means to detect other drones around them. Examples of methods for detecting other drones include TOF (Time of Flight), which uses an infrared sensor installed on the drone to detect the position of other drones, and detection of other drones using a camera installed on the drone. Can be mentioned.
  • TOF Time of Flight
  • an infrared sensor when using an infrared sensor, it may not be possible to accurately detect other drones that are located relatively far from the drone. Although an infrared sensor can detect other drones at a close distance of about 10 m with high precision, the reliability of detection may decrease at a distance of about 30 m, for example.
  • infrared rays are transmitted with a predetermined directivity. Therefore, if it is possible to detect other drones in all directions, the number and occupation range of infrared sensors will increase, which may lead to restrictions on the installation of other parts and an increase in weight.
  • the present disclosure has been made in consideration of the above circumstances, and provides an unmanned moving object, an information processing method, and a computer program that can detect other moving objects with high reliability.
  • the unmanned moving object of the present disclosure includes a drive control section that controls driving of the unmanned moving object, a communication section that communicates with an operating device that remotely controls the unmanned moving object, and a communication section that communicates with an operating device that remotely controls the unmanned moving object. and an other aircraft information receiving unit that receives unique information for specifying the presence and/or location of the mobile object.
  • the information processing method of the present disclosure is an information processing method performed by an unmanned mobile body, which receives unique information sent from another mobile body for identifying the existence and/or position of the other mobile body. Equipped with steps.
  • the computer program of the present disclosure is a computer program for executing information processing on an unmanned mobile body, and includes unique information sent from another mobile body for identifying the existence and/or position of the other mobile body. cause the computer to perform the step of receiving the .
  • FIG. 1 is a diagram illustrating a situation in which a drone as an unmanned moving object according to an embodiment is flown by an operating device.
  • FIG. FIG. 1 is a block diagram showing the configuration of a drone according to an embodiment.
  • FIG. 1 is a block diagram showing in detail the configuration of a communication module in a drone according to an embodiment.
  • FIG. 2 is a block diagram showing the configuration of another drone as another mobile object shown in FIG. 1.
  • FIG. 1 is a flowchart illustrating an example of a process performed by a drone according to an embodiment.
  • the figure which shows an example of the operation of the drone controlled by the process shown in FIG. 6 is a diagram showing another example of the operation of the drone controlled by the process shown in FIG. 5.
  • FIG. 3 is a block diagram showing the configuration of a communication module according to a modified example.
  • FIG. 7 is a block diagram showing the configuration of a communication module according to another modification.
  • FIG. 7 is a block diagram showing the configuration of a communication module according to another modification.
  • FIG. 7 is a block diagram showing the configuration of a communication module according to another modification.
  • FIG. 1 is a diagram illustrating an example of a hardware configuration of an information processing device that can constitute a drone according to an embodiment.
  • FIG. 1 shows a situation in which a drone 10 as an unmanned moving object according to an embodiment is flown using an operating device 20.
  • the drone 10 flies under remote control by an operating device 20. Note that when simply referred to as a drone, this term means an unmanned flying vehicle.
  • the drone 10 and the operating device 20 are capable of bidirectional wireless communication.
  • an operator U is performing a manual operation to control the drone 10 via the operating device 20 .
  • the drone 10 receives a control command based on the user's intention transmitted from the operating device 20, for example, and is controlled based on the control command.
  • the control commands are control commands based on the user's intention, such as forward movement, backward movement, left turn, right turn, upward movement, and downward movement.
  • the control command is generated by the operator U directly operating the operating device 20 .
  • the drone 10 may transmit information about its current position and captured images to the operating device 20, for example.
  • control command may also include a command regarding movement to a target position that is determined relative to or absolutely with respect to the drone 10. Further, the control commands may include commands regarding state changes to target speed, target angular velocity during turning, target attitude, and the like.
  • the drone 10 is also capable of autonomous flight (autonomous movement). Specifically, after a route is designated by the operating device 20, the drone 10 can autonomously move along the designated route. Further, the drone 10 can generate a route to a predetermined return position by itself and return autonomously according to the generated route. Such autonomous return processing is sometimes called return to home (hereinafter referred to as "RTH").
  • RTH return to home
  • the drone 10 is also capable of semi-autonomous flight.
  • semi-autonomous flight means an operating state in which autonomous flight is temporarily performed during manual flight by manual operation.
  • the drone 10 during manual flight may become unable to communicate with the operating device 20, or may go behind a structure or the like and be out of the user's field of vision. In such a case, the drone 10 may, for example, temporarily shift to RTH and perform semi-autonomous flight.
  • the manual flight, autonomous flight, and semi-autonomous flight of the drone 10 as described above may be performed within the field of view of the operator U, or may be performed outside the field of view of the operator U.
  • a means for recognizing the current position of the drone 10 is required. Such means may be, for example, displaying the current position of the drone 10 provided on the operating device 20 or displaying an image being captured by the drone 10.
  • the operating device 20 in this embodiment is a device exclusively for operation that is held by the operator U and includes an antenna that transmits control commands.
  • the operating device 20 may be, for example, a smartphone, a tablet, a personal computer, or the like.
  • the operating device 20 when the operating device 20 is configured with a smartphone or a tablet, the operating device 20 may directly transmit the control command according to a communication method such as Bluetooth (registered trademark). Further, the control command may be transmitted to the drone 10 via a router, a router, and a base station according to a communication method such as Wi-Fi.
  • a communication method such as Bluetooth (registered trademark).
  • FIG. 1 shows other drones 101 to 103 as other moving objects. These other drones 101 to 103 are operated by other operators or are operating autonomously.
  • FIG. 1 shows an aircraft monitoring facility 110.
  • the flying object monitoring facility 110 is a facility that monitors flying objects including unmanned flying vehicles.
  • the aircraft monitoring equipment 110 may be equipment installed by the national or local government for the security of aircraft.
  • the aircraft monitoring equipment 110 includes an antenna 112.
  • Antenna 112 receives information from a moving object in flight, and the received information is used to identify the position of the flying object.
  • the aircraft monitoring equipment 110 may further include a sonar or a camera (not shown), and may further monitor the aircraft using these.
  • the drone 10 according to the present embodiment and the other drones 101 to 103 each inform the flying object monitoring equipment 110 of their presence and/or position as indicated by solid line arrows in the figure.
  • Unique information ID0 to ID3 for identification by the equipment 110 is transmitted.
  • the flying object monitoring equipment 110 uses the unique information ID0 to ID3 to detect the presence and/or position of the drone 10 and other drones 101 to 103, respectively.
  • the unique information ID0 to ID3 includes, for example, information on the aircraft registration number, information on the aircraft serial number, current location information, and current time information.
  • the aircraft registration number in this embodiment is, for example, a number set to an unmanned flying vehicle such as the drone 10 and other drones 101 to 103 by another party such as the national or local government.
  • Such an aircraft registration number is a number issued by the national or local government in response to an application to fly an unmanned aerial vehicle or an application to own an unmanned aerial vehicle.
  • the aircraft serial number may be a number assigned by the manufacturer of the unmanned aerial vehicle.
  • the current position information is information on the current position of the unmanned air vehicle itself detected by the unmanned air vehicle itself, and is information on the position of the unmanned air vehicle when the unmanned air vehicle transmits the unique information.
  • Unmanned aerial vehicles that are intended to transmit unique information can usually detect their position by combining GNSS (Global Navigation Satellite System), TOF (Time of Flight), barometric pressure sensors, geomagnetic sensors, etc.
  • the current time information is information on the time when the unmanned flying vehicle transmits the unique information.
  • Unmanned aerial vehicles usually have a clock function.
  • time information can also be extracted from signals from satellites received by GNSS.
  • the unique information ID0 to ID3 in this embodiment is information that is required to be sent from the unmanned aerial vehicle when the unmanned aerial vehicle is flown (moved) under the remote ID system.
  • the remote ID system enumerates sending the aircraft registration number, aircraft serial number, location information, time, and authentication information from the unmanned mobile vehicle to the Civil Aviation Bureau, police, and important facility managers.
  • the unique information may be information specified by remote ID systems in other countries or similar systems.
  • the drone 10 receives the unique information ID1 to ID3 sent from the other drones 101 to 103, as shown by the broken line arrows in FIG. Equipped with functions. Then, the drone 10 receives unique information ID1 to ID3 as information for specifying the presence and/or position of another moving object, and in this embodiment records the received unique information ID1 to ID3. Further, the drone 10 uses the received unique information ID1 to ID3 to detect the presence and/or position of other moving objects.
  • FIG. 2 is a block diagram showing the configuration of the drone 10.
  • the configuration and functions of the drone 10 will be described in detail below.
  • the drone 10 includes a sensor module 30, a sensing processor 40, an application processor 41, a flight controller 42, a communication module 50, a front camera 60, a drive module 70, and a memory 80.
  • the sensor module 30 includes a stereo camera 31, an IMU (Inertial Measurement Unit) 32, a TOF sensor 33, a geomagnetic sensor 34, an atmospheric pressure sensor 35, and a GNSS receiving section 36.
  • the sensor module 30 or some or all of the sensors included in the sensor module 30 correspond to a detection unit that detects obstacles existing around the unmanned moving body. Obstacles refer to objects that may impede the flight of the drone 10, such as a flying object different from the drone 10, a building, a tree, a person, a vehicle, the ground surface, a mountain surface, or a water surface.
  • the stereo camera 31 images the surroundings of the drone 10 with two or more imaging units, and acquires two or more mutually different image signals.
  • the two or more image signals are used to detect the distance from the drone 10 to the object on the captured image. That is, the stereo camera 31 functions as a ranging sensor.
  • Two or more image signals acquired by the stereo camera 31 are provided to the sensing processor 40, and the distance from the drone 10 to the object on the imaged image is detected by calculation by the sensing processor 40.
  • a millimeter-wave ranging sensor such as a radar, an optical ranging sensor such as a TOF sensor or LiDAR (Light Detection and Ranging), or an ultrasonic ranging sensor may be used. Any one or a combination of two or more of the sensors may be used as the ranging sensor.
  • a monocular camera may be used instead of the stereo camera 31, and obstacles may be detected by image analysis.
  • the stereo camera 31 may include a plurality of units each having two or more imaging sections.
  • the stereo camera 31 may include the five units described above, and may be directed in five directions: front, back, left, right, and downward.
  • the stereo camera 31 may be configured to include only one unit facing forward, or may include only two units on the left and right.
  • the IMU 32 is configured to include, for example, a 3-axis gyro sensor and a 3-direction acceleration sensor, and measures the angular velocity and acceleration of the drone 10. Information on the angular velocity and acceleration of the drone 10 measured by the IMU 32 is provided to the sensing processor 40 and the flight controller 42. Note that two IMUs may be provided, one IMU providing measurement information to the sensing processor 40, and the other IMU providing measurement information to the flight controller 42.
  • the TOF sensor 33 measures the distance to objects around the drone 10, the ground surface, etc., based on the time it takes for the reflected light to return after emitting light.
  • the light emitted by the TOF sensor 33 may be infrared rays.
  • the TOF sensor 33 provides the flight controller 42 with information about objects around the drone 10 and the distance to the ground.
  • the geomagnetic sensor 34 measures the orientation of the drone 10 by measuring geomagnetism.
  • the geomagnetic sensor 34 provides information about the orientation of the drone 10 to the flight controller 42.
  • the atmospheric pressure sensor 35 measures atmospheric pressure.
  • the atmospheric pressure sensor 35 provides atmospheric pressure information to the flight controller 42 . Atmospheric pressure changes depending on the height above the ground. Therefore, the altitude of the drone 10 can be calculated based on the atmospheric pressure measured by the atmospheric pressure sensor 35.
  • the GNSS receiving unit 36 receives signals from GPS satellites and other satellites (for example, Galileo and QZSS), and detects the current position of the drone 10 based on the received signals. Additionally, the GNSS receiving unit 36 receives time information from GPS satellites and other satellites. The GNSS receiving unit 36 provides the flight controller 42 with information on the current position of the drone 10 and time information.
  • GPS satellites and other satellites for example, Galileo and QZSS
  • the sensing processor 40 detects objects around the drone 10 and/or the distance to the objects based on information from the sensor module 30. As described above, two or more image signals acquired by the stereo camera 31 are provided to the sensing processor 40. The sensing processor 40 calculates the distance from the drone 10 to the object on the captured image. Moreover, at this time, by considering information from the IMU 32, the detection accuracy of objects around the drone 10 and/or the distance to the objects can be improved. The sensing processor 40 provides the flight controller 42 with information about the detected objects around the drone 10 and/or the distance to the objects. The flight controller 42 can control the flight state (drive) of the drone 10 based on information from the sensing processor 40.
  • the application processor 41 mainly performs data processing within the drone 10 and data processing between the drone 10 and the outside. For example, the application processor 41 instructs the communication module 50 to transmit information to the operating device 20, or performs processing to provide information received by the communication module 50 to the flight controller 42. Further, the application processor 41 controls the front camera 60.
  • the flight controller 42 controls the drive of the drone 10, and corresponds to a drive control unit that controls the drive of the unmanned vehicle.
  • the flight controller 42 receives a control command transmitted from the operating device 20, for example, and controls the driving of the drone 10 based on the control command.
  • the flight controller 42 controls the driving of the drive module 70 based on the control command, and operates the drone 10 in a desired state.
  • the flight controller 42 controls the driving of the drone 10 so that the drone 10 autonomously flies along the route. Further, the flight controller 42 generates a route by itself, for example, when flying autonomously in RTH. The flight controller 42 then controls the driving of the drone 10 so that the drone 10 flies along the generated route.
  • the flight controller 42 can detect the current position and surrounding obstacles based on information from the sensor module 30, and can appropriately change the designated route and the initially generated route.
  • the flight controller 42 is based on information from the sensor module 30, information from the sensing processor 40, and information from the application processor 41, or a combination of these two or more pieces of information.
  • the driving of the drone 10 can be controlled to avoid danger.
  • the flight controller 42 can control the driving of the drone 10 to move the drone 10 away from the object. Further, when an object close to the drone 10 is detected by the sensing processor 40 based on an image signal from the stereo camera 31, for example, the flight controller 42 controls the driving of the drone 10 to move the drone 10 away from the object. can.
  • the drone 10 has a function of receiving the unique information ID1 to ID3 transmitted by the other drones 101 to 103.
  • the unique information ID1 to ID3 are received by the communication module 50 and sent to the flight controller 42 via the application processor 41.
  • the flight controller 42 can further control the driving of the drone 10 based on these unique information ID1 to ID3.
  • the flight controller 42 in this embodiment includes an analysis unit 42A that analyzes the unique information ID1 to ID3 as a part of its functional part.
  • the analysis unit 42A specifies whether the unique information ID1 to ID3 is sent from another unmanned flying vehicle (another moving body) and the position information of the other unmanned flying vehicle.
  • the analysis detects the aircraft registration number information, aircraft serial number information, current position information, and current time information of other unmanned aircraft by demodulating the unique information ID1 to ID3, and determines whether the aircraft is the own aircraft as appropriate. This is done by comparing the information with the information from the drone 10. Whether or not the unique information ID1 to ID3 is sent from another mobile object is determined by comparing it with the aircraft registration number or the aircraft manufacturing number of the own aircraft held in the drone 10.
  • the analysis unit 42A may further specify the period in which the unique information is transmitted from another unmanned flying vehicle.
  • the flight controller 42 determines the relative positions (for example, X, Y, Z) of the other drones 101 to 103 with respect to the drone 10, based on information based on the unique information ID1 to ID3 specified by the analysis unit 42A, and , distance, and/or direction can be specified. Furthermore, the flight controller 42 specifies the movement trajectory of the other drones 101 to 103 based on the position information of the other drones 101 to 103 and the time information when the other drones 101 to 103 send out the unique information ID1 to ID3. can. Furthermore, the flight controller 42 can estimate the future positions of the other drones 101 to 103 based on the identified movement trajectory.
  • the flight controller 42 detects other moving objects such as the other drones 101 to 103 that are close to the drone 10 based on the position information of the other drones 101 to 103 detected from the unique information ID1 to ID3 as described above.
  • the driving of the drone 10 can be controlled so as to move the drone 10 away from other moving objects.
  • the flight controller 42 controls the relative positions (for example, X, Y, Z) of the other drones 101 to 103 with respect to the drone 10, the distances and directions of the other drones 101 to 103 with respect to the drone 10, and the other drones 101.
  • the driving of the drone 10 can be controlled so as to move the drone 10 away from the other drones 101 to 103, for example.
  • the flight controller 42 receives the unique information ID1 to ID3 and performs various processes based on the unique information ID1 to ID3.
  • the flight controller 42 can receive unique information from other moving objects and perform similar processing.
  • the flight controller 42 is configured to record position information of the drone 10 in the memory 80. Recording of the position information of the drone 10 may be performed periodically. Further, the flight controller 42 is configured to record unique information received from other drones 101 to 103 and the like in the memory 80. The unique information may be recorded each time the unique information is received.
  • the communication module 50 communicates with external devices such as the operating device 20 and other drones 101 to 103 by wireless communication, and sends and receives information.
  • the communication module 50 includes a first communication section 51 and a second communication section 52.
  • the first communication unit 51 communicates with the operating device 20 that remotely controls the drone 10, and receives at least information for driving the drone 10.
  • the information for controlling the driving of the drone 10 is, for example, a control command transmitted from the operating device 20 to the drone 10.
  • the first communication unit 51 can transmit position information of the drone 10 and the like to the operating device 20.
  • the second communication unit 52 transmits unique information of its own aircraft and receives unique information from other moving objects such as other drones 101 to 103.
  • the wireless communication method of the first communication unit 51 and the second communication unit 52 may be arbitrary. As an example, it may be based on the IEEE802.11 standard, the IEEE802.15.1 standard (Bluetooth (registered trademark)), the OFDM modulation method, or other standards.
  • the frequency band used for wireless communication is, for example, a 2.4 GHz band, a 5 GHz band, or another frequency band.
  • the first communication unit 51 and the second communication unit 52 may be capable of transmitting and/or receiving information using a plurality of wireless communication standards.
  • the wireless communication method of the second communication unit 52 needs to be a method that allows the aircraft's unique information to be received by the aircraft monitoring equipment 110 or other aircraft, and a method that allows the own aircraft to receive the unique information of other aircraft.
  • the drone 10 transmits and receives information specified by the remote ID system.
  • the information specified in the remote ID system is specified to be transmitted by, for example, the IEEE802.11 standard or Bluetooth (registered trademark). Therefore, in this embodiment, the second communication unit 52 transmits the information specified by the remote ID as the unique information according to the IEEE802.11 standard or Bluetooth (registered trademark). Further, the second communication unit 52 is configured to receive information specified by the remote ID as unique information in both the IEEE802.11 standard and Bluetooth (registered trademark). If the second communication unit 52 is capable of receiving and demodulating unique information using two or more wireless communication methods (standards), it can receive all the unique information sent from other mobile bodies, and Detection reliability is improved.
  • the front camera 60 mainly captures images in front of the drone 10 (in the direction of travel).
  • the front camera 60 is provided primarily to obtain images for recording or transfer to the operating device 20.
  • the front camera 60 is disposed below the body 11 of the drone 10 and is supported by the body 11, as shown in FIG.
  • the drive module 70 includes a motor 71 and a propeller 72 rotated by the motor 71.
  • the drone 10 can rise straight upward by uniformly rotating the plurality of propellers 72, and can tilt forward, backward, turn left, turn right, etc. by creating a rotation difference between the plurality of propellers 72. You can carry out specific movements.
  • the motor 71 and propeller 72 are supported by the fuselage 11.
  • the flight controller 42 controls the rotational speed of each propeller 72 by controlling the power supplied to each motor 71 using a driver (ESC (Electric Speed Controller), not shown). Thereby, the flight controller 42 operates the drone 10 in a desired state.
  • ESC Electronic Speed Controller
  • the memory 80 is, for example, a hard disk, an optical disk, a flash memory, or a magnetic tape, but is not limited thereto.
  • FIG. 3 is a block diagram showing the detailed configuration of the communication module 50.
  • the first communication section 51 includes an operating device transmitting section 511, an operating device receiving section 512, a first antenna 513, and a second antenna 514.
  • the second communication unit 52 includes a remote ID transmitting unit 521, a remote ID receiving unit 522, a third antenna 523, and a fourth antenna 524.
  • the operating device transmitting unit 511 includes a modulation circuit and the like. Then, the operating device transmitter 511 and the first antenna 513 are connected. The first antenna 513 functions as a transmitting antenna.
  • the operating device transmitter 511 transmits, for example, position information of the drone 10 and an image signal of an image captured by the drone 10 to the operating device 20. Further, the operating device transmitting unit 511 transmits at least one of the unique information received by the remote ID receiving unit 522, the fact that the unique information has been received, and the position information of another moving object detected based on the unique information. It may also be transmitted to the operating device 20. Further, the operating device receiving section 512 includes a demodulation circuit and the like.
  • the operating device receiving section 512 and the second antenna 514 are connected.
  • the second antenna 514 functions as a receiving antenna.
  • the operating device receiving unit 512 receives, for example, control command information from the operating device 20, demodulates the information, and provides the demodulated information to the application processor 41.
  • the operating device transmitter 511 and the operating device receiver 512 are provided on the same circuit board. However, the operating device transmitter 511 and the operating device receiver 512 may be provided on different circuit boards.
  • the remote ID transmitting unit 521 includes a modulation circuit and the like. Then, remote ID transmitter 521 and third antenna 523 are connected. The third antenna 523 functions as a transmitting antenna.
  • the remote ID transmitting unit 521 transmits unique information ID0 of the own aircraft (in this example, information on the aircraft registration number, information on the aircraft serial number, and current position information) for the purpose of having the aircraft monitoring equipment 110 receive it. , and current time information).
  • the remote ID receiving section 522 includes a demodulation circuit and the like. Then, the remote ID receiving section 522 and the fourth antenna 524 are connected. The fourth antenna 524 functions as a receiving antenna.
  • the remote ID receiving unit 522 receives unique information from other moving objects such as other drones 101 to 103. Then, the remote ID receiving unit 522 demodulates the received unique information from another mobile object and provides it to the application processor 41. In this embodiment, the remote ID receiving unit 522 can demodulate carrier waves of both the IEEE802.11 standard and Bluetooth (registered trademark).
  • the remote ID receiving section 522 corresponds to the other device information receiving section.
  • the remote ID transmitter 521 and the remote ID receiver 522 are provided on different circuit boards and are physically separated.
  • the remote ID transmitting section 521 and the remote ID receiving section 522 may be housed in different housings and detachably attached to desired positions on the body 11 at positions separated from each other.
  • the remote ID transmitter 521 and the remote ID receiver 522 may be provided on the same circuit board.
  • the transmitting section/receiving section and the antenna are connected. Specifically, this description means that the transmitter/receiver and the antenna are connected by wire.
  • the transmitter/receiver and the antenna may be connected via an RF coaxial cable.
  • FIG. 4 is a block diagram showing an example of the configuration of other drones 101 to 103.
  • the other drones 101 to 103 are not equipped with the remote ID receiving unit 522 included in the drone 10, nor are they equipped with means for recording and analyzing unique information and means for using unique information for control.
  • the configurations of the other drones 101 to 103 other than these are the same as the drone 10.
  • FIG. 4 shows the configuration of the other aircraft communication module 500 in the other aircraft drones 101 to 103.
  • the other device communication module 500 includes a first communication unit 51 including an operating device transmitter 511, an operating device receiver 512, a first antenna 513, and a second antenna 514.
  • the other device communication module 500 includes a remote ID transmitter 521 and a third antenna 523, but does not include a remote ID receiver 522.
  • the other drones 101 to 103 send unique information (in this example, information on the aircraft registration number, information on the aircraft serial number, (current location information and current time information).
  • the drone 10 can receive the unique information sent by the other drones 101 to 103 using the remote ID receiving unit 522.
  • the process shown in FIG. 5 starts when the drone 10 is powered on. After starting the process, the drone 10 first starts sensing by the sensor module 30 and starts receiving information by the communication module 50 (step S51).
  • the drone 10 determines whether or not unique information has been received from other moving objects such as other drones 101 to 103 (step S52).
  • step S53 If the unique information has not been received, the process returns to step S51, and the drone 10 repeats the information reception process by the communication module 50. On the other hand, when the unique information is received, the drone 10 records the received unique information in the memory (step S53).
  • the drone 10 determines the relative position (for example, X, Y, Z), distance, and direction of other moving objects such as the other drones 101 to 103 with respect to the drone 10 based on the received unique information. Identify at least one of them. Further, based on the received unique information, the drone 10 specifies the movement trajectory of other moving objects such as the other drones 101 to 103 and the future position of the other moving object based on the movement trajectory (step S54).
  • the relative position for example, X, Y, Z
  • distance, and direction of other moving objects such as the other drones 101 to 103 with respect to the drone 10 based on the received unique information. Identify at least one of them. Further, based on the received unique information, the drone 10 specifies the movement trajectory of other moving objects such as the other drones 101 to 103 and the future position of the other moving object based on the movement trajectory (step S54).
  • the drone 10 determines whether the position or future position of another moving object satisfies a predetermined condition (step S55). Specifically, for example, it is determined whether the distance between the drone 10 and the position of another moving object or the distance between the drone 10 and the future position of another moving object is less than or equal to a predetermined value. may be done. Then, when the distance is less than or equal to a predetermined value, it may be determined that another moving object is close to the drone 10.
  • step S55 If the position of another moving object or the future position does not satisfy the predetermined condition in step S55, the process returns to step S51.
  • the drone 10 If the position or future position of the other moving body satisfies the predetermined condition in step S55, the drone 10 generates and outputs a control command regarding the movement of the drone 10 (step S56).
  • the control command generated here may be a control command for increasing the distance to another moving body determined to be close. Further, the control command may be a control command for restricting or canceling movement in a direction approaching another moving body determined to be in close proximity.
  • step S56 the drone 10 is forcibly controlled according to the control command in step S56 (step S57).
  • the drone 10 may be forcibly controlled to increase the distance from other moving objects determined to be in close proximity.
  • the drone 10 may be forcibly controlled so as to restrict or cancel movement in a direction approaching another moving object determined to be in close proximity.
  • step S57 the process returns to step S51.
  • the process shown in FIG. 5 is performed in this embodiment until the power of the drone 10 is turned off. Note that the processes in steps S53 to S57 are specifically performed by the flight controller 42.
  • FIG. 6 and 7 are diagrams showing an example of the operation of the drone 10 controlled by the process shown in FIG. 5.
  • FIG. 6 shows an example in which the distance between the drone 10 and the other drone 101 becomes less than or equal to a predetermined value, and the drone 10 is forcibly controlled to move away from the other drone 101.
  • step S55 the distance between the drone 10 and the other drone 101 is determined to be less than or equal to a predetermined value Th, and in steps S56 and S57, the drone 10 is controlled to move away from the other drone 101 in the direction of the arrow ⁇ . has been done.
  • FIG. 7 shows an example in which the distance between the drone 10 and the future position of the other drone 101 becomes less than or equal to a predetermined value, and the drone 10 is forcibly controlled to move away from the other drone 101.
  • a solid arrow TT indicates the movement trajectory specified in step S54
  • a broken arrow FT indicates the future position specified in step S54. Then, it is determined that the distance between the drone 10 and the future position FT is less than or equal to a predetermined value, and in steps S56 and S57, the drone 10 is controlled to move away from the other drone 101 in the direction of the arrow ⁇ .
  • the drone 10 includes a flight controller 42 corresponding to a drive control section that controls the driving of the drone 10, and a first communication section corresponding to a communication section that communicates with an operating device 20 that remotely controls the drone 10.
  • the drone 10 wirelessly receives unique information for specifying the presence and/or position of another moving object using the remote ID receiving unit 522.
  • the phenomenon of infrared rays passing through to the object to be detected which can occur with TOF, or the phenomenon of the object to be detected leaving the angle of view, which can occur with a camera, does not occur.
  • Unique information for identifying the presence and/or location of a mobile object can be reliably received from all directions. Further, even if the drone 10 and another moving object are relatively far apart, the unique information can be received.
  • the unique information is information specified by the remote ID system and is transmitted according to a predetermined standard such as the IEEE802.11 standard or Bluetooth (registered trademark), so that the drone 10 and other mobile objects can If the distance between them is several hundred meters, for example, unique information from other moving bodies can be reliably received. Furthermore, since the drone 10 can receive information from other moving objects in the sky, situations in which unique information cannot be received due to obstacles can be suppressed. Therefore, it becomes possible to reliably collect unique information based on the unique information and to detect other moving objects with high reliability.
  • a predetermined standard such as the IEEE802.11 standard or Bluetooth (registered trademark)
  • the drone 10 transmits at least one of the unique information received by the remote ID receiving unit 522, the fact that the unique information has been received, and the position information of another moving object detected based on the unique information. It is also possible to send either one to the operating device 20. In this case, for example, the operator U can operate the drone 10 while considering other moving objects based on the information received by the operating device 20, and the flight safety of the drone 10 can be improved. Further, by correcting the positional accuracy information of the drone 10 based on the received unique information sent from another mobile object, the unique information can be utilized to improve the accuracy of the positional accuracy information.
  • the unique information received by the remote ID receiving unit 522 includes at least the body registration number of the other mobile body and the position information of the other mobile body.
  • the existence of other moving objects and other positional information can be easily identified by demodulating the unique information by the analysis unit 42A.
  • the unique information received by the remote ID receiving unit 522 further includes time information at which the other mobile body sent the unique information. In this case, for example, the movement trajectory of another moving object can be easily identified.
  • the future positions of other moving objects can be easily identified based on the identified movement trajectory.
  • the flight controller 42 controls the driving of the drone 10 based on the unique information.
  • the drone 10 may operate, for example, autonomously to avoid other moving objects. Thereby, the flight safety of the drone 10 can be effectively increased.
  • the flight controller 42 controls the driving of the drone 10 based on the position information of other moving objects. Further, the flight controller 42 controls the driving of the drone 10 based on the future positions of other moving objects. Thereby, the flight safety of the drone 10 can be effectively improved.
  • the drone 10 further includes a memory 80 corresponding to a recording unit that records the received unique information. This makes it possible, for example, to accurately analyze the flight status of other moving objects after the fact.
  • the drone 10 includes a sensor module 30 corresponding to a detection unit that detects obstacles existing around the drone 10.
  • the drone 10 uses the stereo camera 31 and the TOF sensor 33 to detect obstacles in the surroundings.
  • the drone 10 can detect other moving objects with higher reliability by cooperating with the sensor module 30 to detect other moving objects based on the unique information received by the remote ID receiving unit 522. .
  • the reliability of detecting other moving objects can be effectively improved.
  • the drone 10 may analyze the received unique information and identify the cycle at which the unique information is transmitted.
  • the first communication unit 51 may change the timing of transmitting and receiving information based on the specified cycle. In this case, the communication state between the drone 10 and the operating device 20 can be adjusted to a good state.
  • FIG. 8 shows the configuration of a communication module 50A according to Modification 1.
  • Modification 1 differs from the above-described embodiment in that a remote ID receiving section 522 is provided in the first communication section 51.
  • a remote ID receiving section 522 is incorporated in the operating device receiving section 512 in the first communication section 51, and the remote ID receiving section 522 uses a demodulation circuit provided in the operating device receiving section 512 as a receiving section for the operating device. 512.
  • the operating device receiving section 512 is connected to a second antenna 514.
  • Remote ID receiving section 522 is connected to fourth antenna 524. The remote ID receiving unit 522 extracts information received from the fourth antenna 524 and demodulated by the demodulation circuit of the operating device receiving unit 512, and provides the information to the application processor 41.
  • the demodulation circuit shared by the operating device receiving section 512 and the remote ID receiving section 522 can demodulate signals modulated by both the IEEE802.11 standard and Bluetooth (registered trademark). Thereby, it is possible to receive and demodulate unique information transmitted according to the IEEE802.11 standard and unique information transmitted using Bluetooth (registered trademark).
  • the operating device receiving section 512 and the remote ID receiving section 522 may share an antenna.
  • Modification 1 described above is advantageous in terms of simplifying and compacting the communication module 50A.
  • FIG. 9 shows the configuration of a communication module 50B according to a second modification.
  • Modification 2 differs from the above embodiment in that the second communication section 52 includes a remote ID transmitting/receiving section 525 that integrates a remote ID transmitting section 521 and a remote ID receiving section 522.
  • the remote ID transmitter/receiver 525 is connected to a third antenna 523 and a fourth antenna 524.
  • the remote ID transmitting/receiving unit 525 is a corresponding part of the remote ID transmitting unit 521, and transmits information specified in the remote ID system as unique information according to the IEEE802.11 standard or Bluetooth (registered trademark).
  • the remote ID transmitting/receiving unit 525 is a corresponding part of the remote ID receiving unit 522, and is adapted to receive information specified in the remote ID system as unique information in accordance with both the IEEE802.11 standard and Bluetooth (registered trademark). .
  • the mode of integrating the remote ID transmitting section 521 and the remote ID receiving section 522 may be, for example, a configuration in which the remote ID transmitting section 521 and the remote ID receiving section 522 are provided on the same circuit board. Further, the mode of integration of the remote ID transmitting section 521 and the remote ID receiving section 522 is such that the remote ID transmitting section 521 and the remote ID receiving section 522 are provided on different circuit boards and housed in a common housing. But that's fine.
  • Modification 2 described above is also advantageous in terms of simplification and compactness of the communication module 50B.
  • FIG. 10 shows the configuration of a communication module 50C according to modification 3.
  • Modification 3 differs from the above embodiment in that the first communication unit 51 is provided with a first remote ID reception unit 522A, and the second communication unit 52 is provided with a second remote ID reception unit 522B.
  • the controller device transmitter 511 includes a modulation circuit that performs modulation using the first communication method.
  • the operating device receiving unit 512 includes a demodulation circuit that performs demodulation using the first communication method.
  • the first remote ID receiving section 522A shares a demodulation circuit provided in the operating device receiving section 512 with the operating device receiving section 512.
  • the operating device receiving section 512 and the first remote ID receiving section 522A share the second antenna 514.
  • the first remote ID receiving unit 522A extracts information received from the second antenna 514 and demodulated by the demodulation circuit of the operating device receiving unit 512, and provides the information to the application processor 41.
  • a remote ID transmitting section 521 and a second remote ID receiving section 522B are integrated.
  • the remote ID transmitter 521 includes a modulation circuit that performs modulation using a second communication method different from the first communication method.
  • the second remote ID receiving unit 522B includes a demodulation circuit that performs demodulation using the second communication method.
  • the remote ID transmitter 521 and the second remote ID receiver 522B share the third antenna 523.
  • the first communication unit 51 can receive unique information from another mobile body transmitted using the first communication method
  • the second communication unit 52 can receive unique information transmitted from another mobile body using the second communication method.
  • the first communication method may be one of the EEE802.11 standard and Bluetooth (registered trademark)
  • the second communication method may be the other of the IEEE802.11 standard and Bluetooth (registered trademark).
  • Modification 3 described above is also advantageous in terms of simplification and compactness of the communication module 50C.
  • FIG. 11 shows the configuration of a communication module 50D according to a fourth modification.
  • Modification 4 differs from the above embodiment in that the first communication unit 51 is provided with a remote ID transmitting unit 521 and a remote ID receiving unit 522.
  • the operating device transmitter 511 includes a modulation circuit that performs modulation using a first communication method and a second communication method different from the first communication method.
  • the operating device receiving unit 512 includes a demodulation circuit that performs demodulation using a first communication method and a second communication method.
  • the remote ID transmitting section 521 shares the modulation circuit provided in the operating device transmitting section 511. Furthermore, the remote ID transmitting section 521 shares the first antenna 513 with the operating device transmitting section 511. Then, the remote ID transmitting section 521 transmits the unique information modulated using the modulation circuit provided in the operating device transmitting section 511 from the first antenna 513.
  • the remote ID receiving section 522 shares the demodulation circuit provided in the operating device receiving section 512. Further, the remote ID receiving section 522 shares the second antenna 514 with the operating device receiving section 512. Then, the remote ID receiving section 522 provides the application processor 41 with unique information from another mobile object that is demodulated using a demodulation circuit provided in the operating device receiving section 512.
  • Modification 4 described above is very advantageous in terms of simplifying and compacting the communication module 50D.
  • FIG. 12 shows an example of the hardware configuration of the drone 10.
  • a part of the drone 10 is configured by a computer device 400.
  • the computer device 400 includes a CPU 401, an input interface 402, an external interface 403, a communication device 404, a main storage device 405, and an external storage device 406, which are interconnected by a bus.
  • the drone 10 does not need to include at least one of these elements.
  • a CPU (central processing unit) 401 executes a computer program on the main storage device 405.
  • the computer program is a program that realizes each of the above-described functional configurations of the drone 10.
  • a computer program may be realized not by a single program but by a combination of multiple programs or scripts. Each functional configuration is realized by the CPU 401 executing a computer program.
  • the input interface 402 is a circuit for inputting operation signals from input devices such as a keyboard, a mouse, and a touch panel to the drone 10.
  • the external interface 403 displays, for example, data stored in the drone 10 or data calculated by the drone 10 on a display device.
  • the external interface 403 may be connected to, for example, an LCD (liquid crystal display), an organic electroluminescent display, a CRT (cathode ray tube), or a PDP (plasma display).
  • the communication device 404 is a circuit for the drone 10 to communicate with an external device wirelessly or by wire.
  • the communication device 404 is a part corresponding to the communication module 50 and the like. Data used by the drone 10 can be input from an external device via the communication device 404.
  • Communication device 404 includes an antenna. Data input from an external device can be stored in the main storage device 405 or the external storage device 406.
  • the main storage device 405 stores computer programs, data necessary for executing the computer programs, data generated by executing the computer programs, and the like.
  • the computer program is expanded on the main storage device 405 and executed.
  • the main storage device 405 is, for example, RAM, DRAM, or SRAM, but is not limited thereto.
  • a storage unit for information and data in the communication device 404 may be constructed on the main storage device 405.
  • the external storage device 406 stores computer programs, data necessary for executing the computer programs, data generated by executing the computer programs, and the like. These computer programs and data are read into the main storage device 405 when the computer program is executed.
  • the external storage device 406 is, for example, a hard disk, an optical disk, a flash memory, or a magnetic tape, but is not limited thereto.
  • the computer program may be installed in the computer device 400 in advance, or may be stored in a storage medium such as a CD-ROM.
  • the computer program may also be uploaded onto the Internet.
  • the computer device 400 may be configured as a single device, or may be configured as a system consisting of a plurality of mutually connected computer devices.
  • the present disclosure can also have the following configuration.
  • An unmanned moving body a drive control unit that controls the drive of the unmanned moving body; a communication unit that communicates with an operating device that remotely controls the unmanned mobile object;
  • An unmanned mobile body comprising: an other-device information receiving unit that receives unique information sent from another mobile body for specifying the existence and/or position of the other mobile body.
  • the unmanned moving body according to item 1 further comprising a detection unit that detects obstacles existing around the unmanned moving body.
  • the detection unit is any one of a camera, an optical distance measurement sensor, a millimeter wave distance measurement sensor, and an ultrasonic distance measurement sensor, or a combination of two or more of these.
  • the unmanned mobile vehicle [Item 4] The unmanned moving body according to any one of items 1 to 3, wherein the drive control unit controls driving of the unmanned moving body based on the unique information. [Item 5] The unmanned vehicle according to any one of items 1 to 4, further comprising a recording unit that records the unique information. [Item 6] The unmanned mobile object according to any one of items 1 to 5, wherein the unique information includes at least a body registration number of the other mobile object and position information of the other mobile object. [Item 7] The unmanned mobile body according to item 6, wherein the unique information further includes time information when the other mobile body sent out the unique information.
  • the drive control unit determines the relative position of the other moving body with respect to the unmanned moving body based on the position information of the unmanned moving body, the body registration number of the other moving body, and the position information of the other moving body.
  • the drive control unit controls the movement of the other moving object based on the body registration number of the other moving object, the position information of the other moving object, and the time information when the other moving object sent out the unique information.
  • the analysis unit further specifies a cycle in which the unique information is sent.
  • the communication unit changes the timing of transmitting and receiving information based on the cycle specified by the analysis unit.
  • the unique information is information required to be sent by the national or local government when the mobile object is moved.
  • the unmanned vehicle according to any one of items 1 to 17, wherein the unique information is information specified by a remote ID system required by countries (Japan, the United States, the European Union, etc.) regarding the flight of unmanned aerial vehicles.
  • An information processing method performed on an unmanned mobile object comprising: An information processing method in an unmanned mobile body, comprising the step of receiving unique information transmitted from another mobile body for specifying the existence and/or position of the other mobile body.
  • a computer program for performing information processing on an unmanned mobile object A computer program for causing a computer to execute a step of receiving unique information transmitted from another mobile body for specifying the existence and/or position of the other mobile body.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

[課題]他の移動体を高い信頼度で検出することが可能となる無人移動体の提供。 [解決手段]一実施形態に係る無人移動体であるドローン10は、ドローン10の駆動を制御するフライトコントローラ42と、ドローン10を遠隔制御する操作装置20と通信する第1通信部51と、他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信する第2通信部52と、を備える。

Description

無人移動体、情報処理方法及びコンピュータプログラム
 本開示は、無人移動体、情報処理方法及びコンピュータプログラムに関する。
 無人移動体の一例であるドローンは、空撮、計測、災害救助、輸送物流などの様々な用途で用いられている。なお、単にドローンという場合、この用語は、無人飛行体を意味する。
 ドローンには、その周囲に存在する他のドローンを検出する手段を備えるものがある。他のドローンを検出する手法としては、例えば、ドローンに設けられる赤外線センサで他のドローンの位置を検出するTOF(Time OF Flight)や、ドローンに設けられるカメラで他のドローンを検出することなどが挙げられる。
 しかしながら、赤外線センサを用いる場合、ドローンから比較的離れた位置に存在する他のドローンを的確に検出できないことがある。赤外線センサは、10m程度の近距離にある他のドローンを高精度に検出できるが、例えば30m程度の距離になると検出の信頼性が低下し得る。
 また、TOFでは、赤外線を所定の指向性をもって送出する。そのため、全方位での他のドローンの検出を可能とする場合には、赤外線センサの数量及び占有範囲が増加し、他の部品の設置に対する制約や、重量増加を招き得る。
 一方で、カメラで他のドローンを検出する場合には、他のドローンの距離を精度良く検出できない。詳しくは、ドローンは大きさが様々であり、画像信号だけでは他のドローンの距離を精度良く検出できない。また、カメラには画角がある。そのため、カメラにより全方位での検出を行う場合にも、TOFと同様に、数量及び占有範囲の増加の問題が生じ得る。なお、ステレオカメラは周囲の物体までの距離を測定できる。しかし、ステレオカメラにも画角があり且つ比較的大型になることから、数量及び占有範囲の増加の問題が生じ得る。
 今後、ドローンの需要は拡大すると予想される。そして、多くのドローンが上空で飛行する状況が実現され得る。多くのドローンが飛行する状況では、事故も多く発生する虞がある。そのため、飛行時の安全性の確保が必須である。この観点で、他のドローンを的確に検出することが重要となる。また、事故を分析する場合には、例えば他のドローンの位置や、飛行状況などを事後的に的確に検出及び特定することも重要である。
国際公開2020/116496号
 本開示は上記事情を考慮してなされたものであり、他の移動体を高い信頼度で検出することが可能となる無人移動体、情報処理方法及びコンピュータプログラムを提供する。
 本開示の無人移動体は、前記無人移動体の駆動を制御する駆動制御部と、前記無人移動体を遠隔制御する操作装置と通信する通信部と、他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信する他機情報受信部と、を備える。
 本開示の情報処理方法は、無人移動体で行われる情報処理方法であって、他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信するステップを備える。
 本開示のコンピュータプログラムは、無人移動体で情報処理を実行するためのコンピュータプログラムであって、他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信するステップをコンピュータに実行させる。
一実施形態に係る無人移動体としてのドローンを操作装置により飛行させる状況を示す図。 一実施形態に係るドローンの構成を示すブロック図。 一実施形態に係るドローンにおける通信モジュールの構成を詳細に示すブロック図。 図1に示す他の移動体としての他機ドローンの構成を示すブロック図。 一実施形態に係るドローンで行われる処理の一例を示すフローチャート。 図5に示す処理によって制御されるドローンの動作の一例を示す図。 図5に示す処理によって制御されるドローンの動作の他の例を示す図。 一変形例に係る通信モジュールの構成を示すブロック図。 他の変形例に係る通信モジュールの構成を示すブロック図。 他の変形例に係る通信モジュールの構成を示すブロック図。 他の変形例に係る通信モジュールの構成を示すブロック図。 実施形態に係るドローンを構成し得る情報処理装置のハードウェア構成の一例を示す図。
 以下、図面を参照して本開示の実施形態について説明する。
 図1は、一実施形態に係る無人移動体としてのドローン10を操作装置20により飛行させる状況を示す。ドローン10は、操作装置20により遠隔制御されることで飛行している。なお、単にドローンという場合、この用語は、無人飛行体を意味する。
<ドローンの使用環境及び機能の概略>
 まず、図1を用いて本実施形態に係るドローン10の使用環境及びドローン10の機能の概略を説明する。ドローン10及び操作装置20は、双方向に無線通信可能になっている。図1では、操縦者Uが操作装置20を介してドローン10を制御するマニュアル操作が行われている。この場合、ドローン10は、例えば操作装置20から送信されるユーザの意思に基づく制御指令を受け、制御指令に基づいて制御される。制御指令は、前進、後退、左旋回、右旋回、上昇、下降などのユーザの意思に基づく制御指令である。制御指令は、操縦者Uが操作装置20を直接的に操作することで生成される。一方で、ドローン10は、例えば現在の位置や撮像した画像の情報を操作装置20に送信してもよい。
 制御指令には、上述の例示の他に、ドローン10に対して相対的又は絶対的に定められる目標位置への移動に関する指令が含まれてもよい。また、制御指令には、目標速度、旋回時の目標角速度、目標姿勢などへの状態変更に関する指令などが含まれてもよい。
 また、ドローン10は自律飛行(自律移動)も可能である。詳しくは、ドローン10は、操作装置20から経路を指定された後、指定された経路に従って自律的に移動できる。また、ドローン10は、所定の帰還位置への経路を自ら生成し、生成した経路に従って自律的に帰還できる。このような自律的に帰還する処理は、リターントゥホーム(以下、「RTH」)と呼ばれる場合がある。
 また、ドローン10は半自律飛行も可能である。ここで言う半自律飛行は、マニュアル操作によるマニュアル飛行中に一時的に自律飛行がなされる動作状態を意味する。例えば、マニュアル飛行中のドローン10は、操作装置20との通信が不能になったり、構造物などの裏に回り込んでユーザの視野内から外れたりする状態になり得る。ドローン10は、このような場合に例えばRTHに一時的に移行し、半自律飛行を行ってもよい。
 上述のようなドローン10のマニュアル飛行、自律飛行、及び半自律飛行は、操縦者Uの視野内で行われてもよいし、視野外で行われてもよい。視野外でマニュアル飛行を行う場合には、ドローン10の現在の位置を認識可能とする手段が必要となる。このような手段は、例えば操作装置20に設けられるドローン10の現在の位置の表示や、ドローン10が撮像中の画像の表示などでもよい。
 本実施形態における操作装置20は、操縦者Uによって把持され且つ制御指令を送信するアンテナを備える操作専用の装置である。ただし、操作装置20は、例えばスマートフォン、タブレット、パーソナルコンピュータなどでもよい。
 例えば、操作装置20がスマートフォン又はタブレットで構成される場合、操作装置20は、Bluetooth(登録商標)などの通信方式にしたがって直接的に制御指令を送信してもよい。また、ルータ、ルータ及び基地局を介してWifiなどの通信方式にしたがって制御指令がドローン10に送信されてもよい。
 図1には、他の移動体としての他機ドローン101~103が示されている。これら他機ドローン101~103は、他の操縦者によって操作されるか又は自律運転している。
 また、図1には、飛行体監視設備110が示されている。飛行体監視設備110は、無人飛行体を含む飛行中の物体を監視する設備である。飛行体監視設備110は、国又は地方公共団体が飛行体の保安のために設置した設備でもよい。飛行体監視設備110はアンテナ112を備えている。アンテナ112は、飛行中の移動体からの情報を受信し、受信した情報は、飛行体の位置の特定に利用される。飛行体監視設備110は、図示しないソナーやカメラを更に備え、これらによって飛行体を更に監視してもよい。
 図1に示す状況では、本実施形態に係るドローン10及び他機ドローン101~103がそれぞれ、飛行体監視設備110に、図中実線矢印に示すように自身の存在及び/又は位置を飛行体監視設備110で特定させるための固有情報ID0~ID3を送信している。飛行体監視設備110は、固有情報ID0~ID3をドローン10及び他機ドローン101~103それぞれの存在及び/又は位置を検出するために用いる。
 本実施形態では、固有情報ID0~ID3に、一例として、機体登録番号の情報、機体製造番号の情報、現在の位置情報、及び現在の時刻情報が含まれている。
 詳しくは、本実施形態における機体登録番号は、一例として、国又は地方公共団体などの他者より、ドローン10及び他機ドローン101~103などの無人飛行体に設定される番号である。このような機体登録番号は、無人飛行体を飛行させることを希望する申請又は無人飛行体の所有の申請に応じて、国又は地方公共団体などが発行する番号である。また、機体製造番号は、無人飛行体を製造した製造者が付与する番号でもよい。
 また、上記現在の位置情報は、無人飛行体自体が検出する自機の現在の位置の情報であって、無人飛行体が固有情報を送信する際の無人飛行体の位置の情報である。固有情報の送信が意図される無人飛行体は、通常、GNSS(Global Navigation Satellite System)、TOF(Time Of Flight)、気圧センサ、地磁気センサなどを組み合わせることで自機の位置を検出できる。また、上記現在の時刻情報は、無人飛行体が固有情報を送信する際の時刻の情報である。無人飛行体は、通常、時計機能を有する。また、時刻情報は、GNSSで受信する衛星からの信号からも抽出され得る。
 本実施形態における固有情報ID0~ID3は、具体的には、リモートID制度で無人飛行体を飛行(移動)させる際に無人飛行体からの送出を義務付けられた情報である。リモートID制度では、機体登録番号、機体製造番号、位置情報、時刻、認証情報を、無人移動体から航空局、警察、重要施設管理者に送出することが列挙されている。
 なお、リモートID制度は、例えば、日本の国土交通省、アメリカ連邦航空局や、欧州連合の欧州航空安全機構が制定している。固有情報は、諸外国におけるリモートID制度又はこれに準ずる制度で指定する情報でもよい。
 そして、以上のような使用環境下で、本実施形態に係るドローン10は、図1の破線の矢印に示すように、他機ドローン101~103からこれらが送出する固有情報ID1~ID3を受信する機能を備える。そして、ドローン10は、他の移動体の存在及び/又は位置を特定するため情報として固有情報ID1~ID3を受信し、本実施形態では、受信した固有情報ID1~ID3を記録する。また、ドローン10は、受信した固有情報ID1~ID3を他の移動体の存在及び/又は位置の検出のために利用する。
<ドローンの構成>
 図2は、ドローン10の構成を示すブロック図である。以下、ドローン10の構成及び機能について詳述する。ドローン10は、センサモジュール30と、センシングプロセッサ40と、アプリケーションプロセッサ41と、フライトコントローラ42と、通信モジュール50と、前方カメラ60と、駆動モジュール70と、メモリ80とを備えている。
 センサモジュール30は、ステレオカメラ31と、IMU(Inertial Measurement Unit)32と、TOFセンサ33と、地磁気センサ34と、気圧センサ35と、GNSS受信部36とを含む。センサモジュール30又はセンサモジュール30に含まれるセンサ類の一部又は全部は、無人移動体の周囲に存在する障害物を検出する検出部に対応する。障害物は、ドローン10とは異なる飛行体、建造物、木、人、車両、地表、山肌、水面などのドローン10の飛行の障害となり得るものを意味する。
 ステレオカメラ31は、ドローン10の周囲を2つ以上の撮像部で撮像し、互いに異なる2つ以上の画像信号を取得する。2つの以上の画像信号は、ドローン10から撮像した画像上の物体までの距離の検出に用いられる。すなわち、ステレオカメラ31は測距センサとして機能する。ステレオカメラ31が取得した2つ以上の画像信号はセンシングプロセッサ40に提供され、ドローン10から撮像した画像上の物体までの距離は、センシングプロセッサ40による演算により検出される。なお、ステレオカメラ31に加えて、又は、ステレオカメラ31の代わりに、レーダなどミリ波式測距センサ、TOFセンサやLiDAR(Light Detection and Ranging)などの光学式測距センサ、超音波式測距センサなどのいずれか又は2種以上の組合せが測距センサとして用いられてもよい。また、ステレオカメラ31の代わりに、単眼のカメラが用いられ、画像解析により障害物が検出されてもよい。
 ステレオカメラ31は2つ以上の撮像部を有する複数のユニットを備えてもよい。例えば、ステレオカメラ31は5つの上記ユニットを備え、前後左右下方の5方向に向けてもよい。ただし、このような構成は特に限られない。例えば、ステレオカメラ31は、前方を向く1つの上記ユニットだけを備える構成でもよいし、左右の2つの上記ユニットだけを備える構成でもよい。
 IMU32は、例えば3軸のジャイロセンサと3方向の加速度センサを含んで構成され、ドローン10の角速度及び加速度を計測する。IMU32が計測したドローン10の角速度及び加速度の情報は、センシングプロセッサ40と、フライトコントローラ42とに提供される。なお、IMUは2つ設けられ、一方のIMUが計測情報をセンシングプロセッサ40に提供し、他方のIMUが計測情報をフライトコントローラ42に提供してもよい。
 TOFセンサ33は、光を照射して反射光が帰って来るまでの時間で、ドローン10の周囲の物体や地表などまでの距離を測定する。TOFセンサ33が照射する光は赤外線でもよい。TOFセンサ33は、ドローン10の周囲の物体や地表までの距離の情報をフライトコントローラ42に提供する。
 地磁気センサ34は、地磁気の測定によりドローン10の向きを測定する。地磁気センサ34は、ドローン10の向きの情報をフライトコントローラ42に提供する。
 気圧センサ35は、気圧を計測する。気圧センサ35は、気圧の情報をフライトコントローラ42に提供する。気圧は、地表からの高さによって変化する。そのため、気圧センサ35で測定した気圧に基づいてドローン10の高度を算出できる。
 GNSS受信部36は、GPS衛星や他の衛星(例えば、GalileoやQZSS)からの信号を受信して、受信した信号に基づき、ドローン10の現在の位置を検出する。また、GNSS受信部36は、GPS衛星や他の衛星から時刻情報を受信する。GNSS受信部36は、ドローン10の現在の位置の情報及び時刻情報をフライトコントローラ42に提供する。
 センシングプロセッサ40は、センサモジュール30からの情報に基づき、ドローン10の周囲の物体及び/又は当該物体までの距離を検出する。上述したように、ステレオカメラ31が取得した2つ以上の画像信号はセンシングプロセッサ40に提供される。センシングプロセッサ40は、ドローン10から撮像した画像上の物体までの距離を演算により検出する。また、この際、IMU32からの情報を考慮することでドローン10の周囲の物体及び/又は当該物体までの距離の検出精度を向上できる。センシングプロセッサ40は、検出したドローン10の周囲の物体及び/又は当該物体までの距離の情報をフライトコントローラ42に提供する。フライトコントローラ42は、センシングプロセッサ40からの情報に基づき、ドローン10の飛行状態(駆動)を制御できる。
 アプリケーションプロセッサ41は、主としてドローン10の内部でのデータ処理及びドローン10と外部との間のデータ処理を行う。アプリケーションプロセッサ41は、例えば通信モジュール50に操作装置20へ情報を送信する旨を指示したり、通信モジュール50で受信した情報をフライトコントローラ42に提供する処理を行ったりする。また、アプリケーションプロセッサ41は、前方カメラ60を制御する。
 フライトコントローラ42は、ドローン10の駆動を制御するものであって、無人移動体の駆動を制御する駆動制御部に対応するものである。フライトコントローラ42は、例えば操作装置20から送信される制御指令を受け、制御指令に基づいてドローン10の駆動を制御する。詳しくは、フライトコントローラ42は、制御指令に基づいて駆動モジュール70の駆動を制御し、ドローン10を所望の状態で動作させる。
 フライトコントローラ42は、操作装置20から経路を指定された場合、経路に沿ってドローン10が自律飛行するようにドローン10の駆動を制御する。また、フライトコントローラ42は、例えばRTHで自律飛行する場合には、自ら経路を生成する。そして、フライトコントローラ42は、生成した経路に沿ってドローン10が飛行するようにドローン10の駆動を制御する。フライトコントローラ42は、経路に沿って自律移動を行う場合、センサモジュール30からの情報に基づいて現在の位置や周辺の障害物を検出し、指定された経路及び当初生成した経路を適宜変更できる。
 また、本実施形態に係るフライトコントローラ42は、センサモジュール30からの情報、センシングプロセッサ40からの情報、及びアプリケーションプロセッサ41からの情報のうちのいずれか又はこれら2つ以上の情報の組合せに基づいて、例えば危険回避のためにドローン10の駆動を制御できる。
 具体的には、フライトコントローラ42は、例えばセンサモジュール30におけるTOFセンサ33でドローン10に近接する物体が検出された場合に、ドローン10を当該物体から遠ざけるようにドローン10の駆動を制御できる。また、フライトコントローラ42は、例えばステレオカメラ31からの画像信号に基づいてセンシングプロセッサ40でドローン10に近接する物体が検出された場合に、ドローン10を当該物体から遠ざけるようにドローン10の駆動を制御できる。
 また、ドローン10は、上述したように他機ドローン101~103からこれらが送出する固有情報ID1~ID3を受信する機能を備えている。固有情報ID1~ID3は、通信モジュール50で受信され、アプリケーションプロセッサ41を介してフライトコントローラ42に送られる。そして、フライトコントローラ42は、これら固有情報ID1~ID3に基づいて、ドローン10の駆動をさらに制御できる。
 本実施形態におけるフライトコントローラ42は、その一部の機能部分として固有情報ID1~ID3を解析する解析部42Aを含む。解析部42Aは、固有情報ID1~ID3が他の無人飛行体(他の移動体)から送出されたものか否か及び他の無人飛行体の位置情報を特定する。解析は、固有情報ID1~ID3の復調により、他の無人飛行体の機体登録番号の情報、機体製造番号の情報、現在の位置情報、及び現在の時刻情報を検出し、適宜、自機であるドローン10の情報と対比することにより行われる。固有情報ID1~ID3が他の移動体から送出されたものか否かは、ドローン10に保持される自機の機体登録番号又は機体製造番号との対比で行われる。また、解析部42Aは、他の無人飛行体から固有情報が送出されている周期をさらに特定してもよい。
 そして、フライトコントローラ42は、解析部42Aが特定した固有情報ID1~ID3に基づく情報に基づいて、ドローン10に対する他機ドローン101~103の相対的な位置(例えば、X,Y,Z)、並びに、距離及び方向のうちの少なくともいずれかを特定できる。さらに、フライトコントローラ42は、特に他機ドローン101~103の位置情報及び他機ドローン101~103が固有情報ID1~ID3を送出した時刻情報に基づいて、他機ドローン101~103の移動軌跡を特定できる。さらに、フライトコントローラ42は、特定した移動軌跡に基づいて他機ドローン101~103の未来の位置を推定できる。
 そして、フライトコントローラ42は、上述のように固有情報ID1~ID3から検出される他機ドローン101~103の位置情報などに基づいてドローン10に近接する他機ドローン101~103などの他の移動体が検出された場合に、ドローン10を他の移動体から遠ざけるようにドローン10の駆動を制御できる。詳しくは、フライトコントローラ42は、ドローン10に対する他機ドローン101~103の相対的な位置(例えば、X,Y,Z)、ドローン10に対する他機ドローン101~103の距離・方向、他機ドローン101~103の移動軌跡、及び他機ドローン101~103の未来の位置のいずれかに基づいて、例えばドローン10を他機ドローン101~103から遠ざけるようにドローン10の駆動を制御できる。なお、以上の説明では、フライトコントローラ42が固有情報ID1~ID3を受信し、固有情報ID1~ID3に基づいて各種処理を行うことを説明した。しかしながら、フライトコントローラ42が他の移動体からの固有情報を受信し、同様の処理を行うことができることは言うまでもない。
 また、フライトコントローラ42はドローン10の位置情報をメモリ80に記録するようになっている。ドローン10の位置情報の記録は、周期的に行われてもよい。また、フライトコントローラ42は、他機ドローン101~103などから受信する固有情報をメモリ80に記録するようになっている。固有情報の記録は、固有情報を受信する度に行われてもよい。
 通信モジュール50は、無線通信により、操作装置20、他機ドローン101~103などの外部装置と通信し、情報の送受信を行う。通信モジュール50は、第1通信部51と、第2通信部52とを有する。第1通信部51は、ドローン10を遠隔制御する操作装置20と通信し、少なくともドローン10を駆動させるための情報を受信する。ドローン10の駆動を制御するための情報は、例えば操作装置20からドローン10に送信される制御指令である。また、第1通信部51は、ドローン10の位置情報などを操作装置20に送信できる。第2通信部52は、本実施形態では自機の固有情報の送信と、他機ドローン101~103などの他の移動体からの固有情報の受信とを行う。
 第1通信部51及び第2通信部52の無線通信の方式は任意でよい。一例として、IEEE802.11規格、IEEE802.15.1規格(Bluetooth(登録商標))、OFDM変調方式、その他の規格によるものでもよい。無線通信に使用する周波数帯域は、例えば2.4GHz帯、5GHz帯、又はその他の周波数帯域である。また、第1通信部51及び第2通信部52は、複数の無線通信の規格で情報の送信及び/又は受信が可能でもよい。
 ただし、第2通信部52の無線通信の方式は、自機の固有情報を飛行体監視設備110又は他機が受信できる方式、及び、他機の固有情報を自機で受信できる方式にする必要がある。本実施形態では、ドローン10がリモートID制度で指定される情報を送受信する。リモートID制度で指定される情報は、例えばIEEE802.11規格又はBluetooth(登録商標)で送出されることを指定されている。したがって、本実施形態では、第2通信部52が、IEEE802.11規格又はBluetooth(登録商標)にて、リモートIDで指定される情報を固有情報として送信するようになっている。また、第2通信部52は、IEEE802.11規格及びBluetooth(登録商標)の両方で、リモートIDで指定される情報を固有情報として受信するようになっている。第2通信部52が、2つ以上の無線通信の方式(規格)で固有情報を受信可能で且つ復調可能である場合、他の移動体から送出される固有情報を漏れなく受信でき、他機の検出信頼性が向上する。
 前方カメラ60は、主にドローン10の前方(進行方向)を撮像する。前方カメラ60は、主として記録や操作装置20への転送の目的の画像を取得するために設けられている。前方カメラ60は、図1に示すようにドローン10の機体11の下方に配置され、機体11に支持されている。
 駆動モジュール70は、モータ71と、モータ71によって回転されるプロペラ72とを含む。ドローン10は、複数のプロペラ72を均一に回転させることで真上に上昇でき、複数のプロペラ72間で回転差を生じさせることで、前進、後退、左旋回、右旋回などの傾きをもった移動を実施できる。図1に示すように、モータ71及びプロペラ72は、機体11に支持されている。フライトコントローラ42は、各モータ71への供給電力などを図示しないドライバ(ESC(Electric Speed Controller))で制御することで各プロペラ72の回転数を制御する。これにより、フライトコントローラ42はドローン10を所望の状態で動作させる。
 メモリ80は、例えば、ハードディスク、光ディスク、フラッシュメモリ、及び磁気テープであるが、これに限られない。
 図3は、通信モジュール50の詳細な構成を示すブロック図である。図3に示すように、本実施形態における通信モジュール50では、第1通信部51が、操作装置用送信部511、操作装置用受信部512、第1アンテナ513、及び第2アンテナ514を含む。第2通信部52は、リモートID送信部521、リモートID受信部522、第3アンテナ523、及び第4アンテナ524を含む。
 第1通信部51では、操作装置用送信部511に変調回路などが含まれる。そして、操作装置用送信部511と第1アンテナ513とが接続する。第1アンテナ513は送信アンテナとして機能する。操作装置用送信部511は、操作装置20に例えばドローン10の位置情報や、ドローン10で撮像した画像の画像信号を送信する。また、操作装置用送信部511は、リモートID受信部522で受信した固有情報、固有情報を受信した旨、及び固有情報に基づいて検出した他の移動体の位置情報のうちの少なくともいずれかを操作装置20に送信してもよい。また、操作装置用受信部512には復調回路などが含まれる。そして、操作装置用受信部512と第2アンテナ514とが接続する。第2アンテナ514は受信アンテナとして機能する。操作装置用受信部512は、操作装置20から例えば制御指令の情報を受信し、復調し、アプリケーションプロセッサ41に提供する。
 図示の例では、操作装置用送信部511と操作装置用受信部512とが同じ回路基板上に設けられる。ただし、操作装置用送信部511と操作装置用受信部512とは、互いに異なる回路基板上に設けられもよい。
 第2通信部52では、リモートID送信部521に変調回路などが含まれる。そして、リモートID送信部521と第3アンテナ523とが接続する。第3アンテナ523は送信アンテナとして機能する。リモートID送信部521は、図1の例では飛行体監視設備110に受信させる目的で、自機の固有情報ID0(本例では、機体登録番号の情報、機体製造番号の情報、現在の位置情報、及び現在の時刻情報)を送出する。
 また、リモートID受信部522には復調回路などが含まれる。そして、リモートID受信部522と第4アンテナ524とが接続する。第4アンテナ524は受信アンテナとして機能する。リモートID受信部522は、他機ドローン101~103などの他の移動体からの固有情報を受信する。そして、リモートID受信部522は、受信した他の移動体からの固有情報を復調し、アプリケーションプロセッサ41に提供する。本実施形態では、リモートID受信部522は、IEEE802.11規格及びBluetooth(登録商標)の両方の搬送波(キャリア)を復調できる。リモートID受信部522は、他機情報受信部に対応するものである。
 図示の例では、リモートID送信部521とリモートID受信部522とが互いに異なる回路基板上に設けられ、物理的に分離している。この場合、例えばリモートID送信部521と、リモートID受信部522とが、互いに異なるハウジングに収容され、互いに離れた位置で機体11の所望位置に着脱自在に取り付けられてもよい。ただし、リモートID送信部521とリモートID受信部522とは、同じ回路基板上に設けられてもよい。なお、以上の説明では、送信部/受信部と、アンテナとが接続されるという記載がある。この記載は、詳しくは、送信部/受信部と、アンテナとが有線で接続されることを意味する。送信部/受信部と、アンテナとは、RF同軸ケーブルを介して接続されてもよい。
<他機ドローンの構成>
 図4は、他機ドローン101~103の構成の一例を示すブロック図である。他機ドローン101~103は、ドローン10が備えるリモートID受信部522を備えておらず、且つ、固有情報を記録、解析する手段及び固有情報を制御に用いる手段を備えない。他機ドローン101~103のこれら以外の構成は、ドローン10と同様である。
 図4は他機ドローン101~103における他機通信モジュール500の構成を示している。他機通信モジュール500は、ドローン10の通信モジュール50と同様に、操作装置用送信部511、操作装置用受信部512、第1アンテナ513、及び第2アンテナ514を含む第1通信部51を備える。一方で、他機通信モジュール500は、リモートID送信部521及び第3アンテナ523を備えるが、リモートID受信部522は備えていない。
 他機ドローン101~103は、リモートID送信部521及び第3アンテナ523から、飛行体監視設備110に受信させる目的で、固有情報(本例では、機体登録番号の情報、機体製造番号の情報、現在の位置情報、及び現在の時刻情報)を送出する。これに対して、実施形態に係るドローン10は、リモートID受信部522により、他機ドローン101~103が送出する固有情報を受信できる。
<ドローンの制御>
 次に、ドローン10で行われる処理の一例を図5に示すフローチャートを参照しつつ説明する。
 図5に示す処理は、ドローン10への電源投入に応じて開始する。処理開始後、まず、ドローン10は、センサモジュール30によるセンシング、及び、通信モジュール50による情報の受信処理を開始する(ステップS51)。
 次いで、ドローン10は、他機ドローン101~103などの他の移動体から固有情報を受信したか否かを判定する(ステップS52)。
 固有情報を受信していない場合、処理がステップS51に戻り、ドローン10は、通信モジュール50による情報の受信処理を繰り返す。一方で、固有情報を受信した場合、ドローン10は、受信した固有情報をメモリに記録する(ステップS53)。
 次いで、ドローン10は、受信した固有情報に基づいて、ドローン10に対する他機ドローン101~103などの他の移動体の相対的な位置(例えば、X,Y,Z)、並びに、距離及び方向のうちの少なくともいずれかを特定する。また、ドローン10は、受信した固有情報に基づいて、他機ドローン101~103などの他の移動体の移動軌跡及び移動軌跡に基づく他の移動体の未来の位置を特定する(ステップS54)。
 そして、ドローン10は、他の移動体の位置又は未来の位置が所定条件を満たすか否かを判定する(ステップS55)。具体的には例えば、ドローン10と他の移動体の位置との間の距離、又はドローン10と他の移動体の未来の位置との間の距離が、所定値以下であるか否かが判定されてもよい。そして、距離が所定値以下である場合に、他の移動体がドローン10に近接していると判定されてもよい。
 ステップS55で他の移動体の位置又は未来の位置が所定条件を満たさない場合、処理がステップS51に戻る。一方で、ステップS55で他の移動体の位置又は未来の位置が所定条件を満たす場合、ドローン10は、ドローン10の移動に関する制御指令を生成し、出力する(ステップS56)。ここで生成される制御指令は、近接していると判定された他の移動体との距離を広げるための制御指令でもよい。また、制御指令は、近接していると判定された他の移動体に近づく方向への移動を制限又は破棄する制御指令でもよい。
 そして、ステップS56で制御指令が生成された場合、ドローン10は、ステップS56での制御指令にしたがって、強制的に制御される(ステップS57)。例えば、ステップS56では、近接していると判定された他の移動体との距離を広げるようにドローン10が強制的に制御してもよい。また、近接していると判定された他の移動体に近づく方向への移動を制限又は破棄するように、ドローン10が強制的に制御されてもよい。
 そして、ステップS57の後、処理はステップS51に戻る。図5に示す処理は、本実施形態ではドローン10の電源がオフにされるまで行われる。なお、ステップS53~S57の処理は、詳しくは、フライトコントローラ42により行われる。
 図6及び図7は、図5に示す処理によって制御されるドローン10の動作の例を示す図である。図6は、ドローン10と他機ドローン101との距離が所定値以下になり、ドローン10が他機ドローン101から離れるように強制的に制御される例を示す。図6では、ステップS55で、ドローン10と他機ドローン101との距離が所定値Th以下と判定され、ステップS56及びS57で、ドローン10が他機ドローン101から矢印αの方向に離れるように制御されている。
 図7は、ドローン10と他機ドローン101の未来の位置との距離が所定値以下になり、ドローン10が他機ドローン101から離れるように強制的に制御される例を示す。図7では、実線の矢印TTがステップS54で特定される移動軌跡を示し、破線の矢印FTがステップS54で特定される未来の位置を示す。そして、ドローン10と未来の位置FTとの間の距離が所定値以下と判定され、ステップS56及びS57で、ドローン10が他機ドローン101から矢印βの方向に離れるように制御されている。
 以上に説明した本実施形態に係るドローン10は、ドローン10の駆動を制御する駆動制御部に対応するフライトコントローラ42と、ドローン10を遠隔制御する操作装置20と通信する通信部に対応する第1通信部51と、他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信する他機情報受信部に対応するリモートID受信部522と、を備える。これにより、他の移動体を高い信頼度で検出することが可能となる。
 すなわち、ドローン10は、リモートID受信部522で他の移動体の存在及び/又は位置を特定するための固有情報を無線で受信する。この場合、TOFで生じ得る検出対象物への赤外線の抜けや、カメラで生じ得る検出対象物の画角からの離脱の現象が生じないため、検出対象物である他の移動体から当該他の移動体の存在及び/又は位置を特定するための固有情報を全方位から確実に受信できる。また、ドローン10と他の移動体とが比較的離れていたとしても、固有情報を受信できる。特に本実施形態では、固有情報がリモートID制度で指定される情報であり、IEEE802.11規格又はBluetooth(登録商標)などの所定の規格にしたがって送信されるため、ドローン10と他の移動体との間の距離が例えば数百メートルならば、他の移動体からの固有情報を確実に受信できる。また、ドローン10は上空で他の移動体からの情報を受信できるため、障害物が原因で固有情報を受信し損なう状況も抑制される。よって、固有情報に基づいて、また固有情報を確実に収集し、他の移動体を高い信頼度で検出できるようになる。
 また、固有情報を受信した場合、ドローン10は、リモートID受信部522で受信した固有情報、固有情報を受信した旨、及び固有情報に基づいて検出した他の移動体の位置情報のうちの少なくともいずれかを操作装置20に送信することも可能となる。この場合、例えば操縦者Uが操作装置20で受信した情報に基づいて他の移動体を考慮しつつドローン10を操作でき、ドローン10の飛行の安全性を高めることができる。また、受信した他の移動体から送出された固有情報に基づきドローン10の位置精度情報を修正することにより、位置精度情報の精度の向上に固有情報を活用し得る。
 また、本実施形態では、リモートID受信部522で受信する固有情報に、少なくとも他の移動体の機体登録番号及び他の移動体の位置情報が含まれる。この場合、解析部42Aによる固有情報の復調より、容易に他の移動体の存在及び他の位置情報を特定できる。さらに、ドローン10の位置情報を考慮することにより、ドローン10に対する他の移動体の相対的な位置、並びに、ドローン10に対する他の移動体の距離及び方向を簡易に特定できる。また、リモートID受信部522で受信する固有情報には、他の移動体が固有情報を送出した時刻情報がさらに含まれる。この場合、例えば、他の移動体の移動軌跡を容易に特定できる。さらには、特定した移動軌跡に基づいて他の移動体の未来の位置を容易に特定できる。
 また、本実施形態では、フライトコントローラ42が固有情報に基づきドローン10の駆動を制御する。この場合、ドローン10が例えば自律的に他の移動体を回避するように動作し得る。これにより、ドローン10の飛行の安全性を効果的に高めることができる。
 具体的に本実施形態では、フライトコントローラ42が他の移動体の位置情報に基づいてドローン10の駆動を制御する。また、フライトコントローラ42は、他の移動体の未来の位置に基づいてドローン10の駆動を制御する。これにより、ドローン10の飛行の安全性を効果的に高めることができる。
 また、ドローン10は、受信した固有情報を記録する記録部に対応するメモリ80をさらに備える。これにより、例えば他の移動体の飛行状態を事後的に的確に分析することが可能となる。
 また、ドローン10は、ドローン10の周囲に存在する障害物を検出する検出部に対応するセンサモジュール30を備える。具体的には、ドローン10は、ステレオカメラ31及びTOFセンサ33により周囲に存在する障害物を検出する。この場合、ドローン10は、リモートID受信部522で受信する固有情報に基づく他の移動体の検出と、センサモジュール30とを協働させることにより、他の移動体をより高い信頼度で検出できる。具体的には、リモートID受信部522で受信する固有情報に基づく他の移動体の検出により遠方の他の移動体を検出し、センサモジュール30により近距離の他の移動体を検出することで、他の移動体の検出の信頼性を効果的に向上できる。
 また、リモートID受信部522で受信する固有情報に基づく他の移動体の検出により、センサモジュール30を簡素化することで、所望の物体検出性能を確保しつつ装置の簡素化や重量の抑制を図ることができる。
 また、本実施形態では、ドローン10は、受信した固有情報を解析し、固有情報が送出されている周期を特定してもよい。ここで、第1通信部51は、特定された周期に基づき、情報を送受信するタイミングを変更してもよい。この場合、ドローン10と操作装置20との間の通信状態を良好な状態に調整できる。
 以下、変形例について説明する。以下に説明する各変形例において上述の実施形態と同一のものには、同一の符号を付けている。
<変形例1>
 図8は、変形例1に係る通信モジュール50Aの構成を示す。変形例1は、リモートID受信部522が第1通信部51に設けられる点で上述の実施形態と異なっている。
 変形例1では、第1通信部51における操作装置用受信部512にリモートID受信部522が組み込まれ、リモートID受信部522は、操作装置用受信部512に設けられる復調回路を操作装置用受信部512と共有する。一方で、操作装置用受信部512は、第2アンテナ514と接続する。リモートID受信部522は、第4アンテナ524と接続する。リモートID受信部522は、第4アンテナ524から受信して操作装置用受信部512の復調回路で復調される情報を取り出し、アプリケーションプロセッサ41に提供する。
 操作装置用受信部512及びリモートID受信部522が共有する復調回路は、本例では、IEEE802.11規格及びBluetooth(登録商標)の両方で変調された信号を復調できる。これにより、IEEE802.11規格で送信される固有情報と、Bluetooth(登録商標)で送信される固有情報とを受信し、復調できる。なお、操作装置用受信部512及びリモートID受信部522は、アンテナを共有してもよい。
 以上に説明した変形例1では、通信モジュール50Aの簡素化及びコンパクト化の点で有利になる。
<変形例2>
 図9は、変形例2に係る通信モジュール50Bの構成を示す。変形例2は、第2通信部52が、リモートID送信部521とリモートID受信部522とを一体化したリモートID送受信部525を有する点で上述の実施形態と異なっている。リモートID送受信部525は、第3アンテナ523と第4アンテナ524とに接続している。
 詳しくは、リモートID送受信部525は、リモートID送信部521の対応部分で、IEEE802.11規格又はBluetooth(登録商標)にしたがってリモートID制度で指定される情報を固有情報として送信する。リモートID送受信部525は、リモートID受信部522の対応部分で、IEEE802.11規格及びBluetooth(登録商標)の両方にしたがってリモートID制度で指定される情報を固有情報として受信するようになっている。
 リモートID送信部521とリモートID受信部522との一体化の態様は、例えば、リモートID送信部521とリモートID受信部522とが同じ回路基板に設けられる構成でもよい。また、リモートID送信部521とリモートID受信部522との一体化の態様は、リモートID送信部521とリモートID受信部522とが互いに異なる回路基板に設けられ、共通のハウジングに収容される構成でもよい。
 以上に説明した変形例2でも、通信モジュール50Bの簡素化及びコンパクト化の点で有利になる。
<変形例3>
 図10は、変形例3に係る通信モジュール50Cの構成を示す。変形例3は、第1通信部51に第1リモートID受信部522Aが設けられ、第2通信部52に第2リモートID受信部522Bが設けられる点で上述の実施形態と異なっている。
 第1通信部51では、操作装置用送信部511が第1の通信方式で変調を行う変調回路を備える。そして、操作装置用受信部512は、第1の通信方式で復調を行う復調回路を備える。第1リモートID受信部522Aは、操作装置用受信部512に設けられる復調回路を操作装置用受信部512と共有する。そして、操作装置用受信部512及び第1リモートID受信部522Aは、第2アンテナ514を共有している。第1リモートID受信部522Aは、第2アンテナ514から受信して操作装置用受信部512の復調回路で復調される情報を取り出し、アプリケーションプロセッサ41に提供する。
 第2通信部52では、リモートID送信部521と、第2リモートID受信部522Bとが一体化されている。リモートID送信部521は、第1の通信方式とは異なる第2の通信方式で変調を行う変調回路を備える。そして、第2リモートID受信部522Bは、第2の通信方式で復調を行う復調回路を備える。そして、リモートID送信部521及び第2リモートID受信部522Bは、第3アンテナ523を共有する。
 すなわち、第1通信部51は、第1の通信方式で送信される他の移動体からの固有情報を受信でき、第2通信部52は、第2の通信方式で送信される他の移動体からの固有情報を受信できる。ここで、例えば、第1の通信方式はEEE802.11規格及びBluetooth(登録商標)のうちの一方であり、第2の通信方式はIEEE802.11規格及びBluetooth(登録商標)のうちの他方でもよい。
 以上に説明した変形例3でも、通信モジュール50Cの簡素化及びコンパクト化の点で有利になる。
<変形例4>
 図11は、変形例4に係る通信モジュール50Dの構成を示す。変形例4は、第1通信部51に、リモートID送信部521及びリモートID受信部522が設けられている点で上述の実施形態と異なっている。
 第1通信部51では、操作装置用送信部511が第1の通信方式及びこれと異なる第2の通信方式で変調を行う変調回路を備える。操作装置用受信部512は、第1の通信方式及び第2の通信方式で復調を行う復調回路を備える。そして、リモートID送信部521は、操作装置用送信部511に設けられる変調回路を共有する。さらに、リモートID送信部521は、操作装置用送信部511と第1アンテナ513を共有する。そして、リモートID送信部521は、操作装置用送信部511に設けられる変調回路を使って変調される固有情報を第1アンテナ513から送信する。
 一方で、リモートID受信部522は、操作装置用受信部512に設けられる復調回路を共有する。さらに、リモートID受信部522は、操作装置用受信部512と第2アンテナ514を共有する。そして、リモートID受信部522は、操作装置用受信部512に設けられる復調回路を使って復調される他の移動体からの固有情報をアプリケーションプロセッサ41に提供する。
 以上に説明した変形例4では、通信モジュール50Dの簡素化及びコンパクト化の点で非常に有利になる。
<ハードウェア構成>
 図12は、ドローン10のハードウェア構成の一例を示す。ドローン10の一部は、コンピュータ装置400により構成される。コンピュータ装置400は、CPU401と、入力インタフェース402と、外部インタフェース403と、通信装置404と、主記憶装置405と、外部記憶装置406とを備え、これらはバスにより相互に接続されている。これらの要素のうちの少なくとも1つを、ドローン10が備えていなくてもよい。
 CPU(中央演算装置)401は、主記憶装置405上で、コンピュータプログラムを実行する。コンピュータプログラムは、ドローン10の上述の各機能構成を実現するプログラムのことである。コンピュータプログラムは、1つのプログラムではなく、複数のプログラムやスクリプトの組み合わせにより実現されていてもよい。CPU401が、コンピュータプログラムを実行することにより、各機能構成は実現される。
 入力インタフェース402は、キーボード、マウス、およびタッチパネルなどの入力装置からの操作信号を、ドローン10に入力するための回路である。
 外部インタフェース403は、例えばドローン10に記憶されているデータ、又はドローン10で算出されたデータを表示装置に表示する。外部インタフェース403は、例えば、LCD(液晶ディスプレイ)、有機エレクトロルミネッセンスディスプレイ、CRT(ブラウン管)、またはPDP(プラズマディスプレイ)に接続されてもよい。
 通信装置404は、ドローン10が外部装置と無線または有線で通信するための回路である。通信装置404は、通信モジュール50などに対応する部分である。ドローン10で用いるデータを、通信装置404を介して外部装置から入力することができる。通信装置404はアンテナを含む。外部装置から入力したデータを、主記憶装置405や外部記憶装置406に格納することができる。
 主記憶装置405は、コンピュータプログラム、コンピュータプログラムの実行に必要なデータ、およびコンピュータプログラムの実行により生成されたデータなどを記憶する。コンピュータプログラムは、主記憶装置405上で展開され、実行される。主記憶装置405は、例えば、RAM、DRAM、SRAMであるが、これに限られない。通信装置404は、における情報やデータの記憶部は、主記憶装置405上に構築されてもよい。
 外部記憶装置406は、コンピュータプログラム、コンピュータプログラムの実行に必要なデータ、およびコンピュータプログラムの実行により生成されたデータなどを記憶する。これらのコンピュータプログラムやデータは、コンピュータプログラムの実行の際に、主記憶装置405に読み出される。外部記憶装置406は、例えば、ハードディスク、光ディスク、フラッシュメモリ、及び磁気テープであるが、これに限られない。
 なお、コンピュータプログラムは、コンピュータ装置400に予めインストールされていてもよいし、CD-ROMなどの記憶媒体に記憶されていてもよい。また、コンピュータプログラムは、インターネット上にアップロードされていてもよい。
 また、コンピュータ装置400は単一の装置により構成されてもよいし、相互に接続された複数のコンピュータ装置からなるシステムとして構成されてもよい。
 なお、上述の実施形態は本開示を具現化するための一例を示したものであり、その他の様々な形態で本開示を実施することが可能である。例えば、本開示の要旨を逸脱しない範囲で、種々の変形、置換、省略又はこれらの組み合わせが可能である。そのような変形、置換、省略などを行った形態も、本開示の範囲に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
 例えば、上述の実施形態では、無人移動体の例として、無人飛行体であるドローンの例が説明された。ただし、本開示の技術は、水中ドローンなどでも適用できる。
 また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果があってもよい。
 なお、本開示は以下のような構成を取ることもできる。
[項目1]
 無人移動体であって、
 前記無人移動体の駆動を制御する駆動制御部と、
 前記無人移動体を遠隔制御する操作装置と通信する通信部と、
 他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信する他機情報受信部と、を備える、無人移動体。
[項目2]
 前記無人移動体の周囲に存在する障害物を検出する検出部をさらに備える、項目1に記載の無人移動体。
[項目3]
 前記検出部は、カメラ、光学式測距センサ、ミリ波式測距センサ及び超音波式測距センサのうちのいずれか、又は、これらのうちの2つ以上の組合せである、項目2に記載の無人移動体。
[項目4]
 前記駆動制御部は、前記固有情報に基づき、前記無人移動体の駆動を制御する、項目1乃至3のいずれかに記載の無人移動体。
[項目5]
 前記固有情報を記録する記録部をさらに備える、項目1乃至4のいずれかに記載の無人移動体。
[項目6]
 前記固有情報には、少なくとも前記他の移動体の機体登録番号及び前記他の移動体の位置情報が含まれる、項目1乃至5のいずれかに記載の無人移動体。
[項目7]
 前記固有情報には、前記他の移動体が前記固有情報を送出した時刻情報がさらに含まれる、項目6に記載の無人移動体。
[項目8]
 前記駆動制御部は、前記無人移動体の位置情報、前記他の移動体の機体登録番号及び前記他の移動体の位置情報に基づいて、前記無人移動体に対する前記他の移動体の相対的な位置、並びに、距離及び方向のうちの少なくともいずれかを特定する、項目6又は7に記載の無人移動体。
[項目9]
 前記駆動制御部は、前記他の移動体の機体登録番号、前記他の移動体の位置情報及び前記他の移動体が前記固有情報を送出した時刻情報に基づいて、前記他の移動体の移動軌跡を特定する、項目7又は8に記載の無人移動体。
[項目10]
 前記駆動制御部は、前記他の移動体の位置情報に基づいて、前記無人移動体の駆動を制御する、項目1乃至9のいずれかに記載の無人移動体。
[項目11]
 前記駆動制御部は、前記移動軌跡に基づいて前記他の移動体の未来の位置を特定する、項目9に記載の無人移動体。
[項目12]
 前記駆動制御部は、前記他の移動体の未来の位置に基づいて、前記無人移動体の駆動を制御する、項目11に記載の無人移動体。
[項目13]
 前記通信部と前記他機情報受信部は一体化されている、項目1乃至12のいずれかに記載に無人移動体。
[項目14]
 前記固有情報を解析し、前記固有情報が前記他の移動体から送出されたものか否か及び/又は前記他の移動体の位置情報を特定する解析部をさらに備える、項目1乃至13のいずれかに記載の無人移動体。
[項目15]
 前記解析部は、前記固有情報が送出されている周期をさらに特定する、項目14に記載の無人移動体。
[項目16]
 前記通信部は、前記解析部が特定する前記周期に基づき、情報を送受信するタイミングを変更する、項目15に記載の無人移動体。
[項目17]
 前記固有情報は、移動体を移動させる際に、国又は地方公共団体から送出を義務付けられた情報である、項目1乃至16のいずれかに記載の無人移動体。
[項目18]
 前記固有情報は、無人飛行体の飛行に関して国(日本国、アメリカ合衆国、欧州連合など)が義務付けるリモートID制度で指定される情報である、項目1乃至17のいずれかに記載の無人移動体。
[項目19]
 無人移動体で行われる情報処理方法であって、
 他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信するステップを備える、無人移動体における情報処理方法。
[項目20]
 無人移動体で情報処理を実行するためのコンピュータプログラムであって、
 他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信するステップをコンピュータに実行させるためのコンピュータプログラム。
10…ドローン(無人移動体)
11…機体
20…操作装置
30…センサモジュール
31…ステレオカメラ
32…IMU
33…TOFセンサ
34…地磁気センサ
35…気圧センサ
36…GNSS受信部
40…センシングプロセッサ
41…アプリケーションプロセッサ
42…フライトコントローラ
42A…解析部
50,50A,50B,50C,50D…通信モジュール
500…他機通信モジュール
51…第1通信部
511…操作装置用送信部
512…操作装置用受信部
513…第1アンテナ
514…第2アンテナ
52…第2通信部
521…リモートID送信部
522…リモートID受信部
522A…第1リモートID受信部
522B…第2リモートID受信部
523…第3アンテナ
524…第4アンテナ
525…リモートID送受信部
60…前方カメラ
70…駆動モジュール
71…モータ
72…プロペラ
80…メモリ
101,102,103…他機ドローン(他の移動体)
110…飛行体監視設備
112…アンテナ
400…コンピュータ装置
401…CPU
402…入力インタフェース
403…外部インタフェース
404…通信装置
405…主記憶装置
406…外部記憶装置

Claims (20)

  1.  無人移動体であって、
     前記無人移動体の駆動を制御する駆動制御部と、
     前記無人移動体を遠隔制御する操作装置と通信する通信部と、
     他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信する他機情報受信部と、を備える、無人移動体。
  2.  前記無人移動体の周囲に存在する障害物を検出する検出部をさらに備える、請求項1に記載の無人移動体。
  3.  前記検出部は、カメラ、光学式測距センサ、ミリ波式測距センサ及び超音波式測距センサのうちのいずれか、又は、これらのうちの2つ以上の組合せである、請求項2に記載の無人移動体。
  4.  前記駆動制御部は、前記固有情報に基づき、前記無人移動体の駆動を制御する、請求項1に記載の無人移動体。
  5.  前記固有情報を記録する記録部をさらに備える、請求項1に記載の無人移動体。
  6.  前記固有情報には、少なくとも前記他の移動体の機体登録番号及び前記他の移動体の位置情報が含まれる、請求項1に記載の無人移動体。
  7.  前記固有情報には、前記他の移動体が前記固有情報を送出した時刻情報がさらに含まれる、請求項6に記載の無人移動体。
  8.  前記駆動制御部は、前記無人移動体の位置情報、前記他の移動体の機体登録番号及び前記他の移動体の位置情報に基づいて、前記無人移動体に対する前記他の移動体の相対的な位置、並びに、距離及び方向のうちの少なくともいずれかを特定する、請求項6に記載の無人移動体。
  9.  前記駆動制御部は、前記他の移動体の機体登録番号、前記他の移動体の位置情報及び前記他の移動体が前記固有情報を送出した時刻情報に基づいて、前記他の移動体の移動軌跡を特定する、請求項7に記載の無人移動体。
  10.  前記駆動制御部は、前記他の移動体の位置情報に基づいて、前記無人移動体の駆動を制御する、請求項6に記載の無人移動体。
  11.  前記駆動制御部は、前記移動軌跡に基づいて前記他の移動体の未来の位置を特定する、請求項9に記載の無人移動体。
  12.  前記駆動制御部は、前記他の移動体の未来の位置に基づいて、前記無人移動体の駆動を制御する、請求項11に記載の無人移動体。
  13.  前記通信部と前記他機情報受信部は一体化されている、請求項1に記載に無人移動体。
  14.  前記固有情報を解析し、前記固有情報が前記他の移動体から送出されたものか否か及び/又は前記他の移動体の位置情報を特定する解析部をさらに備える、請求項1に記載の無人移動体。
  15.  前記解析部は、前記固有情報が送出されている周期をさらに特定する、請求項14に記載の無人移動体。
  16.  前記通信部は、前記解析部が特定する前記周期に基づき、情報を送受信するタイミングを変更する、請求項15に記載の無人移動体。
  17.  前記固有情報は、移動体を移動させる際に、国又は地方公共団体から送出を義務付けられた情報である、請求項1に記載の無人移動体。
  18.  前記固有情報は、無人飛行体の飛行に関して国が義務付けるリモートID制度で指定される情報である、請求項17に記載の無人移動体。
  19.  無人移動体で行われる情報処理方法であって、
     他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信するステップを備える、無人移動体における情報処理方法。
  20.  無人移動体で情報処理を実行するためのコンピュータプログラムであって、
     他の移動体から送出される当該他の移動体の存在及び/又は位置を特定するための固有情報を受信するステップをコンピュータに実行させるためのコンピュータプログラム。
PCT/JP2023/009837 2022-03-31 2023-03-14 無人移動体、情報処理方法及びコンピュータプログラム WO2023189534A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022060789 2022-03-31
JP2022-060789 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023189534A1 true WO2023189534A1 (ja) 2023-10-05

Family

ID=88201603

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/009837 WO2023189534A1 (ja) 2022-03-31 2023-03-14 無人移動体、情報処理方法及びコンピュータプログラム

Country Status (1)

Country Link
WO (1) WO2023189534A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250627A (ja) * 1999-02-26 2000-09-14 Matsushita Electric Ind Co Ltd 無人搬送車の走行制御方法
JP2000339029A (ja) * 1999-05-31 2000-12-08 Komatsu Ltd 車両の干渉防止装置
JP2013128309A (ja) * 2010-12-28 2013-06-27 Sanyo Electric Co Ltd 送信装置および受信装置
JP2017526280A (ja) * 2015-03-31 2017-09-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機を制御するシステム
JP2021039403A (ja) * 2019-08-30 2021-03-11 Necプラットフォームズ株式会社 配信装置、飛行体、飛行システム、それらの方法及びプログラム
WO2021065543A1 (ja) * 2019-09-30 2021-04-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250627A (ja) * 1999-02-26 2000-09-14 Matsushita Electric Ind Co Ltd 無人搬送車の走行制御方法
JP2000339029A (ja) * 1999-05-31 2000-12-08 Komatsu Ltd 車両の干渉防止装置
JP2013128309A (ja) * 2010-12-28 2013-06-27 Sanyo Electric Co Ltd 送信装置および受信装置
JP2017526280A (ja) * 2015-03-31 2017-09-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機を制御するシステム
JP2021039403A (ja) * 2019-08-30 2021-03-11 Necプラットフォームズ株式会社 配信装置、飛行体、飛行システム、それらの方法及びプログラム
WO2021065543A1 (ja) * 2019-09-30 2021-04-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
US11754696B2 (en) Search and rescue UAV system and method
CN106687878B (zh) 用于利用视觉标记进行监视的系统和方法
CN112335190B (zh) 无线电链路覆盖图和减损系统及方法
US20190346562A1 (en) Systems and methods for radar control on unmanned movable platforms
JP2018537335A (ja) 無人航空機の飛行を制御する方法及びシステム
US11455892B2 (en) Portable air-traffic control system for drones
WO2016201359A1 (en) A low altitude aircraft identification system
US20220284786A1 (en) UASTrakker - Emergency Radio Frequency Locator for Drones and Robots
US20190295428A1 (en) UASTrakker - Emergency RF locator for drones and robots
EP3683780A1 (en) Obstacle detection using camera mounted on protrusion of vehicle
CN110997488A (zh) 动态控制用于处理传感器输出数据的参数的系统和方法
WO2023189534A1 (ja) 無人移動体、情報処理方法及びコンピュータプログラム
US20220238987A1 (en) Mobile surveillance systems extendable mast control systems and methods
WO2022000245A1 (zh) 飞行器的定位方法、辅助定位系统的控制方法和装置
WO2023219025A1 (en) Information processing method, mobile body, communication device, and computer program
US20220189319A1 (en) Mobile surveillance systems and methods for uas operational support
US20230002046A1 (en) Accessory port systems and methods for unmanned aerial vehicles
EP4083736A1 (en) Mobile platform systems and methods using mesh networks
US20230030222A1 (en) Operating modes and video processing for mobile platforms
KR102289743B1 (ko) 복수의 무인항공기를 이용한 목표를 탐색하기 위한 장치 및 이를 위한 방법
WO2023053269A1 (ja) 制御装置、制御方法、及び無人航空機探索システム
JP6561270B2 (ja) 無人移動体およびこれを用いた無人移動体システム
KR20220031574A (ko) 3차원 측위 및 지도작성 시스템 및 방법
EP3312560A1 (en) Method and system for indoor navigation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23779554

Country of ref document: EP

Kind code of ref document: A1