WO2022196515A1 - 飛行制御システム - Google Patents

飛行制御システム Download PDF

Info

Publication number
WO2022196515A1
WO2022196515A1 PCT/JP2022/010554 JP2022010554W WO2022196515A1 WO 2022196515 A1 WO2022196515 A1 WO 2022196515A1 JP 2022010554 W JP2022010554 W JP 2022010554W WO 2022196515 A1 WO2022196515 A1 WO 2022196515A1
Authority
WO
WIPO (PCT)
Prior art keywords
unmanned aerial
aerial vehicle
flight
unit
control device
Prior art date
Application number
PCT/JP2022/010554
Other languages
English (en)
French (fr)
Inventor
望 三浦
Original Assignee
株式会社RedDotDroneJapan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=83320580&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2022196515(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 株式会社RedDotDroneJapan filed Critical 株式会社RedDotDroneJapan
Priority to EP22771266.8A priority Critical patent/EP4309999A1/en
Publication of WO2022196515A1 publication Critical patent/WO2022196515A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/20Transmission of mechanical power to rotors or propellers
    • B64U50/23Transmission of mechanical power to rotors or propellers with each propulsion means having an individual motor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/222Remote-control arrangements operated by humans
    • G05D1/224Output arrangements on the remote controller, e.g. displays, haptics or speakers
    • G05D1/2244Optic
    • G05D1/2245Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality
    • G05D1/2246Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality displaying a map of the environment
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/646Following a predefined trajectory, e.g. a line marked on the floor or a flight path
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/60Specific applications of the controlled vehicles for sport or gaming activities
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/20Land use
    • G05D2107/24Sports fields, e.g. golf courses
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/20Aircraft, e.g. drones
    • G05D2109/25Rotorcrafts
    • G05D2109/254Flying platforms, e.g. multicopters

Definitions

  • the present invention relates to a flight control system for an aircraft.
  • UAVs unmanned aerial vehicles
  • Known methods for controlling the flight of an aircraft include, for example, a method of manually operating a control device such as a so-called "propo” and a method of autonomous flight according to a preset flight plan ( See Patent Document 1).
  • An object of the present invention is to provide a flight control system that allows safe manual control of an aircraft without requiring advanced control techniques.
  • a control device having an operation input unit, and an unmanned aerial vehicle capable of flight control based on a control signal from the control device
  • the unmanned aerial vehicle is a propulsion mechanism including a plurality of rotor blades; a position estimation unit that estimates the position of the unmanned aerial vehicle; an attitude estimation unit that estimates the attitude of the unmanned aerial vehicle; a speed estimating unit that estimates the moving speed of the unmanned aerial vehicle; a flight control unit that controls the propulsion mechanism based on information including the current position, attitude, and speed of the unmanned aerial vehicle;
  • the flight control unit flies along a virtual flight line set in advance on map data based on a control signal transmitted from the control device in response to an operation of the operation input unit in one axial direction by the operator.
  • a flight control system is provided, characterized in that it controls the propulsion mechanism so as to:
  • FIG. 1 is a diagram showing the configuration of a flight control system according to the present invention
  • FIG. 2 is a functional block diagram showing the configuration of the aircraft of FIG. 1
  • FIG. FIG. 2 is a functional block diagram showing the configuration of the control device of FIG. 1
  • It is a top view which shows an example of a flight line.
  • FIG. 10 is a plan view showing another example of a flight line;
  • FIG. 11 is a plan view showing still another example of a flight line;
  • a flight control system has the following configuration.
  • a control device having an operation input unit, and an unmanned aerial vehicle capable of flight control based on a control signal from the control device,
  • the unmanned aerial vehicle is a propulsion mechanism including a plurality of rotor blades; a position estimation unit that estimates the position of the unmanned aerial vehicle; an attitude estimation unit that estimates the attitude of the unmanned aerial vehicle; a speed estimating unit that estimates the moving speed of the unmanned aerial vehicle; a flight controller that controls the propulsion mechanism based on the current position, attitude, and speed of the unmanned aerial vehicle;
  • the flight control unit flies along a virtual flight line set in advance on map data based on a control signal transmitted from the control device in response to an operation of the operation input unit in one axial direction by the operator.
  • the control device or the unmanned aerial vehicle has a flight line setting unit that sets the flight line based on position information of two points on the map data corresponding to both ends of the flight line.
  • flight control system [Item 3]
  • the unmanned aerial vehicle is a direction estimating unit that estimates a heading direction of the unmanned aerial vehicle; 3.
  • the unmanned aerial vehicle is an imaging unit capable of capturing an image; a shooting direction estimation unit that estimates the shooting direction of the imaging unit; 4.
  • the flight control system further comprising: an imaging direction control unit that changes the imaging direction by controlling a heading direction of the unmanned aerial vehicle or a direction of a gimbal that supports the imaging unit.
  • an imaging direction control unit that changes the imaging direction by controlling a heading direction of the unmanned aerial vehicle or a direction of a gimbal that supports the imaging unit.
  • a system 1 includes a control device 10 operated by an operator and an unmanned aerial vehicle 20 capable of flying based on control signals transmitted from the control device 10 .
  • the operator can manually control flight of the unmanned aerial vehicle 20, and by operating the operation input unit 13 of the control device 10 in one axial direction, a preset virtual flight line FL can be achieved.
  • An unmanned aerial vehicle 20 can be flown along.
  • a management terminal, a repeater, or the like connected to the control device 10 and the unmanned aerial vehicle 20 via a network may be provided.
  • the control device 10 has functional blocks shown in FIG.
  • the control device 10 includes a control unit 11 , a storage unit 12 , an operation input unit 13 , a transmission/reception unit 14 , a display unit 15 and a flight line setting unit 16 .
  • the functional blocks in FIG. 2 are reference configurations, and the control device 10 may include other configuration units (for example, operation units such as buttons) other than those described above.
  • the control unit 11 has, for example, a processor.
  • the control unit 11 performs signal processing (generation, output, transmission/reception) for overall control of the operation of each unit of the control device 10, data input/output processing with other units, data arithmetic processing, and data processing. Apply amnestics.
  • the control unit 11 can generate an operation signal for controlling the flight of the unmanned aerial vehicle 20 based on the operation of the operation input unit 13 by the operator, while referring to the information stored in the storage unit 12 as appropriate. .
  • the control unit 11 can transmit this steering signal to the unmanned aerial vehicle 20 (via the transmission/reception unit 14) to remotely control the unmanned aerial vehicle 20.
  • the control device 10 can remotely control the movement of the unmanned aerial vehicle 20 .
  • Flight controls 10 may transmit signals to unmanned aerial vehicle 20 that change flight direction, flight speed, flight acceleration, and the like.
  • the storage unit 12 has, for example, a ROM that stores a program that defines the operation of the control device 10 and set value data, and a RAM that temporarily stores various information and data used during processing by the control unit 11 . You can
  • the storage unit 12 may include memory other than ROM and RAM.
  • the storage unit 12 may be provided inside the control device 10 or may be provided detachably from the control device 10 .
  • the storage unit 12 can store information about the flight line FL.
  • the transmitting/receiving unit 14 has a configuration in which a transmitting unit that transmits a control signal or the like based on an operation input to the unmanned aerial vehicle 20 and a receiving unit that receives signals from the unmanned aerial vehicle or the like are integrated. may be provided separately.
  • Transceiver 14 may use any suitable means of communication, such as wired or wireless communication.
  • the transceiver 25 utilizes one or more of local area networks (LAN), wide area networks (WAN), infrared, wireless, WiFi, point-to-point (P2P) networks, telecommunications networks, cloud communications, and the like. can do.
  • the transmission/reception unit 25 may include a short-range communication interface such as Bluetooth (registered trademark) and BLE (Bluetooth Low Energy).
  • the display unit 15 displays various information acquired by the control device 10 (for example, images received from the unmanned aerial vehicle 20, flight data, etc.).
  • the display unit 15 may be provided inside or outside the control device 10 , or may be provided detachably from the control device 10 .
  • the display unit 15 may be composed of a touch panel capable of receiving various inputs.
  • the operation input unit 13 receives operation input by the operator.
  • the operation input unit 13 is configured to allow operation input in at least one axial direction.
  • the uniaxial operation input includes an operation input to one side from a neutral state and an operation input to the other side.
  • One side and the other side of the operation input unit 13 in the uniaxial direction respectively correspond to the flight directions of the one side and the other side along the flight line FL of the unmanned aerial vehicle 20 .
  • the operation input unit 13 is composed of a control stick that can be tilted left and right, a pair of left and right push buttons (including left and right buttons of a cross key, etc.), or a rotary dial, etc., but is not particularly limited. do not have.
  • the operation input unit 13 is a control stick
  • the control signal based on the operation input to one side and the other side in the uniaxial direction is transmitted from the transmitter (transceiver 14) of the control device 10 to the unmanned aerial vehicle 20 .
  • One axial direction of the operation input unit 13 can be, for example, the left-right direction, the front-rear direction, or the up-down direction (push-pull direction), but is not particularly limited.
  • the operable direction of the operation input unit 13 is limited to the one-axis direction described above, but it is not limited to this. Since the operation input unit 13 of this example is limited to the operation input in the horizontal direction, the operation is not complicated, and the unmanned aerial vehicle 20 can be easily manually operated.
  • the control device 10 may also include a flight start button or the like for issuing a request to start flight.
  • a flight start button for example, the control unit 11 of the control device 10 refers to the storage unit 12, outputs a control signal instructing flight to a predetermined position, and transmits the control signal to the unmanned aerial vehicle 20.
  • the unmanned aerial vehicle 20 installed on the ground and stationary receives the control signal, it autonomously flies to a predetermined aerial position (predetermined latitude, longitude, and altitude) and hovers at the position.
  • All or part of the control device 10 may be configured by an information processing device such as a smartphone or tablet terminal having a touch panel screen, for example.
  • an image icon such as a control stick displayed on the screen of the touch panel constitutes the operation input section.
  • Tap put your finger in contact with the screen
  • slide moving your finger in any direction while keeping your finger in contact with the screen
  • various operation inputs can be performed.
  • the control unit 11 of the piloting device 10 When the operator executes a maneuvering operation such as tilting the operation input unit 13 to one side or the other side in one axial direction, the control unit 11 of the piloting device 10 outputs a maneuvering signal corresponding to the operation input, and the unmanned aerial vehicle 20 is operated.
  • the steering signal includes information about the direction (one side or the other side) and information about the degree of operation (tilt angle of the steering stick, movement distance of the operation icon on the touch panel, etc.).
  • the flight direction of the unmanned aerial vehicle 20 is controlled based on the direction information in the steering signal.
  • the flight speed of the unmanned aerial vehicle 20 is controlled based on the information about the degree of operation in the steering signal.
  • the control device 10 can output a signal indicating the flight direction (horizontal movement direction) of the unmanned aerial vehicle 20 along the flight line FL, and transmit the signal to the unmanned aerial vehicle 20 .
  • the control device 10 of the present example can transmit a signal indicating the flight speed of the unmanned aerial vehicle 20 .
  • the control device 10 provides an instruction regarding the flight altitude of the unmanned aerial vehicle 20, a takeoff instruction, a landing instruction, a hovering (stop in the air) instruction, an instruction to change the direction of the camera 26 (shooting direction), and an instruction to change the direction of the aircraft (heading direction). It is also possible to output a control signal indicating an instruction to change or the like and transmit it to the unmanned aerial vehicle 20 .
  • the shooting direction may be changed by controlling the gimbal 27 of the camera 26, or the shooting direction may be changed by changing the orientation of the aircraft.
  • the transmitting/receiving unit 14 can receive a signal from the unmanned aerial vehicle 20.
  • a signal from the unmanned aerial vehicle 20 For example, an image captured by the camera 26 of the unmanned aerial vehicle 20 and a sound acquired by the microphone can be displayed on the display unit 15 (monitor, etc.) of the control device 10 or output from a speaker.
  • the control device 10 includes a flight line setting section 16 for setting the flight line FL.
  • the flight line setting unit 16 stores an arbitrary shape flight line FL in the storage unit, for example, based on position information of two points corresponding to both ends of the flight line FL and shape information of a line connecting the two points. It can be set on the map data that has been created.
  • the flight line setting unit 16 can set a straight line (line segment) connecting the two points as the flight line FL based only on the position information of the two points.
  • shape information of lines other than straight lines can be input by a user or the like by drawing through an input unit such as a touch panel.
  • the flight line setting unit 16 sets a flight line based on information on the shape and position of one line input (drawn or selected) by the operator or the like on a two-dimensional planar map displayed on a touch panel or the like. FL can be set.
  • the flight line setting unit 16 may be provided in the unmanned aerial vehicle 20, or may be provided in a management terminal or the like connected to the control device 10 or the unmanned aerial vehicle via a network.
  • the management terminal can, for example, simultaneously exchange information with one or more unmanned aerial vehicles and manage the flight of one or more unmanned aerial vehicles.
  • the management terminal is connected to, for example, a database.
  • the management terminal may be a general-purpose computer such as a workstation or personal computer, or may be logically implemented by cloud computing.
  • the management terminal includes, for example, a processor, memory, storage, transmission/reception section, input/output section, etc. These are electrically connected to each other through a bus.
  • the unmanned aerial vehicle 20 (UAV) in the present embodiment is called an aircraft, drone, multicopter, RPAS (remote piloted aircraft systems), or UAS (Unmanned Aircraft Systems). may be
  • the unmanned aerial vehicle 20 has functional blocks shown in FIG. Note that the functional blocks in FIG. 3 are reference configurations, and can be changed as appropriate.
  • the unmanned aerial vehicle 20 includes a flight controller 21 (flight control unit), a memory 22 (storage unit), sensors 23, a battery 24, a transmission/reception unit 25, a camera 26 (imaging unit), a gimbal 27, an ESC 29, a motor 30, and a propeller 31. (Rotary wings).
  • the camera 26 may be fixed to the body of the unmanned aerial vehicle 20 without providing the gimbal 27 . By providing the gimbal 27, the orientation of the camera 26 with respect to the body of the unmanned aerial vehicle 20 can be changed.
  • the flight controller 21 is a so-called processing unit.
  • a processing unit may comprise one or more processors, such as a programmable processor (eg, central processing unit (CPU), MPU, or DSP).
  • the processing unit has access to memory 22 .
  • Memory 22 stores logic, code, and/or program instructions that are executable by the processing unit to perform one or more steps.
  • Memory 22 may include, for example, separable media or external storage devices such as SD cards and random access memory (RAM). Data acquired from cameras and sensors 23 may be communicated directly to memory 22 and stored. For example, still image/moving image data captured by the camera 26 or the like is recorded in the built-in memory or the external memory.
  • the processing unit includes a control module configured to control the state of unmanned aerial vehicle 20 .
  • the control module may adjust the spatial orientation, velocity, and/or acceleration of unmanned aerial vehicle 20, which has six degrees of freedom (translational motions x , y , and z , and rotational motions ⁇ x, ⁇ y, and ⁇ z). It also controls the propulsion mechanism (ESC 29, motor 30, propeller 31, etc.) of the unmanned aerial vehicle 20.
  • the control module can control one or more of the states of the mount, sensors 23 .
  • the flight controller 21 can control the flight of the unmanned aerial vehicle 20 based on control signals from the control device 10 .
  • the flight controller 21 also controls the unmanned aerial vehicle 20 based on map information including two-dimensional or three-dimensional map data stored in the storage unit, current position information, attitude information, speed information, acceleration information, etc. of the unmanned aerial vehicle 20 .
  • 20 flights can be controlled.
  • the flight controller 21 can control the propulsion mechanism so that the unmanned aerial vehicle 20 flies to one side or the other side along the flight line FL based on the above various information and the received control signal.
  • the flight controller 21 controls the propulsion mechanism so that the unmanned aerial vehicle 20 moves along the flight line FL (so that the unmanned aerial vehicle 20 does not deviate from the flight line FL) regardless of the heading direction of the unmanned aerial vehicle 20. be able to.
  • the flight controller 21 acquires information on the current heading direction of the unmanned aerial vehicle 20 and controls the number of rotations of each propeller 31 based on the information on the heading direction.
  • the flight controller 21 can also perform flight control so that the heading direction is always constant and does not change when the unmanned aerial vehicle 20 moves on the flight line FL.
  • the processing unit can communicate with a transceiver 25 configured to send and/or receive data from one or more external devices (eg, terminals, displays, or other remote controls).
  • Transceiver 25 may use any suitable means of communication, such as wired or wireless communication.
  • the transceiver 25 utilizes one or more of local area networks (LAN), wide area networks (WAN), infrared, wireless, WiFi, point-to-point (P2P) networks, telecommunications networks, cloud communications, and the like. can do.
  • the transmission/reception unit 25 may include a short-range communication interface such as Bluetooth (registered trademark) and BLE (Bluetooth Low Energy).
  • the transmission/reception unit 25 receives one of data acquired by the camera 26 and the sensors 23, processing results generated by the processing unit, predetermined control data, user commands (operation signals) from the control device 10 or management terminal, and the like. More can be sent and/or received.
  • the sensors 23 may include inertial sensors (acceleration sensors, gyro sensors), GPS sensors, proximity sensors (eg lidar), or vision/image sensors (eg cameras).
  • inertial sensors acceleration sensors, gyro sensors, GPS sensors, proximity sensors (eg lidar), or vision/image sensors (eg cameras).
  • the unmanned aerial vehicle 20 has a position estimation unit for estimating the current position of the unmanned aerial vehicle 20.
  • the position estimation unit is based on latitude and longitude coordinate information obtained from a GNSS (global navigation satellite system) such as GPS, altitude information obtained from an atmospheric pressure sensor, etc., based on two-dimensional
  • the current position of the unmanned aerial vehicle 20 is estimated on map data such as a planar map or a three-dimensional spatial map.
  • Flight controller 21 may control the propulsion mechanism to keep unmanned aerial vehicle 20 on the flight line based on the current position of unmanned aerial vehicle 20 .
  • the unmanned aerial vehicle 20 has an attitude estimation unit that estimates the current attitude of the unmanned aerial vehicle 20 .
  • the attitude estimation unit estimates the current attitude (inclination) of the unmanned aerial vehicle 20 based on information obtained from the inertial sensor.
  • the unmanned aerial vehicle 20 also has a speed estimator that estimates the current moving speed of the unmanned aerial vehicle 20 .
  • the speed estimator estimates the speed, for example, based on data obtained from an inertial sensor.
  • the unmanned aerial vehicle 20 also has a direction estimation unit that estimates the current direction (heading direction) of the unmanned aerial vehicle 20 .
  • the direction estimator estimates the heading direction based on, for example, direction data obtained from a sensor such as a compass provided on the body (main body) of the unmanned aerial vehicle 20 .
  • the unmanned aerial vehicle 20 has a shooting direction estimation unit that estimates the shooting direction of the imaging unit.
  • the shooting direction estimator estimates the shooting direction based on direction data or the like obtained from a sensor such as the camera 26, the gimbal 27, or a compass provided on the aircraft.
  • the data obtained from the unmanned aerial vehicle 20 includes position information (including altitude information), attitude information, speed information, remaining battery level, signal strength, camera image information, camera direction (shooting direction), , zoom in/zoom out, etc., any data that can be obtained from the sensors provided by the unmanned aerial vehicle 20 .
  • the flight information of the unmanned aerial vehicle 20 and the obtained data may be transmitted to the control device 10, or may be transmitted to the management terminal via a repeater or the like as necessary.
  • the operation device 10 generates a signal for instructing start/stop of photographing by the camera, change of the direction of the camera (imaging direction), zoom-in/zoom-out, etc. based on the operator's operation input, and sends the command to the unmanned aerial vehicle 20. can be sent.
  • the method of setting the flight line FL is not limited to this example, and can be set by any method using the control device 10, the unmanned aerial vehicle 20, or a management terminal or the like connected via a network.
  • the set flight line FL is stored in the control device 10, the unmanned aerial vehicle 20, or the storage unit (12, 22, etc.) of the management terminal or the like connected via a network.
  • the flight line FL means a linear flightable range virtually set at a predetermined altitude in the air, and is composed of one continuous line as a whole.
  • the flight line FL is set in advance before the unmanned aerial vehicle 20 starts flying.
  • the flight line FL can be a single linear configuration continuous from one end to the other (see FIGS. 1, 4 and 5) or can be a circular configuration consisting of a single line. (See Figure 6).
  • FIG. 1 shows a flight line FL set above one side line SL on a court for sports such as soccer.
  • the soccer court shown in FIG. 1 is rectangular in plan view, and has a pair of side lines SL (touch lines) forming long sides and a pair of goal lines GL forming short sides.
  • the flight line setting unit 16 can, for example, acquire positional information of two points P1 and P2 located at both ends of the sideline SL, and set the flight line FL based on the positional information of the two points P1 and P2. .
  • the flight The line setting unit 16 acquires information on the latitude and longitude of the point P1.
  • the latitude and longitude information of the point P2 at the other end of the sideline SL is acquired.
  • the flight line setting unit 16 can set a straight line (line segment) connecting the two points as the flight line FL on the two-dimensional planar map.
  • the altitude (ground altitude or sea level altitude) of the flight line FL can be a predetermined altitude (for example, 10 m, etc.) set in advance and stored in the storage unit 12 or the like.
  • the operator or the like sets the flight line FL, it may be possible to set it to an arbitrary height.
  • the altitude of the flight line FL may be set to a constant height as a whole, or may be set to partially different heights.
  • an altitude numerical value may be input from an input unit such as a touch panel provided on the control device 10, or a preset You may make it select-input from altitude options (for example, 5m, 10m, 20m, etc.).
  • the flight line FL is not limited to a straight line as a whole as in this example, and may have a curved portion such as an arc, or a bent portion that bends at a predetermined angle (acute angle, right angle, or obtuse angle). Alternatively, all or part thereof may be in an arbitrary curved shape.
  • the flight line setting unit 16 is based on input information such as the starting point (one end), the terminal point (the other end), the center of curvature, the radius of curvature, the angle of curvature, and the position information of the corners (points of curvature) of the curved portion and the curved portion.
  • a flight line FL can be set.
  • the flight line setting unit 16 also stores information (coordinate information of latitude and longitude) on one point corresponding to one end of the flight line FL, and the distance (m ) and direction (azimuth) information, it is also possible to set the flight line FL.
  • FIGS. 4, 5, and 6 are plan views illustrating flight lines FL.
  • the flight line FL shown in FIG. 4 has a wavy configuration in which substantially arc-shaped curves are alternately connected from one end to the other end.
  • the unmanned aerial vehicle 20 moves to one side (direction toward one end) or the other side along the wavy flight line FL. (towards the other end), fly. Note that when the operator does not operate the operation input unit 13, the unmanned aerial vehicle 20 hovers on the flight line FL.
  • the flight line FL shown in FIG. 5 has four bends between one end and the other end.
  • the flight line setting unit 16 for example, provides positional information on six points corresponding to one end, the other end, and four bends, and information on the shape of lines (in this example, five straight lines) that connect them.
  • a flight line FL can be set based on. Also in the case of FIG. 5, the unmanned aerial vehicle 20 moves toward one side or the other side along the curved flight line FL as in the case of FIG.
  • the flight line FL shown in FIG. 6 has a square shape with four bends.
  • the flight line setting unit 16 determines the flight line FL based on the position information of four points corresponding to the four bends and the information on the shape of lines connecting them (four straight lines in this example). can be set.
  • the unmanned aerial vehicle 20 moves so as to circle to one side or the other side along the circular flight line FL.
  • the annular flight line FL is not limited to a rectangular configuration in plan view, and may be square or other polygonal, circular, elliptical, or the like. If the flight line FL is circular, for example, the flight line FL can be set based on information on the position of the center of the circle and information on the radius (diameter).
  • the flight line FL can be set based on the positional information of and the information on the major axis and the minor axis.
  • the flight line FL is transmitted to the storage unit 12 of the control device 10 and/or the unmanned aerial vehicle 20 and stored in the memory 22 of the unmanned aerial vehicle 20 .
  • the flight controller 21 of the unmanned aerial vehicle 20 operates on the flight line FL based on the information of the flight line FL on map data such as a two-dimensional map or a three-dimensional map, and information on the current position, attitude, speed, etc. of the unmanned aerial vehicle.
  • a propulsion mechanism, such as each propeller 31, can be controlled so that the unmanned aerial vehicle 20 stays on the ground.
  • the flight controller 21 may further control the propulsion mechanism based on information on the heading direction and acceleration of the unmanned aerial vehicle 20 .
  • Control example 1 An example of flight control according to this embodiment will be described below with reference to FIG. In this example, a case will be described in which the camera 26 of the unmanned aerial vehicle 20 is used to photograph a game such as soccer. Note that the flight line FL is set in advance before the start of flight by the above method or the like.
  • the operator selects and inputs an automatic levitation button or the like on the control device 10 while the unmanned aerial vehicle 20 is placed on the ground.
  • a signal instructing automatic levitation to the flight line FL is transmitted from the control device 10 to the unmanned aerial vehicle 20 .
  • the flight controller 21 controls the propulsion mechanism so that the unmanned aerial vehicle 20 automatically rises to a preset altitude and hovers on the flight line FL.
  • the unmanned aerial vehicle 20 it is preferable to place the unmanned aerial vehicle 20 on the ground line (the sideline SL in this example) corresponding to the flight line FL. By doing so, the unmanned aerial vehicle 20 can be moved onto the flight line FL simply by floating the unmanned aerial vehicle 20 directly upward.
  • the unmanned aerial vehicle 20 hovers at the center position of the flight line FL directly above.
  • the operator can operate the operation input unit 13 in one axial direction (horizontal direction, etc.) to control the movement direction, movement speed, etc. of the unmanned aerial vehicle 20 along the flight line FL.
  • the operator may operate the unmanned aerial vehicle 20 while looking at it, or operate it while looking at the image displayed on the monitor screen of the control device 10 (real-time image captured by the camera 26 of the unmanned aerial vehicle 20). operation may be performed.
  • the unmanned aerial vehicle 20 moves to one side along the flight line FL (for example, horizontally flies), When an operation input is made in the other side of the uniaxial direction, the unmanned aerial vehicle 20 moves to the other side along the flight line FL.
  • One side and the other side in the uniaxial direction of the operation input unit 13 respectively correspond to the one side and the other side along the flight line FL.
  • tilting the operation input unit 13 to the left causes the unmanned aerial vehicle 20 to move to one side along the flight line FL, and tilt the operation input unit 13 to the right.
  • the unmanned aerial vehicle 20 moves to the other side along the flight line FL.
  • the unmanned aerial vehicle 20 While the operator operates the operation input unit 13 of the control device 10 to one side, the unmanned aerial vehicle 20 moves toward one end along the flight line FL based on the control signal from the control device 10. continue. However, when the unmanned aerial vehicle 20 reaches one end of the flight line FL, the unmanned aerial vehicle 20 does not continue to move even if the operator inputs the operation input unit 13 of the control device 10 to one side. Hover at one end position. That is, the unmanned aerial vehicle 20 is flight-controlled so as to stay on the flight line FL. The same applies when the operator operates the operation input unit 13 of the control device 10 to the other side, and moves along the flight line FL toward the other end until reaching the other end of the flight line FL. When it reaches the edge, it will hover without moving any further. In this manner, the unmanned aerial vehicle 20 can be flight-controlled so as to automatically stay on the preset flight line FL while realizing simple manual operation by the control device 10 .
  • the operator can easily adjust the position of the unmanned aerial vehicle 20 on the flight line FL only by operating the operation input unit 13 in one axial direction.
  • an operator who has no experience of operating the unmanned aerial vehicle 20 can easily use the camera 26 of the unmanned aerial vehicle 20 to photograph a soccer match or the like.
  • the unmanned aerial vehicle 20 when photographing with the unmanned aerial vehicle 20, it is possible to appropriately photograph the photographing target by adjusting the position of the unmanned aerial vehicle 20 on the flight line FL according to the position of the person or object to be photographed. becomes.
  • the flight controller 21 of the unmanned aerial vehicle 20 automatically performs flight control so that the unmanned aerial vehicle 20 stays on the flight line FL, the unmanned aerial vehicle 20 may fly in an unintended direction due to operator error or the like. There is no risk of it being lost, and safety can be significantly improved. Therefore, according to the system 1, safe manual control of the flying object is possible without requiring advanced control skills.
  • the unmanned aerial vehicle 20 may include a shooting direction estimation unit that estimates the shooting direction of the imaging unit and a shooting direction control unit that controls the shooting direction.
  • the shooting direction estimator estimates the shooting direction based on at least one of information such as the heading direction of the unmanned aerial vehicle 20, the orientation of the gimbal 27, and the image captured by the camera 26, for example.
  • the shooting direction control unit can control the shooting direction by controlling the gimbal 27 that supports the camera 26 and/or controlling the heading direction of the unmanned aerial vehicle 20 . With such a configuration, it is possible to improve the accuracy of photographing the object to be photographed by the imaging unit.
  • a flight control method for an unmanned aerial vehicle 20 includes a flight line setting step of setting a virtual flight line on map data by a flight line setting unit 16, and a flight control step in which the flight control unit 21 controls the unmanned aerial vehicle to fly along the flight line based on a control signal transmitted from the control device 10 in response to the operation.
  • the unmanned aerial vehicle 20 may be responsible for part of the functions of the control device 10, or the control device 10 may be responsible for part of the functions of the unmanned aerial vehicle 20.
  • the control device 10 also has a changeover switch for switching between a specific control mode in which the unmanned aerial vehicle 20 is flight-controlled so that it only moves along the flight line FL, and a normal mode that is not limited to movement along the flight line FL.
  • a specific control mode in which the unmanned aerial vehicle 20 is flight-controlled so that it only moves along the flight line FL
  • a normal mode that is not limited to movement along the flight line FL.
  • the control unit 11 of the control device 10 and/or the flight controller 21 of the unmanned aerial vehicle 20 are provided with a mode switching unit for switching between the specific control mode and the normal mode.
  • the mode switching unit switches to the specific control mode, the range of movement of the unmanned aerial vehicle 20 is limited only on the flight line FL, as described above.
  • the operation input of the control device 10 is limited to only one axis direction, or the control signal transmitted from the control device 10 to the unmanned aerial vehicle 20 is limited to the control signal in one axis direction.
  • the above restrictions are lifted, and operation input in multiple axial directions by the operation input unit 13 of the control device 10 becomes possible, and control signals in multiple axial directions are transmitted from the control device 10 to the unmanned aerial vehicle 20. It becomes possible.
  • the unmanned aerial vehicle 20 can be freely manually operated regardless of the flight line FL.
  • by switching to the specific control mode when used by an operator with little piloting experience it is possible to easily and safely perform manual maneuvers that only move along the flight line FL.
  • Control Device 20 Unmanned Aircraft 21 Flight Control Unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Toys (AREA)

Abstract

【課題】高度な操縦技術を必要とせず、飛行体の安全な手動操縦が可能な飛行制御システムを提供すること。 【解決手段】本発明による飛行制御システムは、操縦装置と、無人航空機と、を備え、無人航空機は、複数の回転翼を含む推進機構と、無人航空機の位置を推定する位置推定部と、無人航空機の姿勢を推定する姿勢推定部と、無人航空機の移動速度を推定する速度推定部と、無人航空機の現在の位置、姿勢、及び速度を含む情報に基づいて推進機構を制御する飛行制御部と、を有し、飛行制御部は、操縦者による操作入力部の一軸方向の操作に応じて操縦装置から送信される操縦信号に基づき、予め地図データ上に設定された仮想的な飛行ラインに沿って飛行するように推進機構を制御することを特徴とする。

Description

飛行制御システム
 本発明は、飛行体の飛行制御システムに関する。
 近年、様々な用途に利用されるドローン(Drone)に代表される無人航空機(UAV:Unmanned Aerial Vehicle)や回転翼機を含む飛行体を利用した上空からの画像撮影等の様々なサービスが提供されている。
 飛行体の飛行制御の方法としては、例えば、所謂「プロポ」等の操縦装置を用いて手動で操縦する方法と、予め設定した飛行計画に従って、自律的に飛行させる方法とが知られている(特許文献1参照)。
特開2015-37937号公報
 ところで、操縦装置を用いて手動で操縦する場合、操縦者に高い技術が求められるため、操縦経験の少ない人にとっては気軽に操作ができないという問題がある。一方で、自律飛行させる場合は、飛行計画に従って飛行するのみであり、様々な飛行中の状況に応じて、飛行速度や飛行方向を動的に変更することは困難である。
 本発明は、高度な操縦技術を必要とせず、飛行体の安全な手動操縦が可能な飛行制御システムを提供することを目的とする。
 本発明によれば、操作入力部を有する操縦装置と、前記操縦装置からの操縦信号に基づいて飛行制御可能な無人航空機と、を備え、
 前記無人航空機は、
  複数の回転翼を含む推進機構と、
  前記無人航空機の位置を推定する位置推定部と、
  前記無人航空機の姿勢を推定する姿勢推定部と、
  前記無人航空機の移動速度を推定する速度推定部と、
  前記無人航空機の現在の位置、姿勢、及び速度を含む情報に基づいて前記推進機構を制御する飛行制御部と、を有し、
 前記飛行制御部は、操縦者による前記操作入力部の一軸方向の操作に応じて前記操縦装置から送信される操縦信号に基づき、予め地図データ上に設定された仮想的な飛行ラインに沿って飛行するように前記推進機構を制御することを特徴とする飛行制御システムが得られる。
 本発明によれば、高度な操縦技術を必要とせず、飛行体の安全な手動操縦が可能な飛行制御システムを提供することができる。
本発明による飛行制御システムの構成を示す図である。 図1の飛行体の構成を表す機能ブロック図である。 図1の操縦装置の構成を表す機能ブロック図である。 飛行ラインの一例を示す平面図である。 飛行ラインの他一例を示す平面図である。 飛行ラインのさらに他の一例を示す平面図である。
 本発明の実施形態の内容を列記して説明する。本発明の実施の形態による飛行制御システムは、以下のような構成を備える。
[項目1]
 操作入力部を有する操縦装置と、前記操縦装置からの操縦信号に基づいて飛行制御可能な無人航空機と、を備え、
 前記無人航空機は、
  複数の回転翼を含む推進機構と、
  前記無人航空機の位置を推定する位置推定部と、
  前記無人航空機の姿勢を推定する姿勢推定部と、
  前記無人航空機の移動速度を推定する速度推定部と、
  前記無人航空機の現在の位置、姿勢、及び速度に基づいて前記推進機構を制御する飛行制御部と、を有し、
 前記飛行制御部は、操縦者による前記操作入力部の一軸方向の操作に応じて前記操縦装置から送信される操縦信号に基づき、予め地図データ上に設定された仮想的な飛行ラインに沿って飛行するように前記推進機構を制御することを特徴とする飛行制御システム。
[項目2]
 前記操縦装置または前記無人航空機は、前記飛行ラインの両端部に対応する前記地図データ上の2つの地点の位置情報に基づいて前記飛行ラインを設定する飛行ライン設定部を有する、項目1に記載の飛行制御システム。
[項目3]
 前記無人航空機は、
  前記無人航空機のヘディング方向を推定する方向推定部を有し、
 前記飛行制御部は、現在の前記ヘディング方向に基づいて前記推進機構を制御する、項目1又は2に記載の飛行制御システム。
[項目4]
 前記無人航空機は、
  画像を撮影可能な撮像部と、
  前記撮像部の撮影方向を推定する撮影方向推定部と、
  前記無人航空機のヘディング方向、または前記撮像部を支持するジンバルの方向を制御することにより、前記撮影方向を変更する撮影方向制御部と、を有する、項目3に記載の飛行制御システム。
[項目5]
 前記飛行ラインは、全体が一直線状である、項目1~4の何れかに記載の飛行制御システム。
[項目6]
 前記飛行ラインは、屈曲部又は湾曲部を有する、項目1~4の何れかに記載の飛行制御システム。
<本発明による実施の形態の詳細>
 以下、本発明の実施形態について、図面を参照しながら説明する。なお、以下に示す実施の形態は、一例を表すにすぎず、その用途、目的又は規模等に応じて、他の既知の要素や代替手段を採用できる。
 図1に示されるように、本発明によるシステム1は、操縦者が操作する操縦装置10と、操縦装置10から送信される操縦信号に基づいて飛行可能な無人航空機20と、を備える。本システム1では、操縦者による無人航空機20の手動操縦飛行が可能であり、操縦装置10の操作入力部13を一軸方向に操作することにより、予め設定された仮想的な空中の飛行ラインFLに沿って、無人航空機20を飛行させることができる。なお、本実施形態にあっては、上記構成に加えて、操縦装置10及び無人航空機20にネットワークを介して接続される管理端末や中継機等を有していてもよい。
<操縦装置の構成>
 操縦装置10は、図2に示される機能ブロックを有している。操縦装置10は、制御部11、記憶部12、操作入力部13、送受信部14、表示部15、飛行ライン設定部16を備える。なお、図2の機能ブロックは参考構成であり、操縦装置10は、上記以外のその他の構成部(例えばボタン等の操作部)を備えてもよい。
 制御部11は、例えばプロセッサを有する。制御部11は、操縦装置10の各部の動作を統括して制御するための信号処理(生成、出力、送受信)、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。制御部11は、操縦者の操作入力部13の操作に基づいて、適宜記憶部12に記憶された情報を参照しつつ、無人航空機20の飛行を制御するための操縦信号を生成することができる。制御部11は、この操縦信号を、(送受信部14を介して)無人航空機20に送信して無人航空機20を遠隔制御することができる。これにより、操縦装置10は、無人航空機20の移動を遠隔で制御できる。操縦装置10は、飛行方向、飛行速度、飛行加速度等を変更する信号を無人航空機20に送信することができる。
 記憶部12は、例えば操縦装置10の動作を規定するプログラムや設定値のデータが格納されたROMと、制御部11の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。記憶部12は、ROM及びRAM以外のメモリが含まれてよい。記憶部12は、操縦装置10の内部に設けられてよいし、操縦装置10から取り外し可能に設けられてよい。記憶部12は、飛行ラインFLに関する情報を記憶することができる。
 送受信部14は、操作入力に基づく操縦信号等を無人航空機20に送信する送信部と、無人航空機等からの信号を受信する受信部が一体となった構成であるが、送信部と受信部とを別々に設けてもよい。送受信部14は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。例えば、送受信部25は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。送受信部25は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)等の近距離通信インタフェースを備えていてもよい。
 表示部15は、操縦装置10が取得した各種の情報(例えば無人航空機20から受信した画像、飛行データ等)を表示する。表示部15は、操縦装置10の内部または外部に設けられてよいし、操縦装置10から取り外し可能に設けられてよい。表示部15は、各種の入力を受け付け可能なタッチパネルで構成されていてもよい。
 操作入力部13は、操縦者による操作入力を受け付ける。操作入力部13は、少なくとも一軸方向の操作入力が可能となるように構成されている。一軸方向の操作入力とは、中立な状態から、一方側への操作入力と、その逆の他方側への操作入力とが含まれる。操作入力部13における一軸方向の一方側、他方側はそれぞれ、無人航空機20の飛行ラインFLに沿う一方側、他方側の飛行方向に対応する。
 操作入力部13は、左右に傾倒操作可能な操縦スティック、左右一対の押しボタン(十字キーの左右ボタン等を含む)、または、回転式のダイヤル等で構成されるが、特に限定されるものではない。例えば、操作入力部13が操縦スティックの場合、直立姿勢の中立状態から、左右方向の一方側及び他方側にそれぞれ傾倒させることで、一軸方向の一方側及び他方側への操作入力を行うことができる。これにより、操縦装置10の送信部(送受信部14)から無人航空機20に向けて、一軸方向の一方側及び他方側への操作入力に基づく操縦信号が送信される。なお、操作入力部13の一軸方向は、例えば左右方向、前後方向、又は上下方向(押し引き方向)等とすることができるが、特に限定されるものではない。
 操作入力部13は、操作可能な方向が上記の一軸方向のみに制限されていることが好ましいが、これに限定されるものではない。本例の操作入力部13は、左右方向のみに操作入力が制限されているため、操作が複雑ではなく、容易に無人航空機20を手動操縦することができる。
 また、操縦装置10は、飛行を開始する要求を発信するための飛行開始ボタン等を備えていてもよい。飛行開始ボタンが押されると、例えば、操縦装置10の制御部11は、記憶部12を参照し、所定位置までの飛行を指示する操縦信号を出力し、当該操縦信号を無人航空機20に送信する。地上に設置され静止している無人航空機20は、当該操縦信号を受信すると、所定の空中位置(所定の緯度、経度、及び高度)まで自律的に飛行し、当該位置でホバリングする。
 操縦装置10の全体または一部は、例えばタッチパネル式の画面を有するスマートフォン、タブレット端末等の情報処理装置で構成されていてもよい。その場合、タッチパネルの画面に表示された操縦スティック等の画像アイコンが操作入力部を構成する。画面に表示された操作入力部をタップ(画面に指を接触させること)したり、スライドしたり(画面に指を接触させた状態のまま、指を何れかの方向に滑らせて移動させること)することで、各種の操作入力を行うことができる。
 操縦者が操作入力部13を一軸方向の一方側または他方側に傾ける等の操縦操作を実行すると、操縦装置10の制御部11が当該操作入力に応じた操縦信号を出力し、無人航空機20に送信する。操縦信号には、方向(一方側または他方側)に関する情報、操作度合に関する情報(操縦スティックを傾ける角度、タッチパネル上の操作アイコンの移動距離等)が含まれる。操縦信号における方向の情報に基づいて、無人航空機20の飛行方向が制御される。操縦信号における操作度合に関する情報に基づいて、無人航空機20の飛行速度が制御される。つまり、操縦装置10は、飛行ラインFLに沿う無人航空機20の飛行方向(水平移動方向)を指示する信号を出力し、無人航空機20に送信することができる。また、本例の操縦装置10は、無人航空機20の飛行速度を指示する信号を送信することができる。なお、操縦装置10は、無人航空機20の飛行高度に関する指示、離陸指示、着陸指示、ホバリング(空中での停止)指示、カメラ26の向き(撮影方向)の変更指示、機体の向き(ヘディング方向)の変更指示等を示す操縦信号を出力し、無人航空機20に送信できるようにしてもよい。カメラ26のジンバル27を制御することで撮影方向を変更するようにしてもよいし、機体の向きを変更することで撮影方向を変更するようにしてもよい。
 送受信部14は、無人航空機20からの信号を受信することができる。これにより、例えば、無人航空機20のカメラ26で撮影した画像やマイクで取得した音声等を、操縦装置10の表示部15(モニタ等)に表示させたり、スピーカから出力させたりすることができる。
 操縦装置10は、飛行ラインFLの設定を行うための飛行ライン設定部16を備えている。飛行ライン設定部16は、例えば、飛行ラインFLの両端に対応する2つの地点の位置情報と、2地点を繋ぐ線の形状情報とに基づいて、任意の形状の飛行ラインFLを記憶部に記憶された地図データ上に設定することができる。飛行ライン設定部16は、2地点の位置情報のみに基づいて、それら2点を繋ぐ直線(線分)を飛行ラインFLとして設定することができる。また、直線以外の線の形状情報は、使用者等がタッチパネル等の入力部を介して描画すること等により入力することができる。具体的に、飛行ライン設定部16は、タッチパネル等に表示された2次元平面地図上に操縦者等が入力(描画、選択)した1本の線の形状及び位置の情報に基づいて、飛行ラインFLを設定することができる。
 なお、飛行ライン設定部16は、無人航空機20に設けてもよいし、ネットワークを介して操縦装置10や無人航空機に接続される管理端末等に設けてもよい。管理端末は、例えば、1台または複数台の無人航空機と同時に情報の授受を行い、1台または複数台の無人航空機の飛行を管理することができる。管理端末は、例えば、データベースと接続される。管理端末は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。管理端末は、例えば、プロセッサ、メモリ、ストレージ、送受信部、入出力部等を備え、これらはバスを通じて相互に電気的に接続される。
<無人航空機の構成>
 本実施の形態における無人航空機20(Unmanned aerial vehicle:UAV)は、飛行体、ドローン(Drone)、マルチコプター(Multi Copter)、RPAS(remote piloted aircraft systems)、又はUAS(Unmanned Aircraft Systems)等と称呼されることがある。
 無人航空機20は、図3に示される機能ブロックを有している。なお、図3の機能ブロックは参考構成であり、適宜変更が可能である。無人航空機20は、フライトコントローラ21(飛行制御部)、メモリ22(記憶部)、センサ類23、バッテリー24、送受信部25、カメラ26(撮像部)、ジンバル27、ESC29、モータ30、及びプロペラ31(回転翼)を備える。なお、ジンバル27を設けずに、無人航空機20の本体部にカメラ26を固定するようにしてもよい。ジンバル27を設けることで、無人航空機20の本体部に対するカメラ26の向きを変更可能となる。
 フライトコントローラ21は、所謂処理ユニットである。処理ユニットは、プログラマブルプロセッサ(例えば、中央処理ユニット(CPU)、MPU又はDSP)などの1つ以上のプロセッサを有することができる。処理ユニットは、メモリ22にアクセス可能である。メモリ22は、1つ以上のステップを行うために処理ユニットが実行可能であるロジック、コード、および/またはプログラム命令を記憶している。メモリ22は、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラやセンサ類23から取得したデータは、メモリ22に直接に伝達されかつ記憶されてもよい。例えば、カメラ26等で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録される。
 処理ユニットは、無人航空機20の状態を制御するように構成された制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θ、θ及びθ)を有する無人航空機20の空間的配置、速度、および/または加速度を調整するために無人航空機20の推進機構(ESC29、モータ30、及びプロペラ31等)を制御する。制御モジュールは、搭載部、センサ類23の状態のうちの1つ以上を制御することができる。フライトコントローラ21は、操縦装置10からの操縦信号に基づいて、無人航空機20の飛行を制御することができる。またフライトコントローラ21は、記憶部に記憶された2次元又は3次元の地図データを含む地図情報、無人航空機20の現在の位置情報、姿勢情報、速度情報、及び加速度情報等に基づいて、無人航空機20の飛行を制御することができる。フライトコントローラ21は、上記各種情報及び受信する操縦信号に基づき、飛行ラインFLに沿って、無人航空機20が一方側または他方側に飛行するように推進機構を制御することができる。また、フライトコントローラ21は、無人航空機20のヘディング方向に関わらず、無人航空機20が飛行ラインFLに沿って移動するように(無人航空機20が飛行ラインFLから逸脱しないように)推進機構を制御することができる。その場合、フライトコントローラ21は、無人航空機20の現在のヘディング方向の情報を取得して、当該ヘディング方向の情報に基づいて、それぞれのプロペラ31の回転数等を制御する。また、フライトコントローラ21は、無人航空機20が飛行ラインFL上を移動する際、ヘディング方向が常に一定で変化しないように飛行制御することも可能である。
 処理ユニットは、1つ以上の外部のデバイス(例えば、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部25と通信可能である。送受信部25は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。例えば、送受信部25は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。送受信部25は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)等の近距離通信インタフェースを備えていてもよい。送受信部25は、カメラ26やセンサ類23で取得したデータ、処理ユニットが生成した処理結果、所定の制御データ、操縦装置10または管理端末等からのユーザコマンド(操縦信号)などのうちの1つ以上を送信および/または受け取ることができる。
 本実施の形態によるセンサ類23は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。
 無人航空機20は、無人航空機20の現在位置を推定するための位置推定部を有する。位置推定部は、GPS等のGNSS(global navigation satellite system)から得られる緯度及び経度の座標情報、気圧センサ等から得られる高度情報等に基づいて、メモリ22等の記憶部に記憶された2次元平面地図または3次元空間地図等の地図データ上における無人航空機20の現在位置を推定する。フライトコントローラ21は、無人航空機20の現在位置に基づいて、無人航空機20が飛行ライン上に留まるように推進機構を制御することができる。
 無人航空機20は、無人航空機20の現在の姿勢を推定する姿勢推定部を有する。姿勢推定部は、慣性センサから得られる情報等に基づいて、無人航空機20の現在の姿勢(傾き)を推定する。
 また、無人航空機20は、無人航空機20の現在の移動速度を推定する速度推定部を有する。速度推定部は、例えば慣性センサから得られるデータに基づいて、速度を推定する。
 また、無人航空機20は、無人航空機20の現在の向き(ヘディング方向)を推定する方向推定部を有する。方向推定部は、例えば無人航空機20の機体(本体部分)に設けられたコンパス等のセンサから得られる方角データ等に基づいて、ヘディング方向を推定する。
 また、無人航空機20は、撮像部の撮影方向を推定する撮影方向推定部を有する。撮影方向推定部は、例えばカメラ26、ジンバル27、または機体に設けられたコンパス等のセンサから得られる方角データ等に基づいて、撮影方向を推定する。
 本実施の形態において、無人航空機20から得られるデータとしては、位置情報(高度情報を含む)、姿勢情報、速度情報、バッテリー残量、信号強度、カメラの画像情報、カメラの方向(撮影方向)、ズームイン/ズームアウト等、無人航空機20が備えているセンサから取得できるあらゆるデータがあり得る。無人航空機20の飛行情報、得られるデータは、操縦装置10に送信されてもよいし、必要に応じて中継機等を介して管理端末に送信されてもよい。また、操縦装置10は、操縦者の操作入力に基づき、カメラによる撮影の開始/停止、カメラの方向(撮影方向)の変更、ズームイン/ズームアウト等を指示する信号を生成し、無人航空機20に送信することができる。
<飛行ラインの設定>
 以下に、飛行ラインFLの設定方法の一例について説明する。なお、飛行ラインFLの設定方法は本例に限定されず、操縦装置10、無人航空機20、またはネットワークを介して接続された管理端末等を用いて任意の方法で設定することができる。また、設定された飛行ラインFLは、操縦装置10、無人航空機20、またはネットワークを介して接続された管理端末等の記憶部(12、22等)に記憶される。飛行ラインFLは、空中の所定高度に仮想的に設定された線状の飛行可能範囲を意味するものであり、全体が連続した1本の線で構成される。飛行ラインFLは、無人航空機20の飛行開始前に予め設定される。飛行ラインFLは、一端から他端まで連続する1本の線状の構成であるか(図1、図4、図5参照)、1本の線で構成される環状の構成とすることができる(図6参照)。
 図1は、サッカー等のスポーツ分野のコートにおける一方のサイドラインSLの上空に設定された飛行ラインFLを示している。なお、図1に示すサッカーコートは平面視で長方形であり、長辺を構成する一対のサイドラインSL(タッチライン)と、短辺を構成する一対のゴールラインGLとを有する。
 飛行ライン設定部16は、例えば、サイドラインSLの両端に位置する2地点P1、P2の位置情報を取得し、この2地点P1、P2の位置情報に基づいて飛行ラインFLを設定することができる。例えば、サイドラインSLの一方の端部(ゴールラインGLとの交点)の地点P1に無人航空機20を配置し、無人航空機20のGPSから得られる位置情報を操縦装置10に送信することで、飛行ライン設定部16は地点P1の緯度及び経度の情報を取得する。また、同様に、サイドラインSLの他方の端部の地点P2の緯度及び経度の情報を取得する。飛行ライン設定部16は、当該2地点を結ぶ直線(線分)を、2次元平面地図上の飛行ラインFLとして設定することができる。また、飛行ラインFLの高度(地上高度または海抜高度)は、予め設定され、記憶部12等に記憶された所定の高度(例えば10m等)とすることができる。あるいは、操縦者等が飛行ラインFLを設定する際に、任意の高さに設定できるようにしてもよい。飛行ラインFLの高度は、全体が一定の高さに設定されていてもよいし、部分的に異なる高さに設定されていてもよい。
 操縦者等が飛行ラインFLの高さを設定する場合、例えば、操縦装置10に設けたタッチパネル等の入力部から高度の数値(m)を入力するようにしてもよいし、または予め設定された高度の選択肢(例えば5m、10m、20m等)の中から選択入力するようにしてもよい。
 飛行ラインFLは、本例のように全体が1直線であるものに限られず、円弧状等の湾曲部や、所定角度(鋭角、直角、または鈍角)で屈曲する屈曲部を有していてもよいし、全体もしくは一部が任意の曲線状であってもよい。飛行ライン設定部16は、湾曲部や屈曲部の起点(一端)、終点(他端)、曲率中心、曲率半径、屈曲角度、角部(屈曲点)の位置情報等の入力情報に基づいて、飛行ラインFLを設定することができる。
 また、飛行ライン設定部16は、飛行ラインFLの一端に対応する1地点の情報(緯度、経度の座標情報)と、その1地点から飛行ラインFLの他端に対応する地点までの距離(m)及び方向(方角)の情報とに基づいて、飛行ラインFLを設定することも可能である。
 ここで、図4、図5、図6は、飛行ラインFLを例示する平面図である。図4に示す飛行ラインFLは、一端から他端まで、略円弧状の曲線が互い違いに連なる波線状の構成である。図4の場合、操縦者が操作入力部13を一軸方向の一方側又は他方側に操作すると、無人航空機20は、波線状の飛行ラインFLに沿って一方側(一端に向かう方向)又は他方側(他端に向かう方向)に、飛行する。なお、操縦者が操作入力部13を操作していない時、無人航空機20は飛行ラインFL上でホバリングする。
 図5に示す飛行ラインFLは、一端と他端との間に4か所の屈曲部を有する。飛行ライン設定部16は、例えば、一端、他端、及び4か所の屈曲部に対応する6地点の位置情報と、それらをそれぞれ繋ぐ線(本例では5本の直線)の形状の情報とに基づいて、飛行ラインFLを設定することができる。図5の場合においても、図4の場合と同様に、無人航空機20は屈曲する飛行ラインFLに沿って一方側または他方側に向けて移動する。
 図6に示す飛行ラインFLは、4つの屈曲部を有する四角形状である。飛行ライン設定部16は、例えば、4か所の屈曲部に対応する4地点の位置情報と、それらを繋ぐ線(本例では4本の直線)の形状の情報とに基づいて、飛行ラインFLを設定することができる。図6の場合においても、無人航空機20は環状の飛行ラインFLに沿って一方側または他方側に周回するように移動する。なお、環状の飛行ラインFLは、平面視で長方形状の構成に限定されず、正方形や他の多角形状でもよいし、円形、楕円形等であってもよい。なお、飛行ラインFLが円形の場合は、例えば円の中心の位置情報と、半径(直径)の情報とに基づいて飛行ラインFLを設定することができ、楕円形の場合は、例えば楕円の中心の位置情報と、長径及び短径の情報とに基づいて飛行ラインFLを設定することができる。
 飛行ラインFLは、操縦装置10の記憶部12、及び/又は、無人航空機20に送信されて無人航空機20のメモリ22に記憶される。無人航空機20のフライトコントローラ21は、2次元地図または3次元地図等の地図データ上の飛行ラインFLの情報と、無人航空機の現在の位置、姿勢、速度等の情報に基づいて、飛行ラインFL上に無人航空機20が留まるように、各プロペラ31等の推進機構を制御することができる。フライトコントローラ21は、さらに、無人航空機20のヘディング方向や加速度の情報に基づいて、推進機構を制御するようにしてもよい。
<制御例1>
 以下、図1を参照して、本実施の形態による飛行制御の一例を説明する。本例においては、無人航空機20のカメラ26を用いてサッカー等の試合を撮影する場合について説明する。なお、上記の方法等により、飛行開始前に飛行ラインFLが予め設定される。
 操縦者は、例えば、無人航空機20を地面に置いた状態で操縦装置10の自動浮上ボタン等を選択入力する。これにより、操縦装置10から無人航空機20に飛行ラインFLまでの自動浮上を指示する信号が送信される。当該信号を受信した無人航空機20は、フライトコントローラ21が推進機構を制御することで自動的に予め設定された高度まで浮上し、飛行ラインFL上でホバリングする。なお、無人航空機20を地面に置く際には、飛行ラインFLに対応する地上の線(本例ではサイドラインSL)上に配置することが好ましい。このようにすることで、無人航空機20を真上に浮上させるだけで、無人航空機20を飛行ラインFL上に移動させることができる。例えば、無人航空機20を図1の地点P1と地点P2の中間地点P3に配置した状態で自動浮上ボタンを選択入力した場合、その真上の飛行ラインFLの中央位置でホバリングする。
 操縦者は、操作入力部13の一軸方向(左右方向等)の操作入力を行い、飛行ラインFLに沿う無人航空機20の移動方向、移動速度等を制御することができる。なお、操縦者は、無人航空機20を目視しながら操縦してもよいし、操縦装置10のモニタ画面等に表示される画像(無人航空機20のカメラ26が撮影するリアルタイムの映像)を見ながら操縦操作を行ってもよい。
 操縦者が操縦装置10の操作入力部13を操作して、一軸方向の一方側の操作入力がなされると、無人航空機20は、飛行ラインFLに沿う一方側に移動(例えば水平飛行)し、一軸方向の他方側の操作入力がなされると、無人航空機20は、飛行ラインFLに沿う他方側に移動する。操作入力部13の一軸方向の一方側及び他方側はそれぞれ、飛行ラインFLに沿う一方側及び他方側に対応している。例えば、操作入力部13の一軸方向が左右方向である場合、操作入力部13を左側に傾倒操作すると、無人航空機20は、飛行ラインFLに沿って一方側に移動し、操作入力部13を右側に傾倒操作すると、無人航空機20は、飛行ラインFLに沿って他方側に移動する。
 操縦者が操縦装置10の操作入力部13を一方側に操作入力している間、無人航空機20は、操縦装置10からの操縦信号に基づいて、飛行ラインFLに沿って一端に向けて移動し続ける。しかし、無人航空機20が飛行ラインFLの一端に到達すると、操縦者が操縦装置10の操作入力部13を一方側に操作入力しても、無人航空機20は、それ以上は移動を継続せず、一端の位置でホバリングする。すなわち、無人航空機20は飛行ラインFL上に留まるように飛行制御される。操縦者が操縦装置10の操作入力部13を他方側に操作入力する場合も同様であり、飛行ラインFLの他端に到達するまでは飛行ラインFLに沿って他端に向けて移動し、他端に到達すると、それ以上は移動せず、ホバリングする。このように、操縦装置10による簡易な手動操縦を実現しつつも、予め設定した飛行ラインFL上に自動的に留まるように無人航空機20を飛行制御することができる。
 このように、操縦者は操作入力部13の一軸方向の操作のみで、飛行ラインFL上での無人航空機20の位置を容易に調整することができる。その結果、無人航空機20の操縦経験がない操縦者でも容易に、無人航空機20のカメラ26を利用して、サッカーの試合等の撮影を行うことができる。例えば、無人航空機20で撮影をする場合、撮影対象の人物や物体の位置に応じて、飛行ラインFL上での無人航空機20の位置を調整することで、撮影対象を適切に撮影することが可能となる。また、無人航空機20のフライトコントローラ21によって、自動的に無人航空機20が飛行ラインFL上に留まるように飛行制御されるため、操縦者の操作ミス等により意図しない方向に無人航空機20が飛行してしまう虞がなく、格段に安全性を高めることができる。従って、本システム1によれば、高度な操縦技術を必要とせず、飛行体の安全な手動操縦が可能となる。
 無人航空機20は、撮像部の撮影方向を推定する撮影方向推定部と、撮影方向を制御するための撮影方向制御部と、を有していてもよい。撮影方向推定部は、例えば、無人航空機20のヘディング方向、ジンバル27の向きに関する情報、及びカメラ26で撮影された映像等の少なくとも何れかの情報に基づいて、撮影方向を推定する。撮影方向制御部は、カメラ26を支持するジンバル27の制御、及び/または、無人航空機20のヘディング方向の制御等により、撮影方向を制御することができる。このような構成により、撮像部により撮影対象を撮影する精度を高めることができる。
 本発明にかかる無人航空機20の飛行制御方法は、飛行ライン設定部16により、地図データ上に、仮想的な飛行ラインを設定する飛行ライン設定ステップと、操縦者による操作入力部13の一軸方向の操作に応じて操縦装置10から送信される操縦信号に基づいて、飛行制御部21が、飛行ラインに沿って飛行するように無人航空機を制御する飛行制御ステップと、を含む。
 上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
 例えば、操縦装置10の機能の一部を無人航空機20が担うこととしてもよいし、無人航空機20の機能の一部を操縦装置10が担うこととしてもよい。
 また、操縦装置10は、飛行ラインFLに沿う移動のみを行うように無人航空機20を飛行制御する特定制御モードと、飛行ラインFLに沿う移動に限定されない通常モードとを切り替えるための切り替えスイッチを有していてもよい。その場合、操縦装置10の制御部11、及び/又は、無人航空機20のフライトコントローラ21には、特定制御モードと通常モードとを切り替えるためのモード切替部が設けられる。モード切替部によって、特定制御モードに切り替えられると、上述のように、無人航空機20の移動範囲が、飛行ラインFL上のみに制限される。例えば、特定制御モードの間は、操縦装置10の操作入力が一軸方向のみに制限されたり、操縦装置10から無人航空機20に送信される操縦信号が、一軸方向の操縦信号のみに制限されたりしてもよい。また、通常モードの間は上記の制限が解除され、操縦装置10の操作入力部13による複数軸方向の操作入力が可能となり、操縦装置10から無人航空機20に、複数軸方向の操縦信号を送信可能となる。このような構成により、例えば、操縦経験の豊富な操縦者が使用する際には通常モードとして、飛行ラインFLに関係なく自由に無人航空機20を手動操縦することができる。また、操縦経験の少ない操縦者が使用する際には特定制御モードに切り替えることで、容易に、且つ、安全に、飛行ラインFLに沿う移動のみの手動操縦を行うことができる。
 10    操縦装置
 20    無人航空機
 21    飛行制御部

Claims (6)

  1.  操作入力部を有する操縦装置と、前記操縦装置からの操縦信号に基づいて飛行制御可能な無人航空機と、を備え、
     前記無人航空機は、
      複数の回転翼を含む推進機構と、
      前記無人航空機の位置を推定する位置推定部と、
      前記無人航空機の姿勢を推定する姿勢推定部と、
      前記無人航空機の移動速度を推定する速度推定部と、
      前記無人航空機の現在の位置、姿勢、及び速度を含む情報に基づいて前記推進機構を制御する飛行制御部と、を有し、
     前記飛行制御部は、操縦者による前記操作入力部の一軸方向の操作に応じて前記操縦装置から送信される操縦信号に基づき、予め地図データ上に設定された仮想的な飛行ラインに沿って飛行するように前記推進機構を制御することを特徴とする飛行制御システム。
  2.  前記操縦装置または前記無人航空機は、前記飛行ラインの両端部に対応する前記地図データ上の2つの地点の位置情報に基づいて前記飛行ラインを設定する飛行ライン設定部を有する、請求項1に記載の飛行制御システム。
  3.  前記無人航空機は、
      前記無人航空機のヘディング方向を推定する方向推定部を有し、
     前記飛行制御部は、現在の前記ヘディング方向に基づいて前記推進機構を制御する、請求項1又は2に記載の飛行制御システム。
  4.  前記無人航空機は、
      画像を撮影可能な撮像部と、
      前記撮像部の撮影方向を推定する撮影方向推定部と、
      前記無人航空機のヘディング方向、または前記撮像部を支持するジンバルの方向を制御することにより、前記撮影方向を変更する撮影方向制御部と、を有する、請求項3に記載の飛行制御システム。
  5.  前記飛行ラインは、全体が一直線状である、請求項1~4の何れかに記載の飛行制御システム。
  6.  前記飛行ラインは、屈曲部又は湾曲部を有する、請求項1~4の何れかに記載の飛行制御システム。

     
PCT/JP2022/010554 2021-03-17 2022-03-10 飛行制御システム WO2022196515A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP22771266.8A EP4309999A1 (en) 2021-03-17 2022-03-10 Flight control system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021043625A JP7289152B2 (ja) 2021-03-17 2021-03-17 飛行制御システム
JP2021-043625 2021-03-17

Publications (1)

Publication Number Publication Date
WO2022196515A1 true WO2022196515A1 (ja) 2022-09-22

Family

ID=83320580

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010554 WO2022196515A1 (ja) 2021-03-17 2022-03-10 飛行制御システム

Country Status (3)

Country Link
EP (1) EP4309999A1 (ja)
JP (2) JP7289152B2 (ja)
WO (1) WO2022196515A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015037937A (ja) 2014-09-16 2015-02-26 株式会社トプコン 飛行体の飛行制御システム
JP2017520031A (ja) * 2015-05-18 2017-07-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd ヘッドレスモードに基づく無人機の制御方法とデバイス
JP2018121267A (ja) * 2017-01-27 2018-08-02 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3783454B1 (en) 2016-02-26 2024-03-20 SZ DJI Technology Co., Ltd. Systems and methods for adjusting uav trajectory
JP6375504B2 (ja) 2016-06-13 2018-08-22 株式会社プロドローン 経緯度誤差共有システム
JP6539253B2 (ja) * 2016-12-06 2019-07-03 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
US10569172B2 (en) 2017-09-19 2020-02-25 Canon Kabushiki Kaisha System and method of configuring a virtual camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015037937A (ja) 2014-09-16 2015-02-26 株式会社トプコン 飛行体の飛行制御システム
JP2017520031A (ja) * 2015-05-18 2017-07-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd ヘッドレスモードに基づく無人機の制御方法とデバイス
JP2018121267A (ja) * 2017-01-27 2018-08-02 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法

Also Published As

Publication number Publication date
JP7289152B2 (ja) 2023-06-09
JP2022143218A (ja) 2022-10-03
JP2023113717A (ja) 2023-08-16
EP4309999A1 (en) 2024-01-24

Similar Documents

Publication Publication Date Title
US11932392B2 (en) Systems and methods for adjusting UAV trajectory
US11204611B2 (en) Assisted takeoff
US20200019189A1 (en) Systems and methods for operating unmanned aerial vehicle
JP6671375B2 (ja) 無人機の飛行補助方法
US11625034B2 (en) One-handed remote-control device for aerial system
JP2016203978A (ja) 無人機を没入状態で操縦するためのシステム
EP3274779B1 (en) Path-based flight maneuvering system
JP6767802B2 (ja) 無人飛行体及びその飛行制御方法
US11209835B2 (en) Drone maneuvering system, maneuvering signal transmitter set, and drone maneuvering method
WO2018040006A1 (zh) 控制方法、装置和系统、飞行器、载体及操纵装置
EP3399380B1 (en) Headless control method
WO2021168819A1 (zh) 无人机的返航控制方法和设备
WO2021168821A1 (zh) 可移动平台的控制方法和设备
JP7289152B2 (ja) 飛行制御システム
JP6560479B1 (ja) 無人航空機制御システム、無人航空機制御方法、及びプログラム
JP2020095563A (ja) 無人航空機システム
WO2022102303A1 (ja) 情報処理方法、情報処理装置及び情報処理システム
JP2021036452A (ja) Uav軌道を調整するシステム及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22771266

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022771266

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022771266

Country of ref document: EP

Effective date: 20231017