WO2021090352A1 - 航空機の飛行制御を行う制御装置、及び制御方法 - Google Patents
航空機の飛行制御を行う制御装置、及び制御方法 Download PDFInfo
- Publication number
- WO2021090352A1 WO2021090352A1 PCT/JP2019/043218 JP2019043218W WO2021090352A1 WO 2021090352 A1 WO2021090352 A1 WO 2021090352A1 JP 2019043218 W JP2019043218 W JP 2019043218W WO 2021090352 A1 WO2021090352 A1 WO 2021090352A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- attitude
- unit
- result
- attitude estimation
- uav1
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000001514 detection method Methods 0.000 claims abstract description 39
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 55
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 abstract description 16
- 230000001133 acceleration Effects 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 101001002193 Homo sapiens Putative postmeiotic segregation increased 2-like protein 1 Proteins 0.000 description 5
- 102100020953 Putative postmeiotic segregation increased 2-like protein 1 Human genes 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000005684 electric field Effects 0.000 description 2
- 201000009482 yaws Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C13/00—Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
- B64C13/02—Initiating means
- B64C13/16—Initiating means actuated automatically, e.g. responsive to gust detectors
- B64C13/18—Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
- G05D1/0816—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft to ensure stability
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
- G05D1/0858—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft specially adapted for vertical take-off of aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/102—Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/40—Control within particular dimensions
- G05D1/46—Control of position or course in three dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/40—Control within particular dimensions
- G05D1/49—Control of attitude, i.e. control of roll, pitch or yaw
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/40—Control within particular dimensions
- G05D1/49—Control of attitude, i.e. control of roll, pitch or yaw
- G05D1/495—Control of attitude, i.e. control of roll, pitch or yaw to ensure stability
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
- B64U2201/104—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
Definitions
- the present invention relates to a technical field such as a control method executed by a system that controls flight of an aircraft.
- Patent Document 1 discloses a technique for measuring the attitude of a flying object with high accuracy by correcting the directional information measured by a three-axis gyro device (angular velocity sensor) with the directional information measured by a geomagnetic sensor. Has been done.
- the detected value (measured value) detected by the geomagnetic sensor or inertial sensor may not be reliable. For example, if there is an object that generates a strong magnetic field or electric field in the vicinity, the geomagnetic sensor or inertial sensor may output an abnormal value, making it impossible to accurately estimate the attitude of the aircraft. As a result, the flight of the aircraft may become unstable.
- the invention according to claim 1 is a control device for controlling the flight of an aircraft including an optical sensor and at least one type of three-axis sensor, the first aspect of which is detected by the optical sensor.
- a first acquisition unit that acquires a detected value
- a second acquisition unit that acquires a second detection value detected by the three-axis sensor
- a third acquisition unit that acquires position information indicating the flight position of the aircraft.
- a first attitude estimation unit that estimates the attitude of the aircraft based on the first detection value
- a second attitude estimation unit that estimates the attitude of the aircraft based on the second detection value
- the first attitude estimation unit is a control device for controlling the flight of an aircraft including an optical sensor and at least one type of three-axis sensor, the first aspect of which is detected by the optical sensor.
- a flight control unit that controls the flight of the aircraft by using the result of the attitude estimation by the unit and the result of the attitude estimation by the second attitude estimation unit at a ratio based on the position information. It is a feature. As a result, even if the detected value detected by the geomagnetic sensor or the inertial sensor is unreliable, the aircraft can be stably flown.
- the invention according to claim 2 is the control device according to claim 1, wherein the position information includes altitude information indicating the altitude of the aircraft, and the flight control unit is based on the first attitude estimation unit. It is characterized in that the result of the posture estimation and the result of the posture estimation by the second posture estimation unit are used at a ratio based on the altitude. As a result, the result of attitude estimation by the first attitude estimation unit and the result of attitude estimation by the second attitude estimation unit can be used at a rate that changes according to the flight altitude of the aircraft.
- the invention according to claim 3 is the control device according to claim 2, wherein the flight control unit estimates the attitude by at least the first attitude estimation unit from the time the aircraft takes off until it reaches a predetermined altitude. After reaching the predetermined altitude, the result of the posture estimation by the second posture estimation unit is used. As a result, it is possible to switch to flight control with a small load from an early stage where the result of attitude estimation by the second attitude estimation unit is expected to be reliable.
- the invention according to claim 4 further includes a distance calculation unit for calculating the distance from the takeoff point of the aircraft based on the position information in the control device according to claim 1. It is characterized in that the result of the posture estimation by the first posture estimation unit and the result of the posture estimation by the second posture estimation unit are used at a ratio based on the distance. As a result, the result of attitude estimation by the first attitude estimation unit and the result of attitude estimation by the second attitude estimation unit can be used at a rate that changes according to the distance from the takeoff point of the aircraft.
- the invention according to claim 5 is the control device according to claim 4, wherein the flight control unit estimates the attitude by at least the first attitude estimation unit until a predetermined distance is reached after the aircraft takes off. After reaching the predetermined distance, the result of the posture estimation by the second posture estimation unit is used. As a result, it is possible to switch to flight control with a small load from an early stage where the result of attitude estimation by the second attitude estimation unit is expected to be reliable.
- the invention according to claim 6 is the control device according to any one of claims 1, 2, and 4, wherein the flight control unit uses the result of the attitude estimation by the first attitude estimation unit and the above. If the amount of deviation from the result of the posture estimation by the second posture estimation unit is equal to or greater than the threshold value, at least the result of the attitude estimation by the first posture estimation unit is used, and if the amount of deviation is less than the threshold value, the result is used. It is characterized in that the result of the posture estimation by the second posture estimation unit is used. As a result, it is possible to switch to flight control with a small load from an early stage when the amount of deviation between the attitude estimation result by the first attitude estimation unit and the attitude estimation result by the second attitude estimation unit becomes small to some extent.
- the invention according to claim 7 is the control device according to any one of claims 1, 2, and 4, wherein the three-axis sensor includes a geomagnetic sensor and has a reference orientation before the aircraft takes off.
- the flight control unit further includes a calibration unit that calibrates the value to the true value, and the flight control unit has at least the first posture when the amount of deviation between the value indicating the reference orientation detected by the geomagnetic sensor and the true value is equal to or greater than the threshold value. It is characterized in that the result of the posture estimation by the estimation unit is used, and when the deviation amount is less than the threshold value, the result of the posture estimation by the second posture estimation unit is used. As a result, it is possible to switch to flight control with a small load from an early stage when the amount of deviation between the value indicating the reference direction and the true value becomes small to some extent.
- the invention according to claim 8 is the control device according to any one of claims 1 to 7, wherein the flight control unit is based on the first attitude estimation unit when the aircraft is in a predetermined area. It is characterized in that the result of the attitude estimation is used, and when the aircraft is outside the predetermined area, the result of the attitude estimation by the second attitude estimation unit is used. As a result, the result of attitude estimation by the first attitude estimation unit and the result of attitude estimation by the second attitude estimation unit can be switched and used according to whether or not the aircraft entered the predetermined area during the flight of the aircraft. it can.
- the invention according to claim 9 further includes a power supply control unit that controls power supply to the optical sensor based on the position information in the control device according to any one of claims 1 to 8. It is characterized by that. As a result, the power consumption in the aircraft can be suppressed.
- the invention according to claim 10 is a control method executed by a system that controls flight of an aircraft including an optical sensor and at least one type of three-axis sensor, and is a first detection value detected by the optical sensor.
- the aircraft can be stably flown.
- FIG. 1 is a diagram showing a schematic configuration example of the flight system S.
- the flight system S includes an unmanned aerial vehicle (hereinafter referred to as "UAV (Unmanned Aerial Vehicle)”) flying in the air (air) and an operation management system (hereinafter referred to as "UTMS (UAV Traffic Management)”. System) ”2 and a port management system (hereinafter referred to as“ PMS (Port Management System) ”) 3 are included.
- UAV Unmanned Aerial Vehicle
- UTMS UAV Traffic Management
- PMS Port Management System
- UAV1, UTMS2, and PMS3 can communicate with each other via the communication network NW.
- the communication network NW is composed of, for example, the Internet, a mobile communication network, a wireless base station thereof, and the like.
- one UAV1 is shown, but there may actually be a plurality of UAV1s.
- UTMS2 and PMS3 may be configured as one management system.
- UAV1 can fly or autonomously fly from the ground according to remote control by the operator.
- UAV1 is also called a drone or multicopter.
- UAV1 is managed by GCS (Ground Control Station).
- GCS is installed in a control terminal that can be connected to a communication network NW as an application, for example.
- the operator is, for example, a person who remotely controls the UAV1 by operating a control terminal.
- GCS may be configured by a server or the like.
- the operator is, for example, a GCS administrator or a controller provided by the server.
- the autonomous flight of the UAV1 is not limited to the autonomous flight by the UAV1 performing the flight control, and the autonomous flight of the UAV1 is, for example, performing the flight control of the flight system S as a whole. Also includes autonomous flight by.
- UTMS2 is configured to include one or more servers including the control server CS.
- the control server CS is an example of a control device.
- UTMS2 manages the operation of UAV1.
- UAV1 flight management includes UAV1 flight plan management, UAV1 flight status management, and UAV1 control.
- the UAV1 flight plan is a flight plan that includes a flight route (planned route) from the departure point (takeoff point) of the UAV1 to the destination point.
- the flight path is represented by, for example, the latitude and longitude on the path and may include flight altitude.
- the flight status of UAV1 is managed based on the aircraft information of UAV1.
- the aircraft information of UAV1 includes at least the position information of UAV1.
- the position information of UAV1 indicates the current position of UAV1.
- the current position of UAV1 is the flight position of UAV1 in flight.
- the aircraft information of UAV1 may include speed information of UAV1 and the like.
- the speed information indicates the flight speed
- the PMS3 is composed of one or more servers and the like.
- the PMS3 manages, for example, a takeoff / landing facility (hereinafter referred to as a “port”) installed at a departure point (takeoff point) and a destination point (or waypoint) of UAV1.
- the port is installed on the ground surface (ground) or the roof of a building, for example.
- a specific object hereinafter, referred to as “specific object” that generates a strong magnetic field, electric field, or electromagnetic field (hereinafter, referred to as “magnetic field or the like”).
- specific objects include permanent magnets, transformers, generators, etc., and their positions are specified in advance.
- Port management is performed based on port location information, port reservation information, and the like.
- the position information of the port indicates the installation position of the port.
- the port reservation information includes the aircraft ID of the UAV1 that reserved the port, information on the estimated time of arrival, and the like.
- the aircraft ID of the UAV1 is identification information that identifies the UAV1.
- FIG. 2 is a diagram showing a schematic configuration example of UAV1.
- the UAV1 includes a drive unit 11, a positioning unit 12, a wireless communication unit 13, an imaging unit 14, a rotation angle detection unit 15, a first attitude estimation unit 16, a second attitude estimation unit 17, and a control unit. Equipped with 18 mag.
- the first posture estimation unit 16 also functions as the first acquisition unit
- the second posture estimation unit 17 also functions as the second acquisition unit.
- One posture estimation unit (for example, composed of one processor or the like) may function as both a first posture estimation unit and a second posture estimation unit.
- the control unit 18 is an example of a control device, a third acquisition unit, a flight control unit, a power supply control unit, a calibration unit, and a distance calculation unit.
- the UAV1 includes a rotor (propeller) which is a horizontal rotor, a battery for supplying electric power to each part of the UAV1 and the like.
- the drive unit 11 includes a motor, a rotating shaft, and the like.
- the drive unit 11 rotates a plurality of rotors by a motor, a rotation shaft, or the like that drives according to a control signal output from the control unit 18.
- the positioning unit 12 includes a radio wave receiver, an altitude sensor, and the like.
- the positioning unit 12 receives a radio wave transmitted from a satellite of GNSS (Global Navigation Satellite System) by a radio wave receiver, and detects the current position (latitude and longitude) in the horizontal direction of the UAV1 based on the radio wave.
- the current position of UAV1 is the flight position of UAV1 in flight.
- the current position of the UAV 1 in the horizontal direction may be corrected based on the image captured by the imaging unit 14 and the radio wave transmitted from the radio base station.
- the position information indicating the current position detected by the positioning unit 12 is output to the control unit 18. Further, the positioning unit 12 may detect the current position (altitude) of the UAV 1 in the vertical direction by an altitude sensor such as a barometric pressure sensor. In this case, the position information includes altitude information indicating the altitude of UAV1.
- the position information including the altitude information is represented by three-dimensional position coordinates (X, Y, Z) in the world coordinate system.
- the altitude of UAV1 may be detected based on the radio waves received from the GNSS satellite. In this case, the altitude detected based on the radio waves received from the GNSS satellite may be used to supplement the altitude detected by the altitude sensor.
- the wireless communication unit 13 is responsible for controlling communication performed via the communication network NW.
- the imaging unit 14 includes a camera and the like.
- a camera is an example of an optical sensor.
- the camera continuously captures an object in real space within the range of the angle of view (that is, detects light reflected or emitted from the object), and a detection value (first) representing an image (pixel group).
- An example of the detected value) is output to the first posture estimation unit 16.
- the detected value output to the first attitude estimation unit 16 is used for the attitude estimation of the UAV1.
- the attitude of UAV1 is, for example, how much the UAV1 has rotated from the state where the UAV1 is horizontal to the ground and the reference direction of the UAV1 is set to, for example, north (in other words, what kind of rotation is the orientation).
- the rotation is represented by, for example, a rotation angle (roll angle) around the X axis, a rotation angle (pitch angle) around the Y axis, and a rotation angle (yaw angle) around the Z axis (vertical direction) (that is,). Represented by Euler angles).
- the rotation may be represented by a rotation matrix around the X-axis, a rotation matrix around the Y-axis, and a rotation matrix around the Z-axis.
- the rotation is represented by a quaternion (three rotation axes (vectors) and one rotation angle (scalar)) in which so-called gimbal lock does not occur and interpolation is easy.
- the quaternion can be expressed by the formula "ix + jy + kz + w".
- i, j, and k are imaginary units, respectively. Therefore, x, y, and z are imaginary parts, and w is a real part.
- x is an X-axis value
- y is a Y-axis value
- z is a Z-axis value.
- Euler angles, rotation matrices, and quaternions are, as is known, convertible to each other.
- the camera is attached to the UAV1 so that it covers the horizontal direction even if the viewing direction is small. Desirably, the camera should be a camera with a wide-angle lens (eg, an omnidirectional camera).
- the camera is preferably an RGB camera, but may be an infrared camera.
- An optical sensor other than these cameras for example, a range sensor, a laser sensor, or LiDAR (Light Detection and Ringing, or Laser Imaging Detection and Ringing) may be provided in the UAV 1 for estimating the attitude of the UAV1. ..
- the rotation angle detection unit 15 includes at least one type of 3-axis sensor.
- the 3-axis sensor include a 3-axis angular velocity sensor (also referred to as a gyro sensor), a 3-axis acceleration sensor, and a 3-axis geomagnetic sensor (also referred to as a magnetic sensor or an orientation sensor).
- the 3-axis angular velocity sensor and the 3-axis acceleration sensor are also referred to as inertial sensors, respectively.
- the 3-axis angular velocity sensor is equipped with, for example, a piezoelectric element, and continuously detects the angular velocity around the X-axis (angle rotating in a unit time), the angular velocity around the Y-axis, and the angular velocity around the Z-axis, and determines each angular velocity.
- the represented detected value (an example of the second detected value) is output to the second posture estimation unit 17.
- the 3-axis acceleration sensor is provided with, for example, a piezoelectric element, continuously detects the gravitational acceleration, and outputs a detected value (an example of the second detected value) representing the gravitational acceleration as a three-dimensional vector to the second posture estimation unit 17. ..
- the 3-axis geomagnetic sensor is equipped with, for example, an electronic compass, continuously detects the geomagnetism, and outputs a detection value (an example of the second detection value) representing the north (magnetic north) as a three-dimensional vector to the second attitude estimation unit 17.
- a detection value an example of the second detection value
- the two types of 3-axis sensors are also collectively referred to as 6-axis sensors.
- the three types of 3-axis sensors that is, 3-axis angular velocity sensor, 3-axis acceleration sensor, and 3-axis geomagnetic sensor
- a 9-axis sensor is also collectively referred to as a 9-axis sensor.
- the first attitude estimation unit 16 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a non-volatile memory, and the like, which are processors.
- the first attitude estimation unit 16 continuously acquires the detected values from the imaging unit 14, and performs Visual-SLAM (Simultaneous Localization and Mapping) based on the detected values (images) to perform the attitude (world coordinate system) of the UAV1. Posture in) is estimated.
- the first attitude estimation unit 16 continuously captures images when the UAV1 is in the landing state (for example, when it is placed on the ground and the reference direction is set to the north, for example) and the UAV1 is continuously after the start of flight.
- first posture estimation results are Euler angles (consisting of three parameters of roll angles, pitch angles, and yaw angles) and a rotation matrix (X-axis).
- the first attitude estimation unit 16 may estimate the attitude of the UAV1 by performing SLAM based on the detected value detected by an optical sensor other than the camera.
- the second posture estimation unit 17 includes a CPU, a ROM, a RAM, a non-volatile memory, and the like, which are processors.
- the second attitude estimation unit 17 continuously acquires the detected values from the rotation angle detecting unit 15, and estimates the attitude (attitude in the world coordinate system) of UAV1 based on the detected values.
- the result of attitude estimation by the second attitude estimation unit 17 (hereinafter referred to as "second attitude estimation result") is represented by Euler angles, rotation matrix, or quaternion (preferably, it is preferable to be represented by quaternion). It is output to the control unit 18.
- the second attitude estimation unit 17 uses a detection value (angular velocity around the X-axis, Y) continuously detected by the three-axis angular velocity sensor after the UAV1 starts flying.
- the angular velocity around the axis and the angular velocity around the Z axis) are acquired, and three Euler angles (roll angle, pitch angle, and yaw angle) are calculated from the acquired detected values, and the calculated Euler angles (roll angle, Pitch angle and yaw angle) are estimated as the posture of UAV1.
- the roll angle is calculated based on the angular velocity around the X axis
- the pitch angle is calculated based on the angular velocity around the Y axis
- the yaw angle is calculated based on the angular velocity around the Z axis.
- the second posture estimation unit 17 may estimate the rotation matrix converted by a predetermined conversion formula based on the calculated Euler angles as the posture of the UAV1.
- the second attitude estimation unit 17 may estimate the quaternion converted by a predetermined conversion formula based on the calculated Euler angles as the attitude of UAV1. It is desirable that the dimension of the first posture estimation result (that is, the number of parameters) and the dimension of the second posture estimation result match. For example, when the first posture estimation result is represented by a quaternion, the second posture estimation result is also represented by a quaternion.
- the second attitude estimation unit 17 uses detection values continuously detected by the 3-axis angular velocity sensor after the UAV1 starts flying (each). (Each angular velocity around the axis) and the detected value (three-dimensional vector representing the gravitational acceleration) continuously detected by the three-axis acceleration sensor are acquired. Then, the second posture estimation unit 17 calculates the roll angle and the pitch angle from the three-dimensional vector representing the gravitational acceleration detected by the three-axis acceleration sensor by a predetermined calculation formula.
- the second posture estimation unit 17 has three Euler angles (roll angles, pitch angles, and yaws) from the angular velocities around the X-axis, the angular velocities around the Y-axis, and the angular velocities around the Z-axis detected by the three-axis angular velocity sensor. Angle) is calculated. Then, the second posture estimation unit 17 uses the roll angle and pitch angle calculated from the three-dimensional vector representing the gravitational acceleration, and the complementary filter (or Kalman filter) from the angular velocity around the X-axis and the angular velocity around the Y-axis. Correct the calculated roll angle and pitch angle. This cancels out the drift error in the roll direction and the pitch direction.
- the complementary filter or Kalman filter
- the second posture estimation unit 17 estimates the corrected roll angle, the corrected pitch angle, and the calculated yaw angle as the posture of the UAV1.
- the second posture estimation unit 17 may estimate the rotation matrix converted by a predetermined conversion formula based on the calculated or corrected Euler angles as the posture of the UAV1.
- the second attitude estimation unit 17 may estimate the quaternion converted by a predetermined conversion formula based on the calculated or corrected Euler angles as the attitude of UAV1.
- the second attitude estimation unit 17 continuously detects the UAV1 by the 3-axis angular velocity sensor after the flight starts. Detected values (each angular velocity around each axis), detected values continuously detected by the 3-axis accelerometer (three-dimensional vector of gravitational acceleration), and detected values detected by the 3-axis geomagnetic sensor (north) 3D vector to represent) and. Then, the second posture estimation unit 17 calculates the roll angle and the pitch angle from the three-dimensional vector representing the gravitational acceleration detected by the three-axis acceleration sensor by a predetermined calculation formula.
- the second posture estimation unit 17 has three Euler angles (roll angles, pitch angles, and yaws) from the angular velocities around the X-axis, the angular velocities around the Y-axis, and the angular velocities around the Z-axis detected by the three-axis angular velocity sensor. Angle) is calculated. Then, the second posture estimation unit 17 uses the roll angle and pitch angle calculated from the three-dimensional vector representing the gravitational acceleration, and the complementary filter (or Kalman filter) from the angular velocity around the X-axis and the angular velocity around the Y-axis. Correct the calculated roll angle and pitch angle.
- the second attitude estimation unit 17 calculates the yaw angle from the three-dimensional vector representing the north detected by the three-axis geomagnetic sensor by a predetermined calculation formula, and the calculated yaw angle and the complementary filter (or Kalman filter). Is used to correct the yaw angle calculated from the angular velocity around the Z axis. This cancels out the error in the yaw direction. Then, the second posture estimation unit 17 estimates the corrected roll angle, the corrected pitch angle, and the corrected yaw angle as the posture of the UAV1. Alternatively, the second posture estimation unit 17 may estimate the rotation matrix converted by a predetermined conversion formula based on the corrected Euler angles as the posture of the UAV1. Desirably, the second attitude estimation unit 17 may estimate the quaternion converted by a predetermined conversion formula based on the corrected Euler angles as the attitude of UAV1.
- the rotation angle detection unit 15 is more susceptible to the influence of a magnetic field or the like than the image pickup unit 14, and if the specific object is present near the UAV 1, the detected value may be unreliable. Therefore, under such a situation, the accuracy of the posture estimation by the second posture estimation unit 17 (that is, the accuracy of the second posture estimation result) is the accuracy of the posture estimation by the first posture estimation unit 16 (that is, the accuracy of the first posture). Since the accuracy of the estimation result is lower than that of the estimation result), it is desirable that the first attitude estimation result is used for the attitude estimation of UAV1.
- the accuracy of the attitude estimation by the second attitude estimation unit 17 is higher than the accuracy of the attitude estimation by the first attitude estimation unit 16, so that the second attitude estimation result is It is desirable to use it for posture estimation of UAV1.
- the control unit 18 includes a CPU, a ROM, a RAM, a non-volatile memory, and the like, which are processors.
- the control unit 18 performs flight control of the UAV1 (that is, control from takeoff to landing of the UAV1) according to a control program stored in, for example, a ROM or a non-volatile memory.
- flight control the position information acquired from the positioning unit 12, the first attitude estimation result acquired from the first attitude estimation unit 16, the second attitude estimation result acquired from the second attitude estimation unit 17, and the flight plan.
- the flight plan information and the like indicating the above are used to control the rotation speed of the rotor, the position and attitude of the UAV1, and the direction of travel.
- the control unit 18 obtains the position of the first posture estimation result acquired from the first posture estimation unit 16 and the second posture estimation result acquired from the second posture estimation unit 17 from the positioning unit 12.
- the attitude of UAV1 is controlled by using the ratio based on the information (that is, the position information indicating the current position).
- the ratio based on the position information is, in other words, a ratio that can change according to the current position of the UAV1 in flight.
- Such a ratio is the ratio "A: B (A to B)" (A and B) of the weight "A” in which the first posture estimation result is used and the weight "B" in which the second posture estimation result is used.
- the ratio of the first posture estimation result used is "A / (A + B)"
- the ratio of the second posture estimation result used is "B". / (A + B) ").
- the control unit 18 controls the attitude of the UAV1 (that is, the first attitude) by using only the first attitude estimation result without using the second attitude estimation result. 1 Flight control based on the attitude estimation result) is performed.
- the control unit 18 controls the attitude of the UAV1 (that is, the first attitude) by using only the second attitude estimation result without using the first attitude estimation result. 2 Flight control based on the attitude estimation result) is performed.
- both the first posture estimation result and the second posture estimation result are used. It is not necessary to obtain the posture estimation result of. That is, in this case, only the posture estimation result of the person who is used is obtained, and it is not necessary to calculate the person who is not used.
- the control unit 18 controls the attitude of the UAV1 by equally using the first attitude estimation result and the second attitude estimation result.
- the control unit 18 may use the first posture estimation result and the second posture estimation result by merging them.
- the first posture estimation result and the second posture estimation result are combined by the ⁇ value as shown in the following equations (1) to (4).
- a method of ( ⁇ blending) can be mentioned.
- the following equations (1) to (4) are examples of synthetic calculation equations for each parameter (x, y, z, w) when the posture of UAV1 is expressed by a quaternion, and correspond to the equation of linear interpolation.
- ⁇ is a value of 0 or more and 1 or less, and is A / (A + B).
- x1, y1, z1, and w1 each indicate four parameters of the quaternion in the first posture estimation result.
- x2, y2, z2, and w2 each indicate four parameters of the quaternion in the second posture estimation result.
- x, y, z, and w each represent four parameters of the quaternion synthesized by the ⁇ value, which are used to control the attitude of UAV1.
- the spherical linear interpolation formula is used (that is, "sin ⁇ / sin ⁇ " is used instead of ⁇ shown in (1) to (4), and ( ⁇ -1) is replaced.
- the four parameters of the quaternion may be synthesized by the ⁇ value, respectively.
- a highly accurate composite result can be obtained even when the amount of deviation between the first posture estimation result and the second posture estimation result is large.
- the first and second attitude estimation results represented by Euler angles or rotation matrices may be synthesized by ⁇ values using the linear interpolation equations shown in the above equations (1) to (4). ..
- the ratio based on the position information of UAV1 is determined by the positional relationship between UAV1 and a specific object. For example, it is determined that the shorter the distance between UAV1 and the specific object, the smaller B becomes with respect to A. As a result, the ratio of the first posture estimation result being used increases. On the other hand, the longer the distance between UAV1 and the specific object, the larger B is determined with respect to A. As a result, the rate at which the second posture estimation result is used increases.
- the ratio at which the first posture estimation result is used may be determined so as to be inversely proportional to the square of the distance between UAV1 and the specific object. As described above, when the distance between UAV1 and the specific object is used, the ratio based on the position information of UAV1 can be said to be the ratio based on the distance between UAV1 and the specific object.
- the ratio based on the position information of UAV1 can be said to be the ratio based on the distance from the takeoff point of UAV1.
- the first attitude estimation result and the second attitude estimation result can be used at a rate that changes according to the distance from the takeoff point of UAV1.
- the control unit 18 calculates the distance from the takeoff point of the UAV1 based on the position information of the UAV1. For example, the distance is calculated from the three-dimensional position coordinates of the takeoff point of UAV1 and the three-dimensional position coordinates of the current position of UAV1.
- the control unit 18 has at least the first attitude estimation result (that is, the first attitude estimation result, or the first attitude estimation result and the second attitude) from the time the UAV1 takes off until it reaches a predetermined distance (for example, 30 m).
- a predetermined distance for example, 30 m.
- the attitude of UAV1 Control may be performed. That is, it is expected that the second attitude estimation result will be reliable (in other words, the second attitude will be obtained when the UAV1 is separated from the specific object by a predetermined distance (so as not to interfere with the attitude control of the UAV1). It is possible to switch to flight control based on the attitude estimation result. As a result, it is possible to switch to attitude control with a small load from an early stage when the second attitude estimation result is expected to be reliable.
- the ratio based on the position information of UAV1 can be said to be the ratio based on the altitude of UAV1.
- the first attitude estimation result and the second attitude estimation result can be used at a rate that changes according to the flight altitude of the UAV1.
- the control unit 18 uses at least the first attitude estimation result from the time the UAV1 takes off until it reaches a predetermined altitude, and after reaching the predetermined altitude, the control unit 18 uses the second attitude estimation result to obtain the UAV1.
- control unit 18 uses at least the first posture estimation result when the deviation amount between the first posture estimation result and the second posture estimation result is equal to or more than the threshold value, and when the deviation amount is less than the threshold value, the control unit 18 uses the first posture estimation result.
- the attitude of UAV1 may be controlled by using the attitude estimation result. As a result, the amount of deviation between the first attitude estimation result and the second attitude estimation result is reduced to some extent (that is, the second attitude estimation result becomes reliable), and the attitude control with a small load is switched from an early stage. Can be done.
- the control unit 18 calculates the integrated value of the deviation amount in a predetermined time from the time when the deviation amount between the first posture estimation result and the second posture estimation result becomes less than the threshold value, and the integrated value of the deviation amount is If it is less than the threshold value, the second posture estimation result may be used. Further, the deviation amount can be calculated regardless of whether the first posture estimation result and the second posture estimation result are represented by Euler angles, rotation matrix, or quaternion, but the deviation amount is represented by the quaternion. If the deviation amount is calculated using the 1 posture estimation result and the 2nd posture estimation result, it is possible to suppress the calculation process from becoming complicated.
- control unit 18 calibrates (sets) the reference direction of the UAV1 to a true value (for example, north) before the takeoff of the UAV1 according to the instruction of the operator at the takeoff point, and the reference detected by the three-axis geomagnetic sensor. If the amount of deviation between the value indicating the direction (north) and the true value is greater than or equal to the threshold value, at least the first posture estimation result should be used, and if the amount of deviation is less than the threshold value, the second attitude estimation result should be used.
- the posture of the UAV1 may be controlled by the above.
- the control unit 18 calculates the integrated value of the deviation amount in a predetermined time from the time when the deviation amount between the value indicating the reference orientation and the true value becomes less than the threshold value, and the integrated value of the deviation amount is less than the threshold value.
- the second posture estimation result may be used.
- the control unit 18 uses the first attitude estimation result when the UAV1 is in the predetermined area, and uses the second attitude estimation result when the UAV1 is outside the predetermined area to obtain the attitude of the UAV1. May be controlled. As a result, it is possible to switch between the use of the first attitude estimation result and the use of the second attitude estimation result depending on whether or not a strong magnetic field or the like enters a predetermined area during the flight of the UAV1.
- the posture estimation result (that is, the first posture estimation result, the second posture estimation result, or the first posture estimation result and the second posture) obtained at a ratio based on the position information of the UAV1 is obtained.
- Feedback control is performed so that the UAV1 maintains a normal posture according to the posture estimation result) that is merged with the posture estimation result.
- FIG. 3 is a flowchart showing an example of processing executed by the control unit 18 of UAV1. Note that all or part of the processing shown in FIG. 3 may be performed by the control server CS.
- FIG. 4 is a diagram showing a reference direction of the UAV1 set before takeoff.
- FIG. 5 is a conceptual diagram showing a state in which UAV1 takes off from a port in which a specific object exists in the vicinity and heads for a destination point.
- UAV1 that has acquired flight plan information from UTMS2 is port P installed on the roof of building B as shown in FIG.
- step S1 The process shown in FIG. 3 is started when the above flight start command is received.
- the control unit 18 performs calibration (step S1) to set the reference direction of UAV1 to a true value (the direction in which the reference point of UAV1 is currently facing, for example, north. ) To calibrate. As a result, the control unit 18 recognizes the correct north.
- the control unit 18 activates each unit of UAV1 and starts flight control of UAV1 (step S2).
- the positioning unit 12 outputs the position information indicating the current position of the UAV 1 to the control unit 18 at a predetermined cycle.
- the imaging unit 14 outputs the detected detection value to the first posture estimation unit 16 (or the first posture estimation unit 16 and the control unit 18) at a predetermined cycle.
- the first posture estimation unit 16 estimates the posture of the UAV1 by performing Visual-SLAM based on the detected value from the imaging unit 14, and outputs the first posture estimation result to the control unit 18 at a predetermined cycle.
- the rotation angle detection unit 15 outputs the detected detection value to the second posture estimation unit 17 (or the second posture estimation unit 17 and the control unit 18) at a predetermined cycle.
- the second posture estimation unit 17 estimates the posture of the UAV1 based on the value detected from the rotation angle detection unit 15, and outputs the second posture estimation result to the control unit 18 at a predetermined cycle.
- control unit 18 acquires the position information from the imaging unit 14 (step S3).
- the control unit 18 acquires the first posture estimation result from the first posture estimation unit 16 (step S4).
- the control unit 18 acquires the second posture estimation result from the second posture estimation unit 17 (step S5).
- the control unit 18 determines the ratio based on the position information acquired in step S3 as described above (step S6).
- the control unit 18 performs flight control including control of the position, attitude, and traveling direction of the UAV1 (step S7). In such flight control, the control unit 18 uses the first attitude estimation result acquired in step S4 and the second attitude estimation result acquired in step S5 at the ratio determined in step S6, thereby UAV1. Attitude control (flight control based on the ratio of attitude estimation results) is performed.
- control unit 18 determines whether or not the UAV1 has arrived at the destination point based on the flight plan information and the position information of the UAV1 (step S8).
- the control unit 18 determines that the UAV1 has not arrived at the destination point (step S8: NO)
- the control unit 18 proceeds to step S9.
- the control unit 18 ends the process shown in FIG.
- step S9 the control unit 18 determines whether or not to switch from the flight control based on the ratio of the attitude estimation result to the flight control based on the second attitude estimation result. For example, as shown in FIG. 5, the control unit 18 specifies the altitude (flight altitude) of UAV1 after UAV1 takes off from port P based on the altitude information of UAV1, and the specified altitude is a predetermined altitude. When it reaches, it is determined that the flight control based on the ratio of the attitude estimation result is switched to the flight control based on the second attitude estimation result.
- control unit 18 calculates the distance from the port P of the UAV1 based on the position information of the UAV1, and when the calculated distance reaches a predetermined distance, the control unit 18 switches to flight control based on the second attitude estimation result. May be determined.
- control unit 18 calculates the amount of deviation between the most recently acquired first attitude estimation result and the most recently acquired second attitude estimation result, and the calculated deviation amount is less than the threshold value. , It may be determined to switch to flight control based on the second attitude estimation result.
- control unit 18 calculates the amount of deviation between the value indicating the reference direction (north) detected by the three-axis geomagnetic sensor of the rotation angle detection unit 15 and the true value, and if it is less than the calculated threshold value, It may be determined to switch to flight control based on the second attitude estimation result.
- step S9: NO when the control unit 18 determines that the flight control based on the second attitude estimation result is not switched (step S9: NO), the control unit 18 returns to step S3 and repeats the same process as described above.
- step S9: YES when the control unit 18 determines that the flight control is switched to the flight control based on the second attitude estimation result (step S9: YES), the control unit 18 stops the acquisition of the first attitude estimation result and proceeds to step S10.
- the control unit 18 may turn off the power supply to the image pickup unit 14 and the first posture estimation unit 16. That is, the power supply to the imaging unit 14 and the first posture estimation unit 16 is controlled based on the position information of the UAV1. As a result, the power consumption in UAV1 can be suppressed.
- step S10 the control unit 18 acquires the position information from the imaging unit 14.
- step S11 the control unit 18 acquires the second posture estimation result from the second posture estimation unit 17 (step S11).
- step S12 the control unit 18 performs flight control including control of the position, attitude, and traveling direction of the UAV1 (step S12). In such flight control, the control unit 18 controls the attitude of the UAV1 by using the second attitude estimation result acquired in step S11.
- control unit 18 determines whether or not the UAV1 has arrived at the destination point based on the flight plan information and the position information of the UAV1 (step S13).
- step S13: NO the control unit 18 proceeds to step S14.
- step S13: YES the control unit 18 ends the process shown in FIG.
- step S14 the control unit 18 determines whether or not the UAV1 has entered a predetermined area Ar (for example, a pre-registered area) having a strong magnetic field or the like based on the position information of the UAV1.
- a predetermined area Ar for example, a pre-registered area
- the control unit 18 returns to step S10 and repeats the same process as described above.
- the control unit 18 determines that the UAV1 has entered the area Ar (step S14: YES)
- the control unit 18 stops acquiring the second posture estimation result and proceeds to step S15.
- the flight control based on the second attitude estimation result can be switched to the flight control based on the first attitude estimation result.
- the control unit 18 performs the image pickup unit 14 and the first attitude estimation unit 16 at least before entering the area Ar (for example, several seconds before).
- the power supply to the first posture estimation unit 16 is turned on to activate the imaging unit 14 and the first posture estimation unit 16.
- the flight control based on the first attitude estimation result can be entered into the area Ar. You can continue stable flight even if you switch to.
- the area Ar flies many times or a plurality of UAV1s fly, the accuracy of attitude estimation by the first attitude estimation unit 16 is improved by accumulating the feature point map information of the area Ar. Can be expected.
- step S15 the control unit 18 acquires the position information from the imaging unit 14.
- step S16 acquires the first posture estimation result from the first posture estimation unit 16 (step S16).
- step S17 the control unit 18 performs flight control including control of the position, attitude, and traveling direction of the UAV1 (step S17). In such flight control, the control unit 18 controls the attitude of the UAV1 by using the first attitude estimation result acquired in step S16.
- control unit 18 determines whether or not the UAV1 has arrived at the destination point based on the flight plan information and the position information of the UAV1 (step S18).
- step S18 determines that the UAV1 has not arrived at the destination point
- step S19 the control unit 18 proceeds to step S19.
- step S18 determines that the UAV1 has arrived at the destination point
- step S18 ends the process shown in FIG.
- step S19 the control unit 18 determines whether or not UAV1 has exited the area Ar based on the position information of UAV1.
- step S19: NO the control unit 18 returns to step S15 and repeats the same process as described above.
- step S19: YES the control unit 18 stops acquiring the first posture estimation result and returns to step S10.
- the flight control based on the first attitude estimation result is switched to the flight control based on the second attitude estimation result.
- the first attitude estimation unit 16 performs Visual-SLAM based on the detection value detected by the imaging unit 14 to estimate the attitude of the UAV1 and estimate the second attitude.
- the unit 17 estimates the attitude of the UAV1 based on the detected value detected by the rotation angle detection unit 15.
- the control unit 18 uses the first posture estimation result from the first posture estimation unit 16 and the second posture estimation result from the second posture estimation unit 17 at a ratio based on the position information of the UAV1 to obtain the UAV1. Since the attitude is controlled, stable UAV1 takeoff can be achieved even if the detected value detected by the geomagnetic sensor or inertial sensor is unreliable due to the presence of a specific object near the takeoff point of UAV1. It can be realized and UAV1 can be flown stably.
- control unit 18 of the UAV1 is configured to control the posture of the UAV1 by using the first posture estimation result and the second posture estimation result at a ratio based on the position information of the UAV1.
- the control server CS may be configured to control the attitude of the UAV1 as the control device of the present invention.
- the control server CS functions as a first acquisition unit, a second acquisition unit, a third acquisition unit, a first attitude estimation unit, a second attitude estimation unit, a flight control unit, and the like. Then, the control server CS acquires the first detection value detected by the imaging unit 14 from UAV1, acquires the second detection value detected by the rotation angle detection unit 15 from UAV1, and detects it by the positioning unit 12. Acquires position information indicating the current position of UAV1. Then, the control server CS estimates the attitude of UAV1 by the first attitude estimation unit based on the acquired first detection value, and estimates the attitude of UAV1 by the second attitude estimation unit based on the acquired second detection value.
- the posture of the UAV1 is controlled by using the first posture estimation result by the first posture estimation unit and the second posture estimation result by the second posture estimation unit at a ratio based on the acquired position information. Such control is performed by transmitting a control command from the control server CS to UAV1.
- the present invention is for a manned aircraft capable of flying without the presence of a pilot in the aircraft. Is also applicable.
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Abstract
第1姿勢推定部16が撮像部14により検出された検出値に基づいてVisual-SLAMを行うことでUAV1の姿勢推定を行い、第2姿勢推定部17が回転角検出部15により検出された検出値に基づいてUAV1の姿勢推定を行う。そして、制御部18が第1姿勢推定部16からの第1姿勢推定結果と、第2姿勢推定部17からの第2姿勢推定結果とをUAV1の位置情報に基づく割合で利用することによりUAV1の姿勢の制御を行う。
Description
本発明は、航空機の飛行制御を行うシステムにより実行される制御方法等の技術分野に関する。
従来、地磁気センサ、及び慣性センサ(例えば、加速度センサや角速度センサ)は、姿勢を推定するために携帯電話やカーナビ、航空機など多くの装置で使用されている。例えば、特許文献1には、3軸のジャイロ装置(角速度センサ)により計測された方位情報を地磁気センサで計測された方位情報で補正することで飛翔体の姿勢を高精度に計測する技術が開示されている。
しかしながら、地磁気センサや慣性センサにより検出された検出値(計測値)が信頼できない場合がある。例えば、付近に強い磁場や電場を発生させる物体が存在する場合には、地磁気センサや慣性センサが異常値を出力してしまい航空機の姿勢を正確に推定することができない場合がある。その結果、航空機の飛行が安定しなくなってしまうおそれがある。
そこで、地磁気センサや慣性センサにより検出された検出値が信頼できない場合であっても、航空機を安定して飛行させることが可能な制御装置及び制御方法を提供する。
上記課題を解決するために、請求項1に記載の発明は、光学センサと少なくとも1種類の3軸センサとを備える航空機の飛行制御を行う制御装置であって、前記光学センサにより検出された第1検出値を取得する第1取得部と、前記3軸センサにより検出された第2検出値を取得する第2取得部と、前記航空機の飛行位置を示す位置情報を取得する第3取得部と、前記第1検出値に基づいて前記航空機の姿勢推定を行う第1姿勢推定部と、前記第2検出値に基づいて前記航空機の姿勢推定を行う第2姿勢推定部と、前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とを前記位置情報に基づく割合で利用することにより前記航空機の飛行制御を行う飛行制御部と、を備えることを特徴とする。これにより、地磁気センサや慣性センサにより検出された検出値が信頼できない場合であっても、航空機を安定して飛行させることができる。
請求項2に記載の発明は、請求項1に記載の制御装置において、前記位置情報には、前記航空機の高度を示す高度情報が含まれ、前記飛行制御部は、前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とを前記高度に基づく割合で利用することを特徴とする。これにより、第1姿勢推定部による姿勢推定の結果と第2姿勢推定部による姿勢推定の結果を航空機の飛行高度に応じて変化する割合で利用することができる。
請求項3に記載の発明は、請求項2に記載の制御装置において、前記飛行制御部は、前記航空機が離陸してから所定の高度に達するまでは少なくとも前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記所定の高度に達した後は前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする。これにより、第2姿勢推定部による姿勢推定の結果が信頼できる程度になることが予想される早い段階から負荷の小さい飛行制御に切り替えることができる。
請求項4に記載の発明は、請求項1に記載の制御装置において、前記位置情報に基づいて、前記航空機の離陸地点からの距離を算出する距離算出部を更に備え、前記飛行制御部は、前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とを前記距離に基づく割合で利用することを特徴とする。これにより、第1姿勢推定部による姿勢推定の結果と第2姿勢推定部による姿勢推定の結果を航空機の離陸地点からの距離に応じて変化する割合で利用することができる。
請求項5に記載の発明は、請求項4に記載の制御装置において、前記飛行制御部は、前記航空機が離陸してから所定の距離に達するまでは少なくとも前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記所定の距離に達した後は前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする。これにより、第2姿勢推定部による姿勢推定の結果が信頼できる程度になることが予想される早い段階から負荷の小さい飛行制御に切り替えることができる。
請求項6に記載の発明は、請求項1、2、及び4の何れか一項に記載の制御装置において、前記飛行制御部は、前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とのずれ量が閾値以上である場合は少なくとも前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記ずれ量が前記閾値未満である場合は前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする。これにより、第1姿勢推定部による姿勢推定の結果と第2姿勢推定部による姿勢推定の結果とのずれ量がある程度小さくなった早い段階から負荷の小さい飛行制御に切り替えることができる。
請求項7に記載の発明は、請求項1、2、及び4の何れか一項に記載の制御装置において、前記3軸センサには、地磁気センサが含まれ、前記航空機の離陸前に基準方位を真値に校正する校正部を更に備え、前記飛行制御部は、前記地磁気センサにより検出された基準方位を示す値と前記真値とのずれ量が閾値以上である場合は少なくとも前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記ずれ量が前記閾値未満である場合は前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする。これにより、基準方位を示す値と真値とのずれ量がある程度小さくなった早い段階から負荷の小さい飛行制御に切り替えることができる。
請求項8に記載の発明は、請求項1乃至7の何れか一項に記載の制御装置において、前記飛行制御部は、前記航空機が所定のエリア内にあるときは前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記航空機が前記所定のエリア外にあるときは前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする。これにより、航空機の飛行中に当該航空機が所定のエリア内に入ったか否かにしたがって第1姿勢推定部による姿勢推定の結果と第2姿勢推定部による姿勢推定の結果を切り替えて利用することができる。
請求項9に記載の発明は、請求項1乃至8の何れか一項に記載の制御装置において、前記位置情報に基づいて、前記光学センサへの電力供給を制御する電力供給制御部を更に備えることを特徴とする。これにより、航空機における消費電力を抑えることができる。
請求項10に記載の発明は、光学センサと少なくとも1種類の3軸センサとを備える航空機の飛行制御を行うシステムにより実行される制御方法であって、前記光学センサにより検出された第1検出値を取得するステップと、前記3軸センサにより検出された第2検出値を取得するステップと、前記航空機の飛行位置を示す位置情報を取得するステップと、前記第1検出値に基づいて前記航空機の姿勢推定を行うステップと、前記第2検出値に基づいて前記航空機の姿勢推定を行うステップと、前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とを前記位置情報に基づく割合で利用することにより前記航空機の飛行制御を行うステップと、を含むことを特徴とする。
本発明によれば、地磁気センサや慣性センサにより検出された検出値が信頼できない場合であっても、航空機を安定して飛行させることができる。
以下、図面を参照して本発明の一実施形態について説明する。なお、以下の実施形態は、飛行システムに対して本発明を適用した場合の実施形態である。
[1.飛行システムSの構成及び動作概要]
先ず、図1を参照して、無人で飛行可能な航空機を所定の目的のために飛行させる飛行システムSの構成及び動作概要について説明する。所定の目的の例として、例えば、運搬、測量、撮影、点検、監視等が挙げられる。図1は、飛行システムSの概要構成例を示す図である。図1に示すように、飛行システムSは、大気中(空中)を飛行する無人航空機(以下、「UAV(Unmanned Aerial Vehicle)」と称する)1、運航管理システム(以下、「UTMS(UAV Traffic Management System)」と称する)2、及びポート管理システム(以下、「PMS(Port Management System)」と称する)3を含んで構成される。UAV1、UTMS2、及びPMS3は、通信ネットワークNWを介して互いに通信可能になっている。通信ネットワークNWは、例えば、インターネット、移動体通信ネットワーク及びその無線基地局等から構成される。なお、図1の例では、1つのUAV1を示すが実際には複数存在してよい。UTMS2とPMS3とは、1つの管理システムとして構成されてもよい。
先ず、図1を参照して、無人で飛行可能な航空機を所定の目的のために飛行させる飛行システムSの構成及び動作概要について説明する。所定の目的の例として、例えば、運搬、測量、撮影、点検、監視等が挙げられる。図1は、飛行システムSの概要構成例を示す図である。図1に示すように、飛行システムSは、大気中(空中)を飛行する無人航空機(以下、「UAV(Unmanned Aerial Vehicle)」と称する)1、運航管理システム(以下、「UTMS(UAV Traffic Management System)」と称する)2、及びポート管理システム(以下、「PMS(Port Management System)」と称する)3を含んで構成される。UAV1、UTMS2、及びPMS3は、通信ネットワークNWを介して互いに通信可能になっている。通信ネットワークNWは、例えば、インターネット、移動体通信ネットワーク及びその無線基地局等から構成される。なお、図1の例では、1つのUAV1を示すが実際には複数存在してよい。UTMS2とPMS3とは、1つの管理システムとして構成されてもよい。
UAV1は、地上からオペレータによる遠隔操縦に従って飛行、または自律的に飛行することが可能になっている。UAV1は、ドローン、またはマルチコプタとも呼ばれる。UAV1は、GCS(Ground Control Station)により管理される。GCSは、例えば、アプリケーションとして通信ネットワークNWに接続可能な操縦端末に搭載される。この場合、オペレータは、例えば、操縦端末を操作してUAV1を遠隔操縦する人である。或いは、GCSは、サーバ等により構成されてもよい。この場合、オペレータは、例えば、GCSの管理者、またはサーバが備えるコントローラである。なお、UAV1の自律的な飛行は、当該UAV1が飛行制御を行うことによる自律飛行に限定されるものではなく、当該UAV1の自律的な飛行には、例えば飛行システムS全体として飛行制御を行うことによる自律飛行も含まれる。
UTMS2は、制御サーバCSを含む1以上のサーバ等を備えて構成される。制御サーバCSは、制御装置の一例である。UTMS2は、UAV1の運航を管理する。UAV1の運航管理には、UAV1の運航計画の管理、UAV1の飛行状況の管理、及びUAV1の制御が含まれる。UAV1の運航計画とは、UAV1の出発地点(離陸地点)から目的地点までの飛行経路(予定経路)等を含む飛行計画である。飛行経路は、例えば、その経路上の緯度及び経度で表され、飛行高度を含んでもよい。UAV1の飛行状況の管理は、UAV1の航空機情報に基づいて行われる。UAV1の航空機情報には、少なくともUAV1の位置情報が含まれる。UAV1の位置情報は、UAV1の現在位置を示す。UAV1の現在位置とは、飛行中のUAV1の飛行位置である。UAV1の航空機情報には、UAV1の速度情報等が含まれてもよい。速度情報は、UAV1の飛行速度を示す。
PMS3は、1または複数のサーバ等により構成される。PMS3は、例えば、UAV1の出発地点(離陸地点)及び目的地点(または経由地点)に設置された離着陸施設(以下、「ポート」と称する)を管理する。なお、ポートは、例えば、地表(地面)または建造物の屋上等に設置される。このようなポート付近には強い磁場、電場または電磁場(以下、「磁場等」と称する)を発生させる特定の物体(以下、「特定物体」と称する)が存在する場合がある。特定物体の例として、永久磁石、変圧器、発電機等が挙げられ、予め位置が特定されている。また、ポートが設置される地表付近以外でも強い磁場等を発生させる特定物体(例えば、送電線、電波塔、基地局等の建造物等)は存在し得る。ポートの管理は、ポートの位置情報及びポートの予約情報等に基づいて行われる。ここで、ポートの位置情報は、ポートの設置位置を示す。ポートの予約情報には、ポートを予約したUAV1の機体ID、及び到着予定時刻の情報等が含まれる。UAV1の機体IDは、UAV1を識別する識別情報である。なお、ポート付近に特定物体が存在する場合、当該特定物体の位置情報が当該ポートの位置情報とともにPMS3により管理されてもよい。
[2.UAV1の構成及び機能概要]
次に、図2を参照してUAV1の構成及び機能概要について説明する。図2は、UAV1の概要構成例を示す図である。図2に示すように、UAV1は、駆動部11、測位部12、無線通信部13、撮像部14、回転角検出部15、第1姿勢推定部16、第2姿勢推定部17、及び制御部18等を備える。ここで、第1姿勢推定部16は、第1取得部としても機能し、第2姿勢推定部17は、第2取得部としても機能する。一つの姿勢推定部(例えば一つのプロセッサ等で構成)が第1姿勢推定部と第2姿勢推定部の両方として機能してもよい。制御部18は、制御装置、第3取得部、飛行制御部、電力供給制御部、校正部、及び距離算出部の一例である。なお、図示しないが、UAV1は、水平回転翼であるロータ(プロペラ)、及びUAV1の各部へ電力を供給するバッテリ等を備える。
次に、図2を参照してUAV1の構成及び機能概要について説明する。図2は、UAV1の概要構成例を示す図である。図2に示すように、UAV1は、駆動部11、測位部12、無線通信部13、撮像部14、回転角検出部15、第1姿勢推定部16、第2姿勢推定部17、及び制御部18等を備える。ここで、第1姿勢推定部16は、第1取得部としても機能し、第2姿勢推定部17は、第2取得部としても機能する。一つの姿勢推定部(例えば一つのプロセッサ等で構成)が第1姿勢推定部と第2姿勢推定部の両方として機能してもよい。制御部18は、制御装置、第3取得部、飛行制御部、電力供給制御部、校正部、及び距離算出部の一例である。なお、図示しないが、UAV1は、水平回転翼であるロータ(プロペラ)、及びUAV1の各部へ電力を供給するバッテリ等を備える。
駆動部11は、モータ及び回転軸等を備える。駆動部11は、制御部18から出力された制御信号に従って駆動するモータ及び回転軸等により複数のロータを回転させる。測位部12は、電波受信機及び高度センサ等を備える。測位部12は、例えば、GNSS(Global Navigation Satellite System)の衛星から発信された電波を電波受信機により受信し、当該電波に基づいてUAV1の水平方向の現在位置(緯度及び経度)を検出する。UAV1の現在位置は、飛行中のUAV1の飛行位置である。なお、UAV1の水平方向の現在位置は、撮像部14により撮像された画像や上記無線基地局から発信された電波に基づいて補正されてもよい。測位部12により検出された現在位置を示す位置情報は、制御部18へ出力される。さらに、測位部12は、気圧センサ等の高度センサによりUAV1の垂直方向の現在位置(高度)を検出してもよい。この場合、位置情報には、UAV1の高度を示す高度情報が含まれる。高度情報を含む位置情報は、ワールド座標系における三次元位置座標(X,Y,Z)で表される。なお、UAV1の高度は、GNSSの衛星から受信された電波に基づいて検出されてもよい。この場合、GNSSの衛星から受信された電波に基づいて検出された高度は、高度センサにより検出された高度を補うために使用されてもよい。
無線通信部13は、通信ネットワークNWを介して行われる通信の制御を担う。撮像部14は、カメラ等を備える。カメラは、光学センサの一例である。カメラは、その画角に収まる範囲内の実空間の対象物を連続的に撮像(つまり、対象物から反射または放射される光を検出)し、画像(画素群)を表す検出値(第1検出値の一例)を第1姿勢推定部16へ出力する。第1姿勢推定部16に出力された検出値は、UAV1の姿勢推定に用いられる。ここで、UAV1の姿勢は、例えば、UAV1が地面と水平で且つUAV1の基準方位が例えば北に設定された状態からどのくらい回転したか(換言すると、どのような回転でその向きになったか)を示す。当該回転は、例えば、X軸まわりの回転角(ロール角)、Y軸まわりの回転角(ピッチ角)、及びZ軸(垂直方向)まわりの回転角(ヨー角)により表される(つまり、オイラー角で表される)。或いは、当該回転は、X軸まわりの回転行列、Y軸まわりの回転行列、及びZ軸まわりの回転行列で表されてもよい。望ましくは、当該回転は、いわゆるジンバルロックが発生せず、且つ補間が容易なクォータニオン(3つの回転軸(ベクトル)と1つの回転角(スカラ))で表されるとよい。具体的に、クォータニオンは、“ix+jy+kz+w”という式で表すことができる。ここで、i,j,kはそれぞれ虚数単位である。したがって、x,y,zはそれぞれ虚部となり、wは実部となる。また、xはX軸の値、yはY軸の値、zはZ軸の値である。オイラー角、回転行列、及びクォータニオンは、公知の如く、相互に変換可能である。カメラは、その視野方向が少なくても水平方向をカバーするようにUAV1に取り付けられる。望ましくは、カメラは、広角レンズを備えるカメラ(例えば、全方位カメラ)であるとよい。また、カメラは、RGBカメラであることが望ましいが、赤外線カメラであってもよい。なお、UAV1の姿勢推定のために、これらのカメラ以外の光学センサ(例えば、距離センサ、レーザセンサ、またはLiDAR(Light Detection and Ranging、或いはLaser Imaging Detection and Ranging))がUAV1に備えられてもよい。
回転角検出部15は、少なくとも1種類の3軸センサを備える。3軸センサの例として、3軸角速度センサ(ジャイロセンサともいう)、3軸加速度センサ、及び3軸地磁気センサ(磁気センサまたは方位センサともいう)が挙げられる。3軸角速度センサ及び3軸加速度センサは、それぞれ、慣性センサともいう。3軸角速度センサは、例えば圧電素子等を備え、X軸まわりの角速度(単位時間に回転する角度)、Y軸まわりの角速度、及びZ軸まわりの角速度をそれぞれ連続的に検出し、各角速度を表す検出値(第2検出値の一例)を第2姿勢推定部17へ出力する。3軸加速度センサは、例えば圧電素子等を備え、重力加速度を連続的に検出し、重力加速度を3次元ベクトルで表す検出値(第2検出値の一例)を第2姿勢推定部17へ出力する。3軸地磁気センサは、例えば電子コンパス等を備え、地磁気を連続的に検出し、北(磁北)を3次元ベクトルで表す検出値(第2検出値の一例)を第2姿勢推定部17へ出力する。なお、2種類の3軸センサ(例えば、3軸角速度センサと3軸加速度センサ)を総称して6軸センサともいう。また、3種類の3軸センサ(すなわち、3軸角速度センサ、3軸加速度センサ、及び3軸地磁気センサ)を総称して9軸センサともいう。
第1姿勢推定部16は、プロセッサであるCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、及び不揮発性メモリ等を備える。第1姿勢推定部16は、撮像部14から検出値を連続的に取得し、当該検出値(画像)に基づいてVisual-SLAM(Simultaneous Localization and Mapping)を行うことでUAV1の姿勢(ワールド座標系における姿勢)推定を行う。例えば、第1姿勢推定部16は、UAV1が着陸状態(例えば、地面に置かれ、基準方位が例えば北に設定された状態)にあるときに撮像された画像及びUAV1が飛行開始後に連続的に撮像された画像を含む複数の画像(フレーム)において、複数の特徴点のそれぞれを追跡し、UAV1(カメラ)の相対位置から特徴点までの3次元方向ベクトルを算出してマッピングする(例えば、デプスマップを生成する)ことでUAV1の姿勢を推定する。第1姿勢推定部16による姿勢推定の結果(以下、「第1姿勢推定結果」と称する)は、オイラー角(ロール角、ピッチ角、及びヨー角の3パラメータからなる)、回転行列(X軸まわりの回転行列、Y軸まわりの回転行列、及びZ軸まわりの回転行列)、またはクォータニオン(3つの回転軸及び1つの回転角の4パラメータ(x,y,z,w)からなる)で表され(望ましくは、クォータニオンで表されるとよい)、制御部18へ出力される。なお、特徴点を求めるために画像から得られるRGB値が用いられるとよい。また、特徴点の追跡の過程で発生した誤差の蓄積を低減するために、いわゆるバンドル調整が行われるとよい。また、第1姿勢推定部16は、カメラ以外の光学センサにより検出された検出値に基づいてSLAMを行うことでUAV1の姿勢推定を行ってもよい。
第2姿勢推定部17は、プロセッサであるCPU、ROM、RAM、及び不揮発性メモリ等を備える。第2姿勢推定部17は、回転角検出部15からの検出値を連続的に取得し、当該検出値に基づいてUAV1の姿勢(ワールド座標系における姿勢)推定を行う。第2姿勢推定部17による姿勢推定の結果(以下、「第2姿勢推定結果」と称する)は、オイラー角、回転行列、またはクォータニオンで表され(望ましくは、クォータニオンで表されるとよい)、制御部18へ出力される。例えば、回転角検出部15が3軸角速度センサを備える場合、第2姿勢推定部17は、UAV1が飛行開始後に3軸角速度センサにより連続的に検出された検出値(X軸まわりの角速度、Y軸まわりの角速度、及びZ軸まわりの角速度)を取得し、当該取得された検出値から3つのオイラー角(ロール角、ピッチ角、及びヨー角)を算出し、算出したオイラー角(ロール角、ピッチ角、及びヨー角)をUAV1の姿勢として推定する。ここで、ロール角は、X軸まわりの角速度に基づいて算出され、ピッチ角は、Y軸まわりの角速度に基づいて算出され、ヨー角は、Z軸まわりの角速度に基づいて算出される。或いは、第2姿勢推定部17は、算出されたオイラー角に基づき所定の変換式により変換された回転行列をUAV1の姿勢として推定してもよい。望ましくは、第2姿勢推定部17は、算出されたオイラー角に基づき所定の変換式により変換されたクォータニオンをUAV1の姿勢として推定するとよい。なお、第1姿勢推定結果の次元(つまり、パラメータ数)と、第2姿勢推定結果の次元は一致されることが望ましい。例えば、第1姿勢推定結果がクォータニオンで表される場合、第2姿勢推定結果もクォータニオンで表される。
また、回転角検出部15が3軸角速度センサ及び3軸加速度センサを備える場合、第2姿勢推定部17は、UAV1が飛行開始後に、3軸角速度センサにより連続的に検出された検出値(各軸まわりの各角速度)と、3軸加速度センサにより連続的に検出された検出値(重力加速度を表す3次元ベクトル)とを取得する。そして、第2姿勢推定部17は、3軸加速度センサにより検出された重力加速度を表す3次元ベクトルからロール角及びピッチ角を所定の計算式により算出する。また、第2姿勢推定部17は、3軸角速度センサにより検出されたX軸まわりの角速度、Y軸まわりの角速度、及びZ軸まわりの角速度から3つのオイラー角(ロール角、ピッチ角、及びヨー角)を算出する。そして、第2姿勢推定部17は、重力加速度を表す3次元ベクトルから算出されたロール角とピッチ角、及び相補フィルタ(またはカルマンフィルタ)を用いて、X軸まわりの角速度及びY軸まわりの角速度から算出されたロール角及びピッチ角を補正する。これにより、ロール方向及びピッチ方向のドリフト誤差が打ち消される。そして、第2姿勢推定部17は、補正されたロール角、補正されたピッチ角、及び算出されたヨー角をUAV1の姿勢として推定する。或いは、第2姿勢推定部17は、算出または補正されたオイラー角に基づき所定の変換式により変換された回転行列をUAV1の姿勢として推定してもよい。望ましくは、第2姿勢推定部17は、算出または補正されたオイラー角に基づき所定の変換式により変換されたクォータニオンをUAV1の姿勢として推定するとよい。
また、回転角検出部15が3軸角速度センサ、3軸加速度センサ、及び3軸地磁気センサを備える場合、第2姿勢推定部17は、UAV1が飛行開始後に、3軸角速度センサにより連続的に検出された検出値(各軸まわりの各角速度)と、3軸加速度センサにより連続的に検出された検出値(重力加速度の3次元ベクトル)と、3軸地磁気センサにより検出された検出値(北を表す3次元ベクトル)とを取得する。そして、第2姿勢推定部17は、3軸加速度センサにより検出された重力加速度を表す3次元ベクトルからロール角及びピッチ角を所定の計算式により算出する。また、第2姿勢推定部17は、3軸角速度センサにより検出されたX軸まわりの角速度、Y軸まわりの角速度、及びZ軸まわりの角速度から3つのオイラー角(ロール角、ピッチ角、及びヨー角)を算出する。そして、第2姿勢推定部17は、重力加速度を表す3次元ベクトルから算出されたロール角とピッチ角、及び相補フィルタ(またはカルマンフィルタ)を用いて、X軸まわりの角速度及びY軸まわりの角速度から算出されたロール角及びピッチ角を補正する。さらに、第2姿勢推定部17は、3軸地磁気センサにより検出された北を表す3次元ベクトルからヨー角を所定の計算式により算出し、当該算出されたヨー角、及び相補フィルタ(またはカルマンフィルタ)を用いて、Z軸まわりの角速度から算出されたヨー角を補正する。これにより、ヨー方向の誤差が打ち消される。そして、第2姿勢推定部17は、補正されたロール角、補正されたピッチ角、及び補正されたヨー角をUAV1の姿勢として推定する。或いは、第2姿勢推定部17は、補正されたオイラー角に基づき所定の変換式により変換された回転行列をUAV1の姿勢として推定してもよい。望ましくは、第2姿勢推定部17は、補正されたオイラー角に基づき所定の変換式により変換されたクォータニオンをUAV1の姿勢として推定するとよい。
なお、回転角検出部15は、撮像部14等に比べて磁場等の影響を受けやすく、UAV1の近くに上記特定物体が存在すると、その検出値が信頼できない場合がある。そのため、このような状況下では、第2姿勢推定部17による姿勢推定の精度(つまり、第2姿勢推定結果の精度)は、第1姿勢推定部16による姿勢推定の精度(つまり、第1姿勢推定結果の精度)より低くなるため、第1姿勢推定結果がUAV1の姿勢推定に利用されることが望ましい。一方、UAV1の近くに特定物体が存在しない状況下では、第2姿勢推定部17による姿勢推定の精度は、第1姿勢推定部16による姿勢推定の精度より高くなるため、第2姿勢推定結果がUAV1の姿勢推定に利用されることが望ましい。
制御部18は、プロセッサであるCPU、ROM、RAM、及び不揮発性メモリ等を備える。制御部18は、例えばROMまたは不揮発性メモリに記憶された制御プログラムに従ってUAV1の飛行制御(つまり、UAV1の離陸から着陸までの制御)を行う。飛行制御においては、測位部12から取得された位置情報、第1姿勢推定部16から取得された第1姿勢推定結果、第2姿勢推定部17から取得された第2姿勢推定結果、及び飛行計画を示す飛行計画情報等が用いられて、ロータの回転数の制御、UAV1の位置、姿勢、及び進行方向の制御が行われる。
特に、制御部18は、第1姿勢推定部16から取得された第1姿勢推定結果と、第2姿勢推定部17から取得された第2姿勢推定結果とを、測位部12から取得された位置情報(つまり、現在位置を示す位置情報)に基づく割合で利用することによりUAV1の姿勢の制御を行う。ここで、位置情報に基づく割合とは、換言すると、飛行中のUAV1の現在位置に応じて変化しうる割合である。このような割合は、第1姿勢推定結果が利用される重み“A”と第2姿勢推定結果が利用される重み“B”との比「A:B(A対B)」(A及びBは0以上の値)で表されるとよい(この例では、第1姿勢推定結果が利用される割合は“A/(A+B)”となり、第2姿勢推定結果が利用される割合は“B/(A+B)”となる)。例えば、「A:B=1:0」である場合、制御部18は、第2姿勢推定結果を利用することなく、第1姿勢推定結果だけを利用してUAV1の姿勢の制御(つまり、第1姿勢推定結果に基づく飛行制御)を行う。一方、「A:B=0:1」である場合、制御部18は、第1姿勢推定結果を利用することなく、第2姿勢推定結果だけを利用してUAV1の姿勢の制御(つまり、第2姿勢推定結果に基づく飛行制御)を行う。なお、「A:B=1:0」または「A:B=0:1」のように、片方の姿勢推定結果が利用される場合、第1姿勢推定結果と第2姿勢推定結果との両方の姿勢推定結果が得られなくてもよい。つまり、この場合、利用される方の姿勢推定結果だけが得られて、利用されない方については計算されなくてもよい。
一方、「A:B=1:1」である場合、制御部18は、第1姿勢推定結果と第2姿勢推定結果とを均等に利用してUAV1の姿勢の制御を行う。その他、「A:B=1:2」、または「A:B=3:1」などの場合も考えられる。A及びBがいずれも0でない場合、制御部18は、第1姿勢推定結果と第2姿勢推定結果とをマージして利用するとよい。第1姿勢推定結果と第2姿勢推定結果とをマージする方法の一例として、下記(1)~(4)式に示すように、第1姿勢推定結果と第2姿勢推定結果をα値により合成(αブレンディング)する方法が挙げられる。下記(1)~(4)式は、クォータニオンによりUAV1の姿勢を表す場合における各パラメータ(x,y,z,w)の合成算出式の例であり、線形補間の式に相当する。
x=α×x1+(α-1)×x2・・・(1)
y=α×y1+(α-1)×y2・・・(2)
z=α×z1+(α-1)×z2・・・(3)
w=α×w1+(α-1)×w2・・・(4)
ここで、αは0以上1以下の値であり、A/(A+B)である。x1、y1、z1、及びw1は、それぞれ、第1姿勢推定結果におけるクォータニオンの4つのパラメータを示す。x2、y2、z2、及びw2は、それぞれ、第2姿勢推定結果におけるクォータニオンの4つのパラメータを示す。x、y、z、及びwは、それぞれ、α値により合成されたクォータニオンの4つのパラメータを示し、これらはUAV1の姿勢の制御に用いられる。ここで、線形補間の式に代えて球面線形補間の式を用いて(つまり、(1)~(4)に示すαに代えて“sinαθ/sinθ”を用い、(α-1)に代えて“sin(1-α)θ/sinθ”を用いて)、クォータニオンの4つのパラメータがそれぞれα値により合成されてもよい。これにより、第1姿勢推定結果と第2姿勢推定結果のずれ量が大きい場合であっても、高精度の合成結果を得ることができる。なお、上記(1)~(4)式に示すような線形補間の式を用いて、オイラー角または回転行列で表される第1及び第2姿勢推定結果がα値により合成されても構わない。
ところで、UAV1の位置情報に基づく割合は、UAV1と特定物体との位置関係によって決定される。例えば、UAV1と特定物体との間の距離が短いほど、Aに対してBが小さくなるように決定される。これにより、第1姿勢推定結果が利用される割合が大きくなる。一方、UAV1と特定物体との間の距離が長いほど、Aに対してBが大きくなるように決定される。これにより、第2姿勢推定結果が利用される割合が大きくなる。なお、第1姿勢推定結果が利用される割合はUAV1と特定物体との間の距離の2乗に反比例するように決定されるとよい。このように、UAV1と特定物体との間の距離が用いられる場合、UAV1の位置情報に基づく割合とは、UAV1と特定物体との間の距離に基づく割合ということができる。
例えば、特定物体が離陸地点(例えば、ポート)付近に存在する場合、UAV1の位置情報に基づく割合とは、UAV1の離陸地点からの距離に基づく割合ということができる。これにより、第1姿勢推定結果と第2姿勢推定結果をUAV1の離陸地点からの距離に応じて変化する割合で利用することができる。この場合、制御部18は、UAV1の位置情報に基づいて、UAV1の離陸地点からの距離を算出する。例えば、UAV1の離陸地点の三次元位置座標とUAV1の現在位置の三次元位置座標とから当該距離が算出される。そして、制御部18は、UAV1が離陸してから所定の距離(例えば、30m)に達するまでは少なくとも第1姿勢推定結果(つまり、第1姿勢推定結果、または第1姿勢推定結果と第2姿勢推定結果とがマージされた姿勢推定結果)を利用し、所定の距離に達した後は第2姿勢推定結果を利用する(つまり、「A:B=0:1」)ことによりUAV1の姿勢の制御を行ってもよい。つまり、第2姿勢推定結果が信頼できる程度になることが予想される(換言すると、UAV1の姿勢の制御に支障を与えないような)所定の距離までUAV1が特定物体から離れた際に第2姿勢推定結果に基づく飛行制御に切り替えられる。これにより、第2姿勢推定結果が信頼できる程度になることが予想される早い段階から負荷の小さい姿勢制御に切り替えることができる。
また、特定物体が離陸地点付近に存在する場合、UAV1が上昇するほど磁場等の影響が少なくなるので、UAV1の高度が低いほど、Aに対してBが小さくなるように決定される一方、UAV1の高度が高いほど、Aに対してBが大きくなるように決定されるとよい。このようにUAV1の高度が用いられる場合、UAV1の位置情報に基づく割合とは、UAV1の高度に基づく割合ということができる。これにより、第1姿勢推定結果と第2姿勢推定結果をUAV1の飛行高度に応じて変化する割合で利用することができる。この場合、制御部18は、UAV1が離陸してから所定の高度に達するまでは少なくとも第1姿勢推定結果を利用し、所定の高度に達した後は第2姿勢推定結果を利用することによりUAV1の姿勢の制御を行ってもよい。つまり、第2姿勢推定結果が信頼できる程度になることが予想される(換言すると、UAV1の姿勢の制御に支障を与えないような)所定の高度までUAV1が上昇した際に第2姿勢推定結果に基づく飛行制御に切り替えられる。これにより、第2姿勢推定結果が信頼できる程度になることが予想される早い段階から負荷の小さい姿勢制御に切り替えることができる。
また、制御部18は、第1姿勢推定結果と第2姿勢推定結果とのずれ量が閾値以上である場合は少なくとも第1姿勢推定結果を利用し、当該ずれ量が閾値未満である場合は第2姿勢推定結果を利用することによりUAV1の姿勢の制御を行ってもよい。これにより、第1姿勢推定結果と第2姿勢推定結果とのずれ量がある程度小さくなった(つまり、第2姿勢推定結果が信頼できる程度になった)早い段階から負荷の小さい姿勢制御に切り替えることができる。なお、制御部18は、第1姿勢推定結果と第2姿勢推定結果とのずれ量が閾値未満になったときから所定時間における当該ずれ量の積分値を算出し、当該ずれ量の積分値が閾値未満である場合に第2姿勢推定結果を利用してもよい。また、当該ずれ量は、第1姿勢推定結果及び第2姿勢推定結果がオイラー角、回転行列、クォータニオンの何れで表される場合であっても算出することができるが、クォータニオンで表される第1姿勢推定結果及び第2姿勢推定結果を用いて当該ずれ量を算出すれば計算処理が複雑になることを抑制できる。
また、制御部18は、例えば離陸地点にいるオペレータの指示にしたがってUAV1の離陸前にUAV1の基準方位を真値(例えば、北)に校正(設定)し、3軸地磁気センサにより検出された基準方位(北)を示す値と真値とのずれ量が閾値以上である場合は少なくとも第1姿勢推定結果を利用し、当該ずれ量が閾値未満である場合は第2姿勢推定結果を利用することによりUAV1の姿勢の制御を行ってもよい。これにより、基準方位を示す値と真値とのずれ量がある程度小さくなった早い段階から負荷の小さい姿勢制御に切り替えることができる。なお、制御部18は、基準方位を示す値と真値とのずれ量が閾値未満になったときから所定時間における当該ずれ量の積分値を算出し、当該ずれ量の積分値が閾値未満である場合に第2姿勢推定結果を利用してもよい。
また、広い範囲で強い磁場等がある所定のエリア(例えば、送電線に沿ったエリア)を特定できる場合がある。この場合、制御部18は、UAV1が所定のエリア内にあるときは第1姿勢推定結果を利用し、UAV1が所定のエリア外にあるときは第2姿勢推定結果を利用することによりUAV1の姿勢の制御を行ってもよい。これにより、UAV1の飛行中に強い磁場等がある所定のエリア内に入ったか否かにしたがって第1姿勢推定結果の利用と第2姿勢推定結果を切り替えて利用することができる。
そして、UAV1の姿勢の制御では、上述したようにUAV1の位置情報に基づく割合で得られる姿勢推定結果(つまり、第1姿勢推定結果、第2姿勢推定結果、または第1姿勢推定結果と第2姿勢推定結果とがマージされた姿勢推定結果)にしたがってUAV1が正常な姿勢を保つようにフィードバック制御が行われる。
[3.UAV1の動作]
次に、図3を参照して、UAV1の動作について説明する。図3は、UAV1の制御部18により実行される処理の一例を示すフローチャートである。なお、図3に示す処理の全部または一部は制御サーバCSにより行われてもよい。図4は、離陸前に設定されるUAV1の基準方位を示す図である。図5は、UAV1が付近に特定物体が存在するポートから離陸し目的地点へ向かうまでの様子を示す概念図である。以下に説明する動作では、例えばUTMS2から飛行計画情報を取得したUAV1が、図5に示すように建物Bの屋上に設置されたポートPであって付近に特定物体Oが存在するポートP(離陸地点)から離陸し目的地点へ向かう場合を例にとって説明する。かかる動作の前提として、UAV1のオペレータがUAV1の基準点(例えば、図4に示す基準点R)を北(N)に向けてポートP上に水平に置いた後に、操縦端末から飛行開始指示を行うと、当該操縦端末から飛行開始指令がUAV1に送信される。なお、オペレータによりUAV1の電源オンがなされると、UAV1のバッテリから各部に電力が供給される。制御部18は、UAV1の飛行中にUAV1の位置情報に基づいて、撮像部14及び第1姿勢推定部16への電力供給を制御(オンオフ制御)してもよい。
次に、図3を参照して、UAV1の動作について説明する。図3は、UAV1の制御部18により実行される処理の一例を示すフローチャートである。なお、図3に示す処理の全部または一部は制御サーバCSにより行われてもよい。図4は、離陸前に設定されるUAV1の基準方位を示す図である。図5は、UAV1が付近に特定物体が存在するポートから離陸し目的地点へ向かうまでの様子を示す概念図である。以下に説明する動作では、例えばUTMS2から飛行計画情報を取得したUAV1が、図5に示すように建物Bの屋上に設置されたポートPであって付近に特定物体Oが存在するポートP(離陸地点)から離陸し目的地点へ向かう場合を例にとって説明する。かかる動作の前提として、UAV1のオペレータがUAV1の基準点(例えば、図4に示す基準点R)を北(N)に向けてポートP上に水平に置いた後に、操縦端末から飛行開始指示を行うと、当該操縦端末から飛行開始指令がUAV1に送信される。なお、オペレータによりUAV1の電源オンがなされると、UAV1のバッテリから各部に電力が供給される。制御部18は、UAV1の飛行中にUAV1の位置情報に基づいて、撮像部14及び第1姿勢推定部16への電力供給を制御(オンオフ制御)してもよい。
図3に示す処理は、上記飛行開始指令が受信されたときに開始される。図3に示す処理が開始されると、制御部18は、キャリブレーションを行う(ステップS1)ことでUAV1の基準方位を真値(UAV1の基準点が現在向いている方位であり、例えば、北)に校正する。これにより、制御部18は、正しい北を認識することになる。
次いで、制御部18は、UAV1の各部を起動させ、UAV1の飛行制御を開始する(ステップS2)。これにより、測位部12は、UAV1の現在位置を示す位置情報を所定周期で制御部18へ出力する。撮像部14は、検出された検出値を所定周期で第1姿勢推定部16(または、第1姿勢推定部16及び制御部18)へ出力する。第1姿勢推定部16は、撮像部14からの検出値に基づいてVisual-SLAMを行うことでUAV1の姿勢推定を行い、第1姿勢推定結果を所定周期で制御部18へ出力する。回転角検出部15は、検出された検出値を所定周期で第2姿勢推定部17(または、第2姿勢推定部17及び制御部18)へ出力する。第2姿勢推定部17は、回転角検出部15からの検出値に基づいてUAV1の姿勢推定を行い、第2姿勢推定結果を所定周期で制御部18へ出力する。
次いで、制御部18は、撮像部14からの位置情報を取得する(ステップS3)。次いで、制御部18は、第1姿勢推定部16からの第1姿勢推定結果を取得する(ステップS4)。次いで、制御部18は、第2姿勢推定部17からの第2姿勢推定結果を取得する(ステップS5)。次いで、制御部18は、ステップS3で取得された位置情報に基づいて、上述したように、割合を決定する(ステップS6)。次いで、制御部18は、UAV1の位置、姿勢、及び進行方向の制御を含む飛行制御を行う(ステップS7)。かかる飛行制御において、制御部18は、ステップS4で取得された第1姿勢推定結果と、ステップS5で取得された第2姿勢推定結果とを、ステップS6で決定された割合で利用することによりUAV1の姿勢の制御(姿勢推定結果の割合に基づく飛行制御)を行う。
次いで、制御部18は、UAV1の飛行計画情報及び位置情報に基づいて、UAV1が目的地点に到着したか否かを判定する(ステップS8)。制御部18は、UAV1が目的地点に到着していないと判定した場合(ステップS8:NO)、ステップS9へ進む。一方、制御部18は、UAV1が目的地点に到着したと判定した場合(ステップS8:YES)、図3に示す処理を終了する。
ステップS9では、制御部18は、姿勢推定結果の割合に基づく飛行制御から、第2姿勢推定結果に基づく飛行制御に切り替えるか否かを判定する。例えば、図5に示すように、制御部18は、UAV1の高度情報に基づいてUAV1がポートPから離陸した後、UAV1の高度(飛行高度)を特定し、当該特定された高度が所定の高度に達した場合、姿勢推定結果の割合に基づく飛行制御から、第2姿勢推定結果に基づく飛行制御に切り替えると判定する。或いは、制御部18は、UAV1の位置情報に基づいてUAV1のポートPからの距離を算出し、当該算出された距離が所定の距離に達した場合、第2姿勢推定結果に基づく飛行制御に切り替えると判定してもよい。或いは、制御部18は、直近に取得された第1姿勢推定結果と直近に取得された第2姿勢推定結果との間のずれ量を算出し、当該算出されたずれ量が閾値未満である場合、第2姿勢推定結果に基づく飛行制御に切り替えると判定してもよい。或いは、制御部18は、回転角検出部15の3軸地磁気センサにより検出された基準方位(北)を示す値と真値とのずれ量を算出し、当該算出された閾値未満である場合、第2姿勢推定結果に基づく飛行制御に切り替えると判定してもよい。
そして、制御部18は、第2姿勢推定結果に基づく飛行制御に切り替えないと判定した場合(ステップS9:NO)、ステップS3に戻り、上記と同様の処理を繰り返す。一方、制御部18は、第2姿勢推定結果に基づく飛行制御に切り替えると判定した場合(ステップS9:YES)、第1姿勢推定結果の取得を停止し、ステップS10へ進む。ここで、制御部18は、撮像部14及び第1姿勢推定部16への電力供給をオフにしてもよい。つまり、UAV1の位置情報に基づいて、撮像部14及び第1姿勢推定部16への電力供給が制御される。これにより、UAV1における消費電力を抑えることができる。
ステップS10では、制御部18は、撮像部14からの位置情報を取得する。次いで、制御部18は、第2姿勢推定部17からの第2姿勢推定結果を取得する(ステップS11)。次いで、制御部18は、UAV1の位置、姿勢、及び進行方向の制御を含む飛行制御を行う(ステップS12)。かかる飛行制御において、制御部18は、ステップS11で取得された第2姿勢推定結果を利用することによりUAV1の姿勢の制御を行う。
次いで、制御部18は、UAV1の飛行計画情報及び位置情報に基づいて、UAV1が目的地点に到着したか否かを判定する(ステップS13)。制御部18は、UAV1が目的地点に到着していないと判定した場合(ステップS13:NO)、ステップS14へ進む。一方、制御部18は、UAV1が目的地点に到着したと判定した場合(ステップS13:YES)、図3に示す処理を終了する。
ステップS14では、制御部18は、UAV1の位置情報に基づいて、UAV1が強い磁場等がある所定のエリアAr(例えば事前に登録されたエリア)に入ったか否かを判定する。制御部18は、UAV1がエリアArに入っていないと判定した場合(ステップS14:NO)、ステップS10に戻り、上記と同様の処理を繰り返す。一方、制御部18は、UAV1がエリアArに入ったと判定した場合(ステップS14:YES)、第2姿勢推定結果の取得を停止し、ステップS15へ進む。これにより、図5に示すように、第2姿勢推定結果に基づく飛行制御から、第1姿勢推定結果に基づく飛行制御に切り替えられる。
なお、ステップS9において、撮像部14及び第1姿勢推定部16への電力供給がオフされた場合、制御部18は、少なくともエリアArに進入する前(例えば、数秒前)に、撮像部14及び第1姿勢推定部16への電力供給をオンにして撮像部14及び第1姿勢推定部16を起動させる。これにより、第2姿勢推定結果に基づく飛行制御から第1姿勢推定結果に基づく飛行制御へスムーズに切り替えることができる。例えば、エリアArに進入する前に、第2姿勢推定結果と第1姿勢推定結果との相対関係を予め取得しておくことで、当該エリアArに進入し、第1姿勢推定結果に基づく飛行制御に切り替えられても安定した飛行を続けることができる。また、当該エリアArを何度も飛行したり、複数のUAV1が飛行したりした場合、当該エリアArの特徴点マップ情報を蓄積しておくことで第1姿勢推定部16による姿勢推定の精度向上が期待できる。
ステップS15では、制御部18は、撮像部14からの位置情報を取得する。次いで、制御部18は、第1姿勢推定部16からの第1姿勢推定結果を取得する(ステップS16)。次いで、制御部18は、UAV1の位置、姿勢、及び進行方向の制御を含む飛行制御を行う(ステップS17)。かかる飛行制御において、制御部18は、ステップS16で取得された第1姿勢推定結果を利用することによりUAV1の姿勢の制御を行う。
次いで、制御部18は、UAV1の飛行計画情報及び位置情報に基づいて、UAV1が目的地点に到着したか否かを判定する(ステップS18)。制御部18は、UAV1が目的地点に到着していないと判定した場合(ステップS18:NO)、ステップS19へ進む。一方、制御部18は、UAV1が目的地点に到着したと判定した場合(ステップS18:YES)、図3に示す処理を終了する。
ステップS19では、制御部18は、UAV1の位置情報に基づいて、UAV1が上記エリアArから出たか否かを判定する。制御部18は、UAV1がエリアArから出ていないと判定した場合(ステップS19:NO)、ステップS15に戻り、上記と同様の処理を繰り返す。一方、制御部18は、UAV1がエリアArから出たと判定した場合(ステップS19:YES)、第1姿勢推定結果の取得を停止し、ステップS10に戻る。これにより、図5に示すように、第1姿勢推定結果に基づく飛行制御から、第2姿勢推定結果に基づく飛行制御に切り替えられる。
以上説明したように、上記実施形態によれば、第1姿勢推定部16が撮像部14により検出された検出値に基づいてVisual-SLAMを行うことでUAV1の姿勢推定を行い、第2姿勢推定部17が回転角検出部15により検出された検出値に基づいてUAV1の姿勢推定を行う。そして、制御部18が第1姿勢推定部16からの第1姿勢推定結果と、第2姿勢推定部17からの第2姿勢推定結果とをUAV1の位置情報に基づく割合で利用することによりUAV1の姿勢の制御を行うように構成したので、UAV1の離陸地点付近に特定物体が存在することで地磁気センサや慣性センサにより検出された検出値が信頼できない場合であっても、安定したUAV1の離陸が実現でき、UAV1を安定して飛行させることができる。
なお、上記実施形態は本発明の一実施形態であり、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で上記実施形態から種々構成等に変更を加えてもよく、その場合も本発明の技術的範囲に含まれる。上記実施形態においては、UAV1の制御部18が第1姿勢推定結果と第2姿勢推定結果とをUAV1の位置情報に基づく割合で利用することによりUAV1の姿勢の制御を行うように構成したが、制御サーバCSが本発明の制御装置としてUAV1の姿勢の制御を行うように構成してもよい。この場合、制御サーバCSが第1取得部、第2取得部、第3取得部、第1姿勢推定部、第2姿勢推定部、及び飛行制御部等として機能する。そして、制御サーバCSは、撮像部14により検出された第1検出値をUAV1から取得し、回転角検出部15により検出された第2検出値をUAV1から取得し、測位部12により検出されたUAV1の現在位置を示す位置情報を取得する。そして、制御サーバCSは、取得した第1検出値に基づいて第1姿勢推定部によりUAV1の姿勢推定を行い、取得した第2検出値に基づいて第2姿勢推定部によりUAV1の姿勢推定を行い、第1姿勢推定部による第1姿勢推定結果と第2姿勢推定部による第2姿勢推定結果とを、取得した位置情報に基づく割合で利用することによりUAV1の姿勢を制御する。かかる制御は、制御サーバCSからUAV1へ制御指令が送信されることで行われる。上記実施形態においては、本発明をUAV1に対して適用した場合を例にとって説明したが、本発明は航空機内に操縦者(パイロット)が存在しなくても飛行することができる有人航空機に対しても適用可能である。
1 UAV
2 UTMS
3 PMS
11 駆動部
12 測位部
13 無線通信部
14 撮像部
15 回転角検出部
16 第1姿勢推定部
17 第2姿勢推定部
18 制御部
CS 制御サーバ
S 飛行システム
2 UTMS
3 PMS
11 駆動部
12 測位部
13 無線通信部
14 撮像部
15 回転角検出部
16 第1姿勢推定部
17 第2姿勢推定部
18 制御部
CS 制御サーバ
S 飛行システム
Claims (10)
- 光学センサと少なくとも1種類の3軸センサとを備える航空機の飛行制御を行う制御装置であって、
前記光学センサにより検出された第1検出値を取得する第1取得部と、
前記3軸センサにより検出された第2検出値を取得する第2取得部と、
前記航空機の飛行位置を示す位置情報を取得する第3取得部と、
前記第1検出値に基づいて前記航空機の姿勢推定を行う第1姿勢推定部と、
前記第2検出値に基づいて前記航空機の姿勢推定を行う第2姿勢推定部と、
前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とを前記位置情報に基づく割合で利用することにより前記航空機の飛行制御を行う飛行制御部と、
を備えることを特徴とする制御装置。 - 前記位置情報には、前記航空機の高度を示す高度情報が含まれ、
前記飛行制御部は、前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とを前記高度情報に基づく割合で利用することを特徴とする請求項1に記載の制御装置。 - 前記飛行制御部は、前記航空機が離陸してから所定の高度に達するまでは少なくとも前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記所定の高度に達した後は前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする請求項2に記載の制御装置。
- 前記位置情報に基づいて、前記航空機の離陸地点からの距離を算出する距離算出部を更に備え、
前記飛行制御部は、前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とを前記距離に基づく割合で利用することを特徴とする請求項1に記載の制御装置。 - 前記飛行制御部は、前記航空機が離陸してから所定の距離に達するまでは少なくとも前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記所定の距離に達した後は前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする請求項4に記載の制御装置。
- 前記飛行制御部は、前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とのずれ量が閾値以上である場合は少なくとも前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記ずれ量が前記閾値未満である場合は前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする請求項1、2、及び4の何れか一項に記載の制御装置。
- 前記3軸センサには、地磁気センサが含まれ、
前記航空機の離陸前に基準方位を真値に校正する校正部を更に備え、
前記飛行制御部は、前記地磁気センサにより検出された基準方位を示す値と前記真値とのずれ量が閾値以上である場合は少なくとも前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記ずれ量が前記閾値未満である場合は前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする請求項1、2、及び4の何れか一項に記載の制御装置。 - 前記飛行制御部は、前記航空機が所定のエリア内にあるときは前記第1姿勢推定部による前記姿勢推定の結果を利用し、前記航空機が前記所定のエリア外にあるときは前記第2姿勢推定部による前記姿勢推定の結果を利用することを特徴とする請求項1乃至7の何れか一項に記載の制御装置。
- 前記位置情報に基づいて、前記光学センサへの電力供給を制御する電力供給制御部を更に備えることを特徴とする請求項1乃至8の何れか一項に記載の制御装置。
- 光学センサと少なくとも1種類の3軸センサとを備える航空機の飛行制御を行うシステムにより実行される制御方法であって、
前記光学センサにより検出された第1検出値を取得するステップと、
前記3軸センサにより検出された第2検出値を取得するステップと、
前記航空機の飛行位置を示す位置情報を取得するステップと、
前記第1検出値に基づいて前記航空機の姿勢推定を行うステップと、
前記第2検出値に基づいて前記航空機の姿勢推定を行うステップと、
前記第1姿勢推定部による前記姿勢推定の結果と、前記第2姿勢推定部による前記姿勢推定の結果とを前記位置情報に基づく割合で利用することにより前記航空機の飛行制御を行うステップと、
を含むことを特徴とする制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020549073A JP6934116B1 (ja) | 2019-11-05 | 2019-11-05 | 航空機の飛行制御を行う制御装置、及び制御方法 |
CN201980034178.9A CN113079698A (zh) | 2019-11-05 | 2019-11-05 | 进行航空器的飞行控制的控制装置、及控制方法 |
US16/973,153 US12024276B2 (en) | 2019-11-05 | 2019-11-05 | Control device and control method for controlling flight of aerial vehicle |
PCT/JP2019/043218 WO2021090352A1 (ja) | 2019-11-05 | 2019-11-05 | 航空機の飛行制御を行う制御装置、及び制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/043218 WO2021090352A1 (ja) | 2019-11-05 | 2019-11-05 | 航空機の飛行制御を行う制御装置、及び制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021090352A1 true WO2021090352A1 (ja) | 2021-05-14 |
Family
ID=75849649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/043218 WO2021090352A1 (ja) | 2019-11-05 | 2019-11-05 | 航空機の飛行制御を行う制御装置、及び制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US12024276B2 (ja) |
JP (1) | JP6934116B1 (ja) |
CN (1) | CN113079698A (ja) |
WO (1) | WO2021090352A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114111770A (zh) * | 2021-11-19 | 2022-03-01 | 清华大学 | 一种水平姿态测量方法、系统、处理设备及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI800102B (zh) * | 2021-11-16 | 2023-04-21 | 財團法人工業技術研究院 | 載具頭向補償方法及系統 |
CN114967716B (zh) * | 2022-04-02 | 2024-05-03 | 中国人民解放军海军航空大学 | 一种基于四元数球面线性插值的固定翼飞机姿态控制方法 |
US11898690B1 (en) * | 2022-12-04 | 2024-02-13 | Quoc Viet Luong | Spherical field of view (FOV) multiple payloads gimbal system and method of manufacturing and using the same |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016177640A (ja) * | 2015-03-20 | 2016-10-06 | 三菱電機株式会社 | 映像監視システム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4133435B2 (ja) * | 2003-02-26 | 2008-08-13 | 健蔵 野波 | 小型無人ヘリコプタの自律制御方法 |
JP3852842B2 (ja) | 2003-05-21 | 2006-12-06 | 長崎県 | 飛翔体の位置姿勢計測装置 |
JP4253239B2 (ja) * | 2003-10-07 | 2009-04-08 | 富士重工業株式会社 | 画像認識を用いた航法装置 |
JP4537121B2 (ja) * | 2004-06-08 | 2010-09-01 | 富士重工業株式会社 | 回転翼航空機の高度制御装置 |
JP5863034B2 (ja) * | 2012-02-17 | 2016-02-16 | Kddi株式会社 | 情報端末装置 |
JP6239619B2 (ja) * | 2012-08-17 | 2017-11-29 | パースペクティヴ・ロボティクス・エイ・ジー | 位置決め及び相互動作用紐集合体を備えたフライングカメラ |
JP5882951B2 (ja) * | 2013-06-14 | 2016-03-09 | 株式会社トプコン | 飛行体誘導システム及び飛行体誘導方法 |
JP6132981B2 (ja) * | 2014-03-24 | 2017-05-24 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 飛行機の状態をリアルタイムに修正する方法および装置 |
JP6124384B2 (ja) * | 2014-05-30 | 2017-05-10 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人機の進行方向の作成方法、システム、及びプログラム |
US9798322B2 (en) * | 2014-06-19 | 2017-10-24 | Skydio, Inc. | Virtual camera interface and other user interaction paradigms for a flying digital assistant |
FR3025114A1 (fr) * | 2014-08-26 | 2016-03-04 | Parrot | Procede de controle dynamique en depart lance d'un drone a voilure tournante |
JP6278539B2 (ja) * | 2014-09-05 | 2018-02-14 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 状況に基づく飛行モード選択 |
JP5775632B2 (ja) * | 2014-09-16 | 2015-09-09 | 株式会社トプコン | 飛行体の飛行制御システム |
US10747236B2 (en) * | 2015-02-19 | 2020-08-18 | Flir Unmanned Aerial Systems Ulc | Systems and processes for calibrating unmanned aerial vehicles |
US11467179B2 (en) * | 2015-12-07 | 2022-10-11 | Rakuten Group, Inc. | Wind estimation system, wind estimation method, and program |
JP2017188067A (ja) * | 2016-04-01 | 2017-10-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 自律移動体 |
US20200322595A1 (en) * | 2016-06-07 | 2020-10-08 | Sony Corporation | Information processing device and information processing method, and recording medium |
JP6501080B2 (ja) * | 2016-10-12 | 2019-04-17 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人航空機、無人航空機の制御方法及びプログラム |
CN108664037B (zh) * | 2017-03-28 | 2023-04-07 | 精工爱普生株式会社 | 头部佩戴型显示装置以及无人机的操纵方法 |
JP6585673B2 (ja) * | 2017-09-05 | 2019-10-02 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 航空機姿勢制御方法 |
CN114967737A (zh) * | 2019-07-12 | 2022-08-30 | 深圳市道通智能航空技术股份有限公司 | 一种飞行器控制方法及飞行器 |
JP7385388B2 (ja) | 2019-07-22 | 2023-11-22 | 株式会社ダイヘン | 自己位置推定装置 |
-
2019
- 2019-11-05 CN CN201980034178.9A patent/CN113079698A/zh active Pending
- 2019-11-05 US US16/973,153 patent/US12024276B2/en active Active
- 2019-11-05 WO PCT/JP2019/043218 patent/WO2021090352A1/ja active Application Filing
- 2019-11-05 JP JP2020549073A patent/JP6934116B1/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016177640A (ja) * | 2015-03-20 | 2016-10-06 | 三菱電機株式会社 | 映像監視システム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114111770A (zh) * | 2021-11-19 | 2022-03-01 | 清华大学 | 一种水平姿态测量方法、系统、处理设备及存储介质 |
CN114111770B (zh) * | 2021-11-19 | 2024-04-09 | 清华大学 | 一种水平姿态测量方法、系统、处理设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6934116B1 (ja) | 2021-09-08 |
US20210362839A1 (en) | 2021-11-25 |
CN113079698A (zh) | 2021-07-06 |
US12024276B2 (en) | 2024-07-02 |
JPWO2021090352A1 (ja) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6934116B1 (ja) | 航空機の飛行制御を行う制御装置、及び制御方法 | |
US10914590B2 (en) | Methods and systems for determining a state of an unmanned aerial vehicle | |
US10657832B2 (en) | Method and apparatus for target relative guidance | |
US10435176B2 (en) | Perimeter structure for unmanned aerial vehicle | |
US10281930B2 (en) | Gimbaled universal drone controller | |
KR100761011B1 (ko) | 카메라형 태양센서를 이용한 관성항법시스템의자세보정장치 및 방법 | |
JP6390013B2 (ja) | 小型無人飛行機の制御方法 | |
JP6138326B1 (ja) | 移動体、移動体の制御方法、移動体を制御するプログラム、制御システム、及び情報処理装置 | |
CN112335190B (zh) | 无线电链路覆盖图和减损系统及方法 | |
CN113795803B (zh) | 无人飞行器的飞行辅助方法、设备、芯片、系统及介质 | |
US20210208608A1 (en) | Control method, control apparatus, control terminal for unmanned aerial vehicle | |
WO2018214121A1 (en) | Method and apparatus for controlling unmanned aerial vehicle | |
JP2020149640A (ja) | 飛行システム及び着陸制御方法 | |
US20210240185A1 (en) | Shooting control method and unmanned aerial vehicle | |
JP7031997B2 (ja) | 飛行体システム、飛行体、位置測定方法、プログラム | |
WO2022239318A1 (ja) | 移動体、移動制御方法、およびプログラム | |
JP2019182108A (ja) | 無人飛行体、無人飛行方法及び無人飛行プログラム | |
CN110892353A (zh) | 控制方法、控制装置、无人飞行器的控制终端 | |
Troiani et al. | A 3 points vision based approach for MAV localization in GPS denied environments | |
Sun et al. | AGCG: Air–Ground Collaboration Geolocation Based on Visual Servo With Uncalibrated Cameras | |
JP7333565B1 (ja) | 飛行体および飛行体の制御方法 | |
WO2023139628A1 (ja) | エリア設定システム、及びエリア設定方法 | |
US20240069576A1 (en) | Mobile body, information processing method, and computer program | |
US20220230550A1 (en) | 3d localization and mapping systems and methods | |
US20230030222A1 (en) | Operating modes and video processing for mobile platforms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2020549073 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19951429 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19951429 Country of ref document: EP Kind code of ref document: A1 |