WO2021223122A1 - 飞行器定位方法、装置、飞行器及存储介质 - Google Patents

飞行器定位方法、装置、飞行器及存储介质 Download PDF

Info

Publication number
WO2021223122A1
WO2021223122A1 PCT/CN2020/088841 CN2020088841W WO2021223122A1 WO 2021223122 A1 WO2021223122 A1 WO 2021223122A1 CN 2020088841 W CN2020088841 W CN 2020088841W WO 2021223122 A1 WO2021223122 A1 WO 2021223122A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
visual perception
height
detection
detection value
Prior art date
Application number
PCT/CN2020/088841
Other languages
English (en)
French (fr)
Inventor
刘新俊
高翔
王凯
Original Assignee
深圳市大疆创新科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市大疆创新科技有限公司 filed Critical 深圳市大疆创新科技有限公司
Priority to PCT/CN2020/088841 priority Critical patent/WO2021223122A1/zh
Priority to CN202080007330.7A priority patent/CN113272625A/zh
Publication of WO2021223122A1 publication Critical patent/WO2021223122A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement

Definitions

  • This application relates to the technical field of aircraft control, and in particular to an aircraft positioning method, device, aircraft and storage medium.
  • Aircraft such as unmanned aerial vehicles
  • visual perception data such as visual perception height
  • the visual perception data is used as the core data for aircraft positioning. If the visual perception data is abnormal, for example, the visual lens will be blocked by the load, incorrectly calibrated or abnormally calibrated, etc., it may lead to abnormal visual perception data, which will directly lead to inaccurate positioning results and cause abnormal flight of the aircraft.
  • the present application provides an aircraft positioning method, device, aircraft, and storage medium, aiming to improve the accuracy of aircraft positioning and improve flight safety.
  • this application provides an aircraft positioning method, including:
  • the aircraft is positioned.
  • the present application also provides an aircraft positioning device, the aircraft positioning device including a memory and a processor;
  • the memory is used to store a computer program
  • the processor is configured to execute the computer program and, when executing the computer program, implement the following steps:
  • the aircraft is positioned.
  • the present application also provides an aircraft including a body, a power system provided in the body, and the above-mentioned aircraft positioning device, the power system is used to provide power to the aircraft, so The aircraft positioning device is used for positioning the aircraft.
  • this application also provides a computer-readable storage medium that stores a computer program that, when executed by a processor, causes the processor to implement the aircraft positioning method described above .
  • the embodiments of the present application provide an aircraft positioning method, device, aircraft, and storage medium.
  • positioning the aircraft not only the visual perception data of the aircraft is acquired, but also at least one detection data corresponding to the visual perception data is collected through at least one sensor device.
  • the detection value corresponding to the visual perception data is obtained, and the aircraft is positioned based on the detection value, so as to avoid incorrect positioning of abnormal visual perception data output, thereby improving the accuracy of the positioning of the aircraft, In turn, the safety of flight is improved.
  • FIG. 1 is a schematic block diagram of the structure of an aircraft provided by an embodiment of the present application.
  • FIG. 2 is a schematic flowchart of steps of an aircraft positioning method provided by an embodiment of the present application.
  • Fig. 3 is a schematic flowchart of sub-steps of the aircraft positioning method in Fig. 2;
  • FIG. 4 is a schematic diagram of a process for determining whether visual perception data is abnormal according to an embodiment of the present application
  • Fig. 5 is a schematic flowchart of sub-steps of the aircraft positioning method in Fig. 2;
  • Fig. 6 is a schematic diagram of another process for determining whether visual perception data is abnormal according to an embodiment of the present application.
  • FIG. 7 is a schematic block diagram of the structure of an aircraft positioning device provided by an embodiment of the present application.
  • Aircraft such as unmanned aerial vehicles
  • visual perception data such as visual perception height
  • the visual perception data is used as the core data for aircraft positioning. If the visual perception data is abnormal, for example, the visual lens may be blocked by the load, incorrectly calibrated or abnormally calibrated, etc., the visual perception data may be abnormal, which will directly lead to inaccurate positioning results and cause abnormal flight of the aircraft.
  • the embodiments of the present application provide an aircraft positioning method, device, aircraft, and storage medium, so as to improve the accuracy of aircraft positioning, thereby improving the safety of flight.
  • FIG. 1 is a schematic block diagram of the structure of an aircraft provided by an embodiment of the present application.
  • the aircraft 100 includes a body 10, a power system 20 provided in the body 10, and an aircraft positioning device 30.
  • the system 20 is used to provide power to the aircraft 100, and the aircraft positioning device 20 is used to position the aircraft 100.
  • the aircraft 100 may be a rotary-wing drone.
  • the aircraft may also be other types of drones or movable devices, and the embodiments of the present application are not limited thereto.
  • the aircraft 100 further includes a visual perception system 40, including but not limited to a visual lens, a visual sensor, and the like.
  • a visual perception system 40 including but not limited to a visual lens, a visual sensor, and the like.
  • the aircraft 100 collects visual images based on the visual perception system 40, and the aircraft positioning device 20 obtains corresponding visual perception data according to the visual images, and positions the aircraft 100.
  • the aircraft 100 further includes one or more sensor devices 50, and the sensor devices 50 are used to detect one or more detection data during the flight of the aircraft 100.
  • the sensor device 50 includes, but is not limited to, IMU (Inertial Measurement Unit), GNSS (Global Navigation Satellite System, Global Navigation Satellite System), RTK (Real-time kinematic), barometer, ultrasonic sensor, TOF (Time of flight) sensors, laser sensors, etc.
  • the detection data detected by one or more sensor devices 50 includes, but is not limited to, absolute altitude, relative distance height, acceleration, vertical speed, horizontal speed, pitch angle, and the like.
  • the aircraft positioning device 20 locates the aircraft 100 according to the visual perception data and the detection data detected by the one or more sensor devices 50.
  • the unmanned aerial vehicle may have one or more propulsion units to allow the unmanned aerial vehicle to fly in the air.
  • the one or more propulsion units can make the drone move at one or more, two or more, three or more, four or more, five or more, six or more free angles .
  • the drone can rotate around one, two, three, or more rotation axes.
  • the rotation axes may be perpendicular to each other.
  • the rotation axis can be maintained perpendicular to each other during the entire flight of the UAV.
  • the rotation axis may include a pitch axis, a roll axis, and/or a yaw axis.
  • the drone can move in one or more dimensions.
  • a drone can move upward due to the lifting force generated by one or more rotors.
  • the drone can move along the Z axis (upward relative to the drone direction), X axis, and/or Y axis (which can be lateral).
  • the drone can move along one, two or three axes that are perpendicular to each other.
  • the drone can be a rotorcraft.
  • the drone may be a multi-rotor aircraft that may include multiple rotors. Multiple rotors can rotate to generate lift for the drone.
  • the rotor can be a propulsion unit, allowing the drone to move freely in the air.
  • the rotor can rotate at the same rate and/or can generate the same amount of lift or thrust.
  • the rotor can rotate at different speeds at will, generating different amounts of lifting force or thrust and/or allowing the drone to rotate.
  • one, two, three, four, five, six, seven, eight, nine, ten or more rotors can be provided on the drone. These rotors can be arranged such that their rotation axes are parallel to each other. In some cases, the rotation axis of the rotors can be at any angle relative to each other, which can affect the movement of the drone.
  • the drone can have multiple rotors.
  • the rotor can be connected to the main body of the drone, and the main body can include a control unit, an inertial measurement unit (IMU), a processor, a battery, a power supply, and/or other sensors.
  • the rotor may be connected to the body by one or more arms or extensions branching from the central part of the body.
  • one or more arms may extend radially from the central body of the drone, and may have rotors at or near the end of the arms.
  • the aircraft positioning method provided in the embodiments of the present application will be introduced in detail based on the aircraft and the aircraft positioning device in the aircraft. It should be understood that the aircraft in FIG. 1 is only used to explain the aircraft positioning method provided in the embodiments of the present application, but does not constitute a limitation on the application scenario of the aircraft positioning method.
  • FIG. 2 is a schematic flowchart of an aircraft positioning method according to an embodiment of the present application. This method can be used in the aircraft positioning device provided in the above embodiments to achieve accuracy of aircraft positioning, thereby improving flight safety.
  • the aircraft positioning method specifically includes steps S101 to S104.
  • the visual perception data includes but is not limited to the visual perception height, horizontal speed, vertical speed, pitch angle, etc.
  • the visual perception data is the core data of aircraft positioning. If the visual perception data is abnormal, errors will occur in the positioning of the aircraft. Therefore, when positioning an aircraft, first obtain the visual perception data of the aircraft.
  • visual perception data is obtained based on a visual perception system of an aircraft, where the visual perception system includes but is not limited to a visual lens, a visual sensor, and the like.
  • a corresponding visual image is collected through the visual perception system, and image feature extraction is performed on the visual image collected by the visual perception system to obtain corresponding visual perception data.
  • the visual image is processed through digital image processing and feature point extraction to obtain image coordinates and other information, and the visual perception data corresponding to the aircraft is obtained through analysis and calculation.
  • S102 Collect at least one detection data corresponding to the visual perception data through at least one sensor device.
  • At least one detection data corresponding to the visual perception data is also collected through at least one sensor device.
  • the sensor device includes but is not limited to IMU, GNSS, RTK, barometer, TOF and so on.
  • One or more sensor devices are used to collect corresponding detection data, the detection data including but not limited to absolute altitude, relative distance height, acceleration, vertical speed, horizontal speed, pitch angle, etc.
  • the IMU is used to measure the three-axis attitude angle (or angular rate) and acceleration of the aircraft.
  • the IMU has three acceleration sensors and three angular velocity sensors (gyros).
  • the acceleration sensor is used to detect the acceleration component of the aircraft relative to the vertical line
  • the angular velocity sensor is used to detect the angle information of the aircraft, such as the aircraft pitch angle, tilt angle, and sideslip angle Wait.
  • GNSS is a space-based radio navigation and positioning system that can provide users with all-weather three-dimensional coordinates and speed and time information on the surface of the earth or any place in near-Earth space. It detects the three-dimensional coordinates and speed of the aircraft through GNSS.
  • RTK is a real-time dynamic positioning technology based on carrier phase observations. It can provide real-time three-dimensional positioning results of the survey site in a specified coordinate system, and achieve centimeter-level accuracy. The three-dimensional coordinate data of the aircraft can be detected through RTK.
  • the physical quantity measured by the barometer is the atmospheric pressure value, and the corresponding absolute altitude can be calculated according to the atmospheric pressure value.
  • the absolute altitude corresponding to the aircraft is obtained through the barometer.
  • TOF is to continuously send light pulses to the target, and then use the sensor to receive the light returned from the object, and obtain the target object distance by detecting the flight (round trip) time of the light pulse. During the flight of the aircraft, the relative distance and height of the aircraft relative to the ground are obtained through TOF.
  • the acquired visual perception data is detected according to the at least one detection data, and the detection value corresponding to the visual perception data is obtained.
  • the detection value represents the value of the visual perception data. Test results.
  • the at least one detection data is used to detect whether the visual perception data is abnormal, and the detection value corresponding to the visual perception data is obtained according to the detected abnormality or normal result.
  • the detection result obtained when the visual perception data is normal is different from the detection result obtained when the visual perception data is abnormal.
  • the first detection value corresponding to the visual perception data is obtained; if it is determined that the visual perception data is abnormal, the second detection value corresponding to the visual perception data is obtained.
  • the first detection value is different from the second detection value. For example, it is preset that the normal visual perception data corresponds to the detection value 0, and the abnormal visual perception data corresponds to the detection value 1.
  • the detection value 0 corresponding to the visual perception data is obtained; conversely, when the visual perception data is determined to be abnormal, the detection value 1 corresponding to the visual perception data is obtained.
  • the visual perception data and at least one detection data are mutually checked to determine whether the visual perception data is abnormal. That is to say, the visual perception data and at least one detection data are compared with each other in pairs to determine whether they are consistent to determine whether the visual perception data is abnormal.
  • the visual perception data and at least one detection data are mutually checked to determine whether the visual perception data is abnormal, specifically including sub-step S1031 to sub-step S1033.
  • the visual perception data and at least one detection data are not directly checked for each other to determine whether the visual perception data is abnormal.
  • the change amount and the change amount of at least one detection data are checked mutually to determine whether the visual perception data is abnormal.
  • the amount of change of the visual perception data within a period of time and the amount of change corresponding to the plurality of detection data within the period of time are obtained. For example, acquiring the amount of change of the visual perception data within a preset time period and the multiple amounts of change corresponding to the plurality of detection data within the preset time period.
  • the preset duration can be flexibly set according to actual conditions, and there is no specific limitation here.
  • the amount of change in the visual perception data within the preset time period is referred to as the first amount of change
  • the amount of change corresponding to the detection data within the preset time period is referred to as the second amount of change.
  • the acquired first variation and the multiple second variations are mutually checked, and the consistency of the first variation and the multiple second variations is judged.
  • the inconsistent amount of change if there is an inconsistent amount of change among the first amount of change and the plurality of second amounts of change, and the inconsistent amount of change is the first amount of change, it means that the first amount of change is inconsistent with the plurality of second amounts of change, It is determined that the visual perception data is abnormal.
  • the first variation and the multiple second variations are consistent, it means that all the data (visual perception data and multiple detection data) are consistent. At this time, it is determined that the visual perception data is normal. Or there is an inconsistent change in the first change and multiple second changes, and the inconsistent change is the second change, which means that the visual perception data is consistent with most of the detection data, and only a few detection data are inconsistent , At this time, it is determined that the visual perception data is normal.
  • the visual perception height by acquiring the visual perception height change amount of the visual perception height within a preset period of time, and the height change amount of the height detected by a plurality of sensor devices respectively within the preset period of time, the visual perception is The height change amount and the height change amount corresponding to the height detected by the plurality of sensor devices are determined to be consistent, and it is determined whether the visual perception height is abnormal.
  • the GNSS height detected by GNSS, the TOF height detected by TOF, and the visual perception height are obtained, and the height change amount of the GNSS height within the preset time period is calculated, and the TOF height within the preset time period is calculated.
  • the height change amount and the height change amount of the visual perception height within the preset duration, the height change amount of the GNSS height within the preset duration, the height variation amount of the TOF height within the preset duration, and the visual perception height are preset
  • the height changes within the duration are checked each other, and the pairwise comparisons are performed to determine the height changes within the preset duration of the GNSS height, the height changes within the TOF height within the preset duration, and the visual perception height within the preset duration.
  • the consistency between the height changes determines whether the visual perception height is abnormal. Specifically, if the height change of the GNSS height within the preset duration, the height change of the TOF height within the preset duration, and the height variation of the visual perception height within the preset duration are all consistent, the visual perception is determined The height is normal; or, if the height change of the GNSS height within the preset duration is consistent with the height change of the visual perception height within the preset duration, but is inconsistent with the height variation of the TOF height within the preset duration, the vision is determined Perceived height is normal, TOF height is abnormal; or, if the height change of TOF height within the preset duration is consistent with the height change of the visual perception height within the preset duration, but is the same as the height variation of the GNSS altitude within the preset duration Inconsistent, it is determined that the visual perception height is normal and the GNSS height is abnormal; or, if the height change of the GNSS height within the preset duration is consistent with the height variation of the TOF
  • the above takes the visual perception height as an example to introduce whether the visual perception height is abnormal. What needs to be explained is the operation of determining whether the vertical speed, horizontal speed and other visual perception data are abnormal, and the operation of determining whether the visual perception height is abnormal It's similar, so I won't repeat it here.
  • step S103 specifically includes sub-step S1034 to sub-step S1036.
  • the prediction is calculated based on the data corresponding to the historical positioning of the aircraft
  • the data corresponding to the current positioning of the aircraft such as the current altitude and current speed of the aircraft, are compared with the calculated and predicted data with the current visual perception data of the aircraft, and whether the visual perception data is abnormal is determined according to the comparison result.
  • the altitude and vertical speed corresponding to the historical positioning data of the aircraft obtain the altitude and vertical speed corresponding to the positioning before time t.
  • the height corresponding to the historical positioning data is referred to as the first height
  • the vertical velocity corresponding to the historical positioning data is referred to as the first vertical velocity.
  • the first height is obtained by fusing the historical visual perception height during historical positioning and multiple historical detection heights detected by multiple sensor devices
  • the first vertical speed is obtained by fusing the historical visual perception speed during historical positioning and the historical visual perception speed during historical positioning.
  • Multiple historical detection speeds detected by multiple sensor devices are obtained by fusion processing.
  • the calculated second height is compared with the visual perception height, and the detection value corresponding to the visual perception height is obtained according to the consistency of the comparison result.
  • the calculated second height is compared with the visual perception height, and it is determined whether the visual perception height is abnormal according to the consistency of the comparison.
  • perform gross difference detection between the calculated second height and the visual perception height If the second height is consistent with the visual perception height, it is determined that the visual perception height is normal; otherwise, if the second height is inconsistent with the visual perception height , It is determined that the visual perception is highly abnormal.
  • a preset range corresponding to a height difference is preset, and if the height difference between the second height and the visual perception height does not exceed the preset range, it is determined that the second height is consistent with the visual perception height, and it is determined that the visual perception height is normal; Conversely, if the height difference between the second height and the visual perception height exceeds the preset range, it is determined that the second height is inconsistent with the visual perception height, and it is determined that the visual perception height is abnormal.
  • the fusion height and fusion vertical velocity calculated based on the historical data fusion calculation output corresponding to the historical positioning of the aircraft, according to the formula H1 H0+vt, calculate the current height of the predicted aircraft, and then calculate the predicted aircraft height The gross difference between the current altitude and the acquired visual perception height is detected. If the calculated and predicted current height of the aircraft is consistent with the acquired visual perception height, the visual perception height is determined to be normal; on the contrary, if the predicted current height of the aircraft is calculated and obtained If the visual perception is highly inconsistent, it is determined that the visual perception is abnormal.
  • the detection value corresponding to the visual perception height is obtained. For example, if it is determined that the visual perception height is normal, the first detection value corresponding to the visual perception height is obtained; conversely, if the visual perception height is determined to be abnormal, the second detection value corresponding to the visual perception height is obtained.
  • the aircraft After the detection value corresponding to the visual perception data is obtained through the at least one detection data, the aircraft is positioned based on the acquired detection value, and the processing method for positioning the aircraft is different for different detection values.
  • the aircraft when the first detection value is obtained, that is, when the visual perception data is normal, the aircraft is positioned based on the visual perception data.
  • the aircraft By positioning the aircraft based on normal visual perception data, positioning errors are avoided and the safety of the aircraft is improved.
  • the second detection value When the second detection value is obtained, that is, when the visual perception data is abnormal, no positioning processing is performed based on the visual perception data.
  • the operation of step S101 is returned again to obtain the visual perception data again; or, when the second detection value is obtained, the corresponding visual perception data abnormality prompt information is output to prompt the corresponding Exception handling.
  • the prompt information includes but is not limited to text prompt information and/or voice prompt information.
  • a confidence analysis is also performed on the acquired visual perception data.
  • the confidence level of the visual perception data is determined according to the output parameters corresponding to the visual images collected by the visual perception system of the aircraft.
  • the output parameter corresponding to the visual image includes at least one of the average depth of the feature corresponding to the visual image, the number of feature points, and the brightness of the image.
  • the corresponding output of the visual image of the characteristic object in the vicinity of the aircraft is relatively reliable.
  • the visual image In the case of relatively good lighting, the visual image has high brightness, high visual image quality, and relatively reliable output. The higher the brightness of the image corresponding to the visual image, the higher the confidence of the visual perception data corresponding to the output.
  • the output is relatively high and reliable.
  • a preset confidence threshold is preset, and when the confidence of the visual perception data is obtained, the confidence of the visual perception data is compared with the preset confidence threshold, and if the confidence of the visual perception data is less than the preset The confidence threshold, that is, when the confidence of the visual perception data is low, determine whether the visual perception data is abnormal according to at least one detection data collected by at least one sensor device, and obtain the detection value corresponding to the visual perception data.
  • the aircraft may be positioned directly based on the visual perception data.
  • the visual perception data and at least one detection data are data fused To obtain the corresponding fusion data.
  • the EKF method that is, the extended Kalman filter method
  • the EKF method is used to perform data fusion on the visual perception data and at least one detection data.
  • specific data fusion methods there are no specific restrictions in this application.
  • the aircraft is positioned based on the fusion data, such as fusion height, fusion speed and other data.
  • the visual perception data and the at least one detection data are mutually checked to obtain the detection value corresponding to the at least one detection data.
  • the visual perception data and at least one detection data are mutually checked to determine whether there is abnormal detection data in the at least one detection data, that is, it is determined whether there is inconsistent detection data in the at least one detection data, and the specific mutual detection operation can refer to the determination The operation of whether the visual perception data is abnormal is not repeated here.
  • a detection value corresponding to at least one detection data is obtained.
  • the third detection value corresponding to the at least one detection data is obtained; conversely, if it is determined that there is abnormal detection data in at least one detection data, then at least one detection data is obtained Corresponding to the fourth detection value.
  • the third detection value is different from the fourth detection value.
  • the third detection value that is, when there is no abnormal detection data in the at least one detection data
  • data fusion is performed on the normal visual perception data and the at least one detection data to obtain the corresponding fusion data.
  • the fourth detection value that is, when there is abnormal detection data in at least one detection data
  • the visual perception data and the detection data other than the abnormal detection data in the at least one detection data are data fused to obtain the corresponding fusion data.
  • the method before performing data fusion on the visual perception data and at least one detection data to obtain the corresponding fused data, the method further includes: obtaining the confidence of the visual perception data; according to the preset correspondence between the confidence and the weight , And the confidence of the visual perception data, determining the weight corresponding to the visual perception data; the data fusion of the visual perception data and the at least one detection data to obtain the corresponding fusion data includes: According to the weight corresponding to the visual perception data, data fusion is performed on the visual perception data and the at least one detection data to obtain the fusion data.
  • the correspondence between the confidence and the weight of the visual perception data is preset. Among them, the higher the confidence of the visual perception data, the larger the corresponding weight.
  • the confidence level corresponding to the visual perception data is obtained, for example, the confidence level of the visual perception data is determined according to the output parameters of the image brightness, the number of feature points, and the average depth of the feature corresponding to the visual image. Then, according to the preset correspondence relationship between the confidence and the weight, the weight corresponding to the confidence of the visual perception data is determined.
  • the weight corresponding to the visual perception data is determined to be b1.
  • data fusion is performed on the visual perception data and at least one detection data to obtain corresponding fusion data. Therefore, the higher the confidence of the visual perception data, the greater the proportion of the visual perception data in data fusion, that is, the greater the influence of the visual perception data on the specific values of the fusion data. Conversely, the lower the confidence of the visual perception data, the smaller the proportion of the visual perception data in data fusion, that is, the smaller the influence of the visual perception data on the specific values of the fusion data. Therefore, the confidence of visual perception data is taken as a consideration factor for data fusion and positioning of the aircraft, which further improves the accuracy of positioning.
  • the aircraft positioning method when positioning the aircraft, not only the visual perception data of the aircraft is acquired, but also at least one detection data corresponding to the visual perception data is collected through at least one sensor device, and the vision is obtained according to the at least one detection data. Perceive the detection value corresponding to the data, and locate the aircraft based on the detection value, so as to avoid incorrect positioning of abnormal visual perception data output. Therefore, the accuracy of the positioning of the aircraft is improved, and the safety of the flight is improved.
  • FIG. 7 is a schematic block diagram of the structure of an aircraft positioning device provided by an embodiment of the present application.
  • the aircraft positioning device can be applied to aircraft and aircraft control terminals.
  • the aircraft positioning device 700 includes a processor 701 and a memory 702.
  • the processor 701 and the memory 702 are connected by a bus 703, which is, for example, an I2C (Inter-integrated Circuit) bus.
  • the aircraft positioning device 700 is applied to a control terminal of the aircraft, and the control terminal communicates with the aircraft for positioning the aircraft and then controlling the flight of the aircraft.
  • the aircraft positioning device 700 is applied to an aircraft for positioning the aircraft.
  • the processor 701 may be a micro-controller unit (MCU), a central processing unit (CPU), a digital signal processor (Digital Signal Processor, DSP), or the like.
  • MCU micro-controller unit
  • CPU central processing unit
  • DSP Digital Signal Processor
  • the memory 702 may be a Flash chip, a read-only memory (ROM, Read-Only Memory) disk, an optical disk, a U disk, or a mobile hard disk.
  • the processor 701 is configured to run a computer program stored in the memory 702, and implement the following steps when executing the computer program:
  • the aircraft is positioned.
  • the processor when the processor realizes that the detection value corresponding to the visual perception data is obtained according to the at least one detection data, it specifically realizes:
  • the detection value corresponding to the visual perception data is obtained.
  • the processor when the processor realizes that the detection value corresponding to the visual perception data is obtained according to the determined result, it specifically realizes:
  • the first detection value corresponding to the visual perception data is obtained.
  • the processor when the processor realizes that the detection value corresponding to the visual perception data is obtained according to the determined result, it specifically realizes:
  • the second detection value corresponding to the visual perception data is obtained.
  • the processor when the processor implements the positioning of the aircraft based on the detection value, it specifically implements:
  • the aircraft is positioned based on the visual perception data.
  • the processor when the processor implements the determining whether the visual perception data is abnormal according to the at least one detection data, it specifically implements:
  • the visual perception data and the at least one detection data are mutually checked to determine whether the visual perception data is abnormal.
  • the processor when the processor implements the mutual inspection of the visual perception data and the at least one detection data to determine whether the visual perception data is abnormal, it specifically implements:
  • the processor implements the acquisition of the first change amount corresponding to the visual perception data within a preset period of time, and the second change corresponding to the plurality of detection data within the preset period of time. After the measurement, it also realized:
  • the inconsistent amount of change is a second change Quantity
  • the visual perception data includes at least one of visual perception height, horizontal speed, and vertical speed.
  • the detection data includes absolute altitude and relative distance altitude.
  • the visual perception data includes visual perception height, and when the processor executes the computer program, it further implements:
  • the second height is compared with the visual perception height to obtain a detection value corresponding to the visual perception height.
  • the processor when the processor implements the comparison of the second height with the visual perception height to obtain the detection value corresponding to the visual perception height, it specifically implements:
  • the detection value corresponding to the visual perception height is obtained.
  • the processor when the processor realizes that the detection value corresponding to the visual perception height is obtained according to the determined result, it specifically realizes:
  • the first detection value corresponding to the visual perception height is obtained.
  • the processor when the processor realizes that the detection value corresponding to the visual perception height is obtained according to the determined result, it specifically realizes:
  • the second detection value corresponding to the visual perception height is obtained.
  • the processor when the processor implements the comparison of the second height with the visual perception height to determine whether the visual perception height is abnormal, it specifically implements:
  • the height difference between the second height and the visual perception height does not exceed a preset range, it is determined that the visual perception height is normal.
  • the processor when the processor implements the comparison of the second height with the visual perception height to determine whether the visual perception height is abnormal, it specifically implements:
  • the processor when the processor implements the acquisition of the visual perception data of the aircraft, it specifically implements:
  • Image feature extraction is performed on the visual image to obtain the visual perception data.
  • the processor when the processor executes the computer program, it also implements:
  • the output parameter includes at least one of feature average depth, number of feature points, and image brightness.
  • the more feature points corresponding to the visual image the higher the confidence of the visual perception data.
  • the processor when the processor realizes that the detection value corresponding to the visual perception data is obtained according to the at least one detection data, it specifically realizes:
  • the detection value corresponding to the visual perception data is obtained according to the at least one detection data.
  • the processor when the processor implements the positioning of the aircraft based on the detection value, it specifically implements:
  • the detection value is the first detection value
  • data fusion is performed on the visual perception data and the at least one detection data to obtain corresponding fusion data, and the aircraft is positioned based on the fusion data.
  • the processor before implementing the data fusion of the visual perception data and the at least one detection data to obtain corresponding fused data, the processor further implements:
  • the visual perception data and the at least one detection data are mutually checked to obtain a detection value corresponding to the at least one detection data.
  • the processor when the processor implements the mutual inspection of the visual perception data and the at least one detection data to obtain the detection value corresponding to the at least one detection data, it specifically implements:
  • the detection value corresponding to the at least one detection data is obtained.
  • the processor when the processor realizes that the detection value corresponding to the at least one detection data is obtained according to the determined result, it specifically realizes:
  • a third detection value corresponding to the at least one detection data is obtained.
  • the processor when the processor realizes that the detection value corresponding to the at least one detection data is obtained according to the determined result, it specifically realizes:
  • a fourth detection value corresponding to the at least one detection data is obtained.
  • the processor when the processor implements the data fusion of the visual perception data and the at least one detection data to obtain corresponding fused data, it specifically implements:
  • data fusion is performed on the visual perception data and the at least one detection data to obtain the fusion data.
  • the processor when the processor implements the data fusion of the visual perception data and the at least one detection data to obtain corresponding fused data, it specifically implements:
  • data fusion is performed on the visual perception data and the detection data other than the abnormality detection data in the at least one detection data to obtain the fusion data.
  • the processor before implementing the data fusion of the visual perception data and the at least one detection data to obtain corresponding fused data, the processor further implements:
  • the processor implements the data fusion of the visual perception data and the at least one detection data to obtain corresponding fused data, it specifically implements:
  • data fusion is performed on the visual perception data and the at least one detection data to obtain the fusion data.
  • the higher the confidence of the visual perception data the larger the corresponding weight.
  • the embodiments of the present application also provide a computer-readable storage medium, the computer-readable storage medium stores a computer program, the computer program includes program instructions, and the processor executes the program instructions to implement the foregoing implementation The steps of the aircraft positioning method provided in the example.
  • the computer-readable storage medium may be the internal storage unit of the aircraft or the aircraft positioning device described in any of the foregoing embodiments, such as the hard disk or memory of the aircraft or the aircraft positioning device.
  • the computer-readable storage medium may also be an external storage device of the aircraft or the aircraft positioning device, for example, a plug-in hard disk equipped on the aircraft or the aircraft positioning device, a smart memory card (Smart Media Card, SMC), which is safe Digital (Secure Digital, SD) card, Flash Card (Flash Card), etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种飞行器(100)定位方法、装置、飞行器(100)及存储介质,其中,所述方法包括:获取飞行器(100)的视觉感知数据(S101);通过至少一个传感器装置(50)采集所述视觉感知数据对应的至少一个检测数据(S102);根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值(S103);基于所述检测值,对所述飞行器(100)进行定位(S104)。

Description

飞行器定位方法、装置、飞行器及存储介质 技术领域
本申请涉及飞行器控制技术领域,尤其涉及一种飞行器定位方法、装置、飞行器及存储介质。
背景技术
飞行器比如无人机,可应用在航拍、农业植保、电力巡查、救灾、巡航表演等各个领域,应用十分广泛。在飞行器导航定位中,一般是基于视觉感知数据,如视觉感知高度,以视觉感知数据作为核心数据进行飞行器定位的。如果视觉感知数据异常,比如,由于视觉镜头会存在被负载遮挡、未正常校准或者校准异常等情况,可能会导致视觉感知数据异常,这样就会直接导致定位结果不准确,从而引起飞行器飞行异常。
为了避免由于错误定位而导致飞行异常,目前,通常是采用内部检测的方法,在检测到异常时就阻止输出视觉感知数据。但是该方法对于一些校准类的异常无法检测出来,因而仍然会存在将异常的视觉感知数据输出进行错误定位的情况,飞行的安全性无法保障。
因此,如何提高飞行器定位的精准性,进而提高飞行的安全性成为亟待解决的问题。
发明内容
基于此,本申请提供了一种飞行器定位方法、装置、飞行器及存储介质,旨在提高飞行器定位的精准性,以提高飞行的安全性。
第一方面,本申请提供了一种飞行器定位方法,包括:
获取飞行器的视觉感知数据;
通过至少一个传感器装置采集所述视觉感知数据对应的至少一个检测数据;
根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值;
基于所述检测值,对所述飞行器进行定位。
第二方面,本申请还提供了一种飞行器定位装置,所述飞行器定位装置包括存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
获取飞行器的视觉感知数据;
通过至少一个传感器装置采集所述视觉感知数据对应的至少一个检测数据;
根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值;
基于所述检测值,对所述飞行器进行定位。
第三方面,本申请还提供了一种飞行器,所述飞行器包括机体、设于所述机体内的动力系统以及如上述的飞行器定位装置,所述动力系统用于为所述飞行器提供动力,所述飞行器定位装置用于对所述飞行器进行定位。
第四方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上述的飞行器定位方法。
本申请实施例提供了一种飞行器定位方法、装置、飞行器及存储介质,在对飞行器进行定位时,不仅获取飞行器的视觉感知数据,还通过至少一个传感器装置采集视觉感知数据对应的至少一个检测数据,根据该至少一个检测数据,获得视觉感知数据对应的检测值,并基于检测值来对飞行器进行定位,从而避免将异常的视觉感知数据输出进行错误定位,因此,提高了飞行器定位的精准性,进而提高了飞行的安全性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的飞行器的结构示意性框图;
图2是本申请实施例提供的一种飞行器定位方法的步骤示意流程图;
图3是图2中的飞行器定位方法的子步骤示意流程图;
图4是本申请实施例提供的一种确定视觉感知数据是否异常的流程示意图;
图5是图2中的飞行器定位方法的子步骤示意流程图;
图6是本申请实施例提供的另一种确定视觉感知数据是否异常的流程示意图;
图7是本申请实施例提供的一种飞行器定位装置的结构示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
飞行器比如无人机,可应用在航拍、农业植保、电力巡查、救灾、巡航表演等各个领域,应用十分广泛。在飞行器导航定位中,一般是基于视觉感知数据,如视觉感知高度,以视觉感知数据作为核心数据进行飞行器定位的。如果视觉感知数据异常,比如,由于视觉镜头会存在被负载遮挡、未正常校准或者校准异常等情况,可能会导致视觉感知数据异常,这样就会直接导致定位结果 不准确,从而引起飞行器飞行异常。
为了避免由于错误定位而导致飞行异常,目前,通常是采用内部检测的方法,在检测到异常时就阻止输出视觉感知数据。但是该方法对于一些校准类的异常无法检测出来,因而仍然会存在将异常的视觉感知数据输出进行错误定位的情况,飞行的安全性无法保障。
基于上述问题,本申请实施例提供一种飞行器定位方法、装置、飞行器及存储介质,以提高飞行器定位的精准性,进而提高飞行的安全性。
请参照图1,图1是本申请实施例提供的飞行器的结构示意性框图,如图1所示,该飞行器100包括机体10、设于机体10内的动力系统20以及飞行器定位装置30,动力系统20用于为飞行器100提供动力,飞行器定位装置20用于对飞行器100进行定位。
飞行器100可以为旋翼型无人机,当然,飞行器也可以是其他类型的无人机或可移动装置,本申请实施例不限于此。
示例性的,飞行器100还包括视觉感知系统40,包括但不限于视觉镜头、视觉传感器等。在飞行器100飞行过程中,飞行器100基于视觉感知系统40采集视觉图像,飞行器定位装置20根据该视觉图像获得对应的视觉感知数据,对飞行器100进行定位。
在一些实施方式中,为了精准地对飞行器100进行定位,飞行器100还包括一个或者多个传感器装置50,传感器装置50用于检测飞行器100飞行过程中的一个或者多个检测数据。其中,传感器装置50包括但不限于IMU(Inertial measurement unit,惯性测量单元)、GNSS(Global Navigation Satellite System,全球导航卫星系统)、RTK(Real-time kinematic,实时动态)、气压计、超声波传感器、TOF(Time of flight,飞行时间)传感器、激光传感器等等。一个或者多个传感器装置50检测的检测数据包括但不限于绝对海拔高度、相对距离高度、加速度、垂直速度、水平速度、俯仰角度等。飞行器定位装置20根据视觉感知数据以及该一个或者多个传感器装置50检测的检测数据,对飞行器100进行定位。
以飞行器100为无人机为例,无人机可具有一个或多个推进单元,以允许无人机可在空中飞行。该一个或多个推进单元可使得无人机以一个或多个、两个或多个、三个或多个、四个或多个、五个或多个、六个或多个自由角度移动。 在某些情形下,无人机可以绕一个、两个、三个或多个旋转轴旋转。旋转轴可彼此垂直。旋转轴在无人机的整个飞行过程中可维持彼此垂直。旋转轴可包括俯仰轴、横滚轴和/或偏航轴。无人机可沿一个或多个维度移动。例如,无人机能够因一个或多个旋翼产生的提升力而向上移动。在某些情形下,无人机可沿Z轴(可相对无人机方向向上)、X轴和/或Y轴(可为横向)移动。无人机可沿彼此垂直的一个、两个或三个轴移动。
无人机可以是旋翼飞机。在某些情形下,无人机可以是可包括多个旋翼的多旋翼飞行器。多个旋翼可旋转而为无人机产生提升力。旋翼可以是推进单元,可使得无人机在空中自由移动。旋翼可按相同速率旋转和/或可产生相同量的提升力或推力。旋翼可按不同的速率随意地旋转,产生不同量的提升力或推力和/或允许无人机旋转。在某些情形下,在无人机上可提供一个、两个、三个、四个、五个、六个、七个、八个、九个、十个或更多个旋翼。这些旋翼可布置成其旋转轴彼此平行。在某些情形下,旋翼的旋转轴可相对于彼此呈任意角度,从而可影响无人机的运动。
无人机可具有多个旋翼。旋翼可连接至无人机的本体,本体可包含控制单元、惯性测量单元(inertial measuring unit,IMU)、处理器、电池、电源和/或其他传感器。旋翼可通过从本体中心部分分支出来的一个或多个臂或延伸而连接至本体。例如,一个或多个臂可从无人机的中心本体放射状延伸出来,而且在臂末端或靠近末端处可具有旋翼。
可以理解的,上述对于飞行器各部件的命名仅仅出于标识的目的,并不因此对本申请实施例进行限制。
以下,将基于飞行器、所述飞行器中的飞行器定位装置对本申请的实施例提供的飞行器定位方法进行详细介绍。需知,图1中的飞行器仅用于解释本申请实施例提供的飞行器定位方法,但并不构成对该飞行器定位方法的应用场景的限定。
请参阅图2,图2是本申请的实施例提供的一种飞行器定位方法的示意流程图。该方法可以用于上述实施例提供的飞行器定位装置中,以实现飞行器定位的精准性,进而提高飞行的安全性。
如图2所示,该飞行器定位方法具体包括步骤S101至步骤S104。
S101、获取飞行器的视觉感知数据。
其中,视觉感知数据包括但不限于视觉感知高度、水平速度、垂直速度、俯仰角度等等,视觉感知数据是飞行器定位的核心数据,如果视觉感知数据异常,则对飞行器定位就会出现错误。因此,当要对飞行器进行定位时,首先要获取飞行器的视觉感知数据。
在一些实施例中,基于飞行器的视觉感知系统获得视觉感知数据,其中,视觉感知系统包括但不限于视觉镜头、视觉传感器等。具体地,在飞行器飞行过程中,通过视觉感知系统采集相应的视觉图像,并对视觉感知系统采集到的视觉图像进行图像特征提取,获取到对应的视觉感知数据。例如,将视觉图像经过数字图像处理及特征点提取,得到图像坐标等信息,经分析计算获得飞行器对应的视觉感知数据。
S102、通过至少一个传感器装置采集所述视觉感知数据对应的至少一个检测数据。
为了实现精准地对飞行器进行定位,除了获取视觉感知数据以外,还通过至少一个传感器装置采集视觉感知数据对应的至少一个检测数据。其中,传感器装置包括但不限于IMU、GNSS、RTK、气压计、TOF等等。通过一个或者多个传感器装置来采集相应的检测数据,检测数据包括但不限于绝对海拔高度、相对距离高度、加速度、垂直速度、水平速度、俯仰角度等。
例如,通过IMU测量飞行器的三轴姿态角(或角速率)、加速度等检测数据。IMU有三个加速度传感器与三个角速度传感器(陀螺),加速度传感器用来检测飞机相对于地垂线的加速度分量,角速度传感器用来检测飞机的角度信息,如飞机俯仰角度、倾斜角度、侧滑角度等。
GNSS是能在地球表面或近地空间的任何地点为用户提供全天候的三维坐标和速度以及时间信息的空基无线电导航定位系统,通过GNSS检测飞行器的三维坐标、速度等检测数据。
RTK是基于载波相位观测值的实时动态定位技术,它能够实时地提供测站点在指定坐标系中的三维定位结果,并达到厘米级精度。通过RTK可以检测飞行器的三维坐标数据。
气压计测量的物理量是大气压值,根据大气压值可计算出相应的绝对海拔高度。在飞行器飞行过程中,通过气压计获取飞行器对应的绝对海拔高度。
TOF是通过给目标连续发送光脉冲,然后用传感器接收从物体返回的光, 通过探测光脉冲的飞行(往返)时间来得到目标物距离。在飞行器飞行过程中,通过TOF获取飞行器相对于地面的相对距离高度。
S103、根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值。
通过一个或者多个传感器装置获取到相应的至少一个检测数据后,根据该至少一个检测数据,对获取的视觉感知数据进行检测,获得视觉感知数据对应的检测值,通过检测值表征视觉感知数据的检测结果。
在一些实施例中,具体地,通过该至少一个检测数据,检测视觉感知数据是否异常,根据检测的异常或正常结果,获得视觉感知数据对应的检测值。其中,视觉感知数据正常情况下去与视觉感知数据异常异常情况下获得的检测结果不同。
示例性的,若确定视觉感知数据正常,则获得视觉感知数据对应的第一检测值;若确定视觉感知数据异常,则获得视觉感知数据对应的第二检测值。其中,第一检测值与第二检测值不同。例如,预先设置视觉感知数据正常对应检测值0,视觉感知数据异常对应检测值1。当确定视觉感知数据正常时,获得视觉感知数据对应的检测值0;反之,当确定视觉感知数据异常时,获得视觉感知数据对应的检测值1。
在一些实施例中,对视觉感知数据进行检测时,通过将视觉感知数据和至少一个检测数据进行互检,确定视觉感知数据是否异常。也即将视觉感知数据和至少一个检测数据进行两两相互比对,判断是否一致来确定视觉感知数据是否异常。
在一些实施例中,如图3所示,将视觉感知数据和至少一个检测数据进行互检,确定视觉感知数据是否异常,具体包括子步骤S1031至子步骤S1033。
S1031、获取所述视觉感知数据在预设时长内对应的第一变化量,以及多个检测数据在所述预设时长内分别对应的第二变化量;
S1032、若所述第一变化量和多个第二变化量中存在不一致变化量,且所述不一致变化量为所述第一变化量,则确定所述视觉感知数据异常;
S1033、若所述第一变化量和所述多个第二变化量均一致,或者所述第一变化量和所述多个第二变化量中存在不一致变化量且所述不一致变化量为第二变化量,则确定所述视觉感知数据正常。
为了实现精准地对视觉感知数据进行检测,在该实施例中,并不直接通过 将视觉感知数据以及至少一个检测数据进行互检,来确定视觉感知数据是否异常,而是通过将视觉感知数据的变化量与至少一个检测数据的变化量进行互检,来确定视觉感知数据是否异常。具体地,首先获取视觉感知数据在一段时间内的变化量以及多个检测数据在该时间内分别对应的变化量。例如,获取视觉感知数据在预设时长内的变化量以及多个检测数据在该预设时长内分别对应的多个变化量。可以理解的是,该预设时长可根据实际情况进行灵活设置,在此不作具体限制。为了便于区分描述,下文将视觉感知数据在预设时长内的变化量称为第一变化量,将检测数据在预设时长内对应的变化量称为第二变化量。
之后将获取的第一变化量与多个第二变化量进行互检,对第一变化量与多个第二变化量进行一致性判断。一种情况下,若第一变化量和多个第二变化量中存在不一致变化量,且该不一致变化量为第一变化量,也即说明第一变化量与多个第二变化量不一致,则确定视觉感知数据异常。
另一种情况下,若第一变化量和多个第二变化量均一致,说明所有的数据(视觉感知数据和多个检测数据)都是一致性的,此时,确定视觉感知数据正常。或者第一变化量和多个第二变化量中存在不一致变化量,且不一致变化量为第二变化量,也即说明视觉感知数据与绝大多数检测数据是一致性的,只有少数检测数据不一致,此时,确定视觉感知数据正常。
示例性的,以视觉感知高度为例,通过获取视觉感知高度在预设时长内的视觉感知高度变化量,以及多个传感器装置分别检测的高度在预设时长内的高度变化量,将视觉感知高度变化量与多个传感器装置分别检测的高度对应的高度变化量进行一致性判断,确定视觉感知高度是否异常。
例如,如图4所示,获取GNSS检测的GNSS高度、TOF检测的TOF高度、以及视觉感知高度,并分别计算获得GNSS高度在预设时长内的高度变化量、TOF高度在预设时长内的高度变化量、以及视觉感知高度在预设时长内的高度变化量,将GNSS高度在预设时长内的高度变化量、TOF高度在预设时长内的高度变化量、以及视觉感知高度在预设时长内的高度变化量进行互检,两两比对,判断GNSS高度在预设时长内的高度变化量、TOF高度在预设时长内的高度变化量、以及视觉感知高度在预设时长内的高度变化量之间的一致性,确定视觉感知高度是否异常。具体地,若GNSS高度在预设时长内的高度变化量、TOF高度在预设时长内的高度变化量、以及视觉感知高度在预设时长内的 高度变化量三者均一致,则确定视觉感知高度正常;或者,若GNSS高度在预设时长内的高度变化量与视觉感知高度在预设时长内的高度变化量一致,而与TOF高度在预设时长内的高度变化量不一致,则确定视觉感知高度正常,TOF高度异常;或者,若TOF高度在预设时长内的高度变化量与视觉感知高度在预设时长内的高度变化量一致,而与GNSS高度在预设时长内的高度变化量不一致,则确定视觉感知高度正常,GNSS高度异常;或者,若GNSS高度在预设时长内的高度变化量与TOF高度在预设时长内的高度变化量一致,而与视觉感知高度在预设时长内的高度变化量不一致,则确定视觉感知高度异常。
以上是以视觉感知高度为例,对确定视觉感知高度是否异常进行介绍,需要说明的是,对于确定垂直速度、水平速度等其他视觉感知数据是否异常的操作,与确定视觉感知高度是否异常的操作类似,故在此不再赘述。
在一些实施例中,如图5所示,步骤S103具体包括子步骤S1034至子步骤S1036。
S1034、获取所述飞行器历史定位对应的第一高度和第一垂直速度。
不同于将视觉感知数据在预设时长内的变化量与多个传感器装置采集的检测数据在预设时长内的变化量进行比对,在该实施例中,基于飞行器历史定位对应的数据计算预测飞行器当前定位对应的数据,如飞行器的当前高度、当前速度等等数据,将计算预测的数据与飞行器当前的视觉感知数据进行比对,根据比对的结果确定视觉感知数据是否异常。
具体地,获取飞行器历史定位数据对应的高度和垂直速度,例如,获取t时刻之前进行定位对应的高度和垂直速度。为了便于区分描述,下文将历史定位数据对应的高度称为第一高度,将历史定位数据对应的垂直速度称为第一垂直速度。示例性的,第一高度是由历史定位时的历史视觉感知高度和多个传感器装置检测的多个历史检测高度进行融合处理获得的,第一垂直速度是由历史定位时的历史视觉感知速度和多个传感器装置检测的多个历史检测速度进行融合处理获得的。
S1035、根据所述第一高度和所述第一垂直速度,计算所述飞行器当前的第二高度。
基于获得的第一高度和第一垂直速度,以及第一高度和第一垂直速度对应的时刻,计算获得飞行器的当前高度,为了便于区分描述,下文将计算获得的 飞行器的当前高度称为第二高度。例如,若第一高度为H0,第一垂直速度为v,则根据公式H1=H0+vt,计算获得飞行器当前的第二高度H1,其中,t为第一高度和第一垂直速度对应的时刻与当前时刻之间的时差。
S1036、将所述第二高度与所述视觉感知高度进行比对,获得所述视觉感知高度对应的检测值。
之后,将计算获得的第二高度与视觉感知高度进行比对,根据比对结果的一致性,获得视觉感知高度对应的检测值。示例性的,将计算获得的第二高度与视觉感知高度进行比对,根据比对的一致性确定视觉感知高度是否异常。可选地,将计算获得的第二高度与视觉感知高度进行高度的粗差探测,若第二高度与视觉感知高度一致,则确定视觉感知高度正常;反之,若第二高度与视觉感知高度不一致,则确定视觉感知高度异常。例如,预设一高度差对应的预设范围,若第二高度与视觉感知高度之间的高度差未超出该预设范围,则确定第二高度与视觉感知高度一致,确定视觉感知高度正常;反之,若第二高度与视觉感知高度之间的高度差超出该该预设范围,则确定第二高度与视觉感知高度不一致,确定视觉感知高度异常。
例如,如图6所示,基于飞行器历史定位对应的历史数据融合计算输出的融合高度和融合垂直速度,根据公式H1=H0+vt,计算预测飞行器的当前高度,之后,将计算预测的飞行器的当前高度与获取的视觉感知高度进行高度的粗差探测,若计算预测的飞行器的当前高度与获取的视觉感知高度一致,则确定视觉感知高度正常;反之,若计算预测的飞行器的当前高度与获取的视觉感知高度不一致,则确定视觉感知高度异常。
根据确定的视觉感知高度是否异常的结果,获得视觉感知高度对应的检测值。例如,若确定视觉感知高度正常,获得视觉感知高度对应的第一检测值;反之,若确定视觉感知高度异常,获得视觉感知高度对应的第二检测值。
S104、基于所述检测值,对所述飞行器进行定位。
通过至少一个检测数据获得视觉感知数据对应的检测值后,基于获取的检测值,对飞行器进行定位,其中对于不同的检测值,对飞行器进行定位的处理方式不同。
示例性的,当获得第一检测值时,也即说明视觉感知数据正常时,则基于视觉感知数据,对飞行器进行定位。通过基于正常的视觉感知数据对飞行器进 行定位,从而避免了定位错误,因而提高飞行器飞行的安全性。
当获得第二检测值时,也即说明视觉感知数据异常时,则不基于该视觉感知数据进行定位处理。可选地,当获得第二检测值时,再次返回步骤S101的操作,重新获取视觉感知数据;或者,当获得第二检测值时,输出相应的视觉感知数据异常提示信息,以提示进行相应的异常处理。需要说明的是,该提示信息包括但不限于文本提示信息和/或语音提示信息。
在一些实施例中,为了进一步提高飞行器定位的精准性,还对获取的视觉感知数据进行置信度分析。可选地,根据飞行器的视觉感知系统采集的视觉图像对应的输出参数,确定出视觉感知数据的置信度。其中,视觉图像对应的输出参数包括视觉图像对应的特征平均深度、特征点数、图像亮度中至少一种。
在飞行器近处的特征物体的视觉图像,对应输出比较可靠。视觉图像对应的特征平均深度越小,对应输出的视觉感知数据的置信度越高。
在光照比较好的情况下,视觉图像亮度高,视觉图像质量高,输出比较可靠。视觉图像对应的图像亮度越高,对应输出的视觉感知数据的置信度越高。
在视觉图像的特征点多的情况下,输出比较高可靠。视觉图像对应的特征点数点数越多,对应输出的视觉感知数据的置信度越高。
在一些实施例中,为了减少不必要操作,只对置信度低的视觉感知数据进行异常检测,而对置信度高的数据不进行异常检测。具体地,预先设置一预设置信度阈值,当获取了视觉感知数据的置信度后,将视觉感知数据的置信度与预设置信度阈值进行比对,若视觉感知数据的置信度小于预设置信度阈值,也即视觉感知数据的置信度低时,根据至少一个传感器装置采集的至少一个检测数据,确定视觉感知数据是否异常,获得视觉感知数据对应的检测值。
若视觉感知数据的置信度大于或等于预设置信度阈值,也即视觉感知数据的置信度高时,可选地,直接基于视觉感知数据,对飞行器进行定位。
在一些实施例中,在对飞行器进行定位的过程中,若获得视觉感知数据对应的检测值为第一检测值,也即视觉感知数据正常时,将视觉感知数据以及至少一个检测数据进行数据融合,获得对应的融合数据。需要说明的是,将视觉感知数据以及至少一个检测数据进行数据融合方法有多种,例如,通过EKF方法,也就是扩展卡尔曼滤波方法,将视觉感知数据以及至少一个检测数据进行数据融合。对于具体的数据融合方法,在本申请中不作具体限制。
之后,基于融合数据,如融合高度、融合速度等数据对飞行器进行定位。
示例性的,在将视觉感知数据以及至少一个检测数据进行数据融合,获得对应的融合数据之前,还确定该至少一个检测数据是否异常,获得该至少一个检测数据对应的检测值。可选地,将视觉感知数据和至少一个检测数据进行互检,获得所述至少一个检测数据对应的检测值。
具体地,将视觉感知数据和至少一个检测数据进行互检,确定至少一个检测数据中是否存在异常检测数据,也即确定至少一个检测数据中是否存在不一致的检测数据,具体互检操作可参考确定视觉感知数据是否异常的操作,在此不再赘述。
之后,根据确定的结果,获得至少一个检测数据对应的检测值。示例性的,若确定至少一个检测数据中不存在异常检测数据,则获得至少一个检测数据对应的第三检测值;反之,若确定至少一个检测数据中存在异常检测数据,则获得至少一个检测数据对应的第四检测值。其中,第三检测值与第四检测值不同。
当获得第三检测值时,也即说明至少一个检测数据中不存在异常检测数据时,将正常的视觉感知数据以及至少一个检测数据进行数据融合,获得对应的融合数据。当获得第四检测值时,也即说明至少一个检测数据中存在异常检测数据时,将视觉感知数据、以及至少一个检测数据中除异常检测数据以外的其他检测数据进行数据融合,获得对应的融合数据。
在一些实施例中,在将视觉感知数据以及至少一个检测数据进行数据融合,获得对应的融合数据之前还包括:获取所述视觉感知数据的置信度;根据预设的置信度与权重的对应关系,以及所述视觉感知数据的置信度,确定所述视觉感知数据对应的权重;所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据,包括:根据所述视觉感知数据对应的权重,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得所述融合数据。
为了进一步提高飞行器定位的精准性,预先设置视觉感知数据的置信度与权重的对应关系。其中,视觉感知数据的置信度越高,对应的权重越大。在获得视觉感知数据后,通过获取该视觉感知数据对应的置信度,例如,根据视觉图像对应的图像亮度、特征点数、特征平均深度等输出参数,确定视觉感知数据的置信度。然后根据预设的置信度与权重的对应关系,确定视觉感知数据的 置信度对应的权重。
例如,假定预先设置视觉感知数据的置信度在[a1,a2)区间范围对应权重b1;置信度在[a2,a3)区间范围对应权重b2;置信度在[a3,a4)区间范围对应权重b3。若确定视觉感知数据的置信度a在[a1,a2)区间范围内,则确定视觉感知数据对应的权重为b1。
基于确定的视觉感知数据对应的权重,将视觉感知数据以及至少一个检测数据进行数据融合,获得相应的融合数据。因此,视觉感知数据的置信度越高,则视觉感知数据在进行数据融合中所占的比重就越大,也即视觉感知数据对融合数据的具体数值的影响越大。反之,视觉感知数据的置信度越低,则视觉感知数据在进行数据融合中所占的比重就越小,也即视觉感知数据对融合数据的具体数值的影响越小。因此,将视觉感知数据的置信度作为考量因素来进行数据融合,对飞行器进行定位,进一步提高了定位的精准性。
上述实施例提供的飞行器定位方法,在对飞行器进行定位时,不仅获取飞行器的视觉感知数据,还通过至少一个传感器装置采集视觉感知数据对应的至少一个检测数据,根据该至少一个检测数据,获得视觉感知数据对应的检测值,并基于检测值来对飞行器进行定位,从而避免将异常的视觉感知数据输出进行错误定位,因此,提高了飞行器定位的精准性,进而提高了飞行的安全性。
请参阅图7,图7是本申请实施例提供的一种飞行器定位装置的结构示意性框图。该飞行器定位装置可应用于飞行器、飞行器的控制终端中。
如图7所示,该飞行器定位装置700包括处理器701和存储器702,处理器701和存储器702通过总线703连接,该总线703比如为I2C(Inter-integrated Circuit)总线。该飞行器定位装置700应用于飞行器的控制终端中,该控制终端与飞行器进行通信,用于对飞行器进行定位,进而控制飞行器飞行。或者,该飞行器定位装置700应用于飞行器中,用于对飞行器进行定位。
具体地,处理器701可以是微控制单元(Micro-controller Unit,MCU)、中央处理单元(Central Processing Unit,CPU)或数字信号处理器(Digital Signal Processor,DSP)等。
具体地,存储器702可以是Flash芯片、只读存储器(ROM,Read-Only Memory)磁盘、光盘、U盘或移动硬盘等。
其中,所述处理器701用于运行存储在存储器702中的计算机程序,并在 执行所述计算机程序时实现如下步骤:
获取飞行器的视觉感知数据;
通过至少一个传感器装置采集所述视觉感知数据对应的至少一个检测数据;
根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值;
基于所述检测值,对所述飞行器进行定位。
在一些实施例中,所述处理器在实现所述根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值时,具体实现:
根据所述至少一个检测数据,确定所述视觉感知数据是否异常;
根据确定的结果,获得所述视觉感知数据对应的检测值。
在一些实施例中,所述处理器在实现所述根据确定的结果,获得所述视觉感知数据对应的检测值时,具体实现:
若确定所述视觉感知数据正常,则获得所述视觉感知数据对应的第一检测值。
在一些实施例中,所述处理器在实现所述根据确定的结果,获得所述视觉感知数据对应的检测值时,具体实现:
若确定所述视觉感知数据异常,则获得所述视觉感知数据对应的第二检测值。
在一些实施例中,所述处理器在实现所述基于所述检测值,对所述飞行器进行定位时,具体实现:
当获得所述第一检测值时,基于所述视觉感知数据,对所述飞行器进行定位。
在一些实施例中,所述处理器在实现所述根据所述至少一个检测数据,确定所述视觉感知数据是否异常时,具体实现:
将所述视觉感知数据和所述至少一个检测数据进行互检,确定所述视觉感知数据是否异常。
在一些实施例中,所述处理器在实现所述将所述视觉感知数据和所述至少一个检测数据进行互检,确定所述视觉感知数据是否异常时,具体实现:
获取所述视觉感知数据在预设时长内对应的第一变化量,以及多个检测数据在所述预设时长内分别对应的第二变化量;
若所述第一变化量和多个第二变化量中存在不一致变化量,且所述不一致变化量为所述第一变化量,则确定所述视觉感知数据异常。
在一些实施例中,所述处理器在实现所述获取所述视觉感知数据在预设时长内对应的第一变化量,以及多个检测数据在所述预设时长内分别对应的第二变化量之后,还实现:
若所述第一变化量和所述多个第二变化量均一致,或者所述第一变化量和所述多个第二变化量中存在不一致变化量且所述不一致变化量为第二变化量,则确定所述视觉感知数据正常。
在一些实施例中,所述视觉感知数据包括视觉感知高度、水平速度、垂直速度中至少一种。
在一些实施例中,所述检测数据包括绝对海拔高度、相对距离高度。
在一些实施例中,所述视觉感知数据包括视觉感知高度,所述处理器在执行所述计算机程序时,还实现:
获取所述飞行器历史定位对应的第一高度和第一垂直速度;
根据所述第一高度和所述第一垂直速度,计算所述飞行器当前的第二高度;
将所述第二高度与所述视觉感知高度进行比对,获得所述视觉感知高度对应的检测值。
在一些实施例中,所述处理器在实现所述将所述第二高度与所述视觉感知高度进行比对,获得所述视觉感知高度对应的检测值时,具体实现:
将所述第二高度与所述视觉感知高度进行比对,确定所述视觉感知高度是否异常;
根据确定的结果,获得所述视觉感知高度对应的检测值。
在一些实施例中,所述处理器在实现所述根据确定的结果,获得所述视觉感知高度对应的检测值时,具体实现:
若确定所述视觉感知高度正常,则获得所述视觉感知高度对应的第一检测值。
在一些实施例中,所述处理器在实现所述根据确定的结果,获得所述视觉感知高度对应的检测值时,具体实现:
若确定所述视觉感知高度异常,则获得所述视觉感知高度对应的第二检测值。
在一些实施例中,所述处理器在实现所述将所述第二高度与所述视觉感知高度进行比对,确定所述视觉感知高度是否异常时,具体实现:
若所述第二高度与所述视觉感知高度之间的高度差未超出预设范围,则确定所述视觉感知高度正常。
在一些实施例中,所述处理器在实现所述将所述第二高度与所述视觉感知高度进行比对,确定所述视觉感知高度是否异常时,具体实现:
若所述第二高度与所述视觉感知高度之间的高度差超出预设范围,则确定所述视觉感知高度异常。
在一些实施例中,所述处理器在实现所述获取飞行器的视觉感知数据时,具体实现:
通过所述飞行器的视觉感知系统采集视觉图像;
对所述视觉图像进行图像特征提取,获取所述视觉感知数据。
在一些实施例中,所述处理器在执行所述计算机程序时,还实现:
根据所述视觉图像的输出参数,确定所述视觉感知数据的置信度。
在一些实施例中,所述输出参数包括特征平均深度、特征点数、图像亮度中至少一种。
在一些实施例中,所述视觉图像对应的特征平均深度越小,所述视觉感知数据的置信度越高。
在一些实施例中,所述视觉图像对应的特征点数越多,所述视觉感知数据的置信度越高。
在一些实施例中,所述视觉图像对应的图像亮度越高,所述视觉感知数据的置信度越高。
在一些实施例中,所述处理器在实现所述根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值时,具体实现:
若所述视觉感知数据的置信度小于预设置信度阈值,则根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值。
在一些实施例中,所述处理器在实现所述基于所述检测值,对所述飞行器进行定位时,具体实现:
当所述检测值为第一检测值时,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据,基于所述融合数据对所述飞行器 进行定位。
在一些实施例中,所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据之前,还实现:
将所述视觉感知数据和所述至少一个检测数据进行互检,获得所述至少一个检测数据对应的检测值。
在一些实施例中,所述处理器在实现所述将所述视觉感知数据和所述至少一个检测数据进行互检,获得所述至少一个检测数据对应的检测值时,具体实现:
将所述视觉感知数据和所述至少一个检测数据进行互检,确定所述至少一个检测数据中是否存在异常检测数据;
根据确定的结果,获得所述至少一个检测数据对应的检测值。
在一些实施例中,所述处理器在实现所述根据确定的结果,获得所述至少一个检测数据对应的检测值时,具体实现:
若确定所述至少一个检测数据中不存在异常检测数据,则获得所述至少一个检测数据对应的第三检测值。
在一些实施例中,所述处理器在实现所述根据确定的结果,获得所述至少一个检测数据对应的检测值时,具体实现:
若确定所述至少一个检测数据中存在异常检测数据,则获得所述至少一个检测数据对应的第四检测值。
在一些实施例中,所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据时,具体实现:
当获得所述第三检测值时,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得所述融合数据。
在一些实施例中,所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据时,具体实现:
当获得所述第四检测值时,将所述视觉感知数据、以及所述至少一个检测数据中除所述异常检测数据以外的其他检测数据进行数据融合,获得所述融合数据。
在一些实施例中,所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据之前,还实现:
获取所述视觉感知数据的置信度;
根据预设的置信度与权重的对应关系,以及所述视觉感知数据的置信度,确定所述视觉感知数据对应的权重;
所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据时,具体实现:
根据所述视觉感知数据对应的权重,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得所述融合数据。
在一些实施例中,所述视觉感知数据的置信度越高,对应的权重越大。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的飞行器定位装置的具体工作过程,可以参考前述飞行器定位方法实施例中的对应过程,在此不再赘述。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现上述实施例提供的飞行器定位方法的步骤。
其中,所述计算机可读存储介质可以是前述任一实施例所述的飞行器或飞行器定位装置的内部存储单元,例如所述飞行器或飞行器定位装置的硬盘或内存。所述计算机可读存储介质也可以是所述飞行器或飞行器定位装置的外部存储设备,例如所述飞行器或飞行器定位装置上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。 因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (66)

  1. 一种飞行器定位方法,其特征在于,包括:
    获取飞行器的视觉感知数据;
    通过至少一个传感器装置采集所述视觉感知数据对应的至少一个检测数据;
    根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值;
    基于所述检测值,对所述飞行器进行定位。
  2. 根据权利要求1所述的方法,其特征在于,所述根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值,包括:
    根据所述至少一个检测数据,确定所述视觉感知数据是否异常;
    根据确定的结果,获得所述视觉感知数据对应的检测值。
  3. 根据权利要求2所述的方法,其特征在于,所述根据确定的结果,获得所述视觉感知数据对应的检测值,包括:
    若确定所述视觉感知数据正常,则获得所述视觉感知数据对应的第一检测值。
  4. 根据权利要求2所述的方法,其特征在于,所述根据确定的结果,获得所述视觉感知数据对应的检测值,包括:
    若确定所述视觉感知数据异常,则获得所述视觉感知数据对应的第二检测值。
  5. 根据权利要求3所述的方法,其特征在于,所述基于所述检测值,对所述飞行器进行定位,包括:
    当获得所述第一检测值时,基于所述视觉感知数据,对所述飞行器进行定位。
  6. 根据权利要求2所述的方法,其特征在于,所述根据所述至少一个检测数据,确定所述视觉感知数据是否异常,包括:
    将所述视觉感知数据和所述至少一个检测数据进行互检,确定所述视觉感知数据是否异常。
  7. 根据权利要求6所述的方法,其特征在于,所述将所述视觉感知数据和 所述至少一个检测数据进行互检,确定所述视觉感知数据是否异常,包括:
    获取所述视觉感知数据在预设时长内对应的第一变化量,以及多个检测数据在所述预设时长内分别对应的第二变化量;
    若所述第一变化量和多个第二变化量中存在不一致变化量,且所述不一致变化量为所述第一变化量,则确定所述视觉感知数据异常。
  8. 根据权利要求7所述的方法,其特征在于,所述获取所述视觉感知数据在预设时长内对应的第一变化量,以及多个检测数据在所述预设时长内分别对应的第二变化量之后,还包括:
    若所述第一变化量和所述多个第二变化量均一致,或者所述第一变化量和所述多个第二变化量中存在不一致变化量且所述不一致变化量为第二变化量,则确定所述视觉感知数据正常。
  9. 根据权利要求1所述的方法,其特征在于,所述视觉感知数据包括视觉感知高度、水平速度、垂直速度中至少一种。
  10. 根据权利要求1所述的方法,其特征在于,所述检测数据包括绝对海拔高度、相对距离高度。
  11. 根据权利要求1所述的方法,其特征在于,所述视觉感知数据包括视觉感知高度,所述方法还包括:
    获取所述飞行器历史定位对应的第一高度和第一垂直速度;
    根据所述第一高度和所述第一垂直速度,计算所述飞行器当前的第二高度;
    将所述第二高度与所述视觉感知高度进行比对,获得所述视觉感知高度对应的检测值。
  12. 根据权利要求11所述的方法,其特征在于,所述将所述第二高度与所述视觉感知高度进行比对,获得所述视觉感知高度对应的检测值,包括:
    将所述第二高度与所述视觉感知高度进行比对,确定所述视觉感知高度是否异常;
    根据确定的结果,获得所述视觉感知高度对应的检测值。
  13. 根据权利要求12所述的方法,其特征在于,所述根据确定的结果,获得所述视觉感知高度对应的检测值,包括:
    若确定所述视觉感知高度正常,则获得所述视觉感知高度对应的第一检测值。
  14. 根据权利要求12所述的方法,其特征在于,所述根据确定的结果,获得所述视觉感知高度对应的检测值,包括:
    若确定所述视觉感知高度异常,则获得所述视觉感知高度对应的第二检测值。
  15. 根据权利要求12所述的方法,其特征在于,所述将所述第二高度与所述视觉感知高度进行比对,确定所述视觉感知高度是否异常,包括:
    若所述第二高度与所述视觉感知高度之间的高度差未超出预设范围,则确定所述视觉感知高度正常。
  16. 根据权利要求12所述的方法,其特征在于,所述将所述第二高度与所述视觉感知高度进行比对,确定所述视觉感知高度是否异常,包括:
    若所述第二高度与所述视觉感知高度之间的高度差超出预设范围,则确定所述视觉感知高度异常。
  17. 根据权利要求1所述的方法,其特征在于,所述获取飞行器的视觉感知数据,包括:
    通过所述飞行器的视觉感知系统采集视觉图像;
    对所述视觉图像进行图像特征提取,获取所述视觉感知数据。
  18. 根据权利要求17所述的方法,其特征在于,所述方法还包括:
    根据所述视觉图像的输出参数,确定所述视觉感知数据的置信度。
  19. 根据权利要求18所述的方法,其特征在于,所述输出参数包括特征平均深度、特征点数、图像亮度中至少一种。
  20. 根据权利要求19所述的方法,其特征在于,所述视觉图像对应的特征平均深度越小,所述视觉感知数据的置信度越高。
  21. 根据权利要求19所述的方法,其特征在于,所述视觉图像对应的特征点数越多,所述视觉感知数据的置信度越高。
  22. 根据权利要求19所述的方法,其特征在于,所述视觉图像对应的图像亮度越高,所述视觉感知数据的置信度越高。
  23. 根据权利要求18所述的方法,其特征在于,所述根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值,包括:
    若所述视觉感知数据的置信度小于预设置信度阈值,则根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值。
  24. 根据权利要求1至23任一项所述的方法,其特征在于,所述基于所述检测值,对所述飞行器进行定位,包括:
    当所述检测值为第一检测值时,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据,基于所述融合数据对所述飞行器进行定位。
  25. 根据权利要求24所述的方法,其特征在于,所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据之前,包括:
    将所述视觉感知数据和所述至少一个检测数据进行互检,获得所述至少一个检测数据对应的检测值。
  26. 根据权利要求25所述的方法,其特征在于,所述将所述视觉感知数据和所述至少一个检测数据进行互检,获得所述至少一个检测数据对应的检测值,包括:
    将所述视觉感知数据和所述至少一个检测数据进行互检,确定所述至少一个检测数据中是否存在异常检测数据;
    根据确定的结果,获得所述至少一个检测数据对应的检测值。
  27. 根据权利要求26所述的方法,其特征在于,所述根据确定的结果,获得所述至少一个检测数据对应的检测值,包括:
    若确定所述至少一个检测数据中不存在异常检测数据,则获得所述至少一个检测数据对应的第三检测值。
  28. 根据权利要求26所述的方法,其特征在于,所述根据确定的结果,获得所述至少一个检测数据对应的检测值,包括:
    若确定所述至少一个检测数据中存在异常检测数据,则获得所述至少一个检测数据对应的第四检测值。
  29. 根据权利要求27所述的方法,其特征在于,所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据,包括:
    当获得所述第三检测值时,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得所述融合数据。
  30. 根据权利要求27所述的方法,其特征在于,所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据,包括:
    当获得所述第四检测值时,将所述视觉感知数据、以及所述至少一个检测 数据中除所述异常检测数据以外的其他检测数据进行数据融合,获得所述融合数据。
  31. 根据权利要求24所述的方法,其特征在于,所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据之前,包括:
    获取所述视觉感知数据的置信度;
    根据预设的置信度与权重的对应关系,以及所述视觉感知数据的置信度,确定所述视觉感知数据对应的权重;
    所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据,包括:
    根据所述视觉感知数据对应的权重,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得所述融合数据。
  32. 根据权利要求31所述的方法,其特征在于,所述视觉感知数据的置信度越高,对应的权重越大。
  33. 一种飞行器定位装置,其特征在于,所述飞行器定位装置包括存储器和处理器;
    所述存储器用于存储计算机程序;
    所述处理器,用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
    获取飞行器的视觉感知数据;
    通过至少一个传感器装置采集所述视觉感知数据对应的至少一个检测数据;
    根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值;
    基于所述检测值,对所述飞行器进行定位。
  34. 根据权利要求33所述的装置,其特征在于,所述处理器在实现所述根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值时,具体实现:
    根据所述至少一个检测数据,确定所述视觉感知数据是否异常;
    根据确定的结果,获得所述视觉感知数据对应的检测值。
  35. 根据权利要求34所述的装置,其特征在于,所述处理器在实现所述根据确定的结果,获得所述视觉感知数据对应的检测值时,具体实现:
    若确定所述视觉感知数据正常,则获得所述视觉感知数据对应的第一检测 值。
  36. 根据权利要求34所述的装置,其特征在于,所述处理器在实现所述根据确定的结果,获得所述视觉感知数据对应的检测值时,具体实现:
    若确定所述视觉感知数据异常,则获得所述视觉感知数据对应的第二检测值。
  37. 根据权利要求35所述的装置,其特征在于,所述处理器在实现所述基于所述检测值,对所述飞行器进行定位时,具体实现:
    当获得所述第一检测值时,基于所述视觉感知数据,对所述飞行器进行定位。
  38. 根据权利要求35所述的装置,其特征在于,所述处理器在实现所述根据所述至少一个检测数据,确定所述视觉感知数据是否异常时,具体实现:
    将所述视觉感知数据和所述至少一个检测数据进行互检,确定所述视觉感知数据是否异常。
  39. 根据权利要求38所述的装置,其特征在于,所述处理器在实现所述将所述视觉感知数据和所述至少一个检测数据进行互检,确定所述视觉感知数据是否异常时,具体实现:
    获取所述视觉感知数据在预设时长内对应的第一变化量,以及多个检测数据在所述预设时长内分别对应的第二变化量;
    若所述第一变化量和多个第二变化量中存在不一致变化量,且所述不一致变化量为所述第一变化量,则确定所述视觉感知数据异常。
  40. 根据权利要求39所述的装置,其特征在于,所述处理器在实现所述获取所述视觉感知数据在预设时长内对应的第一变化量,以及多个检测数据在所述预设时长内分别对应的第二变化量之后,还实现:
    若所述第一变化量和所述多个第二变化量均一致,或者所述第一变化量和所述多个第二变化量中存在不一致变化量且所述不一致变化量为第二变化量,则确定所述视觉感知数据正常。
  41. 根据权利要求33所述的装置,其特征在于,所述视觉感知数据包括视觉感知高度、水平速度、垂直速度中至少一种。
  42. 根据权利要求33所述的装置,其特征在于,所述检测数据包括绝对海拔高度、相对距离高度。
  43. 根据权利要求33所述的装置,其特征在于,所述视觉感知数据包括视觉感知高度,所述处理器在执行所述计算机程序时,还实现:
    获取所述飞行器历史定位对应的第一高度和第一垂直速度;
    根据所述第一高度和所述第一垂直速度,计算所述飞行器当前的第二高度;
    将所述第二高度与所述视觉感知高度进行比对,获得所述视觉感知高度对应的检测值。
  44. 根据权利要求43所述的装置,其特征在于,所述处理器在实现所述将所述第二高度与所述视觉感知高度进行比对,获得所述视觉感知高度对应的检测值时,具体实现:
    将所述第二高度与所述视觉感知高度进行比对,确定所述视觉感知高度是否异常;
    根据确定的结果,获得所述视觉感知高度对应的检测值。
  45. 根据权利要求44所述的装置,其特征在于,所述处理器在实现所述根据确定的结果,获得所述视觉感知高度对应的检测值时,具体实现:
    若确定所述视觉感知高度正常,则获得所述视觉感知高度对应的第一检测值。
  46. 根据权利要求44所述的装置,其特征在于,所述处理器在实现所述根据确定的结果,获得所述视觉感知高度对应的检测值时,具体实现:
    若确定所述视觉感知高度异常,则获得所述视觉感知高度对应的第二检测值。
  47. 根据权利要求44所述的装置,其特征在于,所述处理器在实现所述将所述第二高度与所述视觉感知高度进行比对,确定所述视觉感知高度是否异常时,具体实现:
    若所述第二高度与所述视觉感知高度之间的高度差未超出预设范围,则确定所述视觉感知高度正常。
  48. 根据权利要求44所述的装置,其特征在于,所述处理器在实现所述将所述第二高度与所述视觉感知高度进行比对,确定所述视觉感知高度是否异常时,具体实现:
    若所述第二高度与所述视觉感知高度之间的高度差超出预设范围,则确定所述视觉感知高度异常。
  49. 根据权利要求33所述的装置,其特征在于,所述处理器在实现所述获取飞行器的视觉感知数据时,具体实现:
    通过所述飞行器的视觉感知系统采集视觉图像;
    对所述视觉图像进行图像特征提取,获取所述视觉感知数据。
  50. 根据权利要求49所述的装置,其特征在于,所述处理器在执行所述计算机程序时,还实现:
    根据所述视觉图像的输出参数,确定所述视觉感知数据的置信度。
  51. 根据权利要求50所述的装置,其特征在于,所述输出参数包括特征平均深度、特征点数、图像亮度中至少一种。
  52. 根据权利要求51所述的装置,其特征在于,所述视觉图像对应的特征平均深度越小,所述视觉感知数据的置信度越高。
  53. 根据权利要求51所述的装置,其特征在于,所述视觉图像对应的特征点数越多,所述视觉感知数据的置信度越高。
  54. 根据权利要求51所述的装置,其特征在于,所述视觉图像对应的图像亮度越高,所述视觉感知数据的置信度越高。
  55. 根据权利要求50所述的装置,其特征在于,所述处理器在实现所述根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值时,具体实现:
    若所述视觉感知数据的置信度小于预设置信度阈值,则根据所述至少一个检测数据,获得所述视觉感知数据对应的检测值。
  56. 根据权利要求33至55任一项所述的装置,其特征在于,所述处理器在实现所述基于所述检测值,对所述飞行器进行定位时,具体实现:
    当所述检测值为第一检测值时,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据,基于所述融合数据对所述飞行器进行定位。
  57. 根据权利要求56所述的装置,其特征在于,所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据之前,还实现:
    将所述视觉感知数据和所述至少一个检测数据进行互检,获得所述至少一个检测数据对应的检测值。
  58. 根据权利要求57所述的装置,其特征在于,所述处理器在实现所述将 所述视觉感知数据和所述至少一个检测数据进行互检,获得所述至少一个检测数据对应的检测值时,具体实现:
    将所述视觉感知数据和所述至少一个检测数据进行互检,确定所述至少一个检测数据中是否存在异常检测数据;
    根据确定的结果,获得所述至少一个检测数据对应的检测值。
  59. 根据权利要求58所述的装置,其特征在于,所述处理器在实现所述根据确定的结果,获得所述至少一个检测数据对应的检测值时,具体实现:
    若确定所述至少一个检测数据中不存在异常检测数据,则获得所述至少一个检测数据对应的第三检测值。
  60. 根据权利要求58所述的装置,其特征在于,所述处理器在实现所述根据确定的结果,获得所述至少一个检测数据对应的检测值时,具体实现:
    若确定所述至少一个检测数据中存在异常检测数据,则获得所述至少一个检测数据对应的第四检测值。
  61. 根据权利要求59所述的装置,其特征在于,所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据时,具体实现:
    当获得所述第三检测值时,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得所述融合数据。
  62. 根据权利要求59所述的装置,其特征在于,所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据时,具体实现:
    当获得所述第四检测值时,将所述视觉感知数据、以及所述至少一个检测数据中除所述异常检测数据以外的其他检测数据进行数据融合,获得所述融合数据。
  63. 根据权利要求56所述的装置,其特征在于,所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据之前,还实现:
    获取所述视觉感知数据的置信度;
    根据预设的置信度与权重的对应关系,以及所述视觉感知数据的置信度,确定所述视觉感知数据对应的权重;
    所述处理器在实现所述将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得对应的融合数据时,具体实现:
    根据所述视觉感知数据对应的权重,将所述视觉感知数据以及所述至少一个检测数据进行数据融合,获得所述融合数据。
  64. 根据权利要求63所述的装置,其特征在于,所述视觉感知数据的置信度越高,对应的权重越大。
  65. 一种飞行器,其特征在于,所述飞行器包括机体、设于所述机体内的动力系统以及如权利要求33至64中任一项所述的飞行器定位装置,所述动力系统用于为所述飞行器提供动力,所述飞行器定位装置用于对所述飞行器进行定位。
  66. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1至32中任一项所述的飞行器定位方法。
PCT/CN2020/088841 2020-05-06 2020-05-06 飞行器定位方法、装置、飞行器及存储介质 WO2021223122A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2020/088841 WO2021223122A1 (zh) 2020-05-06 2020-05-06 飞行器定位方法、装置、飞行器及存储介质
CN202080007330.7A CN113272625A (zh) 2020-05-06 2020-05-06 飞行器定位方法、装置、飞行器及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/088841 WO2021223122A1 (zh) 2020-05-06 2020-05-06 飞行器定位方法、装置、飞行器及存储介质

Publications (1)

Publication Number Publication Date
WO2021223122A1 true WO2021223122A1 (zh) 2021-11-11

Family

ID=77227972

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/088841 WO2021223122A1 (zh) 2020-05-06 2020-05-06 飞行器定位方法、装置、飞行器及存储介质

Country Status (2)

Country Link
CN (1) CN113272625A (zh)
WO (1) WO2021223122A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113992845B (zh) * 2021-10-18 2023-11-10 咪咕视讯科技有限公司 图像拍摄控制方法、装置及计算设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104932522A (zh) * 2015-05-27 2015-09-23 深圳市大疆创新科技有限公司 一种飞行器的自主降落方法和系统
CN105120230A (zh) * 2015-09-15 2015-12-02 成都时代星光科技有限公司 无人机图像监控和传输系统
CN107543540A (zh) * 2016-06-27 2018-01-05 杭州海康机器人技术有限公司 一种飞行设备的数据融合和飞行模式切换方法及装置
WO2018189529A1 (en) * 2017-04-10 2018-10-18 Blue Vision Labs UK Limited Co-localisation
CN109490931A (zh) * 2018-09-03 2019-03-19 天津远度科技有限公司 飞行定位方法、装置及无人机
CN109520497A (zh) * 2018-10-19 2019-03-26 天津大学 基于视觉和imu的无人机自主定位方法
CN110501736A (zh) * 2019-08-28 2019-11-26 武汉大学 利用视觉影像和gnss测距信号紧耦合定位系统与方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110231028B (zh) * 2018-03-05 2021-11-30 北京京东乾石科技有限公司 飞行器导航方法、装置和系统
CN110388917B (zh) * 2018-04-23 2021-07-13 北京京东尚科信息技术有限公司 飞行器单目视觉尺度估计方法和装置、飞行器导航系统及飞行器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104932522A (zh) * 2015-05-27 2015-09-23 深圳市大疆创新科技有限公司 一种飞行器的自主降落方法和系统
CN105120230A (zh) * 2015-09-15 2015-12-02 成都时代星光科技有限公司 无人机图像监控和传输系统
CN107543540A (zh) * 2016-06-27 2018-01-05 杭州海康机器人技术有限公司 一种飞行设备的数据融合和飞行模式切换方法及装置
WO2018189529A1 (en) * 2017-04-10 2018-10-18 Blue Vision Labs UK Limited Co-localisation
CN109490931A (zh) * 2018-09-03 2019-03-19 天津远度科技有限公司 飞行定位方法、装置及无人机
CN109520497A (zh) * 2018-10-19 2019-03-26 天津大学 基于视觉和imu的无人机自主定位方法
CN110501736A (zh) * 2019-08-28 2019-11-26 武汉大学 利用视觉影像和gnss测距信号紧耦合定位系统与方法

Also Published As

Publication number Publication date
CN113272625A (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
CN110501712B (zh) 无人驾驶中用于确定位置姿态数据的方法、装置和设备
CN106056664A (zh) 一种基于惯性和深度视觉的实时三维场景重构系统及方法
WO2020103049A1 (zh) 旋转微波雷达的地形预测方法、装置、系统和无人机
TW201832185A (zh) 利用陀螺儀的相機自動校準
US11669109B2 (en) Method and apparatus for yaw fusion and aircraft
WO2022007602A1 (zh) 确定车辆位置的方法和装置
WO2023071442A1 (zh) 一种数据处理方法和装置
CN111679680A (zh) 一种无人机自主着舰方法及系统
CN111947644B (zh) 一种室外移动机器人定位方法、系统及其电子设备
US20200141969A1 (en) System and method for determining airspeed
CN112116651B (zh) 一种基于无人机单目视觉的地面目标定位方法和系统
US20220178697A1 (en) Method and apparatus for correcting yaw angle of aircraft, and aircraft
CN108444468B (zh) 一种融合下视视觉与惯导信息的定向罗盘
CN110567493B (zh) 一种磁力计校准数据采集方法、装置以及飞行器
WO2021223122A1 (zh) 飞行器定位方法、装置、飞行器及存储介质
CN111141286A (zh) 一种无人机飞控多传感器姿态置信解算方法
WO2021016749A1 (zh) 基于多数据融合的定位方法、可移动平台及存储介质
CN115164936A (zh) 高精地图制作中用于点云拼接的全局位姿修正方法及设备
WO2022133676A1 (zh) 无人机机臂状态的检测方法、无人机的控制装置及无人机
CN110553669B (zh) 云台校准方法及校准系统
CN112154355B (zh) 高精度地图定位方法、系统、平台及计算机可读存储介质
CN110388917B (zh) 飞行器单目视觉尺度估计方法和装置、飞行器导航系统及飞行器
CN115727871A (zh) 一种轨迹质量检测方法、装置、电子设备和存储介质
WO2021217580A1 (zh) 指南针的校准方法、航向测量系统和无人机
WO2020107473A1 (zh) 对移动平台的参数优化方法、装置及控制设备、飞行器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20934369

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20934369

Country of ref document: EP

Kind code of ref document: A1