WO2020062024A1 - 基于无人机的测距方法、装置及无人机 - Google Patents

基于无人机的测距方法、装置及无人机 Download PDF

Info

Publication number
WO2020062024A1
WO2020062024A1 PCT/CN2018/108335 CN2018108335W WO2020062024A1 WO 2020062024 A1 WO2020062024 A1 WO 2020062024A1 CN 2018108335 W CN2018108335 W CN 2018108335W WO 2020062024 A1 WO2020062024 A1 WO 2020062024A1
Authority
WO
WIPO (PCT)
Prior art keywords
drone
information
image
photographing device
preset
Prior art date
Application number
PCT/CN2018/108335
Other languages
English (en)
French (fr)
Inventor
翁超
熊川樘
Original Assignee
深圳市大疆创新科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市大疆创新科技有限公司 filed Critical 深圳市大疆创新科技有限公司
Priority to PCT/CN2018/108335 priority Critical patent/WO2020062024A1/zh
Priority to CN201880039803.4A priority patent/CN110799801A/zh
Publication of WO2020062024A1 publication Critical patent/WO2020062024A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/08Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken

Definitions

  • the present invention relates to the field of ranging, and in particular, to a method, a device, and a drone based on a drone.
  • a binocular photographing device is used to obtain the depth information of a target.
  • image resolution the amount of a target
  • object distance accuracy the amount of a target
  • the inevitable result is a larger distance between binocular cameras.
  • the application of the binocular camera is very limited.
  • large-scale drones are often used for related mapping, which is costly and not conducive to promotion.
  • the realization of the binocular photographing device requires two photographing devices to be installed on the drone, and the cost is relatively high.
  • the invention provides a method, a device and a drone for distance measurement based on a drone.
  • a distance measurement method based on a drone is provided.
  • the drone is equipped with a photographing device, and the method includes:
  • the heights of the first position and the second position are equal, and the line connecting the first position and the second position is parallel to the shooting device for the target when the first position is taken. Shooting plane.
  • a drone-based ranging device including a photographing device and a processor.
  • the photographing device is mounted on the drone, and the processor is communicatively connected with the photographing device.
  • the processor is used for:
  • the heights of the first position and the second position are equal, and the line connecting the first position and the second position is parallel to the shooting device for the target when the first position is taken. Shooting plane.
  • a drone including:
  • a processor which is communicatively connected to the photographing device, and the processor is configured to:
  • the heights of the first position and the second position are equal, and the line connecting the first position and the second position is parallel to the shooting device for the target when the first position is taken. Shooting plane.
  • the embodiment of the present invention by controlling a single shooting device to move to two shooting positions and acquiring images, respectively, the depth information of the target is calculated. Based on the images taken by two shooting devices at two shooting positions, the same effect as binocular distance measurement is achieved, and the cost of distance measurement is saved.
  • the distance measurement method of the embodiment of the present invention can be applied to small-type drones. And meet the needs of most application scenarios.
  • FIG. 1 is a schematic structural diagram of a drone provided by an embodiment of the present invention
  • FIG. 2 is a method flowchart of an unmanned aerial vehicle-based ranging method according to an embodiment of the present invention
  • FIG. 3 is a specific method flowchart of a UAV-based ranging method according to an embodiment of the present invention
  • FIG. 4 is a schematic diagram of a positional relationship between a target and a drone according to an embodiment of the present invention
  • FIG. 5 is another specific method flowchart of a drone-based ranging method according to an embodiment of the present invention.
  • FIG. 6 is a schematic diagram of a positional relationship between a target and a gimbal provided by an embodiment of the present invention
  • FIG. 7 is a structural block diagram of a drone-based ranging device according to an embodiment of the present invention.
  • FIG. 8 is a structural block diagram of an unmanned aerial vehicle provided by an embodiment of the present invention.
  • FIG. 1 is a schematic diagram of a drone provided by an embodiment of the present invention.
  • the drone 100 may include a carrier 110 and a load 120.
  • the load 120 may be located directly on the drone 100 without the need for the carrier 110.
  • the carrier 110 is a gimbal, such as a two-axis gimbal or a three-axis gimbal.
  • the load 120 may be an image capture device or an imaging device (such as a camera, a camcorder, an infrared camera, an ultraviolet camera, or a similar device), an infrared camera, etc.
  • the load 120 may provide static sensing data (such as pictures) or dynamic sensing Data (such as video).
  • the load 120 is mounted on the carrier 110, so that the load 120 is controlled to rotate by the carrier 110.
  • the drone 100 may include a power mechanism 130, a sensing system 140, and a communication system 150.
  • the power mechanism 130 may include one or more rotating bodies, propellers, blades, motors, electronic governors, and the like.
  • the rotating body of the power mechanism may be a self-tightening rotating body, a rotating body assembly, or another rotating body power unit.
  • the drone 100 may have one or more power mechanisms. All power mechanisms can be of the same type. Optionally, one or more power mechanisms may be of different types.
  • the power mechanism 130 may be mounted on the drone by a suitable means, such as by a supporting element (such as a drive shaft).
  • the power mechanism 130 can be installed at any suitable position of the drone 100, such as the top, bottom, front, rear, side, or any combination thereof.
  • the one or more power mechanisms 130 are controlled to control the flight of the drone 100.
  • the sensing system 140 may include one or more sensors to sense the spatial orientation, speed, and / or acceleration of the drone 100 (such as rotation and translation relative to up to three degrees of freedom).
  • the one or more sensors may include a GPS sensor, a motion sensor, an inertial sensor, a proximity sensor, or an image sensor.
  • the sensing data provided by the sensing system 140 can be used to track the spatial orientation, velocity, and / or acceleration of the target (as described below, using a suitable processing unit and / or control unit).
  • the sensing system 140 may be used to collect environmental data of the drone, such as climatic conditions, potential obstacles to be approached, locations of geographical features, locations of man-made structures, and the like.
  • the communication system 150 can implement communication with a terminal 160 having a communication module through a wireless signal.
  • the communication system 150 and the communication module may include any number of transmitters, receivers, and / or transceivers for wireless communication.
  • the communication may be a one-way communication so that data can be sent from one direction.
  • one-way communication may include that only the drone 100 transmits data to the terminal 160, or vice versa.
  • One or more transmitters of the communication system 150 may send data to one or more receivers of the communication module, and vice versa.
  • the communication may be two-way communication, so that data can be transmitted in two directions between the drone 100 and the terminal 160. Two-way communication includes that one or more transmitters of the communication system 150 can send data to one or more receivers of the communication module, and vice versa.
  • the terminal 160 may provide control data to one or more of the drone 100, the carrier 110, and the load 120, and from one or more of the drone 100, the carrier 110, and the load 120 Received information (such as the position and / or motion information of the drone, the carrier or the load, data sensed by the load, such as image data captured by the camera).
  • Received information such as the position and / or motion information of the drone, the carrier or the load, data sensed by the load, such as image data captured by the camera.
  • the drone 100 may communicate with other remote devices other than the terminal 160, and the terminal 160 may also communicate with other remote devices other than the drone 100.
  • the drone and / or terminal 160 may communicate with another drone or another carrier or load of the drone.
  • the additional remote device may be a second terminal or other computing device (such as a computer, desktop computer, tablet computer, smartphone, or other mobile device).
  • the remote device may transmit data to the drone 100, receive data from the drone 100, transmit data to the terminal 160, and / or receive data from the terminal 160.
  • the remote device may be connected to the Internet or other telecommunication networks, so that the data received from the drone 100 and / or the terminal 160 is uploaded to a website or a server.
  • the movement of the drone 100, the movement of the carrier 110, and the movement of the load 120 relative to a fixed reference object (such as the external environment), and / or the movement between each other, may be controlled by the terminal 160.
  • the terminal 160 may be a remote control terminal, which is located away from the drone, the carrier and / or the load.
  • the terminal 160 may be located on or affixed to the supporting platform.
  • the terminal 160 may be handheld or wearable.
  • the terminal 160 may include a smart phone, a tablet computer, a desktop computer, a computer, glasses, gloves, a helmet, a microphone, or any combination thereof.
  • the terminal 160 may include a user interface, such as a keyboard, a mouse, a joystick, a touch screen, or a display. Any suitable user input can interact with the terminal 160, such as manually inputting instructions, sound control, gesture control, or position control (such as movement, position, or tilt through the terminal 160).
  • a user interface such as a keyboard, a mouse, a joystick, a touch screen, or a display. Any suitable user input can interact with the terminal 160, such as manually inputting instructions, sound control, gesture control, or position control (such as movement, position, or tilt through the terminal 160).
  • the distance measurement method and device based on the drone and the drone will be described separately by taking the load 120 including the shooting device as an example.
  • FIG. 2 is a method flowchart of a UAV-based ranging method according to an embodiment of the present invention.
  • the execution subject of the ranging method of this embodiment is a drone.
  • the execution subject may be one or more of a flight controller, a PTZ controller, and other controllers provided on the drone.
  • the UAV-based ranging method may include the following steps:
  • Step S201 Acquire a first image captured by a photographing device at a first position for a target (P in FIG. 4 and FIG. 6);
  • the first position may be a position preset by the user, or the current position of the drone, which may be specifically set as required.
  • the first position is preset by a user.
  • the user sets the location information of the first location in advance, where the location information of the first location includes geographic location information (that is, latitude and longitude) and altitude information.
  • the location information of the first position can be preset in various ways.
  • the position information of the first position is input to the drone by controlling a device (such as a remote controller, a terminal, etc.) of the drone.
  • the device controlling the drone sends a ranging instruction to the drone, triggers the drone to start the ranging procedure, and the position information of the first position is carried in the ranging instruction.
  • the drone after receiving the ranging start instruction, the drone obtains the position information of the current position of the drone, and sets the current position of the drone to the first position, which is the first position in this embodiment. This is the position where the drone is when the drone receives the ranging start instruction.
  • the position of the drone may be acquired based on at least one sensor of the drone. For example, the geographic position information of the current position of the drone may be detected based on GPS or other positioning devices, and based on the vision module (VO Or VIO), barometer detection or other ranging sensors to detect the altitude information of the current position of the drone.
  • the vision module VO Or VIO
  • GPS or other positioning devices can be set on the drone, the gimbal or the shooting device, and the vision module, barometer or other ranging sensor can also be set on the drone, the gimbal or the shooting device.
  • the ranging start instruction of this implementation may be sent by a device (such as a remote controller, a terminal, etc.) that controls the drone.
  • Step S202 controlling the photographing device to move from the first position to the second position according to the position information of the first position
  • the first position and the second position must satisfy the positional relationship between the two shooting positions when shooting by the binocular shooting device, so as to achieve the effect of a single shooting device simulating the binocular shooting device.
  • the first position and the second position The positional relationship between the two positions must satisfy the following conditions: the heights of the first position and the second position are equal, and the line connecting the first position and the second position is parallel to the shooting plane for the target when the shooting device is in the first position .
  • the height refers to the distance from the drone to the ground.
  • the shooting plane of the shooting device at the first position against the shooting target refers to the imaging plane of the shooting target when the shooting device shoots at the first position.
  • the second position may be located to the left of the first position, or may be located to the right of the first position, so that the line connecting the first position and the second position is parallel to the target when the shooting device is in the first position
  • the shooting plane of the shooting may specifically select the orientation of the second position relative to the first position as required.
  • a distance between the first position and the second position is less than or equal to a preset distance threshold. Since the heights of the first and second positions are equal, the distance between the first and second positions is the horizontal distance between the first and second positions, that is, the depth information is calculated based on the binocular ranging principle The binocular distance to be used.
  • the preset distance threshold is the maximum value of the center distance of the two cameras when the binocular distance is measured. When the distance between the first position and the second position exceeds the maximum value, it is not suitable to use the binocular distance measurement.
  • the principle calculates the depth information of the target.
  • the preset distance threshold is smaller than the maximum value of the center distance between the two shooting devices when the binocular distance measurement is performed. Specifically, a preset distance threshold can be set according to requirements to meet different accuracy requirements.
  • the second position may be a position preset by the user, or may be a position determined according to the position information of the first position and a preset distance threshold.
  • the second position is preset by a user.
  • the user sets the position information of the second position in advance, where the position information of the second position includes geographic position information (that is, latitude and longitude) and altitude information.
  • the position information of the second position can be preset in various ways.
  • the position information of the second position is input to the drone by controlling a device (such as a remote controller, a terminal, etc.) of the drone.
  • the device controlling the drone sends a ranging start instruction to the drone, triggers the drone to start the ranging program, and the position information of the second position is carried in the ranging start instruction.
  • the second position is a position determined according to the position information of the first position and a preset distance threshold.
  • selecting a position located on the left side of the first position and having a distance from the first position equal to a preset distance threshold hereinafter referred to as the left shooting limit position
  • the first position to Any position on the left shooting limit position line is used as the second position.
  • selecting a position located on the right side of the first position and having a distance from the first position equal to a preset distance threshold hereinafter referred to as a right shooting limit position
  • the first position to the right Any position on the shooting limit line is used as the second position.
  • both the first position and the second position are preset by a user.
  • the first position is preset by a user
  • the second position is a position determined according to the position information of the first position and a preset distance threshold.
  • the first position is a position when the drone receives a ranging instruction
  • the second position is a position determined according to the position information of the first position and a preset distance threshold.
  • step S202 After determining the position information of the first position and the position information of the second position, step S202 may be performed.
  • step S202 in an ideal state, the shooting device should be located at the second position, but due to poor control accuracy, the actual position of the shooting device may deviate from the second position. If the deviation is too large, the actual drone The large horizontal distance and / or height difference between the position and the first position will result in the inability to calculate the depth information of the target. At this time, the actual position of the shooting device needs to be adjusted so that the actual position of the shooting device and the first position The positional relationship between them meets the needs of deep computing.
  • step S202 actual position information of the photographing device at the second position is acquired, and then the first position to the first position are determined according to the position information of the first position and the actual position information of the second position. The horizontal distance between the two positions, and then determine whether the horizontal distance between the first position and the second position is greater than a preset distance threshold.
  • step S202 the actual position information of the photographing device at the second position is acquired, and then the first position to the second position are determined according to the position information of the first position and the actual position information of the second position. And then determine whether the height difference between the first position and the second position is zero.
  • the height difference between the first position and the second position is not equal to zero, adjust the height of the shooting device so that the height of the shooting device is equal to the height of the first position; and when the height between the first position and the second position is equal When the difference is zero, there is no need to adjust the height of the camera.
  • step S202 when the height difference between the first position and the second position is within a preset height difference threshold, there is no need to adjust the actual position of the photographing device after step S202 is performed. If the height difference between the two positions exceeds a preset height difference threshold, the actual position of the photographing device needs to be adjusted after step S202 is performed.
  • different implementations may be used to control the moving of the photographing device from the first position to the second position.
  • control The drone according to the position information of the first position, control The drone (reference numeral 100 in FIG. 4) is moved to move the shooting device from the first position to the second position, and by controlling the movement of the drone, the shooting device is moved from the first position to the second position.
  • the methods for controlling the movement of the drone may include, but are not limited to, the following methods:
  • (1) First obtain the current motion speed of the drone, then determine the flight direction and flight duration based on the current motion speed and position information of the first and second positions, and finally control the drone according to the flight direction and flight duration.
  • the current motion speed is translated.
  • the flight direction is determined based on the position information of the first position and the second position.
  • the distance between the first position and the second position is determined according to the position information of the first position and the second position, and then the distance between the first position and the second position and the current speed of movement are determined.
  • the flight duration the distance between the first position and the second position / current motion speed.
  • flight duration preset distance threshold / current movement speed.
  • flight duration any value between greater than zero and less than a preset distance threshold / current motion speed.
  • the flight direction is determined based on the position information of the first position and the second position.
  • the distance between the first position and the second position is determined according to the position information of the first position and the second position, and then according to the distance between the first position and the second position and a preset Speed to determine flight duration.
  • the flight duration the distance between the first position and the second position / preset speed.
  • the preset speed can be set according to actual needs.
  • the flight duration preset distance threshold / preset speed.
  • the flight duration any value between greater than zero and less than a preset distance threshold / preset speed.
  • the preset speed can be set according to actual needs.
  • Control the UAV to translate relative to the first position according to a preset speed and a preset duration The UAV can be controlled to pan left or right relative to the first position according to a preset speed and a preset duration.
  • a distance between a position reached by the drone after being translated with respect to the first position according to a preset speed and a preset duration and a position before the drone is translated is less than or equal to a preset distance threshold.
  • the photographing device is mounted on the drone through the gimbal.
  • control the PTZ according to the position information of the first position (Reference numeral 110 in FIG. 6) to move the photographing device from the first position to the second position.
  • the gimbal is mounted on the drone by a power device capable of moving in the yaw direction, and the pan-tilt is controlled by controlling the motion of the power device.
  • the power device is controlled to move in the yaw direction to control the overall movement of the PTZ in the yaw direction, thereby driving the photographing device to move from the first position to the second position.
  • the power device may be any existing power structure, such as a motor.
  • the manner of controlling the pan / tilt movement may include, but is not limited to, the following manners:
  • (1) First determine the movement direction and duration of the power device according to the preset speed and the position information of the first position and the second position, and then control the power device to translate at the preset speed according to the movement direction and duration. In this manner, the movement direction is determined based on the position information of the first position and the second position.
  • the distance between the first position and the second position is determined according to the position information of the first position and the second position, and then the distance between the first position and the second position is determined according to the distance between the first position and the second position.
  • Speed determines the duration of exercise.
  • the exercise duration the distance between the first position and the second position / preset speed.
  • the preset speed can be set according to actual needs.
  • Control the power device to translate relative to the first position according to a preset speed and a preset duration The power device can be controlled to translate left or right relative to the first position according to a preset speed and a preset duration.
  • a distance between a position reached by the power device after being translated relative to the first position according to a preset speed and a predetermined time period and a position before the power device is translated is less than or equal to a preset distance threshold.
  • Step S203 Acquire a second image captured by the photographing device for the target at the second position
  • step S203 the images captured by the two shooting devices at the two shooting positions in the prior art are completed with a single shooting device, which saves the cost of ranging.
  • Step S204 determine the depth information of the target according to the distance between the first position and the second position, and the first image and the second image;
  • step S204 when step S204 is performed, the focal length of the photographing device is obtained, and the parallax between the first image and the second image is determined according to the first image and the second image, and then the distance between the first position and the second position is determined according to 2.
  • the focal length and parallax of the shooting device to determine the depth information of the target.
  • the calculation formula of the depth information Z of the target is as follows:
  • f is the focal length of the photographing device
  • B is the distance between the first position and the second position
  • X RT is the parallax
  • the step of obtaining the focal length of the photographing device and the step of determining the parallax between the first image and the second image according to the first image and the second image may be performed simultaneously or in a sequential order.
  • the focal length of the photographing device is determined by means of calibrating the photographing device. This is the prior art, and details are not described herein again.
  • the parallax between the first image and the second image is obtained, and binocular matching is used to match the corresponding image points of the same scene on the first image and the second image. Together, a disparity map is obtained, thereby obtaining a disparity between the first image and the second image.
  • the camera before performing binocular matching on the first image and the second image to obtain the parallax between the first image and the second image, the camera is calibrated to obtain internal parameter data of the camera, and then based on the internal parameters Data, binocular correction processing is performed on the first image and the second image.
  • This embodiment uses binocular correction to eliminate the distortion of the first image and the second image and perform line alignment on the first image and the second image, so that the imaging origin coordinates of the first image and the second image are consistent, and the shooting device
  • the optical axis at one position and the second position are parallel, the left and right imaging planes are coplanar, and the epipolar lines are aligned, which facilitates matching the corresponding image points on the first image and the second image.
  • the internal reference data may include a focal length f of the photographing device, an imaging origin, five distortion parameters, and external parameters.
  • the drone-based ranging method further includes: acquiring distance information of the target to the drone based on the sensing unit, and adjusting the depth information of the target according to the distance information, thereby improving the ranging accuracy.
  • the distance information and the depth information are fused to determine the final depth information of the target.
  • the fusion of the distance information and the depth information may include multiple methods. For example, the average value of the distance information and the depth information is used as the final depth information of the target, or the weighted average value of the distance information and the depth information is used as the final depth information of the target. .
  • the depth information determined in step S204 may be verified according to the distance information obtained by the sensing unit.
  • the sensing unit in this embodiment may include a laser ranging sensor, and may also include other ranging sensors.
  • the depth information of the target is calculated, and a single shooting device is used to complete the existing technology based on two shooting devices at two shooting positions.
  • the captured image achieves the same effect as binocular ranging and saves the cost of ranging.
  • the ranging method of this embodiment can be applied to small-type drones and meets the requirements of most application scenarios.
  • a second embodiment of the present invention provides a drone-based distance measuring device.
  • the distance measuring device may include a photographing device and a first processor (single-core or multi-core processor). On the man-machine, the first processor is communicatively connected with the photographing device.
  • the first processor in this embodiment is configured to execute a UAV-based ranging method as shown in FIG. 2, FIG. 3, and FIG. 5.
  • the first processor is configured to acquire a first image captured by the photographing device at the first position for the target, and control the photographing device to move from the first position to the second position according to the position information of the first position to acquire the photographing device
  • the second image captured for the target at the second position determines the depth information of the target based on the distance between the first position and the second position, and the first image and the second image.
  • the heights of the first position and the second position are equal, and the line connecting the first position and the second position is parallel to the shooting plane for the target when the shooting device is in the first position.
  • the first processor may include a combination of one or more of a drone's flight controller, a gimbal controller, and other controllers provided on the drone.
  • the first processor may be a central processing unit (CPU).
  • the first processor may further include a hardware chip.
  • the hardware chip may be an application-specific integrated circuit (ASIC), a programmable logic device (PLD), or a combination thereof.
  • the PLD may be a complex programmable logic device (CPLD), a field-programmable gate array (FPGA), a general array logic (GAL), or any combination thereof.
  • a third embodiment of the present invention provides a drone.
  • the drone may include a fuselage, a photographing device mounted on the fuselage, and a second processor (single-core or multi-core processor).
  • the second processor is communicatively connected with the photographing device.
  • the first processor in this embodiment is configured to execute a UAV-based ranging method as shown in FIG. 2, FIG. 3, and FIG. 5.
  • the second processor is configured to: acquire a first image captured by the photographing device at the target at the first position, and control the photographing device to move from the first position to the second position according to the position information of the first position to acquire the photographing device
  • the second image captured for the target at the second position determines the depth information of the target based on the distance between the first position and the second position, and the first image and the second image.
  • the heights of the first position and the second position are equal, and the line connecting the first position and the second position is parallel to the shooting plane for the target when the shooting device is in the first position.
  • the second processor may include a combination of one or more of a drone flight controller, a gimbal controller, and other controllers provided on the drone.
  • the shooting device is mounted on the drone through the gimbal.
  • the second processor is a flight controller
  • the first image and the second image obtained by the shooting device are directly sent to the flight controller.
  • the first image and the second image can also be forwarded to the flight controller through the pan / tilt.
  • the second processor may be a central processing unit (CPU).
  • the first processor may further include a hardware chip.
  • the hardware chip may be an application-specific integrated circuit (ASIC), a programmable logic device (PLD), or a combination thereof.
  • the PLD may be a complex programmable logic device (CPLD), a field-programmable gate array (FPGA), a general array logic (GAL), or any combination thereof.
  • the drone of this embodiment further includes a sensing unit, and the sensing unit may include a laser ranging sensor or other ranging sensors.
  • the depth information of the target can be verified based on the distance information obtained by the sensing unit to improve the ranging accuracy.
  • the drone of this embodiment may be a multi-rotor drone, or may be a non-rotor drone.
  • the fourth embodiment of the present invention provides a computer-readable storage medium on which a computer program is stored, and the program is executed by a processor to execute the steps of the UAV-based ranging method according to the first embodiment.
  • the relevant part may refer to the description of the method embodiment.
  • the device embodiments described above are only schematic, wherein the units described as separate components may or may not be physically separated, and the components shown as units may or may not be physical units, that is, may be located One place, or it can be distributed across multiple network elements. Some or all of the modules may be selected according to actual needs to achieve the objective of the solution of this embodiment. Those of ordinary skill in the art can understand and implement without creative efforts.
  • the program can be stored in a computer-readable storage medium.
  • the program When executed, the processes of the embodiments of the methods described above may be included.
  • the storage medium may be a magnetic disk, an optical disk, a read-only memory (Read-Only Memory, ROM), or a random access memory (Random, Access Memory, RAM).

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Studio Devices (AREA)

Abstract

一种基于无人机的测距方法、装置及无人机,包括:获取拍摄装置(120)在第一位置针对目标所拍摄的第一图像;根据第一位置的位置信息,控制拍摄装置从第一位置移动至第二位置;获取拍摄装置(120)在第二位置针对目标所拍摄的第二图像;根据第一位置和第二位置之间的距离、及第一图像、第二图像,确定目标的深度信息;第一位置和第二位置的高度相等,并且第一位置和第二位置的连线平行于拍摄装置在第一位置时针对目标拍摄的拍摄平面。通过单个拍摄装置(120)完成现有技术中基于两个拍摄装置在两个拍摄位置所拍摄的图像,实现了与双目测距相同的效果,节省了测距的成本,能够应用在小型号无人机上。

Description

基于无人机的测距方法、装置及无人机 技术领域
本发明涉及测距领域,尤其涉及一种基于无人机的测距方法、装置及无人机。
背景技术
现有技术采用双目拍摄装置来获取目标的深度信息,在图像分辨率、物体距离精度之间的权衡之下,导致的必然结果是双目摄像机之间距离较大。而小型无人机由于位置的限制,导致双目摄像机的应用十分受限。行业中多采用大型无人机进行相关测绘,成本高,不利于推广。此外,双目拍摄装置的实现需要在无人机上装设两台拍摄装置,成本较高。
发明内容
本发明提供一种基于无人机的测距方法、装置及无人机。
根据本发明的第一方面,提供基于无人机的测距方法,无人机搭载有拍摄装置,所述方法包括:
获取所述拍摄装置在第一位置针对目标所拍摄的第一图像;
根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置;
获取所述拍摄装置在所述第二位置针对所述目标所拍摄的第二图像;
根据所述第一位置和所述第二位置之间的距离、及所述第一图像、所述第二图像,确定所述目标的深度信息;
其中,所述第一位置和所述第二位置的高度相等,并且所述第一位置和所述第二位置的连线平行于所述拍摄装置在所述第一位置时针对所述目标拍摄的拍摄平面。
根据本发明的第二方面,提供一种基于无人机的测距装置,包括拍摄装置和处理器,所述拍摄装置搭载在所述无人机上,所述处理器与所述拍摄装置通信连接,所述处理器用于:
获取所述拍摄装置在第一位置针对目标所拍摄的第一图像;
根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置;
获取所述拍摄装置在所述第二位置针对所述目标所拍摄的第二图像;
根据所述第一位置和所述第二位置之间的距离、及所述第一图像、所述第二图 像,确定所述目标的深度信息;
其中,所述第一位置和所述第二位置的高度相等,并且所述第一位置和所述第二位置的连线平行于所述拍摄装置在所述第一位置时针对所述目标拍摄的拍摄平面。
根据本发明的第三方面,提供一种无人机,包括:
机身;
搭载在所述机身上的拍摄装置;以及
处理器,所述处理器与所述拍摄装置通信连接,所述处理器用于:
获取所述拍摄装置在第一位置针对目标所拍摄的第一图像;
根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置;
获取所述拍摄装置在所述第二位置针对所述目标所拍摄的第二图像;
根据所述第一位置和所述第二位置之间的距离、及所述第一图像、所述第二图像,确定所述目标的深度信息;
其中,所述第一位置和所述第二位置的高度相等,并且所述第一位置和所述第二位置的连线平行于所述拍摄装置在所述第一位置时针对所述目标拍摄的拍摄平面。
由以上本发明实施例提供的技术方案可见,本发明实施例通过控制单个拍摄装置分别移动至两个拍摄位置,并分别获取图像,从而计算目标的深度信息,通过单个拍摄装置完成现有技术中基于两个拍摄装置在两个拍摄位置所拍摄的图像,实现了与双目测距相同的效果,节省了测距的成本,本发明实施例的测距方法能应用在小型号无人机上,并满足大多数应用场景的需求。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的无人机的结构示意图;
图2是本发明一实施例提供的基于无人机的测距方法的方法流程图;
图3是本发明一实施例提供的基于无人机的测距方法一具体的方法流程图;
图4是本发明一实施例提供的目标与无人机之间的位置关系示意图;
图5是本发明一实施例提供的基于无人机的测距方法另一具体的方法流程图;
图6是本发明一实施例提供的目标与云台之间的位置关系示意图;
图7是本发明一实施例提供的基于无人机的测距装置的结构框图;
图8是本发明一实施例提供的无人机的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图,对本发明的基于无人机的测距方法、装置及无人机进行详细说明。在不冲突的情况下,下述的实施例及实施方式中的特征可以相互组合。
图1为本发明实施例提供的一种无人机的示意图。所述无人机100可包括承载体110及负载120。在某些实施例中,负载120可以直接位于无人机100上,而不需要承载体110。本实施例中,承载体110为云台,例如,两轴云台或三轴云台。负载120可以为影像捕获设备或者摄像设备(如相机、摄录机、红外线摄像设备、紫外线摄像设备或者类似的设备),红外线摄像设备等,负载120可以提供静态感应数据(如图片)或者动态感应数据(如视频)。负载120搭载在承载体110,从而通过承载体110控制负载120转动。
进一步地,无人机100可以包括动力机构130,传感系统140以及通讯系统150。其中,动力机构130可以包括一个或者多个旋转体、螺旋桨、桨叶、电机、电子调速器等。例如,所述动力机构的旋转体可以是自紧固(self-tightening)旋转体、旋转体组件、或者其它的旋转体动力单元。无人机100可以有一个或多个动力机构。所有的动力机构可以是相同的类型。可选的,一个或者多个动力机构可以是不同的类型。动力机构130可以通过合适的手段安装在无人机上,如通过支撑元件(如驱动轴)。动力机构130可以安装在无人机100任何合适的位置,如顶端、下端、前端、后端、侧面或者其中的任意结合。通过控制一个或多个动力机构130,以控制无人机100的飞行。
传感系统140可以包括一个或者多个传感器,以感测无人机100的空间方位、速度及/或加速度(如相对于多达三个自由度的旋转及平移)。所述一个或者多个传感器可包括GPS传感器、运动传感器、惯性传感器、近程传感器或者影像传感器。传感系统140提供的感测数据可以用于追踪目标的空间方位、速度及/或加速度(如下所述,利用适合的处理单元及/或控制单元)。可选的,传感系统140可以用于采集无人机的环境数据,如气候条件、要接近的潜在的障碍、地理特征的位置、人造结构的位置等。
通讯系统150能够实现与具有通讯模块的终端160通过无线信号进行通讯。通 讯系统150、通讯模块可以包括任何数量的用于无线通讯的发送器、接收器、及/或收发器。所述通讯可以是单向通讯,这样数据可以从一个方向发送。例如,单向通讯可以包括,只有无人机100传送数据给终端160,或者反之亦然。通讯系统150的一个或者多个发送器可以发送数据给通讯模块的一个或者多个接收器,反之亦然。可选的,所述通讯可以是双向通讯,这样,数据可以在无人机100与终端160之间在两个方向传输。双向通讯包括通讯系统150的一个或者多个发送器可以发送数据给通讯模块的一个或者多个接收器,及反之亦然。
在某些实施例中,终端160可以向无人机100、承载体110及负载120中的一个或者多个提供控制数据,并且从无人机100、承载体110及负载120中的一个或者多个中接收信息(如无人机、承载体或者负载的位置及/或运动信息,负载感测的数据,如相机捕获的影像数据)。
在某些实施例中,无人机100可以与除了终端160之外的其它远程设备通讯,终端160也可以与除无人机100之外的其它远程设备进行通讯。例如,无人机及/或终端160可以与另一个无人机或者另一个无人机的承载体或负载通讯。当有需要的时候,所述另外的远程设备可以是第二终端或者其它计算设备(如计算机、桌上型电脑、平板电脑、智能手机、或者其它移动设备)。该远程设备可以向无人机100传送数据,从无人机100接收数据,传送数据给终端160,及/或从终端160接收数据。可选的,该远程设备可以连接到因特网或者其它电信网络,以使从无人机100及/或终端160接收的数据上传到网站或者服务器上。
在某些实施例中,无人机100的运动、承载体110的运动及负载120相对固定参照物(如外部环境)的运动,及/或者彼此间的运动,都可以由终端160所控制。所述终端160可以是远程控制终端,位于远离无人机、承载体及/或负载的地方。终端160可以位于或者粘贴于支撑平台上。可选的,所述终端160可以是手持的或者穿戴式的。例如,所述终端160可以包括智能手机、平板电脑、桌上型电脑、计算机、眼镜、手套、头盔、麦克风或者其中任意的结合。所述终端160可以包括用户界面,如键盘、鼠标、操纵杆、触摸屏或者显示器。任何适合的用户输入可以与终端160交互,如手动输入指令、声音控制、手势控制或者位置控制(如通过终端160的运动、位置或者倾斜)。
以下实施例中,以负载120包括拍摄装置为例对基于无人机的测距方法和装置以及无人机进行分别说明。
实施例一
图2是本发明一实施例提供的基于无人机的测距方法的方法流程图。本实施例的测距方法的执行主体为无人机,具体的,执行主体可以为飞行控制器、云台控制器和设于无人机上的其他控制器中的一个或多个。
参见图2,所述基于无人机的测距方法可以包括如下步骤:
步骤S201:获取拍摄装置在第一位置针对目标(图4和图6中的P)所拍摄的第一图像;
该步骤中,第一位置可以为用户预先设定的位置,也可以为无人机的当前位置,具体可根据需要设定。例如,在其中一实施例中,第一位置由用户预先设定。本实施例中,用户预先设定第一位置的位置信息,其中,第一位置的位置信息包括地理位置信息(即经纬度)和高度信息。具体可采用多种方式预先设定第一位置的位置信息,可选的,在启动无人机执行测距程序之前,通过无人机的参数设定模块中直接输入第一位置的位置信息至无人机。可选的,在启动无人机执行测距程序之前,通过控制无人机的设备(如遥控器、终端等)将第一位置的位置信息输入至无人机。可选的,控制无人机的设备发送测距指令至无人机,触发无人机启动测距程序,第一位置的位置信息携带在测距指令中。
在另一实施例中,无人机在接收到测距启动指令后,获取无人机当前位置的位置信息,并将无人机当前位置设定为第一位置,本实施例的第一位置即为无人机接收到测距启动指令时无人机所处的位置。在本实施例中,可基于无人机的至少一个传感器获取无人机所处的位置,例如,可基于GPS或其他定位装置检测无人机当前位置的地理位置信息,并基于视觉模块(VO或VIO)、气压计检测或其他测距传感器检测无人机当前位置的高度信息。其中,GPS或其他定位装置可设于无人机、云台上或者拍摄装置上,视觉模块、气压计或其他测距传感器也可设于无人机、云台上或者拍摄装置上。此外,本实施的测距启动指令可以由控制无人机的设备(如遥控器、终端等)发送。
步骤S202:根据第一位置的位置信息,控制拍摄装置从第一位置移动至第二位置;
在本实施例中,第一位置和第二位置需满足双目拍摄装置拍摄时两个拍摄位置的位置关系,从而实现单个拍摄装置模拟双目拍摄装置的效果,具体的,第一位置和第二位置之间的位置关系需满足以下条件:第一位置和第二位置的高度相等,并且,第一位置和第二位置的连线平行于拍摄装置在第一位置时针对目标拍摄的拍摄平面。其中,高度是指无人机至地面方向的距离,拍摄装置在第一位置针对拍摄目标的拍摄平面是指在拍摄装置在第一位置拍摄时,拍摄目标的成像平面。
本实施例中,第二位置可以位于第一位置的左侧,也可以位于第一位置的右侧,从而使得第一位置和第二位置的连线平行于拍摄装置在第一位置时针对目标拍摄的拍摄平面,具体可根据需要选择第二位置相对第一位置的方位。
进一步的,第一位置和第二位置之间的位置关系还需满足:第一位置和第二位置之间的距离小于或者等于预设的距离阈值。由于第一位置和第二位置的高度相等, 故第一位置和第二位置之间的距离即为第一位置和第二位置之间的水平距离,也即基于双目测距原理计算深度信息所要用到的双目光心距。可选的,预设的距离阈值为双目测距时,两个拍摄装置中心距的最大值,当第一位置和第二位置之间的距离超过该最大值,不适合使用双目测距原理计算目标的深度信息。可选的,预设的距离阈值小于双目测距时,两个拍摄装置中心距的最大值。具体可根据需要设定预设的距离阈值大小,以满足不同的精度需求。
第二位置可以为用户预先设定的位置,也可以为根据第一位置的位置信息及预设的距离阈值确定的位置。例如,在其中一实施例中,第二位置由用户预先设定。本实施例中,用户预先设定第二位置的位置信息,其中,第二位置的位置信息包括地理位置信息(即经纬度)和高度信息。具体可采用多种方式预先设定第二位置的位置信息,可选的,在启动无人机执行测距程序之前,通过无人机的参数设定模块中直接输入第二位置的位置信息至无人机。可选的,在启动无人机执行测距程序之前,通过控制无人机的设备(如遥控器、终端等)将第二位置的位置信息输入至无人机。可选的,控制无人机的设备发送测距启动指令至无人机,触发无人机启动测距程序,第二位置的位置信息携带在测距启动指令中。
在另一实施例中,第二位置为根据第一位置的位置信息及预设的距离阈值确定的位置。可选的,在确定第一位置的位置信息之后,选择位于第一位置左侧且至第一位置的距离等于预设的距离阈值的位置(以下称作左拍摄极限位置)或者第一位置至左拍摄极限位置连线上任一位置作为第二位置。可选的,在确定第一位置的位置信息之后,选择位于第一位置右侧且至第一位置的距离等于预设距离阈值的位置(以下称作右拍摄极限位置)或者第一位置至右拍摄极限位置连线上任一位置作为第二位置。
在一可行的实现方式中,第一位置和第二位置均由用户预先设定。在另一可行的实现方式中,第一位置由用户预先设定,第二位置为根据第一位置的位置信息及预设的距离阈值确定的位置。在又一可行的实现方式中,第一位置为无人机接收到测距指令时的位置,第二位置为根据第一位置的位置信息及预设的距离阈值确定的位置。
在确定第一位置的位置信息和第二位置的位置信息之后,即可执行步骤S202。
在执行完步骤S202之后,理想状态下,拍摄装置应该位于第二位置上,但由于控制精度差,可能导致拍摄装置的实际位置与第二位置存在偏差,若偏差过大,无人机的实际位置与第一位置之间的水平间距和/或高度差较大,会导致无法计算出目标的深度信息,此时需要对拍摄装置的实际位置进行调整,使得拍摄装置的实际位置与第一位置之间的位置关系满足深度计算需求。
具体的,在一些实施例中,在执行步骤S202之后,获取拍摄装置在第二位置的实际位置信息,接着根据第一位置的位置信息和第二位置的实际位置信息,确定第一位置至第二位置之间的水平间距,再判断第一位置至第二位置之间的水平间距是否 大于预设的距离阈值。当水平间距大于预设的距离阈值时,控制拍摄装置朝向第一位置平移,以使拍摄装置至第一位置的水平间距小于或者等于预设距离阈值;而当第一位置至第二位置之间的水平间距小于或者等于预设的距离阈值时,无需调整拍摄装置在水平方向(与拍摄装置至地面方向垂直)上的位置。
在一些实施例中,在执行步骤S202之后,获取拍摄装置在第二位置的实际位置信息,接着根据第一位置的位置信息和第二位置的实际位置信息,确定第一位置至第二位置之间的高度差,再判断第一位置至第二位置之间的高度差是否为零。当第一位置至第二位置之间的高度差不等于零时,调节拍摄装置的高度,以使拍摄装置的高度与第一位置的高度相等;而当第一位置至第二位置之间的高度差为零时,无需调整拍摄装置的高度。而在其他实施例中,当第一位置至第二位置之间的高度差在预设高度差阈值范围内时,则无需调整执行完步骤S202之后拍摄装置的实际位置;当第一位置至第二位置之间的高度差超过预设高度差阈值,则需要调整执行完步骤S202之后拍摄装置的实际位置。
本实施例中,可采用不同的实现方式来控制拍摄装置从第一位置移动至第二位置,例如,在其中一实现方式中,结合图3和图4,根据第一位置的位置信息,控制无人机(图4中的标号100)移动,以使拍摄装置从第一位置移动至第二位置,通过控制无人机移动,带动拍摄装置从第一位置移动至第二位置。其中,控制无人机移动的方式可包括但不限于以下几种方式:
(1)首先获取无人机的当前运动速度,接着根据当前运动速度以及第一位置和第二位置的位置信息,确定飞行方向以及飞行时长,最后根据飞行方向以及飞行时长,控制无人机按照当前运动速度平移。在该方式中,飞行方向根据第一位置和第二位置的位置信息确定。而在确定飞行时长时,首先根据第一位置和第二位置的位置信息,确定第一位置与第二位置之间的距离,再根据第一位置与第二位置之间的距离以及当前运动速度,确定飞行时长。可选的,飞行时长=第一位置与第二位置之间的距离/当前运动速度。
(2)首先获取无人机的当前运动速度,接着根据当前运动速度预设的距离阈值,确定飞行时长,再根据飞行时长,控制无人机按照当前运动速度相对第一位置朝左或朝右平移。可选的,飞行时长=预设的距离阈值/当前运动速度。可选的,飞行时长=大于零并小于预设的距离阈值之间的任一数值/当前运动速度。
(3)首先根据预设的速度以及第一位置和第二位置的位置信息,确定飞行方向以及飞行时长,再根据飞行方向以及飞行时长,控制无人机按照预设的速度平移。在该方式中,飞行方向根据第一位置和第二位置的位置信息确定。而在确定飞行时长时,首先根据第一位置和第二位置的位置信息,确定第一位置与第二位置之间的距离,再根据第一位置与第二位置之间的距离以及预设的速度,确定飞行时长。可选的,飞 行时长=第一位置与第二位置之间的距离/预设的速度。此外,预设的速度可根据实际需求设定。
(4)首先根据预设的速度和预设的距离阈值,确定飞行时长,再根据飞行时长,控制无人机按照预设的速度相对第一位置朝左或朝右平移。可选的,飞行时长=预设的距离阈值/预设的速度。可选的,飞行时长=大于零并小于预设的距离阈值之间的任一数值/预设的速度。此外,预设的速度可根据实际需求设定。
(5)按照预设的速度和预设的时长,控制无人机相对第一位置平移。可按照预设的速度和预设的时长,控制无人机相对第一位置朝左或朝右平移。该实现方式中,无人机在按照预设的速度和预设的时长相对第一位置平移后所到达的位置与无人机平移之前的位置之间的距离小于或者等于预设距离阈值。
在另一实现方式中,拍摄装置通过云台搭载在无人机上。在根据第一位置的位置信息,控制拍摄装置从第一位置移动至第二位置时,结合图5和图6,在无人机处于静止状态时,根据第一位置的位置信息,控制云台(图6中的标号110)移动,以使拍摄装置从第一位置移动至第二位置。具体的,云台通过一能够在偏航方向移动的动力装置搭载在无人机上,通过控制动力装置运动,以控制云台平移。本实施例中通过控制动力装置在偏航方向运动,以控制云台整体在偏航方向移动,带动拍摄装置从第一位置移动至第二位置。其中,动力装置可为现有任意的动力结构,如电机。
进一步的,控制云台移动的方式可包括但不限于以下几种方式:
(1)首先根据预设的速度以及第一位置和第二位置的位置信息,确定动力装置的运动方向以及运动时长,接着根据运动方向以及运动时长,控制动力装置按照预设的速度平移。在该方式中,运动方向根据第一位置和第二位置的位置信息确定。而在确定运动时长时,首先根据第一位置和第二位置的位置信息,确定第一位置与第二位置之间的距离,再根据第一位置与第二位置之间的距离以及预设的速度,确定运动时长。可选的,运动时长=第一位置与第二位置之间的距离/预设的速度。本实现方式中,预设的速度可根据实际需求设定。
(2)首先根据预设的速度和预设的距离阈值,确定动力装置的运动时长,接着根据运动时长,控制动力装置按照预设的速度相对第一位置朝左或朝右平移。可选的,运动时长=预设的距离阈值/预设的速度。可选的,运动时长=大于零并小于预设的距离阈值之间的任一数值/预设的速度。本实现方式中,预设的速度可根据实际需求设定。
(3)按照预设的速度和预设的时长,控制动力装置相对第一位置平移。可按照预设的速度和预设的时长,控制动力装置相对第一位置朝左或朝右平移。该实现方式中,动力装置在按照预设的速度和预设的时长相对第一位置平移后所到达的位置与动力装置平移之前的位置之间的距离小于或者等于预设距离阈值。
步骤S203:获取拍摄装置在第二位置针对目标所拍摄的第二图像;
执行完步骤S203之后,通过单个拍摄装置完成现有技术中基于两个拍摄装置在两个拍摄位置所拍摄的图像,节省了测距的成本。
步骤S204:根据第一位置和第二位置之间的距离、及第一图像、第二图像,确定目标的深度信息;
具体的,执行步骤S204时,获取拍摄装置的焦距,并根据第一图像和第二图像,确定第一图像和第二图像之间的视差,接着根据第一位置和第二位置之间的距离、拍摄装置的焦距及视差,确定目标的深度信息。本实施例中,目标的深度信息Z的计算公式如下:
Figure PCTCN2018108335-appb-000001
在公式(1)中,f为拍摄装置的焦距,B为第一位置和第二位置之间的距离,X R-T为视差。
其中,获取拍摄装置的焦距的步骤和根据第一图像和第二图像,确定第一图像和第二图像之间的视差的步骤可同时执行,也可按照先后顺序执行。
本实施例通过对拍摄装置进行标定的方式来确定拍摄装置的焦距的,此为现有技术,此处不再赘述。此外,通过对第一图像和第二图像进行双目匹配,获得第一图像和第二图像之间的视差,采用双目匹配将同一场景在第一图像和第二图像上对应的像点匹配起来,获得视差图,从而获得第一图像和第二图像之间的视差。
在一些实施例中,在对第一图像和第二图像进行双目匹配,获得第一图像和第二图像之间的视差之前,对拍摄装置进行标定,获得拍摄装置的内参数据,再根据内参数据,对第一图像和第二图像进行双目校正处理。本实施例通过双目校正来消除第一图像和第二图像的畸变和对第一图像和第二图像进行行对准,使得第一图像和第二图像的成像原点坐标一致、拍摄装置在第一位置和第二位置时的光轴平行、左右成像平面共面、对极线行对齐,方便对第一图像和第二图像上对应的像点进行匹配。其中,内参数据可包括拍摄装置的焦距f、成像原点、五个畸变参数以及外参。
进一步的,无人机上设有传感单元。本实施例中,基于无人机的测距方法进一步包括:基于传感单元获取目标至无人机的距离信息,根据距离信息,对目标的深度信息进行调整,从而提高测距精度。可选的,对距离信息和深度信息进行融合处理,确定目标的最终深度信息。距离信息和深度信息进行融合的方式可包括多种,例如,将距离信息和深度信息的平均值作为目标的最终深度信息,或者,将距离信息和深度信息的加权平均值作为目标的最终深度信息。
更进一步的,可根据传感单元获得的距离信息对步骤S204确定的深度信息进 行验证。在一些实施例中,在基于传感单元获取目标至无人机的距离信息之后,根据距离信息,对目标的深度信息进行调整之前,判断距离信息和目标的深度信息之间的差值是否小于或者等于差值阈值。若是,确定目标的深度信息(步骤S204确定的深度信息)为有效信息,深度信息误差较小,可根据距离信息,对目标的深度信息进行调整;若否,确定目标的深度信息(步骤S204确定的深度信息)为无效信息,深度信息误差较大。本实施例的传感单元可包括激光测距传感器,也可包括其他测距传感器。
本发明实施例中,通过控制单个拍摄装置分别移动至两个拍摄位置,并分别获取图像,从而计算目标的深度信息,通过单个拍摄装置完成现有技术中基于两个拍摄装置在两个拍摄位置所拍摄的图像,实现了与双目测距相同的效果,节省了测距的成本,本实施例的测距方法能应用在小型号无人机上,并满足大多数应用场景的需求。
实施例二
参见图7,本发明实施例二提供一种基于无人机的测距装置,该测距装置可包括拍摄装置和第一处理器(单核或多核处理器),其中,拍摄装置搭载在无人机上,第一处理器与拍摄装置通信连接。
本实施例的第一处理器用于执行如图2、图3以及图5所示的基于无人机的测距方法。
具体的,第一处理器用于:获取拍摄装置在第一位置针对目标所拍摄的第一图像,并根据第一位置的位置信息,控制拍摄装置从第一位置移动至第二位置,获取拍摄装置在第二位置针对目标所拍摄的第二图像,根据第一位置和第二位置之间的距离、及第一图像、第二图像,确定目标的深度信息。其中,第一位置和第二位置的高度相等,并且第一位置和第二位置的连线平行于拍摄装置在第一位置时针对目标拍摄的拍摄平面。
需要说明的是,本发明实施例的第一处理器的具体实现可参考上述实施例一中相应内容的描述,在此不赘述。
第一处理器可以包括无人机的飞行控制器、云台控制器、设于无人机上的其他控制器中的一个或多个的结合。
第一处理器可以是中央处理器(central processing unit,CPU)。第一处理器还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,ASIC),可编程逻辑器件(programmable logic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complex programmable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gate array,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。
实施例三
结合图1和图8,本发明实施例三提供一种无人机,该无人机可包括机身、搭载在机身上的拍摄装置以及第二处理器(单核或多核处理器),第二处理器与拍摄装置通信连接。
本实施例的第一处理器用于执行如图2、图3以及图5所示的基于无人机的测距方法。
具体的,第二处理器用于:获取拍摄装置在第一位置针对目标所拍摄的第一图像,并根据第一位置的位置信息,控制拍摄装置从第一位置移动至第二位置,获取拍摄装置在第二位置针对目标所拍摄的第二图像,根据第一位置和第二位置之间的距离、及第一图像、第二图像,确定目标的深度信息。其中,第一位置和第二位置的高度相等,并且第一位置和第二位置的连线平行于拍摄装置在第一位置时针对目标拍摄的拍摄平面。
需要说明的是,本发明实施例的第二处理器的具体实现可参考上述实施例一中相应内容的描述,在此不赘述。
第二处理器可以包括无人机的飞行控制器、云台控制器、设于无人机上的其他控制器中的一个或多个的结合。
可选的,拍摄装置通过云台搭载在无人机上,当第二处理器为飞行控制器时,拍摄装置获取的第一图像和第二图像直接发送给飞行控制器,当然,拍摄装置获取的第一图像和第二图像也可通过云台转发给飞行控制器。
第二处理器可以是中央处理器(central processing unit,CPU)。第一处理器还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,ASIC),可编程逻辑器件(programmable logic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complex programmable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gate array,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。
此外,本实施例的无人机还包括传感单元,该传感单元可包括激光测距传感器,也可包括其他测距传感器。通过可根据传感单元获得的距离信息对目标的深度信息进行验证,提高测距精度。
本实施例的无人机可以为多旋翼无人机,也可以为无旋翼无人机。
实施例四
本发明实施例四提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行上述实施例一所述的基于无人机的测距方法的步骤。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分 离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所揭露的仅为本发明部分实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (69)

  1. 一种基于无人机的测距方法,其特征在于,无人机搭载有拍摄装置,所述方法包括:
    获取所述拍摄装置在第一位置针对目标所拍摄的第一图像;
    根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置;
    获取所述拍摄装置在所述第二位置针对所述目标所拍摄的第二图像;
    根据所述第一位置和所述第二位置之间的距离、及所述第一图像、所述第二图像,确定所述目标的深度信息;
    其中,所述第一位置和所述第二位置的高度相等,并且所述第一位置和所述第二位置的连线平行于所述拍摄装置在所述第一位置时针对所述目标拍摄的拍摄平面。
  2. 根据权利要求1所述的方法,其特征在于,所述第一位置为用户预先设定的位置;或者,
    所述第一位置为所述无人机的当前位置。
  3. 根据权利要求1所述的方法,其特征在于,所述第一位置的位置信息包括:
    基于GPS检测的地理位置信息;及
    基于视觉模块或气压计检测的高度信息。
  4. 根据权利要求3所述的方法,其特征在于,所述拍摄装置通过云台搭载在无人机上,所述GPS设于所述无人机、所述云台上或者所述拍摄装置上;及/或,
    所述视觉模块或气压计设于所述无人机、所述云台上或者所述拍摄装置上。
  5. 根据权利要求1所述的方法,其特征在于,所述第一位置和所述第二位置之间的距离小于或者等于预设的距离阈值。
  6. 根据权利要求5所述的方法,其特征在于,所述第二位置为用户预先设定的位置;或者,
    所述第二位置为根据所述第一位置的位置信息及所述预设的距离阈值确定的位置。
  7. 根据权利要求6所述的方法,其特征在于,所述根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置之后,还包括:
    获取所述拍摄装置在所述第二位置的实际位置信息;
    根据所述第一位置的位置信息和所述第二位置的实际位置信息,确定所述第一位置至所述第二位置之间的水平间距;
    当所述水平间距大于所述预设的距离阈值时,控制所述拍摄装置朝向所述第一位置平移,以使所述拍摄装置至所述第一位置的水平间距小于或者等于所述预设距离阈值。
  8. 根据权利要求6所述的方法,其特征在于,所述根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置之后,还包括:
    获取所述拍摄装置在所述第二位置的实际位置信息;
    根据所述第一位置的位置信息和所述第二位置的实际位置信息,确定所述第一位置至所述第二位置之间的高度差;
    当所述高度差不等于零时,调节所述拍摄装置的高度,以使所述拍摄装置的高度与所述第一位置的高度相等。
  9. 根据权利要求1或2所述的方法,其特征在于,所述第二位置位于所述第一位置的左侧或右侧。
  10. 根据权利要求1所述的方法,其特征在于,所述根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置,包括:
    根据所述第一位置的位置信息,控制所述无人机移动,以使所述拍摄装置从所述第一位置移动至所述第二位置。
  11. 根据权利要求10所述的方法,其特征在于,所述根据所述第一位置的位置信息,控制所述无人机移动,包括:
    获取所述无人机的当前运动速度;
    根据所述当前运动速度以及所述第一位置和所述第二位置的位置信息,确定飞行方向以及飞行时长;
    根据所述飞行方向以及所述飞行时长,控制所述无人机按照所述当前运动速度平移;
    或者,
    获取所述无人机的当前运动速度;
    根据所述当前运动速度和预设的距离阈值,确定飞行时长;
    根据所述飞行时长,控制所述无人机按照所述当前运动速度相对所述第一位置朝左或朝右平移;
    或者,
    根据预设的速度以及所述第一位置和所述第二位置的位置信息,确定飞行方向以及飞行时长;
    根据所述飞行方向以及所述飞行时长,控制所述无人机按照所述预设的速度平移;
    或者,
    根据预设的速度和预设的距离阈值,确定飞行时长;
    根据所述飞行时长,控制所述无人机按照所述预设的速度相对所述第一位置朝左或朝右平移;
    或者,
    按照预设的速度和预设的时长,控制所述无人机相对所述第一位置平移。
  12. 根据权利要求1所述的方法,其特征在于,所述拍摄装置通过云台搭载在所述无人机上;
    所述根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第 二位置,包括:
    在所述无人机处于静止状态时,根据所述第一位置的位置信息,控制所述云台移动,以使所述拍摄装置从所述第一位置移动至所述第二位置。
  13. 根据权利要求12所述的方法,其特征在于,所述云台通过一能够在偏航方向移动的动力装置搭载在所述无人机上;
    所述控制所述云台移动,包括:
    控制所述动力装置运动,以控制所述云台平移。
  14. 根据权利要求13所述的方法,其特征在于,所述根据所述第一位置的位置信息,控制所述云台移动,包括:
    根据预设的速度以及所述第一位置和所述第二位置的位置信息,确定所述动力装置的运动方向以及运动时长;
    根据所述运动方向以及所述运动时长,控制所述动力装置按照所述预设的速度平移;
    或者,
    根据预设的速度和预设的距离阈值,确定所述动力装置的运动时长;
    根据所述运动时长,控制所述动力装置按照所述预设的速度相对所述第一位置朝左或朝右平移;
    或者,
    按照预设的速度和预设的时长,控制所述动力装置相对所述第一位置平移。
  15. 根据权利要求10或12所述的方法,其特征在于,所述无人机上设有传感单元;所述方法还包括:
    基于所述传感单元获取所述目标至所述无人机的距离信息;
    根据所述距离信息,对所述目标的深度信息进行调整。
  16. 根据权利要求15所述的方法,其特征在于,所述根据所述距离信息,对所述目标的深度信息进行调整之前,还包括:
    确定出所述距离信息和所述目标的深度信息之间的差值小于或者等于预设的差值阈值。
  17. 根据权利要求15所述的方法,其特征在于,所述基于所述传感单元获取所述目标至所述无人机的距离信息之后,还包括:
    在确定所述距离信息和所述目标的深度信息之间的差值大于预设的差值阈值时,确定所述目标的深度信息为无效信息。
  18. 根据权利要求15所述的方法,其特征在于,所述根据所述距离信息,对所述目标的深度信息进行调整,包括:
    对所述距离信息和所述深度信息进行融合处理,确定所述目标的最终深度信息。
  19. 根据权利要求15所述的方法,其特征在于,所述传感单元包括激光测距传感器。
  20. 根据权利要求1所述的方法,其特征在于,所述根据所述第一位置和所述第二位置之间的距离、及所述第一图像、所述第二图像,确定所述目标的深度信息,包括:
    获取所述拍摄装置的焦距;
    根据所述第一图像和所述第二图像,确定所述第一图像和所述第二图像之间的视差;
    根据所述第一位置和所述第二位置之间的距离、所述拍摄装置的焦距及所述视差,确定所述目标的深度信息。
  21. 根据权利要求20所述的方法,其特征在于,所述获取所述拍摄装置的焦距,包括:
    对所述拍摄装置进行标定,确定所述拍摄装置的焦距。
  22. 根据权利要求20所述的方法,其特征在于,所述根据所述第一图像和所述第二图像,确定所述第一图像和所述第二图像之间的视差,包括:
    对所述第一图像和所述第二图像进行双目匹配,获得所述第一图像和所述第二图像之间的视差。
  23. 根据权利要求22所述的方法,其特征在于,所述对所述第一图像和所述第二图像进行双目匹配,获得所述第一图像和所述第二图像之间的视差之前,包括:
    对所述拍摄装置进行标定,获得所述拍摄装置的内参数据;
    根据所述内参数据,对所述第一图像和所述第二图像进行双目校正处理。
  24. 一种基于无人机的测距装置,其特征在于,包括拍摄装置和处理器,所述拍摄装置搭载在所述无人机上,所述处理器与所述拍摄装置通信连接,所述处理器用于:
    获取所述拍摄装置在第一位置针对目标所拍摄的第一图像;
    根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置;
    获取所述拍摄装置在所述第二位置针对所述目标所拍摄的第二图像;
    根据所述第一位置和所述第二位置之间的距离、及所述第一图像、所述第二图像,确定所述目标的深度信息;
    其中,所述第一位置和所述第二位置的高度相等,并且所述第一位置和所述第二位置的连线平行于所述拍摄装置在所述第一位置时针对所述目标拍摄的拍摄平面。
  25. 根据权利要求24所述的装置,其特征在于,所述第一位置为用户预先设定的位置;或者,
    所述第一位置为所述无人机的当前位置。
  26. 根据权利要求24所述的装置,其特征在于,所述第一位置的位置信息包括:
    基于GPS检测的地理位置信息;及
    基于视觉模块或气压计检测的高度信息。
  27. 根据权利要求26所述的装置,其特征在于,所述拍摄装置通过云台搭载在无 人机上,所述GPS设于所述无人机、所述云台上或者所述拍摄装置上;及/或,
    所述视觉模块或气压计设于所述无人机、所述云台上或者所述拍摄装置上。
  28. 根据权利要求24所述的装置,其特征在于,所述第一位置和所述第二位置之间的距离小于或者等于预设的距离阈值。
  29. 根据权利要求28所述的装置,其特征在于,所述第二位置为用户预先设定的位置;或者,
    所述第二位置为根据所述第一位置的位置信息及所述预设的距离阈值确定的位置。
  30. 根据权利要求29所述的装置,其特征在于,所述处理器根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置之后,还用于:
    获取所述拍摄装置在所述第二位置的实际位置信息;
    根据所述第一位置的位置信息和所述第二位置的实际位置信息,确定所述第一位置至所述第二位置之间的水平间距;
    当所述水平间距大于所述预设的距离阈值时,控制所述拍摄装置朝向所述第一位置平移,以使所述拍摄装置至所述第一位置的水平间距小于或者等于所述预设距离阈值。
  31. 根据权利要求29所述的装置,其特征在于,所述处理器根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置之后,还用于:
    获取所述拍摄装置在所述第二位置的实际位置信息;
    根据所述第一位置的位置信息和所述第二位置的实际位置信息,确定所述第一位置至所述第二位置之间的高度差;
    当所述高度差不等于零时,调节所述拍摄装置的高度,以使所述拍摄装置的高度与所述第一位置的高度相等。
  32. 根据权利要求24或25所述的装置,其特征在于,所述第二位置位于所述第一位置的左侧或右侧。
  33. 根据权利要求24所述的装置,其特征在于,所述处理器具体用于:
    根据所述第一位置的位置信息,控制所述无人机移动,以使所述拍摄装置从所述第一位置移动至所述第二位置。
  34. 根据权利要求33所述的装置,其特征在于,所述处理器具体用于:
    获取所述无人机的当前运动速度;
    根据所述当前运动速度以及所述第一位置和所述第二位置的位置信息,确定飞行方向以及飞行时长;
    根据所述飞行方向以及所述飞行时长,控制所述无人机按照所述当前运动速度平移;
    或者,
    获取所述无人机的当前运动速度;
    根据所述当前运动速度和预设的距离阈值,确定飞行时长;
    根据所述飞行时长,控制所述无人机按照所述当前运动速度相对所述第一位置朝左或朝右平移;
    或者,
    根据预设的速度以及所述第一位置和所述第二位置的位置信息,确定飞行方向以及飞行时长;
    根据所述飞行方向以及所述飞行时长,控制所述无人机按照所述预设的速度平移;
    或者,
    根据预设的速度和预设的距离阈值,确定飞行时长;
    根据所述飞行时长,控制所述无人机按照所述预设的速度相对所述第一位置朝左或朝右平移;
    或者,
    按照预设的速度和预设的时长,控制所述无人机相对所述第一位置平移。
  35. 根据权利要求24所述的装置,其特征在于,所述拍摄装置通过云台搭载在所述无人机上;
    所述处理器具体用于:
    在所述无人机处于静止状态时,根据所述第一位置的位置信息,控制所述云台移动,以使所述拍摄装置从所述第一位置移动至所述第二位置。
  36. 根据权利要求35所述的装置,其特征在于,所述云台通过一能够在偏航方向移动的动力装置搭载在所述无人机上;
    所述处理器具体用于:
    控制所述动力装置运动,以控制所述云台平移。
  37. 根据权利要求36所述的装置,其特征在于,所述处理器具体用于:
    根据预设的速度以及所述第一位置和所述第二位置的位置信息,确定所述动力装置的运动方向以及运动时长;
    根据所述运动方向以及所述运动时长,控制所述动力装置按照所述预设的速度平移;
    或者,
    根据预设的速度和预设的距离阈值,确定所述动力装置的运动时长;
    根据所述运动时长,控制所述动力装置按照所述预设的速度相对所述第一位置朝左或朝右平移;
    或者,
    按照预设的速度和预设的时长,控制所述动力装置相对所述第一位置平移。
  38. 根据权利要求33或35所述的装置,其特征在于,所述无人机上设有传感单元;所述处理器还用于:
    基于所述传感单元获取所述目标至所述无人机的距离信息;
    根据所述距离信息,对所述目标的深度信息进行调整。
  39. 根据权利要求38所述的装置,其特征在于,所述处理器根据所述距离信息,对所述目标的深度信息进行调整之前,还用于:
    确定出所述距离信息和所述目标的深度信息之间的差值小于或者等于预设的差值阈值。
  40. 根据权利要求38所述的装置,其特征在于,所述处理器基于所述传感单元获取所述目标至所述无人机的距离信息之后,还用于:
    在确定所述距离信息和所述目标的深度信息之间的差值大于预设的差值阈值时,确定所述目标的深度信息为无效信息。
  41. 根据权利要求38所述的装置,其特征在于,所述处理器具体用于:
    对所述距离信息和所述深度信息进行融合处理,确定所述目标的最终深度信息。
  42. 根据权利要求38所述的装置,其特征在于,所述传感单元包括激光测距传感器。
  43. 根据权利要求24所述的装置,其特征在于,所述处理器具体用于:
    获取所述拍摄装置的焦距;
    根据所述第一图像和所述第二图像,确定所述第一图像和所述第二图像之间的视差;
    根据所述第一位置和所述第二位置之间的距离、所述拍摄装置的焦距及所述视差,确定所述目标的深度信息。
  44. 根据权利要求43所述的装置,其特征在于,所述处理器具体用于:
    对所述拍摄装置进行标定,确定所述拍摄装置的焦距。
  45. 根据权利要求43所述的装置,其特征在于,所述处理器具体用于:
    对所述第一图像和所述第二图像进行双目匹配,获得所述第一图像和所述第二图像之间的视差。
  46. 根据权利要求45所述的装置,其特征在于,所述处理器对所述第一图像和所述第二图像进行双目匹配,获得所述第一图像和所述第二图像之间的视差之前,用于:
    对所述拍摄装置进行标定,获得所述拍摄装置的内参数据;
    根据所述内参数据,对所述第一图像和所述第二图像进行双目校正处理。
  47. 一种无人机,其特征在于,包括:
    机身;
    搭载在所述机身上的拍摄装置;以及
    处理器,所述处理器与所述拍摄装置通信连接,所述处理器用于:
    获取所述拍摄装置在第一位置针对目标所拍摄的第一图像;
    根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置;
    获取所述拍摄装置在所述第二位置针对所述目标所拍摄的第二图像;
    根据所述第一位置和所述第二位置之间的距离、及所述第一图像、所述第二图像,确定所述目标的深度信息;
    其中,所述第一位置和所述第二位置的高度相等,并且所述第一位置和所述第二位置的连线平行于所述拍摄装置在所述第一位置时针对所述目标拍摄的拍摄平面。
  48. 根据权利要求47所述的无人机,其特征在于,所述第一位置为用户预先设定的位置;或者,
    所述第一位置为所述无人机的当前位置。
  49. 根据权利要求47所述的无人机,其特征在于,所述第一位置的位置信息包括:
    基于GPS检测的地理位置信息;及
    基于视觉模块或气压计检测的高度信息。
  50. 根据权利要求49所述的无人机,其特征在于,所述拍摄装置通过云台搭载在无人机上,所述GPS设于所述无人机、所述云台上或者所述拍摄装置上;及/或,
    所述视觉模块或气压计设于所述无人机、所述云台上或者所述拍摄装置上。
  51. 根据权利要求47所述的无人机,其特征在于,所述第一位置和所述第二位置之间的距离小于或者等于预设的距离阈值。
  52. 根据权利要求51所述的无人机,其特征在于,所述第二位置为用户预先设定的位置;或者,
    所述第二位置为根据所述第一位置的位置信息及所述预设的距离阈值确定的位置。
  53. 根据权利要求52所述的无人机,其特征在于,所述处理器根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置之后,还用于:
    获取所述拍摄装置在所述第二位置的实际位置信息;
    根据所述第一位置的位置信息和所述第二位置的实际位置信息,确定所述第一位置至所述第二位置之间的水平间距;
    当所述水平间距大于所述预设的距离阈值时,控制所述拍摄装置朝向所述第一位置平移,以使所述拍摄装置至所述第一位置的水平间距小于或者等于所述预设距离阈值。
  54. 根据权利要求52所述的无人机,其特征在于,所述处理器根据所述第一位置的位置信息,控制所述拍摄装置从所述第一位置移动至第二位置之后,还用于:
    获取所述拍摄装置在所述第二位置的实际位置信息;
    根据所述第一位置的位置信息和所述第二位置的实际位置信息,确定所述第一位置至所述第二位置之间的高度差;
    当所述高度差不等于零时,调节所述拍摄装置的高度,以使所述拍摄装置的高度与所述第一位置的高度相等。
  55. 根据权利要求47或48所述的无人机,其特征在于,所述第二位置位于所述第一位置的左侧或右侧。
  56. 根据权利要求47所述的无人机,其特征在于,所述处理器具体用于:
    根据所述第一位置的位置信息,控制所述无人机移动,以使所述拍摄装置从所述第一位置移动至所述第二位置。
  57. 根据权利要求56所述的无人机,其特征在于,所述处理器具体用于:
    获取所述无人机的当前运动速度;
    根据所述当前运动速度以及所述第一位置和所述第二位置的位置信息,确定飞行方向以及飞行时长;
    根据所述飞行方向以及所述飞行时长,控制所述无人机按照所述当前运动速度平移;
    或者,
    获取所述无人机的当前运动速度;
    根据所述当前运动速度和预设的距离阈值,确定飞行时长;
    根据所述飞行时长,控制所述无人机按照所述当前运动速度相对所述第一位置朝左或朝右平移;
    或者,
    根据预设的速度以及所述第一位置和所述第二位置的位置信息,确定飞行方向以及飞行时长;
    根据所述飞行方向以及所述飞行时长,控制所述无人机按照所述预设的速度平移;
    或者,
    根据预设的速度和预设的距离阈值,确定飞行时长;
    根据所述飞行时长,控制所述无人机按照所述预设的速度相对所述第一位置朝左或朝右平移;
    或者,
    按照预设的速度和预设的时长,控制所述无人机相对所述第一位置平移。
  58. 根据权利要求47所述的无人机,其特征在于,所述拍摄装置通过云台搭载在所述无人机上;
    所述处理器具体用于:
    在所述无人机处于静止状态时,根据所述第一位置的位置信息,控制所述云台移动,以使所述拍摄装置从所述第一位置移动至所述第二位置。
  59. 根据权利要求58所述的无人机,其特征在于,所述云台通过一能够在偏航方向移动的动力装置搭载在所述无人机上;
    所述处理器具体用于:
    控制所述动力装置运动,以控制所述云台平移。
  60. 根据权利要求59所述的无人机,其特征在于,所述处理器具体用于:
    根据预设的速度以及所述第一位置和所述第二位置的位置信息,确定所述动力装置的运动方向以及运动时长;
    根据所述运动方向以及所述运动时长,控制所述动力装置按照所述预设的速度平移;
    或者,
    根据预设的速度和预设的距离阈值,确定所述动力装置的运动时长;
    根据所述运动时长,控制所述动力装置按照所述预设的速度相对所述第一位置朝左或朝右平移;
    或者,
    按照预设的速度和预设的时长,控制所述动力装置相对所述第一位置平移。
  61. 根据权利要求56或58所述的无人机,其特征在于,所述无人机上设有传感单元;所述处理器还用于:
    基于所述传感单元获取所述目标至所述无人机的距离信息;
    根据所述距离信息,对所述目标的深度信息进行调整。
  62. 根据权利要求61所述的无人机,其特征在于,所述处理器根据所述距离信息,对所述目标的深度信息进行调整之前,还用于:
    确定出所述距离信息和所述目标的深度信息之间的差值小于或者等于预设的差值阈值。
  63. 根据权利要求61所述的无人机,其特征在于,所述处理器基于所述传感单元获取所述目标至所述无人机的距离信息之后,还用于:
    在确定所述距离信息和所述目标的深度信息之间的差值大于预设的差值阈值时,确定所述目标的深度信息为无效信息。
  64. 根据权利要求61所述的无人机,其特征在于,所述处理器具体用于:
    对所述距离信息和所述深度信息进行融合处理,确定所述目标的最终深度信息。
  65. 根据权利要求61所述的无人机,其特征在于,所述传感单元包括激光测距传感器。
  66. 根据权利要求47所述的无人机,其特征在于,所述处理器具体用于:
    获取所述拍摄装置的焦距;
    根据所述第一图像和所述第二图像,确定所述第一图像和所述第二图像之间的视差;
    根据所述第一位置和所述第二位置之间的距离、所述拍摄装置的焦距及所述视差,确定所述目标的深度信息。
  67. 根据权利要求66所述的无人机,其特征在于,所述处理器具体用于:
    对所述拍摄装置进行标定,确定所述拍摄装置的焦距。
  68. 根据权利要求66所述的无人机,其特征在于,所述处理器具体用于:
    对所述第一图像和所述第二图像进行双目匹配,获得所述第一图像和所述第二图像之间的视差。
  69. 根据权利要求68所述的无人机,其特征在于,所述处理器对所述第一图像和 所述第二图像进行双目匹配,获得所述第一图像和所述第二图像之间的视差之前,用于:
    对所述拍摄装置进行标定,获得所述拍摄装置的内参数据;
    根据所述内参数据,对所述第一图像和所述第二图像进行双目校正处理。
PCT/CN2018/108335 2018-09-28 2018-09-28 基于无人机的测距方法、装置及无人机 WO2020062024A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2018/108335 WO2020062024A1 (zh) 2018-09-28 2018-09-28 基于无人机的测距方法、装置及无人机
CN201880039803.4A CN110799801A (zh) 2018-09-28 2018-09-28 基于无人机的测距方法、装置及无人机

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/108335 WO2020062024A1 (zh) 2018-09-28 2018-09-28 基于无人机的测距方法、装置及无人机

Publications (1)

Publication Number Publication Date
WO2020062024A1 true WO2020062024A1 (zh) 2020-04-02

Family

ID=69426628

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/108335 WO2020062024A1 (zh) 2018-09-28 2018-09-28 基于无人机的测距方法、装置及无人机

Country Status (2)

Country Link
CN (1) CN110799801A (zh)
WO (1) WO2020062024A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111309050B (zh) * 2020-03-04 2023-07-04 桂林航天工业学院 一种无人机目标识别定位方法
CN113167577A (zh) * 2020-06-22 2021-07-23 深圳市大疆创新科技有限公司 用于可移动平台的测绘方法、可移动平台和存储介质
CN113345012A (zh) * 2021-06-28 2021-09-03 广州极飞科技股份有限公司 单目测距方法、目标的物理参数测量方法、装置及无人机

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105376484A (zh) * 2015-11-04 2016-03-02 深圳市金立通信设备有限公司 一种图像处理方法及终端
CN106291521A (zh) * 2016-07-29 2017-01-04 广东欧珀移动通信有限公司 基于mems移动的测距方法、装置和移动终端
CN107687841A (zh) * 2017-09-27 2018-02-13 中科创达软件股份有限公司 一种测距方法及装置
CN107729878A (zh) * 2017-11-14 2018-02-23 智车优行科技(北京)有限公司 障碍物检测方法和装置、设备、车辆、程序及存储介质
US20180105286A1 (en) * 2016-10-19 2018-04-19 Subaru Corporation Stereo distance measuring apparatus, stereo distance measuring method, and computer readable medium
CN107967701A (zh) * 2017-12-18 2018-04-27 信利光电股份有限公司 一种深度摄像设备的标定方法、装置及设备
CN108037768A (zh) * 2017-12-13 2018-05-15 常州工学院 无人机避障控制系统、避障控制方法和无人机
CN207585606U (zh) * 2017-09-29 2018-07-06 山东茁恩航空技术发展有限公司 一种无人机航空摄影测距及绘图系统
CN108496352A (zh) * 2017-05-24 2018-09-04 深圳市大疆创新科技有限公司 拍摄方法及装置、图像处理方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017004799A1 (en) * 2015-07-08 2017-01-12 SZ DJI Technology Co., Ltd. Camera configuration on movable objects

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105376484A (zh) * 2015-11-04 2016-03-02 深圳市金立通信设备有限公司 一种图像处理方法及终端
CN106291521A (zh) * 2016-07-29 2017-01-04 广东欧珀移动通信有限公司 基于mems移动的测距方法、装置和移动终端
US20180105286A1 (en) * 2016-10-19 2018-04-19 Subaru Corporation Stereo distance measuring apparatus, stereo distance measuring method, and computer readable medium
CN108496352A (zh) * 2017-05-24 2018-09-04 深圳市大疆创新科技有限公司 拍摄方法及装置、图像处理方法及装置
CN107687841A (zh) * 2017-09-27 2018-02-13 中科创达软件股份有限公司 一种测距方法及装置
CN207585606U (zh) * 2017-09-29 2018-07-06 山东茁恩航空技术发展有限公司 一种无人机航空摄影测距及绘图系统
CN107729878A (zh) * 2017-11-14 2018-02-23 智车优行科技(北京)有限公司 障碍物检测方法和装置、设备、车辆、程序及存储介质
CN108037768A (zh) * 2017-12-13 2018-05-15 常州工学院 无人机避障控制系统、避障控制方法和无人机
CN107967701A (zh) * 2017-12-18 2018-04-27 信利光电股份有限公司 一种深度摄像设备的标定方法、装置及设备

Also Published As

Publication number Publication date
CN110799801A (zh) 2020-02-14

Similar Documents

Publication Publication Date Title
US11263761B2 (en) Systems and methods for visual target tracking
US10942529B2 (en) Aircraft information acquisition method, apparatus and device
US10771699B2 (en) Systems and methods for rolling shutter correction
CN108886572B (zh) 调整图像焦点的方法和系统
JP6596745B2 (ja) 対象物体を撮像するシステム
WO2018210078A1 (zh) 无人机的距离测量方法以及无人机
US11353891B2 (en) Target tracking method and apparatus
WO2019113966A1 (zh) 一种避障方法、装置和无人机
WO2017020150A1 (zh) 一种图像处理方法、装置及摄像机
US11105622B2 (en) Dual barometer systems for improved altitude estimation
WO2020062024A1 (zh) 基于无人机的测距方法、装置及无人机
US11320817B2 (en) Target-based image exposure adjustment
WO2019230604A1 (ja) 検査システム
WO2017181513A1 (zh) 无人机的飞行控制方法和装置
WO2019061064A1 (zh) 图像处理方法和设备
WO2019119426A1 (zh) 基于无人机的立体成像方法和装置
WO2021217371A1 (zh) 可移动平台的控制方法和装置
WO2021043214A1 (zh) 一种标定方法、装置及飞行器
WO2020042159A1 (zh) 一种云台的转动控制方法、装置及控制设备、移动平台
US20210229810A1 (en) Information processing device, flight control method, and flight control system
WO2020048365A1 (zh) 飞行器的飞行控制方法、装置、终端设备及飞行控制系统
WO2020024182A1 (zh) 一种参数处理方法、装置及摄像设备、飞行器
US20200217665A1 (en) Mobile platform, image capture path generation method, program, and recording medium
CN111213107B (zh) 信息处理装置、拍摄控制方法、程序以及记录介质
WO2020019175A1 (zh) 图像处理方法和设备、摄像装置以及无人机

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18935742

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18935742

Country of ref document: EP

Kind code of ref document: A1