WO2020062178A1 - 基于地图识别目标对象的方法与控制终端 - Google Patents

基于地图识别目标对象的方法与控制终端 Download PDF

Info

Publication number
WO2020062178A1
WO2020062178A1 PCT/CN2018/108853 CN2018108853W WO2020062178A1 WO 2020062178 A1 WO2020062178 A1 WO 2020062178A1 CN 2018108853 W CN2018108853 W CN 2018108853W WO 2020062178 A1 WO2020062178 A1 WO 2020062178A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
drone
target object
target area
control terminal
Prior art date
Application number
PCT/CN2018/108853
Other languages
English (en)
French (fr)
Inventor
翁超
Original Assignee
深圳市大疆创新科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市大疆创新科技有限公司 filed Critical 深圳市大疆创新科技有限公司
Priority to PCT/CN2018/108853 priority Critical patent/WO2020062178A1/zh
Priority to CN201880041552.3A priority patent/CN110799985A/zh
Publication of WO2020062178A1 publication Critical patent/WO2020062178A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases

Definitions

  • Embodiments of the present invention relate to the technical field of maps, and in particular, to a method and a control terminal for identifying a target object based on a map.
  • Embodiments of the present invention provide a method and a control terminal for identifying a target object based on a map, so as to quickly identify the target object from the first map, and improve the speed and accuracy of rescue.
  • an embodiment of the present invention provides a method for identifying a target object based on a map, including:
  • the second map includes the target object.
  • an embodiment of the present invention provides a control terminal, including:
  • a processor configured to execute a computer program stored in the memory, and is specifically configured to:
  • the second map includes the target object.
  • an embodiment of the present invention provides a drone control system, which includes a drone and a control terminal that are communicatively connected, the drone is used for taking pictures, and the control terminal is the control terminal according to the second aspect. .
  • an embodiment of the present invention provides a computer storage medium, where the storage medium includes computer instructions, and when the instructions are executed by a computer, the computer is enabled to implement the method for identifying a target object based on a map according to the first aspect. .
  • the method and control terminal for identifying a target object based on a map provided in the embodiment of the present invention control a drone to fly in a target area, and control the drone during the flight of the drone in the target area.
  • a first map of the target area based on the picture taken by the drone
  • identify from the first map based on the first map and a second map of the predetermined target area target In this way, by comparing the currently generated first map with a predetermined second map, and then quickly identifying the target object from the incomplete first map, it is convenient for rescue and other tasks.
  • FIG. 1 is a schematic architecture diagram of an unmanned flight system according to an embodiment of the present invention
  • FIG. 2 is a flowchart of a first embodiment of a method for identifying a target object based on a map according to the present invention
  • FIG. 3 is a flowchart of a second embodiment of a method for identifying a target object based on a map according to the present invention
  • FIG. 4 is a schematic structural diagram of a device for identifying a target object based on a map according to an embodiment of the present invention
  • FIG. 5 is a schematic structural diagram of a control terminal according to Embodiment 1 of the present invention.
  • FIG. 6 is a schematic structural diagram of a control terminal according to a second embodiment of the present invention.
  • FIG. 7 is a schematic diagram of a drone control system according to an embodiment of the present invention.
  • FIG. 1 is a schematic architecture diagram of an unmanned flight system according to an embodiment of the present invention.
  • the drones involved in this embodiment may be various types of unmanned aerial vehicles such as multi-rotor and fixed-wing.
  • the multi-rotor UAV may include four-rotor, six-rotor, eight-rotor, and other types of Drone. This embodiment is described by taking a rotary wing drone as an example.
  • the unmanned aerial system 100 may include a drone 110, a display device 130, and a control terminal 140.
  • the UAV 110 may include a power system 150, a flight control system 160, a rack, and a gimbal 120 carried on the rack.
  • the drone 110 may perform wireless communication with the control terminal 140 and the display device 130.
  • the frame may include a fuselage and a tripod (also called a landing gear).
  • the fuselage may include a center frame and one or more arms connected to the center frame, and one or more arms extend radially from the center frame.
  • the tripod is connected to the fuselage, and is used to support the UAV 110 when landing.
  • the power system 150 may include one or more electronic governors (referred to as ESCs) 151, one or more propellers 153, and one or more electric motors 152 corresponding to the one or more propellers 153.
  • the electric motors 152 are connected to Between the electronic governor 151 and the propeller 153, the motor 152 and the propeller 153 are arranged on the arm of the drone 110; the electronic governor 151 is used to receive the driving signal generated by the flight control system 160 and provide driving according to the driving signal Current is supplied to the motor 152 to control the rotation speed of the motor 152.
  • the motor 152 is used to drive the propeller to rotate, so as to provide power for the flight of the drone 110, and the power enables the drone 110 to achieve one or more degrees of freedom.
  • the drone 110 may rotate about one or more rotation axes.
  • the rotation axis may include a roll axis (Roll), a yaw axis (Yaw), and a pitch axis (Pitch).
  • the motor 152 may be a DC motor or an AC motor.
  • the motor 152 may be a brushless motor or a brushed motor.
  • the flight control system 160 may include a flight controller 161 and a sensing system 162.
  • the sensing system 162 is used to measure the attitude information of the drone, that is, the position information and status information of the drone 110 in space, such as three-dimensional position, three-dimensional angle, three-dimensional velocity, three-dimensional acceleration, and three-dimensional angular velocity.
  • the sensing system 162 may include, for example, at least one of a gyroscope, an ultrasonic sensor, an electronic compass, an Inertial Measurement Unit (IMU), a vision sensor, a global navigation satellite system, and a barometer.
  • the global navigation satellite system may be a Global Positioning System (Global Positioning System, GPS).
  • the flight controller 161 is used to control the flight of the drone 110.
  • the flight controller 161 may control the flight of the drone 110 according to the attitude information measured by the sensing system 162. It should be understood that the flight controller 161 may control the drone 110 according to a pre-programmed program instruction, and may also control the drone 110 by responding to one or more control instructions from the control terminal 140.
  • the gimbal 120 may include a motor 122.
  • the gimbal is used to carry the photographing device 123.
  • the flight controller 161 may control the movement of the gimbal 120 through the motor 122.
  • the PTZ 120 may further include a controller for controlling the movement of the PTZ 120 by controlling the motor 122.
  • the gimbal 120 may be independent of the drone 110 or may be a part of the drone 110.
  • the motor 122 may be a DC motor or an AC motor.
  • the motor 122 may be a brushless motor or a brushed motor.
  • the gimbal can be located on the top of the drone or on the bottom of the drone.
  • the photographing device 123 may be, for example, a device for capturing an image, such as a camera or a video camera.
  • the photographing device 123 may communicate with the flight controller and perform shooting under the control of the flight controller.
  • the photographing device 123 of this embodiment includes at least a photosensitive element.
  • the photosensitive element is, for example, a complementary metal oxide semiconductor (CMOS) sensor or a charge-coupled device (CCD) sensor. It can be understood that the shooting device 123 can also be directly fixed on the drone 110, so that the PTZ 120 can be omitted.
  • CMOS complementary metal oxide semiconductor
  • CCD charge-coupled device
  • the display device 130 is located on the ground side of the unmanned flight system 100, can communicate with the drone 110 wirelessly, and can be used to display attitude information of the drone 110. In addition, an image captured by the imaging device may be displayed on the display device 130. It should be understood that the display device 130 may be an independent device, or may be integrated in the control terminal 140.
  • the control terminal 140 is located on the ground side of the unmanned flight system 100 and can communicate with the unmanned aerial vehicle 110 in a wireless manner for remotely controlling the unmanned aerial vehicle 110.
  • FIG. 2 is a flowchart of a first embodiment of a method for identifying a target object based on a map according to the present invention. As shown in FIG. 2, the method in this embodiment may include:
  • the second map includes the target object.
  • the execution subject of this embodiment is a device that has a function of identifying a target object from a map and can control the drone to fly within the target area, such as the control terminal 140 in FIG. 1 and the like.
  • the control terminal 140 controls the drone to take a picture of the target area in advance, and generates a second map of the target area according to the captured picture. That is, the second map is a complete map of the target area.
  • the target area When the target area is damaged, such as a natural disaster such as fire, earthquake, mudslide, etc., the roads, houses, etc. in the target area may be damaged. At this time, how to quickly and accurately identify the target object from the damaged target area (such as housing), has become an urgent technical issue such as rescue.
  • a natural disaster such as fire, earthquake, mudslide, etc.
  • the control terminal 140 first controls the drone to fly within the target area. During the flight of the drone within the target area, the drone is controlled to take a picture of the target area. Specifically, the camera 123 on the drone is used to take a picture of the target area to obtain a picture of the target area.
  • the drone transmits the real-time picture of the captured picture to the control terminal 140, and the control terminal 140 generates a first map of the target area according to the captured picture.
  • the control terminal 140 generates a first map of the target area according to the captured picture.
  • the target object in the target area may be damaged, the target object may not be accurately standardized in the generated first map.
  • the ground pan / tilt head compares the first map generated at this time with a second map of a predetermined target area, thereby identifying the target object from the first map, and further determining the position of the currently damaged target object.
  • the second map in this embodiment may be stored on the control terminal 140, and the control terminal 140 reads the second map from the local for comparison with the first map.
  • the second map in this embodiment may be stored on the network side, and the control terminal 140 reads the second map from the network side for comparison with the first map. At this time, the control terminal 140 needs to be able to access the network at any time.
  • the specific control method for controlling the drone to fly in the target area in S101 is not limited, as long as a first map of the target area can be obtained.
  • the control terminal 140 controls the drone to fly arbitrarily within the target area, and photographs the target area.
  • controlling the UAV to fly in the target area in the above S101 may be controlling the UAV to fly in the target area according to a set route. That is, the route is set in advance, the drone is controlled to fly along the set route, and the target area is photographed. Further, in order to increase the accuracy of shooting, the drone may be controlled to repeat multiple flights along the set route to achieve accurate shooting of the target area.
  • the number of pictures of the target area taken by the drone among the pictures taken by the drone according to the control in S102 is not limited, and is specifically set according to the actual situation. For example, controlling a drone to take one or more pictures of a target area.
  • controlling the drone to take pictures in S102 may include: controlling the drone to take multiple pictures, where an overlapping image exists between adjacent pictures. For example, by controlling the drone to fly repeatedly along a set route, you can take multiple pictures of the target area. Among them, there are overlapping images between adjacent pictures, which is convenient for picture stitching and generates a complete first map.
  • the first map and the second map in this embodiment may be a three-dimensional map or a two-dimensional map.
  • This embodiment may use any existing method to generate a first map of a target area based on a picture taken by a drone, which is not limited in this embodiment.
  • the method for identifying a target object based on a map controls a drone to fly in a target area, and controls the drone to take pictures during the flight of the drone in the target area.
  • a predetermined second map a predetermined target area
  • the method of this embodiment includes not only identifying the target object from the first map according to the first map and a second map that determines a target area in advance, but also includes:
  • the above determining the position of the target object in the first map may be determining the coordinates of the target object in the first map.
  • the coordinates may be world coordinates or real-time dynamic difference ((RTK)) coordinates.
  • RTK real-time dynamic difference
  • the method in this embodiment further includes:
  • the control terminal 140 in this embodiment can not only identify the target object from the first map, but also mark the target object on the first map to facilitate the intuitive identification of the target object.
  • the method of this embodiment may further display the first map identified with the target object.
  • control terminal 140 of this embodiment has a display screen, and can directly display the first map with the target object identified.
  • control terminal 140 in this embodiment does not have a display screen, but sends the first map with the target object identified to the display device 130, so that the display device 130 displays the identification with the The first map of the target object. In this way, it is convenient for rescue workers to determine the position of the target object on the first map intuitively.
  • FIG. 3 is a flowchart of a second embodiment of a method for identifying a target object based on a map according to the present invention. Based on the foregoing embodiment, the method in this embodiment may include:
  • S203 Determine a second map of the target area in advance according to a picture taken by the drone.
  • the steps S201 to S203 in this embodiment are in the specific process of obtaining the second map.
  • the drone when the target area is not damaged, the drone is controlled to fly in the target area, and when the drone is flying in the target area, the camera on the drone is controlled to collect pictures of the target area.
  • the drone transmits the collected picture image to the control terminal 140, and the control terminal 140 determines a second map of the target area in advance according to the collected image.
  • the process of obtaining the second map in this embodiment is the same as the process of obtaining the first map.
  • the UAV is controlled to fly in a target area according to a set route, and multiple pictures are taken. There is an overlapping image between them, and the overlapping images in each adjacent picture are stitched to obtain a second map, and at the same time, the second map is saved.
  • the second map in order to ensure that the saved second map can accurately reflect the latest target area, the second map may be updated according to a preset time period.
  • this embodiment performs object category recognition on the objects in the second map and classifies the objects in the second map.
  • object categories include: house, road, tree.
  • houses, roads, and trees can be identified from the generated second map, and houses, roads, and trees in the second map can be identified.
  • the identifiers of different types of objects are different, for example, all roads on the second map are framed by a red box, and all houses on the second map are framed by a blue box. In this way, after the identification, it can be intuitively distinguished from the second map that those are houses, those are roads, and those are trees.
  • a second map is determined by default, and objects of different categories are marked from the second map.
  • the drone can be allowed to execute a fixed course corresponding to the target area, and collect pictures of the target area. Then, a first map of the target area is generated based on the collected pictures.
  • the steps S205 to S207 are the same as the steps S101 to S103, and reference may be made to the description of the foregoing embodiment, and details are not described herein again.
  • an object belonging to a target category is identified from the first map as the target object.
  • an object belonging to the target category is identified from the first map as a target object. For example, if all the houses in the target area need to be determined, the first map is compared with the second map, and the target category can be marked from the first map according to the position of the target category object in the second map. Object.
  • the second map is determined, the object category is identified on the second map, and the objects in the second map are classified and marked.
  • a first map of the target area is determined, and according to the first map and the second map, the objects belonging to the target category are identified from the first map as the target objects to achieve rapid and accurate identification of the target objects .
  • identifying the target object from the first map according to the first map and a second map of a predetermined target area in the above S104 may include:
  • the generated first map is compared with the second map. If the same image area exists in the first map and the second map, the same image area in the first map and the second map are superimposed, and The complete second image is compared to accurately identify the target object in the first map.
  • identifying the target object from the first map according to the first map and a second map of a predetermined target area in the above S104 may include:
  • the geographic position information of each object in the picture taken by the drone is acquired.
  • the determined first map is compared with a predetermined second map. If the same image area does not exist between the first map and the second map, the geographic location information of each object in the second map can be obtained. Determine the geographic information of the target object.
  • the geographic location information of the object may be longitude and latitude coordinates, world coordinates, or RTK coordinates of the object.
  • the drone After determining the geographic location information of the target object, the drone is controlled to fly along the geographic location information of the target object and take pictures. Then, according to the picture taken by the drone at this time and the first map, the target object is identified from the first map.
  • the target object is a road. If the same image area does not exist in the first map and the second map, the RTK coordinates of the aircraft are compared with the RTK coordinates of each road identified in the second map. According to the RTK coordinate set contained in the road on the identified second map, the drone is allowed to fly along the RTK coordinate set and take pictures, and the road is identified from the first map according to the taken picture and the first map.
  • the first map and the second map are used to identify a target object from the first map. If it is determined that the same image area does not exist in the first map and the second map according to the first map and the second map, determine the geographic location information of the target object according to the second map; The geographic position information of the target object controls the drone to fly and take a picture; according to the taken picture and the first map, identify the target object from the first map, and then realize according to different situations, The target object is accurately identified from the first map.
  • the foregoing program may be stored in a computer-readable storage medium.
  • the program is executed, the program is executed.
  • the foregoing storage medium includes: a read-only memory (ROM), a random access memory (RAM), a magnetic disk or an optical disk, etc. The medium.
  • An embodiment of the present invention also provides a computer storage medium.
  • the computer storage medium stores program instructions.
  • the program may include part or all of the steps of the method for marking the target position of the PTZ in the foregoing embodiments.
  • FIG. 4 is a schematic structural diagram of a device for identifying target objects based on a map according to an embodiment of the present invention.
  • the device for identifying target objects based on a map 400 may include: a memory 410 and a processor 420. 410 is coupled to the processor 420.
  • a memory 410 configured to store program instructions
  • the processor 420 is configured to call a program instruction in the memory 410 to execute the solutions of the foregoing embodiments.
  • the device for identifying a target object based on a map in this embodiment may be used to implement the technical solutions in the foregoing method embodiments.
  • the implementation principles and technical effects are similar, and are not repeated here.
  • FIG. 5 is a schematic structural diagram of a control terminal provided in Embodiment 1 of the present invention.
  • the control terminal in this embodiment may include: a memory 510 for storing a computer program; and a processor 520 for executing the memory.
  • the processor 520 is specifically configured to control the drone to fly in the target area; generate a first map of the target area according to a picture taken by the drone; according to the first map, and a predetermined target area A second map of, identifying a target object from the first map; wherein the second map includes the target object.
  • control terminal in this embodiment may be used to execute the technical solutions in the foregoing method embodiments.
  • the implementation principles and technical effects are similar, and are not repeated here.
  • the processor 520 is further configured to determine a position of the target object in the first map.
  • the processor 520 is further configured to mark the target object in the first map.
  • FIG. 6 is a schematic structural diagram of a control terminal provided in Embodiment 2 of the present invention. Based on the foregoing embodiment, as shown in FIG. 6, the control terminal in this embodiment further includes:
  • the display screen 530 is configured to display the first map identified with the target object.
  • the processor 520 is further configured to control the drone to fly in the target area; during the flight of the drone in the target area, control the drone to take pictures; A second map of the target area is determined in advance based on a picture taken by the drone.
  • the processor 520 is further configured to perform object category identification on the second map, classify objects in the second map, and classify the objects in the second map according to the first map.
  • object category identification on the second map, classify objects in the second map, and classify the objects in the second map according to the first map.
  • an object belonging to a target category is identified from the first map as the target object.
  • the object category includes: a house, a road, and a tree.
  • the processor is configured to control the drone to fly within a target area, including:
  • the processor is configured to control the drone to fly within a target area, including:
  • the processor is configured to identify a target object from the first map according to the first map and a second map of a predetermined target area, including:
  • the processor is configured to identify a target object from the first map according to the first map and a second map of a predetermined target area, including:
  • the processor is further configured to obtain geographic location information of each object in a picture taken by the drone during the flight of the drone within the target area.
  • the geographic location information is RTK coordinates.
  • the first map and the second map are two-dimensional maps.
  • the processing module is further configured to update the second map according to a preset time period.
  • control terminal in this embodiment may be used to execute the technical solutions in the foregoing method embodiments.
  • the implementation principles and technical effects are similar, and are not repeated here.
  • FIG. 7 is a schematic diagram of a drone control system according to an embodiment of the present invention.
  • the drone control system 700 of this embodiment includes a drone 710 and a control terminal 500 that are connected by communication.
  • the drone 710 is used for taking pictures, and the control terminal 500 is the control terminal shown in FIG. 5 or FIG. 6.
  • the foregoing program may be stored in a computer-readable storage medium.
  • the program is executed, the program is executed.
  • the foregoing storage medium includes: a read-only memory (ROM), a random access memory (RAM), a magnetic disk or an optical disk, etc. The medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种基于地图识别目标对象的方法与控制终端,所述方法包括:控制无人机在目标区域内飞行(S101),在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片(S102);根据所述无人机拍摄的图片,生成所述目标区域的第一地图(S103);根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象(S104)。这样通过将当前生成的第一地图与预先确定的第二地图进行比对,进而从不完整的第一地图中快速地识别出目标对象,便于救援等工作的进行。

Description

基于地图识别目标对象的方法与控制终端 技术领域
本发明实施例涉及地图技术领域,尤其涉及一种基于地图识别目标对象的方法与控制终端。
背景技术
随着自然环境的变化,火灾、地震、洪水、泥石流、海啸等自然灾害时有发生。当这些事故发生时,会造成房屋倒塌、道路淹没,地貌发生变化,救援人员无法准确找到受灾人员集中的地方(例如房屋),以及道路等,这样会造成救援物资以及救援队伍无法快速抵达受灾区,严重影响救援工作,造成生命财产的损失。
发明内容
本发明实施例提供一种基于地图识别目标对象的方法与控制终端,以快速从第一地图中识别出目标对象,提高救援的速度和准确度。
第一方面,本发明实施例提供一种基于地图识别目标对象的方法,包括:
控制无人机在目标区域内飞行;
在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片;
根据所述无人机拍摄的图片,生成所述目标区域的第一地图;
根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象;
其中,所述第二地图中包括有所述目标对象。
第二方面,本发明实施例提供一种控制终端,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序,具体用于:
控制无人机在目标区域内飞行;
根据所述无人机拍摄的图片,生成所述目标区域的第一地图;
根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象;
其中,所述第二地图中包括有所述目标对象。
第三方面,本发明实施例提供一种无人机控制系统,包括通信连接的无人机和控制终端,所述无人机用于拍照,所述控制终端为第二方面所述的控制终端。
第四方面,本发明实施例提供一种计算机存储介质,所述存储介质包括计算机指令,当所述指令被计算机执行时,使得所述计算机实现第一方面所述的基于地图识别目标对象的方法。
本发明实施例提供的基于地图识别目标对象的方法与控制终端,通过控制无人机在目标区域内飞行,在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片;根据所述无人机拍摄的图片,生成所述目标区域的第一地图;根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象。这样通过将当前生成的第一地图与预先确定的第二地图进行比对,进而从不完整的第一地图中快速地识别出目标对象,便于救援等工作的进行。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例涉及的无人飞行系统的示意性架构图;
图2为本发明基于地图识别目标对象的方法实施例一的流程图;
图3为本发明基于地图识别目标对象的方法实施例二的流程图;
图4为本发明一实施例提供的基于地图识别目标对象的装置的结构示意图;
图5为本发明实施例一提供的控制终端的结构示意图;
图6为本发明实施例二提供的控制终端的结构示意图;
图7为本发明一实施例提供的无人机控制系统的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是根据本发明实施例涉及的无人飞行系统的示意性架构图。可选的,本实施例涉及的无人机可以是多旋翼、固定翼等各种型号的无人机,其中多旋翼无人机可包括四旋翼、六旋翼、八旋翼等包括其他数目旋翼的无人机。本实施例以旋翼无人机为例进行说明。
无人飞行系统100可以包括无人机110、显示设备130和控制终端140。其中,无人机110可以包括动力系统150、飞行控制系统160、机架和承载在机架上的云台120。无人机110可以与控制终端140和显示设备130进行无线通信。
机架可以包括机身和脚架(也称为起落架)。机身可以包括中心架以及与中心架连接的一个或多个机臂,一个或多个机臂呈辐射状从中心架延伸出。脚架与机身连接,用于在无人机110着陆时起支撑作用。
动力系统150可以包括一个或多个电子调速器(简称为电调)151、一个或多个螺旋桨153以及与一个或多个螺旋桨153相对应的一个或多个电机152,其中电机152连接在电子调速器151与螺旋桨153之间,电机152和螺旋桨153设置在无人机110的机臂上;电子调速器151用于接收飞行控制系统160产生的驱动信号,并根据驱动信号提供驱动电流给电机152,以控制电机152的转速。电机152用于驱动螺旋桨旋转,从而为无人机110的飞行提供动力,该动力使得无人机110能够实现一个或多个自由度的运动。在某些实施例中,无人机110可以围绕一个或多个旋转轴旋转。例如,上述旋转轴可以包括横滚轴(Roll)、偏航轴(Yaw)和俯仰轴(pitch)。应理解,电机152可以是直流电机,也可以交流电机。另外,电机152可以是无刷电机,也可以是有刷电机。
飞行控制系统160可以包括飞行控制器161和传感系统162。传感系统 162用于测量无人机的姿态信息,即无人机110在空间的位置信息和状态信息,例如,三维位置、三维角度、三维速度、三维加速度和三维角速度等。传感系统162例如可以包括陀螺仪、超声传感器、电子罗盘、惯性测量单元(Inertial Measurement Unit,IMU)、视觉传感器、全球导航卫星系统和气压计等传感器中的至少一种。例如,全球导航卫星系统可以是全球定位系统(Global Positioning System,GPS)。飞行控制器161用于控制无人机110的飞行,例如,可以根据传感系统162测量的姿态信息控制无人机110的飞行。应理解,飞行控制器161可以按照预先编好的程序指令对无人机110进行控制,也可以通过响应来自控制终端140的一个或多个控制指令对无人机110进行控制。
云台120可以包括电机122。云台用于携带拍摄装置123。飞行控制器161可以通过电机122控制云台120的运动。可选地,作为另一实施例,云台120还可以包括控制器,用于通过控制电机122来控制云台120的运动。应理解,云台120可以独立于无人机110,也可以为无人机110的一部分。应理解,电机122可以是直流电机,也可以是交流电机。另外,电机122可以是无刷电机,也可以是有刷电机。还应理解,云台可以位于无人机的顶部,也可以位于无人机的底部。
拍摄装置123例如可以是照相机或摄像机等用于捕获图像的设备,拍摄装置123可以与飞行控制器通信,并在飞行控制器的控制下进行拍摄。本实施例的拍摄装置123至少包括感光元件,该感光元件例如为互补金属氧化物半导体(Complementary Metal Oxide Semiconductor,CMOS)传感器或电荷耦合元件(Charge-coupled Device,CCD)传感器。可以理解,拍摄装置123也可直接固定于无人机110上,从而云台120可以省略。
显示设备130位于无人飞行系统100的地面端,可以通过无线方式与无人机110进行通信,并且可以用于显示无人机110的姿态信息。另外,还可以在显示设备130上显示成像装置拍摄的图像。应理解,显示设备130可以是独立的设备,也可以集成在控制终端140中。
控制终端140位于无人飞行系统100的地面端,可以通过无线方式与无人机110进行通信,用于对无人机110进行远程操纵。
图2为本发明基于地图识别目标对象的方法实施例一的流程图,如图2 所示,本实施例的方法可以包括:
S101、控制无人机在目标区域内飞行。
S102、在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片。
S103、根据所述无人机拍摄的图片,生成所述目标区域的第一地图;
S104、根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象。
其中,所述第二地图中包括有所述目标对象。
本实施例的执行主体为具有从地图中识别出目标对象功能、且可以控制无人机在目标区域内飞行的装置,例如为图1中的控制终端140等。
需要说明的是,本实施例的方法,在目标区域未受到损坏时,控制终端140预先控制无人机对目标区域进行拍照,并根据拍摄的图片生成目标区域的第二地图。也就是说,第二地图为目标区域的完整地图。
当目标区域受到损坏时,例如目标区域发生火灾、地震、泥石流等自然灾害时,目标区域的道路、房屋等可能受到损坏,此时如何快速准确地从受损的目标区域内识别出目标对象(例如房屋),成为救援等亟待解决的技术问题。
为了解决上述技术问题,本申请实施例,控制终端140首先控制无人机在目标区域内飞行。在无人机在目标区域内飞行的过程中,控制无人机对目标区域进行拍照,具体是控制无人机上的拍摄装置123对目标区域进行拍照,获得目标区域的图片。
接着,无人机将拍摄的图片实时图传给控制终端140,控制终端140根据拍摄的图片,生成目标区域的第一地图。此时,由于目标区域中的目标对象可能受到损坏,因此,生成的第一地图中可能无法准确标准出目标对象。
这样,地面云台将此时生成的第一地图与预先确定的目标区域的第二地图进行对比,进而从第一地图中识别出目标对象,进而确定出当前受损的目标对象的位置。
可选的,本实施例的第二地图可以保存在控制终端140上,控制终端140从本地读取第二地图用于与第一地图进行比较。
可选的,本实施例的第二地图可以保存在网络端,控制终端140从网络 端读取第二地图用于与第一地图进行比较。此时,需要控制终端140可以随时接入网络。
可选的,本实施例对S101中控制无人机在目标区域内飞行的具体控制方式不做限制,只要可以获得目标区域的第一地图即可。例如,控制终端140控制无人机在目标区域内任意飞行,对目标区域进行拍照。
可选的,上述S101中控制无人机在目标区域内飞行,可以是控制所述无人机在目标区域内按照设定的航线飞行。即预先设定好航线,控制无人机沿着设定的航线进行飞行,对目标区域进行拍照。进一步的,为了增加拍摄的准确性,则可以控制无人机沿着设定的航线进行多次重复飞行,实现对目标区域的准确拍摄。
可选的,本实施例对上述S102中控制所述无人机拍摄图片中,无人机拍摄的目标区域的图片的数量不做限制,具体根据实际进行设定。例如,控制无人机拍摄目标区域的一张或多张图片。
可选的,上述S102中控制所述无人机拍摄图片,可以包括:控制所述无人机拍摄多张图片,其中,相邻图片之间存在重叠的图像。例如,控制无人机沿着设定的航线重复进行飞行,可以拍摄多张目标区域的图片。其中,相邻的图片之间具有重叠的图像,这样便于图片拼接,生成完整的第一地图。
可选的,本实施例的第一地图和第二地图可以是三维地图,也可以是二维地图。
本实施例可以通过现有的任意一种方法,根据无人机拍摄的图片,生成目标区域的第一地图的方法,本实施例对此不做限制。
本申请实施例提供的基于地图识别目标对象的方法,通过控制无人机在目标区域内飞行,在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片;根据所述无人机拍摄的图片,生成所述目标区域的第一地图;根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象。这样通过将当前生成的第一地图与预先确定的第二地图进行比对,进而从不完整的第一地图中快速地识别出目标对象,便于救援等工作的进行。
在一些实施例中,本实施例的方法不仅包括根据第一地图和预先确定目 标区域的第二地图,从第一地图中识别出目标对象,还包括:
确定所述目标对象在所述第一地图中的位置。
上述确定目标对象在第一地图中的位置,可以是确定目标对象在第一地图中的坐标,该坐标可以是世界坐标,也可以是实时动态差分((Real Time Kinematic,RTK))坐标。本实施例通过确定目标对象在第一地图中的位置,可以准确获知目标对象的位置,这样在救援过程中,可以实现精准救援和快速救援。
在一些实施例中,本实施例的方法还包括:
在所述第一地图中标记出所述目标对象。
本实施例的控制终端140不仅可以从第一地图中识别出目标对象,还可以在第一地图中标记出目标对象,便于直观识别目标对象。
可选的,本实施例的方法还可以显示标识有所述目标对象的所述第一地图。
在一种示例中,本实施例的控制终端140具有显示屏,可以直接显示标识有所述目标对象的所述第一地图。
在另一种示例中,本实施例的控制终端140不具有显示屏,而是将标识有所述目标对象的所述第一地图发送给显示设备130,以使显示设备130显示标识有所述目标对象的所述第一地图。这样,便于救援等工作人员直观确定目标对象在第一地图中的位置。
图3为本发明基于地图识别目标对象的方法实施例二的流程图,在上述实施例的基础上,本实施例的方法可以包括:
S201、控制无人机在目标区域飞行。
S202、在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片。
S203、根据所述无人机拍摄的图片,预先确定所述目标区域的第二地图。
本实施例中S201至S203的步骤为获取第二地图的具体过程中。
具体的,在目标区域未受到损坏时,控制无人机在目标区域飞行,在无人机在目标区域内飞行的过程中,控制无人机上的相机采集目标区域的图片。无人机将采集的图片图传给控制终端140,控制终端140根据采集的图片, 预先确定目标区域的第二地图。本实施例获取第二地图的过程与上述获取第一地图的过程相同,例如,控制所述无人机在目标区域内按照设定的航线飞行,拍摄多张图片,且相邻的两图片之间具有重叠的图像,将各相邻的图片中的重叠的图像进行拼接,获得第二地图,同时,保存第二地图。
可选的,本实施例为了保证保存的第二地图可以准确反映最新的目标区域,则可以根据预设时间周期,对所述第二地图进行更新。
S204、对所述第二地图进行对象类别识别,并对在所述第二地图中的对象进行分类别标记。
为了便于基于第二地图,从第一地图中识别出目标对象,则本实施例对第二地图中的对象进行对象类别识别,并对第二地图中的对象进行分类别标识。
例如,对象类别包括:房屋、道路、树木。这样,可以从生成的第二地图中识别出房屋、道路、树木,并将第二地图中的房屋、道路、树木进行标识。其中,不同类别的对象的标识不同,例如,用红色方框框出第二地图上的所有道路,用蓝色方框框出第二地图上的所有房屋等。这样通过标识后,可以直观地从第二地图中分辨出那些是房屋、那些是道路以及那些是树木等。
S205、控制无人机在目标区域内飞行。
S206、在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片。
S207、根据所述无人机拍摄的图片,生成所述目标区域的第一地图。
本实施例,基于上述步骤,预设确定第二地图,并从第二地图中标记出不同类别的对象。
如果目标区域发生洪涝、地震等自然灾害时,比如路面已经被浑浊的洪水盖住了,即使在高空用无人机去监测也无法露眼看出哪里是道路等。
此时可以让无人机执行一遍目标区域对应的固定的航线,采集目标区域的图片。接着,根据采集的图片,生成目标区域的第一地图。
上述S205至S207与上述S101至S103的步骤相同,可以参照上述实施例的描述,在此不再赘述。
S208、根据所述第一地图,以及所述第二地图,从所述第一地图中识别出属于目标类别的对象为所述目标对象。
根据上述步骤,获得第一地图后,根据第一地图以及预先确定的第二地图,从第一地图中识别出属于目标类别的对象为目标对象。例如,若需要确定出目标区域内的所有房屋,则将第一地图与第二地图进行比对,可以根据目标类别的对象在第二地图中的位置,从第一地图中标记出该目标类别的对象。
本申请实施例,通过确定第二地图,并对第二地图进行对象类别识别,并对在第二地图中的对象进行分类别标记。当灾情等发生时,确定目标区域的第一地图,并根据第一地图,以及第二地图,从第一地图中识别出属于目标类别的对象为目标对象,实现对目标对象的快速、准确识别。
在一些实施例中,上述S104中根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象,可以包括:
若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中存在相同的图像区域,则根据所述相同的图像区域、所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象。
具体的,将生成的第一地图与第二地图进行比对,若第一地图与第二地图中存在相同的图像区域,则将第一地图与第二地图中的相同图像区域进行叠加,与完整的第二图像进行对比,准确识别出第一地图中的目标对象。
在一些实施例中,上述S104中根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象,可以包括:
若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中不存在相同的图像区域,则根据所述第二地图确定目标对象的地理位置信息;
根据所述目标对象的地理位置信息控制所述无人机飞行并拍摄图片;
根据拍摄的图片和所述第一地图,从所述第一地图中识别所述目标对象。
本实施例中,在所述无人机在所述目标区域内飞行的过程中,确定第二地图的过程中,获取所述无人机拍摄的图片中各个对象的地理位置信息。
这样,将确定的第一地图与预先确定的第二地图进行比对,若第一地图与第二地图之间不存在相同的图像区域时,可以从第二地图中各对象的地理位置信息中确定出目标对象的地理位置信息。
可选的,上述对象的地理位置信息可以是对象的经纬度坐标、世界坐标或RTK坐标。
确定目标对象的地理位置信息后,则控制无人机沿着目标对象的地理位置信息进行飞行,并拍摄图片。接着,根据此时无人机拍摄的图片和第一地图,从第一地图中识别出目标对象。
例如,目标对象为道路,若第一地图和第二地图中不存在相同的图像区域,则利用飞机的RTK坐标与第二地图中已标识的各道路的RTK坐标进行对比。根据已标识的第二地图上的道路包含的RTK坐标集,让无人机沿RTK坐标集飞行并拍摄图片,根据拍摄的图片和第一地图,从第一地图中识别道路。
本申请实施例的方法,若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中存在相同的图像区域,则根据所述相同的图像区域、所述第一地图,以及所述第二地图,从所述第一地图中识别目标对象。若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中不存在相同的图像区域,则根据所述第二地图确定目标对象的地理位置信息;根据所述目标对象的地理位置信息控制所述无人机飞行并拍摄图片;根据拍摄的图片和所述第一地图,从所述第一地图中识别所述目标对象,进而实现根据不同的情况,从第一地图中准确地识别出目标对象。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:只读内存(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例中还提供了一种计算机存储介质,该计算机存储介质中存储有程序指令,所述程序执行时可包括上述各实施例中的云台的目标位置标记方法的部分或全部步骤。
图4为本发明一实施例提供的基于地图识别目标对象的装置的结构示意图,如图4所示,本实施例的基于地图识别目标对象的装置400可以包括: 存储器410和处理器420,存储器410与处理器420耦合。
存储器410,用于存储程序指令;
处理器420,用于调用存储器410中的程序指令执行上述各实施例的方案。
本实施例的基于地图识别目标对象的装置,可以用于执行上述各方法实施例中的技术方案,其实现原理和技术效果类似,此处不再赘述。
图5为本发明实施例一提供的控制终端的结构示意图,如图5所示,本实施例的控制终端可以包括:存储器510,用于存储计算机程序;处理器520,用于执行所述存储器中存储的计算机程序。
处理器520,具体用于控制无人机在目标区域内飞行;根据所述无人机拍摄的图片,生成所述目标区域的第一地图;根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象;其中,所述第二地图中包括有所述目标对象。
本实施例的控制终端,可以用于执行上述各方法实施例中的技术方案,其实现原理和技术效果类似,此处不再赘述。
在一些实施例中,所述处理器520,还用于确定所述目标对象在所述第一地图中的位置。
在另一些实施例中,所述处理器520,还用于在所述第一地图中标记出所述目标对象。
图6为本发明实施例二提供的控制终端的结构示意图,在上述实施例的基础上,如图6所示,本实施例的控制终端还包括:
显示屏530,用于显示标识有所述目标对象的所述第一地图。
在一些实施例中,所述处理器520,还用于控制无人机在目标区域飞行;在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片;并根据所述无人机拍摄的图片,预先确定所述目标区域的第二地图。
在一些实施例中,所述处理器520,还用于对所述第二地图进行对象类别识别,对在所述第二地图中的对象进行分类别标记;并根据所述第一地图,以及所述第二地图,从所述第一地图中识别出属于目标类别的对象为所述目 标对象。
可选的,所述对象类别包括:房屋、道路、树木。
在一些实施例中,所述处理器用于控制无人机在目标区域内飞行,包括:
控制所述无人机在目标区域内按照设定的航线飞行。
在一些实施例中,所述处理器用于控制无人机在目标区域内飞行,包括:
控制所述无人机拍摄多张图片,其中,相邻图片之间存在重叠的图像。
在一些实施例中,所述处理器用于根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象,包括:
若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中存在相同的图像区域,则根据所述相同的图像区域、所述第一地图,以及所述第二地图,从所述第一地图中识别目标对象。
在一些实施例中,所述处理器用于根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象,包括:
若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中不存在相同的图像区域,则根据所述第二地图确定目标对象的地理位置信息;
根据所述目标对象的地理位置信息控制所述无人机飞行并拍摄图片;
根据拍摄的图片和所述第一地图,从所述第一地图中识别所述目标对象。
在一些实施例中,所述处理器,还用于在所述无人机在所述目标区域内飞行的过程中,获取所述无人机拍摄的图片中各个对象的地理位置信息。
可选的,所述地理位置信息为RTK坐标。
可选的,所述第一地图、所述第二地图为二维地图。
在一些实施例中,所述处理模块,还用于根据预设时间周期,对所述第二地图进行更新。
本实施例的控制终端,可以用于执行上述各方法实施例中的技术方案,其实现原理和技术效果类似,此处不再赘述。
图7为本发明一实施例提供的无人机控制系统的示意图,如图7所示,本实施例的无人机控制系统700,包括通信连接的无人机710和控制终端500,所述无人机710用于拍照,所述控制终端500为图5或图6所示的控制终端。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤 可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:只读内存(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (32)

  1. 一种基于地图识别目标对象的方法,其特征在于,包括:
    控制无人机在目标区域内飞行;
    在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片;
    根据所述无人机拍摄的图片,生成所述目标区域的第一地图;
    根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象;
    其中,所述第二地图中包括有所述目标对象。
  2. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    确定所述目标对象在所述第一地图中的位置。
  3. 根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
    在所述第一地图中标记出所述目标对象。
  4. 根据权利要求3所述的方法,其特征在于,所述方法还包括:
    显示标识有所述目标对象的所述第一地图。
  5. 根据权利要求1-4任一项所述的方法,其特征在于,所述方法还包括:
    控制无人机在目标区域飞行;
    在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片;
    根据所述无人机拍摄的图片,预先确定所述目标区域的第二地图。
  6. 根据权利要求5所述的方法,其特征在于,所述方法还包括:
    对所述第二地图进行对象类别识别,并对在所述第二地图中的对象进行分类别标记;
    所述根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象,包括:
    根据所述第一地图,以及所述第二地图,从所述第一地图中识别出属于目标类别的对象为所述目标对象。
  7. 根据权利要求6所述的方法,其特征在于,所述对象类别包括:房屋、道路、树木。
  8. 根据权利要求1-7任一项所述的方法,其特征在于,所述控制无人机 在目标区域内飞行,包括:
    控制所述无人机在目标区域内按照设定的航线飞行。
  9. 根据权利要求1-8任一项所述的方法,其特征在于,所述控制所述无人机拍摄图片,包括:
    控制所述无人机拍摄多张图片,其中,相邻图片之间存在重叠的图像。
  10. 根据权利要求1-9任一项所述的方法,其特征在于,所述根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象,包括:
    若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中存在相同的图像区域,则根据所述相同的图像区域、所述第一地图,以及所述第二地图,从所述第一地图中识别目标对象。
  11. 根据权利要求1-10任一项所述的方法,其特征在于,所述根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象,包括:
    若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中不存在相同的图像区域,则根据所述第二地图确定目标对象的地理位置信息;
    根据所述目标对象的地理位置信息控制所述无人机飞行并拍摄图片;
    根据拍摄的图片和所述第一地图,从所述第一地图中识别所述目标对象。
  12. 根据权利要求11所述的方法,其特征在于,所述方法还包括:
    在所述无人机在所述目标区域内飞行的过程中,获取所述无人机拍摄的图片中各个对象的地理位置信息。
  13. 根据权利要求11或12所述的方法,其特征在于,所述地理位置信息为RTK坐标。
  14. 根据权利要求1-13任一项所述的方法,其特征在于,所述第一地图、所述第二地图为二维地图。
  15. 根据权利要求1-14任一项所述的方法,其特征在于,所述方法还包括:
    根据预设时间周期,对所述第二地图进行更新。
  16. 一种控制终端,其特征在于,包括:
    存储器,用于存储计算机程序;
    处理器,用于执行所述存储器中存储的计算机程序,具体用于:
    控制无人机在目标区域内飞行;
    根据所述无人机拍摄的图片,生成所述目标区域的第一地图;
    根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象;
    其中,所述第二地图中包括有所述目标对象。
  17. 根据权利要求16所述的控制终端,其特征在于,所述处理器,还用于确定所述目标对象在所述第一地图中的位置。
  18. 根据权利要求16或17所述的控制终端,其特征在于,所述处理器,还用于在所述第一地图中标记出所述目标对象。
  19. 根据权利要求18所述的控制终端,其特征在于,所述控制终端还包括:
    显示屏,用于显示标识有所述目标对象的所述第一地图。
  20. 根据权利要求16-19任一项所述的控制终端,其特征在于,
    所述处理器,还用于控制无人机在目标区域飞行;在所述无人机在所述目标区域内飞行的过程中,控制所述无人机拍摄图片;并根据所述无人机拍摄的图片,预先确定所述目标区域的第二地图。
  21. 根据权利要求20所述的控制终端,其特征在于,
    所述处理器,还用于对所述第二地图进行对象类别识别,对在所述第二地图中的对象进行分类别标记;并根据所述第一地图,以及所述第二地图,从所述第一地图中识别出属于目标类别的对象为所述目标对象。
  22. 根据权利要求21所述的控制终端,其特征在于,所述对象类别包括:房屋、道路、树木。
  23. 根据权利要求16-22任一项所述的控制终端,其特征在于,所述处理器用于控制无人机在目标区域内飞行,包括:
    控制所述无人机在目标区域内按照设定的航线飞行。
  24. 根据权利要求16-23任一项所述的装置,其特征在于,所述处理器用于控制无人机在目标区域内飞行,包括:
    控制所述无人机拍摄多张图片,其中,相邻图片之间存在重叠的图像。
  25. 根据权利要求16-24任一项所述的控制终端,其特征在于,所述处理器用于根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象,包括:
    若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中存在相同的图像区域,则根据所述相同的图像区域、所述第一地图,以及所述第二地图,从所述第一地图中识别目标对象。
  26. 根据权利要求16-25任一项所述的控制终端,其特征在于,所述处理器用于根据所述第一地图,以及预先确定的目标区域的第二地图,从所述第一地图中识别目标对象,包括:
    若根据所述第一地图和所述第二地图,确定所述第一地图与所述第二地图中不存在相同的图像区域,则根据所述第二地图确定目标对象的地理位置信息;
    根据所述目标对象的地理位置信息控制所述无人机飞行并拍摄图片;
    根据拍摄的图片和所述第一地图,从所述第一地图中识别所述目标对象。
  27. 根据权利要求26所述的控制终端,其特征在于,所述处理器,还用于在所述无人机在所述目标区域内飞行的过程中,获取所述无人机拍摄的图片中各个对象的地理位置信息。
  28. 根据权利要求26或27所述的控制终端,其特征在于,所述地理位置信息为RTK坐标。
  29. 根据权利要求16-28任一项所述的控制终端,其特征在于,所述第一地图、所述第二地图为二维地图。
  30. 根据权利要求16-29任一项所述的控制终端,其特征在于,所述处理模块,还用于根据预设时间周期,对所述第二地图进行更新。
  31. 一种无人机控制系统,其特征在于,包括通信连接的无人机和控制终端,所述无人机用于拍照,所述控制终端为权利要求16至30中任一项权利要求所述的控制终端。
  32. 一种计算机存储介质,其特征在于,所述存储介质包括计算机指令,当所述指令被计算机执行时,使得所述计算机实现如权利要求1至15中任一项权利要求所述的基于地图识别目标对象的方法。
PCT/CN2018/108853 2018-09-29 2018-09-29 基于地图识别目标对象的方法与控制终端 WO2020062178A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2018/108853 WO2020062178A1 (zh) 2018-09-29 2018-09-29 基于地图识别目标对象的方法与控制终端
CN201880041552.3A CN110799985A (zh) 2018-09-29 2018-09-29 基于地图识别目标对象的方法与控制终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/108853 WO2020062178A1 (zh) 2018-09-29 2018-09-29 基于地图识别目标对象的方法与控制终端

Publications (1)

Publication Number Publication Date
WO2020062178A1 true WO2020062178A1 (zh) 2020-04-02

Family

ID=69438479

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/108853 WO2020062178A1 (zh) 2018-09-29 2018-09-29 基于地图识别目标对象的方法与控制终端

Country Status (2)

Country Link
CN (1) CN110799985A (zh)
WO (1) WO2020062178A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361434A (zh) * 2021-06-16 2021-09-07 广东电网有限责任公司 一种基于无人机遥控装置的勘灾方法及装置
CN113485444A (zh) * 2021-08-11 2021-10-08 李佳霖 一种基于多旋翼无人机的大气监测方法及系统
CN113938609A (zh) * 2021-11-04 2022-01-14 中国联合网络通信集团有限公司 区域监控方法、装置及设备
CN114202886A (zh) * 2021-12-09 2022-03-18 安徽海螺信息技术工程有限责任公司 一种矿山爆破安全监控预警系统
CN115471980A (zh) * 2022-08-16 2022-12-13 智洋创新科技股份有限公司 泥石流灾害预警方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113741413B (zh) * 2020-05-29 2022-11-08 广州极飞科技股份有限公司 一种无人设备的作业方法、无人设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101275854A (zh) * 2007-03-26 2008-10-01 日电(中国)有限公司 更新地图数据的方法和设备
CN104316949A (zh) * 2014-10-29 2015-01-28 上海大学 一种无人机搜索目标快速定位方法
CN104850563A (zh) * 2014-02-18 2015-08-19 歌乐株式会社 目的地图像比较检索装置、目的地图像比较检索系统、以及目的地图像比较检索方法
US20180059207A1 (en) * 2015-03-09 2018-03-01 Hangzhou Hikvision Digital Technology Co.. Ltd Method, device and system for target tracking

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5076190B1 (ja) * 2011-10-03 2012-11-21 光昭 花畑 被災状況把握システム
CN106657779B (zh) * 2016-12-13 2022-01-04 北京远度互联科技有限公司 环绕拍摄方法、装置及无人机
CN108427907A (zh) * 2017-11-27 2018-08-21 易瓦特科技股份公司 基于地面站对灰霾源进行示警的方法、装置及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101275854A (zh) * 2007-03-26 2008-10-01 日电(中国)有限公司 更新地图数据的方法和设备
CN104850563A (zh) * 2014-02-18 2015-08-19 歌乐株式会社 目的地图像比较检索装置、目的地图像比较检索系统、以及目的地图像比较检索方法
CN104316949A (zh) * 2014-10-29 2015-01-28 上海大学 一种无人机搜索目标快速定位方法
US20180059207A1 (en) * 2015-03-09 2018-03-01 Hangzhou Hikvision Digital Technology Co.. Ltd Method, device and system for target tracking

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361434A (zh) * 2021-06-16 2021-09-07 广东电网有限责任公司 一种基于无人机遥控装置的勘灾方法及装置
CN113485444A (zh) * 2021-08-11 2021-10-08 李佳霖 一种基于多旋翼无人机的大气监测方法及系统
CN113485444B (zh) * 2021-08-11 2024-03-12 李佳霖 一种基于多旋翼无人机的大气监测方法及系统
CN113938609A (zh) * 2021-11-04 2022-01-14 中国联合网络通信集团有限公司 区域监控方法、装置及设备
CN113938609B (zh) * 2021-11-04 2023-08-22 中国联合网络通信集团有限公司 区域监控方法、装置及设备
CN114202886A (zh) * 2021-12-09 2022-03-18 安徽海螺信息技术工程有限责任公司 一种矿山爆破安全监控预警系统
CN114202886B (zh) * 2021-12-09 2024-02-23 安徽海螺信息技术工程有限责任公司 一种矿山爆破安全监控预警系统
CN115471980A (zh) * 2022-08-16 2022-12-13 智洋创新科技股份有限公司 泥石流灾害预警方法
CN115471980B (zh) * 2022-08-16 2024-03-22 智洋创新科技股份有限公司 泥石流灾害预警方法

Also Published As

Publication number Publication date
CN110799985A (zh) 2020-02-14

Similar Documents

Publication Publication Date Title
WO2020062178A1 (zh) 基于地图识别目标对象的方法与控制终端
US11794890B2 (en) Unmanned aerial vehicle inspection system
JP6803919B2 (ja) 飛行経路生成方法、飛行経路生成システム、飛行体、プログラム、及び記録媒体
JP6658532B2 (ja) 制御装置、制御方法および飛行体デバイス
JP6899846B2 (ja) 飛行経路表示方法、モバイルプラットフォーム、飛行システム、記録媒体及びプログラム
WO2018098704A1 (zh) 控制方法、设备、系统、无人机和可移动平台
US11798172B2 (en) Maximum temperature point tracking method, device and unmanned aerial vehicle
JP6675537B1 (ja) 飛行経路生成装置、飛行経路生成方法とそのプログラム、構造物点検方法
WO2021168819A1 (zh) 无人机的返航控制方法和设备
WO2019230604A1 (ja) 検査システム
US20210208608A1 (en) Control method, control apparatus, control terminal for unmanned aerial vehicle
WO2020172800A1 (zh) 可移动平台的巡检控制方法和可移动平台
JP2023100642A (ja) 検査システム
WO2020225979A1 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP6681101B2 (ja) 検査システム
CN111213107B (zh) 信息处理装置、拍摄控制方法、程序以及记录介质
WO2021079516A1 (ja) 飛行体の飛行経路作成方法及び管理サーバ
WO2020062255A1 (zh) 拍摄控制方法和无人机
CN112313599B (zh) 控制方法、装置和存储介质
JP2019096965A (ja) 決定装置、制御装置、撮像システム、飛行体、決定方法、及びプログラム
WO2021035746A1 (zh) 图像处理方法、装置和可移动平台
WO2021064982A1 (ja) 情報処理装置および情報処理方法
WO2023097494A1 (zh) 全景图像拍摄方法、装置、无人机、系统及存储介质
WO2019100218A1 (zh) 地图叠加展示方法、装置和无人飞行系统
JP6681102B2 (ja) 検査システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18934767

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18934767

Country of ref document: EP

Kind code of ref document: A1