WO2021168838A1 - 位置信息确定方法、设备及存储介质 - Google Patents

位置信息确定方法、设备及存储介质 Download PDF

Info

Publication number
WO2021168838A1
WO2021168838A1 PCT/CN2020/077292 CN2020077292W WO2021168838A1 WO 2021168838 A1 WO2021168838 A1 WO 2021168838A1 CN 2020077292 W CN2020077292 W CN 2020077292W WO 2021168838 A1 WO2021168838 A1 WO 2021168838A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
imaging
distance
image acquisition
acquiring
Prior art date
Application number
PCT/CN2020/077292
Other languages
English (en)
French (fr)
Inventor
应礼剑
邹文
夏斌强
Original Assignee
深圳市大疆创新科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市大疆创新科技有限公司 filed Critical 深圳市大疆创新科技有限公司
Priority to CN202080005645.8A priority Critical patent/CN112955711A/zh
Priority to PCT/CN2020/077292 priority patent/WO2021168838A1/zh
Publication of WO2021168838A1 publication Critical patent/WO2021168838A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects

Definitions

  • This application relates to the field of data processing technology, and in particular to a method, device and storage medium for determining location information.
  • laser distance measurement can be performed through the laser module of the camera, infrared temperature measurement through the infrared camera, target search through the wide-angle camera, and clear capture through the telephoto camera Images etc.
  • the laser ranging from the camera through the laser module as an example, it can be used to detect the distance information of the target point, but cannot indicate the target position of the ranging target.
  • the target position Especially when the depth of field information near the target position is very rich, the target position cannot be displayed.
  • the accuracy of ranging will also have an impact, reducing the accuracy of target location determination.
  • the embodiments of the present application provide a method, device, and storage medium for determining location information, which can improve the accuracy of determining the location information of a target.
  • an embodiment of the present application provides a method for determining location information, including:
  • an embodiment of the present application also provides a location information determination system, and the location information determination system includes:
  • Ranging device used to determine the target to be detected
  • Image acquisition equipment used to acquire images
  • Memory used to store computer programs
  • the processor is used to call the computer program in the memory for executing:
  • an embodiment of the present application also provides an imaging device, the imaging device includes: a distance measuring device for determining a target to be detected;
  • Image acquisition equipment used to acquire images
  • a display device for displaying the position information of the target on the image
  • Memory used to store computer programs
  • the processor is used to call the computer program in the memory for executing:
  • an embodiment of the present application also provides a pan-tilt, including:
  • Memory used to store computer programs
  • the processor is used to call the computer program in the memory to execute:
  • an embodiment of the present application also provides a movable platform, including:
  • the platform body is used to carry the PTZ
  • Memory used to store computer programs
  • the processor is used to call the computer program in the memory to execute:
  • an embodiment of the present application also provides a storage medium, the storage medium is used to store a computer program, and the computer program is loaded by a processor to execute any location information determination method provided in the embodiments of the present application .
  • an embodiment of the present application further provides a computer program, which is loaded by a processor to execute any method for determining location information provided in the embodiment of the present application.
  • the target object to be detected can be determined by the distance measuring device, the imaging range of the target object on the image acquisition device, and the distance information between the imaging center and the imaging range of the image acquisition device can be obtained, and then the imaging range can be determined according to the imaging range. And distance information to determine the location information of the target.
  • the solution accurately determines the position information of the target object through the imaging range and the distance information between the imaging center and the imaging range, which improves the accuracy of indicating the position information of the target object, has good human-computer interaction, and is more user-friendly.
  • the operation is simple, and it is also conducive to the precise determination of the target position in the fields of surveying and mapping, navigation, and security.
  • FIG. 1 is a schematic structural diagram of a position information determination system provided by an embodiment of the present application
  • FIG. 2 is a schematic diagram of the interaction of an aircraft, a control device, and a display device provided by an embodiment of the present application;
  • FIG. 3 is a schematic flowchart of a method for determining location information provided by an embodiment of the present application
  • Fig. 4 is a schematic diagram of determining a target provided by an embodiment of the present application.
  • Fig. 5 is another schematic diagram of determining a target provided by an embodiment of the present application.
  • FIG. 6 is a schematic diagram of the imaging principle of the distance measuring device and the image acquisition device provided by the embodiment of the present application;
  • FIG. 7 is a schematic diagram of the positional relationship between the distance measuring device and the image acquisition device provided by an embodiment of the present application.
  • FIG. 8 is a schematic diagram of displaying position information of a target provided by an embodiment of the present application.
  • FIG. 9 is another schematic diagram of displaying the position information of the target provided by the embodiment of the present application.
  • FIG. 10 is a schematic diagram of marking the area where the target object is located according to an embodiment of the present application.
  • FIG. 11 is another schematic diagram of marking the area where the target object is located according to the embodiment of the present application.
  • FIG. 12 is a schematic diagram of the spatial geometric relationship between the distance measuring device and the image acquisition device provided by the embodiment of the present application.
  • FIG. 13 is a schematic structural diagram of a location information determination system provided by an embodiment of the present application.
  • FIG. 14 is a schematic structural diagram of an imaging device provided by an embodiment of the present application.
  • FIG. 15 is a schematic structural diagram of a pan-tilt provided by an embodiment of the present application.
  • FIG. 16 is a schematic structural diagram of a movable platform provided by an embodiment of the present application.
  • the embodiments of the present application provide a method, a device, and a storage medium for determining location information, which are used to detect the location information of a target, and improve the accuracy of determining the location information of the target.
  • the device may include a position information determination system, an imaging device, a pan/tilt, and a movable platform, etc.
  • the storage medium is a computer-readable storage medium, and the position information determination system, an imaging device, a pan/tilt, and a movable platform, etc.
  • the type can be flexibly set according to actual needs, and the specific content is not limited here.
  • the position information determination system may include a distance measuring device and an image acquisition device.
  • the distance measuring device may be a laser device.
  • the type, number, and location of the laser device can be flexibly set according to actual needs.
  • the The laser device may be a continuous laser or a pulsed laser, etc., and there may be one laser device.
  • the image acquisition device can be a video camera or a camera.
  • a camera as an example, the type of camera, the number of cameras, the setting position of the camera, the positional relationship between the camera and the laser device, etc. can be flexibly set according to actual needs.
  • the camera may be an ultra-wide-angle camera, a wide-angle camera, a telephoto camera (that is, a zoom camera), an infrared camera, a far-infrared camera, an ultraviolet camera, and a time of flight (TOF, Time of Flight) depth camera (TOF depth for short). Camera) and so on.
  • TOF Time of Flight
  • the positional relationship between the image acquisition device S1 and the distance measurement device S2 may be on the same plane, and the image acquisition device S1 and the distance measurement device S2 may be on the same straight line in this plane. Or form a preset angle, etc.; of course, the distance measurement device and the image acquisition device, especially the signal acquisition point of the distance measurement device and the imaging surface of the image acquisition device, can also be located on different planes. The positional relationship between the two is converted, see Figure 12 and related descriptions for details.
  • the imaging device may include a distance measuring device, an image acquisition device, a display device, etc.
  • the distance measuring device may include a distance measurement signal, and may also include a light source such as infrared or ultraviolet, so that the distance measuring device can generate a light spot for the image acquisition device to image.
  • the display device can display the position information of the target object on the image collected by the image acquisition device.
  • the pan-tilt may include a position information determination system and a shaft arm, etc.
  • the shaft arm can move the position information determination system, for example, the distance measuring device and image acquisition equipment on the position information determination system are controlled by the shaft arm to move to a suitable position.
  • the target is determined by the distance measuring device, and the image containing the target is collected by the image acquisition device.
  • the movable platform can include a pan/tilt, a platform body, a distance measuring device, and image acquisition equipment, etc.
  • the platform body can be used to carry a pan/tilt, which can carry a distance measuring device and an image acquisition device, so that the pan/tilt can drive The distance measuring device and the image acquisition equipment move.
  • the type of the movable platform can be flexibly set according to actual needs.
  • the movable platform can be a mobile terminal, an aircraft, a robot, or a vehicle, etc.
  • the vehicle can be an unmanned vehicle
  • the aircraft can include a drone
  • the drone can include a rotary-wing drone (such as a quadrotor unmanned aerial vehicle).
  • fixed-wing UAV or a combination of rotary-wing and fixed-wing UAV, which is not limited here.
  • the aircraft is equipped with a ranging device and image acquisition equipment, etc.
  • the aircraft is also connected with control equipment and display equipment, among which the control equipment may include one or more remote controls
  • the aircraft is used to control the flight of the aircraft or perform corresponding actions, and obtain corresponding motion information from the aircraft.
  • the motion information can include flight direction, flight attitude, flight altitude, flight speed and position information, etc., and will obtain the motion information Send to the display device, there is a display device for analysis and display.
  • the control device can also be used to control the ranging device on the aircraft to perform ranging operations or the image capture device to perform shooting and other operations.
  • the display device may include a notebook computer, a tablet computer, or a mobile phone, etc., which may be used to receive data (such as images or distance information, etc.) sent by a distance measuring device or image acquisition device on the aircraft, and display the data on the display screen.
  • the display device can also receive a control instruction input by the user, and perform corresponding control on the distance measuring device or image acquisition device on the aircraft based on the control instruction.
  • the display device can receive shooting instructions or ranging instructions, and send the shooting instructions or ranging instructions to the aircraft.
  • the aircraft can control the image capture device to shoot the captured images according to the shooting instructions, or control the ranging according to the ranging instructions
  • the device performs distance measurement on the target, etc.
  • each device in FIG. 1 and FIG. 2 does not constitute a limitation on the application scenario of the location information determination method.
  • FIG. 3 is a schematic flowchart of a method for determining location information according to an embodiment of the present application.
  • the method for determining location information can be applied to devices such as location information determining systems, imaging devices, pan-tilts, and movable platforms to accurately detect the location information of the target, so as to improve the accuracy of determining the location information of the target. Efficiency and convenience.
  • the following will take the location information determination method applied to the location information determination system as an example for detailed description.
  • the method for determining location information may include steps S101 to S104, etc., which may be specifically as follows:
  • S101 Determine the target to be detected by the distance measuring device.
  • the target can be flexibly selected or set according to actual needs, and the specific content is not limited here.
  • the target can be a complete object, or a point, etc., for example, the target can be any object such as license plates, people, animals, plants, vehicles, buildings, or stars, or even non-solid, non-three-dimensional targets, such as flames. , Clouds, or water bodies, etc., as long as the target can be imaged through one or more pixels of the camera's photosensitive element.
  • image capture devices There can be many examples of image capture devices. For example, a wide-angle camera or a telephoto camera can be selected as the image capture device.
  • the method for determining the target object can be flexibly set according to actual needs. For example, the selection instruction input by the user can be received to determine the target object, or the area irradiated by the light spot of the distance measuring device can be used as the target object; and so on.
  • determining the target object to be detected by the distance measuring device may include: acquiring the center point of the light spot of the distance measuring signal of the distance measuring device, and setting the center point of the light spot as the target object to be detected; or, acquiring the distance measuring device The spot center point of the ranging signal; determine the object area where the spot center point is, and set the object area as the target.
  • the center point of the ranging signal (such as laser signal) of the ranging device (such as laser device) can be obtained.
  • the laser device is taken as an example.
  • the device emits a laser signal
  • a light spot can be generated.
  • the center point of the light spot of the laser signal can be obtained, and the center point of the light spot can be set as the target to be detected.
  • a laser device when the laser device emits a laser signal, it can generate a light spot. At this time, the position of the center point of the light spot of the laser signal can be obtained, and the position of the center point of the light spot can be determined The object area where the center point of the light spot is located.
  • an image with the center point of the light spot as the center of the screen can be collected by the image acquisition device, and the image can be recognized by the preset recognition model, for example, the image is extracted by feature to obtain the target Feature information.
  • the target feature information can be flexibly set according to actual needs.
  • the target feature information can be the feature information of the license plate, the feature information of a certain animal, the feature information of a certain plant or the feature information of a certain person, etc., according to the target
  • the feature information can identify the object in the image and the object area where the object is located. In Figure 5, the areas where cows, grass, flowers, and clouds are located can be identified. Therefore, it can be determined that the center point of the light spot is located in the area where the cow is located. At this time, the area where the cow is located can be set as the target.
  • the preset recognition model can be flexibly set according to actual needs.
  • the recognition model can be a target detection algorithm SSD or YOLO, and the recognition model can also be a convolutional neural network R-CNN or Faster R-CNN.
  • the preset recognition model is a trained recognition model. For example, multiple sample images containing different types of objects can be obtained, and the recognition model can be trained based on the multiple sample images to obtain the trained recognition model.
  • the position of the ranging device can be adjusted to move the center point of the light spot of the ranging signal, so that the target can be re-determined.
  • the imaging range may be the imaging size of the target object on the image acquisition device, for example, the corresponding range of the target object in the imaging area of the camera's photosensitive element
  • the distance information may be the pixel distance between the imaging center of the image acquisition device and the imaging range.
  • the distance information may include the abscissa position and the ordinate position of the imaging center.
  • acquiring the imaging range of the target object on the image acquisition device, and acquiring the distance information between the imaging center of the image acquisition device and the imaging range may include: The imaging size on the image acquisition device; the imaging distance from the acquisition of the ranging signal to the imaging center; the acquisition of the pixel size of the sensor of the image acquisition device; the imaging range of the target object on the ranging device is determined according to the imaging size, imaging distance and pixel size , And the distance information between the imaging center of the image acquisition device and the imaging range.
  • the imaging principles of the distance measuring device Z1 and the image acquisition device Z2 are shown in Figure 6, where Z1 is the distance measuring device, and Z2 is The image acquisition device can acquire the imaging size of the target object on the image acquisition device Z2 determined by the distance measurement signal of the distance measurement device Z1, such as I1I2 (ie I 1 I 2 ) in Figure 6, where I1 and I2 are the target objects respectively
  • I1I2 ie I 1 I 2
  • I1 and I2 are the target objects respectively
  • the corresponding imaging range is projected on the two end points of the plane, I is the center point of the imaging center corresponding to the target object projected on the plane; and, the imaging distance C from the imaging center of the imaging center of the image acquisition device Z2 to the imaging distance C from the ranging signal, and
  • the pixel size u of the sensor of the image acquisition device Z2, and the value of the pixel size u may be determined by the characteristics of the sensor of the image acquisition device Z2.
  • the distance information Mc between the imaging center of the image acquisition device Z2 and the imaging range is determined:
  • the imaging distance C from the ranging signal to the imaging center of the image acquisition device Z2 can be obtained based on the center point I projected on the plane by the imaging center corresponding to the target object:
  • obtaining the imaging size of the target on the image acquisition device determined by the ranging signal of the ranging device, and obtaining the imaging distance from the ranging signal to the imaging center may include: obtaining the area of the target determined by the ranging signal ; Obtain the shortest distance between the optical axis of the imaging center and the center of the target; Obtain the focal length of the image acquisition device, and the target distance between the ranging device and the target; According to the target area, the shortest distance, the focal length and the target The distance determines the imaging size of the target on the image acquisition device and the imaging distance from the ranging signal to the imaging center.
  • the target area D determined by the ranging signal can be acquired, and the shortest distance between the optical axis of the imaging center and the target center can be acquired.
  • Distance, where the center of the target is the midpoint of O1O2, the shortest distance from the optical axis to the center of the target (OO1+OO2)/2, and OO2 is the farthest spot distance (that is, the potential field center O of the image acquisition device is the longest distance from the target).
  • the distance between the far edges O2) is the closest spot distance of OO1 (that is, the distance between the center O of the potential field of the image acquisition device and the closest edge O1 of the target).
  • the focal length f of the image acquisition device is acquired, and the target distance L between the image acquisition device and the target is acquired, and the width w of the divergence surface of the ranging signal of the distance measuring device can also be acquired. At this time, it can be based on the target area D, the shortest distance between the optical axis of the imaging center and the target center, the target distance L between the image acquisition device and the target, and the divergence surface of the ranging signal of the ranging device.
  • the width w and the focal length f of the image acquisition device determine the imaging size I1I2 (ie I 1 I 2 ) of the target object on the image acquisition device determined by the distance measurement signal of the distance measurement device:
  • the imaging distance from the ranging signal to the imaging center C determines the imaging distance from the ranging signal to the imaging center C:
  • obtaining the target area determined by the ranging signal may include: obtaining the divergence angle of the ranging signal of the ranging device; obtaining the position difference between the image acquisition device and the ranging device; and according to the divergence angle and the position difference. , And the distance of the target to determine the area of the target.
  • the divergence angle R of the ranging signal of the ranging device and the target distance L between the image acquisition device and the target can be acquired, as well as the acquisition of the image acquisition device and the ranging device
  • the target area D can be determined according to the divergence angle R, the position difference ⁇ L, and the target distance L between the image acquisition device and the target:
  • obtaining the shortest distance between the optical axis of the imaging center and the center of the target object may include: obtaining the width of the divergent surface of the ranging signal of the ranging device; obtaining the structural difference between the image capturing device and the ranging device Physical distance: Determine the shortest distance between the optical axis of the imaging center and the center of the target according to the area of the target, the width of the divergent surface and the physical distance.
  • the width w of the divergence surface of the ranging signal of the ranging device can be obtained, and the physical distance d between the image acquisition device and the ranging device can be obtained. And obtain the target area D determined by the ranging signal.
  • the shortest distance between the optical axis of the imaging center and the center of the target can be determined according to the target area D, the width w of the divergence surface, and the physical distance d.
  • the imaging size I1I2 of the target on the image acquisition device determined by the ranging signal of the ranging device can be obtained as:
  • the imaging distance C from the ranging signal of the ranging device to the imaging center of the image acquisition device is:
  • the imaging range M 1 M 2 of the target on the image acquisition device is:
  • the distance information Mc between the imaging center of the image acquisition device and the imaging range of the target object on the image acquisition device is:
  • S104 Determine position information of the target object according to the imaging range and distance information.
  • the position information may be the pixel coordinates of the target object in the image collected by the image collecting device.
  • the imaging range M 1 M 2 and the distance information Mc determines the position information (X, Y) of the target object.
  • the distance information may include the abscissa position on the abscissa X and the ordinate position on the ordinate Y, etc., that is, Mc(Xc, Yc). At this time, you can get:
  • the center position, the center of gravity position, or the top angle position of the target can be used as the position information of the target.
  • the relative positions of the distance measuring device and the image acquisition device in the position information determination system are fixed, which can reduce the complexity of the position information determination system and reduce the computational resource consumption of the position information determination system.
  • the relative positions of the distance measuring device and the image acquisition device in the position information determination system are variable. For example, the relative positions of the distance measuring device and the image acquisition device can be adjusted according to actual needs. This way can ensure better User experience.
  • determining the position information of the target object based on the imaging range and distance information may include: acquiring the positional relationship between the distance measuring device and the image acquisition device; and determining the position of the target object based on the positional relationship, imaging range and distance information. location information.
  • the position relationship between the distance measurement device and the image acquisition device can be obtained. It can be the angle between the distance measuring device and the image acquisition device.
  • acquiring the positional relationship between the distance measuring device and the image acquisition device may include: acquiring external parameters of the distance measuring device and the image acquisition device; acquiring the central connection line between the distance measuring device and the image acquisition device; The external parameters and the center are connected to determine the angle between the distance measuring device and the image acquisition equipment to obtain the positional relationship.
  • the positional relationship When the positional relationship is an included angle, in order to improve the accuracy and efficiency of acquiring the positional relationship, it can be acquired through the external parameters of the distance measuring device and the image acquisition device.
  • the external parameters of the ranging device and the image acquisition device can be acquired, and the external parameters can be flexibly set according to actual needs.
  • the external parameters can include a reference coordinate system. As shown in FIG. 7, the ranging device S2 can be established. And the reference coordinate system of the plane where the image acquisition device S1 is located, and the reference coordinate system is used as an external parameter.
  • the location information of the target can be determined according to the location relationship, imaging range and distance information.
  • determining the position information of the target object according to the position relationship, the imaging range, and the distance information may include: obtaining the abscissa position and the ordinate position of the imaging center of the image acquisition device according to the distance information; obtaining the sine value of the included angle And cosine value; determine the horizontal axis position of the target object on the horizontal axis according to the horizontal coordinate position, imaging range and sine value; determine the vertical axis position of the target object on the vertical axis according to the vertical coordinate position, imaging range and cosine value; Set the position of the horizontal axis and the position of the vertical axis as the position information of the target.
  • the imaging of the image acquisition device S1 determines the abscissa position Xc between the imaging center and the target object on the horizontal axis, and the vertical axis on the vertical axis. Coordinate position Yc. And, obtain the sine value sin(a) and cosine value cos(a) of the included angle a.
  • the horizontal axis position X of the target on the horizontal axis can be determined according to the horizontal coordinate position Xc, the imaging range M 1 M 2 and the sine value sin(a):
  • the vertical axis position Y of the target on the vertical axis can be determined according to the vertical coordinate position Yc, the imaging range M 1 M 2 and the cosine value cos(a):
  • the horizontal axis position and the vertical axis position can be set as the position information (X, Y) of the target.
  • the method for determining the position information may further include: outputting the position information of the target object on the image collected by the image acquisition device for the user to view.
  • the location information of the target can be output through voice or a display screen to assist surveying and mapping personnel in laser ranging and positioning applications.
  • the image of the target object can be collected through the image acquisition device, the image and the position information of the target object can be displayed on the display screen, or the position information of the target object can be sent to the mobile terminal, and the mobile terminal can be controlled to output the target object in the image collection. Location information on the image collected by the device; etc.
  • the image capture device is a specific type of camera
  • other information of the target object can be calculated or displayed accordingly, such as the distance of the target object relative to the image capture device, or the target object’s distance Temperature, or height information of the target, etc.
  • it can also output the temperature or height of the target.
  • outputting the position information of the target object on the image collected by the image acquisition device may include: sending the position information of the target object to the mobile terminal, so that the mobile terminal outputs the image collected by the target object on the image acquisition device Location information on.
  • mobile terminals may include terminals such as mobile phones or computers.
  • the location information system can actively send the location information of the target to the mobile terminal, for example, , Can send control instructions carrying information such as the location information and image of the target to the mobile terminal, and control the mobile terminal to display the image in the display screen based on the control instruction, and output the location information of the target object by voice, or through the display screen Display the position information of the target object on the image collected by the image collecting device.
  • the location information system can store the location information of the target object and detect whether the acquisition request sent by the mobile terminal is received.
  • the acquisition request sent by the mobile terminal it can be based on The acquisition request sends the location information of the target object to the mobile terminal.
  • a control instruction carrying the location information and image information of the target object can be sent to the mobile terminal, and based on the control instruction, the mobile terminal can be controlled on the display screen.
  • the position information of the target object on the image collected by the image collecting device is displayed or voiced.
  • outputting the position information of the target object on the image collected by the image acquisition device may include: outputting the position information of the target object on the image collected by the image acquisition device through voice broadcast; or, popping up on the display interface
  • the window displays the location information of the target on the image collected by the image capture device; or, displays the image captured by the image capture device where the target is located in the display interface; marks the area where the target is located in the image, and displays it on the display interface
  • the location information of the target is displayed inside.
  • the location information determination system can output the location information of the target object on the image collected by the image acquisition device in the form of voice broadcast through its own preset voice module, or the location information determination system can The location information of the target object is sent to the voice module of the peripheral, and the voice module is controlled to output the location information of the target object on the image collected by the image acquisition device in the form of voice broadcast.
  • the position information determination system can display the image collected by the image acquisition device on its own display screen, and display a pop-up window in the display interface (that is, a pop-up dialog box) that the target object is displayed on the image acquisition device. Position information on the captured image.
  • the location information determination system can send the location information of the target to a peripheral display device (such as a mobile phone or a computer, etc.), and control the display device to display the image collected by the image capture device on the display screen, and in the display interface
  • the pop-up window displays the position information of the target on the image collected by the image acquisition device.
  • the position information determination system can display the image collected by the image acquisition device where the target object is located in the display interface of its own display screen, and mark the area where the target object is located in the image, and display it on the display interface.
  • the location information of the target is displayed in the lower or upper area of the interface.
  • the location information determination system can send the location information of the target object to an external display device (such as a mobile phone or a computer, etc.), and control the display device to display the image collected by the image capture device on the display screen, and in the image Mark the area where the target is located, and display the location information of the target in the lower or upper area of the display interface.
  • the output setting instruction input by the user can be received, and the setting can be performed according to the output mode of the position information of the output setting instruction target object.
  • marking the area where the target object is located in the image may include: determining the center position of the target object in the image; drawing a polygon or circle circumscribed to the target object according to the center position to distinguish it from the target object in the image
  • the target color of the background color is set to the color of a polygon or a circle to obtain the area where the target is located; or, extract the contour of the target from the image, and mark the area where the target is located with a preset color according to the contour.
  • the center position of the target can be determined in the image, such as the center position of the ball.
  • the quadrilateral circumscribed to the sphere is drawn to distinguish the target color from the background color of the target in the image.
  • Area, where the target color can be flexibly set according to actual needs.
  • the contour of the target can be extracted from the image, as shown in Figure 11, the contour of the ball is extracted, and the area where the target is located is marked with a preset color according to the contour.
  • the preset color can be flexible according to actual needs. set up. It is also possible to receive the color setting instruction input by the user in the setting interface, and to set the target color or preset color according to the color setting instruction.
  • the user’s usage habits for example, the habit of marking the target in red
  • characteristics for example, whether the user is red-green color blind, etc.
  • the usage habits or characteristics of the label determine the color of the target object.
  • the internal parameters and external parameters of the ranging device and the image acquisition equipment can be calibrated separately, the internal parameter matrix K of the ranging device can be constructed according to the internal parameters of the ranging device, and the external parameter matrix D of the ranging device can be constructed according to the external parameters of the ranging device. , And the external parameter matrix of the image acquisition device is constructed as P according to the external parameters of the image acquisition device.
  • the relative transformation matrix of the distance measuring device S2 and the image acquisition device S1 is calculated, and the object distance measured by the distance measuring device S2 is r (when the target 1 was plane ⁇ object distance as r1, r2, when the target object distance in the plane ⁇ 2 thereof), the spot center S2 of the distance measuring device (i.e., target) on the image pickup device can position S1
  • the spot center S2 of the distance measuring device (i.e., target) on the image pickup device can position S1
  • the target object to be detected can be determined by the distance measuring device, the imaging range of the target object on the image acquisition device, and the distance information between the imaging center and the imaging range of the image acquisition device can be obtained, and then the imaging range can be determined according to the imaging range. And distance information to determine the location information of the target.
  • the solution accurately determines the position information of the target object through the imaging range and the distance information between the imaging center and the imaging range, which improves the accuracy of indicating the position information of the target object, has good human-computer interaction, and is more user-friendly.
  • the operation is simple, and it is also conducive to the precise determination of the target position in the fields of surveying and mapping, navigation, and security.
  • the location information determining system 11 may include a processor 111 and a memory 112, and the processor 111 and the memory 112 are connected by a bus, such as an I2C (Inter-integrated Circuit) bus.
  • I2C Inter-integrated Circuit
  • the processor 111 may be a micro-controller unit (MCU), a central processing unit (CPU), a digital signal processor (Digital Signal Processor, DSP), or the like.
  • MCU micro-controller unit
  • CPU central processing unit
  • DSP Digital Signal Processor
  • the memory 112 may be a Flash chip, a read-only memory (ROM, Read-Only Memory) disk, an optical disk, a U disk, or a mobile hard disk, etc., and may be used to store computer programs.
  • ROM Read-Only Memory
  • the memory 112 may be a Flash chip, a read-only memory (ROM, Read-Only Memory) disk, an optical disk, a U disk, or a mobile hard disk, etc., and may be used to store computer programs.
  • the position information determining system 11 may also include an image acquisition device 113 and a distance measurement device 114, etc., and the types of the image acquisition device 113 and the distance measurement device 114 can be flexibly set according to actual needs.
  • the processor 111 is configured to call a computer program stored in the memory 112, and implement the location information determination method provided in the embodiment of the present application when the computer program is executed. For example, the following steps may be performed:
  • the distance measuring device 114 determines the target to be detected, acquires the imaging range of the target on the image acquisition device 113, acquires the distance information between the imaging center of the image acquisition device 113 and the imaging range, and determines according to the imaging range and distance information The location information of the target.
  • FIG. 14 is a schematic block diagram of an imaging device provided by an embodiment of the present application.
  • the imaging device 12 may include a processor 121 and a memory 122, and the processor 121 and the memory 122 are connected by a bus, such as an I2C (Inter-integrated Circuit) bus.
  • I2C Inter-integrated Circuit
  • the processor 121 may be a micro-controller unit (MCU), a central processing unit (CPU), a digital signal processor (Digital Signal Processor, DSP), or the like.
  • MCU micro-controller unit
  • CPU central processing unit
  • DSP Digital Signal Processor
  • the memory 122 may be a Flash chip, a read-only memory (ROM, Read-Only Memory) disk, an optical disk, a U disk, or a mobile hard disk, etc., and may be used to store computer programs.
  • ROM Read-Only Memory
  • the memory 122 may be a Flash chip, a read-only memory (ROM, Read-Only Memory) disk, an optical disk, a U disk, or a mobile hard disk, etc., and may be used to store computer programs.
  • the imaging device 12 may also include an image acquisition device 123, a distance measurement device 124, a display device 125, etc.
  • the types of the image acquisition device 123 and the distance measurement device 124 can be flexibly set according to actual needs, and the display device 125 can be used in the image acquisition device
  • the position information of the target object is displayed on the image collected by 123, and the display device 125 may also display other information, and the specific content is not limited here.
  • the processor 121 is configured to call a computer program stored in the memory 122, and implement the location information determination method provided in the embodiment of the present application when the computer program is executed. For example, the following steps may be performed:
  • FIG. 15 is a schematic block diagram of a pan-tilt according to an embodiment of the present application.
  • the pan/tilt head 13 may include a processor 131 and a memory 132, and the processor 131 and the memory 132 are connected by a bus, such as an I2C (Inter-integrated Circuit) bus.
  • I2C Inter-integrated Circuit
  • the processor 131 may be a micro-controller unit (MCU), a central processing unit (CPU), a digital signal processor (Digital Signal Processor, DSP), or the like.
  • MCU micro-controller unit
  • CPU central processing unit
  • DSP Digital Signal Processor
  • the memory 132 may be a Flash chip, a read-only memory (ROM, Read-Only Memory) disk, an optical disk, a U disk, or a mobile hard disk, etc., and may be used to store computer programs.
  • ROM Read-Only Memory
  • the memory 132 may be a Flash chip, a read-only memory (ROM, Read-Only Memory) disk, an optical disk, a U disk, or a mobile hard disk, etc., and may be used to store computer programs.
  • the pan/tilt head 13 may also include a position information determination system 133 and a pivot arm 134, etc.
  • the position information determination system 133 may include image acquisition equipment and distance measurement devices, etc.
  • the types of image acquisition equipment and distance measurement devices can be flexible according to actual needs.
  • the shaft arm 134 can be equipped with a position information determination system 133 so that the position information determination system 133 can move.
  • the shaft arm 134 can be used to control the distance measuring device and the image acquisition device on the position information determination system 133 to move to a suitable position, so that the distance measurement device can determine the target object, and the image acquisition device can collect an image containing the target object.
  • the processor 131 is configured to call a computer program stored in the memory 132, and implement the location information determination method provided in the embodiment of the present application when the computer program is executed. For example, the following steps may be performed:
  • FIG. 16 is a schematic block diagram of a movable platform provided by an embodiment of the present application.
  • the mobile platform 14 may include a processor 141 and a memory 142, and the processor 141 and the memory 142 are connected by a bus, such as an I2C (Inter-integrated Circuit) bus.
  • I2C Inter-integrated Circuit
  • the movable platform 14 may include a mobile terminal, a drone, a robot, or an unmanned vehicle, etc.
  • the processor 141 may be a micro-controller unit (MCU), a central processing unit (CPU), a digital signal processor (Digital Signal Processor, DSP), or the like.
  • MCU micro-controller unit
  • CPU central processing unit
  • DSP Digital Signal Processor
  • the memory 142 may be a Flash chip, a read-only memory (ROM, Read-Only Memory) disk, an optical disk, a U disk, or a mobile hard disk, etc., and may be used to store computer programs.
  • ROM Read-Only Memory
  • the memory 142 may be a Flash chip, a read-only memory (ROM, Read-Only Memory) disk, an optical disk, a U disk, or a mobile hard disk, etc., and may be used to store computer programs.
  • the movable platform 14 may also include a pan/tilt 144, a platform body 143, image acquisition equipment and distance measurement devices, etc.
  • the types of image acquisition equipment and distance measurement devices can be flexibly set according to actual needs, and the image acquisition equipment and distance measurement devices can It is mounted on a pan/tilt 144 of a movable platform, and the platform body 143 is used to mount the pan/tilt 144, so that the pan/tilt 144 can drive the distance measuring device and the image acquisition device to move.
  • the processor 141 is configured to call a computer program stored in the memory 142, and implement the location information determination method provided in the embodiment of the present application when the computer program is executed. For example, the following steps may be performed:
  • the embodiment of the present application also provides a computer program.
  • the computer program includes program instructions, and the processor executes the program instructions to implement the location information determination method provided in the embodiments of the present application.
  • the embodiment of the present application also provides a storage medium, the storage medium is a computer-readable storage medium, the storage medium stores a computer program, the computer program includes program instructions, and the processor executes the program instructions to implement the How to determine the location information.
  • the storage medium may be the position information determining system described in any of the foregoing embodiments or the internal storage unit of the movable platform, such as the hard disk or memory of the movable platform.
  • the storage medium can also be an external storage device on a removable platform, such as a plug-in hard disk equipped on a removable platform, a smart memory card (Smart Media Card, SMC), a Secure Digital (SD) card, and a flash memory card (Flash). Card) and so on.
  • the computer program stored in the storage medium can execute any method for determining position information provided in the embodiments of the present application, it can implement what can be achieved by any method for determining position information provided by the embodiments of the present application.
  • the beneficial effects refer to the previous embodiment for details, and will not be repeated here.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本申请提供一种位置信息确定方法,包括,通过测距装置确定待检测的目标物(S101);获取目标物在图像采集设备上的成像范围(S102);获取图像采集设备的成像中心与成像范围之间的距离信息(S103);根据成像范围和距离信息,确定目标物的位置信息(S104)。提高了对目标物的位置信息确定的准确性。本申请还提供了位置信息确的设备及存储介质。

Description

位置信息确定方法、设备及存储介质 技术领域
本申请涉及数据处理技术领域,尤其涉及一种位置信息确定方法、设备及存储介质。
背景技术
随着科技的发展,相机的类型以及功能越来越丰富,例如,可以通过相机的激光模块进行激光测距,通过红外相机进行红外测温,通过广角相机搜索目标,以及通过长焦相机采集清晰图像等。以相机通过激光模块进行激光测距为例,可以用于检测目标点的距离信息,而无法指示测距目标位置,特别是目标位置附近的景深信息非常丰富的时候,无法显示目标位置,对于进一步测距的准确性也会带来影响,降低了目标位置确定的准确性。
发明内容
本申请实施例提供一种位置信息确定方法、设备及存储介质,可以提高对目标物的位置信息确定的准确性。
第一方面,本申请实施例提供了一种位置信息确定方法,包括:
通过测距装置确定待检测的目标物;
获取所述目标物在图像采集设备上的成像范围;
获取图像采集设备的成像中心与所述成像范围之间的距离信息;
根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
第二方面,本申请实施例还提供了一种位置信息确定系统,所述位置信息确定系统包括:
测距装置,用于确定待检测的目标物;
图像采集设备,用于采集图像;
存储器,用于存储计算机程序;
处理器,用于调用所述存储器中的计算机程序,用于执行:
通过所述测距装置确定待检测的目标物;
获取所述目标物在图像采集设备上的成像范围;
获取所述图像采集设备的成像中心与所述成像范围之间的距离信息;
根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
第三方面,本申请实施例还提供了一种成像装置,所述成像装置包括:测距装置,用于确定待检测的目标物;
图像采集设备,用于采集图像;
显示装置,用于在所述图像上显示目标物的位置信息;
存储器,用于存储计算机程序;
处理器,用于调用所述存储器中的计算机程序,用于执行:
通过所述测距装置确定待检测的目标物;
获取所述目标物在图像采集设备上的成像范围;
获取所述图像采集设备的成像中心与所述成像范围之间的距离信息;
根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
第四方面,本申请实施例还提供了一种云台,包括:
位置信息确定系统;
轴臂,用于使所述位置信息确定系统移动;
存储器,用于存储计算机程序;
处理器,用于调用所述存储器中的计算机程序,以执行:
通过所述位置信息确定系统搭载的测距装置确定待检测的目标物;
获取所述目标物在所述位置信息确定系统搭载的图像采集设备上的成像范围;
获取所述图像采集设备的成像中心与所述成像范围之间的距离信息;
根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
第五方面,本申请实施例还提供了一种可移动平台,包括:
云台;
平台本体,用于搭载所述云台;
存储器,用于存储计算机程序;
处理器,用于调用所述存储器中的计算机程序,以执行:
通过所述云台搭载的测距装置确定待检测的目标物;
获取所述目标物在所述云台搭载的图像采集设备上的成像范围;
获取所述图像采集设备的成像中心与所述成像范围之间的距离信息;
根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
第六方面,本申请实施例还提供了一种存储介质,所述存储介质用于存储 计算机程序,所述计算机程序被处理器加载,以执行本申请实施例提供的任一种位置信息确定方法。
第七方面,本申请实施例还提供了一种计算机程序,所述计算机程序被处理器加载,以执行本申请实施例提供的任一种位置信息确定方法。
本申请实施例可以通过测距装置确定待检测的目标物,获取目标物在图像采集设备上的成像范围,以及获取图像采集设备的成像中心与成像范围之间的距离信息,然后可以根据成像范围和距离信息,确定目标物的位置信息。该方案通过成像范围、以及成像中心与成像范围之间的距离信息精准确定目标物的位置信息,提高了对目标物的位置信息的指示准确性,人机交互性好,用户友好度更高,操作简便,也有利于测绘、导航、以及安防等领域中目标位置的精准确定。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的位置信息确定系统的结构示意图;
图2是本申请实施例提供的飞行器、操控设备及显示设备交互的示意图;
图3是本申请实施例提供的位置信息确定方法的流程示意图;
图4是本申请实施例提供的确定目标物的示意图;
图5是本申请实施例提供的确定目标物的另一示意图;
图6是本申请实施例提供的测距装置和图像采集设备的成像原理的示意图;
图7是本申请实施例提供的测距装置和图像采集设备的位置关系的示意图;
图8是本申请实施例提供的目标物的位置信息显示的示意图;
图9是本申请实施例提供的目标物的位置信息显示的另一示意图;
图10是本申请实施例提供的标注目标物所在的区域的示意图;
图11是本申请实施例提供的标注目标物所在的区域的另一示意图;
图12是本申请实施例提供的测距装置和图像采集设备的空间几何关系的示意图;
图13是本申请实施例提供的位置信息确定系统的结构示意图;
图14是本申请实施例提供的成像装置的结构示意图;
图15是本申请实施例提供的云台的结构示意图;
图16是本申请实施例提供的可移动平台的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
本申请的实施例提供了一种位置信息确定方法、设备及存储介质,用于对目标物的位置信息进行检测,提高了对目标物的位置信息确定的准确性。
其中,该设备可以包括位置信息确定系统、成像装置、云台、以及可移动平台等,该存储介质为计算机可读存储介质,位置信息确定系统、成像装置、云台、以及可移动平台等的类型可以根据实际需要进行灵活设置,具体内容在此处不做限定。例如,位置信息确定系统可以包括测距装置和图像采集设备等,该测距装置可以是激光装置,该激光装置的类型、个数、以及设置位置等可以根据实际需要进行灵活设置,例如,该激光装置可以是连续激光器或脉冲激光器等,该激光装置可以为一个。该图像采集设备可以是摄像机或相机等,以相机为例,相机的类型、相机的个数、以及相机的设置位置、相机与激光装置之间的位置关系等可以根据实际需要进行灵活设置。例如,该相机可以是超广角相机、广角相机、长焦相机(即变焦相机)、红外相机、远红外相机、紫外相机、以及飞行时间测距(TOF,Time of Flight)深度相机(简称TOF深度相机)等。例如,如图1所示,图像采集设备S1和测距装置S2之间的位置关系可以在同一平面上,在该平面内图像采集设备S1和测距装置S2之间可以是在同一直线上、或者形成预设的夹角等;当然,测距装置和图像采集设备之间,特别是测距装置的信号采集点和图像采集设备的成像面也可分别位于不同的平面上,此时可以对两者之间的位置关系进行换算,详见图12及相关说明。
其中,成像装置可以包括测距装置、图像采集设备和显示装置等,该测距装置可以包括测距信号,还可以包括红外或紫外等光源,以便测距装置可以生成光斑等供图像采集设备成像的信号源,显示装置可以在图像采集设备采集到的图像上显示目标物的位置信息。云台可以包括位置信息确定系统和轴臂等,该轴臂可以使位置信息确定系统移动,例如,通过轴臂控制位置信息确定系统上的测距装置和图像采集设备等移动到合适位置,以便通过测距装置确定目标物,以及通过图像采集设备采集包含目标物的图像。该可移动平台可以包括云台、平台本体、测距装置和图像采集设备等,该平台本体可以用于搭载云台,该云台可以搭载测距装置和图像采集设备,从而使得云台可以带动测距装置和图像采集设备移动。
具体地,可移动平台的类型可以根据实际需要进行灵活设置。例如,可移动平台可以为移动终端、飞行器、机器人或车辆等,该车辆可以是无人驾驶车辆,飞行器可以包括无人机,该无人机可以包括旋翼型无人机(例如四旋翼无人机、六旋翼无人机、或八旋翼无人机等)、固定翼无人机、或者是旋翼型与固定翼无人机的组合,在此不作限定。
如图2所示,以可移动平台为飞行器为例,飞行器搭载有测距装置和图像采集设备等,该飞行器还连接有操控设备和显示设备等,其中,操控设备可以包括一个或多个遥控器,用于控制飞行器的飞行或执行相应的动作,并从飞行器中获取相应的运动信息,运动信息可以包括飞行方向、飞行姿态、飞行高度、飞行速度和位置信息等,并将获取的运动信息发送给显示设备,有显示设备进行分析及显示。操控设备还可以用于控制飞行器上的测距装置执行测距操作或图像采集设备执行拍摄等操作。
显示设备可以包括笔记本电脑、平板电脑、或手机等,可以用于接收飞行器上的测距装置或图像采集设备等发送的数据(例如图像或距离信息等),并将数据显示在显示屏幕内。显示设备还可以接收用户输入的控制指令,基于控制指令对飞行器上的测距装置或图像采集设备等进行相应的控制。例如,显示设备可以接收拍摄指令或测距指令,并将拍摄指令或测距指令发送给飞行器,飞行器可以根据拍摄指令控制图像采集设备对采集到的画面进行拍摄,或者根据测距指令控制测距装置对目标物进行测距等。
需要说明的是,图1和图2中的各设备结构并未构成对位置信息确定方法的应用场景的限定。
请参阅图3,图3是本申请一实施例提供的一种位置信息确定方法的流程示意图。该位置信息确定方法可以应用于位置信息确定系统、成像装置、云台、可移动平台等设备中,用于准确检测目标物的位置信息,以提高了对目标物的位置信息确定的准确性、效率和便捷性。以下将以位置信息确定方法应用于位置信息确定系统为例进行详细说明。
如图3所示,该位置信息确定方法可以包括步骤S101至步骤S104等,具体可以如下:
S101、通过测距装置确定待检测的目标物。
其中,目标物可以根据实际需要进行灵活选择或设置,具体内容在此处不做限定。该目标物可以是一个完整的物体,或者是一个点等,例如目标物可以是车牌、人物、动物、植物、车辆、建筑、或星体等任意物体,甚至是非固态、非三维的目标,例如火焰、云团、或水体等,只要该目标物可以经由相机感光元件的一个或多个像素点成像即可。图像采集设备可以有多种示例,例如,可以选择广角相机或长焦相机等作为图像采集设备。
目标物的确定方式可以根据实际需要进行灵活设置,例如,可以接收用户输入的选择指令来确定目标物,或者将测距装置的光斑照射到的区域作为目标物;等等。
在一些实施方式中,通过测距装置确定待检测的目标物可以包括:获取测距装置的测距信号的光斑中心点,将光斑中心点设置为待检测的目标物;或者,获取测距装置的测距信号的光斑中心点;确定光斑中心点所在的物体区域,将物体区域设置为目标物。
为了提高目标物确定的准确性和灵活性,可以获取测距装置(例如激光装置)的测距信号(例如激光信号)的中心点,例如,如图4所示,以激光装置为例,激光装置在发射出激光信号时,可以产生光斑,此时可以获取激光信号的光斑中心点,将该光斑中心点设置为待检测的目标物。
又例如,如图5所示,以激光装置为例,激光装置在发射出激光信号时,可以产生光斑,此时可以获取激光信号的光斑中心点的位置,并根据光斑中心点的位置,确定光斑中心点所在的物体区域,图5中,可以通过图像采集装置采集以光斑中心点为画面中心的图像,通过预设的识别模型对图像进行物体识别,例如,对图像进行特征提取,得到目标特征信息,该目标特征信息可以根据实际需要进行灵活设置,例如,目标特征信息可以是车牌的特征信息、某种动物 的特征信息、某种植物的特征信息或某个人的特征信息等,根据目标特征信息可以识别图像内的物体以及物体所在的物体区域,图5中可以识别得到奶牛、草、花、以及云等各自所在的区域。从而可以确定光斑中心点位于奶牛所在的区域,此时,可以将奶牛所在的区域设置为目标物。
其中,预设的识别模型可以根据实际需要进行灵活设置,例如,该识别模型可以是目标检测算法SSD或YOLO,该识别模型还可以是卷积神经网络R-CNN或Faster R-CNN等,该预设的识别模型为训练后的识别模型,例如,可以获取包含不同类型物体的多张样本图像,基于多张样本图像对识别模型进行训练,得到训练后的识别模型。
需要说明的是,当需要重新确定目标物时,可以通过调整测距装置的位置,以移动测距信号的光斑中心点,从而可以重新确定目标物。
S102、获取目标物在图像采集设备上的成像范围。
S103、获取图像采集设备的成像中心与成像范围之间的距离信息。
其中,成像范围可以是目标物在图像采集设备上的成像大小,例如目标物在相机感光元件成像区的对应范围,距离信息可以是图像采集设备的成像中心与成像范围之间的像素距离,该距离信息可以包括成像中心的横坐标位置和纵坐标位置等。
在一些实施方式中,获取目标物在图像采集设备上的成像范围,以及获取图像采集设备的成像中心与成像范围之间的距离信息可以包括:获取测距装置的测距信号确定的目标物在图像采集设备上的成像大小;获取测距信号到成像中心的成像距离;获取图像采集设备的传感器的像素大小;根据成像大小、成像距离和像素大小,确定目标物在测距装置上的成像范围,以及图像采集设备的成像中心与成像范围之间的距离信息。
为了提高成像范围和距离信息获取的可靠性和准确性,例如,根据小孔成像的原理,测距装置Z1和图像采集设备Z2的成像原理如图6所示,Z1为测距装置,Z2为图像采集设备,可以获取测距装置Z1的测距信号确定的目标物在图像采集设备Z2上的成像大小,如图6中的I1I2(即I 1I 2),其中I1、I2分别为目标物对应的成像范围投射在平面上的两个端点,I为目标物对应的成像中心投射在平面上的中心点;以及,获取测距信号到图像采集设备Z2的成像中心的成像距离C,以及获取图像采集设备Z2的传感器的像素大小u,该像素大小u的取值可以是由图像采集设备Z2的传感器的特性决定。此时,可以根据成像大小I1I2和像 素大小u,确定目标物在测距装置Z1上的成像范围M 1M 2
Figure PCTCN2020077292-appb-000001
以及根据成像距离C和像素大小u,确定图像采集设备Z2的成像中心与成像范围之间的距离信息Mc:
Figure PCTCN2020077292-appb-000002
其中,可以基于目标物对应的成像中心投射在平面上的中心点I获取测距信号到图像采集设备Z2的成像中心的成像距离C:
Figure PCTCN2020077292-appb-000003
在一些实施方式中,获取测距装置的测距信号确定的目标物在图像采集设备上的成像大小,以及获取测距信号到成像中心的成像距离可以包括:获取测距信号确定的目标物面积;获取成像中心的光轴与目标物中心之间的最短距离;获取图像采集设备的焦距,以及测距装置与目标物之间的目标物距离;根据目标物面积、最短距离、焦距和目标物距离,确定目标物在图像采集设备上的成像大小,以及测距信号到成像中心的成像距离。
为了提高成像大小和成像距离获取的准确性和灵活性,例如,如图6所示,可以获取测距信号确定的目标物面积D,以及获取成像中心的光轴与目标物中心之间的最短距离,其中目标物中心为O1O2的中点,光轴到目标物中心的最短距离=(OO1+OO2)/2,OO2为最远光斑距离(即图像采集设备的势场中心O与目标物最远边缘O2之间的距离),为OO1最近光斑距离(即图像采集设备的势场中心O与目标物最近边缘O1之间的距离)。以及获取图像采集设备的焦距f,以及获取图像采集设备与目标物之间的目标物距离L,还可以获取测距装置的测距信号的发散面的宽度w。此时,可以根据目标物面积D、成像中心的光轴与目标物中心之间的最短距离、图像采集设备与目标物之间的目标物距离L、测距装置的测距信号的发散面的宽度w以及图像采集设备的焦距f,确定测距装置的测距信号确定的目标物在图像采集设备上的成像大小I1I2(即I 1I 2):
Figure PCTCN2020077292-appb-000004
以及,根据成像中心的光轴与目标物中心之间的最短距离、图像采集设备与目标物之间的目标物距离L、以及图像采集设备的焦距f,确定测距信号到成像中心的成像距离C:
Figure PCTCN2020077292-appb-000005
在一些实施方式中,获取测距信号确定的目标物面积可以包括:获取测距装置的测距信号的发散角;获取图像采集设备与测距装置之间的位置差;根据发散角、位置差、以及目标物距离,确定目标物面积。
为了提高光斑区域获取的可靠性和效率,可以获取测距装置的测距信号的发散角R,以及以及图像采集设备与目标物之间的目标物距离L,以及获取图像采集设备与测距装置之间的位置差ΔL,此时,可以根据发散角R、位置差ΔL、以及图像采集设备与目标物之间的目标物距离L,确定目标物面积D:
D=R*(L+ΔL)
其中,当ΔL为零时,目标物面积D为:D=R*L。
在一些实施方式中,获取成像中心的光轴与目标物中心之间的最短距离可以包括:获取测距装置的测距信号的发散面的宽度;获取图像采集装置和测距装置在结构上的物理距离;根据目标物面积、发散面的宽度和物理距离,确定成像中心的光轴与目标物中心之间的最短距离。
为了提高最短距离获取的精准性,例如,如图6所示,可以获取测距装置的测距信号的发散面的宽度w,以及获取图像采集装置和测距装置在结构上的物理距离d,以及获取测距信号确定的目标物面积D,此时可以根据根据目标物面积D、发散面的宽度w和物理距离d,确定成像中心的光轴与目标物中心之间的最短距离,其中光轴到目标物中心的最短距离=(OO1+OO2)/2,最远光斑距离OO2为:OO2=d+D/2+w/2,最近光斑距离OO1为:OO1=d–D/2–w/2。
综上,当ΔL为零时,可以得到测距装置的测距信号确定的目标物在图像采集设备上的成像大小I1I2为:
Figure PCTCN2020077292-appb-000006
测距装置的测距信号到图像采集设备的成像中心的成像距离C为:
Figure PCTCN2020077292-appb-000007
目标物在图像采集设备上的成像范围M 1M 2为:
Figure PCTCN2020077292-appb-000008
图像采集设备的成像中心,与目标物在图像采集设备上的成像范围之间的距离信息Mc为:
Figure PCTCN2020077292-appb-000009
S104、根据成像范围和距离信息,确定目标物的位置信息。
其中,位置信息可以目标物在图像采集装置采集到的图像中的像素坐标。在得到目标物在图像采集设备上的成像范围M 1M 2,以及图像采集设备的成像中心与目标物在图像采集设备上的成像范围之间的距离信息Mc后,可以根据成像范围M 1M 2和距离信息Mc确定目标物的位置信息(X,Y)。该距离信息可以包括在横轴X上的横坐标位置和在纵轴Y上的纵坐标位置等,即Mc(Xc,Yc)。此时可以得到:
X=X C+M 1M 2
Y=Y C+M 1M 2
即,目标物的位置信息(X C+M 1M 2,Y C+M 1M 2)。
需要说明的是,当目标物为一个物体时,可以将目标物的中心位置、重心位置或顶角位置等作为目标物的位置信息。
在一些实施方式中,测距装置和图像采集装置在位置信息确定系统中的相对位置固定,这样可以减少位置信息确定系统的复杂度及降低位置信息确定系统的运算资源消耗。在一些实施方式中,测距装置和图像采集装置在位置信息确定系统中的相对位置可变,例如,可以根据实际需要调节测距装置和图像采集装置的相对位置,这样的方式能够保证较好的用户体验。
在一些实施方式中,根据成像范围和距离信息,确定目标物的位置信息可以包括:获取测距装置和图像采集设备之间的位置关系;根据位置关系、成像范围和距离信息,确定目标物的位置信息。
由于测距装置和图像采集设备之间可能无法保证在同一水平线上,因此,为了提高目标物的位置信息确定的精准性,可以获取测距装置和图像采集设备之间的位置关系,该位置关系可以是测距装置和图像采集设备之间的夹角。
在一些实施方式中,获取测距装置和图像采集设备之间的位置关系可以包括:获取测距装置和图像采集设备的外参;获取测距装置和图像采集设备之间的中心连线;根据外参和中心连线,确定测距装置和图像采集设备之间的夹角,得到位置关系。
当该位置关系为夹角时,为了提高位置关系获取的准确性和效率,可以通过测距装置和图像采集设备的外参来获取。具体地,可以获取测距装置和图像 采集设备的外参,该外参可以根据实际需要进行灵活设置,例如,该外参可以包括参考坐标系,如图7所示,可以建立测距装置S2和图像采集设备S1所在平面的参考坐标系,将该参考坐标系作为外参。以及获取测距装置S2和图像采集设备S1之间的中心连线,获取该中心连线与参考坐标系的纵轴之间的夹角,得到测距装置S2和图像采集设备S1之间的夹角a,即可得到位置关系。
然后,可以根据位置关系、成像范围和距离信息,确定目标物的位置信息。
在一些实施方式中,根据位置关系、成像范围和距离信息,确定目标物的位置信息可以包括:根据距离信息获取图像采集设备的成像中心的横坐标位置和纵坐标位置;获取夹角的正弦值和余弦值;根据横坐标位置、成像范围和正弦值,确定目标物在橫轴上的横轴位置;根据纵坐标位置、成像范围和余弦值,确定目标物在纵轴上的纵轴位置;将横轴位置和纵轴位置设置为目标物的位置信息。
具体地,如图7所示,当测距装置S2和图像采集设备S1之间的位置关系为测距装置S2和图像采集设备S1之间的夹角a时,可以根据图像采集设备S1的成像中心与目标物在图像采集设备S1上的成像范围之间的距离信息Mc(Xc,Yc),确定成像中心与目标物之间在横轴上的横坐标位置Xc,以及在纵轴上的纵坐标位置Yc。以及,获取夹角a的正弦值sin(a)和余弦值cos(a)。此时可以根据横坐标位置Xc、成像范围M 1M 2和正弦值sin(a),确定目标物在横轴上的横轴位置X:
X=X C+M 1M 2*sin(a)
以及,可以根据纵坐标位置Yc、成像范围M 1M 2和余弦值cos(a),确定目标物在纵轴上的纵轴位置Y:
Y=Y C+M 1M 2*cos(a)
最后可以将横轴位置和纵轴位置设置为目标物的位置信息(X,Y)。
在一些实施方式中,根据成像范围和距离信息,确定目标物的位置信息之后,位置信息确定方法还可以包括:输出目标物在图像采集设备采集到的图像上的位置信息,以供用户查看。
在得到目标物的位置信息后,为了方便有需要的用户查看,可以通过语音或显示屏等输出目标物的位置信息,以便辅助测绘人员进行激光测距及定位等应用。例如,可以通过图像采集设备采集目标物所在的图像,在显示屏内显示该图像以及目标物的位置信息,或者将目标物的位置信息发送给移动终端,并 控制移动终端输出目标物在图像采集设备采集到的图像上的位置信息;等等。
需要说明的是,当图像采集设备为特定类型的相机时,除了可以采集图像之外,还可相应计算或显示目标物的其他信息,例如目标物相对于图像采集设备的距离,或者目标物的温度,或者目标物的高度信息等,此时除了可以输出目标物的位置信息之外,还可以输出目标物的温度或高度等信息。
在一些实施方式中,输出目标物在图像采集设备采集到的图像上的位置信息可以包括:将目标物的位置信息发送给移动终端,以使得移动终端输出目标物在图像采集设备采集到的图像上的位置信息。
其中,移动终端可以包括手机或电脑等终端,为了提高位置信息输出的便捷性和灵活性,在得到目标物的位置信息后,位置信息系统可以主动将目标物的位置信息发送给移动终端,例如,可以将携带目标物的位置信息和图像等信息的控制指令发送给移动终端,并基于控制指令控制移动终端在显示屏内显示该图像,以及通过语音输出目标物的位置信息,或通过显示屏显示目标物在图像采集设备采集到的图像上的位置信息。
或者,在得到目标物的位置信息后,位置信息系统可以将目标物的位置信息进行存储,以及侦测是否接收到移动终端发送的获取请求,当接收到移动终端发送的获取请求时,可以基于该获取请求将目标物的位置信息发送给移动终端,例如,可以基于该获取请求将携带目标物的位置信息和图像等信息的控制指令发送给移动终端,并基于控制指令控制移动终端在显示屏内显示或语音播报目标物在图像采集设备采集到的图像上的位置信息。
在一些实施方式中,输出目标物在图像采集设备采集到的图像上的位置信息可以包括:通过语音播报输出目标物在图像采集设备采集到的图像上的位置信息;或者,在显示界面内弹窗显示目标物在图像采集设备采集到的图像上的位置信息;或者,在显示界面内显示目标物所在的图像采集设备采集到的图像;在图像内标注目标物所在的区域,并在显示界面内显示目标物的位置信息。
为了提高位置信息输出的多样性,例如,位置信息确定系统可以通过自身预设的语音模块以语音播报的形式输出目标物在图像采集设备采集到的图像上的位置信息,或者位置信息确定系统可以将目标物的位置信息发送给外设的语音模块,并控制该语音模块以语音播报的形式输出目标物在图像采集设备采集到的图像上的位置信息。
又例如,如图8所示,位置信息确定系统可以在自身的显示屏内显示图像采 集设备采集到的图像,以及在显示界面内弹窗显示(即弹出对话框显示)目标物在图像采集设备采集到的图像上的位置信息。或者,位置信息确定系统可以将目标物的位置信息发送给外设的显示装置(例如手机或电脑等),并控制显示装置在显示屏内显示图像采集设备采集到的图像,以及在显示界面内弹窗显示目标物在图像采集设备采集到的图像上的位置信息。
又例如,如图9所示,位置信息确定系统可以在自身显示屏的显示界面内显示目标物所在的图像采集设备采集到的图像,以及在该图像内标注目标物所在的区域,并在显示界面内下方或上方等区域显示目标物的位置信息。或者,位置信息确定系统可以将目标物的位置信息发送给外设的显示装置(例如手机或电脑等),并控制显示装置在显示屏内显示图像采集设备采集到的图像,以及在该图像内标注目标物所在的区域,并在显示界面内下方或上方等区域显示目标物的位置信息。
需要说明的是,可以接收用户输入的输出设置指令,根据输出设置指令目标物的位置信息的输出方式对进行设置。
在一些实施方式中,在图像内标注目标物所在的区域可以包括:在图像内确定目标物的中心位置;根据中心位置绘制与目标物外切的多边形或圆形,以区别于图像内目标物的背景颜色的目标颜色,设置为多边形或圆形的颜色,得到目标物所在的区域;或者,从图像中提取目标物的轮廓,根据轮廓以预设颜色标注目标物所在的区域。
为了醒目地显示目标物所在的区域,以便用户快速查看目标物,例如,如图10所示,可以在图像内确定目标物的中心位置,如球的中心位置,根据目标物的中心位置绘制与目标物外切的多边形或圆形等,图10中绘制与球外切的四边形,以区别于图像内目标物的背景颜色的目标颜色,设置为多边形或圆形的颜色,得到目标物所在的区域,其中,目标颜色可以根据实际需要进行灵活设置。或者,如图11所示,可以从图像中提取目标物的轮廓,如图11提取球的轮廓,根据轮廓以预设颜色标注目标物所在的区域,其中,预设颜色可以根据实际需要进行灵活设置。还可以在设置界面内接收用户输入的颜色设置指令,根据颜色设置指令对目标颜色或预设颜色进行设置等。
在实际应用中,还可以通过采集当前查看位置信息的用户的指纹信息,根据指纹信息来确定用户的身份信息,或者,通过摄像头采集当前查看位置信息的用户的人脸图像,通过人脸图像确定用户的身份信息等。在确定用户的身份 信息后,可以根据用户的身份信息确定该用户的使用习惯(例如习惯以红色标注目标物)或特征(例如该用户是否为红绿色盲等)等,此时可以根据该用户的使用习惯或特征等确定标注目标物的颜色。
需要说明的是,除了利用小孔成像原理确定目标物的位置信息之外,还可以利用转换物距和像距转换等确定目标物的位置信息。例如,可以分别标定测距装置和图像采集设备的的内参和外参,根据测距装置的内参构建测距装置的内参矩阵K,根据测距装置的外参构建测距装置的外参矩阵D,以及根据图像采集设备的外参构建图像采集设备的外参矩阵为P。如图12所示,根据测距装置S2和图像采集设备S1的空间几何关系,计算测距装置S2和图像采集设备S1的相对变换矩阵,测距装置S2测得的物距为r(当目标物在平面∏ 1内时物距为r1,当目标物在平面∏ 2内时物距为r2),则在图像采集设备S1上测距装置S2的光斑中心点(即目标物)的位置可以用以下公式计算,即测距装置S2和图像采集设备S1的相对变换矩阵为:
Figure PCTCN2020077292-appb-000010
对于上述计算得到的坐标点X进行归一化处理,即可得到图像采集设备S1的成像平面点x=[u,v,1]',从而可以得到目标物的位置信息x(u,v)。
本申请实施例可以通过测距装置确定待检测的目标物,获取目标物在图像采集设备上的成像范围,以及获取图像采集设备的成像中心与成像范围之间的距离信息,然后可以根据成像范围和距离信息,确定目标物的位置信息。该方案通过成像范围、以及成像中心与成像范围之间的距离信息精准确定目标物的位置信息,提高了对目标物的位置信息的指示准确性,人机交互性好,用户友好度更高,操作简便,也有利于测绘、导航、以及安防等领域中目标位置的精准确定。
请参阅图13,图13是本申请一实施例提供的位置信息确定系统的示意性框图。该位置信息确定系统11可以包括处理器111和存储器112,处理器111和存储器112通过总线连接,该总线比如为I2C(Inter-integrated Circuit)总线。
具体地,处理器111可以是微控制单元(Micro-controller Unit,MCU)、中央处理单元(Central Processing Unit,CPU)或数字信号处理器(Digital Signal Processor,DSP)等。
具体地,存储器112可以是Flash芯片、只读存储器(ROM,Read-Only Memory)磁盘、光盘、U盘或移动硬盘等,可以用于存储计算机程序。
该位置信息确定系统11还可以包括图像采集设备113和测距装置114等,图像采集设备113和测距装置114的类型可以根据实际需要进行灵活设置。
其中,处理器111用于调用存储在存储器112中的计算机程序,并在执行计算机程序时实现本申请实施例提供的位置信息确定方法,例如可以执行如下步骤:
通过测距装置114确定待检测的目标物,获取目标物在图像采集设备113上的成像范围,获取图像采集设备113的成像中心与成像范围之间的距离信息,根据成像范围和距离信息,确定目标物的位置信息。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对位置信息确定方法的详细描述,此处不再赘述。
请参阅图14,图14是本申请一实施例提供的成像装置的示意性框图。该成像装置12可以包括处理器121和存储器122,处理器121和存储器122通过总线连接,该总线比如为I2C(Inter-integrated Circuit)总线。
具体地,处理器121可以是微控制单元(Micro-controller Unit,MCU)、中央处理单元(Central Processing Unit,CPU)或数字信号处理器(Digital Signal Processor,DSP)等。
具体地,存储器122可以是Flash芯片、只读存储器(ROM,Read-Only Memory)磁盘、光盘、U盘或移动硬盘等,可以用于存储计算机程序。
成像装置12还可以包括图像采集设备123、测距装置124和显示装置125等,图像采集设备123和测距装置124的类型可以根据实际需要进行灵活设置,显示装置125可以用于在图像采集设备123采集到的图像上显示目标物的位置信息,该显示装置125还可以显示其他信息,具体内容在此处不作限定。
其中,处理器121用于调用存储在存储器122中的计算机程序,并在执行计算机程序时实现本申请实施例提供的位置信息确定方法,例如可以执行如下步骤:
通过测距装置124确定待检测的目标物,获取目标物在图像采集设备123上的成像范围,获取图像采集设备123的成像中心与成像范围之间的距离信息,根据成像范围和距离信息,确定目标物的位置信息。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详 述的部分,可以参见上文针对位置信息确定方法的详细描述,此处不再赘述。
请参阅图15,图15是本申请一实施例提供的云台的示意性框图。该云台13可以包括处理器131和存储器132,处理器131和存储器132通过总线连接,该总线比如为I2C(Inter-integrated Circuit)总线。
具体地,处理器131可以是微控制单元(Micro-controller Unit,MCU)、中央处理单元(Central Processing Unit,CPU)或数字信号处理器(Digital Signal Processor,DSP)等。
具体地,存储器132可以是Flash芯片、只读存储器(ROM,Read-Only Memory)磁盘、光盘、U盘或移动硬盘等,可以用于存储计算机程序。
该云台13还可以包括位置信息确定系统133和轴臂134等,该位置信息确定系统133可以包括图像采集设备和测距装置等,图像采集设备和测距装置的类型可以根据实际需要进行灵活设置,轴臂134可以搭载位置信息确定系统133,以使得位置信息确定系统133移动。例如,可以通过轴臂134控制位置信息确定系统133上的测距装置和图像采集设备等移动到合适位置,以便通过测距装置确定目标物,以及通过图像采集设备采集包含目标物的图像等。
其中,处理器131用于调用存储在存储器132中的计算机程序,并在执行计算机程序时实现本申请实施例提供的位置信息确定方法,例如可以执行如下步骤:
通过位置信息确定系统133搭载的测距装置确定待检测的目标物,获取目标物在位置信息确定系统133搭载的图像采集设备上的成像范围,获取图像采集设备的成像中心与成像范围之间的距离信息,根据成像范围和距离信息,确定目标物的位置信息。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对位置信息确定方法的详细描述,此处不再赘述。
请参阅图16,图16是本申请一实施例提供的可移动平台的示意性框图。该可移动平台14可以包括处理器141和存储器142,处理器141和存储器142通过总线连接,该总线比如为I2C(Inter-integrated Circuit)总线。
其中,该可移动平台14可以包括移动终端、无人机、机器人或无人驾驶车辆等。
具体地,处理器141可以是微控制单元(Micro-controller Unit,MCU)、中 央处理单元(Central Processing Unit,CPU)或数字信号处理器(Digital Signal Processor,DSP)等。
具体地,存储器142可以是Flash芯片、只读存储器(ROM,Read-Only Memory)磁盘、光盘、U盘或移动硬盘等,可以用于存储计算机程序。
该可移动平台14还可以包括云台144、平台本体143、图像采集设备和测距装置等,图像采集设备和测距装置的类型可以根据实际需要进行灵活设置,图像采集设备和测距装置可以搭载在可移动平台的云台144上,平台本体143用于搭载该云台144,从而使得云台144可以带动测距装置和图像采集设备移动。
其中,处理器141用于调用存储在存储器142中的计算机程序,并在执行计算机程序时实现本申请实施例提供的位置信息确定方法,例如可以执行如下步骤:
通过云台144搭载的测距装置确定待检测的目标物,获取目标物在云台144搭载的图像采集设备上的成像范围,获取图像采集设备的成像中心与成像范围之间的距离信息,根据成像范围和距离信息,确定目标物的位置信息。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对位置信息确定方法的详细描述,此处不再赘述。
本申请的实施例中还提供一种计算机程序,该计算机程序中包括程序指令,处理器执行程序指令,实现本申请实施例提供的位置信息确定方法。
本申请的实施例中还提供一种存储介质,该存储介质为计算机可读存储介质,该存储介质存储有计算机程序,计算机程序中包括程序指令,处理器执行程序指令,实现本申请实施例提供的位置信息确定方法。
其中,存储介质可以是前述任一实施例所述的位置信息确定系统或可移动平台的内部存储单元,例如可移动平台的硬盘或内存。存储介质也可以是可移动平台的外部存储设备,例如可移动平台上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
由于该存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种位置信息确定方法,因此,可以实现本申请实施例所提供的任一种位置信息确定方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例 的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (55)

  1. 一种位置信息确定方法,其特征在于,包括:
    通过测距装置确定待检测的目标物;
    获取所述目标物在图像采集设备上的成像范围;
    获取图像采集设备的成像中心与所述成像范围之间的距离信息;
    根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
  2. 根据权利要求1所述的位置信息确定方法,其特征在于,所述根据所述成像范围和所述距离信息,确定所述目标物的位置信息包括:
    获取所述测距装置和所述图像采集设备之间的位置关系;
    根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息。
  3. 根据权利要求2所述的位置信息确定方法,其特征在于,所述获取所述测距装置和所述图像采集设备之间的位置关系包括:
    获取所述测距装置和所述图像采集设备的外参;
    获取所述测距装置和所述图像采集设备之间的中心连线;
    根据所述外参和所述中心连线,确定所述测距装置和所述图像采集设备之间的夹角,得到位置关系。
  4. 根据权利要求3所述的位置信息确定方法,其特征在于,所述根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息包括:
    根据所述距离信息获取所述图像采集设备的成像中心的横坐标位置和纵坐标位置;
    获取所述夹角的正弦值和余弦值;
    根据所述横坐标位置、所述成像范围和所述正弦值,确定所述目标物在橫轴上的横轴位置;
    根据所述纵坐标位置、所述成像范围和所述余弦值,确定所述目标物在纵轴上的纵轴位置;
    将所述横轴位置和所述纵轴位置设置为所述目标物的位置信息。
  5. 根据权利要求1所述的位置信息确定方法,其特征在于,所述获取所述目标物在图像采集设备上的成像范围,以及获取图像采集设备的成像中心与所 述成像范围之间的距离信息包括:
    获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小;
    获取所述测距信号到所述成像中心的成像距离;
    获取所述图像采集设备的传感器的像素大小;
    根据所述成像大小、所述成像距离和所述像素大小,确定所述目标物在所述测距装置上的成像范围,以及所述图像采集设备的成像中心与所述成像范围之间的距离信息。
  6. 根据权利要求5所述的位置信息确定方法,其特征在于,所述获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小,以及获取所述测距信号到所述成像中心的成像距离包括:
    获取所述测距信号确定的目标物面积;
    获取所述成像中心的光轴与所述目标物中心之间的最短距离;
    获取所述图像采集设备的焦距,以及所述测距装置与所述目标物之间的目标物距离;
    根据所述目标物面积、所述最短距离、所述焦距和所述目标物距离,确定所述目标物在所述图像采集设备上的成像大小,以及所述测距信号到所述成像中心的成像距离。
  7. 根据权利要求6所述的位置信息确定方法,其特征在于,所述获取所述测距信号确定的目标物面积包括:
    获取所述测距装置的测距信号的发散角;
    获取所述图像采集设备与所述测距装置之间的位置差;
    根据所述发散角、所述位置差、以及所述目标物距离,确定所述目标物面积。
  8. 根据权利要求6所述的位置信息确定方法,其特征在于,所述获取所述成像中心的光轴与所述目标物中心之间的最短距离包括:
    获取所述测距装置的测距信号的发散面的宽度;
    获取所述图像采集装置和所述测距装置在结构上的物理距离;
    根据所述目标物面积、所述发散面的宽度和所述物理距离,确定所述成像中心的光轴与所述目标物中心之间的最短距离。
  9. 根据权利要求1至8任一项所述的位置信息确定方法,其特征在于,所述 根据所述成像范围和所述距离信息,确定所述目标物的位置信息之后,所述位置信息确定方法还包括:
    输出所述目标物在所述图像采集设备采集到的图像上的所述位置信息,以供用户查看。
  10. 根据权利要求9所述的位置信息确定方法,其特征在于,所述输出所述目标物在所述图像采集设备采集到的图像上的所述位置信息包括:
    将所述目标物的位置信息发送给移动终端,以使得所述移动终端输出所述目标物在所述图像采集设备采集到的图像上的所述位置信息。
  11. 根据权利要求9所述的位置信息确定方法,其特征在于,所述输出所述目标物在所述图像采集设备采集到的图像上的所述位置信息包括:
    通过语音播报输出所述目标物在所述图像采集设备采集到的图像上的所述位置信息;或者,
    在显示界面内弹窗显示所述目标物在所述图像采集设备采集到的图像上的所述位置信息;或者,
    在显示界面内显示所述目标物所在的所述图像采集设备采集到的图像;
    在所述图像内标注所述目标物所在的区域,并在显示界面内显示所述目标物的位置信息。
  12. 根据权利要求11所述的位置信息确定方法,其特征在于,所述在所述图像内标注所述目标物所在的区域包括:
    在所述图像内确定所述目标物的中心位置;
    根据所述中心位置绘制与所述目标物外切的多边形或圆形,以区别于所述图像内所述目标物的背景颜色的目标颜色,设置为所述多边形或圆形的颜色,得到所述目标物所在的区域;或者,
    从所述图像中提取所述目标物的轮廓,根据所述轮廓以预设颜色标注所述目标物所在的区域。
  13. 根据权利要求1至8任一项所述的位置信息确定方法,其特征在于,所述通过测距装置确定待检测的目标物包括:
    获取所述测距装置的测距信号的光斑中心点,将所述光斑中心点设置为待检测的目标物;或者,
    获取所述测距装置的测距信号的光斑中心点;
    确定所述光斑中心点所在的物体区域,将所述物体区域设置为目标物。
  14. 一种位置信息确定系统,其特征在于,所述位置信息确定系统包括:
    测距装置,用于确定待检测的目标物;
    图像采集设备,用于采集图像;
    存储器,用于存储计算机程序;
    处理器,用于调用所述存储器中的计算机程序,用于执行:
    通过所述测距装置确定待检测的目标物;
    获取所述目标物在图像采集设备上的成像范围;
    获取所述图像采集设备的成像中心与所述成像范围之间的距离信息;
    根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
  15. 根据权利要求14所述的位置信息确定系统,其特征在于,在根据所述成像范围和所述距离信息,确定所述目标物的位置信息时,所述处理器还执行:
    获取所述测距装置和所述图像采集设备之间的位置关系;
    根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息。
  16. 根据权利要求15所述的位置信息确定系统,其特征在于,在获取所述测距装置和所述图像采集设备之间的位置关系时,所述处理器还执行:
    获取所述测距装置和所述图像采集设备的外参;
    获取所述测距装置和所述图像采集设备之间的中心连线;
    根据所述外参和所述中心连线,确定所述测距装置和所述图像采集设备之间的夹角,得到位置关系。
  17. 根据权利要求16所述的位置信息确定系统,其特征在于,在根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息时,所述处理器还执行:
    根据所述距离信息获取所述图像采集设备的成像中心的横坐标位置和纵坐标位置;
    获取所述夹角的正弦值和余弦值;
    根据所述横坐标位置、所述成像范围和所述正弦值,确定所述目标物在橫轴上的横轴位置;
    根据所述纵坐标位置、所述成像范围和所述余弦值,确定所述目标物在纵轴上的纵轴位置;
    将所述横轴位置和所述纵轴位置设置为所述目标物的位置信息。
  18. 根据权利要求14所述的位置信息确定系统,其特征在于,在获取所述目标物在图像采集设备上的成像范围,以及获取图像采集设备的成像中心与所述成像范围之间的距离信息时,所述处理器还执行:
    获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小;
    获取所述测距信号到所述成像中心的成像距离;
    获取所述图像采集设备的传感器的像素大小;
    根据所述成像大小、所述成像距离和所述像素大小,确定所述目标物在所述测距装置上的成像范围,以及所述图像采集设备的成像中心与所述成像范围之间的距离信息。
  19. 根据权利要求18所述的位置信息确定系统,其特征在于,在获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小,以及获取所述测距信号到所述成像中心的成像距离包括时,所述处理器还执行:
    获取所述测距信号确定的目标物面积;
    获取所述成像中心的光轴与所述目标物中心之间的最短距离;
    获取所述图像采集设备的焦距,以及所述测距装置与所述目标物之间的目标物距离;
    根据所述目标物面积、所述最短距离、所述焦距和所述目标物距离,确定所述目标物在所述图像采集设备上的成像大小,以及所述测距信号到所述成像中心的成像距离。
  20. 根据权利要求19所述的位置信息确定系统,其特征在于,在获取所述测距信号确定的目标物面积时,所述处理器还执行:
    获取所述测距装置的测距信号的发散角;
    获取所述图像采集设备与所述测距装置之间的位置差;
    根据所述发散角、所述位置差、以及所述目标物距离,确定所述目标物面积。
  21. 根据权利要求19所述的位置信息确定系统,其特征在于,在获取所述成像中心的光轴与所述目标物中心之间的最短距离时,所述处理器还执行:
    获取所述测距装置的测距信号的发散面的宽度;
    获取所述图像采集装置和所述测距装置在结构上的物理距离;
    根据所述目标物面积、所述发散面的宽度和所述物理距离,确定所述成像 中心的光轴与所述目标物中心之间的最短距离。
  22. 根据权利要求14至21任一项所述的位置信息确定系统,其特征在于,在根据所述成像范围和所述距离信息,确定所述目标物的位置信息之后,所述处理器还执行:
    输出所述目标物在所述图像采集设备采集到的图像上的所述位置信息,以供用户查看。
  23. 根据权利要求14至21任一项所述的位置信息确定系统,其特征在于,在通过测距装置确定待检测的目标物时,所述处理器还执行:
    获取所述测距装置的测距信号的光斑中心点,将所述光斑中心点设置为待检测的目标物;或者,
    获取所述测距装置的测距信号的光斑中心点;
    确定所述光斑中心点所在的物体区域,将所述物体区域设置为目标物。
  24. 一种成像装置,其特征在于,包括:
    测距装置,用于确定待检测的目标物;
    图像采集设备,用于采集图像;
    显示装置,用于在所述图像上显示目标物的位置信息;
    存储器,用于存储计算机程序;
    处理器,用于调用所述存储器中的计算机程序,用于执行:
    通过所述测距装置确定待检测的目标物;
    获取所述目标物在图像采集设备上的成像范围;
    获取所述图像采集设备的成像中心与所述成像范围之间的距离信息;
    根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
  25. 根据权利要求24所述的成像装置,其特征在于,在根据所述成像范围和所述距离信息,确定所述目标物的位置信息时,所述处理器还执行:
    获取所述测距装置和所述图像采集设备之间的位置关系;
    根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息。
  26. 根据权利要求25所述的成像装置,其特征在于,在获取所述测距装置和所述图像采集设备之间的位置关系时,所述处理器还执行:
    获取所述测距装置和所述图像采集设备的外参;
    获取所述测距装置和所述图像采集设备之间的中心连线;
    根据所述外参和所述中心连线,确定所述测距装置和所述图像采集设备之间的夹角,得到位置关系。
  27. 根据权利要求26所述的成像装置,其特征在于,在根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息时,所述处理器还执行:
    根据所述距离信息获取所述图像采集设备的成像中心的横坐标位置和纵坐标位置;
    获取所述夹角的正弦值和余弦值;
    根据所述横坐标位置、所述成像范围和所述正弦值,确定所述目标物在橫轴上的横轴位置;
    根据所述纵坐标位置、所述成像范围和所述余弦值,确定所述目标物在纵轴上的纵轴位置;
    将所述横轴位置和所述纵轴位置设置为所述目标物的位置信息。
  28. 根据权利要求24所述的成像装置,其特征在于,在获取所述目标物在图像采集设备上的成像范围,以及获取图像采集设备的成像中心与所述成像范围之间的距离信息时,所述处理器还执行:
    获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小;
    获取所述测距信号到所述成像中心的成像距离;
    获取所述图像采集设备的传感器的像素大小;
    根据所述成像大小、所述成像距离和所述像素大小,确定所述目标物在所述测距装置上的成像范围,以及所述图像采集设备的成像中心与所述成像范围之间的距离信息。
  29. 根据权利要求28所述的成像装置,其特征在于,在获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小,以及获取所述测距信号到所述成像中心的成像距离包括时,所述处理器还执行:
    获取所述测距信号确定的目标物面积;
    获取所述成像中心的光轴与所述目标物中心之间的最短距离;
    获取所述图像采集设备的焦距,以及所述测距装置与所述目标物之间的目标物距离;
    根据所述目标物面积、所述最短距离、所述焦距和所述目标物距离,确定 所述目标物在所述图像采集设备上的成像大小,以及所述测距信号到所述成像中心的成像距离。
  30. 根据权利要求29所述的成像装置,其特征在于,在获取所述测距信号确定的目标物面积时,所述处理器还执行:
    获取所述测距装置的测距信号的发散角;
    获取所述图像采集设备与所述测距装置之间的位置差;
    根据所述发散角、所述位置差、以及所述目标物距离,确定所述目标物面积。
  31. 根据权利要求29所述的成像装置,其特征在于,在获取所述成像中心的光轴与所述目标物中心之间的最短距离时,所述处理器还执行:
    获取所述测距装置的测距信号的发散面的宽度;
    获取所述图像采集装置和所述测距装置在结构上的物理距离;
    根据所述目标物面积、所述发散面的宽度和所述物理距离,确定所述成像中心的光轴与所述目标物中心之间的最短距离。
  32. 根据权利要求24至31任一项所述的成像装置,其特征在于,在根据所述成像范围和所述距离信息,确定所述目标物的位置信息之后,所述处理器还执行:
    输出所述目标物在所述图像采集设备采集到的图像上的所述位置信息,以供用户查看。
  33. 根据权利要求24至31任一项所述的成像装置,其特征在于,在通过测距装置确定待检测的目标物时,所述处理器还执行:
    获取所述测距装置的测距信号的光斑中心点,将所述光斑中心点设置为待检测的目标物;或者,
    获取所述测距装置的测距信号的光斑中心点;
    确定所述光斑中心点所在的物体区域,将所述物体区域设置为目标物。
  34. 一种云台,其特征在于,包括:
    位置信息确定系统;
    轴臂,用于使所述位置信息确定系统移动;
    存储器,用于存储计算机程序;
    处理器,用于调用所述存储器中的计算机程序,以执行:
    通过所述位置信息确定系统搭载的测距装置确定待检测的目标物;
    获取所述目标物在所述位置信息确定系统搭载的图像采集设备上的成像范围;
    获取所述图像采集设备的成像中心与所述成像范围之间的距离信息;
    根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
  35. 根据权利要求34所述的云台,其特征在于,在根据所述成像范围和所述距离信息,确定所述目标物的位置信息时,所述处理器还执行:
    获取所述测距装置和所述图像采集设备之间的位置关系;
    根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息。
  36. 根据权利要求35所述的云台,其特征在于,在获取所述测距装置和所述图像采集设备之间的位置关系时,所述处理器还执行:
    获取所述测距装置和所述图像采集设备的外参;
    获取所述测距装置和所述图像采集设备之间的中心连线;
    根据所述外参和所述中心连线,确定所述测距装置和所述图像采集设备之间的夹角,得到位置关系。
  37. 根据权利要求36所述的云台,其特征在于,在根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息时,所述处理器还执行:
    根据所述距离信息获取所述图像采集设备的成像中心的横坐标位置和纵坐标位置;
    获取所述夹角的正弦值和余弦值;
    根据所述横坐标位置、所述成像范围和所述正弦值,确定所述目标物在橫轴上的横轴位置;
    根据所述纵坐标位置、所述成像范围和所述余弦值,确定所述目标物在纵轴上的纵轴位置;
    将所述横轴位置和所述纵轴位置设置为所述目标物的位置信息。
  38. 根据权利要求34所述的云台,其特征在于,在获取所述目标物在所述位置信息确定系统搭载的图像采集设备上的成像范围,以及获取所述图像采集设备的成像中心与所述成像范围之间的距离信息时,所述处理器还执行:
    获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小;
    获取所述测距信号到所述成像中心的成像距离;
    获取所述图像采集设备的传感器的像素大小;
    根据所述成像大小、所述成像距离和所述像素大小,确定所述目标物在所述测距装置上的成像范围,以及所述图像采集设备的成像中心与所述成像范围之间的距离信息。
  39. 根据权利要求38所述的云台,其特征在于,在获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小,以及获取所述测距信号到所述成像中心的成像距离包括时,所述处理器还执行:
    获取所述测距信号确定的目标物面积;
    获取所述成像中心的光轴与所述目标物中心之间的最短距离;
    获取所述图像采集设备的焦距,以及所述测距装置与所述目标物之间的目标物距离;
    根据所述目标物面积、所述最短距离、所述焦距和所述目标物距离,确定所述目标物在所述图像采集设备上的成像大小,以及所述测距信号到所述成像中心的成像距离。
  40. 根据权利要求39所述的云台,其特征在于,在获取所述测距信号确定的目标物面积时,所述处理器还执行:
    获取所述测距装置的测距信号的发散角;
    获取所述图像采集设备与所述测距装置之间的位置差;
    根据所述发散角、所述位置差、以及所述目标物距离,确定所述目标物面积。
  41. 根据权利要求39所述的云台,其特征在于,在获取所述成像中心的光轴与所述目标物中心之间的最短距离时,所述处理器还执行:
    获取所述测距装置的测距信号的发散面的宽度;
    获取所述图像采集装置和所述测距装置在结构上的物理距离;
    根据所述目标物面积、所述发散面的宽度和所述物理距离,确定所述成像中心的光轴与所述目标物中心之间的最短距离。
  42. 根据权利要求34至41任一项所述的云台,其特征在于,在根据所述成像范围和所述距离信息,确定所述目标物的位置信息之后,所述处理器还执行:
    输出所述目标物在所述图像采集设备采集到的图像上的所述位置信息,以供用户查看。
  43. 根据权利要求34至41任一项所述的云台,其特征在于,在通过所述位置信息确定系统搭载的测距装置确定待检测的目标物时,所述处理器还执行:
    获取所述测距装置的测距信号的光斑中心点,将所述光斑中心点设置为待检测的目标物;或者,
    获取所述测距装置的测距信号的光斑中心点;
    确定所述光斑中心点所在的物体区域,将所述物体区域设置为目标物。
  44. 一种可移动平台,其特征在于,包括:
    云台;
    平台本体,用于搭载所述云台;
    存储器,用于存储计算机程序;
    处理器,用于调用所述存储器中的计算机程序,以执行:
    通过所述云台搭载的测距装置确定待检测的目标物;
    获取所述目标物在所述云台搭载的图像采集设备上的成像范围;
    获取所述图像采集设备的成像中心与所述成像范围之间的距离信息;
    根据所述成像范围和所述距离信息,确定所述目标物的位置信息。
  45. 根据权利要求44所述的可移动平台,其特征在于,所述可移动平台为移动终端、飞行器、机器人或车辆。
  46. 根据权利要求44所述的可移动平台,其特征在于,在根据所述成像范围和所述距离信息,确定所述目标物的位置信息时,所述处理器还执行:
    获取所述测距装置和所述图像采集设备之间的位置关系;
    根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息。
  47. 根据权利要求46所述的可移动平台,其特征在于,在获取所述测距装置和所述图像采集设备之间的位置关系时,所述处理器还执行:
    获取所述测距装置和所述图像采集设备的外参;
    获取所述测距装置和所述图像采集设备之间的中心连线;
    根据所述外参和所述中心连线,确定所述测距装置和所述图像采集设备之间的夹角,得到位置关系。
  48. 根据权利要求47所述的可移动平台,其特征在于,在根据所述位置关系、所述成像范围和所述距离信息,确定所述目标物的位置信息时,所述处理器还执行:
    根据所述距离信息获取所述图像采集设备的成像中心的横坐标位置和纵坐标位置;
    获取所述夹角的正弦值和余弦值;
    根据所述横坐标位置、所述成像范围和所述正弦值,确定所述目标物在橫轴上的横轴位置;
    根据所述纵坐标位置、所述成像范围和所述余弦值,确定所述目标物在纵轴上的纵轴位置;
    将所述横轴位置和所述纵轴位置设置为所述目标物的位置信息。
  49. 根据权利要求44所述的可移动平台,其特征在于,在获取所述目标物在所述云台搭载的图像采集设备上的成像范围,以及获取所述图像采集设备的成像中心与所述成像范围之间的距离信息时,所述处理器还执行:
    获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小;
    获取所述测距信号到所述成像中心的成像距离;
    获取所述图像采集设备的传感器的像素大小;
    根据所述成像大小、所述成像距离和所述像素大小,确定所述目标物在所述测距装置上的成像范围,以及所述图像采集设备的成像中心与所述成像范围之间的距离信息。
  50. 根据权利要求49所述的可移动平台,其特征在于,在获取所述测距装置的测距信号确定的所述目标物在所述图像采集设备上的成像大小,以及获取所述测距信号到所述成像中心的成像距离包括时,所述处理器还执行:
    获取所述测距信号确定的目标物面积;
    获取所述成像中心的光轴与所述目标物中心之间的最短距离;
    获取所述图像采集设备的焦距,以及所述测距装置与所述目标物之间的目标物距离;
    根据所述目标物面积、所述最短距离、所述焦距和所述目标物距离,确定所述目标物在所述图像采集设备上的成像大小,以及所述测距信号到所述成像中心的成像距离。
  51. 根据权利要求50所述的可移动平台,其特征在于,在获取所述测距信号确定的目标物面积时,所述处理器还执行:
    获取所述测距装置的测距信号的发散角;
    获取所述图像采集设备与所述测距装置之间的位置差;
    根据所述发散角、所述位置差、以及所述目标物距离,确定所述目标物面积。
  52. 根据权利要求50所述的可移动平台,其特征在于,在获取所述成像中心的光轴与所述目标物中心之间的最短距离时,所述处理器还执行:
    获取所述测距装置的测距信号的发散面的宽度;
    获取所述图像采集装置和所述测距装置在结构上的物理距离;
    根据所述目标物面积、所述发散面的宽度和所述物理距离,确定所述成像中心的光轴与所述目标物中心之间的最短距离。
  53. 根据权利要求44至52任一项所述的可移动平台,其特征在于,在根据所述成像范围和所述距离信息,确定所述目标物的位置信息之后,所述处理器还执行:
    输出所述目标物在所述图像采集设备采集到的图像上的所述位置信息,以供用户查看。
  54. 根据权利要求44至52任一项所述的可移动平台,其特征在于,在通过所述云台搭载的测距装置确定待检测的目标物时,所述处理器还执行:
    获取所述测距装置的测距信号的光斑中心点,将所述光斑中心点设置为待检测的目标物;或者,
    获取所述测距装置的测距信号的光斑中心点;
    确定所述光斑中心点所在的物体区域,将所述物体区域设置为目标物。
  55. 一种存储介质,其特征在于,所述存储介质用于存储计算机程序,所述计算机程序被处理器加载以执行权利要求1至13任一项所述的位置信息确定方法。
PCT/CN2020/077292 2020-02-28 2020-02-28 位置信息确定方法、设备及存储介质 WO2021168838A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080005645.8A CN112955711A (zh) 2020-02-28 2020-02-28 位置信息确定方法、设备及存储介质
PCT/CN2020/077292 WO2021168838A1 (zh) 2020-02-28 2020-02-28 位置信息确定方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/077292 WO2021168838A1 (zh) 2020-02-28 2020-02-28 位置信息确定方法、设备及存储介质

Publications (1)

Publication Number Publication Date
WO2021168838A1 true WO2021168838A1 (zh) 2021-09-02

Family

ID=76236240

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/077292 WO2021168838A1 (zh) 2020-02-28 2020-02-28 位置信息确定方法、设备及存储介质

Country Status (2)

Country Link
CN (1) CN112955711A (zh)
WO (1) WO2021168838A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838118A (zh) * 2021-09-08 2021-12-24 杭州逗酷软件科技有限公司 距离测量方法、装置以及电子设备
CN114627186A (zh) * 2022-03-16 2022-06-14 杭州浮点智能信息技术有限公司 一种测距方法及测距装置
CN115900600A (zh) * 2023-02-21 2023-04-04 陕西深孔智越科技有限公司 一种深孔直线度及轮廓检测装置及检测方法
CN116336964A (zh) * 2023-05-31 2023-06-27 天津宜科自动化股份有限公司 一种物体轮廓信息的获取系统
WO2024103932A1 (zh) * 2022-11-16 2024-05-23 腾讯科技(深圳)有限公司 距离检测方法、装置、设备及存储介质
WO2024188074A1 (zh) * 2023-03-14 2024-09-19 杭州微影软件有限公司 光标位置的调整方法、装置及设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114155674B (zh) * 2021-12-14 2023-07-25 无锡格林通安全装备有限公司 火焰探测器的视野标定装置及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030099471A1 (en) * 2001-10-18 2003-05-29 Osamu Nonaka Distance-measuring device of camera and focusing method of camera
CN101494772A (zh) * 2009-02-13 2009-07-29 北京中星微电子有限公司 一种图像检测的方法及装置
CN108737718A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 拍摄方法、装置和智能设备
CN110326287A (zh) * 2019-05-14 2019-10-11 深圳市大疆创新科技有限公司 拍摄方法和装置
CN110533733A (zh) * 2018-05-25 2019-12-03 南京理工大学 一种基于计算鬼成像的自动搜索目标深度的方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246009A (ja) * 2012-05-24 2013-12-09 Sanyo Electric Co Ltd 物体検出装置
CN106291519A (zh) * 2015-06-05 2017-01-04 小米科技有限责任公司 测距方法及装置
CN110174093B (zh) * 2019-05-05 2022-10-28 腾讯科技(深圳)有限公司 定位方法、装置、设备和计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030099471A1 (en) * 2001-10-18 2003-05-29 Osamu Nonaka Distance-measuring device of camera and focusing method of camera
CN101494772A (zh) * 2009-02-13 2009-07-29 北京中星微电子有限公司 一种图像检测的方法及装置
CN108737718A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 拍摄方法、装置和智能设备
CN110533733A (zh) * 2018-05-25 2019-12-03 南京理工大学 一种基于计算鬼成像的自动搜索目标深度的方法
CN110326287A (zh) * 2019-05-14 2019-10-11 深圳市大疆创新科技有限公司 拍摄方法和装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838118A (zh) * 2021-09-08 2021-12-24 杭州逗酷软件科技有限公司 距离测量方法、装置以及电子设备
CN113838118B (zh) * 2021-09-08 2024-07-09 杭州逗酷软件科技有限公司 距离测量方法、装置以及电子设备
CN114627186A (zh) * 2022-03-16 2022-06-14 杭州浮点智能信息技术有限公司 一种测距方法及测距装置
WO2024103932A1 (zh) * 2022-11-16 2024-05-23 腾讯科技(深圳)有限公司 距离检测方法、装置、设备及存储介质
CN115900600A (zh) * 2023-02-21 2023-04-04 陕西深孔智越科技有限公司 一种深孔直线度及轮廓检测装置及检测方法
WO2024188074A1 (zh) * 2023-03-14 2024-09-19 杭州微影软件有限公司 光标位置的调整方法、装置及设备
CN116336964A (zh) * 2023-05-31 2023-06-27 天津宜科自动化股份有限公司 一种物体轮廓信息的获取系统
CN116336964B (zh) * 2023-05-31 2023-09-19 天津宜科自动化股份有限公司 一种物体轮廓信息的获取系统

Also Published As

Publication number Publication date
CN112955711A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
WO2021168838A1 (zh) 位置信息确定方法、设备及存储介质
WO2021223124A1 (zh) 位置信息获取方法、设备及存储介质
US12033388B2 (en) Positioning method, apparatus, device, and computer-readable storage medium
US11914370B2 (en) System and method for providing easy-to-use release and auto-positioning for drone applications
US12014468B2 (en) Capturing and aligning three-dimensional scenes
CN109387186B (zh) 测绘信息获取方法、装置、电子设备及存储介质
WO2020108647A1 (zh) 车载摄像头和车载雷达联动的目标检测方法、装置及系统
WO2019196478A1 (zh) 机器人定位
CN111344644B (zh) 用于基于运动的自动图像捕获的技术
WO2018214078A1 (zh) 拍摄控制方法及装置
JP2020030204A (ja) 距離測定方法、プログラム、距離測定システム、および可動物体
CN110799921A (zh) 拍摄方法、装置和无人机
WO2022077296A1 (zh) 三维重建方法、云台负载、可移动平台以及计算机可读存储介质
WO2019080052A1 (zh) 姿态标定方法、设备及无人飞行器
CN109801336B (zh) 基于可见光及红外光视觉的机载目标定位系统及方法
WO2022077238A1 (zh) 成像显示方法、遥控终端、装置、系统及存储介质
WO2021258251A1 (zh) 用于可移动平台的测绘方法、可移动平台和存储介质
WO2016187752A1 (zh) 一种测量天线姿态的方法和装置
WO2021138856A1 (zh) 相机控制方法、设备及计算机可读存储介质
WO2022141271A1 (zh) 云台系统的控制方法、控制设备、云台系统和存储介质
CN112330726B (zh) 一种图像处理方法及装置
CN112990187A (zh) 一种基于手持终端图像的目标位置情报生成方法
CN113646606A (zh) 一种控制方法、设备、无人机及存储介质
US20240037759A1 (en) Target tracking method, device, movable platform and computer-readable storage medium
Sarsenov et al. Detection of Objects and Trajectories in Real-time using Deep Learning by a Controlled Robot.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20921684

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20921684

Country of ref document: EP

Kind code of ref document: A1