WO2015149455A1 - 定位导航方法和装置 - Google Patents

定位导航方法和装置 Download PDF

Info

Publication number
WO2015149455A1
WO2015149455A1 PCT/CN2014/082911 CN2014082911W WO2015149455A1 WO 2015149455 A1 WO2015149455 A1 WO 2015149455A1 CN 2014082911 W CN2014082911 W CN 2014082911W WO 2015149455 A1 WO2015149455 A1 WO 2015149455A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinates
user
relative position
coordinate
coordinate point
Prior art date
Application number
PCT/CN2014/082911
Other languages
English (en)
French (fr)
Inventor
周鹏
原燕斌
Original Assignee
小米科技有限责任公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 小米科技有限责任公司 filed Critical 小米科技有限责任公司
Priority to JP2016510932A priority Critical patent/JP6116756B2/ja
Priority to RU2015134187A priority patent/RU2608971C1/ru
Priority to KR1020147026581A priority patent/KR101639312B1/ko
Priority to MX2014011940A priority patent/MX350053B/es
Priority to US14/543,106 priority patent/US9818196B2/en
Publication of WO2015149455A1 publication Critical patent/WO2015149455A1/zh

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0263Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals

Definitions

  • the present disclosure relates to the field of map positioning, and in particular, to a positioning and navigation method and apparatus. Background technique
  • map-targeting applications In everyday work and life, people often use map-targeting applications to determine their geographic location and the geographic location they need to reach their destination, and to seek access to the destination.
  • a positioning and navigation method is provided.
  • the coordinates of the current position of the user are obtained by using a positioning method such as a GPS (Global Positioning System), a base station, or a Wi-Fi (Wireless Fidelity).
  • a positioning method such as a GPS (Global Positioning System), a base station, or a Wi-Fi (Wireless Fidelity).
  • Information receiving the destination input by the user, and acquiring the coordinate information of the destination; and then determining the route to the destination based on the coordinate information of the current location and the coordinate information of the destination.
  • the gyroscope in order to solve the problem that the user with poor sense of direction cannot distinguish the orientation of the southeast and northwest in the surrounding environment, and the problem that the route cannot be successfully arrived according to the provided route, after the above three steps, the gyroscope can also be passed. Or the electronic compass obtains the orientation of the user and informs the user. In this way, the user can be guided to the direction along the line to reach the destination
  • the embodiment of the present disclosure provides a positioning navigation method and apparatus.
  • the technical solution is as follows:
  • a positioning navigation method comprising: acquiring initial coordinates of a user;
  • An environment picture obtaining a relative position between the object in the environment picture and the user; determining current location information of the user according to the relative position and the absolute coordinates.
  • the determining the current geographic location information of the user according to the relative location and the absolute coordinates includes:
  • the environment picture When the environment picture is one, according to the relative position, the absolute coordinate, and the initial coordinate Determining a current orientation of the user, and determining the initial coordinates as actual coordinates of the user; when the environment picture is two, determining the location according to the relative position, the absolute coordinates, and the initial coordinates Describe the user's current orientation and actual coordinates;
  • the current orientation and the actual coordinates of the user are determined based on the relative position and the absolute coordinates.
  • the method includes:
  • determining the current orientation and actual coordinates of the user according to the relative position, the absolute coordinate, and the initial coordinate including:
  • the determining the current orientation and the actual coordinates of the user according to the relative position and the absolute coordinates when the environment picture is three including:
  • the actual coordinates are determined based on the orientation and at least one of the relative positions.
  • the determining the current orientation and the actual coordinates of the user according to the relative position and the absolute coordinates when the environment picture is three including:
  • the predetermined condition being that the relative position is that the object is directly in front of the user, and the other relative position is that the object is positive in the user
  • the left side and the further one of the relative positions is that the object is on the right side of the user
  • the coordinates of the foot S are determined as the actual coordinates, and the direction of the foot S to the coordinate point is determined as the orientation.
  • the obtaining an environment image of a predetermined number of sheets in a predetermined geographical range corresponding to the initial coordinates includes:
  • the selecting according to the preset priority, the m candidate images according to the preset priority to obtain the candidate image sequence, and selecting the candidate image sequence from the m candidate images.
  • the environmental picture of the predetermined number n is selected in the picture sequence;
  • the obtaining the relative position between the object in the environment picture and the user includes: displaying the environment picture and the guiding information, where the guiding information is used to guide the user to face the user An object in the environment picture, and/or for guiding the user to move the environment picture in a corresponding direction according to a relative position of the object in the environment picture and itself, and/or for guiding the The user moves the environment picture to a corresponding position according to the relative position of the object in the environment picture and itself;
  • the method further includes:
  • the geographic location information, the destination coordinates, and the route are displayed.
  • a positioning navigation apparatus configured to acquire initial coordinates of a user
  • a picture acquisition module configured to acquire a predetermined number of environmental pictures in a predetermined geographic range corresponding to the initial coordinates, and obtain corresponding to each environmental picture from a preset correspondence between different environment pictures and different absolute coordinates Absolute coordinates
  • a location obtaining module configured to acquire, for each environment picture, a relative position between the object in the environment picture and the user
  • a map positioning module configured to determine a current geographic location of the user according to the relative position and the absolute coordinates location information.
  • the map positioning module includes: a first positioning unit, and/or a second positioning unit, and/or a third positioning unit;
  • the first positioning unit is configured to determine a current orientation of the user according to the relative position, the absolute coordinate, and the initial coordinate when the environment picture is one, and determine the initial coordinate as The actual coordinates of the user;
  • the second positioning unit is configured to determine, according to the relative position, the absolute coordinate, and the initial coordinate, a current orientation and an actual coordinate of the user when the environment picture is two;
  • the third positioning unit is configured to determine a current orientation and an actual coordinate of the user according to the relative position and the absolute coordinate when the environment picture is three or more.
  • the first positioning unit includes: a direction acquiring subunit and an orientation determining subunit; and the direction acquiring subunit is configured to acquire a coordinate point A of the initial coordinate to a coordinate point B of the absolute coordinate Reference direction
  • the orientation determining subunit is configured to determine the orientation according to the reference direction and the relative position.
  • the second positioning unit includes: a first positioning subunit; or a second positioning subunit; the first positioning subunit, configured to acquire a coordinate point A that passes the initial coordinate, and the a straight line AB 1 of the first coordinate point in the absolute coordinates; determining the actual coordinate according to the second coordinate point B 2 in the absolute coordinate, the straight line ABi, and the two relative positions; The coordinates and at least one of the relative positions determine the orientation;
  • the second positioning subunit is configured to respectively acquire a coordinate point A passing the initial coordinate and a straight line 8 1 of the first coordinate point of the absolute coordinate, and a coordinate point A passing the initial coordinate and the a straight line AB 2 of the second coordinate point B 2 in the absolute coordinates ; determining the orientation according to the straight line ABi, the straight line AB 2 and the two relative positions; according to the orientation and at least one of the relative positions Determine the actual coordinates.
  • the third positioning unit includes: a line acquiring subunit, a direction calculating subunit, and a coordinate calculation subunit;
  • the straight line acquisition subunit is configured to respectively acquire a coordinate point A passing through the initial coordinate and a straight line AB of the first coordinate point in the absolute coordinate through the coordinate point A of the initial coordinate and the absolute coordinate a straight line AB 2 of the second coordinate point B 2 and a straight line AB 3 passing through the coordinate point A of the initial coordinate and the third coordinate point B 3 in the absolute coordinate ;
  • the orientation calculation subunit is configured to determine the orientation according to the straight line ⁇ the straight line AB 2 , the straight line AB 3 and three relative positions;
  • the coordinate calculation subunit is configured to determine the actual coordinate according to the orientation and at least one of the relative positions.
  • the third positioning unit includes: a condition detecting subunit, a horizontal connecting subunit, and a vertical line Taking a subunit and a result determining subunit;
  • the condition detecting subunit is configured to detect whether the three relative positions satisfy a predetermined condition, where the predetermined condition is that the relative position is that the object is directly in front of the user, and the other relative position is The object is on the left side of the user and the other relative position is the object is on the right side of the user; the horizontal connection subunit is configured to detect that the predetermined condition is met, And acquiring the coordinate point B 2 corresponding to the absolute coordinate of the object on the left side of the relative position, and the straight line B 2 of the coordinate point B 3 corresponding to the absolute coordinate of the object on the right side of the positive right side. B 3 ;
  • the vertical line acquiring subunit is configured to acquire a coordinate point corresponding to an absolute coordinate of the object in front of the front position and a perpendicular line of the straight line B 2 B 3
  • the result determining subunit is configured to determine coordinates of the foot S as the actual coordinates, and to set the foot
  • the direction of S to the coordinate point is determined as the orientation.
  • the picture obtaining module includes: an alternative acquiring unit and an environment acquiring unit;
  • the candidate acquiring unit is configured to acquire m candidate pictures in a predetermined geographic range corresponding to the initial coordinates
  • the environment obtaining unit is configured to select an environment image of the predetermined number n from the m candidate images;
  • the environment obtaining unit includes: automatically acquiring a subunit; or: the user selects a subunit; the automatic obtaining subunit is configured to sort the m candidate images according to a preset priority to obtain an alternative image. Sequence, selecting the predetermined number n of environmental pictures from the candidate picture sequence;
  • the user selection subunit is configured to display part or all of the m candidate pictures, receive a selection signal corresponding to the candidate picture, and determine the predetermined number n of environment pictures according to the selection signal .
  • the location acquiring module includes: an information display unit, a signal receiving unit, and a location determining unit;
  • the information display unit is configured to display the environment picture and the guiding information, where the guiding information is used to guide the user to face an object in the environment picture, and/or to guide the user according to the The relative position of the object in the environment picture and the self moves the environment picture in a corresponding direction, and/or is used to guide the user to the environment according to the relative position of the object in the environment picture and itself The picture is moved to the corresponding location;
  • the signal receiving unit is configured to receive an input signal triggered by the user according to the guiding information, where the location determining unit is configured to determine, between the object in the environment image and the user, according to the input signal Relative position.
  • the device further includes:
  • a positioning navigation apparatus including:
  • a memory for storing executable instructions of the processor
  • the processor is configured to:
  • An environment picture obtaining a relative position between the object in the environment picture and the user; determining current location information of the user according to the relative position and the absolute coordinates.
  • the technical solution provided by the embodiment of the present disclosure eliminates the need to install hardware such as a gyroscope or an electronic compass inside the electronic device.
  • the component can obtain geographic location information including the orientation of the user, reducing the weight and volume of the electronic device, and saving production costs.
  • FIG. 1 is an exemplary flowchart of a positioning navigation method according to an exemplary embodiment.
  • FIG. 2A is an exemplary flowchart of a positioning navigation method according to another exemplary embodiment.
  • FIG. 2B is another An exemplary schematic diagram involved in acquiring a relative position in a positioning navigation method according to an exemplary embodiment;
  • FIG. 2C is another exemplary schematic diagram involved in acquiring a relative position in a positioning navigation method according to another exemplary embodiment
  • FIG. 2D is still another exemplary schematic diagram involved in acquiring a relative position in a positioning navigation method according to another exemplary embodiment
  • FIG. 2E is still another exemplary schematic diagram involved in acquiring a relative position in a positioning navigation method according to another exemplary embodiment
  • FIG. 2D is still another exemplary schematic diagram involved in acquiring a relative position in a positioning navigation method according to another exemplary embodiment
  • FIG. 2E is still another exemplary schematic diagram involved in acquiring a relative position in a positioning navigation method according to another exemplary embodiment
  • FIG. 2F is an exemplary schematic diagram involved in calculating location information in a positioning navigation method according to another exemplary embodiment
  • FIG. 2G is another exemplary schematic diagram involved in calculating location information in a positioning navigation method according to another exemplary embodiment
  • FIG. 2H is still another exemplary schematic diagram involved in calculating location information in a positioning navigation method according to another exemplary embodiment
  • FIG. 21 is still another exemplary schematic diagram involved in calculating location information in a positioning navigation method according to another exemplary embodiment
  • FIG. 3 is a schematic diagram of a positioning navigation device according to an exemplary embodiment
  • FIG. 4 is a schematic diagram of a positioning navigation device according to another exemplary embodiment
  • FIG. 5 is an exemplary block diagram of an apparatus for positioning navigation, according to an exemplary embodiment.
  • the embodiments of the present disclosure have been shown by the above-described drawings, which will be described in more detail later.
  • the drawings and the description of the figures are not intended to limit the scope of the present disclosure in any way, and the concepts of the present disclosure will be described by those skilled in the art by reference to the specific embodiments. detailed description
  • FIG. 1 is a flowchart of a positioning and navigation method according to an exemplary embodiment. This embodiment is exemplified by the positioning navigation method for an electronic device.
  • the positioning navigation method may include the following steps:
  • step 102 the initial coordinates of the user are obtained.
  • step 104 a predetermined number of environmental pictures in a predetermined geographical range corresponding to the initial coordinates are obtained, and absolute coordinates corresponding to each environmental picture are obtained from preset correspondences between different environmental pictures and different absolute coordinates. .
  • step 106 for each environment picture, obtain the relative relationship between the object and the user in the environment picture. Location.
  • step 108 the current geographic location information of the user is determined based on the relative position and the absolute coordinates.
  • the positioning and navigation method obtains a predetermined number of environmental images in a predetermined geographical range corresponding to the initial coordinates after acquiring the initial coordinates of the user, and the preset different environment images.
  • the location information of the present invention solves the problem that the hardware component of the gyroscope or the electronic compass is used to obtain the orientation of the user, which leads to an increase in the weight, the volume and the production cost of the electronic device.
  • FIG. 2A is a flowchart of a positioning and navigation method according to another exemplary embodiment. This embodiment is exemplified by the positioning navigation method for an electronic device.
  • the positioning navigation method may include the following steps: In step 201, the initial coordinates of the user are obtained.
  • the electronic device acquires the initial coordinates of the user through positioning methods such as GPS, base station or Wi-Fi.
  • the user's initial coordinates are the coordinates of the geographic location where the user is currently located in the absolute coordinate system of the Earth's coordinate system. Since the above three methods all generate different degrees of error, the initial coordinates of the user acquired by the electronic device at this time can be regarded as a relatively coarse value, that is, the initial coordinates are not necessarily the actual geographical location of the user. The actual coordinates are exactly the same.
  • the initial coordinates of the user acquired by the positioning method such as GPS, base station or Wi-Fi are two-dimensional coordinates, and the altitude of the geographical location where the user is actually located is not considered.
  • the three-dimensional initial coordinates can be obtained by the above three positioning methods, or in combination with components such as a pneumatic altimeter.
  • step 202 a predetermined number of environmental images within a predetermined geographic range corresponding to the initial coordinates are obtained.
  • the electronic device After acquiring the initial coordinates of the user, the electronic device acquires a predetermined number of environmental pictures within a predetermined geographical range corresponding to the initial coordinates.
  • This step can include the following sub-steps:
  • a plurality of candidate pictures are pre-stored in an electronic device or a server corresponding to an application for providing the positioning and navigation method according to the embodiment, and the candidate pictures are usually landmarks or winds of various places. Scenery, such as mountains, towers, tall buildings, schools, shops, etc.
  • the candidate pictures can be collected and obtained by the technicians in advance, or can be obtained by sorting the pictures uploaded by different users.
  • the electronic device or the server corresponding to the application for providing the positioning and navigation method according to the embodiment further stores a correspondence between different candidate pictures and different absolute coordinates, and the absolute coordinates are optional.
  • the geographical position of the object in the picture is the coordinate corresponding to the absolute coordinate system in the Earth's coordinate system. Normally, the absolute coordinates will be corrected and proofed for a long time. It can be considered that the absolute coordinates corresponding to each candidate image are accurate, that is, the absolute coordinates can accurately reflect the actual object in the candidate image. Geographic location.
  • the electronic device After acquiring the initial coordinates of the user, the electronic device determines a predetermined geographical range according to the initial coordinates, for example, the initial coordinate is the center of the circle, and the circular area having a radius of 500 meters is a predetermined geographical range. Thereafter, the electronic device obtains m candidate pictures whose absolute coordinates are within the predetermined geographic range.
  • an environmental picture of a predetermined number n is selected from m candidate pictures, m ⁇ n>0.
  • the m candidate images are sorted according to a preset priority to obtain an alternate image sequence, and the predetermined number n of environment images are selected from the candidate image sequence.
  • the m candidate pictures may be sorted according to the preset priority to obtain an alternative picture sequence. For example, the electronic device sorts the candidate pictures according to the distance between the absolute coordinates of the different candidate pictures and the initial coordinates, to obtain an alternative picture sequence.
  • the candidate picture sequence is from the front to the back of the m candidate images with the absolute coordinate distance from the initial coordinates from near and far.
  • the electronic device automatically selects a predetermined number n of environmental pictures from the candidate picture sequence. Under normal circumstances, the electronic device selects an alternate picture of a predetermined number n of higher priority as an environment picture.
  • the environment image is a picture of the environment around the user's current location.
  • the predetermined number n is preset by the developer. According to different algorithms provided in this embodiment, the predetermined number n may be preset to 1, 2 or 3. Of course, this embodiment does not limit other possible values of the predetermined number n.
  • part or all of the m candidate pictures are displayed, a selection signal corresponding to the candidate picture is received, and an environmental picture of a predetermined number n is determined according to the selection signal.
  • some or all of the m candidate pictures may also be displayed, that is, the candidate pictures are displayed to the user; and then the user selects a predetermined number of candidate pictures from the candidate pictures.
  • the environment picture In this case, the user can select an environment picture corresponding to an object that can be clearly seen or closer to itself according to the current actual surrounding environment, which can improve the accuracy of subsequent positioning to a certain extent, and also Can increase interaction and fun.
  • step 203 the absolute coordinates corresponding to each environment picture are obtained from the correspondence between the preset different environment pictures and different absolute coordinates.
  • the electronic device or the server corresponding to the application for providing the positioning and navigation method according to the embodiment further stores different candidate pictures and different absolute coordinates.
  • the absolute coordinate is the coordinate corresponding to the geographical position of the object in the candidate picture in the absolute coordinate system of the earth coordinate system. After acquiring the predetermined number of environmental images, the electronic device acquires the absolute coordinates corresponding to each environmental image from the above correspondence.
  • step 204 for each environment picture, the relative position between the object in the environment picture and the user is obtained.
  • the electronic device acquires the relative position between the object in the environmental picture and the user.
  • the relative position can be obtained through interaction with the user.
  • the step may include the following steps: First, displaying the environment picture and the guiding information, the guiding information is used to guide the user to face the object in the environment picture, and/or, for guiding the user according to the object in the environment picture
  • the relative position of the object moves the environment picture in the corresponding direction, and/or is used to guide the user to move the environment picture to the corresponding position according to the relative position of the object in the environment picture and itself.
  • the electronic device displays the environment picture 21 and the guidance information 22.
  • the guide information 22 is "Can you see and turn to the object in the picture?".
  • the object in the environment picture 21 is turned to the direction of the guidance information 21, and the "confirm” button 23 is pressed.
  • the electronic device acquires the relative position between the object in the environment picture and the user, and the relative position is that the object in the environment picture is directly in front of the user.
  • the guide information 22 may be "Please slide the picture in the corresponding direction according to the relative position of the object in the picture to yourself!.
  • the relative position of the object in the environment picture 21 and itself is first viewed, for example, on the right side; then the environment picture 21 is along the edge of the electronic device screen. Slide the right side a certain distance.
  • the electronic device determines the relative position between the object in the environment picture and the user according to the sliding trajectory, that is, the object in the environment picture is on the right side of the user.
  • the sliding direction can be arbitrary, and any sliding direction uniquely corresponds to a relative position. For example: sliding up the object corresponding to the environment picture in front of the user, sliding to the right corresponding to the object in the environment picture on the right side of the user, sliding to the left corresponding to the object in the environment picture on the left side of the user, down
  • the sliding corresponding to the object in the environment picture is slid at the right angle of 45° to the upper right side of the user.
  • the object corresponding to the environment picture is 45° to the right in front of the user, and 30° to the upper left corresponds to the object in the environment picture. 30° to the left in front of the user, etc.
  • the electronic device still displays the environment picture 21 and the guidance information 22.
  • the guide information 22 may be "Please face the object in the first picture, and slide the second picture in the corresponding direction according to the relative position of the object in the second picture to yourself!.
  • User look After the two environment pictures 21 and the guide information 22, according to the prompt of the guide information 22, first turn to the object in the first environment picture 21, and then view the relative position of the object in the second environment picture 21 with itself. For example, on the right side; then the second environment picture 21 is slid along the right side of the electronic device screen by a certain distance.
  • the electronic device After detecting the sliding signal of the user, the electronic device respectively acquires the relative position between the object in the two environment pictures and the user, where the relative position is that the object in the first environment picture is directly in front of the user, and the second piece The object in the environment picture is on the right side of the user.
  • the guide information 22 may also be "Please slide the picture in the corresponding direction according to the relative position of the object in the picture and your own!”.
  • the electronic device can determine the relative position between the objects in the two environment pictures and the user according to the two sliding trajectories.
  • the electronic device still displays the environment picture 21 and the guidance information 22.
  • the guide information 22 may be "Please put the picture into the corresponding position according to the relative position of the object in the picture and your own!.
  • the relative positions of the objects in the three environmental pictures 21 and themselves are respectively viewed according to the prompts of the guiding information 22, including the front side, the front side, and the right side;
  • the above three environmental pictures 21 are respectively placed in the corresponding boxes, and then the "confirm" button 23 is pressed.
  • the electronic device After receiving the confirmation signal that the user presses the "confirm” button 23, the electronic device respectively acquires the relative position between the object in the environment picture and the user, where the relative position includes the object in the first environment picture directly in front of the user, The relationship between the objects in the two environment pictures on the right side of the user and the objects in the third environment picture on the left side of the user.
  • the three relative positions of the front side, the front side, and the right side are not necessarily limited.
  • the relative position between the object and the user in the environment picture is obtained according to the sliding track of any angle, which is not specifically limited.
  • step 205 the current geographic location information of the user is determined based on the relative position and the absolute coordinates.
  • the electronic device After acquiring the relative position between the object and the user in each environment picture and the absolute coordinates of the object in each environment picture, the electronic device calculates the current geographic location information of the user according to the relative position and the absolute coordinates, and the geographic location The information includes the actual coordinates and orientation of the user.
  • the current orientation of the user is determined based on the relative position, the absolute coordinates, and the initial coordinates, and the initial coordinates are determined as the actual coordinates of the user.
  • the initial coordinates are determined as the actual coordinates of the user.
  • the initial coordinates are directly used as the actual coordinates.
  • the initial coordinates can It can be less precise, but it can also reflect the geographical location of the user's current location within the tolerance. The main thing is that the algorithm can be simplified to improve the positioning and navigation efficiency.
  • the current orientation of the user is determined based on the relative position, the absolute coordinates, and the initial coordinates.
  • the second sub-step described above may also include the following two sub-steps:
  • FIG. 2F or FIG. 2G in combination with the assumption in the absolute coordinate system (ie, the two-dimensional Cartesian coordinate system in the figure, where the vertical direction is assumed to be north and the lower is south, and the horizontal direction is assumed to be left to west and right to east) )
  • the coordinate point A (xl, yl) of the initial coordinate, and the coordinate point B (x2, y2) of the absolute coordinate obtain the coordinate point B (x2, y2) from the coordinate point A (xl, yl) of the initial coordinate to the absolute coordinate
  • the reference direction (indicated by the dashed arrow in the figure).
  • the orientation of the user is the coordinate point A (xl, yl) to
  • the reference direction of coordinate point B (x2, y2) is 90° counterclockwise (indicated by solid arrows in Figure 2G).
  • the orientation of the user is that the reference direction of the coordinate point A to the coordinate point B is 90° clockwise (not shown); or
  • the relative position is that the object in the environment picture is 30° to the left in front of the user
  • the user's orientation is that the reference direction of the coordinate point A to the coordinate point B is 30° clockwise.
  • the electronic device can determine the orientation of the user based on the reference direction and the relative position.
  • the above embodiment is only exemplified by the angle ⁇ of the orientation of the user in the absolute coordinate system and the eastward direction.
  • the orientation can be calculated in the absolute coordinate system after obtaining the orientation of the user.
  • the angle between the middle and any direction including the east direction, the north direction, the west direction, and so on.
  • the current orientation and actual coordinates of the user are determined based on the relative position, the absolute coordinates, and the initial coordinates.
  • FIG. 2D and FIG. 2 ⁇ on the left side diagram.
  • the straight line AB 1 passing through the coordinate point ⁇ of the initial coordinate and the first coordinate point in the absolute coordinate is acquired ;
  • the second coordinate point B 2 , the straight line ABi, and the two relative positions in the coordinates determine the actual coordinates;
  • the orientation is determined according to the actual coordinates and the at least one relative position.
  • the relative position between the object corresponding to the first coordinate point (x2, y2) in the absolute coordinate and the user is 30° to the left in front of the user, and the second coordinate point B in the absolute coordinate 2 (x3, y3)
  • the coordinates (x0, y0) of point S are the actual coordinates.
  • the selection of the first coordinate point of the two absolute coordinates is required to be high, and the relative position between the corresponding object and the user is accurate. Degree is directly related to the accuracy of the actual calculated coordinates and orientation. Therefore, the coordinate point corresponding to the object in front of the user is usually selected as the first coordinate point B.
  • the midpoint of the line segment AS shown in the left side of FIG. 2H may be selected as the coordinate point of the actual coordinate of the user, and the GPS positioning function of the electronic device may not be directly opened.
  • the point S in the illustration on the left side of Fig. 2H is selected as the coordinate point of the actual coordinates of the user.
  • different algorithms can be selected according to actual needs to obtain the actual coordinates of the user, which is not specifically limited in this embodiment. Set.
  • the left side of FIG. 2H is illustrated as a possible calculation method in the case where the environment picture is two sheets.
  • the environment picture is two sheets.
  • the calculation method of the second Please refer to the right side of FIG. 2D and FIG. 2H.
  • the relative position between the object and the user in the first environment picture acquired by the electronic device in the above step 203 is 30° to the left in front of the user, and in the second environment picture
  • the relative position between the object and the user is 45° to the right in front of the user.
  • the coordinate point B 2 (x3, y3) and the coordinate point A (xl, yl) of the initial coordinates are obtained by a straight line AB 2 (indicated by a broken line in the figure).
  • the first alternative orientation is determined based on the relative position between the object in the line A 8 1 and the first environment picture and the user. For example, since the relative position between the object in the first environment picture and the user is 30° to the left in front of the user, the vertex with A (xl, yl) as an angle, the line ABi is the side of the angle, along the edge Counterclockwise for 30° The direction of the ray is the first alternative direction.
  • a second alternative orientation is determined based on the relative position between the object in the line A 8 2 and the second environment picture and the user. For example, since the relative position between the object in the second environment picture and the user is 45° to the right in front of the user, the apex with A (xl, yl) as an angle and the line AB 2 be the side of the angle, ZB 2 AC 2 with a size of 45° is made clockwise.
  • the direction of the ray AC 2 is the second alternative direction.
  • the direction of the ray AC 3 is the orientation of the user.
  • the calculation method provided by the right side diagram of FIG. 2H described above simultaneously considers the positional relationship between the object and the user in the two environmental images when calculating the orientation and the actual coordinates of the user, and adopts an algorithm for averaging.
  • the orientation and actual coordinates of the user are determined according to the two alternative orientations, and the stability of the calculation result is improved.
  • the coordinate point A passing through the initial coordinates and the straight line ⁇ of the first coordinate point in the absolute coordinates are respectively acquired.
  • the coordinate point A and the straight line AB 2 of the second coordinate point B 2 in the absolute coordinate and the coordinate point A passing the initial coordinate and the straight line AB 3 of the third coordinate point B 3 in the absolute coordinate ; according to the straight line AB ⁇ straight line AB 2 , the line AB 3 and the three relative positions determine the orientation; the actual coordinates are determined according to the orientation and the at least one relative position.
  • the relative position between the object and the user in the first environment picture acquired by the electronic device in the above step 203 is 30° to the left in front of the user, in the second environment picture.
  • the relative position between the object and the user is 45° to the right in front of the user and the relative position between the object and the user in the third environment picture is 120° to the left of the user.
  • Point B 2 (x3, y3) and the coordinate point A (xl, yl) of the initial coordinates get the line AB 2; connect the third coordinate point B 3 (x4, y4) in the absolute coordinates and the coordinate point A of the initial coordinates ( Xl, yl) get the line AB 3 (indicated by the dotted line in the figure).
  • (1) determined in accordance with a first alternative orientation relative position between the first straight line 81 and the environment of the object image with the user. For example, since the relative position between the object in the first environment picture and the user is 30° to the left in front of the user, the vertex with A (xl, yl) as an angle, the line ABi is the side of the angle, along the edge Counterclockwise for 30° The direction of the ray is the first alternative direction.
  • the direction of the ray AC 5 is the orientation of the user.
  • the angle of the user's orientation in the absolute coordinate system with the eastward direction 5 arctan
  • the first calculation method when the number of sheets of the environment picture is 3 is the same as or similar to the second calculation method when the number of sheets of the environment picture is 2, and the second calculation method when the number of sheets of the environment picture is 2 can be referred to. .
  • the relative position between the object and the user in the second environment picture is 45° to the right in front of the user and the relative position between the object and the user in the third environment picture is directly in front of the user 120° to the left, so pick the point Si and the point S 2 on the line ABi, BfSOQ+AS ⁇ SQ and please refer to the middle diagram of FIG.
  • the coordinates of the midpoint of the line segment SiSs can be selected as the actual coordinates of the user (not shown in the figure) ); it is also possible to make a reverse extension line along B 3 S 2 to point S 3 and select the coordinates (x0, y0) of the midpoint S of ASiS ⁇ s as the actual coordinates of the user.
  • the orientation of the user is determined based on at least one relative position.
  • the second calculation method when the number of sheets of the above environment picture is 3 is the same as or similar to the first calculation method when the number of sheets of the environment picture is 2, and the first calculation method when the number of sheets of the environment picture is 2 can be referred to. .
  • the predetermined condition is that the relative position is that the object is directly in front of the user, the other relative position is that the object is on the right side of the user, and the other relative position is that the object is at the right side of the user. side.
  • the coordinate point B 2 corresponding to the absolute coordinate of the object whose relative position is the positive left side and the straight line B of the coordinate point B 3 corresponding to the absolute coordinate of the object whose positive position is the right side are obtained. 2 B 3 .
  • the calculation method provided at the lower end of FIG. 21 above does not need to use the initial coordinates in the process of calculating the actual coordinates and orientation of the user, so it is particularly suitable for the geographical location where the user actually lives in the case where the acquisition of the initial coordinates is less accurate. Positioning.
  • the three-dimensional initial coordinates can be combined to obtain the environment pictures of different altitudes, and the positioning and navigation on different floors in the room are realized, and the positioning and navigation method provided by the embodiment is fully improved. Scope and ease of use.
  • the electronic device may perform the following steps:
  • step 206 the destination coordinates of the user to reach the destination are obtained.
  • the electronic device acquires the destination coordinates that the user needs to reach the destination.
  • the destination name is usually entered by the user, and then the electronic device acquires the destination coordinates of the destination in the absolute coordinate system based on the destination name entered by the user.
  • step 207 at least one route is determined based on the destination coordinates and the geographic location information.
  • the electronic device determines at least one route based on the destination coordinates and geographic location information. Since the geographic location information includes the current actual coordinates of the user, after acquiring the destination coordinates and the actual coordinates, the electronic device can determine at least one route from the actual coordinates to the destination coordinate, that is, the current geographic location of the user. The route to the destination that the user needs to arrive at.
  • step 208 the geographic location information, the destination coordinates, and the route are displayed.
  • the electronic device displays the user's orientation, the user's actual coordinates, the destination coordinates, and the route, and guides the user to the destination according to the displayed information.
  • the positioning and navigation method obtains a predetermined number of environmental images in a predetermined geographical range corresponding to the initial coordinates after acquiring the initial coordinates of the user, and the preset different environment images.
  • the location information of the present invention solves the problem that the hardware component of the gyroscope or the electronic compass is used to obtain the orientation of the user, which leads to an increase in the weight, the volume and the production cost of the electronic device.
  • By installing hardware components such as a gyroscope or an electronic compass inside the electronic device geographic location information including the orientation of the user can be obtained, the weight and volume of the electronic device are reduced, and the production cost is saved.
  • the embodiment provides a plurality of methods for calculating the user orientation and the actual coordinates, and some algorithms are simple, and the positioning and navigation efficiency is high; and some algorithms using the averaging method are based on two or three devices.
  • the selection direction determines the user's orientation and actual coordinates, which improves the stability of the calculation results; and the interaction with the user is high.
  • different calculation methods can be used according to different requirements.
  • the following is an embodiment of the apparatus of the present disclosure, which may be used to implement the method embodiments of the present disclosure. For details not disclosed in the embodiments of the disclosed device, please refer to the method embodiments of the present disclosure.
  • FIG. 3 is a schematic diagram of a positioning navigation device, which may be implemented as part or all of an electronic device by software, hardware, or a combination of both, according to an exemplary embodiment.
  • the positioning and navigation device may include: an initial acquisition module 3 10, a picture acquisition module 320, a location acquisition module 330, and a map location module 340.
  • the initial acquisition module 3 10 is configured to acquire the initial coordinates of the user.
  • the image obtaining module 320 is configured to acquire a predetermined number of environmental images within a predetermined geographic range corresponding to the initial coordinates, and obtain each environmental image from a preset correspondence between different environmental images and different absolute coordinates. Corresponding absolute coordinates.
  • the location acquisition module 330 is configured to obtain a relative location between the object in the environment picture and the user for each environmental picture.
  • the map location module 340 is configured to determine current geographic location information for the user based on the relative location and the absolute coordinates.
  • the positioning navigation device obtains a predetermined number of environmental images in a predetermined geographical range corresponding to the initial coordinates after acquiring the initial coordinates of the user, and the preset different environment images.
  • FIG. 4 is a schematic diagram of a positioning navigation device, which may be implemented as part or all of an electronic device by software, hardware, or a combination of both, according to another exemplary embodiment.
  • the positioning navigation device may include: an initial acquisition module 310, a picture acquisition module 320, a location acquisition module 330, a map location module 340, a destination acquisition module 350, a line determination module 360, and a navigation display module 370.
  • the initial acquisition module 3 10 is configured to acquire the initial coordinates of the user.
  • the image obtaining module 320 is configured to acquire a predetermined number of environmental images within a predetermined geographic range corresponding to the initial coordinates, and obtain each environmental image from a preset correspondence between different environmental images and different absolute coordinates. Corresponding absolute coordinates.
  • the picture obtaining module 320 includes: an optional obtaining unit 320a and an environment obtaining unit 320b.
  • the candidate acquisition unit 320a is configured to acquire a predetermined geographic range corresponding to the initial coordinates m alternative pictures.
  • the environment acquisition unit 320b is configured to select the predetermined number n of environment pictures from the m candidate pictures.
  • the environment obtaining unit 320b includes: an automatic acquiring subunit 320M; or, the user selecting the subunit 320b2.
  • the automatic acquisition sub-unit 320M is configured to sort the m candidate pictures according to a preset priority to obtain an alternate picture sequence, and select the predetermined number n of environmental pictures from the candidate picture sequence.
  • the user selection sub-unit 320b2 is configured to display part or all of the m candidate pictures, receive a selection signal corresponding to the candidate picture, and determine the predetermined number n of environments according to the selection signal. image.
  • the location acquisition module 330 is configured to obtain a relative location between the object in the environment picture and the user for each environmental picture.
  • the location acquiring module 330 includes: an information display unit 330a, a signal receiving unit 330b, and a location determining unit 330c.
  • the information display unit 330a is configured to display the environment picture and the guide information, the guide information is used to guide the user to face an object in the environment picture, and/or to guide the user And moving the environmental picture in a corresponding direction according to the relative position of the object in the environment picture and the self, and/or, for guiding the user according to the relative position of the object in the environment picture and the self
  • the environment image is moved to the corresponding location.
  • the signal receiving unit 330b is configured to receive an input signal that the user triggers according to the guidance information.
  • the position determining unit 330c is configured to determine a relative position between the object in the environment picture and the user based on the input signal.
  • the map location module 340 is configured to determine current geographic location information for the user based on the relative location and the absolute coordinates.
  • the map positioning module 340 includes: a first positioning unit 340a, and/or a second positioning unit 340b, and/or a third positioning unit 340c.
  • the first positioning unit 340a is configured to determine a current orientation of the user according to the relative position, the absolute coordinate, and the initial coordinate when the environment picture is one, and determine the initial coordinate Is the actual coordinates of the user.
  • the first positioning unit 340a includes: a direction acquiring subunit 340a1 and an orientation determining subunit 340a2.
  • the direction acquisition sub-unit 340a1 is configured to acquire a reference direction of the coordinate point A of the initial coordinate to the coordinate point B of the absolute coordinate.
  • the orientation determining sub-unit 340a2 is configured to determine the orientation based on the reference direction and the relative position.
  • the second positioning unit 340b is configured to determine the current orientation and actual coordinates of the user according to the relative position, the absolute coordinates, and the initial coordinates when the environment picture is two sheets.
  • the second positioning unit 340b includes: a first positioning subunit 340M; or a second positioning subunit 340b2.
  • the first positioning sub-unit 340M is configured to acquire a straight line ABi passing through the coordinate point A of the initial coordinate and the first coordinate point in the absolute coordinate, and the second coordinate point B in the absolute coordinate 2 , the straight line ABi and the two relative positions determine the actual coordinates; the orientation is determined according to the actual coordinates and at least one of the relative positions.
  • the second positioning sub-unit 340b2 is configured to respectively acquire a coordinate point A passing the initial coordinate and a straight line 8 1 of the first coordinate point of the absolute coordinate, and a coordinate point A and the coordinate point passing the initial coordinate a straight line AB 2 of the second coordinate point B 2 in the absolute coordinates ; determining the orientation according to the straight line AB 2 and the two relative positions; according to the orientation and at least one of the relative positions Determine the actual coordinates.
  • the third positioning unit 340c is configured to determine the current orientation and actual coordinates of the user according to the relative position and the absolute coordinates when the environment picture is 3 or more.
  • the third positioning unit 340c includes: a straight line obtaining subunit 340cl, an orientation calculating subunit 340c2, and a coordinate calculating subunit 340c3.
  • the straight line acquisition subunit 340cl is configured to respectively acquire a coordinate point A passing through the initial coordinate and a straight line ⁇ of the first coordinate point in the absolute coordinate, a coordinate point A passing through the initial coordinate, and the absolute coordinate A straight line AB 2 of the second coordinate point B 2 and a coordinate point A passing the initial coordinate and a straight line AB 3 of the third coordinate point B 3 in the absolute coordinate.
  • the orientation calculation sub-unit 340c2 is configured to determine the orientation according to the line ⁇ the line AB 2 , the line AB 3 and the three relative positions.
  • the coordinate calculation sub-unit 340c3 is configured to determine the actual coordinates based on the orientation and at least one of the relative positions.
  • the third positioning unit 340c includes: a condition detecting subunit 340c4, a horizontal connecting subunit 340c5, a vertical line obtaining subunit 340c6, and a result determining subunit 340c7.
  • the condition detecting sub-unit 340c4 is configured to detect whether three of the relative positions satisfy a predetermined condition, the predetermined condition being that the relative position is that the object is directly in front of the user, and the other of the relative positions The object is on the right side of the user and the other relative position is that the object is on the right side of the user.
  • the lateral connection sub-unit 340c5 is configured to, if it is detected that the predetermined condition is satisfied, acquire the coordinate point B 2 corresponding to the absolute coordinate of the object whose front position is the left side, and the relative position is Said positive Absolute coordinates of the object on the right side of the coordinate point corresponding to the straight line B 3 to B 2 B 3.
  • the perpendicular acquisition sub-unit 340c6 is configured to acquire a coordinate point corresponding to an absolute coordinate of the object in front of the object and a perpendicular ⁇ of the line B 2 B 3 .
  • the result determination sub-unit 340c7 is configured to determine the coordinates of the foot S as the actual coordinates, and determine the direction of the foot S to the coordinate point as the orientation.
  • the destination acquisition module 350 is configured to obtain a destination coordinate that the user needs to reach the destination.
  • the line determination module 360 is configured to determine at least one route based on the destination coordinates and the geographic location information.
  • the navigation display module 370 is configured to display the geographic location information, the destination coordinates, and the route.
  • the positioning navigation device obtains a predetermined number of environmental images in a predetermined geographical range corresponding to the initial coordinates after acquiring the initial coordinates of the user, and the preset different environment images.
  • the embodiment provides a plurality of methods for calculating the user orientation and the actual coordinates, and some algorithms are simple, and the positioning and navigation efficiency is high; and some algorithms using the averaging method are based on two or three preparations.
  • the selection direction determines the user's orientation and actual coordinates, which improves the stability of the calculation results; and the interaction with the user is high.
  • different calculation methods can be adopted according to different requirements.
  • FIG. 5 is a block diagram of an apparatus for positioning navigation, according to an exemplary embodiment.
  • device 500 can be a mobile phone, a computer, a digital broadcast terminal, a messaging device, a gaming console, a tablet device, a medical device, a fitness device, a personal digital assistant, and the like.
  • apparatus 500 can include one or more of the following components: processing component 502, memory 504, power component 506, multimedia component 508, audio component 510, input/output (I/O) interface 512, sensor component 514, And a communication component 516.
  • Processing component 502 typically controls the overall operation of device 500, such as operations associated with display, telephone calls, data communications, camera operations, and recording operations.
  • Processing component 502 can include one or more processors 520 to execute instructions to perform all or part of the steps described above. Additionally, processing component 502 can include a One or more modules facilitate handling of interactions between component 502 and other components. For example, processing component 502 can include a multimedia module to facilitate interaction between multimedia component 508 and processing component 502.
  • Memory 504 is configured to store various types of data to support operation at device 500. Examples of such data include instructions for any application or method operating on device 500, contact data, phone book data, messages, pictures, videos, and the like.
  • the memory 504 can be implemented by any type of volatile or non-volatile storage device, or a combination thereof, such as static random access memory (SRAM), electrically erasable programmable read only memory (EEPROM), erasable.
  • SRAM static random access memory
  • EEPROM electrically erasable programmable read only memory
  • EPROM Electrically erasable programmable read only memory
  • PROM Programmable Read Only Memory
  • ROM Read Only Memory
  • Magnetic Memory Flash Memory
  • Disk Disk or Optical Disk.
  • Power component 506 provides power to various components of device 500.
  • Power component 506 can include a power management system, one or more power sources, and other components associated with generating, managing, and distributing power for device 500.
  • the multimedia component 508 includes a screen between the device 500 and the user that provides an output interface.
  • the screen can include a liquid crystal display (LCD) and a touch panel (TP). If the screen includes a touch panel, the screen can be implemented as a touch screen to receive input signals from the user.
  • the touch panel includes one or more touch sensors to sense touches, swipes, and gestures on the touch panel. The touch sensor can sense not only the boundary of the touch or sliding action, but also the duration and pressure associated with the touch or slide operation.
  • the multimedia component 508 includes a front camera and/or a rear camera. When the device 500 is in an operation mode, such as a shooting mode or a video mode, the front camera and/or the rear camera can receive external multimedia data. Each front and rear camera can be a fixed optical lens system or have focal length and optical zoom capabilities.
  • Audio component 510 is configured to output and/or input audio signals.
  • audio component 510 includes a microphone (MIC) that is configured to receive an external audio signal when device 500 is in an operational mode, such as a call mode, a recording mode, and a voice recognition mode.
  • the received audio signal may be further stored in memory 504 or transmitted via communication component 516.
  • audio component 510 also includes a speaker for outputting an audio signal.
  • the I/O interface 512 provides an interface between the processing component 502 and the peripheral interface module, which may be a keyboard, a click wheel, a button, or the like. These buttons can include, but are not limited to: Home button, Volume button, Start button, and Lock button.
  • Sensor assembly 514 includes one or more sensors for providing device 500 with various aspects of status assessment.
  • sensor component 514 can detect an open/closed state of device 500, relative positioning of components, such as the display and keypad of device 500, and sensor component 514 can also detect the location of device 500 or device 500 components. The presence or absence of contact by the user with the device 500, the orientation or acceleration/deceleration of the device 500, and the temperature change of the device 500.
  • Sensor assembly 514 can include a proximity sensor configured to detect the presence of nearby objects without any physical contact.
  • Sensor assembly 514 may also include a light sensor, such as a CMOS or CCD image sensor, for use in imaging applications.
  • the sensor component 514 can also include an acceleration sensor, a gyro sensor, a magnetic sensor, a pressure sensor Or temperature sensor.
  • Communication component 516 is configured to facilitate wired or wireless communication between device 500 and other devices.
  • the device 500 can access a wireless network based on a communication standard, such as WiFi, 2G or 3G, or a combination thereof.
  • communication component 516 receives broadcast signals or broadcast associated information from an external broadcast management system via a broadcast channel.
  • the communication component 516 also includes a near field communication (NFC) module to facilitate short range communication.
  • NFC near field communication
  • the NFC module can be implemented based on radio frequency identification (RFID) technology, infrared data association (IrDA) technology, ultra-wideband (UWB) technology, Bluetooth (BT) technology, and other technologies.
  • RFID radio frequency identification
  • IrDA infrared data association
  • UWB ultra-wideband
  • Bluetooth Bluetooth
  • device 500 may be implemented by one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable A gate array (FPGA), controller, microcontroller, microprocessor, or other electronic component implementation for performing the above methods.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGA field programmable A gate array
  • controller microcontroller, microprocessor, or other electronic component implementation for performing the above methods.
  • non-transitory computer readable storage medium comprising instructions, such as a memory 504 comprising instructions executable by processor 520 of apparatus 500 to perform the above method.
  • the non-transitory computer readable storage medium may be a ROM, a random access memory (RAM), a CD-ROM, a magnetic tape, a floppy disk, and an optical data storage device.
  • a non-transitory computer readable storage medium when instructions in the storage medium are executed by a processor of apparatus 500, to enable apparatus 500 to perform the positioning navigation method illustrated in Figure 1 or Figure 2A above.
  • Other embodiments of the invention will be apparent to those skilled in the ⁇ RTIgt;
  • the present application is intended to cover any variations, uses, or adaptations of the present invention, which are in accordance with the general principles of the invention and include common general knowledge or common technical means in the art that are not disclosed in the present disclosure. .
  • the specification and examples are to be regarded as illustrative only,

Abstract

本公开是关于一种定位导航方法和装置,属于地图定位领域。所述方法包括:获取用户的初始坐标;获取与初始坐标相对应的预定地理范围内的预定张数的环境图片,并从预设的不同环境图片与不同绝对坐标的对应关系中获取每张环境图片对应的绝对坐标;对于每张环境图片,获取环境图片中的物体与用户之间的相对位置;根据相对位置和绝对坐标确定用户的地理位置信息。本公开解决了背景技术中采用陀螺仪或者电子罗盘之类的硬件获取用户的朝向,导致增加设备重量、体积和生产成本的问题;本公开实施例提供的技术方案,无需在电子设备内部安装陀螺仪或者电子罗盘之类的硬件即可获取用户的地理位置信息,减少了电子设备的重量、体积和生产成本。

Description

定位导航方法和装置 本申请基于申请号为 201410126006.3、申请日为 2014年 3月 31 日的中国专利申 请提出, 并要求该中国专利申请的优先权, 该中国专利申请的全部内容在此引入本申 请作为参考。 技术领域
本公开涉及地图定位领域, 特别涉及一种定位导航方法和装置。 背景技术
在日常工作和生活中,人们常常会用到一些具有地图定位功能的应用以确定自身 所处的地理位置以及所需到达目的地的地理位置, 并且寻求获得到达该目的地的路 线。
在相关技术中, 提供了一种定位导航方法, 首先通过 GPS (Global Positioning System, 全球定位系统) 、 基站或者 Wi-Fi (Wireless Fidelity, 无线保真) 之类的定位方式获取用 户当前位置的坐标信息; 然后接收用户输入的目的地, 并获取目的地的坐标信息; 然后根 据当前位置的坐标信息以及目的地的坐标信息确定出到达该目的地的线路。在一个定位导 航方法中, 为了解决方向感较差的用户无法区分周围环境下东南西北的方位, 导致无法顺 利根据提供的线路到达目的地的问题, 在上述三个步骤之后, 还可以通过陀螺仪或者电子 罗盘获取用户的朝向并告知给用户。 这样, 便可引导用户转向至沿线路的方向, 从而顺利 到达目的地。 发明内容
为了解决背景技术中采用陀螺仪或者电子罗盘之类的硬件组件获取用户的朝向, 导致增加电子设备的重量、体积和生产成本的问题, 本公开实施例提供了一种定位导 航方法和装置。 所述技术方案如下:
根据本公开实施例的第一方面, 提供了一种定位导航方法, 所述方法包括: 获取用户的初始坐标;
获取与所述初始坐标相对应的预定地理范围内的预定张数的环境图片,并从预设 的不同环境图片与不同绝对坐标的对应关系中获取每一张环境图片对应的绝对坐标; 对于每一张环境图片, 获取所述环境图片中的物体与所述用户之间的相对位置; 根据所述相对位置和所述绝对坐标确定所述用户当前的地理位置信息。
可选地,所述根据所述相对位置和所述绝对坐标确定所述用户当前的地理位置信 息, 包括:
当所述环境图片为 1张时, 根据所述相对位置、所述绝对坐标和所述初始坐标确 定所述用户当前的朝向, 并将所述初始坐标确定为所述用户的实际坐标; 当所述环境图片为 2张时, 根据所述相对位置、所述绝对坐标和所述初始坐标确 定所述用户当前的朝向和实际坐标;
当所述环境图片为 3张或 3张以上时,根据所述相对位置和所述绝对坐标确定所 述用户当前的朝向和实际坐标。
可选地, 所述当所述环境图片为 1张时, 根据所述相对位置、 所述绝对坐标和所 述初始坐标确定所述用户当前的朝向, 包括:
获取所述初始坐标的坐标点 A至所述绝对坐标的坐标点 B的参考方向; 根据所述参考方向和所述相对位置确定所述朝向。
可选地, 所述当所述环境图片为 2张时, 根据所述相对位置、 所述绝对坐标和所 述初始坐标确定所述用户当前的朝向和实际坐标, 包括:
获取经过所述初始坐标的坐标点 A和所述绝对坐标中的第一个坐标点 的直线 ΑΒι ; 根据所述绝对坐标中的第二个坐标点 B2、 所述直线 ABi和两个所述相对位置 确定所述实际坐标; 根据所述实际坐标和至少一个所述相对位置确定所述朝向; 或者,
分别获取经过所述初始坐标的坐标点 A以及所述绝对坐标中的第一个坐标点 的直线 ABi和经过所述初始坐标的坐标点 A以及所述绝对坐标中的第二个坐标点 B2 的直线 AB2 ; 根据所述直线 AB 所述直线 AB2和两个所述相对位置确定所述朝向; 根据所述朝向和至少一个所述相对位置确定所述实际坐标。
可选地, 所述当所述环境图片为 3张时, 根据所述相对位置和所述绝对坐标确定 所述用户当前的朝向和实际坐标, 包括:
分别获取经过所述初始坐标的坐标点 A以及所述绝对坐标中的第一个坐标点 的直线 ΑΒ 经过所述初始坐标的坐标点 A以及所述绝对坐标中的第二个坐标点 B2 的直线 AB2以及经过所述初始坐标的坐标点 A以及所述绝对坐标中的第三个坐标点 B3的直线 AB3 ;
根据所述直线 AB 所述直线 AB2、所述直线 AB3和三个所述相对位置确定所述 朝向;
根据所述朝向和至少一个所述相对位置确定所述实际坐标。
可选地, 所述当所述环境图片为 3张时, 根据所述相对位置和所述绝对坐标确定 所述用户当前的朝向和实际坐标, 包括:
检测三个所述相对位置是否满足预定条件,所述预定条件为一个所述相对位置为 所述物体在所述用户的正前方、另一个所述相对位置为所述物体在所述用户的正左侧 且再一个所述相对位置为所述物体在所述用户的正右侧;
若检测出满足所述预定条件,则获取过所述相对位置为所述正左侧的物体的绝对 坐标对应的坐标点 B2和所述相对位置为所述正右侧的物体的绝对坐标对应的坐标点 B3的直线 B2B3;
获取所述相对位置为所述正前方的物体的绝对坐标对应的坐标点 与所述直线 B2B3的垂线 BiS ;
将垂足 S的坐标确定为所述实际坐标, 并将所述垂足 S至所述坐标点 的方向 确定为所述朝向。
可选地,所述获取与所述初始坐标相对应的预定地理范围内的预定张数的环境图 片, 包括:
获取与所述初始坐标相对应的预定地理范围内的 m张备选图片;
从所述 m张备选图片中选取所述预定张数 n的环境图片;
其中, m≥n〉0。
可选地, 所述从所述 m张备选图片中选取所述预定张数 n的环境图片, 包括: 根据预设优先级对所述 m张备选图片进行排序得到备选图片序列, 从所述备选 图片序列中选取所述预定张数 n的环境图片;
或者,
将所述 m张备选图片中的部分或者全部进行显示, 接收对应于所述备选图片的 选择信号, 根据所述选择信号确定所述预定张数 n的环境图片。
可选地, 所述获取所述环境图片中的物体与所述用户之间的相对位置, 包括: 将所述环境图片和引导信息进行显示,所述引导信息用于引导所述用户正对所述 环境图片中的物体, 和 /或, 用于引导所述用户根据所述环境图片中的物体与自身的 相对位置将所述环境图片沿对应方向进行移动, 和 /或, 用于引导所述用户根据所述 环境图片中的物体与自身的相对位置将所述环境图片移动至对应位置;
接收所述用户根据所述引导信息所触发的输入信号;
根据所述输入信号确定所述环境图片中的物体与所述用户之间的相对位置。 可选地, 所述方法还包括:
获取所述用户所需到达目的地的目的坐标;
根据所述目的坐标和所述地理位置信息确定至少一条路线;
将所述地理位置信息、 所述目的坐标和所述路线进行显示。
根据本公开实施例的第二方面, 提供了一种定位导航装置, 所述装置包括: 初始获取模块, 用于获取用户的初始坐标;
图片获取模块,用于获取与所述初始坐标相对应的预定地理范围内的预定张数的 环境图片,并从预设的不同环境图片与不同绝对坐标的对应关系中获取每一张环境图 片对应的绝对坐标;
位置获取模块, 用于对于每一张环境图片, 获取所述环境图片中的物体与所述用 户之间的相对位置;
地图定位模块,用于根据所述相对位置和所述绝对坐标确定所述用户当前的地理 位置信息。
可选地, 所述地图定位模块, 包括: 第一定位单元, 和 /或, 第二定位单元, 和 / 或, 第三定位单元;
所述第一定位单元, 用于当所述环境图片为 1张时, 根据所述相对位置、 所述绝 对坐标和所述初始坐标确定所述用户当前的朝向,并将所述初始坐标确定为所述用户 的实际坐标;
所述第二定位单元, 用于当所述环境图片为 2张时, 根据所述相对位置、 所述绝 对坐标和所述初始坐标确定所述用户当前的朝向和实际坐标;
所述第三定位单元, 用于当所述环境图片为 3张或 3张以上时, 根据所述相对位 置和所述绝对坐标确定所述用户当前的朝向和实际坐标。
可选地, 所述第一定位单元, 包括: 方向获取子单元和朝向确定子单元; 所述方向获取子单元, 用于获取所述初始坐标的坐标点 A至所述绝对坐标的坐 标点 B的参考方向;
所述朝向确定子单元, 用于根据所述参考方向和所述相对位置确定所述朝向。 可选地, 所述第二定位单元, 包括: 第一定位子单元; 或者, 第二定位子单元; 所述第一定位子单元, 用于获取经过所述初始坐标的坐标点 A和所述绝对坐标 中的第一个坐标点 的直线 AB1 ; 根据所述绝对坐标中的第二个坐标点 B2、 所述直 线 ABi和两个所述相对位置确定所述实际坐标; 根据所述实际坐标和至少一个所述 相对位置确定所述朝向;
所述第二定位子单元, 用于分别获取经过所述初始坐标的坐标点 A 以及所述绝 对坐标中的第一个坐标点 的直线 81和经过所述初始坐标的坐标点 A以及所述绝 对坐标中的第二个坐标点 B2的直线 AB2 ; 根据所述直线 ABi、 所述直线 AB2和两个 所述相对位置确定所述朝向;根据所述朝向和至少一个所述相对位置确定所述实际坐 标。
可选地, 所述第三定位单元, 包括: 直线获取子单元、 朝向计算子单元和坐标计 算子单元;
所述直线获取子单元, 用于分别获取经过所述初始坐标的坐标点 A 以及所述绝 对坐标中的第一个坐标点 的直线 AB 经过所述初始坐标的坐标点 A以及所述绝 对坐标中的第二个坐标点 B2的直线 AB2以及经过所述初始坐标的坐标点 A以及所述 绝对坐标中的第三个坐标点 B3的直线 AB3 ;
所述朝向计算子单元, 用于根据所述直线 ΑΒ 所述直线 AB2、 所述直线 AB3 和三个所述相对位置确定所述朝向;
所述坐标计算子单元,用于根据所述朝向和至少一个所述相对位置确定所述实际 坐标。
可选地, 所述第三定位单元, 包括: 条件检测子单元、 横向连线子单元、 垂线获 取子单元和结果确定子单元;
所述条件检测子单元, 用于检测三个所述相对位置是否满足预定条件, 所述预定 条件为一个所述相对位置为所述物体在所述用户的正前方、另一个所述相对位置为所 述物体在所述用户的正左侧且再一个所述相对位置为所述物体在所述用户的正右侧; 所述横向连线子单元, 用于若检测出满足所述预定条件, 则获取过所述相对位置 为所述正左侧的物体的绝对坐标对应的坐标点 B2和所述相对位置为所述正右侧的物 体的绝对坐标对应的坐标点 B3的直线 B2B3 ;
所述垂线获取子单元,用于获取所述相对位置为所述正前方的物体的绝对坐标对 应的坐标点 与所述直线 B2B3的垂线
所述结果确定子单元, 用于将垂足 S的坐标确定为所述实际坐标, 并将所述垂足
S至所述坐标点 的方向确定为所述朝向。
可选地, 所述图片获取模块, 包括: 备选获取单元和环境获取单元;
所述备选获取单元, 用于获取与所述初始坐标相对应的预定地理范围内的 m张 备选图片;
所述环境获取单元, 用于从所述 m张备选图片中选取所述预定张数 n的环境图 片;
其中, m≥n〉0。
可选地, 所述环境获取单元, 包括: 自动获取子单元; 或者, 用户选取子单元; 所述自动获取子单元, 用于根据预设优先级对所述 m张备选图片进行排序得到 备选图片序列, 从所述备选图片序列中选取所述预定张数 n的环境图片;
所述用户选取子单元, 用于将所述 m张备选图片中的部分或者全部进行显示, 接收对应于所述备选图片的选择信号,根据所述选择信号确定所述预定张数 n的环境 图片。
可选地, 所述位置获取模块, 包括: 信息显示单元、 信号接收单元和位置确定单 元;
所述信息显示单元, 用于将所述环境图片和引导信息进行显示, 所述引导信息用 于引导所述用户正对所述环境图片中的物体, 和 /或, 用于引导所述用户根据所述环 境图片中的物体与自身的相对位置将所述环境图片沿对应方向进行移动, 和 /或, 用 于引导所述用户根据所述环境图片中的物体与自身的相对位置将所述环境图片移动 至对应位置;
所述信号接收单元, 用于接收所述用户根据所述引导信息所触发的输入信号; 所述位置确定单元,用于根据所述输入信号确定所述环境图片中的物体与所述用 户之间的相对位置。
可选地, 所述装置还包括:
目的获取模块, 用于获取所述用户所需到达目的地的目的坐标; 线路确定模块, 用于根据所述目的坐标和所述地理位置信息确定至少一条路线; 导航显示模块, 用于将所述地理位置信息、 所述目的坐标和所述路线进行显示。 根据本公开实施例的第三方面, 提供了一种定位导航装置, 包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中, 所述处理器被配置为:
获取用户的初始坐标;
获取与所述初始坐标相对应的预定地理范围内的预定张数的环境图片,并从预设 的不同环境图片与不同绝对坐标的对应关系中获取每一张环境图片对应的绝对坐标; 对于每一张环境图片, 获取所述环境图片中的物体与所述用户之间的相对位置; 根据所述相对位置和所述绝对坐标确定所述用户当前的地理位置信息。
本公开实施例提供的技术方案的一些有益效果可以包括:
通过在获取用户的初始坐标之后,获取与初始坐标相对应的预定地理范围内的预 定张数的环境图片,并从预设的不同环境图片与不同绝对坐标的对应关系中获取每一 张环境图片对应的绝对坐标, 对于每一张环境图片, 获取环境图片中的物体与用户之 间的相对位置, 然后根据相对位置和绝对坐标确定用户当前的地理位置信息; 解决了 背景技术中采用陀螺仪或者电子罗盘之类的硬件组件获取用户的朝向,导致增加电子 设备的重量、 体积和生产成本的问题; 本公开实施例提供的技术方案, 无需在电子设 备内部安装陀螺仪或者电子罗盘之类的硬件组件即可获取包括用户的朝向在内的地 理位置信息, 减少了电子设备的重量和体积, 节约了生产成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。 附图说明
为了更清楚地说明本公开的实施例,下面将对实施例描述中所需要使用的附图作 简单地介绍, 显而易见地, 下面描述中的附图仅仅是本公开的一些实施例, 对于本领 域普通技术人员来讲, 在不付出创造性劳动的前提下, 还可以根据这些附图获得其他 的附图。
图 1是根据一示例性实施例示出的一种定位导航方法的示例性流程图; 图 2A是根据另一示例性实施例示出的一种定位导航方法的示例性流程图; 图 2B是根据另一示例性实施例示出的一种定位导航方法中在获取相对位置时涉 及的一种示例性示意图;
图 2C是根据另一示例性实施例示出的一种定位导航方法中在获取相对位置时涉 及的另一示例性示意图;
图 2D是根据另一示例性实施例示出的一种定位导航方法中在获取相对位置时涉 及的再一示例性示意图; 图 2E是根据另一示例性实施例示出的一种定位导航方法中在获取相对位置时涉 及的还一示例性示意图;
图 2F是根据另一示例性实施例示出的一种定位导航方法中在地理位置信息计算 时涉及的一种示例性示意图;
图 2G是根据另一示例性实施例示出的一种定位导航方法中在地理位置信息计算 时涉及的另一示例性示意图;
图 2H是根据另一示例性实施例示出的一种定位导航方法中在地理位置信息计算 时涉及的再一示例性示意图;
图 21是根据另一示例性实施例示出的一种定位导航方法中在地理位置信息计算 时涉及的还一示例性示意图;
图 3是根据一示例性实施例示出的一种定位导航装置的示意图;
图 4是根据另一示例性实施例示出的一种定位导航装置的示意图;
图 5是根据一示例性实施例示出的一种用于定位导航的装置的示例性框图。 通过上述附图, 已示出本公开明确的实施例, 后文中将有更详细的描述。 这些附图和文 字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领 域技术人员说明本公开的概念。 具体实施方式
为了使本公开的目的、技术方案和优点更加清楚, 下面将结合附图对本公开作进 一步地详细描述, 显然, 所描述的实施例仅仅是本公开一部份实施例, 而不是全部的 实施例。基于本公开中的实施例, 本领域普通技术人员在没有做出创造性劳动前提下 所获得的所有其它实施例, 都属于本公开保护的范围。
首先需要说明的是, 在本公开各个实施例中, 所涉及的电子设备可以是手机、 平 板电脑、 电子书阅读器、 MP3播放器 ( Moving Picture Experts Group Audio Layer III, 动态影像专家压缩标准音频层面 3 )、 MP4 ( Moving Picture Experts Group Audio Layer IV, 动态影像专家压缩标准音频层面 3 ) 播放器、 膝上型便携计算机和台式计算机等 等。 图 1是根据一示例性实施例示出的一种定位导航方法的流程图,本实施例以该定 位导航方法用于电子设备来举例说明。 该定位导航方法可以包括如下步骤:
在步骤 102中, 获取用户的初始坐标。
在步骤 104 中, 获取与初始坐标相对应的预定地理范围内的预定张数的环境图 片,并从预设的不同环境图片与不同绝对坐标的对应关系中获取每一张环境图片对应 的绝对坐标。
在步骤 106中, 对于每一张环境图片, 获取环境图片中的物体与用户之间的相对 位置。
在步骤 108中, 根据相对位置和绝对坐标确定用户当前的地理位置信息。
综上所述, 本实施例提供的定位导航方法, 通过在获取用户的初始坐标之后, 获 取与初始坐标相对应的预定地理范围内的预定张数的环境图片,并从预设的不同环境 图片与不同绝对坐标的对应关系中获取每一张环境图片对应的绝对坐标,对于每一张 环境图片, 获取环境图片中的物体与用户之间的相对位置, 然后根据相对位置和绝对 坐标确定用户当前的地理位置信息;解决了背景技术中采用陀螺仪或者电子罗盘之类 的硬件组件获取用户的朝向, 导致增加电子设备的重量、 体积和生产成本的问题; 本 实施例提供的定位导航方法,无需在电子设备内部安装陀螺仪或者电子罗盘之类的硬 件组件即可获取包括用户的朝向在内的地理位置信息, 减少了电子设备的重量和体 积, 节约了生产成本。 图 2A是根据另一示例性实施例示出的一种定位导航方法的流程图, 本实施例以 该定位导航方法用于电子设备来举例说明。 该定位导航方法可以包括如下步骤: 在步骤 201中, 获取用户的初始坐标。
电子设备通过 GPS、基站或者 Wi-Fi等定位方式获取用户的初始坐标。用户的初 始坐标为用户当前所处的地理位置在以地球为坐标系的绝对坐标系中所对应的坐标。 由于上述三种方式均会产生不同程度的误差,因此此时电子设备获取到的用户的初始 坐标可以认为是一个较为粗略的值,也即该初始坐标不一定与用户当前实际所处的地 理位置的实际坐标完全相同。
比如, 通过 GPS定位获取的初始坐标与用户当前的实际坐标之间可能存在 15米 左右的误差。再比如, 通过基站定位或者 Wi-Fi定位获取的初始坐标与用户当前的实 际坐标之间可能存在几十甚至几百米的误差。
另外, 上述通过 GPS、基站或者 Wi-Fi等定位方式获取到的用户的初始坐标为二 维坐标, 并没有考虑用户实际所处的地理位置的海拔高度。 在一个实施例中, 可以通 过上述三种定位方式、 或者进一步结合气压式高度表之类的组件获取三维的初始坐 标。
在步骤 202 中, 获取与初始坐标相对应的预定地理范围内的预定张数的环境图 片。
电子设备在获取用户的初始坐标之后,获取与初始坐标相对应的预定地理范围内 的预定张数的环境图片。
本步骤可以包括如下几个子步骤:
第一, 获取与初始坐标相对应的预定地理范围内的 m张备选图片。
在电子设备或者与用于提供本实施例涉及的定位导航方法的应用程序所对应的 服务器中预先存储若干张备选图片, 备选图片通常为各个地方的标志性建筑或者风 景, 比如山峰、 高塔、 高楼、 学校、 商店等等。 备选图片可以由技术人员预先去各地 采集获取, 也可以对不同用户上传的图片进行整理后获取。
另外,电子设备或者与用于提供本实施例涉及的定位导航方法的应用程序所对应 的服务器中还存储有不同的备选图片与不同的绝对坐标之间的对应关系,该绝对坐标 为备选图片中的物体实际所处的地理位置在以地球为坐标系的绝对坐标系中所对应 的坐标。 通常情况下, 该绝对坐标会经过长时间的修正以及校对, 可以认为每一张备 选图片对应的绝对坐标是精确的,也即该绝对坐标能够精确地反映出备选图片中的物 体实际所处的地理位置。
电子设备在获取用户的初始坐标之后, 根据初始坐标确定一个预定地理范围, 比 如以初始坐标为圆心, 500米为半径的圆形区域为预定地理范围。 之后, 电子设备获 取绝对坐标在该预定地理范围内的 m张备选图片。
第二, 从 m张备选图片中选取预定张数 n的环境图片, m≥n〉0。
在第一种可能的实现方式中, 根据预设优先级对 m张备选图片进行排序得到备 选图片序列, 从备选图片序列中选取预定张数 n的环境图片。
电子设备得到与初始坐标相对应的预定地理范围内的 m张备选图片之后, 可以 根据预设优先级对 m张备选图片进行排序得到备选图片序列。 比如, 电子设备根据 不同备选图片所对应的绝对坐标距离初始坐标的远近程度对备选图片进行排序,得到 一个备选图片序列。其中, 备选图片序列由前至后依次为绝对坐标距离初始坐标由近 及远的 m张备选图片。
之后, 电子设备自动从备选图片序列中选取预定张数 n的环境图片。在通常情况 下, 电子设备选取优先级较高的预定张数 n的备选图片为环境图片。环境图片是指用 户当前实际所处的地理位置周围环境的图片。其中,预定张数 n由研发人员预先设定, 根据本实施例后续提供的不同算法, 该预定张数 n可以预先设定为 1、 2或 3。 当然, 本实施例并不限定预定张数 n的其它可能取值。
在第二种可能的实现方式中, 将 m张备选图片中的部分或者全部进行显示, 接 收对应于备选图片的选择信号, 根据选择信号确定预定张数 n的环境图片。
电子设备得到 m张备选图片之后, 还可以将 m张备选图片中的部分或者全部进 行显示, 也即将备选图片展示给用户看; 然后由用户从这些备选图片中选取预定张数 n的备选图片为环境图片。 在这种情况下, 用户可以根据当前实际的周围环境, 选取 自身所能明确看到或者距离自身较近的物体所对应的环境图片,这在一定程度上可以 提高后续定位的准确度, 同时也可以提高互动和趣味性。
在步骤 203中,从预设的不同环境图片与不同绝对坐标的对应关系中获取每一张 环境图片对应的绝对坐标。
在上述步骤 202中已经介绍,电子设备或者与用于提供本实施例涉及的定位导航 方法的应用程序所对应的服务器中还存储有不同的备选图片与不同的绝对坐标之间 的对应关系,该绝对坐标为备选图片中的物体实际所处的地理位置在以地球为坐标系 的绝对坐标系中所对应的坐标。 电子设备在获取预定张数的环境图片之后, 从上述对 应关系中获取每一张环境图片对应的绝对坐标。
在步骤 204中, 对于每一张环境图片, 获取环境图片中的物体与用户之间的相对 位置。
对于每一张环境图片, 电子设备获取环境图片中的物体与用户之间的相对位置。 其中, 相对位置可以通过与用户之间的交互获得。 本步骤可以包括如下几个步骤: 第一、将环境图片和引导信息进行显示, 引导信息用于引导用户正对环境图片中 的物体, 和 /或, 用于引导用户根据环境图片中的物体与自身的相对位置将环境图片 沿对应方向进行移动, 和 /或, 用于引导用户根据环境图片中的物体与自身的相对位 置将环境图片移动至对应位置。
第二、 接收用户根据引导信息所触发的输入信号。
第三、 根据输入信号确定环境图片中的物体与用户之间的相对位置。
请结合参考图 2B, 当预定张数 n=l时, 电子设备将环境图片 21和引导信息 22 进行显示。 比如, 引导信息 22为"您能看到并转向正对图片中的物体吗? "。 用户看 到环境图片 21和引导信息 22之后, 根据引导信息 21 的提示转向正对环境图片 21 中的物体, 并按下 "确认 "按钮 23。 电子设备接收到用户按下"确认"按钮 23的确认信 号之后, 获取环境图片中的物体与用户之间的相对位置, 该相对位置即为环境图片中 的物体在用户的正前方。
请结合参考图 2C, 当预定张数 n=l时, 电子设备仍然将环境图片 21和引导信息
22进行显示。 此时, 引导信息 22可以是"请您根据图片中物体与您自身的相对位置 将图片沿对应方向进行滑动! "。 用户看到环境图片 21和引导信息 22之后, 根据引 导信息 22的提示首先査看环境图片 21中的物体与自身的相对位置, 比如在正右侧; 然后将环境图片 21在电子设备屏幕中沿正右侧滑动一定距离。 电子设备检测到用户 的滑动信号之后, 根据滑动轨迹确定环境图片中的物体与用户之间的相对位置, 该相 对位置即为环境图片中的物体在用户的正右侧。
当然,滑动方向可以是任意的,任一滑动方向都唯一对应于一个相对位置。比如: 向上滑动对应于环境图片中的物体在用户正前方、向右滑动对应于环境图片中的物体 在用户正右侧、 向左滑动对应于环境图片中的物体在用户正左侧、 向下滑动对应于环 境图片中的物体在用户正后方、 向右上方 45°角滑动对应于环境图片中的物体在用户 正前方偏右 45°、向左上方 30°角滑动对应于环境图片中的物体在用户正前方偏左 30° 等等。
请结合参考图 2D, 当预定张数 n=2时, 电子设备仍然将环境图片 21和引导信息 22进行显示。 此时, 引导信息 22可以是 "请您正对第一张图片中的物体, 并根据第 二张图片中物体与您自身的相对位置将第二张图片沿对应方向进行滑动! "。 用户看 到两张环境图片 21和引导信息 22之后, 根据引导信息 22的提示首先转向正对第一 张环境图片 21中的物体, 然后査看第二张环境图片 21中的物体与自身的相对位置, 比如在正右侧;然后将第二张环境图片 21在电子设备屏幕中沿正右侧滑动一定距离。 电子设备检测到用户的滑动信号之后,分别获取两张环境图片中的物体与用户之间的 相对位置, 该相对位置即为第一张环境图片中的物体在用户的正前方, 且第二张环境 图片中的物体在用户的正右侧。
当然, 在其它可能的实施方式中, 当预定张数为 2时, 引导信息 22还可以是"请 您根据图片中物体与您自身的相对位置分别将图片沿对应方向进行滑动! "。 这样, 电子设备可以根据两条滑动轨迹分别确定上述两张环境图片中的物体与用户之间的 相对位置。
请结合参考图 2E, 当预定张数 n=3时, 电子设备仍然将环境图片 21和引导信息 22进行显示。 此时, 引导信息 22可以是"请您根据图片中物体与您自身的相对位置 分别将图片放入对应位置! "。 用户看到三张环境图片 21和引导信息 22之后, 根据 引导信息 22的提示分别査看三张环境图片 21中的物体与自身的相对位置,包括正前 方、 正左侧和正右侧; 然后将上述三张环境图片 21分别放入对应的方框中, 并随后 按下"确认"按钮 23。 电子设备接收到用户按下"确认"按钮 23的确认信号之后, 分别 获取环境图片中的物体与用户之间的相对位置,该相对位置包括第一张环境图片中的 物体在用户正前方、第二张环境图片中的物体在用户正右侧且第三张环境图片中的物 体在用户正左侧的关系。
当然, 图 2E中仅示出了一种较为简单的实施方式, 在其它可能的实施方式中, 可以不必限定于正前方、 正左侧和正右侧这三种相对位置, 仍然可以参考图 2C中的 实施方式, 根据任意角度的滑动轨迹获取环境图片中的物体与用户之间的相对位置, 对此不作具体限定。
在步骤 205中, 根据相对位置和绝对坐标确定用户当前的地理位置信息。
电子设备获取每一张环境图片中的物体与用户之间的相对位置以及每一张环境 图片中的物体的绝对坐标之后,根据相对位置和绝对坐标计算出用户当前的地理位置 信息, 该地理位置信息包括用户的实际坐标和朝向。
下面, 针对上述图 2B-图 2E示出的不同实施方式, 将分别对地理位置信息的计 算进行详细介绍和说明。
在第一种可能的实现方式中, 以预定张数 n=l来举例说明:
请结合参考图 2B和图 2F, 或者, 图 2C和图 2G。 当环境图片为 1张时, 根据相 对位置、绝对坐标和初始坐标确定用户当前的朝向, 并将初始坐标确定为用户的实际 坐标。
第一、 将初始坐标确定为用户的实际坐标。
在环境图片为 1张的情况下, 直接采用初始坐标作为实际坐标。虽然初始坐标可 能不太精确, 但是也能够在误差允许的范围内反映用户当前实际所处的地理位置。最 主要的是, 可以简化算法, 提高定位导航效率。
第二、 根据相对位置、 绝对坐标和初始坐标确定用户当前的朝向。
上述第二个子步骤还可以包括如下两个子步骤:
1、 获取初始坐标的坐标点 A至绝对坐标的坐标点 B的参考方向。
请结合参考图 2F或者图 2G, 假设在绝对坐标系中 (即图中的二维直角坐标系, 其中垂直方向上假定上为北且下为南, 水平方向上假定左为西且右为东)初始坐标的 坐标点 A (xl, yl) , 绝对坐标的坐标点 B (x2, y2) , 获取由初始坐标的坐标点 A (xl, yl) 至绝对坐标的坐标点 B (x2, y2) 的参考方向 (图中以虚线箭头表示) 。
2、 根据参考方向和相对位置确定朝向。
请结合参考图 2B和图 2F,当环境图片中的物体与用户之间的相对位置为物体在 用户的正前方时, 坐标点 A (xl, yl) 至坐标点 B (x2, y2) 的参考方向即为用户的 朝向 (图 2F中以实线箭头表示) 。 之后, 可进一步计算出该朝向在绝对坐标系中与 正东方向的夹角 δ= arctan| (y2-yl) I (x2-xl) |。
请结合参考图 2C和图 2G, 当环境图片中的物体与用户之间的相对位置为环境 图片中的物体在用户的正右侧时,用户的朝向即为坐标点 A(xl,yl)至坐标点 B(x2, y2) 的参考方向沿逆时针方向偏 90° (图 2G中以实线箭头表示) 。 之后, 可进一步 计算出该朝向在绝对坐标系中与正东方向的夹角 5=arctan| (x2-xl) I (y2-yl) |。
另外, 当相对位置为环境图片中的物体在用户的正左侧时, 用户的朝向即为坐标 点 A至坐标点 B的参考方向沿顺时针方向偏 90° (图中未示出) ; 或者, 当相对位置 为环境图片中的物体在用户正前方偏左 30°时, 用户的朝向即为坐标点 A至坐标点 B 的参考方向沿顺时针方向偏 30°。 以此类推, 电子设备可以根据参考方向和相对位置 确定出用户的朝向。
需要说明的是, 上述实施例仅以用户的朝向在绝对坐标系中与正东方向的夹角 δ 来举例说明, 在实际应用中, 在得到用户的朝向之后可计算出该朝向在绝对坐标系中 与任一方向的夹角, 包括正东方向、 正北方向、 正西方向等等。
在第二种可能的实现方式中, 以预定张数 η=2来举例说明:
当环境图片为 2张时, 根据相对位置、绝对坐标和初始坐标确定用户当前的朝向 和实际坐标。
第一、 请结合参考图 2D和图 2Η左侧图示, 当预定张数 η=2时, 获取经过初始 坐标的坐标点 Α和绝对坐标中的第一个坐标点 的直线 AB1; 根据绝对坐标中的第 二个坐标点 B2、 直线 ABi和两个相对位置确定实际坐标; 根据实际坐标和至少一个 相对位置确定朝向。
1、 获取经过初始坐标的坐标点 A和绝对坐标中的第一个坐标点 的直线 AB^ 在环境图片的张数为 2的情况下,首先从两个绝对坐标的坐标点中选取一个坐标 点 (x2, y2) , 然后连接初始坐标的坐标点 A (xl, yl) 和坐标点 ^ (x2, y2) 得到直线 AB^
请结合参考图 2H左侧图示, 在本实施例中, 假设选取的绝对坐标中的第一个坐 标点 (x2, y2) 所对应的物体与用户之间的相对位置为在用户的正前方。 连接初 始坐标的坐标点 A (xl, yl) 和绝对坐标中的第一个坐标点 Bi (x2, y2) 得到直线 ABi (图中以虚线表示) 。
2、根据绝对坐标中的第二个坐标点 B2、直线 ABi和两个相对位置确定实际坐标。 请结合参考图 2D, 由于绝对坐标中的第一个坐标点 ^ (x2, y2) 所对应的物体 与用户之间的相对位置为在用户的正前方, 且绝对坐标中的第二个坐标点 B2 (x3, y3)所对应的物体与用户之间的相对位置为在用户的正左侧, 所以以用户的实际坐标 的坐标点 S (x0, y0) 为顶点, 以直线 SBi和直线 SB2为角的两边所构成的 ΖΒ Β2 应该为 90°; 因此, 过坐标点 Β2作直线 ABi的垂线 B2S, 垂足 S的坐标 (x0, y0) 即 为实际坐标。
另外, 假设绝对坐标中的第一个坐标点 (x2, y2) 所对应的物体与用户之间 的相对位置为在用户的正前方偏左 30°, 且绝对坐标中的第二个坐标点 B2 (x3, y3) 所对应的物体与用户之间的相对位置为在用户的正前方偏右 45°, 则以用户的实际坐 标的坐标点 S (x0, y0)为顶点, 以直线 SBi和直线 SB2为角的两边所构成的 ΖΒ Β2 应该为 75。; 因此, 在直线 ABi上可以找出点 S使得 8^ 82=75。, 点 S的坐标(x0, y0) 即为实际坐标。
3、 根据实际坐标和至少一个相对位置确定朝向。
在得到实际坐标 S (x0, y0) 之后, 根据一个或者两个相对位置确定出用户的朝 向。 因为绝对坐标中的第一个坐标点 (x2, y2) 所对应的物体与用户之间的相对 位置为在用户的正前方, 所以用户的朝向即为射线 SBi 的方向 (图中以实线箭头表 示) 。 之后, 可进一步计算出该朝向在绝对坐标系中与正东方向的夹角 δ。 在图 2Η 左侧图示所示实施例中, 5=arctan| (y0-yl) I (x0-xl) |。
需要说明的是, 通过上述图 2H左侧图示提供的计算方法, 对两个绝对坐标中的 第一个坐标点 的选取要求较高, 其所对应的物体与用户之间的相对位置的准确度 直接关系到最终计算出的实际坐标和朝向的准确度,因此通常选取相对位置为在用户 的正前方的物体所对应的坐标点为第一个坐标点 B
还需要说明的是, 由于通过 GPS、基站或者 Wi-Fi等不同的定位方式获取到的用 户的初始坐标也有所不同, 且 GPS定位相比于基站或者 Wi-Fi定位的准确度要高, 所以在电子设备的 GPS定位功能打开的情况下可选取如图 2H左侧图示中线段 AS的 中点作为用户的实际坐标的坐标点, 而在电子设备的 GPS定位功能未打开的情况下 可直接选取如图 2H左侧图示中的点 S作为用户的实际坐标的坐标点。在实际应用中, 可根据实际需求选取不同的算法以得到用户的实际坐标, 本实施例对此不作具体限 定。
上述图 2H左侧图示为在环境图片为 2张的情况下的一种可能的计算方式,下面, 将结合图 2H右侧图示介绍在环境图片为 2张的情况下的另一种可能的计算方式: 第二、 请结合参考图 2D和图 2H右侧图示, 当预定张数 n=2时, 分别获取经过 初始坐标的坐标点 A以及绝对坐标中的第一个坐标点 的直线 81和经过初始坐标 的坐标点 A以及绝对坐标中的第二个坐标点 B2的直线 AB2;根据直线 ABi、直线 AB2 和两个相对位置确定朝向; 根据朝向和至少一个相对位置确定实际坐标。
1、 分别获取经过初始坐标的坐标点 A 以及绝对坐标中的第一个坐标点 的直 线 ABi和经过初始坐标的坐标点 A以及绝对坐标中的第二个坐标点 B2的直线 AB2
在本实施例中,假设电子设备在上述步骤 203中获取到的第一张环境图片中的物 体与用户之间的相对位置为在用户的正前方偏左 30°, 且第二张环境图片中的物体与 用户之间的相对位置为在用户的正前方偏右 45°。 请结合参考图 2H右侧图示, 连接 绝对坐标中的第一个坐标点 (x2, y2) 和初始坐标的坐标点 A (xl, yl) 得到直 线 AB1; 连接绝对坐标中的第二个坐标点 B2 (x3, y3) 和初始坐标的坐标点 A (xl, yl) 得到直线 AB2 (图中以虚线表示) 。
2、 根据直线 ΑΒ^ 直线 AB2和两个相对位置确定朝向。
首先, 根据直线 A 81和第一张环境图片中的物体与用户之间的相对位置确定出 第一备选朝向。例如, 由于第一张环境图片中的物体与用户之间的相对位置为在用户 的正前方偏左 30°, 则以 A (xl, yl) 为角的顶点, 直线 ABi为角的一边, 沿逆时针 方向作大小为 30°的
Figure imgf000016_0001
射线 的方向即为第一备选方向。
然后, 根据直线 A 82和第二张环境图片中的物体与用户之间的相对位置确定出 第二备选朝向。例如, 由于第二张环境图片中的物体与用户之间的相对位置为在用户 的正前方偏右 45°, 则以 A (xl, yl) 为角的顶点, 直线 AB2为角的一边, 沿顺时针 方向作大小为 45°的 ZB2AC2。 射线 AC2的方向即为第二备选方向。
然后, 作 ZdAC2的角平分线 AC3, 射线 AC3的方向即为用户的朝向。
3、 根据朝向和至少一个相对位置确定实际坐标。
在确定用户的朝向之后, 在直线 AC3上选取点 Si和点 S2, 使得
Figure imgf000016_0002
C3=30°且 ZB2S2 C3=45°; 当点 Si和点 S2重合时, 选取点 Si或者点 S2为用户的实际坐标的坐 标点 S (x0, yO) ; 当点 Si和点 S2不重合时, 选取线段 SiSs的中点为用户的实际坐 标的坐标点 S (x0, yO) 。
之后,可进一步计算出用户的朝向在绝对坐标系中与正东方向的夹角 δ。在图 2Η 右侧图示所示实施例中, 5= arctan| (yO-yl) I (xO-xl) |。
需要说明的是, 上述图 2H右侧图示提供的计算方法, 在计算用户的朝向和 实际坐标时同时考虑了 2张环境图片中的物体与用户之间的位置关系,并采用求均值 的算法根据两个备选朝向确定出用户的朝向和实际坐标, 提高了计算结果的稳定性。 在第三种可能的实现方式中, 以预定张数 n=3来举例说明:
第一、 请结合参考图 2E和图 21上端图示, 当预定张数 n=3时, 分别获取经过初 始坐标的坐标点 A以及绝对坐标中的第一个坐标点 的直线 ΑΒ 经过初始坐标的 坐标点 A以及绝对坐标中的第二个坐标点 B2的直线 AB2以及经过初始坐标的坐标点 A以及绝对坐标中的第三个坐标点 B3的直线 AB3; 根据直线 AB^ 直线 AB2、 直线 AB3和三个相对位置确定朝向; 根据朝向和至少一个相对位置确定实际坐标。
1、 分别获取经过初始坐标的坐标点 A 以及绝对坐标中的第一个坐标点 的直 线 ABi、 经过初始坐标的坐标点 A以及绝对坐标中的第二个坐标点 B2的直线 AB2以 及经过初始坐标的坐标点 A以及绝对坐标中的第三个坐标点 B3的直线 AB3
在本实施例中,假设电子设备在上述步骤 203中获取到的第一张环境图片中的物 体与用户之间的相对位置为在用户的正前方偏左 30°, 第二张环境图片中的物体与用 户之间的相对位置为在用户的正前方偏右 45°且第三张环境图片中的物体与用户之间 的相对位置为在用户的正前方偏左 120°。 请结合参考图 21上端图示, 连接绝对坐标 中的第一个坐标点 (x2, y2) 和初始坐标的坐标点 A (xl, yl) 得到直线 AB1; 连接绝对坐标中的第二个坐标点 B2 (x3, y3) 和初始坐标的坐标点 A (xl, yl) 得 到直线 AB2; 连接绝对坐标中的第三个坐标点 B3 (x4, y4) 和初始坐标的坐标点 A (xl, yl) 得到直线 AB3 (图中以虚线表示) 。
2、 根据直线 ABi、 直线 AB2、 直线 AB3和三个相对位置确定朝向。
(1)、 根据直线 81和第一张环境图片中的物体与用户之间的相对位置确定出 第一备选朝向。例如, 由于第一张环境图片中的物体与用户之间的相对位置为在用户 的正前方偏左 30°, 则以 A (xl, yl) 为角的顶点, 直线 ABi为角的一边, 沿逆时针 方向作大小为 30°的
Figure imgf000017_0001
射线 的方向即为第一备选方向。
(2) 、 根据直线 82和第二张环境图片中的物体与用户之间的相对位置确定出 第二备选朝向。例如, 由于第二张环境图片中的物体与用户之间的相对位置为在用户 的正前方偏右 45°, 则以 A (xl, yl) 为角的顶点, 直线 AB2为角的一边, 沿顺时针 方向作大小为 45°的 ZB2AC2。 射线 AC2的方向即为第二备选方向。
(3) 、 根据直线 AB3和第三张环境图片中的物体与用户之间的相对位置确定出 第三备选朝向。例如, 由于第三张环境图片中的物体与用户之间的相对位置为在用户 的正前方偏左 120°, 则以 A (xl, yl) 为角的顶点, 直线 AB3为角的一边, 沿顺时 针方向作大小为 120°的 ZB3AC3。 射线 AC3的方向即为第三备选方向。
(4) 、 作 ZC2AC3的角平分线 AC4, 并作 ZdAC4的角平分线 AC5,, 射线 AC5 的方向即为用户的朝向。
3、 根据朝向和至少一个相对位置确定实际坐标。
在确定用户的朝向之后, 在直线 AC5上选取点 Si、 点 S2和点 S3 (图中未示出), 使得 ZBiSi C5=30°、 ZB2S2 C5=45°且 ZB3S3C5=120°; 当点 点 S2和点 S3重合时, 选取点 Si或者点 S2或者点 S3为用户的实际坐标的坐标点 S (x0, y0) ; 当点 点 S2和点 S3不重合时, 选取点 点 S2和点 S3构成的线段的中点为用户的实际坐标 的坐标点 S (x0, y0) 。 之后, 可进一步计算出用户的朝向在绝对坐标系中与正东方 向的夹角 5=arctan| (yO-yl) I (xO-xl) |。
上述环境图片的张数为 3时的第一种计算方法与环境图片的张数为 2时的第二种 计算方法相同或者相似, 可参考环境图片的张数为 2时的第二种计算方法。
第二, 请结合参考图 2E和图 21中间图示, 当预定张数 n=3时,
1、 获取经过初始坐标的坐标点 A和绝对坐标中的第一个坐标点 的直线 AB^ 请结合参考图 21 中间图示, 在本实施例中, 假设选取的绝对坐标中的第一个坐 标点 ^ (x2, y2) 所对应的物体与用户之间的相对位置为在用户的正前方偏左 30°。 连接初始坐标的坐标点 A (xl, yl) 和绝对坐标中的第一个坐标点 (x2, y2) 得 到直线 ABi (图中以虚线表示) 。
2、 根据绝对坐标中的第二个坐标点 B2、 第三个坐标点 B3、 直线 81和三个相 对位置确定实际坐标。
由于第一张环境图片中的物体与用户之间的相对位置为在用户的正前方偏左
30°、第二张环境图片中的物体与用户之间的相对位置为在用户的正前方偏右 45°且第 三张环境图片中的物体与用户之间的相对位置为在用户的正前方偏左 120°, 所以在 直线 ABi 上选取点 Si 和 点 S2, 使得
Figure imgf000018_0001
BfSOQ+AS^ SQ且 请结合参考图 21中间图示, 在得到点 Si和点 S2之后, 根据不同的算法, 可以选 取线段 SiSs的中点的坐标作为用户的实际坐标 (图中未示出) ; 也可以沿 B3S2作反 向延长线交 于点 S3, 并选取 ASiS^s的中点 S的坐标 (x0, y0) 作为用户的实 际坐标。
3、 根据实际坐标和至少一个相对位置确定朝向。
在得到实际坐标 s (x0, y0) 之后, 根据至少一个相对位置确定出用户的朝向。 上述环境图片的张数为 3时的第二种计算方法与环境图片的张数为 2时的第一种 计算方法相同或者相似, 可参考环境图片的张数为 2时的第一种计算方法。
下面, 请结合参考图 2E和图 21下端图示, 给出一种在 3张环境图片中的物体与 用户之间的相对位置为正前方、 正左侧和正右侧时的一种算法, 如下:
1、 检测三个相对位置是否满足预定条件, 预定条件为一个相对位置为物体在用 户的正前方、另一个相对位置为物体在用户的正左侧且再一个相对位置为物体在用户 的正右侧。
2、 若检测出满足预定条件, 则获取过相对位置为正左侧的物体的绝对坐标对应 的坐标点 B2和相对位置为正右侧的物体的绝对坐标对应的坐标点 B3的直线 B2B3
3、 获取相对位置为正前方的物体的绝对坐标对应的坐标点 与直线 B2B3的垂 线 Β 。
4、将垂足 S的坐标确定为实际坐标,并将垂足 S至坐标点^的方向确定为朝向。 之后, 可进一步计算出用户的朝向在绝对坐标系中与正东方向的夹角 5=arCtan| ( yO-y l ) I ( xO-x l ) |。
上述图 21下端图示提供的计算方法, 在计算用户的实际坐标和朝向的过程中无 需用到初始坐标,因此特别适合初始坐标的获取较为不精确的情况下对用户实际所处 的地理位置进行定位。另外, 在上述实施例提供的定位导航方法的基础上可结合三维 的初始坐标以获得不同海拔高度的环境图片, 实现室内不同楼层上的定位和导航, 充 分提高了本实施例提供的定位导航方法的适用范围和易用性。
另外, 电子设备在获取到用户当前的地理位置信息之后, 还可以执行如下几个步 骤:
在步骤 206中, 获取用户所需到达目的地的目的坐标。
电子设备获取用户所需到达目的地的目的坐标。 目的地名称通常由用户输入, 然 后电子设备根据用户输入的目的地名称获取该目的地在绝对坐标系中的目的坐标。
在步骤 207中, 根据目的坐标和地理位置信息确定至少一条路线。
电子设备根据目的坐标和地理位置信息确定至少一条路线。由于地理位置信息中 包含有用户当前的实际坐标, 电子设备在获取目的坐标和实际坐标之后, 可以为用户 确定出至少一条从实际坐标到达该目的坐标的路线,也即从用户当前所处的地理位置 到达用户所需到达的目的地的路线。
在步骤 208中, 将地理位置信息、 目的坐标和路线进行显示。
之后, 电子设备将用户的朝向, 用户的实际坐标, 目的坐标和路线进行显示, 引 导用户根据显示的信息到达目的地。
综上所述, 本实施例提供的定位导航方法, 通过在获取用户的初始坐标之后, 获 取与初始坐标相对应的预定地理范围内的预定张数的环境图片,并从预设的不同环境 图片与不同绝对坐标的对应关系中获取每一张环境图片对应的绝对坐标,对于每一张 环境图片, 获取环境图片中的物体与用户之间的相对位置, 然后根据相对位置和绝对 坐标确定用户当前的地理位置信息;解决了背景技术中采用陀螺仪或者电子罗盘之类 的硬件组件获取用户的朝向, 导致增加电子设备的重量、 体积和生产成本的问题; 本 实施例提供的定位导航方法,无需在电子设备内部安装陀螺仪或者电子罗盘之类的硬 件组件即可获取包括用户的朝向在内的地理位置信息, 减少了电子设备的重量和体 积, 节约了生产成本。
另外, 针对环境图片的不同张数, 本实施例提供了多种计算用户朝向和实际坐标 的方法, 有的算法简单、 定位导航效率高; 有的采用求均值的算法根据两个或者三个 备选朝向确定出用户的朝向和实际坐标, 提高了计算结果的稳定性; 还有的与用户之 间的互动性高。 在实际应用中, 根据不同需求可以采用不同的计算方法。 下述为本公开装置实施例, 可以用于执行本公开方法实施例。对于本公开装置实 施例中未披露的细节, 请参照本公开方法实施例。
图 3是根据一示例性实施例示出的一种定位导航装置的示意图,该定位导航装置 可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。该定位导航 装置可以包括: 初始获取模块 3 10、 图片获取模块 320、 位置获取模块 330和地图定 位模块 340。
初始获取模块 3 10被配置为获取用户的初始坐标。
图片获取模块 320 被配置为获取与所述初始坐标相对应的预定地理范围内的预 定张数的环境图片,并从预设的不同环境图片与不同绝对坐标的对应关系中获取每一 张环境图片对应的绝对坐标。
位置获取模块 330被配置为对于每一张环境图片,获取所述环境图片中的物体与 所述用户之间的相对位置。
地图定位模块 340 被配置为根据所述相对位置和所述绝对坐标确定所述用户当 前的地理位置信息。
综上所述, 本实施例提供的定位导航装置, 通过在获取用户的初始坐标之后, 获 取与初始坐标相对应的预定地理范围内的预定张数的环境图片,并从预设的不同环境 图片与不同绝对坐标的对应关系中获取每一张环境图片对应的绝对坐标,对于每一张 环境图片, 获取环境图片中的物体与用户之间的相对位置, 然后根据相对位置和绝对 坐标确定用户当前的地理位置信息;解决了背景技术中采用陀螺仪或者电子罗盘之类 的硬件组件获取用户的朝向, 导致增加电子设备的重量、 体积和生产成本的问题; 本 实施例提供的定位导航装置,无需在电子设备内部安装陀螺仪或者电子罗盘之类的硬 件组件即可获取包括用户的朝向在内的地理位置信息, 减少了电子设备的重量和体 积, 节约了生产成本。 图 4是根据另一示例性实施例示出的一种定位导航装置的示意图,该定位导航装 置可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。该定位导 航装置可以包括: 初始获取模块 310、 图片获取模块 320、 位置获取模块 330、 地图 定位模块 340、 目的获取模块 350、 线路确定模块 360和导航显示模块 370。
初始获取模块 3 10被配置为获取用户的初始坐标。
图片获取模块 320 被配置为获取与所述初始坐标相对应的预定地理范围内的预 定张数的环境图片,并从预设的不同环境图片与不同绝对坐标的对应关系中获取每一 张环境图片对应的绝对坐标。
可选地,所述图片获取模块 320,包括:备选获取单元 320a和环境获取单元 320b。 所述备选获取单元 320a被配置为获取与所述初始坐标相对应的预定地理范围内 的 m张备选图片。
所述环境获取单元 320b被配置为从所述 m张备选图片中选取所述预定张数 n的 环境图片。
其中, m≥n〉0。
可选地, 所述环境获取单元 320b, 包括: 自动获取子单元 320M ; 或者, 用户选 取子单元 320b2。
所述自动获取子单元 320M被配置为根据预设优先级对所述 m张备选图片进行 排序得到备选图片序列, 从所述备选图片序列中选取所述预定张数 n的环境图片。
所述用户选取子单元 320b2被配置为将所述 m张备选图片中的部分或者全部进 行显示, 接收对应于所述备选图片的选择信号, 根据所述选择信号确定所述预定张数 n的环境图片。
位置获取模块 330被配置为对于每一张环境图片,获取所述环境图片中的物体与 所述用户之间的相对位置。
可选地, 所述位置获取模块 330, 包括: 信息显示单元 330a、 信号接收单元 330b 和位置确定单元 330c。
所述信息显示单元 330a被配置为将所述环境图片和引导信息进行显示, 所述引 导信息用于引导所述用户正对所述环境图片中的物体, 和 /或, 用于引导所述用户根 据所述环境图片中的物体与自身的相对位置将所述环境图片沿对应方向进行移动,和 /或, 用于引导所述用户根据所述环境图片中的物体与自身的相对位置将所述环境图 片移动至对应位置。
所述信号接收单元 330b被配置为接收所述用户根据所述引导信息所触发的输入 信号。
所述位置确定单元 330c被配置为根据所述输入信号确定所述环境图片中的物体 与所述用户之间的相对位置。
地图定位模块 340 被配置为根据所述相对位置和所述绝对坐标确定所述用户当 前的地理位置信息。
可选地, 所述地图定位模块 340, 包括: 第一定位单元 340a, 和 /或, 第二定位 单元 340b, 和 /或, 第三定位单元 340c。
所述第一定位单元 340a被配置为当所述环境图片为 1张时,根据所述相对位置、 所述绝对坐标和所述初始坐标确定所述用户当前的朝向,并将所述初始坐标确定为所 述用户的实际坐标。
可选地, 所述第一定位单元 340a, 包括: 方向获取子单元 340al 和朝向确定子 单元 340a2。
所述方向获取子单元 340al被配置为获取所述初始坐标的坐标点 A至所述绝对 坐标的坐标点 B的参考方向。 所述朝向确定子单元 340a2 被配置为根据所述参考方向和所述相对位置确定所 述朝向。
所述第二定位单元 340b被配置为当所述环境图片为 2张时,根据所述相对位置、 所述绝对坐标和所述初始坐标确定所述用户当前的朝向和实际坐标。
可选地, 所述第二定位单元 340b, 包括: 第一定位子单元 340M ; 或者, 第二定 位子单元 340b2。
所述第一定位子单元 340M被配置为获取经过所述初始坐标的坐标点 A和所述 绝对坐标中的第一个坐标点 的直线 ABi ^ 据所述绝对坐标中的第二个坐标点 B2、 所述直线 ABi和两个所述相对位置确定所述实际坐标; 根据所述实际坐标和至少一 个所述相对位置确定所述朝向。
所述第二定位子单元 340b2被配置为分别获取经过所述初始坐标的坐标点 A以 及所述绝对坐标中的第一个坐标点 的直线 81和经过所述初始坐标的坐标点 A以 及所述绝对坐标中的第二个坐标点 B2的直线 AB2 ;根据所述直线 ΑΒ 所述直线 AB2 和两个所述相对位置确定所述朝向;根据所述朝向和至少一个所述相对位置确定所述 实际坐标。
所述第三定位单元 340c被配置为当所述环境图片为 3张或 3张以上时, 根据所 述相对位置和所述绝对坐标确定所述用户当前的朝向和实际坐标。
可选地, 所述第三定位单元 340c, 包括: 直线获取子单元 340cl、 朝向计算子单 元 340c2和坐标计算子单元 340c3。
所述直线获取子单元 340cl被配置为分别获取经过所述初始坐标的坐标点 A以 及所述绝对坐标中的第一个坐标点 的直线 ΑΒ 经过所述初始坐标的坐标点 A以 及所述绝对坐标中的第二个坐标点 B2的直线 AB2以及经过所述初始坐标的坐标点 A 以及所述绝对坐标中的第三个坐标点 B3的直线 AB3
所述朝向计算子单元 340c2被配置为根据所述直线 ΑΒ^ 所述直线 AB2、 所述直 线 AB3和三个所述相对位置确定所述朝向。
所述坐标计算子单元 340c3 被配置为根据所述朝向和至少一个所述相对位置确 定所述实际坐标。
可选地, 所述第三定位单元 340c, 包括: 条件检测子单元 340c4、 横向连线子单 元 340c5、 垂线获取子单元 340c6和结果确定子单元 340c7。
所述条件检测子单元 340c4被配置为检测三个所述相对位置是否满足预定条件, 所述预定条件为一个所述相对位置为所述物体在所述用户的正前方、另一个所述相对 位置为所述物体在所述用户的正左侧且再一个所述相对位置为所述物体在所述用户 的正右侧。
所述横向连线子单元 340c5被配置为若检测出满足所述预定条件,则获取过所述 相对位置为所述正左侧的物体的绝对坐标对应的坐标点 B2和所述相对位置为所述正 右侧的物体的绝对坐标对应的坐标点 B3的直线 B2B3
所述垂线获取子单元 340c6 被配置为获取所述相对位置为所述正前方的物体的 绝对坐标对应的坐标点 与所述直线 B2B3的垂线 Β 。
所述结果确定子单元 340c7被配置为将垂足 S的坐标确定为所述实际坐标,并将 所述垂足 S至所述坐标点 的方向确定为所述朝向。
目的获取模块 350被配置为获取所述用户所需到达目的地的目的坐标。
线路确定模块 360 被配置为根据所述目的坐标和所述地理位置信息确定至少一 条路线。
导航显示模块 370被配置为将所述地理位置信息、所述目的坐标和所述路线进行 显示。
综上所述, 本实施例提供的定位导航装置, 通过在获取用户的初始坐标之后, 获 取与初始坐标相对应的预定地理范围内的预定张数的环境图片,并从预设的不同环境 图片与不同绝对坐标的对应关系中获取每一张环境图片对应的绝对坐标,对于每一张 环境图片, 获取环境图片中的物体与用户之间的相对位置, 然后根据相对位置和绝对 坐标确定用户当前的地理位置信息;解决了背景技术中采用陀螺仪或者电子罗盘之类 的硬件组件获取用户的朝向, 导致增加电子设备的重量、 体积和生产成本的问题; 本 实施例提供的定位导航装置,无需在电子设备内部安装陀螺仪或者电子罗盘之类的硬 件组件即可获取包括用户的朝向在内的地理位置信息, 减少了电子设备的重量和体 积, 节约了生产成本。
另外, 针对环境图片的不同张数, 本实施例提供了多种计算用户朝向和实际坐标 的方式, 有的算法简单、 定位导航效率高; 有的采用求均值的算法根据两个或者三个 备选朝向确定出用户的朝向和实际坐标, 提高了计算结果的稳定性; 还有的与用户之 间的互动性高。 在实际应用中, 根据不同需求可以采用不同的计算方式。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法 的实施例中进行了详细描述, 此处将不做详细阐述说明。 图 5是根据一示例性实施例示出的一种用于定位导航的装置的框图。例如, 装置 500可以是移动电话, 计算机, 数字广播终端, 消息收发设备, 游戏控制台, 平板设 备, 医疗设备, 健身设备, 个人数字助理等。
参照图 5, 装置 500可以包括以下一个或多个组件: 处理组件 502, 存储器 504, 电源组件 506, 多媒体组件 508, 音频组件 510, 输入 /输出 (I/ O) 的接口 512, 传感 器组件 514, 以及通信组件 516。
处理组件 502通常控制装置 500的整体操作,诸如与显示, 电话呼叫,数据通信, 相机操作和记录操作相关联的操作。 处理组件 502 可以包括一个或多个处理器 520 来执行指令, 以完成上述的方法的全部或部分步骤。 此外, 处理组件 502可以包括一 个或多个模块, 便于处理组件 502和其他组件之间的交互。 例如, 处理组件 502可以 包括多媒体模块, 以方便多媒体组件 508和处理组件 502之间的交互。
存储器 504被配置为存储各种类型的数据以支持在装置 500的操作。这些数据的 示例包括用于在装置 500上操作的任何应用程序或方法的指令, 联系人数据, 电话簿 数据, 消息, 图片, 视频等。 存储器 504可以由任何类型的易失性或非易失性存储设 备或者它们的组合实现, 如静态随机存取存储器 (SRAM) , 电可擦除可编程只读存 储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM), 只读存储器 (ROM) , 磁存储器, 快闪存储器, 磁盘或光盘。
电源组件 506为装置 500的各种组件提供电力。电源组件 506可以包括电源管理 系统, 一个或多个电源, 及其他与为装置 500生成、 管理和分配电力相关联的组件。
多媒体组件 508包括在所述装置 500和用户之间的提供一个输出接口的屏幕。在 一些实施例中, 屏幕可以包括液晶显示器 (LCD ) 和触摸面板 (TP ) 。 如果屏幕包 括触摸面板, 屏幕可以被实现为触摸屏, 以接收来自用户的输入信号。 触摸面板包括 一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以 不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间 和压力。 在一些实施例中, 多媒体组件 508包括一个前置摄像头和 /或后置摄像头。 当装置 500处于操作模式, 如拍摄模式或视频模式时, 前置摄像头和 /或后置摄像头 可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透 镜系统或具有焦距和光学变焦能力。
音频组件 510被配置为输出和 /或输入音频信号。 例如, 音频组件 510包括一个 麦克风 (MIC ) , 当装置 500处于操作模式, 如呼叫模式、 记录模式和语音识别模式 时, 麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储 器 504或经由通信组件 516发送。在一些实施例中,音频组件 510还包括一个扬声器, 用于输出音频信号。
I/ O接口 512为处理组件 502和外围接口模块之间提供接口, 上述外围接口模块 可以是键盘, 点击轮, 按钮等。 这些按钮可包括但不限于: 主页按钮、 音量按钮、 启 动按钮和锁定按钮。
传感器组件 514包括一个或多个传感器,用于为装置 500提供各个方面的状态评 估。 例如, 传感器组件 514可以检测到装置 500的打开 /关闭状态, 组件的相对定位, 例如所述组件为装置 500 的显示器和小键盘, 传感器组件 514还可以检测装置 500 或装置 500—个组件的位置改变, 用户与装置 500接触的存在或不存在, 装置 500 方位或加速 /减速和装置 500的温度变化。 传感器组件 514可以包括接近传感器, 被 配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件 514还可以包括 光传感器,如 CMOS或 CCD图像传感器, 用于在成像应用中使用。在一些实施例中, 该传感器组件 514还可以包括加速度传感器, 陀螺仪传感器, 磁传感器, 压力传感器 或温度传感器。
通信组件 516被配置为便于装置 500和其他设备之间有线或无线方式的通信。装 置 500可以接入基于通信标准的无线网络, 如 WiFi, 2G或 3G, 或它们的组合。 在 一个示例性实施例中,通信组件 516经由广播信道接收来自外部广播管理系统的广播 信号或广播相关信息。 在一个示例性实施例中, 所述通信组件 516 还包括近场通信 (NFC )模块, 以促进短程通信。 例如, 在 NFC模块可基于射频识别 (RFID ) 技术, 红外数据协会 (IrDA) 技术, 超宽带 (UWB ) 技术, 蓝牙 (BT ) 技术和其他技术来 实现。
在示例性实施例中, 装置 500 可以被一个或多个应用专用集成电路 (ASIC ) 、 数字信号处理器 (DSP ) 、 数字信号处理设备 (DSPD ) 、 可编程逻辑器件 (PLD ) 、 现场可编程门阵列 (FPGA) 、 控制器、 微控制器、 微处理器或其他电子元件实现, 用于执行上述方法。
在示例性实施例中, 还提供了一种包括指令的非临时性计算机可读存储介质, 例 如包括指令的存储器 504,上述指令可由装置 500的处理器 520执行以完成上述方法。 例如, 所述非临时性计算机可读存储介质可以是 ROM、 随机存取存储器 (RAM) 、 CD-ROM, 磁带、 软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置 500的处理 器执行时, 使得装置 500能够执行上述图 1或者图 2A所示的定位导航方法。 本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其 它实施方案。 本申请旨在涵盖本发明的任何变型、 用途或者适应性变化, 这些变型、 用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中 的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的, 本发明的真正范围 和精神由下面的权利要求指出。
应当理解的是, 本发明并不局限于上面已经描述并在附图中示出的精确结构, 并且可 以在不脱离其范围进行各种修改和改变。 本发明的范围仅由所附的权利要求来限制。

Claims

权利要求
1、 一种定位导航方法, 其特征在于, 所述方法包括:
获取用户的初始坐标;
获取与所述初始坐标相对应的预定地理范围内的预定张数的环境图片, 并从预 设的不同环境图片与不同绝对坐标的对应关系中获取每一张环境图片对应的绝对坐 标;
对于每一张环境图片, 获取所述环境图片中的物体与所述用户之间的相对位置; 根据所述相对位置和所述绝对坐标确定所述用户当前的地理位置信息。
2、 根据权利要求 1所述的方法, 其特征在于, 所述根据所述相对位置和所述绝 对坐标确定所述用户当前的地理位置信息, 包括:
当所述环境图片为 1 张时, 根据所述相对位置、 所述绝对坐标和所述初始坐标 确定所述用户当前的朝向, 并将所述初始坐标确定为所述用户的实际坐标;
当所述环境图片为 2 张时, 根据所述相对位置、 所述绝对坐标和所述初始坐标 确定所述用户当前的朝向和实际坐标;
当所述环境图片为 3张或 3张以上时, 根据所述相对位置和所述绝对坐标确定 所述用户当前的朝向和实际坐标。
3、 根据权利要求 2所述的方法, 其特征在于, 所述当所述环境图片为 1张时, 根据所述相对位置、 所述绝对坐标和所述初始坐标确定所述用户当前的朝向, 包括: 获取所述初始坐标的坐标点 A至所述绝对坐标的坐标点 B的参考方向; 根据所述参考方向和所述相对位置确定所述朝向。
4、 根据权利要求 2所述的方法, 其特征在于, 所述当所述环境图片为 2张时, 根据所述相对位置、 所述绝对坐标和所述初始坐标确定所述用户当前的朝向和实际 坐标, 包括:
获取经过所述初始坐标的坐标点 A和所述绝对坐标中的第一个坐标点 的直线 ΑΒι ; 根据所述绝对坐标中的第二个坐标点 B2、 所述直线 ABi和两个所述相对位置 确定所述实际坐标; 根据所述实际坐标和至少一个所述相对位置确定所述朝向; 或者,
分别获取经过所述初始坐标的坐标点 A以及所述绝对坐标中的第一个坐标点 的直线 ABi和经过所述初始坐标的坐标点 A以及所述绝对坐标中的第二个坐标点 B2 的直线 AB2 ; 根据所述直线 ΑΒ 所述直线 82和两个所述相对位置确定所述朝向; 根据所述朝向和至少一个所述相对位置确定所述实际坐标。
5、 根据权利要求 2所述的方法, 其特征在于, 所述当所述环境图片为 3张时, 根据所述相对位置和所述绝对坐标确定所述用户当前的朝向和实际坐标, 包括: 分别获取经过所述初始坐标的坐标点 A以及所述绝对坐标中的第一个坐标点 的直线 AB 经过所述初始坐标的坐标点 A以及所述绝对坐标中的第二个坐标点 B2 的直线 AB2以及经过所述初始坐标的坐标点 A以及所述绝对坐标中的第三个坐标点 B3的直线 AB3 ;
根据所述直线 ΑΒ 所述直线 AB2、 所述直线 AB3和三个所述相对位置确定所 述朝向;
根据所述朝向和至少一个所述相对位置确定所述实际坐标。
6、 根据权利要求 2所述的方法, 其特征在于, 所述当所述环境图片为 3张时, 根据所述相对位置和所述绝对坐标确定所述用户当前的朝向和实际坐标, 包括: 检测三个所述相对位置是否满足预定条件, 所述预定条件为一个所述相对位置 为所述物体在所述用户的正前方、 另一个所述相对位置为所述物体在所述用户的正 左侧且再一个所述相对位置为所述物体在所述用户的正右侧;
若检测出满足所述预定条件, 则获取过所述相对位置为所述正左侧的物体的绝 对坐标对应的坐标点 B2和所述相对位置为所述正右侧的物体的绝对坐标对应的坐标 点 B3的直线 B2B3;
获取所述相对位置为所述正前方的物体的绝对坐标对应的坐标点^与所述直线 B2B3的垂线 Β^ ;
将垂足 S的坐标确定为所述实际坐标, 并将所述垂足 S至所述坐标点 的方向 确定为所述朝向。
7、 根据权利要求 1至 6任一所述的方法, 其特征在于, 所述获取与所述初始坐 标相对应的预定地理范围内的预定张数的环境图片, 包括:
获取与所述初始坐标相对应的预定地理范围内的 m张备选图片;
从所述 m张备选图片中选取所述预定张数 n的环境图片;
其中, m≥n〉0。
8、 根据权利要求 7所述的方法, 其特征在于, 所述从所述 m张备选图片中选取 所述预定张数 n的环境图片, 包括:
根据预设优先级对所述 m张备选图片进行排序得到备选图片序列, 从所述备选 图片序列中选取所述预定张数 n的环境图片;
或者,
将所述 m张备选图片中的部分或者全部进行显示, 接收对应于所述备选图片的 选择信号, 根据所述选择信号确定所述预定张数 n的环境图片。
9、 根据权利要求 1至 6任一所述的方法, 其特征在于, 所述获取所述环境图片 中的物体与所述用户之间的相对位置, 包括:
将所述环境图片和引导信息进行显示, 所述引导信息用于引导所述用户正对所 述环境图片中的物体, 和 /或, 用于引导所述用户根据所述环境图片中的物体与自身 的相对位置将所述环境图片沿对应方向进行移动, 和 /或, 用于引导所述用户根据所 述环境图片中的物体与自身的相对位置将所述环境图片移动至对应位置;
接收所述用户根据所述引导信息所触发的输入信号;
根据所述输入信号确定所述环境图片中的物体与所述用户之间的相对位置。
10、 根据权利要求 1至 6任一所述的方法, 其特征在于, 所述方法还包括: 获取所述用户所需到达目的地的目的坐标;
根据所述目的坐标和所述地理位置信息确定至少一条路线;
将所述地理位置信息、 所述目的坐标和所述路线进行显示。
1 1、 一种定位导航装置, 其特征在于, 所述装置包括:
初始获取模块, 用于获取用户的初始坐标;
图片获取模块, 用于获取与所述初始坐标相对应的预定地理范围内的预定张数 的环境图片, 并从预设的不同环境图片与不同绝对坐标的对应关系中获取每一张环 境图片对应的绝对坐标;
位置获取模块, 用于对于每一张环境图片, 获取所述环境图片中的物体与所述 用户之间的相对位置;
地图定位模块, 用于根据所述相对位置和所述绝对坐标确定所述用户当前的地 理位置信息。
12、 根据权利要求 1 1所述的装置, 其特征在于, 所述地图定位模块, 包括: 第 一定位单元, 和 /或, 第二定位单元, 和 /或, 第三定位单元;
所述第一定位单元, 用于当所述环境图片为 1 张时, 根据所述相对位置、 所述 绝对坐标和所述初始坐标确定所述用户当前的朝向, 并将所述初始坐标确定为所述 用户的实际坐标;
所述第二定位单元, 用于当所述环境图片为 2 张时, 根据所述相对位置、 所述 绝对坐标和所述初始坐标确定所述用户当前的朝向和实际坐标;
所述第三定位单元, 用于当所述环境图片为 3张或 3张以上时, 根据所述相对 位置和所述绝对坐标确定所述用户当前的朝向和实际坐标。
13、 根据权利要求 12所述的装置, 其特征在于, 所述第一定位单元, 包括: 方 向获取子单元和朝向确定子单元;
所述方向获取子单元, 用于获取所述初始坐标的坐标点 A至所述绝对坐标的坐 标点 B的参考方向;
所述朝向确定子单元, 用于根据所述参考方向和所述相对位置确定所述朝向。
14、 根据权利要求 12所述的装置, 其特征在于, 所述第二定位单元, 包括: 第 一定位子单元; 或者, 第二定位子单元;
所述第一定位子单元, 用于获取经过所述初始坐标的坐标点 A和所述绝对坐标 中的第一个坐标点 的直线 AB1 ; 根据所述绝对坐标中的第二个坐标点 B2、 所述直 线 ABi和两个所述相对位置确定所述实际坐标; 根据所述实际坐标和至少一个所述 相对位置确定所述朝向;
所述第二定位子单元, 用于分别获取经过所述初始坐标的坐标点 A以及所述绝 对坐标中的第一个坐标点 的直线 81和经过所述初始坐标的坐标点 A以及所述绝 对坐标中的第二个坐标点 B2的直线 AB2 ; 根据所述直线 ABi、 所述直线 AB2和两个 所述相对位置确定所述朝向; 根据所述朝向和至少一个所述相对位置确定所述实际 坐标。
15、 根据权利要求 12所述的装置, 其特征在于, 所述第三定位单元, 包括: 直 线获取子单元、 朝向计算子单元和坐标计算子单元;
所述直线获取子单元, 用于分别获取经过所述初始坐标的坐标点 A以及所述绝 对坐标中的第一个坐标点 的直线 ΑΒ 经过所述初始坐标的坐标点 A以及所述绝 对坐标中的第二个坐标点 B2的直线 AB2以及经过所述初始坐标的坐标点 A以及所述 绝对坐标中的第三个坐标点 B3的直线 AB3 ;
所述朝向计算子单元, 用于根据所述直线 ΑΒ^ 所述直线 AB2、 所述直线 AB3 和三个所述相对位置确定所述朝向;
所述坐标计算子单元, 用于根据所述朝向和至少一个所述相对位置确定所述实 际坐标。
16、 根据权利要求 12所述的装置, 其特征在于, 所述第三定位单元, 包括: 条 件检测子单元、 横向连线子单元、 垂线获取子单元和结果确定子单元;
所述条件检测子单元, 用于检测三个所述相对位置是否满足预定条件, 所述预 定条件为一个所述相对位置为所述物体在所述用户的正前方、 另一个所述相对位置 为所述物体在所述用户的正左侧且再一个所述相对位置为所述物体在所述用户的正 所述横向连线子单元, 用于若检测出满足所述预定条件, 则获取过所述相对位 置为所述正左侧的物体的绝对坐标对应的坐标点 B2和所述相对位置为所述正右侧的 物体的绝对坐标对应的坐标点 B3的直线 B2B3 ;
所述垂线获取子单元, 用于获取所述相对位置为所述正前方的物体的绝对坐标 对应的坐标点 与所述直线 B2B3的垂线 BiS ;
所述结果确定子单元, 用于将垂足 S 的坐标确定为所述实际坐标, 并将所述垂 足 S至所述坐标点 的方向确定为所述朝向。
17、 根据权利要求 11至 16任一所述的装置, 其特征在于, 所述图片获取模块, 包括: 备选获取单元和环境获取单元;
所述备选获取单元, 用于获取与所述初始坐标相对应的预定地理范围内的 m张 备选图片;
所述环境获取单元, 用于从所述 m张备选图片中选取所述预定张数 n的环境图 片;
其中, m≥n〉0。
18、 根据权利要求 17所述的装置, 其特征在于, 所述环境获取单元, 包括: 自 动获取子单元; 或者, 用户选取子单元;
所述自动获取子单元, 用于根据预设优先级对所述 m张备选图片进行排序得到 备选图片序列, 从所述备选图片序列中选取所述预定张数 n的环境图片;
所述用户选取子单元, 用于将所述 m张备选图片中的部分或者全部进行显示, 接收对应于所述备选图片的选择信号, 根据所述选择信号确定所述预定张数 n 的环 境图片。
19、 根据权利要求 11至 16任一所述的装置, 其特征在于, 所述位置获取模块, 包括: 信息显示单元、 信号接收单元和位置确定单元;
所述信息显示单元, 用于将所述环境图片和引导信息进行显示, 所述引导信息 用于引导所述用户正对所述环境图片中的物体, 和 /或, 用于引导所述用户根据所述 环境图片中的物体与自身的相对位置将所述环境图片沿对应方向进行移动, 和 /或, 用于引导所述用户根据所述环境图片中的物体与自身的相对位置将所述环境图片移 动至对应位置;
所述信号接收单元, 用于接收所述用户根据所述引导信息所触发的输入信号; 所述位置确定单元, 用于根据所述输入信号确定所述环境图片中的物体与所述 用户之间的相对位置。
20、 根据权利要求 1 1至 16任一所述的装置, 其特征在于, 所述装置还包括: 目的获取模块, 用于获取所述用户所需到达目的地的目的坐标;
线路确定模块, 用于根据所述目的坐标和所述地理位置信息确定至少一条路线; 导航显示模块, 用于将所述地理位置信息、 所述目的坐标和所述路线进行显示。
21、 一种定位导航装置, 其特征在于, 包括- 处理器;
用于存储所述处理器的可执行指令的存储器;
其中, 所述处理器被配置为:
获取用户的初始坐标;
获取与所述初始坐标相对应的预定地理范围内的预定张数的环境图片, 并从预 设的不同环境图片与不同绝对坐标的对应关系中获取每一张环境图片对应的绝对坐 标;
对于每一张环境图片, 获取所述环境图片中的物体与所述用户之间的相对位置; 根据所述相对位置和所述绝对坐标确定所述用户当前的地理位置信息。
PCT/CN2014/082911 2014-03-31 2014-07-24 定位导航方法和装置 WO2015149455A1 (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016510932A JP6116756B2 (ja) 2014-03-31 2014-07-24 測位・ナビゲーション方法、装置、プログラム、及び記録媒体
RU2015134187A RU2608971C1 (ru) 2014-03-31 2014-07-24 Способ и устройство для позиционирования и навигации
KR1020147026581A KR101639312B1 (ko) 2014-03-31 2014-07-24 측위 네비게이션 방법, 장치, 프로그램 및 기록매체
MX2014011940A MX350053B (es) 2014-03-31 2014-07-24 Metodo y aparato de posicionamiento y navegacion.
US14/543,106 US9818196B2 (en) 2014-03-31 2014-11-17 Method and device for positioning and navigating

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410126006.3A CN103968846B (zh) 2014-03-31 2014-03-31 定位导航方法和装置
CN201410126006.3 2014-03-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/543,106 Continuation US9818196B2 (en) 2014-03-31 2014-11-17 Method and device for positioning and navigating

Publications (1)

Publication Number Publication Date
WO2015149455A1 true WO2015149455A1 (zh) 2015-10-08

Family

ID=51238639

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2014/082911 WO2015149455A1 (zh) 2014-03-31 2014-07-24 定位导航方法和装置

Country Status (7)

Country Link
EP (1) EP2927638B1 (zh)
JP (1) JP6116756B2 (zh)
KR (1) KR101639312B1 (zh)
CN (1) CN103968846B (zh)
MX (1) MX350053B (zh)
RU (1) RU2608971C1 (zh)
WO (1) WO2015149455A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363603A (zh) * 2018-01-29 2018-08-03 上海闻泰电子科技有限公司 信息指引方法、装置、移动终端以及存储装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104581637A (zh) * 2015-01-20 2015-04-29 北京嘀嘀无限科技发展有限公司 定位的方法及设备
CN105992148B (zh) * 2015-02-15 2020-07-03 索尼公司 用于无线通信系统的通信设备和通信方法
CN105451179A (zh) * 2015-12-25 2016-03-30 百度在线网络技术(北京)有限公司 一种定位方法及装置
US10168173B2 (en) * 2016-10-26 2019-01-01 Google Llc Systems and methods for using visual landmarks in initial navigation
CN106658409A (zh) * 2016-12-07 2017-05-10 雷蕾 一种定位方法和系统
CN107687854A (zh) * 2017-07-20 2018-02-13 努比亚技术有限公司 一种室内导航方法、终端和计算机可读存储介质
CN107727104B (zh) * 2017-08-16 2019-04-30 北京极智嘉科技有限公司 结合标识的同时定位和地图创建导航方法、装置及系统
CN109146932B (zh) * 2018-07-17 2021-08-24 北京旷视科技有限公司 确定图像中目标点的世界坐标的方法、装置和系统
KR102212825B1 (ko) 2019-04-08 2021-02-08 네이버랩스 주식회사 이미지를 기반으로 포즈 계산을 위한 지도의 최신성을 유지하는 방법 및 시스템
CN110162658A (zh) * 2019-05-31 2019-08-23 广东小天才科技有限公司 位置信息获取方法、装置、终端及存储介质
KR102383567B1 (ko) * 2019-12-16 2022-04-06 네이버랩스 주식회사 시각 정보 처리 기반의 위치 인식 방법 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101334285A (zh) * 2007-06-29 2008-12-31 鸿富锦精密工业(深圳)有限公司 车辆导航装置及导航方法
US20110118973A1 (en) * 2009-11-16 2011-05-19 Industrial Technology Research Institute Image processing method and system
CN103052151A (zh) * 2011-10-14 2013-04-17 中国电信股份有限公司 终端定位方法、装置和移动终端
CN103249142A (zh) * 2013-04-26 2013-08-14 东莞宇龙通信科技有限公司 一种定位方法、系统及移动终端

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SU1747905A1 (ru) * 1990-10-31 1992-07-15 Botuz Sergej P Способ многоканальной регистрации результатов измерений и устройство дл его осуществлени
US5862511A (en) * 1995-12-28 1999-01-19 Magellan Dis, Inc. Vehicle navigation system and method
US5948043A (en) * 1996-11-08 1999-09-07 Etak, Inc. Navigation system using GPS data
EP1059510A1 (en) * 1999-06-10 2000-12-13 Texas Instruments Incorporated Wireless location
JP4672190B2 (ja) * 2001-04-26 2011-04-20 三菱電機株式会社 映像ナビゲーション装置
US6615135B2 (en) * 2001-05-24 2003-09-02 Prc Inc. Satellite based on-board vehicle navigation system including predictive filtering and map-matching to reduce errors in a vehicular position
US6766245B2 (en) * 2002-03-14 2004-07-20 Microsoft Corporation Landmark-based location of users
US8768617B2 (en) * 2003-10-06 2014-07-01 Csr Technology Inc. Method and system for a data interface for aiding a satellite positioning system receiver
JP4273119B2 (ja) * 2003-10-21 2009-06-03 和郎 岩根 ナビゲーション装置
US8942483B2 (en) * 2009-09-14 2015-01-27 Trimble Navigation Limited Image-based georeferencing
KR100855657B1 (ko) * 2006-09-28 2008-09-08 부천산업진흥재단 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
US20080153516A1 (en) * 2006-12-20 2008-06-26 Via Technologies, Inc. Visual Positioning System and Method for Mobile User Equipment
JP5145735B2 (ja) * 2007-03-02 2013-02-20 株式会社豊田中央研究所 測位装置及び測位システム
JP2010197209A (ja) * 2009-02-25 2010-09-09 Toshiba Corp ナビゲーションシステム装置
KR20130089068A (ko) * 2012-02-01 2013-08-09 현대모비스 주식회사 카메라를 이용한 차량 위치 보정 장치 및 방법
KR101339354B1 (ko) * 2012-03-26 2013-12-09 한국철도기술연구원 영상을 이용한 철도차량의 위치검지 시스템 및 위치검지방법
CN102829775A (zh) * 2012-08-29 2012-12-19 成都理想境界科技有限公司 一种室内导航方法、系统及设备
CN102889892B (zh) * 2012-09-13 2015-11-25 东莞宇龙通信科技有限公司 实景导航的方法及导航终端
CN103424113B (zh) * 2013-08-01 2014-12-31 毛蔚青 移动终端基于图像识别技术的室内定位与导航方法
CN103398717B (zh) * 2013-08-22 2016-04-20 成都理想境界科技有限公司 全景地图数据库采集系统及基于视觉的定位、导航方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101334285A (zh) * 2007-06-29 2008-12-31 鸿富锦精密工业(深圳)有限公司 车辆导航装置及导航方法
US20110118973A1 (en) * 2009-11-16 2011-05-19 Industrial Technology Research Institute Image processing method and system
CN103052151A (zh) * 2011-10-14 2013-04-17 中国电信股份有限公司 终端定位方法、装置和移动终端
CN103249142A (zh) * 2013-04-26 2013-08-14 东莞宇龙通信科技有限公司 一种定位方法、系统及移动终端

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363603A (zh) * 2018-01-29 2018-08-03 上海闻泰电子科技有限公司 信息指引方法、装置、移动终端以及存储装置
CN108363603B (zh) * 2018-01-29 2022-04-01 上海闻泰电子科技有限公司 信息指引方法、装置、移动终端以及存储装置

Also Published As

Publication number Publication date
MX2014011940A (es) 2016-04-26
JP2016522895A (ja) 2016-08-04
MX350053B (es) 2017-08-23
RU2608971C1 (ru) 2017-01-30
KR101639312B1 (ko) 2016-07-13
CN103968846B (zh) 2017-02-08
JP6116756B2 (ja) 2017-04-19
EP2927638A1 (en) 2015-10-07
EP2927638B1 (en) 2017-03-29
KR20150124372A (ko) 2015-11-05
CN103968846A (zh) 2014-08-06

Similar Documents

Publication Publication Date Title
WO2015149455A1 (zh) 定位导航方法和装置
CN105203100B (zh) 智能引导用户搭乘电梯的方法及装置
US20170064577A1 (en) Information Display Method and Apparatus, and Storage Medium
US9818196B2 (en) Method and device for positioning and navigating
US20190082289A1 (en) Portable apparatus and method of controlling location information of portable apparatus
US8433244B2 (en) Orientation based control of mobile device
CN104034309B (zh) 角度测量方法、装置及终端
US10356558B2 (en) Obstacle locating method and apparatus
EP3848773A1 (en) Smart globe and control method therefor
US20140324938A1 (en) Device and Method for Generating Data for Generating or Modifying a Display Object
US20180032152A1 (en) Mobile terminal and method for determining scrolling speed
US9883018B2 (en) Apparatus for recording conversation and method thereof
CN111126697B (zh) 人员情况预测方法、装置、设备及存储介质
CN103906235A (zh) 终端定位的方法及终端
EP2998705A1 (en) Mobile terminal and control method for the mobile terminal
CN105892869A (zh) 图片位置调整方法及装置
CN106231237B (zh) 视频通话方法及装置
CN109696166A (zh) 一种导航方法及装置
WO2022237071A1 (zh) 定位方法及装置、电子设备、存储介质和计算机程序
CN112432636B (zh) 定位方法及装置、电子设备和存储介质
CN106289161A (zh) 高度测量方法及装置
WO2022110777A1 (zh) 定位方法及装置、电子设备、存储介质、计算机程序产品、计算机程序
EP2924568A1 (en) Execution method and device for program string
CN104199640B (zh) 方向测量方法、装置及终端
CN112860827A (zh) 设备间交互控制方法、设备间交互控制装置及存储介质

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016510932

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20147026581

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2014/011940

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2015134187

Country of ref document: RU

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14887788

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014024315

Country of ref document: BR

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14887788

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 112014024315

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140930