WO2016059904A1 - 移動体 - Google Patents

移動体 Download PDF

Info

Publication number
WO2016059904A1
WO2016059904A1 PCT/JP2015/075064 JP2015075064W WO2016059904A1 WO 2016059904 A1 WO2016059904 A1 WO 2016059904A1 JP 2015075064 W JP2015075064 W JP 2015075064W WO 2016059904 A1 WO2016059904 A1 WO 2016059904A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
moving body
information
positioning
current
Prior art date
Application number
PCT/JP2015/075064
Other languages
English (en)
French (fr)
Inventor
大輔 谷
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2016059904A1 publication Critical patent/WO2016059904A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement

Definitions

  • the present invention relates to a mobile object, and more particularly, to a mobile object equipped with a positioning function by a satellite positioning system such as GPS (Global Positioning System).
  • GPS Global Positioning System
  • an autonomous traveling type moving body has also been proposed as a moving body, so that it can be used not only for transportation purposes but also for surrounding monitoring (security). Regardless of whether it is a transportation purpose or a monitoring purpose, and whether it is an autonomous traveling type, there is a mobile body equipped with a GPS positioning function for grasping its current position. On the other hand, the moving body can move even in a place where GPS radio waves do not reach, and various position detection techniques have been proposed assuming such a situation.
  • Patent Document 1 discloses a self-position detection device that calculates an inertial movement amount of a moving body from detection signals of an acceleration sensor and an angular velocity sensor and detects the position of the moving body from the inertial movement amount.
  • the camera relative movement amount of the moving object is calculated based on image information captured by a camera mounted on the moving object so that the front of the moving object is a field of view, and is represented by the inertial movement amount.
  • the position of the moving body is corrected by the position of the moving body represented by the camera relative movement amount.
  • the self-position can be detected with high accuracy even in a place where absolute position detection using radio waves such as GPS is difficult or even when the speed of the moving body is slow.
  • Patent Document 2 discloses a current position estimation device that estimates a user's current position without using GPS at the time of route guidance.
  • the current position estimation device includes a positional relationship input unit that inputs a result visually recognized by a user regarding a relative positional relationship between a plurality of features, a map database reference unit that refers to a map database that records the positions of each feature, An estimation engine that estimates a user's current position by specifying a range that can be visually recognized with respect to a plurality of features in a relative positional relationship with reference to a map database.
  • Patent Document 3 discloses a vehicle movement determination device that can detect the movement of a vehicle even if the parked vehicle has been moved to a position where GPS satellites do not reach.
  • the camera when the vehicle is parked, the camera is used to shoot a part of the periphery of the vehicle, and at the time of starting the vehicle, the camera is used to shoot the part of the periphery of the vehicle, It is determined whether or not the vehicle has been moved while the vehicle is parked.
  • Patent Document 4 discloses a navigation system that displays a user's estimated position on a predetermined route and provides route guidance with little error even when GPS radio waves are not available.
  • This navigation system is an autonomous navigation system that calculates an estimated position based on a GPS mode that calculates an estimated position based on GPS positioning information, a user's travel distance information acquired from a pedometer, and azimuth information acquired from a geomagnetic sensor. Mode, and a pedometer mode that calculates an estimated position based only on travel distance information.
  • GPS positioning information can be acquired at the time of calculating the estimated position, it is in GPS mode, and autonomous when GPS positioning information cannot be acquired.
  • the navigation mode is switched to the pedometer mode when GPS positioning information cannot be acquired and the operation of the geomagnetic sensor is abnormal.
  • Patent Document 4 switches the mode depending on whether radio waves from a GPS satellite can be received or not, and in other modes than the GPS mode, the moving object is positioned regardless of the surrounding environment such as the position of the building. Since it is used to acquire information and the actual reception status of radio waves is not uniquely categorized as usable / unusable, it uses GPS positioning information to respond to changes over time in the surrounding environment. It cannot be said that the current position can be detected accurately.
  • the technique described in Patent Document 3 is not a technique that can only determine whether or not the vehicle has moved, and can detect the position of the vehicle.
  • the techniques described in Patent Documents 1 and 2 are techniques that do not use a positioning result by GPS. Even if the technology described in Patent Documents 1 and 2 is used only when GPS positioning results are used and radio waves from GPS satellites cannot be received, the reception status of radio waves is unambiguous. Therefore, it is not possible to divide the information into available / unusable, so it is not known which position should be used for which scene and the optimum use is not possible.
  • Patent Document 1 corrects the amount of inertial movement at the position of a moving body represented by the amount of relative movement of the camera. For correction, the same object is added to two captured images. Since there is a need to include it, there is a problem that the speed of a moving body that can cope with correction is limited if the photographing interval with the camera is long.
  • the technique described in Patent Document 2 requires a user to input a visual recognition result, cannot be applied to an autonomous traveling device, and cannot be used while traveling on a moving body that requires a driver such as an automobile. is there. The same applies when a satellite positioning system other than GPS is used.
  • the present invention has been made in view of the above circumstances, and its purpose is to receive a radio wave from a satellite in a mobile unit that detects its current position using information measured by a satellite positioning system. This is to make it possible to obtain the current position accurately even in a bad scene.
  • a first technical means of the present invention is a mobile body including a positioning information acquisition unit that acquires positioning information indicating a positioning position measured by a satellite positioning system, and is a plurality of fixed objects.
  • a storage unit for storing map information including object information indicating a position of the object, an object recognition unit for recognizing the object, and the moving body for the object based on the object information and a recognition result at the object recognition unit.
  • a relative position calculation unit that calculates a current relative position of the object, and searches for and estimates the position of the object on the map indicated by the map information, and estimates the current position of the moving object indicated by the relative position on the map
  • Do the above A position determination unit for determining the current position of the moving object is obtained by comprising the.
  • the second technical means is characterized in that, in the first technical means, the position determination unit performs weighting so as to reduce the weight of the positioning position as the likelihood increases.
  • the position determination unit when the likelihood is greater than or equal to a predetermined value, the position determination unit eliminates the weight of the positioning position and the likelihood is less than the predetermined value. The weight of the estimated position is eliminated.
  • the position estimation unit when the position estimation unit searches for the position of the object, the position estimation unit sets the current position determined by the position determination unit immediately before.
  • the search start range and / or the search range is determined based on this.
  • the object information includes information indicating a position of the object recognized in advance by the object recognition unit. It is a thing.
  • a sixth technical means is any one of the first to fifth technical means, wherein the object information includes information indicating a height of the object, and the position estimation unit estimates the estimated position. The likelihood increases as the height of the used object increases.
  • a seventh technical means is the technical means according to any one of the first to sixth technical means, wherein the object recognizing unit detects a field of view in the sky direction of the moving body, and the position estimating unit The likelihood is increased as the field of view detected by the recognition unit is narrower.
  • the position determining unit includes the number of satellites used for positioning included in the positioning information or calculated from the positioning information, and The weighting coefficient is determined based on information indicating the arrangement.
  • the map information includes accuracy information indicating a region in which the accuracy of the positioning information that can be acquired by the positioning information acquisition unit is worse than a predetermined accuracy.
  • the position estimating unit is characterized in that the position determining unit determines the weighting coefficient based on the accuracy information.
  • the storage unit stores a scheduled travel route of the moving body as a part of the map information
  • the moving body includes a drive control unit that performs autonomous traveling along the planned traveling route based on the current position determined by the position determining unit.
  • the eleventh technical means includes any one of the first to ninth technical means on the map based on the operation unit that receives a driving operation by the driver and the current position determined by the position determination unit. And a navigation unit for performing the navigation.
  • the current position in a mobile body that detects its current position using information measured by a satellite positioning system, the current position can be accurately obtained even in a situation where the reception state of radio waves from the satellite is poor.
  • the moving body according to the present invention is a moving body that moves within a facility such as a factory or a public facility, or a site such as a facility or a parking lot, or a moving body such as an automobile or a motorcycle traveling on a public road.
  • some moving bodies that automatically move within a site or facility have an autonomous traveling type control mechanism.
  • a moving body based on driving by a driver such as an automobile also has autonomous driving control so that autonomous driving or autonomous driving as driving assistance for the driver becomes possible.
  • the mobile body according to the present invention can be used not only for the purpose of transporting people and objects, but also for monitoring the surroundings while moving, and the mobile body in that case can also be called a monitoring robot.
  • FIGS. 1A to 3 A first embodiment of the present invention will be described with reference to FIGS. 1A to 3. First, a configuration example of the moving body according to the present embodiment will be described with reference to the block diagram of FIG. 1A and the external view of FIG. 1B.
  • the moving body 1 is a machine having a moving mechanism for moving, and can also be called a moving device.
  • this moving mechanism includes a drive control unit 11 and a drive unit 12 including a wheel 12 a controlled by the drive control unit 11.
  • the drive unit 12 includes, for example, an engine and / or a motor (not shown). Of course, not only the wheel 12a as illustrated, but also a crawler belt (Catapillar (registered trademark)) may be driven.
  • the moving body 1 is provided with a battery (rechargeable battery).
  • the rechargeable battery is a part that supplies power to each functional element of the vehicle.
  • a traveling function For example, a traveling function, an object recognition function (in addition to an object distance detection function, a road surface determination function may be provided), a positioning information acquisition function, This is a part that supplies power to a part that realizes a function such as a communication function.
  • a rechargeable battery for example, a lithium ion battery, a nickel metal hydride battery, a Ni—Cd battery, a lead battery, a fuel battery, and an air battery are used.
  • the moving body 1 includes a positioning information acquisition unit 13, a storage unit 14, and an object recognition unit 15, and includes a relative position calculation unit 10a, a position estimation unit 10b, and a position determination unit 10c.
  • FIG. 1A an example is shown in which the main control unit 10 that controls the moving body 1 includes the units 10a to 10c, but the present invention is not limited to this.
  • the main control unit 10 may be configured to control the drive control unit 11 and read / write to / from the storage unit 14, and also perform acquisition control by the positioning information acquisition unit 13 and recognition control by the object recognition unit 15. it can.
  • the main control unit 10 includes a control device such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), a RAM (Random Access Memory) as a work area, and a storage device, and a part or all of the control device 10. It can also be mounted as an integrated circuit / IC chip set.
  • This storage device stores a control program (including a program for executing processing to be described later in each unit 10a to 10c) and various setting contents.
  • various devices such as HDD (Hard Disk Drive) and SSD (Solid State Drive) can be applied.
  • the positioning information acquisition unit 13 is a part that acquires GPS positioning information indicating a positioning position measured by GPS.
  • the positioning information (latitude and longitude) is obtained by analyzing an antenna that receives radio waves from a GPS satellite and a received GPS signal. It consists of the analysis part etc. which ask for.
  • the antenna may be arranged at an appropriate position of the main body 16 of the moving body 1 like the position of the positioning information acquisition unit 13 illustrated in FIG. 1B. However, the antenna is not limited to the illustrated arrangement, and the antenna may be provided at a position where the sensitivity is improved.
  • the positioning information acquisition unit 13 is provided with a function of DGPS (Differential GPS) or a function of RTK-GPS (Real Time Kinematic GPS), and corrects the position from the positional relationship with the radio communication unit and the radio communication base station.
  • DGPS Direct GPS
  • RTK-GPS Real Time Kinematic GPS
  • GPS Global Navigation Satellite System
  • GLONASS Global Navigation Satellite System
  • EU's Galileo China's Beitou
  • India's IRNSS Indian Regional Navigational Satellite System
  • the Internet that is open to the public or the like may be used, or a dedicated line wireless network in which devices that can be connected are limited may be used.
  • Various wireless LAN (Local Area Network) with or without WiFi (registered trademark) authentication), ZigBee (registered trademark), Bluetooth (registered trademark) LE (Low energy), etc.
  • a method conforming to the above standard may be mentioned, and it may be used in consideration of a wireless reachable distance, a transmission band, etc.
  • a mobile phone network may be used.
  • the storage unit 14 is a part that stores the map information 14a.
  • the map information 14a also includes object information indicating the positions of a plurality of fixed objects.
  • the map information 14a also includes information indicating the position of a passable area (such as a road or a non-parking area in a parking lot).
  • the map information 14a can be said to be information indicating an environmental map.
  • the fixed object hereinafter simply referred to as an object
  • the object may include not only a real estate such as a building but also other structures such as railroad tracks, planted trees, street trees, walls, and pillars. It can be said that the object is a concept that is actually present and excludes an area (such as a road) that is actually present among concepts that are generally called features.
  • the object recognition unit 15 is a part that recognizes an object.
  • the object recognition unit 15 may basically recognize the position of the object with respect to the moving body 1 (distance and direction from the moving body 1 to the object). Therefore, as the object recognition unit 15, an obstacle detection sensor for detecting the position of the obstacle with respect to the moving body 1, a camera for taking a still image or a moving image, or the like can be used. Note that a camera that captures a still image can cope with the movement of the moving body 1 by shortening the shooting interval.
  • the obstacle detection sensor is a sensor for detecting them in advance in order to avoid collision with other moving objects and obstacles, and actively transmits light, infrared rays, other electromagnetic waves, ultrasonic waves, etc.
  • the active sensor detects the position of the obstacle by receiving the reflected wave of the transmitted wave.
  • various types of sensors such as LIDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging), laser range finder, radio wave radar (such as millimeter wave radar), and ultrasonic sensor can be applied.
  • the obstacle detection sensor performs reception using a mechanical scan system that moves left and right by a motor or multiple channels as necessary, and calculates the detection angle using the phase difference that occurs between the reception channels.
  • the obstacle may be detected by adopting an electronic scanning method.
  • the laser range finder is a distance measuring sensor that employs time-of-flight distance measurement (TOF: Time of ⁇ Flight). By providing one or two scanning axes, two-dimensional measurement and three-dimensional measurement are possible. Measurement is possible.
  • LIDAR can also be said to be a kind of laser range finder. As described above, laser, infrared, visible light, ultrasonic waves, electromagnetic waves, or the like can be used as what is emitted for sensing in the object recognition unit 15. However, it is preferable to use a laser because of high weather resistance and high ranging accuracy.
  • the object recognition unit 15 is preferably provided in front of the moving body 1 as illustrated in FIG. 1B, but it is only necessary to recognize an object in the traveling direction even if it is provided in another part.
  • the position of the object can be recognized more accurately.
  • the relative position calculation unit 10a calculates the current relative position of the moving body 1 with respect to the recognized object based on the object information and the recognition result in the object recognition unit 15.
  • Some obstacle detection sensors incorporate the function of the relative position calculation unit 10a. Since the recognition of the object means the recognition of the surrounding environment (surrounding situation) of the mobile body 1, it can be said that the object recognition unit 15 and the relative position calculation unit 10a constitute a surrounding environment information acquisition unit.
  • the position estimating unit 10b refers to the map information 14a to obtain the current estimated position on the map of the moving body 1. More specifically, the position estimation unit 10b searches and collates the position of the recognized object on the map indicated by the map information 14a and estimates the position on the map of the moving object 1 indicated by the relative position. Find the current estimated position of. For this search, an image matching (also referred to as map matching) technique can be applied. In the following description, this search is also called image matching.
  • the image matching method is not limited, but it is preferable to perform pattern matching that extracts the position of the object or a point on the surface of the object as a feature point and matches the pattern.
  • the relative position calculation unit 10a calculates the relative position of the moving body 1 after the position estimation unit 10b searches for the position of the object, and the position estimation unit 10b obtains the estimated position from the result. Good.
  • the degree of coincidence is one index representing the likelihood of the estimation.
  • the degree of coincidence or likelihood is the amount of information used for estimation, such as the accuracy of the map information 14a used for recognition (particularly the accuracy in the region where the recognized object exists) and the number of recognized objects. Will depend.
  • the position determination unit 10c determines the current position as follows.
  • the position determination unit 10c weights the current estimated position obtained by the position estimation unit 10b and the current positioning position indicated by the GPS positioning information according to the likelihood of estimation by the position estimation unit 10b.
  • the current position of the moving body 1 is determined (determined).
  • the current position determined in this way is an accurate position even in a situation where the reception state of the radio wave from the GPS satellite is poor.
  • FIG. 2 is a block diagram for explaining details of the position determining unit in the moving body in FIG. 1A
  • FIG. 3 is a diagram showing an example of a travel route of the moving body in FIG. 1A.
  • the above-mentioned weighting according to likelihood means weighting with a weighting coefficient according to likelihood. Therefore, the position determination unit 10c receives the likelihood as shown in FIG. 2, inputs the weighting coefficient calculation unit 21 that calculates the weighting coefficient, and the GPS positioning information and the estimated position together with the weighting coefficient, and calculates the current position. A weighting execution unit 22.
  • the likelihood K (0 ⁇ K ⁇ 1) is directly used as the weighting coefficient of the estimated position, and the remaining position (1-K) is used as the weighting coefficient on the positioning position side to obtain the current position.
  • This calculation may be executed for each latitude and longitude as in the following equation.
  • (1-K) is used as the weighting coefficient on the positioning position side is that the likelihood K is large and there are many objects around the mobile body 1 (the reliability of the estimated position is high), which prevents the reception of GPS signals, This is because the reliability of the GPS positioning information may be reduced.
  • the position determination unit 10c performs weighting that reduces the weight of the positioning position as the likelihood increases (that is, decreases the reliability of the positioning position). Therefore, if the matching rate (collation rate) of image matching, which can be said to be an index of likelihood, is k (%), the reliability ⁇ of the GPS positioning position may be set to 1-k / 100, for example.
  • the method of obtaining the likelihood K and ⁇ is not limited to this.
  • the reliability ⁇ on the estimated position side according to the likelihood K may be defined, the weighting coefficient on the estimated position side may be ⁇ , the weighting coefficient on the positioning position side may be 1 ⁇ , and so on.
  • a map 30 illustrated in FIG. 3 shows a map of an area where objects (buildings or other obstacles) 31a to 31d and objects (street trees or planted trees) 31e exist along the road 32. Such a map is included in the map information 14a. A description will be given assuming a scene in which the moving body 1 actually moves on the road 32 from the position of the moving body 1a to the position of the moving body 1b and the position of the moving body 1c in time series.
  • the matching rate corresponding to the likelihood is 0% or several percent, while the GPS positioning information indicates Will overlap with the actual position of the mobile body 1a.
  • the object recognition unit 15 does not have the capability of recognizing the objects 31a, 31c and the like.
  • the reliability ⁇ of the GPS positioning information is 1, and the current position is determined as the GPS positioning position.
  • the matching rate corresponding to the likelihood is 100% (or a value close thereto)
  • the GPS positioning information indicates The latitude / longitude 33b on the map is considerably different from the actual position of the moving body 1b.
  • the reliability ⁇ of the GPS positioning information is 0 (or a value close to 0)
  • the current position is determined as the estimated position (or the vicinity thereof) in the position estimation unit 10b.
  • the matching rate corresponding to the likelihood is, for example, 50%, and the latitude and longitude 33c on the map indicated by the GPS positioning information moves. It will slightly deviate from the actual position of the body 1c.
  • the reliability ⁇ of the GPS positioning information is 0.5, for example, and the current position is determined to be an intermediate position between the position estimated by the position estimation unit 10b and the position indicated by the GPS positioning information.
  • the position determination unit 10c eliminates the weight of the positioning position (determines the current position as the estimated position), and when the likelihood K is less than the predetermined value, Weighting may be performed so as to eliminate the weight of the estimated position (determine the current position as a positioning position).
  • the predetermined value may be a predetermined higher value such as 70%.
  • the position estimation unit 10b preferably determines the search start range and / or the search range on the basis of the current position determined by the position determination unit 10c immediately before. This not only increases the speed of image matching, but also preferentially extracts search results that are close to the determined search start range, or searches within the determined search range for image matching. (That is, estimation accuracy) can be improved. In particular, not only the determined current position but also the speed of the moving body 1 (and the traveling direction of the moving body 1 obtained from other sensors such as a magnetic sensor) are taken into account, and these ranges are determined, so that the Matching accuracy can be increased.
  • the moving body 1 includes a magnetic sensor that measures the geomagnetism, and detects the traveling direction of the moving body 1 by detecting the direction in which the magnetic sensor is facing. It can also be configured to output to the main control unit 10 and be used for correction of the traveling direction.
  • the object information of the map information 14a used for image matching includes information indicating the position of the object recognized in advance by the object recognition unit 15. That is, in order to use it for image matching during actual traveling, object recognition by the object recognition unit 15 (which is preferably mounted on the moving body 1 but may be non-mounted) is performed on the route planned to travel, The object recognition result and the recognized position are stored in association with each other. Thereby, the coincidence rate in image matching is increased, and the accuracy is improved.
  • the moving body 1 when the moving body 1 is used for monitoring in a specific area such as a parking lot or a site, it is very useful because a planned traveling route is determined. That is, the mobile body 1 stores the planned travel route of the mobile body 1 as part of the map information 14a in the storage unit 14, and based on the current position (current position on the map) determined by the position determination unit 10c, This is particularly beneficial when the autonomous traveling device includes the drive control unit 11 that performs autonomous traveling along the planned traveling route.
  • the example of performing autonomous traveling along such a planned traveling route can also be applied to an example not including information indicating the position of an object recognized in advance as object information.
  • the mobile body 1 performs object recognition by the object recognition unit 15 during actual travel, associates the current position determined by the position determination unit 10c with the object, and registers it as object information. You may give it.
  • SLAM Simultaneous Localization ⁇ ⁇ and Mapping
  • the object information in the map information 14a includes information indicating the height of the object (for example, the heights Ha to He in FIG. 3), that is, the map information 14a is information on a three-dimensional map. preferable.
  • the height information represents the small surface area of the object that can be recognized from the moving body 1.
  • the information is more preferably information indicating the height of an object recognized in advance by the object recognition unit 15.
  • the position estimation unit 10b in the present embodiment increases the likelihood K as the height of the object used for the estimation of the estimated position increases. More specifically, first, when an object such as a high building exists around the moving body 1, the accuracy of GPS deteriorates due to the influence of the reflected wave on the object. However, in the present embodiment, the higher the height of the object used for estimation based on the height information held as part of the map information 14a, the lighter the positioning position and the higher the estimated position weight. To confirm the current position. Therefore, for example, even when the moving body 1 is traveling in a position surrounded by objects (buildings) 31a to 31c such as the moving body 1b in FIG. 3, there is an accurate estimation result based on the object recognition. It can be determined with high accuracy.
  • FIG. 4 is a diagram showing an example of the sky image taken by the moving body 1b in the travel route of FIG.
  • description of the overlapping parts with the first embodiment is basically omitted, but various application examples described in the first embodiment can be applied, for example.
  • the object recognition unit 15 in the present embodiment detects the size of the field of view in the sky direction of the moving body 1.
  • the width of the field of view in the sky direction represents the small surface area of the object that can be recognized from the moving body 1, similarly to the height described in the second embodiment.
  • the position estimation unit 10b in the present embodiment increases the likelihood K as the field of view detected by the object recognition unit 15 is narrower. More specifically, first, for example, when a camera is used as the object recognition unit 15, it is understood that the sky field of view is opened when the proportion of the sky (not an artifact) is large by image recognition. For example, when LIDAR is used If the percentage of the distance data in the upward direction is infinite (there is no object), it can be understood that the sky field of view has been developed.
  • an object recognized by the moving body 1 at the position of the moving body 1b in FIG. 3 is an image 40 illustrated in FIG. become.
  • the sky region 41 is wider than when no object is present, and the moving body 1 is located in a situation where the sky field of view of itself is blocked (a situation where the degree of opening up the sky field of view is low). .
  • the accuracy of GPS deteriorates due to the influence of the reflected wave on the object.
  • the narrower the field of view the higher the likelihood K, thereby lightening the weighting to the positioning position and increasing the weighting to the estimated position to determine the current position.
  • this embodiment can be used in combination with the second embodiment.
  • the likelihood K is obtained based on a predetermined function having the height and the field of view as variables, or the weighting coefficient is directly set. You just have to ask for it.
  • FIG. 5 is a block diagram illustrating a configuration example of a part of the moving body according to the fourth embodiment of the present invention.
  • the description of the overlapping part with the first embodiment is basically omitted, but for example, various application examples described in the first embodiment can be applied, and the second and third examples can be applied. Combination with the embodiment is also possible.
  • the position determination unit 10c in this embodiment determines a weighting coefficient based on information indicating the number and arrangement of GPS satellites used for positioning (hereinafter referred to as satellite arrangement information). An example of such a configuration will be described.
  • FIG. 5 illustrates a part of the moving body 1, but the positioning information acquisition unit 13 includes a GPS signal reception unit 51, a GPS coordinate calculation unit 52, and a DOP (Dilution Of Precision) value calculation unit 53.
  • the position estimation unit 10 b includes a position coordinate estimation unit 54 and a likelihood calculation unit 55.
  • the position determination unit 10c includes a weighting coefficient calculation unit 21 and a weighting execution unit (multiplication unit) 22 as illustrated in FIG.
  • the position coordinate estimation unit 54 calculates an estimated position (coordinates of the estimated position) by image matching, and the likelihood calculation unit 55 calculates the likelihood K from the calculation process.
  • the GPS signal receiving unit 51 receives a radio wave from a GPS satellite, and the GPS coordinate calculation unit (analysis unit) 52 analyzes the received signal to calculate GPS positioning coordinates. Further, the DOP value calculation unit 53 analyzes the received signal or calculates the DOP value from the calculation process of the GPS positioning coordinates.
  • the satellite arrangement information is information included in the GPS positioning information acquired by the positioning information acquisition unit 13 or information that can be calculated from the GPS positioning information.
  • an index value indicating the degree of deterioration of the GPS satellite arrangement That is, it is possible to use a DOP value that is an index value indicating the degree of degradation of GPS accuracy. The greater the DOP value, the lower the GPS accuracy.
  • a value of 0 to 1 may be used as the DOP value, but is not limited to this.
  • the DOP value has many index values such as a geometric accuracy reduction rate, a horizontal accuracy reduction rate, and a vertical degree reduction rate, and any value or a plurality of values may be adopted. Good.
  • the satellite arrangement information such as the DOP value can be said to be an index representing the breadth of the field of view above the moving body 1, and is related to the number and height of objects around the moving body 1. There is a relationship. In general, when the DOP value is high, the reliability of the positioning position is low and the reliability of the estimated position is high because the positioning of the satellite is bad, for example, the satellite is fixed.
  • the weighting coefficient calculation unit 21 inputs the likelihood K from the likelihood calculation unit 55 and the DOP value from the DOP value calculation unit 53, and calculates the weighting coefficient from these values.
  • a K ⁇ DOP value may be used as the weighting coefficient ⁇ on the estimated position side, and the weighting coefficient on the GPS positioning position side may be 1 ⁇ .
  • the example using the value between 0 and 1 was given as a K and DOP value, it is not restricted to this, In that case, what is necessary is just to normalize (normalize).
  • the position determination unit 10c may perform weighting that reduces the weight of the positioning position as the DOP value increases (that is, decreases the reliability of the positioning position).
  • the position determining unit 10c eliminates the weight of the positioning position (determines the current position as the estimated position), and the DOP value is the predetermined value. If it is less than the weight, weighting may be performed so as to eliminate the weight of the estimated position (determine the current position as a positioning position).
  • the satellite arrangement information is a determination condition to be added to the weighting coefficient determination conditions as described in the first to third embodiments.
  • the determination procedure is not limited. For example, after the weighting coefficient is determined according to the determination conditions described in the first to third embodiments, it may be corrected based on the satellite arrangement information.
  • the weighting execution unit (multiplication unit) 22 uses the weighting coefficient to determine the positioning coordinate input from the GPS coordinate (positioning coordinate) calculation unit 52 and the estimated position coordinate input from the position coordinate estimation unit 54.
  • weighting is performed according to the following equation to calculate (determine) the coordinates of the current position.
  • the mobile body according to the present embodiment is the same as the mobile body 1 described in the first embodiment and the like, the positioning information acquisition unit 13, the storage unit 14, the object recognition unit 15, the relative position calculation unit 10a, and the position estimation unit. 10b, but the processing of the position determination unit 10c is slightly different.
  • the position determination unit 10c in the present embodiment weights the current estimated position obtained by the position estimation unit 10b and the current positioning position indicated by the GPS positioning information according to the satellite arrangement information (calculation of a weighting coefficient). To determine the current position of the moving object. For example, when the DOP value is low, the weighting coefficient on the positioning position side is increased and the weighting coefficient on the estimated position side is decreased. Conversely, when the DOP value is high, the weighting coefficient on the positioning position side is lowered and the weighting coefficient on the estimated position side is increased. It can be said that performing weighting based on satellite arrangement information as in the present embodiment is beneficial for improving the accuracy of the current position.
  • the map information 14a includes accuracy information indicating a region where the accuracy of the GPS positioning information that can be acquired by the positioning information acquisition unit 13 is worse than a predetermined accuracy.
  • the timing for embedding the accuracy information in the map information 14a may be, for example, the same timing as the prior object recognition in the object recognition unit 15 described in the first embodiment. Therefore, when the map information 14a is first created (map) At the time of construction) or a learning function for accuracy information.
  • the accuracy information learning function is provided, for example, the difference between the current position determined by the position determination unit 10c and the positioning position indicated by the GPS positioning information used at that time is regarded as an error, and the accuracy information at the current position is used. That's fine.
  • This accuracy information can be used as information indicating the reliability of the current GPS positioning information acquired by the positioning information acquisition unit 13 and is an index indicating the breadth of the field of view above the moving body 1. It is related to the number and height of surrounding objects, and therefore also related to the ease of estimation. Therefore, the position determination unit 10c in the present embodiment determines the weighting coefficient based on the accuracy information. And it can be said that determining the weighting coefficient based on the accuracy information in this way is useful for improving the accuracy of the current position.
  • the position determination unit 10c When determining the weighting coefficient, the position determination unit 10c performs weighting that increases the weight of the positioning position as the accuracy indicated by the accuracy information increases (that is, increases the reliability of the positioning position). Alternatively, when the accuracy indicated by the accuracy information is greater than or equal to a predetermined value (for example, 50% of the maximum value), the position determination unit 10c eliminates the weight of the estimated position (determines the current position as the positioning position), and the accuracy is If it is less than the predetermined value, weighting may be performed so as to eliminate the weight of the positioning position (determine the current position as the estimated position).
  • a predetermined value for example, 50% of the maximum value
  • accuracy information only two values of “0” indicating that the accuracy is low and “1” indicating that the accuracy is high are adopted, and in the case of the former, the estimated position is determined, and in the case of the latter, You may make it fix to a positioning position.
  • the accuracy information is a determination condition to be added to the weighting coefficient determination conditions as described in the first to fourth embodiments.
  • the determination procedure is not limited. For example, after the weighting coefficient is determined according to the determination conditions described in the first to fourth embodiments, it may be corrected based on the accuracy information.
  • the mobile body according to the present embodiment is the same as the mobile body 1 described in the first embodiment and the like, the positioning information acquisition unit 13, the storage unit 14, the object recognition unit 15, the relative position calculation unit 10a, and the position estimation unit. 10b, but the processing of the position determination unit 10c is slightly different.
  • the position determination unit 10c performs weighting (calculation of a weighting coefficient) according to accuracy information for the current estimated position obtained by the position estimation unit 10b and the current positioning position indicated by the GPS positioning information. Determine the current position of the moving object. For example, when the accuracy information indicates that the GPS accuracy is high, the weighting coefficient on the positioning position side is increased and the weighting coefficient on the estimated position side is decreased. Conversely, when the accuracy information indicates that the GPS accuracy is low, the weighting coefficient on the positioning position side is decreased and the weighting coefficient on the estimated position side is increased. It can be said that performing weighting based on accuracy information as in this embodiment is beneficial for improving the accuracy of the current position.
  • FIG. 6 is a block diagram illustrating a configuration example of a moving object according to the eighth embodiment of the present invention.
  • the description of the overlapping part with the first embodiment is basically omitted, but for example, various application examples described in the first embodiment can be applied, and the second to seventh embodiments can be applied. It can be used in combination with any embodiment.
  • the moving body 6 is based on the operation unit 61 that receives a driving operation by the driver, in addition to the units 11 to 15 in FIG. 1, and the current position determined by the position determination unit 10c.
  • a navigation unit 62 that performs navigation on the map indicated by the map information 14a.
  • the operation unit 61 includes a handle, an accelerator, a brake, and the like.
  • the navigation unit 62 displays, for example, a map such as the map 30 illustrated in FIG. 3 (however, the position of the moving body is one location of the current position), for example, a destination registered in advance by a driver or a passenger It may be guided by voice and a route display so as to go to (to be along a planned travel route to the destination). Therefore, the navigation unit 62 includes an image display unit and / or an audio output unit.
  • an autonomous traveling function may be provided. In that case, autonomous traveling may be supplemented by driving of the driver, or deficiencies of driving by the driver may be supplemented by autonomous traveling.

Abstract

 衛星測位システムで測位した測位情報を用いて自己の現在位置を検出する移動体において、衛星からの電波の受信状態が悪い場面でも精確に現在位置を求める。本発明に係る移動体(1)は、複数の固定された物体の位置を示す物体情報を含む地図情報(14a)を記憶する記憶部(14)と、物体認識部(15)と、上記物体情報と物体認識部(15)での認識結果とに基づき上記物体に対する移動体(1)の現在の相対位置を算出する相対位置算出部(10a)と、上記地図情報が示す地図上において上記物体の位置を検索して推定し、上記相対位置が示す移動体(1)の上記地図上での現在の推定位置を求める位置推定部(10b)と、求められた現在の推定位置と上記測位情報が示す現在の測位位置とに対し、位置推定部(10b)での推定の尤度に応じた重み付けを行い、移動体(1)の現在位置を確定する位置確定部(10c)と、を備える。

Description

移動体
 本発明は、移動体に関し、より詳細には、GPS(Global Positioning System)等の衛星測位システムによる測位機能を搭載した移動体に関する。
 従来から、人や物を運ぶための移動体は様々な種類が流通している。また、移動体には自律走行型の移動体も提案されており、これにより、運搬目的だけでなく、周囲の監視(警備)のためにも用いることができる。そして、運搬目的、監視目的に拘わらず、また自律走行型か否かに拘わらず、移動体には自身の現在位置を把握するためのGPSによる測位機能が搭載されているものがある。一方で、移動体はGPSの電波が届かない場所でも移動可能であり、そのような場面を想定した様々な位置検出技術が提案されている。
 例えば、特許文献1には、加速度センサや角速度センサの検出信号から移動体の慣性移動量を算出し、その慣性移動量から移動体の位置を検出する自己位置検知装置が開示されている。この装置では、移動体の前方が視野となるようにして移動体に搭載したカメラにより撮像した画像情報に基づいて、移動体のカメラ相対移動量を算出し、慣性移動量により表わされている移動体の位置を、カメラ相対移動量により表わされている移動体の位置により補正している。これにより、GPS等の電波を用いた絶対位置検知が困難な場所でも、また移動体の速度が遅い場合でも、高精度に自己位置が検知できる。
 特許文献2には、経路案内時に、GPSを利用せずに、ユーザの現在位置を推定する現在位置推定装置が開示されている。この現在位置推定装置は、複数の地物相互の相対的な位置関係についてユーザが視認した結果を入力する位置関係入力部と、各地物の位置を記録した地図データベースを参照する地図データベース参照部と、地図データベースを参照して、複数の地物について、相対的な位置関係で視認可能な範囲を特定することにより、ユーザの現在位置を推定する推定エンジンと、を備えている。
 特許文献3には、GPS衛星が届かないような位置に駐車車両が移動されてしまったとしても、車両の移動を検出することが可能な車両移動判定装置が開示されている。この装置では、車両の駐車時に車両の周囲の一部をカメラに撮影させ、その後、車両の始動時において、車両の周囲の上記一部をカメラに撮影させ、両者の画像を比較することで、車両の駐車中に車両が移動されたか否かを判定している。
 特許文献4には、GPS電波が利用できないところでも、所定の経路上のユーザの推定位置を表示して誤差の少ない経路案内を行うナビゲーションシステムが開示されている。このナビゲーションシステムは、推定位置を、GPS測位情報に基づき推定位置を算出するGPSモードと、歩数計から取得したユーザの進行距離情報と地磁気センサから取得した方位情報に基づき推定位置を算出する自律航法モードと、進行距離情報のみに基づき推定位置を算出する歩数計モードと、を備え、推定位置の算出時にGPS測位情報が取得可能であるときはGPSモードに、GPS測位情報が取得できないときは自律航法モードに、さらに、GPS測位情報が取得できず且つ地磁気センサの動作が異常であるときは歩数計モードに切り替えている。
特開2005-315709号公報 特開2007-205948号公報 特開2009-280046号公報 特開2012-230092号公報
 しかしながら、特許文献4に記載の技術は、GPS衛星からの電波が受信可能か受信不能かでモードを切り替え、且つGPSモード以外のモードでは建物の位置などの周囲環境とは無関係に移動体が位置情報を取得するものであり、実際の電波の受信状態は一義的に利用可能/利用不能で分けられるものではないため、GPSによる測位情報を生かし切って周囲環境の経時的な変化に対応して精確に現在位置を検出できるとは言えない。
 なお、特許文献3に記載の技術は、車両が移動したか否かを判定することが可能であるだけで、車両の位置を検出できる技術ではない。また、特許文献1,2に記載の技術は、GPSによる測位結果を利用しない技術である。仮に、GPSによる測位結果を利用し、GPS衛星からの電波が受信できなくなった場合にのみ、特許文献1,2に記載された技術を利用するように構成したとしても、電波の受信状態は一義的に利用可能/利用不能で分けられるものではないため、どのような場面にどちらの結果を利用すれば良い位置検出ができるのかについては分からず、最適な利用ができているとは言えない。
 また、特許文献1に記載の技術は、慣性移動量をカメラ相対移動量で表された移動体の位置で補正するものであり、補正のためには撮影された2枚の画像に同じ物体を含める必要があるため、基本的にカメラでの撮影間隔が長ければ補正に対応できる移動体のスピードも限られてくる、といった問題もある。また、特許文献2に記載の技術はユーザが視認結果を入力する必要があり、自律走行装置には適用できず、自動車等の運転者が必要な移動体では走行中に利用できない、といった問題もある。
 また、GPS以外の衛星測位システムを用いた場合でも同様である。
 本発明は、上述のような実状に鑑みてなされたものであり、その目的は、衛星測位システムで測位した情報を用いて自己の現在位置を検出する移動体において、衛星からの電波の受信状態が悪い場面でも、精確に現在位置を求めることを可能にすることにある。
 上記課題を解決するために、本発明の第1の技術手段は、衛星測位システムで測位した測位位置を示す測位情報を取得する測位情報取得部を備えた移動体であって、複数の固定された物体の位置を示す物体情報を含む地図情報を記憶する記憶部と、前記物体を認識する物体認識部と、前記物体情報と該物体認識部での認識結果とに基づき前記物体に対する前記移動体の現在の相対位置を算出する相対位置算出部と、前記地図情報が示す地図上において前記物体の位置を検索して推定し、前記相対位置が示す前記移動体の前記地図上での現在の推定位置を求める位置推定部と、前記位置推定部で求められた現在の前記推定位置と前記測位情報が示す現在の前記測位位置とに対し、前記位置推定部での推定の尤度に応じた重み付けを行い、前記移動体の現在位置を確定する位置確定部と、を備えたことを特徴としたものである。
 第2の技術手段は、第1の技術手段において、前記位置確定部は、前記尤度が増すに連れて前記測位位置の重みを軽くするような重み付けを行うことを特徴としたものである。
 第3の技術手段は、第1の技術手段において、前記位置確定部は、前記尤度が所定値以上である場合、前記測位位置の重みを無くし、前記尤度が前記所定値未満である場合、前記推定位置の重みを無くすことを特徴としたものである。
 第4の技術手段は、第1~第3のいずれか1の技術手段において、前記位置推定部は、前記物体の位置を検索するに際し、直前に前記位置確定部で確定された前記現在位置に基づき検索開始範囲及び/又は検索範囲を決定することを特徴としたものである。
 第5の技術手段は、第1~第4のいずれか1の技術手段において、前記物体情報は、前記物体認識部で事前に認識させた前記物体についての位置を示す情報を含むことを特徴としたものである。
 第6の技術手段は、第1~第5のいずれか1の技術手段において、前記物体情報は、前記物体についての高さを示す情報を含み、前記位置推定部は、前記推定位置の推定に使用した前記物体の高さが高い程、前記尤度を上げることを特徴としたものである。
 第7の技術手段は、第1~第6のいずれか1の技術手段において、前記物体認識部は、前記移動体の上空方向の視界の広さを検出し、前記位置推定部は、前記物体認識部で検出された前記視界の広さが狭い程、前記尤度を上げることを特徴としたものである。
 第8の技術手段は、第1~第7のいずれか1の技術手段において、前記位置確定部は、前記測位情報に含まれる或いは前記測位情報から算出される、測位に使用した衛星の数及び配置を示す情報に基づき、前記重み付けの係数を決定することを特徴としたものである。
 第9の技術手段は、第1~第8のいずれか1の技術手段において、前記地図情報は、前記測位情報取得部で取得できる前記測位情報の精度が所定精度より悪くなる領域を示す精度情報を含み、前記位置推定部は、前記精度情報に基づき前記位置確定部が前記重み付けの係数を決定することを特徴としたものである。
 第10の技術手段は、第1~第9のいずれか1の技術手段において、前記記憶部は、前記地図情報の一部として前記移動体の予定走行経路を記憶し、前記移動体は、前記位置確定部で確定された前記現在位置に基づき、前記予定走行経路に沿った自律走行を行う駆動制御部を備えた自律走行装置であることを特徴としたものである。
 第11の技術手段は、第1~第9のいずれか1の技術手段において、運転者による運転操作を受け付ける操作部と、前記位置確定部で確定された前記現在位置に基づき、前記地図上でのナビゲーションを行うナビゲーション部と、を備えたことを特徴としたものである。
 本発明によれば、衛星測位システムで測位した情報を用いて自己の現在位置を検出する移動体において、衛星からの電波の受信状態が悪い場面でも、精確に現在位置を求めることができる。
本発明の第1の実施形態に係る移動体の一構成例を示すブロック図である。 図1Aの移動体の一例を示す外観図である。 図1Aの移動体における位置確定部の詳細を説明するためのブロック図である。 図1Aの移動体の走行経路の一例を示す図である。 図3の走行経路において移動体が撮影した上空の画像の一例を示す図である。 本発明の第4の実施形態に係る移動体の一部の構成例を示すブロック図である。 本発明の第8の実施形態に係る移動体の一構成例を示すブロック図である。
 本発明に係る移動体は、工場や公共施設の施設内、或いはそれらの施設や駐車場等の敷地内で移動させる移動体や、公道を走行する自動車や自動二輪車等の移動体などである。特に敷地内や施設内で自動的に移動させる移動体には、自律走行型の制御機構を有しているものがある。自動車等の運転者による運転を基本とする移動体も自律走行型の制御を搭載することで、自律走行、或いは運転者の運転補助としての自律走行が可能になる。また、本発明に係る移動体は、人や物を運搬する運搬目的だけでなく、移動しながら周囲を監視するためにも用いることができ、その場合の移動体は監視ロボットとも呼べる。以下、図面を参照しながら、本発明の様々な実施形態について説明する。
(第1の実施形態)
 本発明の第1の実施形態について、図1A~図3を参照しながら説明する。まず、図1Aのブロック図、図1Bの外観図を参照しながら、本実施形態に係る移動体の一構成例について説明する。
 移動体1は、移動を行うための移動機構を備えたマシンであり、移動装置とも呼べる。図1A,図1Bの例では、この移動機構は、駆動制御部11と、駆動制御部11により制御される車輪12aを含む駆動部12で構成される。駆動部12は、例えば図示しないエンジン及び/又はモータなどを備えている。無論、例示するような車輪12aに限らず、例えば履帯(キャタピラー(登録商標))などを駆動させてもよい。その他、移動体1にはバッテリ(充電池)が設けられる。充電池は、車両の各機能要素に対して電力を供給する部分であり、例えば走行機能、物体認識機能(物体距離検出機能の他、路面判定機能を設けてもよい)、測位情報取得機能、通信機能などの機能を実現する部位に電力を供給する部分である。充電池としては、例えばリチウムイオン電池、ニッケル水素電池、Ni-Cd電池、鉛電池、燃料電池、空気電池が用いられる。
 さらに、移動体1は、測位情報取得部13、記憶部14、及び物体認識部15を備えると共に、相対位置算出部10a、位置推定部10b、及び位置確定部10cを備える。図1Aでは移動体1を制御する主制御部10に各部10a~10cを備えた例を挙げているが、これに限ったものではない。
 なお、主制御部10は、駆動制御部11の制御及び記憶部14への読み書きを行い、測位情報取得部13での取得や物体認識部15での認識の制御も行うように構成することもできる。例えばこの主制御部10は、CPU(Central Processing Unit)又はMPU(Micro Processing Unit)、作業領域としてのRAM(Random Access Memory)、及び記憶装置などの制御デバイスで構成され、その一部又は全部を集積回路/ICチップセットとして搭載することもできる。この記憶装置には、制御プログラム(各部10a~10cでの後述の処理を実行するためのプログラムを含む)をはじめ、各種設定内容などが記憶される。この記憶装置としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)など様々な装置が適用できる。
 測位情報取得部13は、GPSで測位した測位位置を示すGPS測位情報を取得する部位であり、GPS衛星からの電波を受信するアンテナや受信したGPS信号を解析して測位情報(緯度、経度)を求める解析部などで構成される。アンテナは、図1Bで例示する測位情報取得部13の位置のように移動体1の本体16の適所に配置しておけばよい。但し、例示する配置に限らず、その感度が良くなるような位置にアンテナが設けられていればよい。なお、測位情報取得部13は、DGPS(Differential GPS)の機能又はRTK-GPS(Real Time Kinematic GPS)の機能を設けることや、無線通信部及び無線通信基地局との位置関係から位置を補正する機能を設けることで、コストは嵩むがその精度を上げることもできる。
 本実施形態に限らず、以下ではGPSを用いる例を挙げて説明しているが、GPSと同様の他の衛星測位システム(地域航法衛星システム)を適用することもできる。他の衛星測位システムとしては、日本の準天頂衛星システム(Quasi-Zenith Satellite System:QZSS)、ロシアのGLONASS(Global Navigation Satellite System)、EUのガリレオ、中国の北斗、インドのIRNSS(Indian Regional Navigational Satellite System)などが挙げられる。
 上述の無線通信部等における無線通信のネットワークとしては、公衆に開放されているインターネットなどを利用してもよく、或いは、接続できる装置が限定される専用回線の無線ネットワークを利用してもよい。無線通信路での無線伝送方式としては、各種無線LAN(Local Area Network)(WiFi(登録商標)認証の有無は問わない)、ZigBee(登録商標)、Bluetooth(登録商標) LE(Low Energy)などの規格に準じた方式が挙げられ、無線到達距離や伝送帯域などを考慮して使用すればよいが、例えば携帯電話網などを利用してもよい。
 記憶部14は、地図情報14aを記憶する部位である。この地図情報14aには、複数の固定された物体の位置を示す物体情報も含まれている。また、地図情報14aには、通行可能な領域(道路や駐車場内の非駐車領域など)の位置を示す情報も含まれている。移動体1が監視ロボットである場合には、この地図情報14aは環境地図を示す情報であると言える。ここで、固定された物体(以下、単に物体と言う)には、建物等の不動産だけでなく、線路、植木や街路樹、壁や柱など、他の構造物を含めておけばよい。上記物体は、一般的に地物と呼ばれる概念のうち、実際に存在するものであって且つ通行可能な領域(道路等)を除いたものと言える。
 物体認識部15は、物体を認識する部位である。物体認識部15は、基本的に物体の移動体1に対する位置(移動体1から物体までの距離と方向)が認識できればよい。よって、物体認識部15としては、移動体1に対する障害物の位置を検出するための障害物検知センサや、静止画又は動画を撮影するためのカメラなどが利用できる。なお、静止画を撮影するカメラでは撮影間隔を短くすることで移動体1の移動に対応できる。
 上記障害物検知センサは、他の移動体や障害物との衝突を避けるためにそれらを事前に検知するためのセンサであり、光や赤外線や他の電磁波や超音波などを能動的に発信し、その発信波の反射波を受信して障害物の位置を検知するアクティブセンサである。障害物検知センサとしては、例えば、LIDAR(Light Detection and Ranging又はLaser Imaging Detection and Ranging)、レーザレンジファインダ、電波レーダ(ミリ波レーダ等)、超音波センサなど、様々な種類のセンサが適用できる。また、障害物検知センサは、必要に応じて、モータによって左右に動かすメカニカルスキャン方式、或いは、複数のチャンネルを使って受信を行い、受信チャンネル間に発生する位相差を利用して検知角度を算出する電子スキャン方式を採用して、障害物の検知を行えばよい。なお、レーザレンジファインダは光飛行時間測距方式(TOF:Time of Flight)を採用した測距センサであり、走査軸を1軸、2軸もたせることで、それぞれ2次元平面の計測、3次元的な計測が可能となる。また、LIDARはレーザレンジファインダの一種であるとも言える。このように、物体認識部15においてセンシングのために放射されるものとしては、レーザー、赤外線、可視光、超音波、電磁波などを用いることができる。但し、耐天候性の高さと測距精度が高いことから、レーザーを用いることが好ましい。
 また、物体認識部15は図1Bで例示したように移動体1の前方に設けられることが好ましいが、他の部分に設けられていても進行方向の物体が認識できればよい。また、複数の物体認識部15を別々の位置に設けること、及び/又は、複数種類の物体認識部15を設けることで、物体の位置をより精確に認識させることができる。
 相対位置算出部10aは、上記物体情報と物体認識部15での認識結果とに基づき、認識された物体に対する移動体1の現在の相対位置を算出する。なお、障害物検知センサには相対位置算出部10aの機能が組み込まれたものもある。物体の認識は移動体1の周辺環境(周辺状況)の認識を意味するため、物体認識部15及び相対位置算出部10aは、周辺環境情報取得部を構成していると言える。
 位置推定部10bは、地図情報14aを参照して移動体1の地図上での現在の推定位置を求める。より具体的には、位置推定部10bは、地図情報14aが示す地図上において上記認識された物体の位置を検索(照合)して推定し、上記相対位置が示す移動体1の上記地図上での現在の推定位置を求める。この検索には、画像マッチング(マップマッチングとも言う)の手法が適用でき、以下の説明ではこの検索を画像マッチングとも呼ぶ。また、画像マッチングの手法は問わないが、物体の位置又は物体の表面上の点を特徴点して抽出し、そのパターンをマッチングさせるパターンマッチングを行うことが好ましい。
 このとき、もし物体が1つしか認識できなかった場合でも、例えばその物体の表面における水平方向の2点を結ぶ線分の角度は認識できるため、画像マッチングは可能である。よって、物体が1つでも存在すれば、移動体1に対する物体の距離だけでなく方位も推定できることになる。なお、位置推定部10bで物体の位置を検索後に、相対位置算出部10aで移動体1の相対位置を算出し、その結果から位置推定部10bが推定位置を求めるような手順を採用してもよい。
 位置推定部10bでは、画像マッチングによる推定を行っているため、その一致度合い(一致率)が、その推定の尤度を表す一つの指標となる。尤度が高いと、位置推定部10bにおける自己位置の推定結果が信頼できることを意味し、逆に尤度が低いとその推定結果が信頼できないことを意味する。そして、一致度合い或いは尤度は、認識に使用した地図情報14aの精確さ(特に、認識された物体の存在する領域における精確さ)や認識された物体の数など、推定に使用した情報量に依存することになる。
 例えば、広大な砂漠や広場など、周囲360度にわたって環境に変化がない状況下では、自己位置を推定する特徴点を見つけられずに(情報量が足りずに)推定の精度が劣化する(つまり尤度が低くなる)。しかし、このような状況下では、GPS衛星から移動体1への障害物が無くなるため、GPS測位情報の精度が高い。逆に、高い建物が周りにある状況下では、推定の精度が上がる(つまり尤度が高くなる)。このような状況下では、GPS測位情報は、建物に反射した電波を受信することや、衛星が見えなくなることがあるため、その精度を悪化させる。これらの点を考慮し、位置確定部10cは次のように現在位置を確定する。
 すなわち、位置確定部10cは、位置推定部10bで求められた現在の推定位置とGPS測位情報が示す現在の測位位置とに対し、位置推定部10bでの推定の尤度に応じた重み付けを行い、移動体1の現在位置を確定(決定)する。そして、このようにして確定する現在位置は、GPS衛星からの電波の受信状態が悪い場面でも精確な位置となる。
 次に、図2及び図3を参照しながら、本実施形態における位置確定部10cのより具体的な例について説明する。図2は、図1Aの移動体における位置確定部の詳細を説明するためのブロック図、図3は、図1Aの移動体の走行経路の一例を示す図である。
 上述した尤度に応じた重み付けとは、尤度に応じた重み付け係数で重み付けすることを意味する。よって、位置確定部10cは、図2に示すように尤度を入力し、重み付け係数を算出する重み付け係数算出部21と、その重み付け係数と共にGPS測位情報及び推定位置を入力し、現在位置を算出する重み付け実行部22と、を有する。
 例えば、尤度K(0<K≦1)をそのまま推定位置の重み付け係数に用い、測位位置側の重み付け係数としてその残余(1-K)を用い、現在位置を求める。この計算は、次式のように緯度、経度それぞれに対して実行すればよい。測位位置側の重み付け係数として(1-K)を用いる理由は、尤度Kが大きいことが移動体1の周囲に物体が多く(推定位置の信頼度が高く)、GPS信号の受信を妨げ、GPS測位情報の信頼性が低下している可能性があるためである。
(現在位置の緯度)=(1-K)×(GPS測位位置の緯度)+K×(推定位置の緯度)
(現在位置の経度)=(1-K)×(GPS測位位置の経度)+K×(推定位置の経度)
 これらの式は、GPS測位情報の信頼度をα(0<α≦1)としたとき、下式を意味する。
(現在位置の緯度)=α×(GPS測位位置の緯度)+(1-α)×(推定位置の緯度)
(現在位置の経度)=α×(GPS測位位置の経度)+(1-α)×(推定位置の経度)
 この例のように、位置確定部10cは、尤度が増すに連れて測位位置の重みを軽くするような(つまり測位位置の信頼度を下げるような)重み付けを行うことが好ましい。よって、尤度の指標と言える画像マッチングの一致率(照合率)がk(%)であれば、GPS測位位置の信頼度αは例えば1-k/100とすればよい。但し、尤度Kやαの求め方はこれに限らない。無論、尤度Kに応じた推定位置側の信頼度βを規定し、推定位置側の重み付け係数をβ、測位位置側の重み付け係数を1-βとするなどしてもよい。
 図3で例示する地図30は、物体(建物又は他の障害物)31a~31d及び物体(街路樹又は植木)31eが道路32に沿って存在する領域の地図を示している。このような地図が地図情報14aに含まれることになる。そして、この道路32上に移動体1が時系列で移動体1aの位置から、移動体1bの位置、移動体1cの位置へと実際に移動するシーンを想定して説明する。
 まず、移動体1が移動体1aの位置に存在する場面では、物体が周囲に存在しないため、尤度に対応する一致率が0%か数%となる一方で、GPS測位情報が示す地図上の緯度経度33aが移動体1aの実際の位置と重なることになる。無論、ここでは物体認識部15が物体31a,31cなどを認識できる性能をもっていない例を想定している。この場合、GPS測位情報の信頼度αは1となり、現在位置がGPSの測位位置に確定される。
 移動体1が移動体1bの位置に存在する場面では、物体が周囲に多数存在するため、尤度に対応する一致率が100%(又はそれに近い値)となる一方で、GPS測位情報が示す地図上の緯度経度33bが移動体1bの実際の位置とはかなりズレることになる。この場合、GPS測位情報の信頼度αは0(又は0に近い値)となり、現在位置が位置推定部10bでの推定位置(又はそれ付近)に確定される。
 移動体1が移動体1cの位置に存在する場面では、物体が周囲に少数存在するため、尤度に対応する一致率が例えば50%となり、GPS測位情報が示す地図上の緯度経度33cが移動体1cの実際の位置と若干ズレることになる。この場合、GPS測位情報の信頼度αは例えば0.5となり、現在位置が位置推定部10bでの推定位置とGPS測位情報が示す位置との中間の位置に確定される。
 また、位置確定部10cは、上記尤度Kが所定値以上である場合、上記測位位置の重みを無くし(現在位置を推定位置に確定する)、尤度Kが上記所定値未満である場合、上記推定位置の重みを無くす(現在位置を測位位置に確定する)ように重み付けを行ってもよい。所定値としては、例えば70%など予め決めた高めの値であればよい。
 次に、その他の応用例について説明する。
 位置推定部10bは、画像マッチングを実行するに際し、直前に位置確定部10cで確定された現在位置に基づき、検索開始範囲及び/又は検索範囲を決定するようにすることが好ましい。これにより、画像マッチングの速度を上げるだけでなく、決定した検索開始範囲に近いものを優先的に検索結果として抽出したり、決定した検索範囲内に絞りこんで検索したりすることで、画像マッチングの精度(つまり推定の精度)も上げることができる。特に、確定された現在位置だけでなく、移動体1の速度(及び磁気センサ等の他のセンサから得た移動体1の進行方向)も加味して、これらの範囲を決めることで、より画像マッチングの精度を上げることができる。
 この例からも分かるように、移動体1は、地磁気を計測する磁気センサなどを備え、その磁気センサが向いている方向を検知することで移動体1の進行方向を検知して、検知結果を主制御部10に出力して進行方向の修正に利用するように構成することもできる。
 また、画像マッチングに使用する地図情報14aの物体情報は、物体認識部15で事前に認識させた物体についての位置を示す情報を含むことが好ましい。つまり、実際の走行時の画像マッチングに用いるために、走行する予定の経路上で物体認識部15(移動体1に搭載しておくことが好ましいが非搭載でもよい)による物体認識を実行し、その物体認識結果と認識した位置を関連付けて格納しておく。これにより、画像マッチングでの一致率が上がり、精度が向上する。
 例えば駐車場や敷地内などの或る特定領域内の監視用に移動体1を用いる場合には、予定走行経路が決まっているため非常に有益となる。つまり、移動体1が、記憶部14に地図情報14aの一部として移動体1の予定走行経路を記憶し、位置確定部10cで確定された現在位置(地図上の現在位置)に基づき、上記予定走行経路に沿った自律走行を行う駆動制御部11を備えた自律走行装置である場合には、特に有益となる。無論、このような予定走行経路に沿った自律走行を行う例は、物体情報として事前認識された物体の位置を示す情報を含まない例にも適用できる。
 また、このような事前の物体認識は、上述した例に限ったものではない。移動体1は、実際の走行時に物体認識部15での物体認識を実行し、その際に位置確定部10cで確定した現在位置とその物体とを関連付け、物体情報として登録するような学習機能をもたせてもよい。また、近年ではカメラやレーザレンジファインダ等の物体認識結果に基づく自己位置推定と地図の作成とを同時に行うSLAM(Simultaneous Localization and Mapping)技術の開発が盛んに行われており、このSLAM技術により、物体情報を含む地図情報14aを作成するようにしてもよい。
(第2の実施形態)
 本発明の第2の実施形態について、主に図3を参照しながら説明する。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用できる。
 本実施形態では、地図情報14aにおける物体情報は、物体についての高さ(例えば図3の高さHa~He)を示す情報を含むこと、つまり地図情報14aが3次元地図の情報であることが好ましい。ここで、高さの情報は移動体1から認識できる物体の表面積の少なさを表すものである。特に、物体認識部15で事前に認識させた物体についての高さを示す情報であることがより好ましい。
 そして、本実施形態における位置推定部10bは、上記推定位置の推定に使用した物体の高さが高い程、上記尤度Kを上げるようにする。具体的に説明すると、まず移動体1の周囲に高いビル等の物体が存在した場合、物体での反射波の影響によりGPSの精度が悪化する。しかし、本実施形態では、地図情報14aの一部として保持された高さ情報に基づき推定に使用した物体の高さが高い程、測位位置への重み付けを軽くし推定位置への重み付けを重くして現在位置の確定を行う。よって、例えば移動体1が図3の移動体1bのような物体(ビル等)31a~31cに囲まれた位置を走行中も、物体認識に基づく精確な推定結果が存在するため、現在位置を精度良く決定することができる。
(第3の実施形態)
 本発明の第3の実施形態について、主に図3,図4を併せて参照しながら説明する。図4は、図3の走行経路において移動体1bが撮影した上空の画像の一例を示す図である。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用できる。
 本実施形態における物体認識部15は、移動体1の上空方向の視界の広さを検出するようにする。ここで、上空方向の視界の広さは、第2の実施形態で説明した高さと同様に、移動体1から認識できる物体の表面積の少なさを表すものである。本実施形態では移動体1の上面側に物体認識部15を設けることが好ましく、そのため進行方向用の物体認識部15と合わせて複数個の物体認識部15を設けることが好ましいと言える。
 そして、本実施形態における位置推定部10bは、物体認識部15で検出された上記視界の広さが狭い程、尤度Kを上げるようにする。具体的に説明すると、まず物体認識部15として例えばカメラを用いた場合、画像認識により空(人工物でない)部分の割合が多いと上空の視界が拓けていると分かり、例えばLIDARを用いた場合、上方向の距離データが無限遠(物体が無い)の部分の割合が多いと上空の視界が拓けていると分かる。
 従って、移動体1が例えば図3の移動体1bの位置で認識した物体(例えば撮影した画像又は検知した距離の2次元表現の画像(奥行画像))は、図4で例示する画像40のようになる。このうち上空領域41は、物体が存在しない場合に比べて広く、移動体1は自身の上空の視界が遮られた状況(上空の視界の拓け度合いが低い状況)に位置していることになる。そして、この状況では物体での反射波の影響によりGPSの精度が悪化する。
 よって、本実施形態では、上記視界の広さが狭い程、尤度Kを上げることで、測位位置への重み付けを軽くし推定位置への重み付けを重くして現在位置の確定を行う。このような処理により、例えば移動体1が図3の移動体1bのような物体(ビル等)31a~31cに囲まれた位置を走行中も、物体認識に基づく精確な推定結果が存在するため、現在位置を精度良く決定することができる。
 また、本実施形態は第2の実施形態との併用も可能であり、その場合、高さと視界の広さを変数とする所定の関数に基づき、尤度Kを求めるか、或いは直接重み付け係数を求めるようにすればよい。
(第4の実施形態)
 本発明の第4の実施形態について、図5を参照しながら説明する。図5は、本発明の第4の実施形態に係る移動体の一部の構成例を示すブロック図である。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用でき、また第2,第3の実施形態との併用も可能である。
 本実施形態における位置確定部10cは、測位に使用したGPS衛星の数及び配置を示す情報(以下、衛星配置情報と言う)に基づき、重み付け係数を決定する。このような構成例について説明する。図5に移動体1の一部を例示するが、測位情報取得部13は、GPS信号受信部51、GPS座標算出部52、及びDOP(Dilution Of Precision)値算出部53を有する。位置推定部10bは、位置座標推定部54及び尤度算出部55を有する。位置確定部10cは、図2で例示したように重み付け係数算出部21及び重み付け実行部(乗算部)22を有する。
 位置推定部10bでは、位置座標推定部54が画像マッチングにより推定位置(推定位置の座標)を算出し、尤度算出部55がその算出過程から尤度Kを算出する。
 一方で、測位情報取得部13では、GPS信号受信部51がGPS衛星からの電波を受信し、GPS座標算出部(解析部)52がその受信した信号を解析してGPS測位座標を算出する。また、DOP値算出部53がその受信した信号を解析して、或いはそのGPS測位座標の算出過程から、DOP値を算出する。
 このように、上記衛星配置情報は、測位情報取得部13で取得したGPS測位情報に含まれる情報、或いはGPS測位情報から算出できる情報であり、例えばGPSの衛星配置の悪化度を示す指標値、つまりGPS精度の劣化の程度を表す指標値であるDOP値を用いることができる。DOP値が大きくなる程、GPS精度が低くなる。また、DOP値としては0~1の値が用いられることがあるが、これに限ったものではない。また、DOP値には、幾何学的精度低下率、水平精度低下率、垂直程度低下率など多くの指標値があり、いずれの値を採用してもよいし、複数の値を採用してもよい。
 また、DOP値等の衛星配置情報は、移動体1の上方の視界の広さを表す指標であると言え、移動体1の周囲の物体の多さや高さと関係があり、よって推定の容易さと関係がある。一般的に、DOP値が高い場合には、衛星が固まっているなど、衛星の配置が悪いため、測位位置の信頼度は低く、逆に推定位置の信頼度が高くなる。
 従って、本実施形態のように衛星配置情報に基づき重み付け係数を決定することは、現在位置の精度向上のために有益であると言える。位置確定部10cでは、重み付け係数算出部21が尤度算出部55から尤度Kを入力すると共にDOP値算出部53からDOP値を入力し、それらの値から重み付け係数を算出する。一例を挙げると、推定位置側の重み付け係数γとしてK×DOP値を用い、GPS測位位置側の重み付け係数を1-γとすればよい。なお、K、DOP値として0から1の間の値を用いた例を挙げているが、これに限らず、その場合には、正規化(規格化)しておけばよい。
 ここで例示したように、位置確定部10cは、DOP値が増すに連れて測位位置の重みを軽くするような(つまり測位位置の信頼度を下げるような)重み付けを行えばよい。若しくは、位置確定部10cは、DOP値が所定値(例えば最大値の50%)以上である場合、上記測位位置の重みを無くし(現在位置を推定位置に確定する)、DOP値がその所定値未満である場合、上記推定位置の重みを無くす(現在位置を測位位置に確定する)ように重み付けを行ってもよい。
 なお、上記衛星配置情報は、第1~第3の実施形態で説明したような重み付け係数の決定条件に加える決定条件であると言える。但し、決定の手順は問わず、例えば第1~第3の実施形態で説明したような決定条件に従って重み付け係数を決定した後、衛星配置情報に基づいてそれを修正するようにしてもよい。
 重み付け係数の決定後、重み付け実行部(乗算部)22が、その重み付け係数を用いて、GPS座標(測位座標)算出部52から入力した測位座標と位置座標推定部54から入力した推定位置座標とに対し、例えば下式により重み付けを行って、現在位置の座標を算出(決定)する。
(現在位置の緯度)=(1-γ)×(GPS測位位置の緯度)+γ×(推定位置の緯度)
(現在位置の経度)=(1-γ)×(GPS測位位置の経度)+γ×(推定位置の経度)
(第5の実施形態)
 第4の実施形態で説明した衛星配置情報を用いた重み付け手法は、尤度を用いない場合にも適用できる。このような構成例を第5の実施形態として、簡単に説明する。
 本実施形態に係る移動体は、第1の実施形態等で説明した移動体1と同様に、測位情報取得部13、記憶部14、物体認識部15、相対位置算出部10a、及び位置推定部10bを備えるが、位置確定部10cの処理が若干異なる。
 本実施形態における位置確定部10cは、位置推定部10bで求められた現在の推定位置とGPS測位情報が示す現在の測位位置とに対し、衛星配置情報に応じた重み付け(重み付け係数の算出)を行い、移動体の現在位置を確定する。例えばDOP値が低いと、測位位置側の重み付け係数を高くして推定位置側の重み付け係数を低くする。逆に、DOP値が高いと、測位位置側の重み付け係数を低くして推定位置側の重み付け係数を高くする。本実施形態のように衛星配置情報に基づき重み付けを実行することは、現在位置の精度向上のために有益であると言える。
(第6の実施形態)
 本発明の第6の実施形態について説明する。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用でき、また第2~第5のいずれの実施形態と併用することができる。
 本実施形態では、地図情報14aに、測位情報取得部13で取得できるGPS測位情報の精度が所定精度より悪くなる領域を示す精度情報を含めるようにする。この精度情報を地図情報14aに埋め込むタイミングは、例えば、第1の実施形態で説明した物体認識部15での事前の物体認識と同様のタイミングでよく、よって地図情報14aの最初の作成時(マップ構築時)であってもよいし、精度情報の学習機能をもたせてもよい。精度情報の学習機能をもたせる場合には、例えば、位置確定部10cで確定した現在位置とその際に用いたGPS測位情報が示す測位位置との差を誤差として、その現在位置における精度情報とすればよい。
 この精度情報は、測位情報取得部13で取得した現在のGPS測位情報の信頼度を示す情報として利用でき、また移動体1の上方の視界の広さを表す指標であるため、移動体1の周囲の物体の多さや高さと関係があり、よって推定の容易さとも関係がある。従って、本実施形態における位置確定部10cは、上記精度情報に基づき重み付け係数を決定する。そして、このように精度情報に基づき重み付け係数を決定することは、現在位置の精度向上のために有益であると言える。
 重み付け係数の決定に際しては、位置確定部10cは、精度情報が示す精度が増すに連れて測位位置の重みを重くするような(つまり測位位置の信頼度を上げるような)重み付けを行う。若しくは、位置確定部10cは、精度情報が示す精度が所定値(例えば最高値の50%)以上である場合、上記推定位置の重みを無くし(現在位置を測位位置に確定する)、精度がその所定値未満である場合、上記測位位置の重みを無くす(現在位置を推定位置に確定する)ように重み付けを行ってもよい。また、精度情報としては、精度が悪いことを示す「0」と精度が良いことを示す「1」の2値のみを採用し、前者の場合には推定位置に確定し、後者の場合には測位位置に確定するようにしてもよい。
 なお、上記精度情報は、第1~第4の実施形態で説明したような重み付け係数の決定条件に加える決定条件であると言える。但し、決定の手順は問わず、例えば第1~第4の実施形態で説明したような決定条件に従って重み付け係数を決定した後、精度情報に基づいてそれを修正するようにしてもよい。
(第7の実施形態)
 第6の実施形態で説明した精度情報を用いた重み付け手法は、尤度を用いない場合にも適用できる。このような構成例を第7の実施形態として、簡単に説明する。
 本実施形態に係る移動体は、第1の実施形態等で説明した移動体1と同様に、測位情報取得部13、記憶部14、物体認識部15、相対位置算出部10a、及び位置推定部10bを備えるが、位置確定部10cの処理が若干異なる。
 本実施形態における位置確定部10cは、位置推定部10bで求められた現在の推定位置とGPS測位情報が示す現在の測位位置とに対し、精度情報に応じた重み付け(重み付け係数の算出)を行い、移動体の現在位置を確定する。例えばGPS精度が高いことを精度情報が示していた場合には、測位位置側の重み付け係数を高くして推定位置側の重み付け係数を低くする。逆に、GPS精度が低いことを精度情報が示していた場合には、測位位置側の重み付け係数を低くして推定位置側の重み付け係数を高くする。本実施形態のように精度情報に基づき重み付けを実行することは、現在位置の精度向上のために有益であると言える。
(第8の実施形態)
 本発明の第8の実施形態について、図6を参照しながら説明する。図6は、本発明の第8の実施形態に係る移動体の一構成例を示すブロック図である。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用でき、また第2~第7のいずれの実施形態と併用することができる。
 第1の実施形態では、移動体1が自律走行装置である例を挙げて説明した。図6で例示する本実施形態に係る移動体6は、図1の各部11~15に加え、運転者による運転操作を受け付ける操作部61と、位置確定部10cで確定された現在位置に基づき、地図情報14aが示す地図上でのナビゲーションを行うナビゲーション部62と、を備える。操作部61は、ハンドルやアクセル、ブレーキなどで構成される。
 ナビゲーション部62は、例えば、図3で例示した地図30のような地図を表示させ(但し、移動体の位置は現在位置の一か所)、例えば運転者や同乗者が事前に登録した目的地に向かうように(目的地への予定走行経路に沿うように)、音声及びルート表示により案内すればよい。よって、ナビゲーション部62は、画像表示部及び/又は音声出力部を備える。なお、本実施形態においても、自律走行機能をもたせてもよく、その場合、自律走行を運転者の運転で補う、若しくは運転者の運転の不備を自律走行で補うようにすればよい。
1,1a,1b,1c,6…移動体、10…主制御部、10a…相対位置算出部、10b…位置推定部、10c…位置確定部、11…駆動制御部、12…駆動部、12a…車輪、13…測位情報取得部、14…記憶部、14a…地図情報、15…物体認識部、16…本体、21…重み付け係数算出部、22…重み付け実行部、30…地図、31a,31b,31c,31d,31e…物体、32…道路、33a,33b,33c…緯度経度、40…画像、41…上空領域、51…GPS信号受信部、52…GPS座標算出部、52…GPS座標算出部、53…DOP値算出部、54…位置座標推定部、55…尤度算出部、61…操作部、62…ナビゲーション部。

Claims (11)

  1.  衛星測位システムで測位した測位位置を示す測位情報を取得する測位情報取得部を備えた移動体であって、
     複数の固定された物体の位置を示す物体情報を含む地図情報を記憶する記憶部と、
     前記物体を認識する物体認識部と、
     前記物体情報と該物体認識部での認識結果とに基づき前記物体に対する前記移動体の現在の相対位置を算出する相対位置算出部と、
     前記地図情報が示す地図上において前記物体の位置を検索して推定し、前記相対位置が示す前記移動体の前記地図上での現在の推定位置を求める位置推定部と、
     前記位置推定部で求められた現在の前記推定位置と前記測位情報が示す現在の前記測位位置とに対し、前記位置推定部での推定の尤度に応じた重み付けを行い、前記移動体の現在位置を確定する位置確定部と、
    を備えたことを特徴とする移動体。
  2.  前記位置確定部は、前記尤度が増すに連れて前記測位位置の重みを軽くするような重み付けを行うことを特徴とする請求項1に記載の移動体。
  3.  前記位置確定部は、前記尤度が所定値以上である場合、前記測位位置の重みを無くし、前記尤度が前記所定値未満である場合、前記推定位置の重みを無くすことを特徴とする請求項1に記載の移動体。
  4.  前記位置推定部は、前記物体の位置を検索するに際し、直前に前記位置確定部で確定された前記現在位置に基づき検索開始範囲及び/又は検索範囲を決定することを特徴とする請求項1~3のいずれか1項に記載の移動体。
  5.  前記物体情報は、前記物体認識部で事前に認識させた前記物体についての位置を示す情報を含むことを特徴とする請求項1~4のいずれか1項に記載の移動体。
  6.  前記物体情報は、前記物体についての高さを示す情報を含み、
     前記位置推定部は、前記推定位置の推定に使用した前記物体の高さが高い程、前記尤度を上げることを特徴とする請求項1~5のいずれか1項に記載の移動体。
  7.  前記物体認識部は、前記移動体の上空方向の視界の広さを検出し、
     前記位置推定部は、前記物体認識部で検出された前記視界の広さが狭い程、前記尤度を上げることを特徴とする請求項1~6のいずれか1項に記載の移動体。
  8.  前記位置確定部は、前記測位情報に含まれる或いは前記測位情報から算出される、測位に使用した衛星の数及び配置を示す情報に基づき、前記重み付けの係数を決定することを特徴とする請求項1~7のいずれか1項に記載の移動体。
  9.  前記地図情報は、前記測位情報取得部で取得できる前記測位情報の精度が所定精度より悪くなる領域を示す精度情報を含み、
     前記位置確定部は、前記精度情報に基づき前記重み付けの係数を決定することを特徴とする請求項1~8のいずれか1項に記載の移動体。
  10.  前記記憶部は、前記地図情報の一部として前記移動体の予定走行経路を記憶し、
     前記移動体は、前記位置確定部で確定された前記現在位置に基づき、前記予定走行経路に沿った自律走行を行う駆動制御部を備えた自律走行装置であることを特徴とする請求項1~9のいずれか1項に記載の移動体。
  11.  運転者による運転操作を受け付ける操作部と、
     前記位置確定部で確定された前記現在位置に基づき、前記地図上でのナビゲーションを行うナビゲーション部と、
    を備えたことを特徴とする請求項1~9のいずれか1項に記載の移動体。
PCT/JP2015/075064 2014-10-15 2015-09-03 移動体 WO2016059904A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-210526 2014-10-15
JP2014210526A JP2016080460A (ja) 2014-10-15 2014-10-15 移動体

Publications (1)

Publication Number Publication Date
WO2016059904A1 true WO2016059904A1 (ja) 2016-04-21

Family

ID=55746452

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/075064 WO2016059904A1 (ja) 2014-10-15 2015-09-03 移動体

Country Status (2)

Country Link
JP (1) JP2016080460A (ja)
WO (1) WO2016059904A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036067A (ja) * 2016-08-29 2018-03-08 株式会社Soken 自車位置認識装置
CN113841068A (zh) * 2019-05-16 2021-12-24 三菱电机株式会社 信息处理装置、信息处理方法及信息处理程序

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018059744A (ja) * 2016-10-03 2018-04-12 株式会社Soken 自車位置認識装置
JP6845790B2 (ja) * 2017-11-30 2021-03-24 株式会社東芝 位置推定装置、位置推定方法及び端末装置
JP6974189B2 (ja) * 2018-01-16 2021-12-01 株式会社豊田中央研究所 地図作成装置
DE102018206786A1 (de) 2018-05-03 2019-11-07 Robert Bosch Gmbh Verfahren zur satellitengestützten Ermittlung einer Fahrzeugposition mittels eines Bewegungs- und Positionssensors
JP7338369B2 (ja) * 2019-09-27 2023-09-05 富士通株式会社 環境地図調整値算出方法および環境地図調整値算出プログラム
CN111708043B (zh) 2020-05-13 2023-09-26 阿波罗智能技术(北京)有限公司 定位方法及装置
WO2023228283A1 (ja) * 2022-05-24 2023-11-30 株式会社センシンロボティクス 情報処理システム及び移動体、情報処理方法、プログラム
CN114862956B (zh) 2022-07-07 2022-09-09 中国长江三峡集团有限公司 一种适用于隧洞施工的扫描设备移动定位方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248230A (ja) * 1994-03-10 1995-09-26 Zanabui Informatics:Kk 航法装置
JP2007322391A (ja) * 2006-06-05 2007-12-13 Toyota Central Res & Dev Lab Inc 自車両位置推定装置
JP2010164496A (ja) * 2009-01-19 2010-07-29 Toyota Motor Corp Gnss受信装置及び測位方法
JP2010534849A (ja) * 2007-07-31 2010-11-11 テレ アトラス ベスローテン フエンノートシャップ 位置を判定する方法及び装置
JP2011053194A (ja) * 2009-08-07 2011-03-17 Aisin Aw Co Ltd 走行支援で利用される情報の信頼度特定装置、方法およびプログラム
JP2011215055A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景画像認識を用いた自車位置検出システム
JP2012118871A (ja) * 2010-12-02 2012-06-21 Aisin Aw Co Ltd 走行支援システム、走行支援プログラム、及び走行支援方法
JP2014034251A (ja) * 2012-08-08 2014-02-24 Nissan Motor Co Ltd 車両走行制御装置及びその方法
WO2014188919A1 (ja) * 2013-05-20 2014-11-27 一般財団法人生産技術研究奨励会 位置検出装置、位置検出システム及び位置検出方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248230A (ja) * 1994-03-10 1995-09-26 Zanabui Informatics:Kk 航法装置
JP2007322391A (ja) * 2006-06-05 2007-12-13 Toyota Central Res & Dev Lab Inc 自車両位置推定装置
JP2010534849A (ja) * 2007-07-31 2010-11-11 テレ アトラス ベスローテン フエンノートシャップ 位置を判定する方法及び装置
JP2010164496A (ja) * 2009-01-19 2010-07-29 Toyota Motor Corp Gnss受信装置及び測位方法
JP2011053194A (ja) * 2009-08-07 2011-03-17 Aisin Aw Co Ltd 走行支援で利用される情報の信頼度特定装置、方法およびプログラム
JP2011215055A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景画像認識を用いた自車位置検出システム
JP2012118871A (ja) * 2010-12-02 2012-06-21 Aisin Aw Co Ltd 走行支援システム、走行支援プログラム、及び走行支援方法
JP2014034251A (ja) * 2012-08-08 2014-02-24 Nissan Motor Co Ltd 車両走行制御装置及びその方法
WO2014188919A1 (ja) * 2013-05-20 2014-11-27 一般財団法人生産技術研究奨励会 位置検出装置、位置検出システム及び位置検出方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036067A (ja) * 2016-08-29 2018-03-08 株式会社Soken 自車位置認識装置
CN113841068A (zh) * 2019-05-16 2021-12-24 三菱电机株式会社 信息处理装置、信息处理方法及信息处理程序

Also Published As

Publication number Publication date
JP2016080460A (ja) 2016-05-16

Similar Documents

Publication Publication Date Title
WO2016059904A1 (ja) 移動体
CN108693543B (zh) 用于检测信号欺骗的方法及系统
JP6380936B2 (ja) 移動体及びシステム
US11506512B2 (en) Method and system using tightly coupled radar positioning to improve map performance
US10365363B2 (en) Mobile localization using sparse time-of-flight ranges and dead reckoning
US10549750B2 (en) Moving body
JP2022106924A (ja) 自律的な自己位置推定のためのデバイス及び方法
US11527084B2 (en) Method and system for generating a bird's eye view bounding box associated with an object
US10699573B1 (en) Device locator
EP2133662B1 (en) Methods and system of navigation using terrain features
US20170023659A1 (en) Adaptive positioning system
US20200217972A1 (en) Vehicle pose estimation and pose error correction
CN109931927B (zh) 轨迹记录方法、室内地图绘制方法、装置、设备及系统
US20190316929A1 (en) System and method for vehicular localization relating to autonomous navigation
EP3884353B1 (en) Detecting a location of an autonomous device
CN109937341B (zh) 用于估计自己的位置的方法和设备
US11555705B2 (en) Localization using dynamic landmarks
JP2012003706A (ja) 無人走行車両の誘導装置及び無人走行車両の誘導方法
JP2018084492A (ja) 自己位置推定方法及び自己位置推定装置
WO2016196717A2 (en) Mobile localization using sparse time-of-flight ranges and dead reckoning
KR20200119092A (ko) 차량 및 차량의 위치 검출 방법
JP6680502B2 (ja) 移動体
JP7242559B2 (ja) 情報処理装置および情報処理方法
JP2022098635A (ja) 自車位置信頼度演算装置、自車位置信頼度演算方法、車両制御装置、及び車両制御方法
Wang A driverless vehicle vision path planning algorithm for sensor fusion

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15850330

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15850330

Country of ref document: EP

Kind code of ref document: A1