JP2016080460A - Moving body - Google Patents

Moving body Download PDF

Info

Publication number
JP2016080460A
JP2016080460A JP2014210526A JP2014210526A JP2016080460A JP 2016080460 A JP2016080460 A JP 2016080460A JP 2014210526 A JP2014210526 A JP 2014210526A JP 2014210526 A JP2014210526 A JP 2014210526A JP 2016080460 A JP2016080460 A JP 2016080460A
Authority
JP
Japan
Prior art keywords
unit
information
moving body
positioning
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014210526A
Other languages
Japanese (ja)
Inventor
大輔 谷
Daisuke Tani
大輔 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014210526A priority Critical patent/JP2016080460A/en
Priority to PCT/JP2015/075064 priority patent/WO2016059904A1/en
Publication of JP2016080460A publication Critical patent/JP2016080460A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement

Abstract

PROBLEM TO BE SOLVED: To provide a moving body which detects its current position using information on positioning by GPS and that accurately finds the current position even if a reception state of radio waves from GPS satellites is inferior.SOLUTION: A moving body 1 according to the present invention comprises: a storage part 14 which stores map information 14a including body information representing positions of a plurality of fixed bodies; a body recognition part 15 which recognizes the bodies; a relative position calculation part 10a which calculates current relative positions of the moving body 1 with respect to the bodies based upon the body information and recognition results by the body recognition part 15; a position estimation part 10b which retrieves and estimates positions of the bodies on a map that map information represents, and finds a current estimated position of the moving body 1 on the map that the relative positions indicate; and a position estimation part 10c which weights the current estimated position found by the position estimation part 10b and a current positioning position that GPS positioning information indicates according to a likelihood of estimation by the position estimation part 10b, and determines a current position of the moving body 1.SELECTED DRAWING: Figure 1A

Description

本発明は、移動体に関し、より詳細には、GPS(Global Positioning System)による測位機能を搭載した移動体に関する。   The present invention relates to a mobile object, and more particularly to a mobile object equipped with a positioning function using GPS (Global Positioning System).

従来から、人や物を運ぶための移動体は様々な種類が流通している。また、移動体には自律走行型の移動体も提案されており、これにより、運搬目的だけでなく、周囲の監視(警備)のためにも用いることができる。そして、運搬目的、監視目的に拘わらず、また自律走行型か否かに拘わらず、移動体には自身の現在位置を把握するためのGPSによる測位機能が搭載されているものがある。一方で、移動体はGPSの電波が届かない場所でも移動可能であり、そのような場面を想定した様々な位置検出技術が提案されている。   Conventionally, various types of mobile objects for carrying people and things have been distributed. In addition, an autonomous traveling type moving body has also been proposed as a moving body, so that it can be used not only for transportation purposes but also for surrounding monitoring (security). Regardless of whether it is a transportation purpose or a monitoring purpose, and whether it is an autonomous traveling type, there is a mobile body equipped with a GPS positioning function for grasping its current position. On the other hand, the moving body can move even in a place where GPS radio waves do not reach, and various position detection techniques have been proposed assuming such a situation.

例えば、特許文献1には、加速度センサや角速度センサの検出信号から移動体の慣性移動量を算出し、その慣性移動量から移動体の位置を検出する自己位置検知装置が開示されている。この装置では、移動体の前方が視野となるようにして移動体に搭載したカメラにより撮像した画像情報に基づいて、移動体のカメラ相対移動量を算出し、慣性移動量により表わされている移動体の位置を、カメラ相対移動量により表わされている移動体の位置により補正している。これにより、GPS等の電波を用いた絶対位置検知が困難な場所でも、また移動体の速度が遅い場合でも、高精度に自己位置が検知できる。   For example, Patent Document 1 discloses a self-position detection device that calculates an inertial movement amount of a moving body from detection signals of an acceleration sensor and an angular velocity sensor, and detects the position of the moving body from the inertial movement amount. In this apparatus, the camera relative movement amount of the moving object is calculated based on image information captured by a camera mounted on the moving object so that the front of the moving object is a field of view, and is represented by the inertial movement amount. The position of the moving body is corrected by the position of the moving body represented by the camera relative movement amount. As a result, the self-position can be detected with high accuracy even in a place where absolute position detection using radio waves such as GPS is difficult or even when the speed of the moving body is slow.

特許文献2には、経路案内時に、GPSを利用せずに、ユーザの現在位置を推定する現在位置推定装置が開示されている。この現在位置推定装置は、複数の地物相互の相対的な位置関係についてユーザが視認した結果を入力する位置関係入力部と、各地物の位置を記録した地図データベースを参照する地図データベース参照部と、地図データベースを参照して、複数の地物について、相対的な位置関係で視認可能な範囲を特定することにより、ユーザの現在位置を推定する推定エンジンと、を備えている。   Patent Document 2 discloses a current position estimation device that estimates a user's current position without using GPS at the time of route guidance. The current position estimation device includes a positional relationship input unit that inputs a result visually recognized by a user regarding a relative positional relationship between a plurality of features, a map database reference unit that refers to a map database that records the positions of each feature, An estimation engine that estimates a user's current position by specifying a range that can be visually recognized with respect to a plurality of features in a relative positional relationship with reference to a map database.

特許文献3には、GPS衛星が届かないような位置に駐車車両が移動されてしまったとしても、車両の移動を検出することが可能な車両移動判定装置が開示されている。この装置では、車両の駐車時に車両の周囲の一部をカメラに撮影させ、その後、車両の始動時において、車両の周囲の上記一部をカメラに撮影させ、両者の画像を比較することで、車両の駐車中に車両が移動されたか否かを判定している。   Patent Document 3 discloses a vehicle movement determination device that can detect the movement of a vehicle even if the parked vehicle has been moved to a position where GPS satellites do not reach. In this apparatus, when the vehicle is parked, the camera is used to shoot a part of the periphery of the vehicle, and at the time of starting the vehicle, the camera is used to shoot the part of the periphery of the vehicle, and the images of both are compared. It is determined whether or not the vehicle has been moved while the vehicle is parked.

特許文献4には、GPS電波が利用できないところでも、所定の経路上のユーザの推定位置を表示して誤差の少ない経路案内を行うナビゲーションシステムが開示されている。このナビゲーションシステムは、推定位置を、GPS測位情報に基づき推定位置を算出するGPSモードと、歩数計から取得したユーザの進行距離情報と地磁気センサから取得した方位情報に基づき推定位置を算出する自律航法モードと、進行距離情報のみに基づき推定位置を算出する歩数計モードと、を備え、推定位置の算出時にGPS測位情報が取得可能であるときはGPSモードに、GPS測位情報が取得できないときは自律航法モードに、さらに、GPS測位情報が取得できず且つ地磁気センサの動作が異常であるときは歩数計モードに切り替えている。   Patent Document 4 discloses a navigation system that displays a user's estimated position on a predetermined route and provides route guidance with little error even when GPS radio waves cannot be used. This navigation system is an autonomous navigation system that calculates an estimated position based on a GPS mode that calculates an estimated position based on GPS positioning information, a user's travel distance information acquired from a pedometer, and azimuth information acquired from a geomagnetic sensor. Mode, and a pedometer mode that calculates an estimated position based only on travel distance information. When GPS positioning information can be acquired at the time of calculating the estimated position, it is in GPS mode, and autonomous when GPS positioning information cannot be acquired. The navigation mode is switched to the pedometer mode when GPS positioning information cannot be acquired and the operation of the geomagnetic sensor is abnormal.

特開2005−315709号公報JP 2005-315709 A 特開2007−205948号公報JP 2007-205948 A 特開2009−280046号公報JP 2009-280046 A 特開2012−230092号公報JP 2012-230092 A

しかしながら、特許文献4に記載の技術は、GPS衛星からの電波が受信可能か受信不能かでモードを切り替え、且つGPSモード以外のモードでは建物の位置などの周囲環境とは無関係に移動体が位置情報を取得するものであり、実際の電波の受信状態は一義的に利用可能/利用不能で分けられるものではないため、GPSによる測位情報を生かし切って周囲環境の経時的な変化に対応して精確に現在位置を検出できるとは言えない。   However, the technique described in Patent Document 4 switches the mode depending on whether radio waves from a GPS satellite can be received or not, and in other modes than the GPS mode, the moving object is positioned regardless of the surrounding environment such as the position of the building. Since it is used to acquire information and the actual reception status of radio waves is not uniquely categorized as usable / unusable, it uses GPS positioning information to respond to changes over time in the surrounding environment. It cannot be said that the current position can be detected accurately.

なお、特許文献3に記載の技術は、車両が移動したか否かを判定することが可能であるだけで、車両の位置を検出できる技術ではない。また、特許文献1,2に記載の技術は、GPSによる測位結果を利用しない技術である。仮に、GPSによる測位結果を利用し、GPS衛星からの電波が受信できなくなった場合にのみ、特許文献1,2に記載された技術を利用するように構成したとしても、電波の受信状態は一義的に利用可能/利用不能で分けられるものではないため、どのような場面にどちらの結果を利用すれば良い位置検出ができるのかについては分からず、最適な利用ができているとは言えない。   Note that the technique described in Patent Document 3 is not a technique that can only determine whether or not the vehicle has moved, and can detect the position of the vehicle. In addition, the techniques described in Patent Documents 1 and 2 are techniques that do not use a positioning result by GPS. Even if the technology described in Patent Documents 1 and 2 is used only when GPS positioning results are used and radio waves from GPS satellites cannot be received, the reception status of radio waves is unambiguous. Therefore, it is not possible to divide the information into available / unusable, so it is not known which position should be used for which scene and the optimum use is not possible.

また、特許文献1に記載の技術は、慣性移動量をカメラ相対移動量で表された移動体の位置で補正するものであり、補正のためには撮影された2枚の画像に同じ物体を含める必要があるため、基本的にカメラでの撮影間隔が長ければ補正に対応できる移動体のスピードも限られてくる、といった問題もある。また、特許文献2に記載の技術はユーザが視認結果を入力する必要があり、自律走行装置には適用できず、自動車等の運転者が必要な移動体では走行中に利用できない、といった問題もある。   The technique described in Patent Document 1 corrects the amount of inertial movement at the position of a moving body represented by the amount of relative movement of the camera. For correction, the same object is added to two captured images. Since there is a need to include it, there is a problem that the speed of a moving body that can cope with correction is limited if the photographing interval with the camera is long. In addition, the technique described in Patent Document 2 requires a user to input a visual recognition result, cannot be applied to an autonomous traveling device, and cannot be used while traveling on a moving body that requires a driver such as an automobile. is there.

本発明は、上述のような実状に鑑みてなされたものであり、その目的は、GPSで測位した情報を用いて自己の現在位置を検出する移動体において、GPS衛星からの電波の受信状態が悪い場面でも、精確に現在位置を求めることを可能にすることにある。   The present invention has been made in view of the above-described situation, and the purpose of the present invention is to determine whether the reception state of a radio wave from a GPS satellite in a mobile body that detects its current position using information measured by GPS. The goal is to be able to accurately determine the current position even in bad situations.

上記課題を解決するために、本発明の第1の技術手段は、GPS(Global Positioning System)で測位した測位位置を示すGPS測位情報を取得する測位情報取得部を備えた移動体であって、複数の固定された物体の位置を示す物体情報を含む地図情報を記憶する記憶部と、前記物体を認識する物体認識部と、前記物体情報と該物体認識部での認識結果とに基づき前記物体に対する前記移動体の現在の相対位置を算出する相対位置算出部と、前記地図情報が示す地図上において前記物体の位置を検索して推定し、前記相対位置が示す前記移動体の前記地図上での現在の推定位置を求める位置推定部と、前記位置推定部で求められた現在の前記推定位置と前記GPS測位情報が示す現在の前記測位位置とに対し、前記位置推定部での推定の尤度に応じた重み付けを行い、前記移動体の現在位置を確定する位置確定部と、を備えたことを特徴としたものである。   In order to solve the above-described problem, the first technical means of the present invention is a mobile body including a positioning information acquisition unit that acquires GPS positioning information indicating a positioning position measured by GPS (Global Positioning System), A storage unit that stores map information including object information indicating positions of a plurality of fixed objects, an object recognition unit that recognizes the object, and the object based on the object information and a recognition result of the object recognition unit A relative position calculation unit that calculates a current relative position of the moving body with respect to the map, and searches and estimates the position of the object on the map indicated by the map information, and on the map of the moving body indicated by the relative position A position estimation unit for obtaining a current estimated position of the current position, a current estimation position obtained by the position estimation unit, and a current positioning position indicated by the GPS positioning information. According to the degree A position determining unit that performs weighting and determines the current position of the moving body.

第2の技術手段は、第1の技術手段において、前記位置確定部は、前記尤度が増すに連れて前記測位位置の重みを軽くするような重み付けを行うことを特徴としたものである。   According to a second technical means, in the first technical means, the position determination unit performs weighting so as to reduce the weight of the positioning position as the likelihood increases.

第3の技術手段は、第1の技術手段において、前記位置確定部は、前記尤度が所定値以上である場合、前記測位位置の重みを無くし、前記尤度が前記所定値未満である場合、前記推定位置の重みを無くすことを特徴としたものである。   According to a third technical means, in the first technical means, when the likelihood is greater than or equal to a predetermined value, the position determination unit eliminates the weight of the positioning position and the likelihood is less than the predetermined value. The weight of the estimated position is eliminated.

第4の技術手段は、第1〜第3のいずれか1の技術手段において、前記位置推定部は、前記物体の位置を検索するに際し、直前に前記位置確定部で確定された前記現在位置に基づき検索開始範囲及び/又は検索範囲を決定することを特徴としたものである。   According to a fourth technical means, in any one of the first to third technical means, when the position estimation unit searches for the position of the object, the position is determined at the current position determined by the position determination unit immediately before. The search start range and / or the search range is determined based on this.

第5の技術手段は、第1〜第4のいずれか1の技術手段において、前記物体情報は、前記物体認識部で事前に認識させた前記物体についての位置を示す情報を含むことを特徴としたものである。   According to a fifth technical means, in any one of the first to fourth technical means, the object information includes information indicating a position of the object recognized in advance by the object recognition unit. It is a thing.

第6の技術手段は、第1〜第5のいずれか1の技術手段において、前記物体情報は、前記物体についての高さを示す情報を含み、前記位置推定部は、前記推定位置の推定に使用した前記物体の高さが高い程、前記尤度を上げることを特徴としたものである。   A sixth technical means is any one of the first to fifth technical means, wherein the object information includes information indicating a height of the object, and the position estimation unit estimates the estimated position. The likelihood increases as the height of the used object increases.

第7の技術手段は、第1〜第6のいずれか1の技術手段において、前記物体認識部は、前記移動体の上空方向の視界の広さを検出し、前記位置推定部は、前記物体認識部で検出された前記視界の広さが狭い程、前記尤度を上げることを特徴としたものである。   A seventh technical means is the technical means according to any one of the first to sixth technical means, wherein the object recognizing unit detects an area of the field of view in the upward direction of the moving body, and the position estimating unit comprises the object The likelihood is increased as the field of view detected by the recognition unit is narrower.

第8の技術手段は、第1〜第7のいずれか1の技術手段において、前記位置確定部は、前記GPS測位情報に含まれる或いは前記GPS測位情報から算出される、測位に使用したGPS衛星の数及び配置を示す情報に基づき、前記重み付けの係数を決定することを特徴としたものである。   The eighth technical means is any one of the first to seventh technical means, wherein the position determination unit is a GPS satellite used for positioning included in the GPS positioning information or calculated from the GPS positioning information. The weighting coefficient is determined on the basis of information indicating the number and arrangement.

第9の技術手段は、第1〜第8のいずれか1の技術手段において、前記地図情報は、前記測位情報取得部で取得できる前記GPS測位情報の精度が所定精度より悪くなる領域を示す精度情報を含み、前記位置推定部は、前記精度情報に基づき前記位置確定部が前記重み付けの係数を決定することを特徴としたものである。   A ninth technical means is the accuracy of any one of the first to eighth technical means, wherein the map information indicates an area in which the accuracy of the GPS positioning information that can be acquired by the positioning information acquisition unit is worse than a predetermined accuracy. Including the information, the position estimating unit is characterized in that the position determining unit determines the weighting coefficient based on the accuracy information.

第10の技術手段は、第1〜第9のいずれか1の技術手段において、前記記憶部は、前記地図情報の一部として前記移動体の予定走行経路を記憶し、前記移動体は、前記位置確定部で確定された前記現在位置に基づき、前記予定走行経路に沿った自律走行を行う駆動制御部を備えた自律走行装置であることを特徴としたものである。   In a tenth technical means according to any one of the first to ninth technical means, the storage unit stores a scheduled travel route of the moving body as a part of the map information, The autonomous traveling device includes a drive control unit that performs autonomous traveling along the planned traveling route based on the current position determined by the position determining unit.

第11の技術手段は、第1〜第9のいずれか1の技術手段において、運転者による運転操作を受け付ける操作部と、前記位置確定部で確定された前記現在位置に基づき、前記地図上でのナビゲーションを行うナビゲーション部と、を備えたことを特徴としたものである。   The eleventh technical means includes any one of the first to ninth technical means on the map based on the operation unit that receives a driving operation by the driver and the current position determined by the position determination unit. And a navigation unit for performing the navigation.

本発明によれば、GPSで測位した情報を用いて自己の現在位置を検出する移動体において、GPS衛星からの電波の受信状態が悪い場面でも、精確に現在位置を求めることができる。   ADVANTAGE OF THE INVENTION According to this invention, in the mobile body which detects the own present position using the information measured by GPS, a present position can be calculated | required correctly also in the scene where the receiving condition of the electromagnetic wave from a GPS satellite is bad.

本発明の第1の実施形態に係る移動体の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the moving body which concerns on the 1st Embodiment of this invention. 図1Aの移動体の一例を示す外観図である。It is an external view which shows an example of the mobile body of FIG. 1A. 図1Aの移動体における位置確定部の詳細を説明するためのブロック図である。It is a block diagram for demonstrating the detail of the position determination part in the mobile body of FIG. 1A. 図1Aの移動体の走行経路の一例を示す図である。It is a figure which shows an example of the driving | running route of the mobile body of FIG. 1A. 図3の走行経路において移動体が撮影した上空の画像の一例を示す図である。It is a figure which shows an example of the sky image which the mobile body image | photographed in the driving | running route of FIG. 本発明の第4の実施形態に係る移動体の一部の構成例を示すブロック図である。It is a block diagram which shows the structural example of a part of moving body which concerns on the 4th Embodiment of this invention. 本発明の第8の実施形態に係る移動体の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the moving body which concerns on the 8th Embodiment of this invention.

本発明に係る移動体は、工場や公共施設の施設内、或いはそれらの施設や駐車場等の敷地内で移動させる移動体や、公道を走行する自動車や自動二輪車等の移動体などである。特に敷地内や施設内で自動的に移動させる移動体には、自律走行型の制御機構を有しているものがある。自動車等の運転者による運転を基本とする移動体も自律走行型の制御を搭載することで、自律走行、或いは運転者の運転補助としての自律走行が可能になる。また、本発明に係る移動体は、人や物を運搬する運搬目的だけでなく、移動しながら周囲を監視するためにも用いることができ、その場合の移動体は監視ロボットとも呼べる。以下、図面を参照しながら、本発明の様々な実施形態について説明する。   The moving body according to the present invention is a moving body that moves within a facility such as a factory or a public facility, or a site such as a facility or a parking lot, or a moving body such as an automobile or a motorcycle traveling on a public road. In particular, some moving bodies that automatically move within a site or facility have an autonomous traveling type control mechanism. A moving body based on driving by a driver such as an automobile also has autonomous driving control so that autonomous driving or autonomous driving as driving assistance for the driver becomes possible. Moreover, the mobile body according to the present invention can be used not only for the purpose of transporting people and objects, but also for monitoring the surroundings while moving, and the mobile body in that case can also be called a monitoring robot. Hereinafter, various embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
本発明の第1の実施形態について、図1A〜図3を参照しながら説明する。まず、図1Aのブロック図、図1Bの外観図を参照しながら、本実施形態に係る移動体の一構成例について説明する。
(First embodiment)
A first embodiment of the present invention will be described with reference to FIGS. 1A to 3. First, a configuration example of the moving body according to the present embodiment will be described with reference to the block diagram of FIG. 1A and the external view of FIG. 1B.

移動体1は、移動を行うための移動機構を備えたマシンであり、移動装置とも呼べる。図1A,図1Bの例では、この移動機構は、駆動制御部11と、駆動制御部11により制御される車輪12aを含む駆動部12で構成される。駆動部12は、例えば図示しないエンジン及び/又はモータなどを備えている。   The moving body 1 is a machine having a moving mechanism for moving, and can also be called a moving device. In the example of FIG. 1A and FIG. 1B, this moving mechanism includes a drive control unit 11 and a drive unit 12 including a wheel 12 a controlled by the drive control unit 11. The drive unit 12 includes, for example, an engine and / or a motor (not shown).

さらに、移動体1は、測位情報取得部13、記憶部14、及び物体認識部15を備えると共に、相対位置算出部10a、位置推定部10b、及び位置確定部10cを備える。図1Aでは移動体1を制御する主制御部10に各部10a〜10cを備えた例を挙げているが、これに限ったものではない。   Furthermore, the moving body 1 includes a positioning information acquisition unit 13, a storage unit 14, and an object recognition unit 15, and includes a relative position calculation unit 10a, a position estimation unit 10b, and a position determination unit 10c. In FIG. 1A, an example in which the main control unit 10 that controls the moving body 1 includes the respective units 10 a to 10 c is given, but the configuration is not limited thereto.

なお、主制御部10は、駆動制御部11の制御及び記憶部14への読み書きを行い、測位情報取得部13での取得や物体認識部15での認識の制御も行うように構成することもできる。例えばこの主制御部10は、CPU(Central Processing Unit)又はMPU(Micro Processing Unit)、作業領域としてのRAM(Random Access Memory)、及び記憶装置などの制御デバイスで構成され、その一部又は全部を集積回路/ICチップセットとして搭載することもできる。この記憶装置には、制御プログラム(各部10a〜10cでの後述の処理を実行するためのプログラムを含む)をはじめ、各種設定内容などが記憶される。この記憶装置としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)など様々な装置が適用できる。   The main control unit 10 may be configured to control the drive control unit 11 and read / write to / from the storage unit 14, and also perform acquisition control by the positioning information acquisition unit 13 and recognition control by the object recognition unit 15. it can. For example, the main control unit 10 includes a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), a RAM (Random Access Memory) as a work area, and a control device such as a storage device. It can also be mounted as an integrated circuit / IC chip set. This storage device stores a control program (including a program for executing processing to be described later in each unit 10a to 10c), and various setting contents. As this storage device, various devices such as an HDD (Hard Disk Drive) and an SSD (Solid State Drive) can be applied.

測位情報取得部13は、GPSで測位した測位位置を示すGPS測位情報を取得する部位であり、GPS衛星からの電波を受信するアンテナや受信したGPS信号を解析して測位情報(緯度、経度)を求める解析部などで構成される。アンテナは、図1Bで例示する測位情報取得部13の位置のように移動体1の本体16の適所に配置しておけばよい。但し、例示する配置に限らず、その感度が良くなるような位置にアンテナが設けられていればよい。なお、測位情報取得部13は、DGPS(Differential GPS)の機能又はRTK−GPS(Real Time Kinematic GPS)の機能を設けることや、無線通信部及び無線通信基地局との位置関係から位置を補正する機能を設けることで、コストは嵩むがその精度を上げることもできる。   The positioning information acquisition unit 13 is a part that acquires GPS positioning information indicating a positioning position measured by GPS. The positioning information (latitude and longitude) is obtained by analyzing an antenna that receives radio waves from a GPS satellite and a received GPS signal. It consists of the analysis part etc. which ask for. The antenna may be arranged at an appropriate position of the main body 16 of the moving body 1 like the position of the positioning information acquisition unit 13 illustrated in FIG. 1B. However, the antenna is not limited to the illustrated arrangement, and the antenna may be provided at a position where the sensitivity is improved. In addition, the positioning information acquisition part 13 corrects a position from providing the function of DGPS (Differential GPS) or the function of RTK-GPS (Real Time Kinematic GPS), and the positional relationship with a radio | wireless communication part and a radio | wireless communication base station. By providing the function, the cost increases, but the accuracy can be increased.

記憶部14は、地図情報14aを記憶する部位である。この地図情報14aには、複数の固定された物体の位置を示す物体情報も含まれている。また、地図情報14aには、通行可能な領域(道路や駐車場内の非駐車領域など)の位置を示す情報も含まれている。移動体1が監視ロボットである場合には、この地図情報14aは環境地図を示す情報であると言える。ここで、固定された物体(以下、単に物体と言う)には、建物等の不動産だけでなく、線路、植木や街路樹、壁や柱など、他の構造物を含めておけばよい。上記物体は、一般的に地物と呼ばれる概念のうち、実際に存在するものであって且つ通行可能な領域(道路等)を除いたものと言える。   The memory | storage part 14 is a site | part which memorize | stores the map information 14a. The map information 14a also includes object information indicating the positions of a plurality of fixed objects. The map information 14a also includes information indicating the position of a passable area (such as a road or a non-parking area in a parking lot). When the moving body 1 is a monitoring robot, the map information 14a can be said to be information indicating an environmental map. Here, the fixed object (hereinafter simply referred to as an object) may include not only a real estate such as a building but also other structures such as railroad tracks, planted trees, street trees, walls, and pillars. It can be said that the object is a concept that is actually present and excludes an area (such as a road) that is actually present among concepts that are generally called features.

物体認識部15は、物体を認識する部位である。物体認識部15は、基本的に物体の移動体1に対する位置(移動体1から物体までの距離と方向)が認識できればよい。よって、物体認識部15としては、移動体1に対する障害物の位置を検出するための障害物検知センサや、静止画又は動画を撮影するためのカメラなどが利用できる。なお、静止画を撮影するカメラでは撮影間隔を短くすることで移動体1の移動に対応できる。   The object recognition unit 15 is a part that recognizes an object. The object recognition unit 15 may basically recognize the position of the object with respect to the moving body 1 (distance and direction from the moving body 1 to the object). Therefore, as the object recognition unit 15, an obstacle detection sensor for detecting the position of the obstacle with respect to the moving body 1, a camera for taking a still image or a moving image, or the like can be used. Note that a camera that captures a still image can cope with the movement of the moving body 1 by shortening the shooting interval.

上記障害物検知センサは、他の移動体や障害物との衝突を避けるためにそれらを事前に検知するためのセンサであり、光や赤外線や他の電磁波や超音波などを能動的に発信し、その発信波の反射波を受信して障害物の位置を検知するアクティブセンサである。障害物検知センサとしては、例えば、LIDAR(Light Detection and Ranging又はLaser Imaging Detection and Ranging)、レーザレンジファインダ、電波レーダ(ミリ波レーダ等)、超音波センサなど、様々な種類のセンサが適用できる。また、障害物検知センサは、必要に応じて、モータによって左右に動かすメカニカルスキャン方式、或いは、複数のチャンネルを使って受信を行い、受信チャンネル間に発生する位相差を利用して検知角度を算出する電子スキャン方式を採用して、障害物の検知を行えばよい。なお、レーザレンジファインダは光飛行時間測距方式(TOF:Time of Flight)を採用した測距センサであり、走査軸を1軸、2軸もたせることで、それぞれ2次元平面の計測、3次元的な計測が可能となる。また、LIDARはレーザレンジファインダの一種であるとも言える。   The obstacle detection sensor is a sensor for detecting them in advance in order to avoid collision with other moving objects and obstacles, and actively transmits light, infrared rays, other electromagnetic waves, ultrasonic waves, etc. The active sensor detects the position of the obstacle by receiving the reflected wave of the transmitted wave. As the obstacle detection sensor, for example, various types of sensors such as LIDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging), laser range finder, radio wave radar (millimeter wave radar, etc.), and ultrasonic sensor can be applied. In addition, the obstacle detection sensor performs reception using a mechanical scan system that moves left and right by a motor or multiple channels as necessary, and calculates the detection angle using the phase difference that occurs between the reception channels. The obstacle may be detected by adopting an electronic scanning method. The laser range finder is a distance measuring sensor that employs a time of flight (TOF) time-of-flight method. By providing one or two scanning axes, two-dimensional measurement and three-dimensional measurement are possible. Measurement is possible. LIDAR can also be said to be a kind of laser range finder.

また、物体認識部15は図1Bで例示したように移動体1の前方に設けられることが好ましいが、他の部分に設けられていても進行方向の物体が認識できればよい。また、複数の物体認識部15を別々の位置に設けること、及び/又は、複数種類の物体認識部15を設けることで、物体の位置をより精確に認識させることができる。   Further, the object recognition unit 15 is preferably provided in front of the moving body 1 as illustrated in FIG. 1B, but it is only necessary to recognize an object in the traveling direction even if it is provided in another part. In addition, by providing a plurality of object recognition units 15 at different positions and / or by providing a plurality of types of object recognition units 15, the position of the object can be recognized more accurately.

相対位置算出部10aは、上記物体情報と物体認識部15での認識結果とに基づき、認識された物体に対する移動体1の現在の相対位置を算出する。なお、障害物検知センサには相対位置算出部10aの機能が組み込まれたものもある。物体の認識は移動体1の周辺環境(周辺状況)の認識を意味するため、物体認識部15及び相対位置算出部10aは、周辺環境情報取得部を構成していると言える。   The relative position calculation unit 10 a calculates the current relative position of the moving body 1 with respect to the recognized object based on the object information and the recognition result in the object recognition unit 15. Some obstacle detection sensors incorporate the function of the relative position calculation unit 10a. Since the recognition of the object means the recognition of the surrounding environment (surrounding situation) of the mobile body 1, it can be said that the object recognition unit 15 and the relative position calculation unit 10a constitute a surrounding environment information acquisition unit.

位置推定部10bは、地図情報14aを参照して移動体1の地図上での現在の推定位置を求める。より具体的には、位置推定部10bは、地図情報14aが示す地図上において上記認識された物体の位置を検索(照合)して推定し、上記相対位置が示す移動体1の上記地図上での現在の推定位置を求める。この検索には、画像マッチング(マップマッチングとも言う)の手法が適用でき、以下の説明ではこの検索を画像マッチングとも呼ぶ。また、画像マッチングの手法は問わないが、物体の位置又は物体の表面上の点を特徴点して抽出し、そのパターンをマッチングさせるパターンマッチングを行うことが好ましい。   The position estimation unit 10b refers to the map information 14a to obtain the current estimated position on the map of the mobile body 1. More specifically, the position estimation unit 10b searches and collates the position of the recognized object on the map indicated by the map information 14a and estimates the position on the map of the moving object 1 indicated by the relative position. Find the current estimated position of. For this search, an image matching (also referred to as map matching) technique can be applied. In the following description, this search is also called image matching. The image matching method is not limited, but it is preferable to perform pattern matching that extracts the position of the object or a point on the surface of the object as a feature point and matches the pattern.

このとき、もし物体が1つしか認識できなかった場合でも、例えばその物体の表面における水平方向の2点を結ぶ線分の角度は認識できるため、画像マッチングは可能である。よって、物体が1つでも存在すれば、移動体1に対する物体の距離だけでなく方位も推定できることになる。なお、位置推定部10bで物体の位置を検索後に、相対位置算出部10aで移動体1の相対位置を算出し、その結果から位置推定部10bが推定位置を求めるような手順を採用してもよい。   At this time, even if only one object can be recognized, image matching is possible because, for example, the angle of a line segment connecting two horizontal points on the surface of the object can be recognized. Therefore, if there is even one object, it is possible to estimate not only the distance of the object to the moving body 1 but also the direction. It is also possible to employ a procedure in which the relative position calculation unit 10a calculates the relative position of the moving body 1 after the position estimation unit 10b searches for the position of the object, and the position estimation unit 10b obtains the estimated position from the result. Good.

位置推定部10bでは、画像マッチングによる推定を行っているため、その一致度合い(一致率)が、その推定の尤度を表す一つの指標となる。尤度が高いと、位置推定部10bにおける自己位置の推定結果が信頼できることを意味し、逆に尤度が低いとその推定結果が信頼できないことを意味する。そして、一致度合い或いは尤度は、認識に使用した地図情報14aの精確さ(特に、認識された物体の存在する領域における精確さ)や認識された物体の数など、推定に使用した情報量に依存することになる。   Since the position estimation unit 10b performs estimation by image matching, the degree of coincidence (coincidence rate) is one index that represents the likelihood of the estimation. When the likelihood is high, it means that the estimation result of the self-position in the position estimation unit 10b is reliable. Conversely, when the likelihood is low, it means that the estimation result is not reliable. The degree of coincidence or likelihood is the amount of information used for estimation, such as the accuracy of the map information 14a used for recognition (particularly the accuracy in the region where the recognized object exists) and the number of recognized objects. Will depend.

例えば、広大な砂漠や広場など、周囲360度にわたって環境に変化がない状況下では、自己位置を推定する特徴点を見つけられずに(情報量が足りずに)推定の精度が劣化する(つまり尤度が低くなる)。しかし、このような状況下では、GPS衛星から移動体1への障害物が無くなるため、GPS測位情報の精度が高い。逆に、高い建物が周りにある状況下では、推定の精度が上がる(つまり尤度が高くなる)。このような状況下では、GPS測位情報は、建物に反射した電波を受信することや、衛星が見えなくなることがあるため、その精度を悪化させる。これらの点を考慮し、位置確定部10cは次のように現在位置を確定する。   For example, in a situation where the environment does not change over 360 degrees, such as a vast desert or a plaza, the feature point for estimating the self-position cannot be found (the amount of information is insufficient) (ie, the estimation accuracy is degraded) The likelihood is reduced). However, under such circumstances, since there is no obstacle from the GPS satellite to the moving body 1, the accuracy of the GPS positioning information is high. On the contrary, in the situation where there are high buildings around, the accuracy of the estimation increases (that is, the likelihood increases). Under such circumstances, the GPS positioning information deteriorates its accuracy because it may receive radio waves reflected on the building or the satellite may become invisible. Considering these points, the position determination unit 10c determines the current position as follows.

すなわち、位置確定部10cは、位置推定部10bで求められた現在の推定位置とGPS測位情報が示す現在の測位位置とに対し、位置推定部10bでの推定の尤度に応じた重み付けを行い、移動体1の現在位置を確定(決定)する。そして、このようにして確定する現在位置は、GPS衛星からの電波の受信状態が悪い場面でも精確な位置となる。   That is, the position determination unit 10c weights the current estimated position obtained by the position estimation unit 10b and the current positioning position indicated by the GPS positioning information according to the likelihood of estimation by the position estimation unit 10b. The current position of the moving body 1 is determined (determined). The current position determined in this way is an accurate position even in a situation where the reception state of the radio wave from the GPS satellite is poor.

次に、図2及び図3を参照しながら、本実施形態における位置確定部10cのより具体的な例について説明する。図2は、図1Aの移動体における位置確定部の詳細を説明するためのブロック図、図3は、図1Aの移動体の走行経路の一例を示す図である。   Next, a more specific example of the position determination unit 10c in the present embodiment will be described with reference to FIGS. FIG. 2 is a block diagram for explaining details of the position determining unit in the moving body in FIG. 1A, and FIG. 3 is a diagram showing an example of a travel route of the moving body in FIG. 1A.

上述した尤度に応じた重み付けとは、尤度に応じた重み付け係数で重み付けすることを意味する。よって、位置確定部10cは、図2に示すように尤度を入力し、重み付け係数を算出する重み付け係数算出部21と、その重み付け係数と共にGPS測位情報及び推定位置を入力し、現在位置を算出する重み付け実行部22と、を有する。   The above-mentioned weighting according to likelihood means weighting with a weighting coefficient according to likelihood. Therefore, the position determination unit 10c receives the likelihood as shown in FIG. 2, inputs the weighting coefficient calculation unit 21 that calculates the weighting coefficient, and the GPS positioning information and the estimated position together with the weighting coefficient, and calculates the current position. A weighting execution unit 22.

例えば、尤度K(0<K≦1)をそのまま推定位置の重み付け係数に用い、測位位置側の重み付け係数としてその残余(1−K)を用い、現在位置を求める。この計算は、次式のように緯度、経度それぞれに対して実行すればよい。測位位置側の重み付け係数として(1−K)を用いる理由は、尤度Kが大きいことが移動体1の周囲に物体が多く(推定位置の信頼度が高く)、GPS信号の受信を妨げ、GPS測位情報の信頼性が低下している可能性があるためである。   For example, the likelihood K (0 <K ≦ 1) is directly used as the weighting coefficient for the estimated position, and the remaining position (1-K) is used as the weighting coefficient on the positioning position side to obtain the current position. This calculation may be executed for each latitude and longitude as in the following equation. The reason why (1-K) is used as the weighting coefficient on the positioning position side is that the likelihood K is large so that there are many objects around the moving body 1 (the reliability of the estimated position is high), which prevents the reception of GPS signals, This is because the reliability of the GPS positioning information may be reduced.

(現在位置の緯度)=(1−K)×(GPS測位位置の緯度)+K×(推定位置の緯度)
(現在位置の経度)=(1−K)×(GPS測位位置の経度)+K×(推定位置の経度)
(Latitude of current position) = (1-K) × (Latitude of GPS positioning position) + K × (Latitude of estimated position)
(Longitude of current position) = (1-K) × (longitude of GPS positioning position) + K × (longitude of estimated position)

これらの式は、GPS測位情報の信頼度をα(0<α≦1)としたとき、下式を意味する。
(現在位置の緯度)=α×(GPS測位位置の緯度)+(1−α)×(推定位置の緯度)
(現在位置の経度)=α×(GPS測位位置の経度)+(1−α)×(推定位置の経度)
These equations mean the following equations when the reliability of the GPS positioning information is α (0 <α ≦ 1).
(Latitude of current position) = α × (Latitude of GPS positioning position) + (1−α) × (Latitude of estimated position)
(Longitude of current position) = α × (longitude of GPS positioning position) + (1−α) × (longitude of estimated position)

この例のように、位置確定部10cは、尤度が増すに連れて測位位置の重みを軽くするような(つまり測位位置の信頼度を下げるような)重み付けを行うことが好ましい。よって、尤度の指標と言える画像マッチングの一致率(照合率)がk(%)であれば、GPS測位位置の信頼度αは例えば1−k/100とすればよい。但し、尤度Kやαの求め方はこれに限らない。無論、尤度Kに応じた推定位置側の信頼度βを規定し、推定位置側の重み付け係数をβ、測位位置側の重み付け係数を1−βとするなどしてもよい。   As in this example, it is preferable that the position determination unit 10c performs weighting that reduces the weight of the positioning position as the likelihood increases (that is, decreases the reliability of the positioning position). Therefore, if the matching rate (collation rate) of image matching, which can be said to be an index of likelihood, is k (%), the reliability α of the GPS positioning position may be set to 1-k / 100, for example. However, the method of obtaining the likelihood K and α is not limited to this. Of course, the reliability β on the estimated position side according to the likelihood K may be defined, the weighting coefficient on the estimated position side may be β, and the weighting coefficient on the positioning position side may be 1−β.

図3で例示する地図30は、物体(建物又は他の障害物)31a〜31d及び物体(街路樹又は植木)31eが道路32に沿って存在する領域の地図を示している。このような地図が地図情報14aに含まれることになる。そして、この道路32上に移動体1が時系列で移動体1aの位置から、移動体1bの位置、移動体1cの位置へと実際に移動するシーンを想定して説明する。   A map 30 illustrated in FIG. 3 shows a map of an area where objects (buildings or other obstacles) 31 a to 31 d and objects (street trees or planted trees) 31 e exist along the road 32. Such a map is included in the map information 14a. A description will be given assuming a scene in which the moving body 1 actually moves on the road 32 from the position of the moving body 1a to the position of the moving body 1b and the position of the moving body 1c in time series.

まず、移動体1が移動体1aの位置に存在する場面では、物体が周囲に存在しないため、尤度に対応する一致率が0%か数%となる一方で、GPS測位情報が示す地図上の緯度経度33aが移動体1aの実際の位置と重なることになる。無論、ここでは物体認識部15が物体31a,31cなどを認識できる性能をもっていない例を想定している。この場合、GPS測位情報の信頼度αは1となり、現在位置がGPSの測位位置に確定される。   First, in a scene where the moving body 1 is present at the position of the moving body 1a, since the object does not exist in the surroundings, the matching rate corresponding to the likelihood is 0% or several percent, while the GPS positioning information indicates Will overlap with the actual position of the mobile body 1a. Of course, it is assumed here that the object recognition unit 15 does not have the capability of recognizing the objects 31a, 31c and the like. In this case, the reliability α of the GPS positioning information is 1, and the current position is determined as the GPS positioning position.

移動体1が移動体1bの位置に存在する場面では、物体が周囲に多数存在するため、尤度に対応する一致率が100%(又はそれに近い値)となる一方で、GPS測位情報が示す地図上の緯度経度33bが移動体1bの実際の位置とはかなりズレることになる。この場合、GPS測位情報の信頼度αは0(又は0に近い値)となり、現在位置が位置推定部10bでの推定位置(又はそれ付近)に確定される。   In a scene where the moving body 1 is present at the position of the moving body 1b, since there are many objects in the vicinity, the matching rate corresponding to the likelihood is 100% (or a value close thereto), while the GPS positioning information indicates The latitude / longitude 33b on the map is considerably different from the actual position of the moving body 1b. In this case, the reliability α of the GPS positioning information is 0 (or a value close to 0), and the current position is determined as the estimated position (or the vicinity thereof) in the position estimation unit 10b.

移動体1が移動体1cの位置に存在する場面では、物体が周囲に少数存在するため、尤度に対応する一致率が例えば50%となり、GPS測位情報が示す地図上の緯度経度33cが移動体1cの実際の位置と若干ズレることになる。この場合、GPS測位情報の信頼度αは例えば0.5となり、現在位置が位置推定部10bでの推定位置とGPS測位情報が示す位置との中間の位置に確定される。   In a scene where the moving body 1 exists at the position of the moving body 1c, since there are a small number of objects in the vicinity, the matching rate corresponding to the likelihood is, for example, 50%, and the latitude and longitude 33c on the map indicated by the GPS positioning information moves. It will slightly deviate from the actual position of the body 1c. In this case, the reliability α of the GPS positioning information is 0.5, for example, and the current position is determined to be an intermediate position between the position estimated by the position estimation unit 10b and the position indicated by the GPS positioning information.

また、位置確定部10cは、上記尤度Kが所定値以上である場合、上記測位位置の重みを無くし(現在位置を推定位置に確定する)、尤度Kが上記所定値未満である場合、上記推定位置の重みを無くす(現在位置を測位位置に確定する)ように重み付けを行ってもよい。所定値としては、例えば70%など予め決めた高めの値であればよい。   Further, when the likelihood K is greater than or equal to a predetermined value, the position determination unit 10c eliminates the weight of the positioning position (determines the current position as the estimated position), and when the likelihood K is less than the predetermined value, Weighting may be performed so as to eliminate the weight of the estimated position (determine the current position as a positioning position). The predetermined value may be a predetermined higher value such as 70%.

次に、その他の応用例について説明する。
位置推定部10bは、画像マッチングを実行するに際し、直前に位置確定部10cで確定された現在位置に基づき、検索開始範囲及び/又は検索範囲を決定するようにすることが好ましい。これにより、画像マッチングの速度を上げるだけでなく、決定した検索開始範囲に近いものを優先的に検索結果として抽出したり、決定した検索範囲内に絞りこんで検索したりすることで、画像マッチングの精度(つまり推定の精度)も上げることができる。特に、確定された現在位置だけでなく、移動体1の速度(及び磁気センサ等の他のセンサから得た移動体1の進行方向)も加味して、これらの範囲を決めることで、より画像マッチングの精度を上げることができる。
Next, other application examples will be described.
When executing the image matching, the position estimation unit 10b preferably determines the search start range and / or the search range on the basis of the current position determined by the position determination unit 10c immediately before. This not only increases the speed of image matching, but also preferentially extracts search results that are close to the determined search start range, or searches within the determined search range for image matching. (That is, estimation accuracy) can be improved. In particular, not only the determined current position but also the speed of the moving body 1 (and the traveling direction of the moving body 1 obtained from other sensors such as a magnetic sensor) are taken into account, and these ranges are determined, so that more images can be obtained. Matching accuracy can be increased.

この例からも分かるように、移動体1は、地磁気を計測する磁気センサなどを備え、その磁気センサが向いている方向を検知することで移動体1の進行方向を検知して、検知結果を主制御部10に出力して進行方向の修正に利用するように構成することもできる。   As can be seen from this example, the moving body 1 includes a magnetic sensor that measures the geomagnetism, and detects the traveling direction of the moving body 1 by detecting the direction in which the magnetic sensor is facing. It can also be configured to output to the main control unit 10 and be used for correction of the traveling direction.

また、画像マッチングに使用する地図情報14aの物体情報は、物体認識部15で事前に認識させた物体についての位置を示す情報を含むことが好ましい。つまり、実際の走行時の画像マッチングに用いるために、走行する予定の経路上で物体認識部15(移動体1に搭載しておくことが好ましいが非搭載でもよい)による物体認識を実行し、その物体認識結果と認識した位置を関連付けて格納しておく。これにより、画像マッチングでの一致率が上がり、精度が向上する。   The object information of the map information 14a used for image matching preferably includes information indicating the position of the object recognized in advance by the object recognition unit 15. That is, in order to use it for image matching during actual traveling, object recognition by the object recognition unit 15 (which is preferably mounted on the moving body 1 but may be non-mounted) is performed on the route planned to travel, The object recognition result and the recognized position are stored in association with each other. Thereby, the coincidence rate in image matching is increased, and the accuracy is improved.

例えば駐車場や敷地内などの或る特定領域内の監視用に移動体1を用いる場合には、予定走行経路が決まっているため非常に有益となる。つまり、移動体1が、記憶部14に地図情報14aの一部として移動体1の予定走行経路を記憶し、位置確定部10cで確定された現在位置(地図上の現在位置)に基づき、上記予定走行経路に沿った自律走行を行う駆動制御部11を備えた自律走行装置である場合には、特に有益となる。無論、このような予定走行経路に沿った自律走行を行う例は、物体情報として事前認識された物体の位置を示す情報を含まない例にも適用できる。   For example, when the moving body 1 is used for monitoring in a specific area such as a parking lot or a site, it is very useful because a planned travel route is determined. That is, the mobile body 1 stores the planned travel route of the mobile body 1 as part of the map information 14a in the storage unit 14, and based on the current position (current position on the map) determined by the position determination unit 10c, This is particularly beneficial when the autonomous traveling device includes the drive control unit 11 that performs autonomous traveling along the planned traveling route. Of course, the example of performing autonomous traveling along such a planned traveling route can also be applied to an example not including information indicating the position of an object recognized in advance as object information.

また、このような事前の物体認識は、上述した例に限ったものではない。移動体1は、実際の走行時に物体認識部15での物体認識を実行し、その際に位置確定部10cで確定した現在位置とその物体とを関連付け、物体情報として登録するような学習機能をもたせてもよい。また、近年ではカメラやレーザレンジファインダ等の物体認識結果に基づく自己位置推定と地図の作成とを同時に行うSLAM(Simultaneous Localization and Mapping)技術の開発が盛んに行われており、このSLAM技術により、物体情報を含む地図情報14aを作成するようにしてもよい。   Further, such prior object recognition is not limited to the above-described example. The mobile body 1 performs object recognition by the object recognition unit 15 during actual travel, associates the current position determined by the position determination unit 10c with the object, and registers it as object information. You may give it. In recent years, the development of SLAM (Simultaneous Localization and Mapping) technology that simultaneously performs self-position estimation and map creation based on object recognition results such as cameras and laser range finders has been actively conducted. You may make it produce the map information 14a containing object information.

(第2の実施形態)
本発明の第2の実施形態について、主に図3を参照しながら説明する。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用できる。
(Second Embodiment)
A second embodiment of the present invention will be described mainly with reference to FIG. In the present embodiment, description of the overlapping parts with the first embodiment is basically omitted, but various application examples described in the first embodiment can be applied, for example.

本実施形態では、地図情報14aにおける物体情報は、物体についての高さ(例えば図3の高さHa〜He)を示す情報を含むこと、つまり地図情報14aが3次元地図の情報であることが好ましい。ここで、高さの情報は移動体1から認識できる物体の表面積の少なさを表すものである。特に、物体認識部15で事前に認識させた物体についての高さを示す情報であることがより好ましい。   In the present embodiment, the object information in the map information 14a includes information indicating the height of the object (for example, the heights Ha to He in FIG. 3), that is, the map information 14a is information on a three-dimensional map. preferable. Here, the height information represents the small surface area of the object that can be recognized from the moving body 1. In particular, the information is more preferably information indicating the height of an object recognized in advance by the object recognition unit 15.

そして、本実施形態における位置推定部10bは、上記推定位置の推定に使用した物体の高さが高い程、上記尤度Kを上げるようにする。具体的に説明すると、まず移動体1の周囲に高いビル等の物体が存在した場合、物体での反射波の影響によりGPSの精度が悪化する。しかし、本実施形態では、地図情報14aの一部として保持された高さ情報に基づき推定に使用した物体の高さが高い程、測位位置への重み付けを軽くし推定位置への重み付けを重くして現在位置の確定を行う。よって、例えば移動体1が図3の移動体1bのような物体(ビル等)31a〜31cに囲まれた位置を走行中も、物体認識に基づく精確な推定結果が存在するため、現在位置を精度良く決定することができる。   And the position estimation part 10b in this embodiment raises the said likelihood K, so that the height of the object used for estimation of the said estimated position is high. More specifically, first, when an object such as a high building exists around the moving body 1, the accuracy of GPS deteriorates due to the influence of the reflected wave on the object. However, in the present embodiment, the higher the height of the object used for estimation based on the height information held as part of the map information 14a, the lighter the positioning position and the higher the estimated position weight. To confirm the current position. Therefore, for example, even when the moving body 1 is traveling in a position surrounded by objects (buildings) 31a to 31c such as the moving body 1b in FIG. It can be determined with high accuracy.

(第3の実施形態)
本発明の第3の実施形態について、主に図3,図4を併せて参照しながら説明する。図4は、図3の走行経路において移動体1bが撮影した上空の画像の一例を示す図である。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用できる。
(Third embodiment)
A third embodiment of the present invention will be described mainly with reference to FIGS. FIG. 4 is a diagram showing an example of the sky image taken by the moving body 1b in the travel route of FIG. In the present embodiment, description of the overlapping parts with the first embodiment is basically omitted, but various application examples described in the first embodiment can be applied, for example.

本実施形態における物体認識部15は、移動体1の上空方向の視界の広さを検出するようにする。ここで、上空方向の視界の広さは、第2の実施形態で説明した高さと同様に、移動体1から認識できる物体の表面積の少なさを表すものである。本実施形態では移動体1の上面側に物体認識部15を設けることが好ましく、そのため進行方向用の物体認識部15と合わせて複数個の物体認識部15を設けることが好ましいと言える。   The object recognition unit 15 in the present embodiment detects the size of the field of view in the upward direction of the moving body 1. Here, the width of the field of view in the sky direction represents the small surface area of the object that can be recognized from the moving body 1, similarly to the height described in the second embodiment. In this embodiment, it is preferable to provide the object recognition unit 15 on the upper surface side of the moving body 1, and therefore it can be said that it is preferable to provide a plurality of object recognition units 15 together with the object recognition unit 15 for the traveling direction.

そして、本実施形態における位置推定部10bは、物体認識部15で検出された上記視界の広さが狭い程、尤度Kを上げるようにする。具体的に説明すると、まず物体認識部15として例えばカメラを用いた場合、画像認識により空(人工物でない)部分の割合が多いと上空の視界が拓けていると分かり、例えばLIDARを用いた場合、上方向の距離データが無限遠(物体が無い)の部分の割合が多いと上空の視界が拓けていると分かる。   And the position estimation part 10b in this embodiment raises the likelihood K, so that the said visual field detected by the object recognition part 15 is narrow. More specifically, first, for example, when a camera is used as the object recognition unit 15, it is understood that the sky field of view is opened when the proportion of the sky (not an artifact) is large by image recognition. For example, when LIDAR is used If the percentage of the distance data in the upward direction is infinite (there is no object), it can be understood that the sky field of view has been developed.

従って、移動体1が例えば図3の移動体1bの位置で認識した物体(例えば撮影した画像又は検知した距離の2次元表現の画像(奥行画像))は、図4で例示する画像40のようになる。このうち上空領域41は、物体が存在しない場合に比べて広く、移動体1は自身の上空の視界が遮られた状況(上空の視界の拓け度合いが低い状況)に位置していることになる。そして、この状況では物体での反射波の影響によりGPSの精度が悪化する。   Therefore, for example, an object recognized by the moving body 1 at the position of the moving body 1b in FIG. 3 (for example, a photographed image or a two-dimensional representation image (depth image) of the detected distance) is an image 40 illustrated in FIG. become. Of these, the sky region 41 is wider than when no object is present, and the moving body 1 is located in a situation where the sky field of view of itself is blocked (a situation where the degree of opening up the sky field of view is low). . In this situation, the accuracy of GPS deteriorates due to the influence of the reflected wave on the object.

よって、本実施形態では、上記視界の広さが狭い程、尤度Kを上げることで、測位位置への重み付けを軽くし推定位置への重み付けを重くして現在位置の確定を行う。このような処理により、例えば移動体1が図3の移動体1bのような物体(ビル等)31a〜31cに囲まれた位置を走行中も、物体認識に基づく精確な推定結果が存在するため、現在位置を精度良く決定することができる。   Therefore, in the present embodiment, as the field of view is narrower, the likelihood K is increased, thereby reducing the weighting to the positioning position and increasing the weighting to the estimated position to determine the current position. By such processing, for example, even when the moving body 1 is traveling in a position surrounded by objects (buildings) 31a to 31c such as the moving body 1b in FIG. 3, there is an accurate estimation result based on object recognition. The current position can be determined with high accuracy.

また、本実施形態は第2の実施形態との併用も可能であり、その場合、高さと視界の広さを変数とする所定の関数に基づき、尤度Kを求めるか、或いは直接重み付け係数を求めるようにすればよい。   In addition, this embodiment can be used in combination with the second embodiment. In this case, the likelihood K is obtained based on a predetermined function having the height and the field of view as variables, or the weighting coefficient is directly set. You just have to ask for it.

(第4の実施形態)
本発明の第4の実施形態について、図5を参照しながら説明する。図5は、本発明の第4の実施形態に係る移動体の一部の構成例を示すブロック図である。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用でき、また第2,第3の実施形態との併用も可能である。
(Fourth embodiment)
A fourth embodiment of the present invention will be described with reference to FIG. FIG. 5 is a block diagram illustrating a configuration example of a part of the moving body according to the fourth embodiment of the present invention. In this embodiment, the description of the overlapping part with the first embodiment is basically omitted, but for example, various application examples described in the first embodiment can be applied, and the second and third examples can be applied. Combination with the embodiment is also possible.

本実施形態における位置確定部10cは、測位に使用したGPS衛星の数及び配置を示す情報(以下、衛星配置情報と言う)に基づき、重み付け係数を決定する。このような構成例について説明する。図5に移動体1の一部を例示するが、測位情報取得部13は、GPS信号受信部51、GPS座標算出部52、及びDOP(Dilution Of Precision)値算出部53を有する。位置推定部10bは、位置座標推定部54及び尤度算出部55を有する。位置確定部10cは、図2で例示したように重み付け係数算出部21及び重み付け実行部(乗算部)22を有する。   The position determination unit 10c in the present embodiment determines the weighting coefficient based on information indicating the number and arrangement of GPS satellites used for positioning (hereinafter referred to as satellite arrangement information). An example of such a configuration will be described. FIG. 5 illustrates a part of the moving body 1, but the positioning information acquisition unit 13 includes a GPS signal reception unit 51, a GPS coordinate calculation unit 52, and a DOP (Dilution Of Precision) value calculation unit 53. The position estimation unit 10 b includes a position coordinate estimation unit 54 and a likelihood calculation unit 55. The position determination unit 10c includes a weighting coefficient calculation unit 21 and a weighting execution unit (multiplication unit) 22 as illustrated in FIG.

位置推定部10bでは、位置座標推定部54が画像マッチングにより推定位置(推定位置の座標)を算出し、尤度算出部55がその算出過程から尤度Kを算出する。   In the position estimation unit 10b, the position coordinate estimation unit 54 calculates an estimated position (coordinates of the estimated position) by image matching, and the likelihood calculation unit 55 calculates the likelihood K from the calculation process.

一方で、測位情報取得部13では、GPS信号受信部51がGPS衛星からの電波を受信し、GPS座標算出部(解析部)52がその受信した信号を解析してGPS測位座標を算出する。また、DOP値算出部53がその受信した信号を解析して、或いはそのGPS測位座標の算出過程から、DOP値を算出する。   On the other hand, in the positioning information acquisition unit 13, the GPS signal receiving unit 51 receives radio waves from GPS satellites, and the GPS coordinate calculation unit (analysis unit) 52 analyzes the received signal to calculate GPS positioning coordinates. Further, the DOP value calculation unit 53 analyzes the received signal or calculates the DOP value from the calculation process of the GPS positioning coordinates.

このように、上記衛星配置情報は、測位情報取得部13で取得したGPS測位情報に含まれる情報、或いはGPS測位情報から算出できる情報であり、例えばGPSの衛星配置の悪化度を示す指標値、つまりGPS精度の劣化の程度を表す指標値であるDOP値を用いることができる。DOP値が大きくなる程、GPS精度が低くなる。また、DOP値としては0〜1の値が用いられることがあるが、これに限ったものではない。また、DOP値には、幾何学的精度低下率、水平精度低下率、垂直程度低下率など多くの指標値があり、いずれの値を採用してもよいし、複数の値を採用してもよい。   Thus, the satellite arrangement information is information included in the GPS positioning information acquired by the positioning information acquisition unit 13 or information that can be calculated from the GPS positioning information. For example, an index value indicating the degree of deterioration of the GPS satellite arrangement, That is, it is possible to use a DOP value that is an index value indicating the degree of degradation of GPS accuracy. The greater the DOP value, the lower the GPS accuracy. A value of 0 to 1 may be used as the DOP value, but is not limited to this. Further, the DOP value has many index values such as a geometric accuracy reduction rate, a horizontal accuracy reduction rate, and a vertical degree reduction rate, and any value or a plurality of values may be adopted. Good.

また、DOP値等の衛星配置情報は、移動体1の上方の視界の広さを表す指標であると言え、移動体1の周囲の物体の多さや高さと関係があり、よって推定の容易さと関係がある。一般的に、DOP値が高い場合には、衛星が固まっているなど、衛星の配置が悪いため、測位位置の信頼度は低く、逆に推定位置の信頼度が高くなる。   The satellite arrangement information such as the DOP value can be said to be an index representing the breadth of the field of view above the moving body 1, and is related to the number and height of objects around the moving body 1. There is a relationship. In general, when the DOP value is high, the reliability of the positioning position is low and the reliability of the estimated position is high because the positioning of the satellite is bad, for example, the satellite is fixed.

従って、本実施形態のように衛星配置情報に基づき重み付け係数を決定することは、現在位置の精度向上のために有益であると言える。位置確定部10cでは、重み付け係数算出部21が尤度算出部55から尤度Kを入力すると共にDOP値算出部53からDOP値を入力し、それらの値から重み付け係数を算出する。一例を挙げると、推定位置側の重み付け係数γとしてK×DOP値を用い、GPS測位位置側の重み付け係数を1−γとすればよい。なお、K、DOP値として0から1の間の値を用いた例を挙げているが、これに限らず、その場合には、正規化(規格化)しておけばよい。   Therefore, it can be said that determining the weighting coefficient based on the satellite arrangement information as in this embodiment is beneficial for improving the accuracy of the current position. In the position determination unit 10c, the weighting coefficient calculation unit 21 inputs the likelihood K from the likelihood calculation unit 55 and the DOP value from the DOP value calculation unit 53, and calculates the weighting coefficient from these values. For example, a K × DOP value may be used as the weighting coefficient γ on the estimated position side, and the weighting coefficient on the GPS positioning position side may be 1−γ. In addition, although the example using the value between 0 and 1 was given as a K and DOP value, it is not restricted to this, In that case, what is necessary is just to normalize (normalize).

ここで例示したように、位置確定部10cは、DOP値が増すに連れて測位位置の重みを軽くするような(つまり測位位置の信頼度を下げるような)重み付けを行えばよい。若しくは、位置確定部10cは、DOP値が所定値(例えば最大値の50%)以上である場合、上記測位位置の重みを無くし(現在位置を推定位置に確定する)、DOP値がその所定値未満である場合、上記推定位置の重みを無くす(現在位置を測位位置に確定する)ように重み付けを行ってもよい。   As illustrated here, the position determination unit 10c may perform weighting that reduces the weight of the positioning position as the DOP value increases (that is, decreases the reliability of the positioning position). Alternatively, when the DOP value is equal to or greater than a predetermined value (for example, 50% of the maximum value), the position determining unit 10c eliminates the weight of the positioning position (determines the current position as the estimated position), and the DOP value is the predetermined value. If it is less than the weight, weighting may be performed so as to eliminate the weight of the estimated position (determine the current position as a positioning position).

なお、上記衛星配置情報は、第1〜第3の実施形態で説明したような重み付け係数の決定条件に加える決定条件であると言える。但し、決定の手順は問わず、例えば第1〜第3の実施形態で説明したような決定条件に従って重み付け係数を決定した後、衛星配置情報に基づいてそれを修正するようにしてもよい。   In addition, it can be said that the satellite arrangement information is a determination condition to be added to the weighting coefficient determination conditions as described in the first to third embodiments. However, the determination procedure is not limited. For example, after the weighting coefficient is determined according to the determination condition described in the first to third embodiments, it may be corrected based on the satellite arrangement information.

重み付け係数の決定後、重み付け実行部(乗算部)22が、その重み付け係数を用いて、GPS座標(測位座標)算出部52から入力した測位座標と位置座標推定部54から入力した推定位置座標とに対し、例えば下式により重み付けを行って、現在位置の座標を算出(決定)する。   After the weighting coefficient is determined, the weighting execution unit (multiplication unit) 22 uses the weighting coefficient to determine the positioning coordinate input from the GPS coordinate (positioning coordinate) calculation unit 52 and the estimated position coordinate input from the position coordinate estimation unit 54. On the other hand, for example, weighting is performed according to the following equation to calculate (determine) the coordinates of the current position.

(現在位置の緯度)=(1−γ)×(GPS測位位置の緯度)+γ×(推定位置の緯度)
(現在位置の経度)=(1−γ)×(GPS測位位置の経度)+γ×(推定位置の経度)
(Latitude of current position) = (1−γ) × (Latitude of GPS positioning position) + γ × (Latitude of estimated position)
(Longitude of current position) = (1-γ) × (longitude of GPS positioning position) + γ × (longitude of estimated position)

(第5の実施形態)
第4の実施形態で説明した衛星配置情報を用いた重み付け手法は、尤度を用いない場合にも適用できる。このような構成例を第5の実施形態として、簡単に説明する。
(Fifth embodiment)
The weighting method using the satellite arrangement information described in the fourth embodiment can be applied even when the likelihood is not used. Such a configuration example will be briefly described as a fifth embodiment.

本実施形態に係る移動体は、第1の実施形態等で説明した移動体1と同様に、測位情報取得部13、記憶部14、物体認識部15、相対位置算出部10a、及び位置推定部10bを備えるが、位置確定部10cの処理が若干異なる。   The mobile body according to the present embodiment is the same as the mobile body 1 described in the first embodiment and the like, the positioning information acquisition unit 13, the storage unit 14, the object recognition unit 15, the relative position calculation unit 10a, and the position estimation unit. 10b, but the processing of the position determination unit 10c is slightly different.

本実施形態における位置確定部10cは、位置推定部10bで求められた現在の推定位置とGPS測位情報が示す現在の測位位置とに対し、衛星配置情報に応じた重み付け(重み付け係数の算出)を行い、移動体の現在位置を確定する。例えばDOP値が低いと、測位位置側の重み付け係数を高くして推定位置側の重み付け係数を低くする。逆に、DOP値が高いと、測位位置側の重み付け係数を低くして推定位置側の重み付け係数を高くする。本実施形態のように衛星配置情報に基づき重み付けを実行することは、現在位置の精度向上のために有益であると言える。   The position determination unit 10c in the present embodiment weights the current estimated position obtained by the position estimation unit 10b and the current positioning position indicated by the GPS positioning information according to the satellite arrangement information (calculation of a weighting coefficient). To determine the current position of the moving object. For example, when the DOP value is low, the weighting coefficient on the positioning position side is increased and the weighting coefficient on the estimated position side is decreased. Conversely, when the DOP value is high, the weighting coefficient on the positioning position side is lowered and the weighting coefficient on the estimated position side is increased. It can be said that performing weighting based on satellite arrangement information as in the present embodiment is beneficial for improving the accuracy of the current position.

(第6の実施形態)
本発明の第6の実施形態について説明する。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用でき、また第2〜第5のいずれの実施形態と併用することができる。
(Sixth embodiment)
A sixth embodiment of the present invention will be described. In this embodiment, the description of the overlapping part with the first embodiment is basically omitted, but for example, various application examples described in the first embodiment can be applied, and the second to fifth examples are applicable. It can be used in combination with any embodiment.

本実施形態では、地図情報14aに、測位情報取得部13で取得できるGPS測位情報の精度が所定精度より悪くなる領域を示す精度情報を含めるようにする。この精度情報を地図情報14aに埋め込むタイミングは、例えば、第1の実施形態で説明した物体認識部15での事前の物体認識と同様のタイミングでよく、よって地図情報14aの最初の作成時(マップ構築時)であってもよいし、精度情報の学習機能をもたせてもよい。精度情報の学習機能をもたせる場合には、例えば、位置確定部10cで確定した現在位置とその際に用いたGPS測位情報が示す測位位置との差を誤差として、その現在位置における精度情報とすればよい。   In the present embodiment, the map information 14a includes accuracy information indicating a region where the accuracy of the GPS positioning information that can be acquired by the positioning information acquisition unit 13 is worse than a predetermined accuracy. The timing for embedding the accuracy information in the map information 14a may be, for example, the same timing as the prior object recognition in the object recognition unit 15 described in the first embodiment. Therefore, when the map information 14a is first created (map) At the time of construction) or a learning function for accuracy information. When the accuracy information learning function is provided, for example, the difference between the current position determined by the position determination unit 10c and the positioning position indicated by the GPS positioning information used at that time is regarded as an error, and the accuracy information at the current position is used. That's fine.

この精度情報は、測位情報取得部13で取得した現在のGPS測位情報の信頼度を示す情報として利用でき、また移動体1の上方の視界の広さを表す指標であるため、移動体1の周囲の物体の多さや高さと関係があり、よって推定の容易さとも関係がある。従って、本実施形態における位置確定部10cは、上記精度情報に基づき重み付け係数を決定する。そして、このように精度情報に基づき重み付け係数を決定することは、現在位置の精度向上のために有益であると言える。   This accuracy information can be used as information indicating the reliability of the current GPS positioning information acquired by the positioning information acquisition unit 13 and is an index indicating the breadth of the field of view above the moving body 1. It is related to the number and height of surrounding objects, and therefore also related to the ease of estimation. Therefore, the position determination unit 10c in the present embodiment determines the weighting coefficient based on the accuracy information. And it can be said that determining the weighting coefficient based on the accuracy information in this way is useful for improving the accuracy of the current position.

重み付け係数の決定に際しては、位置確定部10cは、精度情報が示す精度が増すに連れて測位位置の重みを重くするような(つまり測位位置の信頼度を上げるような)重み付けを行う。若しくは、位置確定部10cは、精度情報が示す精度が所定値(例えば最高値の50%)以上である場合、上記推定位置の重みを無くし(現在位置を測位位置に確定する)、精度がその所定値未満である場合、上記測位位置の重みを無くす(現在位置を推定位置に確定する)ように重み付けを行ってもよい。また、精度情報としては、精度が悪いことを示す「0」と精度が良いことを示す「1」の2値のみを採用し、前者の場合には推定位置に確定し、後者の場合には測位位置に確定するようにしてもよい。   When determining the weighting coefficient, the position determination unit 10c performs weighting that increases the weight of the positioning position (that is, increases the reliability of the positioning position) as the accuracy indicated by the accuracy information increases. Alternatively, when the accuracy indicated by the accuracy information is greater than or equal to a predetermined value (for example, 50% of the maximum value), the position determination unit 10c eliminates the weight of the estimated position (determines the current position as the positioning position), and the accuracy is If it is less than the predetermined value, weighting may be performed so as to eliminate the weight of the positioning position (determine the current position as the estimated position). Further, as accuracy information, only two values of “0” indicating that the accuracy is low and “1” indicating that the accuracy is high are adopted, and in the case of the former, the estimated position is determined, and in the case of the latter, You may make it fix to a positioning position.

なお、上記精度情報は、第1〜第4の実施形態で説明したような重み付け係数の決定条件に加える決定条件であると言える。但し、決定の手順は問わず、例えば第1〜第4の実施形態で説明したような決定条件に従って重み付け係数を決定した後、精度情報に基づいてそれを修正するようにしてもよい。   It can be said that the accuracy information is a determination condition to be added to the weighting coefficient determination conditions as described in the first to fourth embodiments. However, the determination procedure is not limited. For example, after the weighting coefficient is determined according to the determination conditions described in the first to fourth embodiments, it may be corrected based on the accuracy information.

(第7の実施形態)
第6の実施形態で説明した精度情報を用いた重み付け手法は、尤度を用いない場合にも適用できる。このような構成例を第7の実施形態として、簡単に説明する。
(Seventh embodiment)
The weighting method using the accuracy information described in the sixth embodiment can be applied even when the likelihood is not used. Such a configuration example will be briefly described as a seventh embodiment.

本実施形態に係る移動体は、第1の実施形態等で説明した移動体1と同様に、測位情報取得部13、記憶部14、物体認識部15、相対位置算出部10a、及び位置推定部10bを備えるが、位置確定部10cの処理が若干異なる。   The mobile body according to the present embodiment is the same as the mobile body 1 described in the first embodiment and the like, the positioning information acquisition unit 13, the storage unit 14, the object recognition unit 15, the relative position calculation unit 10a, and the position estimation unit. 10b, but the processing of the position determination unit 10c is slightly different.

本実施形態における位置確定部10cは、位置推定部10bで求められた現在の推定位置とGPS測位情報が示す現在の測位位置とに対し、精度情報に応じた重み付け(重み付け係数の算出)を行い、移動体の現在位置を確定する。例えばGPS精度が高いことを精度情報が示していた場合には、測位位置側の重み付け係数を高くして推定位置側の重み付け係数を低くする。逆に、GPS精度が低いことを精度情報が示していた場合には、測位位置側の重み付け係数を低くして推定位置側の重み付け係数を高くする。本実施形態のように精度情報に基づき重み付けを実行することは、現在位置の精度向上のために有益であると言える。   The position determination unit 10c according to the present embodiment performs weighting (calculation of a weighting coefficient) according to accuracy information for the current estimated position obtained by the position estimation unit 10b and the current positioning position indicated by the GPS positioning information. Determine the current position of the moving object. For example, when the accuracy information indicates that the GPS accuracy is high, the weighting coefficient on the positioning position side is increased and the weighting coefficient on the estimated position side is decreased. Conversely, when the accuracy information indicates that the GPS accuracy is low, the weighting coefficient on the positioning position side is decreased and the weighting coefficient on the estimated position side is increased. It can be said that performing weighting based on accuracy information as in this embodiment is beneficial for improving the accuracy of the current position.

(第8の実施形態)
本発明の第8の実施形態について、図6を参照しながら説明する。図6は、本発明の第8の実施形態に係る移動体の一構成例を示すブロック図である。なお、本実施形態では、第1の実施形態との重複箇所の説明を基本的に省略するが、例えば第1の実施形態で説明した様々な応用例が適用でき、また第2〜第7のいずれの実施形態と併用することができる。
(Eighth embodiment)
An eighth embodiment of the present invention will be described with reference to FIG. FIG. 6 is a block diagram illustrating a configuration example of a moving object according to the eighth embodiment of the present invention. In the present embodiment, the description of the overlapping part with the first embodiment is basically omitted, but various application examples described in the first embodiment can be applied, and the second to seventh examples can be applied. It can be used in combination with any embodiment.

第1の実施形態では、移動体1が自律走行装置である例を挙げて説明した。図6で例示する本実施形態に係る移動体6は、図1の各部11〜15に加え、運転者による運転操作を受け付ける操作部61と、位置確定部10cで確定された現在位置に基づき、地図情報14aが示す地図上でのナビゲーションを行うナビゲーション部62と、を備える。操作部61は、ハンドルやアクセル、ブレーキなどで構成される。   In 1st Embodiment, the mobile body 1 demonstrated and demonstrated the example which is an autonomous traveling apparatus. The moving body 6 according to the present embodiment illustrated in FIG. 6 is based on the operation unit 61 that receives a driving operation by the driver and the current position determined by the position determination unit 10c in addition to the units 11 to 15 in FIG. A navigation unit 62 that performs navigation on the map indicated by the map information 14a. The operation unit 61 includes a handle, an accelerator, a brake, and the like.

ナビゲーション部62は、例えば、図3で例示した地図30のような地図を表示させ(但し、移動体の位置は現在位置の一か所)、例えば運転者や同乗者が事前に登録した目的地に向かうように(目的地への予定走行経路に沿うように)、音声及びルート表示により案内すればよい。よって、ナビゲーション部62は、画像表示部及び/又は音声出力部を備える。なお、本実施形態においても、自律走行機能をもたせてもよく、その場合、自律走行を運転者の運転で補う、若しくは運転者の運転の不備を自律走行で補うようにすればよい。   The navigation unit 62 displays, for example, a map such as the map 30 illustrated in FIG. 3 (however, the position of the moving body is one location of the current position), for example, a destination registered in advance by a driver or a passenger It may be guided by voice and a route display so as to go to (to be along a planned travel route to the destination). Therefore, the navigation unit 62 includes an image display unit and / or an audio output unit. In the present embodiment, an autonomous traveling function may be provided. In that case, autonomous traveling may be supplemented by driving of the driver, or deficiencies of driving by the driver may be supplemented by autonomous traveling.

1,1a,1b,1c,6…移動体、10…主制御部、10a…相対位置算出部、10b…位置推定部、10c…位置確定部、11…駆動制御部、12…駆動部、12a…車輪、13…測位情報取得部、14…記憶部、14a…地図情報、15…物体認識部、16…本体、21…重み付け係数算出部、22…重み付け実行部、30…地図、31a,31b,31c,31d,31e…物体、32…道路、33a,33b,33c…緯度経度、40…画像、41…上空領域、51…GPS信号受信部、52…GPS座標算出部、52…GPS座標算出部、53…DOP値算出部、54…位置座標推定部、55…尤度算出部、61…操作部、62…ナビゲーション部。
DESCRIPTION OF SYMBOLS 1, 1a, 1b, 1c, 6 ... Mobile body, 10 ... Main control part, 10a ... Relative position calculation part, 10b ... Position estimation part, 10c ... Position determination part, 11 ... Drive control part, 12 ... Drive part, 12a DESCRIPTION OF SYMBOLS ... Wheel, 13 ... Positioning information acquisition part, 14 ... Memory | storage part, 14a ... Map information, 15 ... Object recognition part, 16 ... Main body, 21 ... Weighting coefficient calculation part, 22 ... Weighting execution part, 30 ... Map, 31a, 31b , 31c, 31d, 31e ... object, 32 ... road, 33a, 33b, 33c ... latitude and longitude, 40 ... image, 41 ... sky region, 51 ... GPS signal receiver, 52 ... GPS coordinate calculator, 52 ... GPS coordinate calculator 53, DOP value calculation unit, 54 ... Position coordinate estimation unit, 55 ... Likelihood calculation unit, 61 ... Operation unit, 62 ... Navigation unit.

Claims (11)

GPS(Global Positioning System)で測位した測位位置を示すGPS測位情報を取得する測位情報取得部を備えた移動体であって、
複数の固定された物体の位置を示す物体情報を含む地図情報を記憶する記憶部と、
前記物体を認識する物体認識部と、
前記物体情報と該物体認識部での認識結果とに基づき前記物体に対する前記移動体の現在の相対位置を算出する相対位置算出部と、
前記地図情報が示す地図上において前記物体の位置を検索して推定し、前記相対位置が示す前記移動体の前記地図上での現在の推定位置を求める位置推定部と、
前記位置推定部で求められた現在の前記推定位置と前記GPS測位情報が示す現在の前記測位位置とに対し、前記位置推定部での推定の尤度に応じた重み付けを行い、前記移動体の現在位置を確定する位置確定部と、
を備えたことを特徴とする移動体。
A mobile body including a positioning information acquisition unit that acquires GPS positioning information indicating a positioning position measured by GPS (Global Positioning System),
A storage unit for storing map information including object information indicating positions of a plurality of fixed objects;
An object recognition unit for recognizing the object;
A relative position calculation unit that calculates a current relative position of the moving body with respect to the object based on the object information and a recognition result in the object recognition unit;
A position estimation unit that searches and estimates the position of the object on the map indicated by the map information, and obtains a current estimated position on the map of the moving object indicated by the relative position;
The current estimated position obtained by the position estimating unit and the current positioning position indicated by the GPS positioning information are weighted according to the likelihood of estimation by the position estimating unit, and A position determination unit for determining the current position;
A moving object comprising:
前記位置確定部は、前記尤度が増すに連れて前記測位位置の重みを軽くするような重み付けを行うことを特徴とする請求項1に記載の移動体。   The mobile unit according to claim 1, wherein the position determination unit performs weighting so as to reduce a weight of the positioning position as the likelihood increases. 前記位置確定部は、前記尤度が所定値以上である場合、前記測位位置の重みを無くし、前記尤度が前記所定値未満である場合、前記推定位置の重みを無くすことを特徴とする請求項1に記載の移動体。   The position determination unit eliminates the weight of the positioning position when the likelihood is equal to or greater than a predetermined value, and eliminates the weight of the estimated position when the likelihood is less than the predetermined value. Item 4. The moving body according to Item 1. 前記位置推定部は、前記物体の位置を検索するに際し、直前に前記位置確定部で確定された前記現在位置に基づき検索開始範囲及び/又は検索範囲を決定することを特徴とする請求項1〜3のいずれか1項に記載の移動体。   The position estimation unit, when searching for the position of the object, determines a search start range and / or a search range based on the current position determined by the position determination unit immediately before. 4. The moving body according to any one of 3 above. 前記物体情報は、前記物体認識部で事前に認識させた前記物体についての位置を示す情報を含むことを特徴とする請求項1〜4のいずれか1項に記載の移動体。   The mobile object according to claim 1, wherein the object information includes information indicating a position of the object recognized in advance by the object recognition unit. 前記物体情報は、前記物体についての高さを示す情報を含み、
前記位置推定部は、前記推定位置の推定に使用した前記物体の高さが高い程、前記尤度を上げることを特徴とする請求項1〜5のいずれか1項に記載の移動体。
The object information includes information indicating the height of the object,
The mobile object according to claim 1, wherein the position estimation unit increases the likelihood as the height of the object used for estimating the estimated position is higher.
前記物体認識部は、前記移動体の上空方向の視界の広さを検出し、
前記位置推定部は、前記物体認識部で検出された前記視界の広さが狭い程、前記尤度を上げることを特徴とする請求項1〜6のいずれか1項に記載の移動体。
The object recognizing unit detects a field of view in the sky direction of the moving body,
The mobile object according to claim 1, wherein the position estimation unit increases the likelihood as the field of view detected by the object recognition unit is narrower.
前記位置確定部は、前記GPS測位情報に含まれる或いは前記GPS測位情報から算出される、測位に使用したGPS衛星の数及び配置を示す情報に基づき、前記重み付けの係数を決定することを特徴とする請求項1〜7のいずれか1項に記載の移動体。   The position determining unit determines the weighting coefficient based on information indicating the number and arrangement of GPS satellites used for positioning included in the GPS positioning information or calculated from the GPS positioning information. The moving body according to any one of claims 1 to 7. 前記地図情報は、前記測位情報取得部で取得できる前記GPS測位情報の精度が所定精度より悪くなる領域を示す精度情報を含み、
前記位置確定部は、前記精度情報に基づき前記重み付けの係数を決定することを特徴とする請求項1〜8のいずれか1項に記載の移動体。
The map information includes accuracy information indicating an area in which the accuracy of the GPS positioning information that can be acquired by the positioning information acquisition unit is worse than a predetermined accuracy,
The mobile unit according to claim 1, wherein the position determination unit determines the weighting coefficient based on the accuracy information.
前記記憶部は、前記地図情報の一部として前記移動体の予定走行経路を記憶し、
前記移動体は、前記位置確定部で確定された前記現在位置に基づき、前記予定走行経路に沿った自律走行を行う駆動制御部を備えた自律走行装置であることを特徴とする請求項1〜9のいずれか1項に記載の移動体。
The storage unit stores a planned travel route of the moving body as a part of the map information,
The said mobile body is an autonomous traveling apparatus provided with the drive control part which performs autonomous traveling along the said scheduled traveling route based on the said current position determined by the said position determination part. The moving body according to any one of 9.
運転者による運転操作を受け付ける操作部と、
前記位置確定部で確定された前記現在位置に基づき、前記地図上でのナビゲーションを行うナビゲーション部と、
を備えたことを特徴とする請求項1〜9のいずれか1項に記載の移動体。
An operation unit for receiving a driving operation by the driver;
A navigation unit for performing navigation on the map based on the current position determined by the position determination unit;
The moving body according to any one of claims 1 to 9, further comprising:
JP2014210526A 2014-10-15 2014-10-15 Moving body Pending JP2016080460A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014210526A JP2016080460A (en) 2014-10-15 2014-10-15 Moving body
PCT/JP2015/075064 WO2016059904A1 (en) 2014-10-15 2015-09-03 Moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014210526A JP2016080460A (en) 2014-10-15 2014-10-15 Moving body

Publications (1)

Publication Number Publication Date
JP2016080460A true JP2016080460A (en) 2016-05-16

Family

ID=55746452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014210526A Pending JP2016080460A (en) 2014-10-15 2014-10-15 Moving body

Country Status (2)

Country Link
JP (1) JP2016080460A (en)
WO (1) WO2016059904A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018059744A (en) * 2016-10-03 2018-04-12 株式会社Soken Self-vehicle position recognizing device
JP2019100817A (en) * 2017-11-30 2019-06-24 株式会社東芝 Position estimation device, position estimation method and terminal device
JP2019124808A (en) * 2018-01-16 2019-07-25 株式会社豊田中央研究所 Map creation device
JP2021056028A (en) * 2019-09-27 2021-04-08 富士通株式会社 Environment map adjustment value calculation method and environment map adjustment value calculation program
JP2021107822A (en) * 2020-05-13 2021-07-29 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Positioning method and device
JP7290785B1 (en) 2022-07-07 2023-06-13 中国長江三峡集団有限公司 Mobile positioning method and system for scanning device applied to tunnel construction
WO2023228283A1 (en) * 2022-05-24 2023-11-30 株式会社センシンロボティクス Information processing system, movable body, information processing method, and program
JP7431511B2 (en) 2018-05-03 2024-02-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Satellite-based method for calculating vehicle position using motion and position sensors

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036067A (en) * 2016-08-29 2018-03-08 株式会社Soken Own vehicle position recognition device
WO2020230325A1 (en) * 2019-05-16 2020-11-19 三菱電機株式会社 Information processing device, information processing method, and information processing program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248230A (en) * 1994-03-10 1995-09-26 Zanabui Informatics:Kk Navigation apparatus
JP4984659B2 (en) * 2006-06-05 2012-07-25 株式会社豊田中央研究所 Own vehicle position estimation device
WO2009017393A1 (en) * 2007-07-31 2009-02-05 Tele Atlas B.V. Method and device for determining a position
JP5163511B2 (en) * 2009-01-19 2013-03-13 トヨタ自動車株式会社 GNSS receiver and positioning method
JP5387277B2 (en) * 2009-08-07 2014-01-15 アイシン・エィ・ダブリュ株式会社 Information reliability identification device, method and program used in driving support
JP5333862B2 (en) * 2010-03-31 2013-11-06 アイシン・エィ・ダブリュ株式会社 Vehicle position detection system using landscape image recognition
JP5626578B2 (en) * 2010-12-02 2014-11-19 アイシン・エィ・ダブリュ株式会社 Driving support system, driving support program, and driving support method
JP5966747B2 (en) * 2012-08-08 2016-08-10 日産自動車株式会社 Vehicle travel control apparatus and method
SG11201508559WA (en) * 2013-05-20 2015-12-30 Found Promotion Ind Science Position detection device, position detection system, and position detection method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018059744A (en) * 2016-10-03 2018-04-12 株式会社Soken Self-vehicle position recognizing device
JP2019100817A (en) * 2017-11-30 2019-06-24 株式会社東芝 Position estimation device, position estimation method and terminal device
JP2019124808A (en) * 2018-01-16 2019-07-25 株式会社豊田中央研究所 Map creation device
JP7431511B2 (en) 2018-05-03 2024-02-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Satellite-based method for calculating vehicle position using motion and position sensors
US11946746B2 (en) 2018-05-03 2024-04-02 Robert Bosch Gmbh Method for satellite-based detection of a vehicle location by means of a motion and location sensor
JP2021056028A (en) * 2019-09-27 2021-04-08 富士通株式会社 Environment map adjustment value calculation method and environment map adjustment value calculation program
JP7338369B2 (en) 2019-09-27 2023-09-05 富士通株式会社 Environment map adjustment value calculation method and environment map adjustment value calculation program
JP2021107822A (en) * 2020-05-13 2021-07-29 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Positioning method and device
JP7126584B2 (en) 2020-05-13 2022-08-26 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Positioning method and device
US11841446B2 (en) 2020-05-13 2023-12-12 Beijing Baidu Netcom Science Technology Co., Ltd. Positioning method and apparatus
WO2023228283A1 (en) * 2022-05-24 2023-11-30 株式会社センシンロボティクス Information processing system, movable body, information processing method, and program
JP7290785B1 (en) 2022-07-07 2023-06-13 中国長江三峡集団有限公司 Mobile positioning method and system for scanning device applied to tunnel construction

Also Published As

Publication number Publication date
WO2016059904A1 (en) 2016-04-21

Similar Documents

Publication Publication Date Title
CN108693543B (en) Method and system for detecting signal spoofing
WO2016059904A1 (en) Moving body
JP6380936B2 (en) Mobile body and system
US11915099B2 (en) Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data
EP2133662B1 (en) Methods and system of navigation using terrain features
US10365363B2 (en) Mobile localization using sparse time-of-flight ranges and dead reckoning
JP2022106924A (en) Device and method for autonomous self-position estimation
EP3884353B1 (en) Detecting a location of an autonomous device
US20170023659A1 (en) Adaptive positioning system
US10549750B2 (en) Moving body
CN109937341B (en) Method and device for estimating the position of a person
RU2720140C1 (en) Method for self-position estimation and self-position estimation device
US20190316929A1 (en) System and method for vehicular localization relating to autonomous navigation
EP3939863A1 (en) Overhead-view image generation device, overhead-view image generation system, and automatic parking device
Welzel et al. Improving urban vehicle localization with traffic sign recognition
US11555705B2 (en) Localization using dynamic landmarks
US20210278217A1 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
KR102373825B1 (en) Vehicle navigaton switching device for golf course self-driving cars
JP2018084492A (en) Self-position estimation method and self-position estimation device
WO2016196717A2 (en) Mobile localization using sparse time-of-flight ranges and dead reckoning
KR20200119092A (en) Vehicle and localization method thereof
CN114694111A (en) Vehicle positioning
US10830906B2 (en) Method of adaptive weighting adjustment positioning
JP6680502B2 (en) Moving body
JP2022098635A (en) Device and method for operating reliability of position of owned vehicle, vehicle controller, and method for controlling vehicle