JP6336825B2 - POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM - Google Patents

POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM Download PDF

Info

Publication number
JP6336825B2
JP6336825B2 JP2014115825A JP2014115825A JP6336825B2 JP 6336825 B2 JP6336825 B2 JP 6336825B2 JP 2014115825 A JP2014115825 A JP 2014115825A JP 2014115825 A JP2014115825 A JP 2014115825A JP 6336825 B2 JP6336825 B2 JP 6336825B2
Authority
JP
Japan
Prior art keywords
detection result
moving body
determination
estimating
position estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014115825A
Other languages
Japanese (ja)
Other versions
JP2015230213A (en
Inventor
翼 奥谷
翼 奥谷
武藤 健二
健二 武藤
誠一 三田
誠一 三田
佳祐 米陀
佳祐 米陀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota School Foundation
Denso Corp
Original Assignee
Toyota School Foundation
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota School Foundation, Denso Corp filed Critical Toyota School Foundation
Priority to JP2014115825A priority Critical patent/JP6336825B2/en
Publication of JP2015230213A publication Critical patent/JP2015230213A/en
Application granted granted Critical
Publication of JP6336825B2 publication Critical patent/JP6336825B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両等の位置を推定する位置推定装置に関する。   The present invention relates to a position estimation device that estimates the position of a vehicle or the like.

車載カメラでの撮影画像から車線やランドマークを抽出し、これらと、地図データに含まれているランドマーク情報や車線情報とを整合させ、これらを撮影した位置を求めることで、高精度で自車両の現在地を推定することが知られている(例えば、特許文献1)。   By extracting lanes and landmarks from the images captured by the in-vehicle camera, aligning them with the landmark information and lane information contained in the map data, and obtaining the positions where these were photographed, it is possible to automatically and accurately. It is known to estimate the current location of a vehicle (for example, Patent Document 1).

特開2005−265494号JP 2005-265494 A

しかしながら、降雪により車線が隠された場合や、歩行者や他車両によりランドマークが隠された場合等には、撮影画像から車線等を抽出することができなくなり、上述した方法では自車両の現在地を推定するのが困難となる。   However, when the lane is hidden due to snowfall, or when a landmark is hidden by a pedestrian or another vehicle, the lane or the like cannot be extracted from the photographed image. Is difficult to estimate.

本願発明は、移動体の位置を高精度で推定することを目的とする。   An object of the present invention is to estimate the position of a moving body with high accuracy.

上記課題に鑑みてなされた本発明に係る位置推定装置(10)は、地図データを取得する地図データ取得手段と(S100,S300,S500)、自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S100,S300,S500)、移動体に搭載されたセンサによる移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S100,S300,S500)、検出結果に基づき、移動体の周辺のうち、予め定められた条件を満たす対象物が多く存在する一部の領域を、判定領域として設定する設定手段と(S105〜S120,S310〜S315,S510〜S515)、を備える。また、この位置推定装置(10)は、検出結果に基づき、判定領域から、移動体の位置の推定に用いる対象物を特定する特定手段と(S105,S125,S305,S320,S505,S520)、位置情報に基づき定められる領域に存在するものとして地図データに登録されている対象物と、特定手段により特定された対象物とに基づき、移動体の位置を推定する推定手段と(S130,S325,S525)、を備える。 The position estimation device (10) according to the present invention made in view of the above problems includes map data acquisition means for acquiring map data (S100, S300, S500), and the position of the mobile body (1) on which the device is mounted. Position information acquisition means for acquiring information (S100, S300, S500), detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S100, S300, S500) setting means for setting, as a determination area, a part of the area around the moving body in which there are many objects that satisfy a predetermined condition based on the detection result (S105 to S120, S310 to S315). , S510 to S515). In addition, the position estimation device (10) includes, based on the detection result, specifying means for specifying an object used for estimating the position of the moving object from the determination region (S105, S125, S305, S320, S505, S520), Estimation means for estimating the position of the moving object based on the object registered in the map data as existing in the area determined based on the position information and the object specified by the specifying means (S130, S325, S525).

このような構成によれば、移動体の周辺のうち、移動体の位置を高精度で推定する上で好適な対象物が多く存在する領域を判定領域として設定することができる。このため、移動体の位置を推定する際には、このような対象物がより多く用いられるようになり、移動体の位置を高精度で推定することができる。   According to such a configuration, it is possible to set, as the determination area, an area where there are many objects suitable for estimating the position of the moving body with high accuracy in the periphery of the moving body. For this reason, when estimating the position of a moving body, such an object comes to be used more frequently and the position of a moving body can be estimated with high precision.

また、上記課題に鑑みてなされた本発明に係る位置推定装置(10)は、地図データを取得する地図データ取得手段と(S200,S400,S600)、自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S200,S400,S600)、移動体に搭載されたセンサによる移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S200,S400,S600)、検出結果に基づき、移動体の周辺における複数の判定領域の各々に、予め定められた条件を満たす対象物がどの程度存在するかを判定し、判定結果に基づき、判定領域に重みを設定する設定手段と(S205〜S220,S410〜S415,S610〜S615)、を備える。また、この位置
推定装置(10)は、検出結果に基づき、判定領域から、移動体の位置の推定に用いる対象物を特定する特定手段と(S205,S225,S405,S420,S605,S620)、位置情報に基づき定められる領域に存在するものとして地図データに登録されている対象物と、特定手段によりそれぞれの判定領域において特定された対象物と、それぞれの判定領域の重みとに基づき、移動体の位置を推定する推定手段と(S230,S425,S625)、を備える。
In addition, the position estimation device (10) according to the present invention made in view of the above problems includes map data acquisition means for acquiring map data (S200, S400, S600), and a moving body (1) on which the device is mounted. Position information acquiring means for acquiring the position information (S200, S400, S600), detection result acquiring means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S200, S400, S600), based on the detection result, it is determined how many objects satisfying a predetermined condition exist in each of the plurality of determination regions in the vicinity of the moving body, and the determination region is determined based on the determination result. Setting means for setting weights (S205 to S220, S410 to S415, S610 to S615). Further, the position estimation device (10) includes, based on the detection result, specifying means for specifying an object used for estimating the position of the moving object from the determination region (S205, S225, S405, S420, S605, S620), Based on the object registered in the map data as existing in the area determined based on the position information, the object specified in each determination area by the specifying means, and the weight of each determination area (S230, S425, S625).

このような構成によれば、移動体の位置を高精度で推定する上で好適な対象物がどの程度存在するかにより、移動体の周辺における各判定領域に重みを設定することができる。これにより、このような対象物の検出結果がより反映された状態で、移動体の位置が推定されるようになり、移動体の位置を高精度で推定することができる。   According to such a configuration, a weight can be set for each determination region in the periphery of the moving body depending on how many suitable objects exist for estimating the position of the moving body with high accuracy. Accordingly, the position of the moving body is estimated in a state where the detection result of such an object is more reflected, and the position of the moving body can be estimated with high accuracy.

なお、本発明は、上記位置推定装置の他、コンピュータを上記位置推定装置として動作させるための位置推定プログラムや、位置推定プログラムを記録した記録媒体や、位置推定プログラムに対応する制御方法など、種々の形態で実現することができる。   In addition to the position estimation device, the present invention includes various methods such as a position estimation program for operating a computer as the position estimation device, a recording medium on which the position estimation program is recorded, and a control method corresponding to the position estimation program. Can be realized.

また、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   Further, the reference numerals in parentheses described in this column and in the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present invention. It is not limited.

第1実施形態の位置推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the position estimation apparatus of 1st Embodiment. 第1実施形態における位置推定装置の周囲の領域についての説明図である。It is explanatory drawing about the area | region around the position estimation apparatus in 1st Embodiment. 第1実施形態の現在地推定処理のフローチャートである。It is a flowchart of the present location estimation process of 1st Embodiment. 第1実施形態における左方領域のレイヤ1〜4にて検出された対象物の大きさのヒストグラムである。It is a histogram of the magnitude | size of the target object detected in the layers 1-4 of the left area | region in 1st Embodiment. 第1実施形態における左方領域のレイヤ1〜4、及び、右方領域のレイヤ1〜4についての対象物の大きさの分布状態である。It is the distribution state of the magnitude | size of the object about the layers 1-4 of the left area | region in 1st Embodiment, and the layers 1-4 of a right area | region. 第2実施形態の現在地推定処理のフローチャートである。It is a flowchart of the present location estimation process of 2nd Embodiment. 第3実施形態の現在地推定処理のフローチャートである。It is a flowchart of the present location estimation process of 3rd Embodiment. 第3実施形態における左方領域のレイヤ1、及び、右方領域のレイヤ1についての反射強度の分布状態である。It is the distribution state of the reflection intensity about the layer 1 of the left area | region and the layer 1 of a right area | region in 3rd Embodiment. 第4実施形態の現在地推定処理のフローチャートである。It is a flowchart of the present location estimation process of 4th Embodiment. 第5実施形態の現在地推定処理のフローチャートである。It is a flowchart of the present location estimation process of 5th Embodiment. 第6実施形態の現在地推定処理のフローチャートである。It is a flowchart of the present location estimation process of 6th Embodiment.

以下、本発明の実施形態について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment of the present invention is not limited to the following embodiment, and can take various forms as long as they belong to the technical scope of the present invention.

[第1実施形態]
[構成の説明]
第1実施形態の位置推定装置10(図1参照)は、一例として車両1に搭載されている。これ以外にも、位置推定装置10は、ロボットや車両以外の乗り物等といった移動体に搭載することが考えられる。
[First Embodiment]
[Description of configuration]
The position estimation apparatus 10 (refer FIG. 1) of 1st Embodiment is mounted in the vehicle 1 as an example. In addition to this, it is conceivable that the position estimation device 10 is mounted on a moving body such as a vehicle other than a robot or a vehicle.

位置推定装置10は、周辺監視センサ11と、無線通信部12と、地図管理部13と、衛星測位部14と、位置推定処理部15とを有している。また、位置推定装置10は、図示しないCPU,ROM,RAM,I/O等を有しており、ROMに記憶されているプログラムや、図示しないHDD等からRAMにロードされたプログラム31に従いCPUが動作することで、各種機能を実現する。   The position estimation device 10 includes a periphery monitoring sensor 11, a wireless communication unit 12, a map management unit 13, a satellite positioning unit 14, and a position estimation processing unit 15. Further, the position estimation device 10 has a CPU, ROM, RAM, I / O, etc. (not shown), and the CPU is in accordance with a program stored in the ROM or a program 31 loaded into the RAM from an HDD (not shown). Various functions are realized by operating.

なお、このプログラム31は、CD−ROM,USBメモリ,メモリカード(登録商標)等の光ディスク,磁気ディスク,半導体製メモリ等として構成された記憶媒体30に記憶された状態で提供され、位置推定装置10のHDD等に保存されても良い。無論、プログラム31は、インターネット等から提供されても良い。   The program 31 is provided in a state of being stored in a storage medium 30 configured as an optical disk such as a CD-ROM, a USB memory, or a memory card (registered trademark), a magnetic disk, a semiconductor memory, or the like. It may be stored in 10 HDDs or the like. Of course, the program 31 may be provided from the Internet or the like.

周辺監視センサ11は、自車両周辺に存在する移動体(車両,歩行者等)や静止物(ランドマーク,建築物,道路標識,信号機,路肩,中央分離帯等)や、道路の形状や、道路に描かれた車線や標識等を検出するためのセンサである。以後、周辺監視センサ11による検出対象を対象物と記載する。周辺監視センサ11は、例えば、レーザーレーダや、マイクロ波やミリ波を用いて対象物を検出するレーダ等として構成されていても良い。   The surrounding monitoring sensor 11 can be a moving object (vehicle, pedestrian, etc.) or stationary object (landmark, building, road sign, traffic light, road shoulder, median strip, etc.), road shape, This is a sensor for detecting lanes, signs, etc. drawn on the road. Hereinafter, the detection target by the periphery monitoring sensor 11 is referred to as an object. The periphery monitoring sensor 11 may be configured as, for example, a laser radar, a radar that detects an object using a microwave or a millimeter wave, or the like.

周辺監視センサ11は、当該センサの周囲の360°の方向に送信波(レーザ,マイクロ波,ミリ波等)を照射すると共に、反射波を検出する。また、周辺監視センサ11は、水平面を基準とした鉛直方向への送信波の照射方向の傾き(照射角)を変更可能となっている。   The surrounding monitoring sensor 11 irradiates a transmission wave (laser, microwave, millimeter wave, etc.) in a 360 ° direction around the sensor and detects a reflected wave. Moreover, the periphery monitoring sensor 11 can change the inclination (irradiation angle) of the irradiation direction of the transmission wave in the vertical direction with respect to the horizontal plane.

車両1の周囲に広がる水平面は、前方領域,後方領域,右方領域,左方領域の4つの領域に区分される(図2参照)。なお、図2において、x軸は車両1の前後方向を、y軸は車両1の左右方向を、z軸は車両1の鉛直方向を示している。各領域は、周辺監視センサ11の配置位置を中心とした中心角が90°の扇形に形成されている。x軸は、前方領域と後方領域の中心角を2等分した状態で配され、y軸は、右方領域と左方領域の中心角を2等分した状態で配される。   A horizontal plane extending around the vehicle 1 is divided into four areas, a front area, a rear area, a right area, and a left area (see FIG. 2). In FIG. 2, the x-axis indicates the front-rear direction of the vehicle 1, the y-axis indicates the left-right direction of the vehicle 1, and the z-axis indicates the vertical direction of the vehicle 1. Each region is formed in a fan shape having a central angle of 90 ° with the arrangement position of the periphery monitoring sensor 11 as the center. The x axis is arranged with the central angle of the front region and the rear region divided into two equal parts, and the y axis is arranged with the central angle of the right region and left region divided into two equal parts.

また、照射角の可変範囲は4つに区分され、照射角が各区分内で変化した際に送信波が照射される空間を、レイヤと記載する。送信波の照射範囲は、レイヤ1〜4の4つに区分される(図2参照)。ここで、前方領域,後方領域,右方領域,左方領域の各々における各レイヤに対応する空間を、対象領域と記載する。なお、前方領域,後方領域,右方領域,左方領域をレイヤ1〜4に区分せず、各領域における送信波の照射範囲を、それぞれ、対象領域としても良い。また、上記の水平面及び照射角の区分の方法は一例であり、別の区分方法も取ることもある。   Further, the variable range of the irradiation angle is divided into four, and a space to which the transmission wave is irradiated when the irradiation angle changes in each of the sections is described as a layer. The irradiation range of the transmission wave is divided into four layers 1 to 4 (see FIG. 2). Here, the space corresponding to each layer in each of the front area, the rear area, the right area, and the left area is referred to as a target area. In addition, the front area, the rear area, the right area, and the left area may not be divided into layers 1 to 4, and the irradiation range of the transmission wave in each area may be set as the target area. Further, the above-described method of dividing the horizontal plane and the irradiation angle is an example, and another dividing method may be taken.

各レイヤを照射する際、照射角は、使用する周辺監視センサ11によって異なるが、例えば、8段階で設定される。つまり、照射角は、合計32段階で設定される。1サイクルの測定では、照射角が各段階に設定され、その際に周辺監視センサ11の周囲の360°の方向に送信波が照射されると共に、反射波が検出され、対象物の位置,大きさ,形状等の検出結果が位置推定処理部15に提供される。   When irradiating each layer, the irradiation angle varies depending on the surrounding monitoring sensor 11 to be used, but is set in, for example, eight stages. That is, the irradiation angle is set in a total of 32 stages. In the measurement of one cycle, the irradiation angle is set at each stage, and at that time, the transmission wave is irradiated in the 360 ° direction around the periphery monitoring sensor 11 and the reflected wave is detected, and the position and size of the object are detected. The position estimation processing unit 15 is provided with detection results such as the shape.

なお、周辺監視センサ11は、検出結果として反射波の反射強度を位置推定処理部15に提供しても良い。また、周辺監視センサ11としてマイクロ波,ミリ波等を照射するレーダが用いられている場合には、検出結果として、対象物の位置等に加え、検出された各対象物と車両1との相対速度を位置推定処理部15に提供しても良い。   The periphery monitoring sensor 11 may provide the position estimation processing unit 15 with the reflection intensity of the reflected wave as a detection result. In addition, when a radar that irradiates microwaves, millimeter waves, or the like is used as the periphery monitoring sensor 11, as a detection result, in addition to the position of the object, the relative relationship between each detected object and the vehicle 1 is detected. The speed may be provided to the position estimation processing unit 15.

無線通信部12は、アンテナ等により無線通信回線網にアクセスし、インターネット等を経由して地図DB20等のサーバ等と通信を行う部位である。
地図管理部13は、無線通信部12を介して地図DB20から受信した地図データを保存する部位であり、フラッシュメモリやHDD等といった書き換え可能な不揮発性メモリにより構成されていても良いし、RAM等の揮発性メモリにより構成されていても良い。
The wireless communication unit 12 is a part that accesses a wireless communication network via an antenna or the like and communicates with a server or the like such as the map DB 20 via the Internet or the like.
The map management unit 13 is a part that stores map data received from the map DB 20 via the wireless communication unit 12, and may be configured by a rewritable nonvolatile memory such as a flash memory or an HDD, or a RAM or the like. The volatile memory may be used.

衛星測位部14は、アンテナを介してGPSやGLONASS等の衛星測位システムを構成する人工衛星からの信号を受信し、該信号に基づき、車両1の現在地や、進行方向や、速度等を検出する部位である。   The satellite positioning unit 14 receives a signal from an artificial satellite constituting a satellite positioning system such as GPS or GLONASS via an antenna, and detects the current location, traveling direction, speed, etc. of the vehicle 1 based on the signal. It is a part.

位置推定処理部15は、衛星測位部14により検出された現在地と、周辺監視センサ11による検出結果とに基づき、車両1の現在地を推定する部位である(詳細は後述する)。   The position estimation processing unit 15 is a part that estimates the current location of the vehicle 1 based on the current location detected by the satellite positioning unit 14 and the detection result by the surrounding monitoring sensor 11 (details will be described later).

[動作の説明]
次に、衛星測位部14により検出された現在地に基づき、より高い精度で車両1の現在地を推定する現在地推定処理について説明する(図3参照)。第1実施形態の現在地推定処理では、周辺監視センサ11による対象物の検出結果に基づき対象領域が選択され、選択された対象領域に存在する対象物に基づき、現在地の推定がなされる。本処理は、周期的なタイミングで実行される。また、本処理は、プログラム31に従い処理を行うCPUが、位置推定処理部15として動作することで実現される。
[Description of operation]
Next, a current location estimation process for estimating the current location of the vehicle 1 with higher accuracy based on the current location detected by the satellite positioning unit 14 will be described (see FIG. 3). In the current location estimation process of the first embodiment, a target region is selected based on the detection result of the target by the surrounding monitoring sensor 11, and the current location is estimated based on the target existing in the selected target region. This process is executed at periodic timing. Further, this processing is realized by the CPU that performs processing according to the program 31 operating as the position estimation processing unit 15.

S100では、位置推定処理部15は、周辺監視センサ11による対象物の検出結果を取得すると共に、衛星測位部14を介して現在地を検出する。また、位置推定処理部15は、検出した現在地が、地図管理部13に保存されている地図データが示す領域の中央から所定値以上の距離を隔てた位置である場合等には、地図DB20から該現在地を中心とする領域の地図データを新たに取得し、地図管理部13に保存する。   In S <b> 100, the position estimation processing unit 15 acquires the detection result of the object by the surrounding monitoring sensor 11 and detects the current location via the satellite positioning unit 14. In addition, the position estimation processing unit 15 determines from the map DB 20 when the detected current location is a position separated by a predetermined distance or more from the center of the area indicated by the map data stored in the map management unit 13. Map data of a region centered on the current location is newly acquired and stored in the map management unit 13.

S105では、位置推定処理部15は、対象物の検出結果に基づき、各対象領域に存在する対象物の位置,大きさ,形状等を特定する。なお、周辺監視センサ11の検出結果から車両1と対象物との相対速度が特定可能な場合、位置推定処理部15は、相対速度を検出しても良い。   In S105, the position estimation processing unit 15 specifies the position, size, shape, and the like of the target existing in each target region based on the detection result of the target. Note that, when the relative speed between the vehicle 1 and the object can be specified from the detection result of the surrounding monitoring sensor 11, the position estimation processing unit 15 may detect the relative speed.

S110では、位置推定処理部15は、対象物の大きさの分布状態を算出する。具体的には、位置推定処理部15は、各対象領域において、各大きさの対象物が何個存在するかを示すヒストグラムを算出する。図4は、一例として、左方領域におけるレイヤ1〜4についてのヒストグラムを示している。そして、該ヒストグラムを対数グラフにより表したものを、対象物の大きさの分布状態とする。図5は、一例として、左方領域におけるレイヤ1〜4と、右方領域におけるレイヤ1〜4とにおける対象物の大きさの分布状態を示している。この対象物の大きさの分布状態に基づき、対応する対象領域に存在する対象物の大きさの傾向を把握することができる。   In S110, the position estimation processing unit 15 calculates a distribution state of the size of the object. Specifically, the position estimation processing unit 15 calculates a histogram indicating how many objects of each size exist in each target region. FIG. 4 shows a histogram for layers 1 to 4 in the left region as an example. A histogram representing the histogram is defined as a distribution state of the size of the object. FIG. 5 shows, as an example, distribution of the size of the object in layers 1 to 4 in the left region and layers 1 to 4 in the right region. Based on the distribution state of the size of the target object, it is possible to grasp the tendency of the size of the target object existing in the corresponding target region.

S115では、位置推定処理部15は、各対象領域についての対象物の大きさの分布状態を示す対数グラフ上で、各大きさの対象物の数を示す各点に基づき直線近似を行うことで、該対数グラフ上に近似直線を設定し、該直線の傾きγを算出する(図5参照)。このとき、位置推定処理部15は、例えば、最小二乗法を用いて直線近似を行っても良い。傾きγが大きくなるにつれ、その対象領域には、より小さな対象物が多く存在することになる。   In S115, the position estimation processing unit 15 performs linear approximation based on each point indicating the number of objects of each size on a logarithmic graph indicating the distribution state of the object size for each target region. An approximate straight line is set on the logarithmic graph, and the slope γ of the straight line is calculated (see FIG. 5). At this time, the position estimation processing unit 15 may perform linear approximation using, for example, a least square method. As the slope γ increases, there are many smaller objects in the target area.

ここで、各対象領域について算出された傾きγを、γijと記載する。iには0〜3のいずれかの値が設定され、0が前方領域を、1が後方領域を、2が右方領域を、3が左方領域を示す。また、jはレイヤを示し、0〜3のいずれかの値が設定され、各番号は、同じ番号のレイヤを示す。 Here, the gradient γ calculated for each target region is denoted as γ ij . i is set to any value from 0 to 3, with 0 representing the front region, 1 representing the rear region, 2 representing the right region, and 3 representing the left region. Further, j indicates a layer, and any value from 0 to 3 is set, and each number indicates a layer having the same number.

さらに、位置推定処理部15は、以下の式(1)により、各対象領域について、γijとγijの平均値との差分を正規化した値であるωijを算出する。 Further, the position estimation processing section 15, by the following equation (1), for each target area, the difference between the average value of the gamma ij and gamma ij calculates the omega ij is normalized value.

Figure 0006336825
なお、ωijが小さい対象領域ほど、平均的な大きさの対象物が多く存在する傾向があり、ωijが大きい対象領域ほど、極端に大きい対象物や極端に小さい対象物が多く存在する傾向がある。
Figure 0006336825
In addition, there is a tendency that a target area having a smaller ω ij has more average size objects, and a target area having a larger ω ij has a tendency to have more extremely large objects or extremely small objects. There is.

S120では、位置推定処理部15は、各対象領域について算出されたωijに基づき、全対象領域の中から、車両1の現在地の推定に用いる対象領域である判定領域を選択する。換言すれば、各対象領域のωijに基づき、車両1の現在地を高い精度で推定する上で好適な対象領域を選択する。具体的には、例えば、1番目からX番目にωijの小さい対象領域を判定領域としても良いし、1番目からX番目にωijの大きい対象領域を判定領域としても良い。また、相対的にωijが所定値に近いX個の対象領域を、判定領域としても良い。 In S120, the position estimation processing unit 15 selects a determination region that is a target region used for estimating the current location of the vehicle 1 from all target regions based on ω ij calculated for each target region. In other words, a target region suitable for estimating the current location of the vehicle 1 with high accuracy is selected based on ω ij of each target region. Specifically, for example, a target region having the smallest ω ij from the first to the Xth may be set as the determination region, and a target region having the largest ω ij from the first to the Xth may be set as the determination region. Further, X target areas whose ω ij is relatively close to a predetermined value may be used as the determination areas.

S125では、位置推定処理部15は、判定領域に存在する対象物のうち、予め定められた判定条件に合致するものを判定対象とする。
具体的には、例えば、判定領域に存在する対象物のうち、予め定められた大きさを有するという条件(判定条件1)に合致するものを判定対象としても良い。一例として、周辺監視センサ11による検出結果に基づき、各対象物について車両1が走行中の道路に沿った方向の長さsを特定し、下限値Smin以上、上限値Smax以下の長さsを有する対象物を、判定対象としても良い。無論、長さsに限らず、例えば、対象物における自装置に対面する部分の長さや、対象物の断面積や高さ等に基づき判定対象を定めても良い。
In S <b> 125, the position estimation processing unit 15 determines a target that matches a predetermined determination condition from among the objects existing in the determination region.
Specifically, for example, among objects existing in the determination area, a target that satisfies a condition of having a predetermined size (determination condition 1) may be determined. As an example, the length s in the direction along the road on which the vehicle 1 is traveling is specified for each object based on the detection result by the surrounding monitoring sensor 11, and the length s that is not less than the lower limit Smin and not more than the upper limit Smax It is good also considering the target object to have as a determination target. Needless to say, the determination target is not limited to the length s. For example, the determination target may be determined based on the length of the portion of the target object facing the device, the cross-sectional area or the height of the target object, and the like.

また、例えば、判定領域に存在する対象物のうち、予め定められた高さに存在するという条件(判定条件2)に合致するものを判定対象としても良い。すなわち、一例として、判定領域に存在する対象物のうち、全部又は一部分が走行中の道路からHm以上高い位置に存在する対象物を、判定対象としても良い。このほかにも、例えば、判定領域に存在する対象物のうち、全部又は一部分が自装置や車両1よりもHm以上高い位置に存在する対象物を、判定対象としても良い。   Further, for example, among objects existing in the determination area, objects that meet the condition of being present at a predetermined height (determination condition 2) may be determined. That is, as an example, among the objects existing in the determination area, an object that is present at a position where Hm or more is higher than the road on which all or a part is traveling may be determined. In addition to this, for example, among the objects existing in the determination region, an object in which all or a part is present at a position higher than the own device or the vehicle 1 by Hm or more may be set as the determination object.

また、例えば、判定領域に存在する対象物のうち、予め定められた速度を持つという条件(判定条件3)に合致するものを判定対象としても良い。
すなわち、一例として、対象物が静止している(速度が0)という条件を設定した場合、位置推定処理部15は、S105にて検出された判定領域に存在する対象物の相対速度と、車両1の速度や進行方向等に基づき、対象物が静止しているか否かを判定しても良い。なお、車両1の速度や進行方向等は、自装置に設けられた図示しないセンサにより検出しても良いし、他のECU(図示なし)から受信しても良い。また、対象物の相対速度は、無線通信部12や他の通信手段(図示なし)を用いて他車両から受信してもよい。
Further, for example, among objects existing in the determination area, a target that satisfies a condition of having a predetermined speed (determination condition 3) may be determined.
That is, as an example, when the condition that the object is stationary (speed is 0) is set, the position estimation processing unit 15 determines the relative speed of the object existing in the determination area detected in S105, the vehicle It may be determined whether or not the object is stationary based on the speed of 1 or the traveling direction. The speed, traveling direction, and the like of the vehicle 1 may be detected by a sensor (not shown) provided in the own device, or may be received from another ECU (not shown). Moreover, you may receive the relative speed of a target object from another vehicle using the wireless communication part 12 or another communication means (not shown).

一方、周辺監視センサ11の検出結果から対象物の相対速度が特定不可能な場合、位置推定処理部15は、今回検出された判定領域に存在する対象物の位置と、過去に検出された該対象物の位置とに基づき、該対象物が静止しているか否かを判定しても良い。   On the other hand, when the relative speed of the object cannot be specified from the detection result of the periphery monitoring sensor 11, the position estimation processing unit 15 determines the position of the object existing in the determination area detected this time and the detected object in the past. Based on the position of the object, it may be determined whether or not the object is stationary.

なお、位置推定処理部15は、複数の判定条件に合致する対象物を判定対象として特定しても良いし、判定条件を設けず、判定領域に存在する全ての対象物を判定対象としても良い。   Note that the position estimation processing unit 15 may specify an object that matches a plurality of determination conditions as a determination target, or may set all the objects existing in the determination area without setting a determination condition. .

S130では、位置推定処理部15は、判定対象の位置,大きさ,形状等と、衛星測位部14により検出された現在地の付近に存在するものとして地図データに登録されている対象物の位置,大きさ,形状等とのマッチングを行う。ここでの処理で使用する現在地を得る方法として、自装置に設けられた図示しないセンサ等によって取得した車両1の速度やヨーレートを用いて推定する等の、他の手段を用いても良い。   In S130, the position estimation processing unit 15 determines the position, size, shape, and the like of the determination target, and the position of the target registered in the map data as existing near the current location detected by the satellite positioning unit 14, Matching with size, shape, etc. As a method for obtaining the current location used in the processing here, other means such as estimation using the speed and yaw rate of the vehicle 1 acquired by a sensor (not shown) provided in the own apparatus may be used.

具体的には、例えば、位置推定処理部15は、判定対象の位置,大きさ,形状等と、地図データに登録された対象物の位置,大きさ,形状等とを比較し、地図データに登録された対象物のうち、判定対象に相当するものを特定する。そして、位置推定処理部15は、各判定対象と自装置との位置関係と、地図データに登録されている該判定対象に相当する対象物とに基づき、周辺監視センサ11により該判定対象が検出された際の車両1の位置を算出する。さらに、各判定対象について算出された車両1の位置を平均化した位置を、車両1の現在地として推定し、本処理を終了する。   Specifically, for example, the position estimation processing unit 15 compares the position, size, shape, and the like of the determination target with the position, size, shape, etc. of the target registered in the map data, and generates the map data. Among the registered objects, the object corresponding to the determination target is specified. Then, the position estimation processing unit 15 detects the determination target by the periphery monitoring sensor 11 based on the positional relationship between each determination target and the own device and the target corresponding to the determination target registered in the map data. The position of the vehicle 1 when calculated is calculated. Furthermore, the position which averaged the position of the vehicle 1 calculated about each determination object is estimated as the present location of the vehicle 1, and this process is complete | finished.

なお、車両1の現在地は、例えば、経路案内や、各種運転支援や、自動運転等といった処理に用いられる。
[第2実施形態]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
The current location of the vehicle 1 is used for processing such as route guidance, various driving assistance, automatic driving, and the like.
[Second Embodiment]
Since the basic configuration of the second embodiment is the same as that of the first embodiment, the description of the common configuration will be omitted, and the description will focus on the differences.

第2実施形態では、現在地推定処理の内容が第1実施形態と異なっている。第1実施形態では、周辺監視センサ11による対象物の検出結果に基づき判定領域が設定され、判定領域に存在する対象物に基づき現在地が推定された。これに対し、第2実施形態では、対象物の検出結果に基づき各対象領域に重み付けがなされ、各対象領域に存在する対象物と、該対象領域の重みとに基づき現在地が推定される。   In the second embodiment, the contents of the current location estimation process are different from those in the first embodiment. In the first embodiment, the determination area is set based on the detection result of the object by the periphery monitoring sensor 11, and the current location is estimated based on the object existing in the determination area. On the other hand, in the second embodiment, each target region is weighted based on the detection result of the target, and the current location is estimated based on the target existing in each target region and the weight of the target region.

以下では、第2実施形態の現在地推定処理について、第1実施形態との相違点を中心に説明する(図6参照)。
S200〜S215は、第1実施形態の現在地推定処理のS100〜S115と同じであるため、説明を省略する。
In the following, the current location estimation process of the second embodiment will be described focusing on the differences from the first embodiment (see FIG. 6).
Since S200 to S215 are the same as S100 to S115 of the current location estimation process of the first embodiment, the description thereof is omitted.

S220では、位置推定処理部15は、各対象領域について算出されたωijに基づき、各対象領域の重み付けを行う。すなわち、各対象領域について、ωijに基づき車両1の現在地を高い精度で推定する上での好適さの度合いを特定し、この度合が高い対象領域に対しより大きな重みを設定する。具体的には、例えば、ωijの小さい対象領域ほど、より大きな重み付けを設定しても良いし、反対に、ωijの大きい対象領域ほど、より大きな重みを設定しても良い。また、所定値により近いωijを有する対象領域ほど、より大きな重みを設定しても良い。 In S220, the position estimation processing unit 15 weights each target area based on ω ij calculated for each target area. That is, for each target area, the degree of suitability for estimating the current location of the vehicle 1 with high accuracy is specified based on ω ij, and a larger weight is set for the target area having a high degree. Specifically, for example, a larger weight may be set for a target region having a smaller ω ij , and a larger weight may be set for a target region having a larger ω ij . Further, a larger weight may be set for a target region having ω ij closer to a predetermined value.

S225では、位置推定処理部15は、各対象領域に存在する対象物のうち、上述した判定条件1〜3のうちの一つ又は複数に合致するものを判定対象として特定する。無論、位置推定処理部15は、判定条件を設けず、各対象領域に存在する全ての対象物を判定対象としても良い。   In S225, the position estimation processing unit 15 identifies a target that matches one or more of the above-described determination conditions 1 to 3 among the objects present in each target region as a determination target. Of course, the position estimation processing unit 15 may set all the objects existing in each target region as the determination target without providing the determination condition.

S230では、位置推定処理部15は、判定対象の位置,大きさ,形状等と、衛星測位部14により検出された現在地の付近に存在するものとして地図データに登録されている対象物の位置,大きさ,形状等とのマッチングを行う。   In S230, the position estimation processing unit 15 determines the position, size, shape, and the like of the determination target, and the position of the object registered in the map data as existing near the current location detected by the satellite positioning unit 14, Matching with size, shape, etc.

具体的には、例えば、位置推定処理部15は、判定対象の位置,大きさ,形状等と、地図データに登録された対象物の位置,大きさ,形状等とを比較し、地図データに登録された対象物のうち、判定対象に相当するものを特定する。そして、位置推定処理部15は、各判定対象と自装置との位置関係と、地図データに登録されている該判定対象に相当する対象物とに基づき、周辺監視センサ11により該判定対象が検出された際の車両1の位置を算出する。さらに、各判定対象について算出された車両1の位置を平均化した位置を、車両1の現在地として推定し、本処理を終了する。この現在地の推定の際には、各判定対象が存在する対象領域の重みを考慮して現在地の推定がなされ、より大きな重みが設定された対象領域に存在する判定対象について算出された車両1の位置がより反映させながら、車両1の現在地が推定される。   Specifically, for example, the position estimation processing unit 15 compares the position, size, shape, and the like of the determination target with the position, size, shape, etc. of the target registered in the map data, and generates the map data. Among the registered objects, the object corresponding to the determination target is specified. Then, the position estimation processing unit 15 detects the determination target by the periphery monitoring sensor 11 based on the positional relationship between each determination target and the own device and the target corresponding to the determination target registered in the map data. The position of the vehicle 1 when calculated is calculated. Furthermore, the position which averaged the position of the vehicle 1 calculated about each determination object is estimated as the present location of the vehicle 1, and this process is complete | finished. In the estimation of the current location, the current location is estimated in consideration of the weight of the target area where each determination target exists, and the vehicle 1 of the vehicle 1 calculated for the determination target existing in the target area with a larger weight is set. The current location of the vehicle 1 is estimated while reflecting the position more.

[第3実施形態]
第3実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
[Third Embodiment]
Since the basic configuration of the third embodiment is the same as that of the first embodiment, the description of the common configuration will be omitted, and the description will focus on the differences.

第3実施形態では、現在地推定処理の内容が第1実施形態と異なっている。第1実施形態では、対象物の大きさの分布状態を算出し、これに基づき対象領域のうちの一部を判定領域として選択していた。これに対し、第3実施形態では、対象物の検出結果に基づき対象領域からの反射波の反射強度の分布状態を算出し、これに基づき、対象領域のうちの一部を判定領域として選択する。   In the third embodiment, the contents of the current location estimation process are different from those in the first embodiment. In the first embodiment, the distribution state of the size of the target object is calculated, and based on this, a part of the target area is selected as the determination area. On the other hand, in the third embodiment, the distribution state of the reflected intensity of the reflected wave from the target area is calculated based on the detection result of the target object, and based on this, a part of the target area is selected as the determination area. .

以下では、第3実施形態の現在地推定処理について、他の実施形態との相違点を中心に説明する説明する(図7参照)。
S300,S305は、第1実施形態の現在地推定処理のS100,S105と同じであるため、説明を省略する。
In the following, the current position estimation process of the third embodiment will be described focusing on the differences from the other embodiments (see FIG. 7).
Since S300 and S305 are the same as S100 and S105 of the current location estimation process of the first embodiment, a description thereof will be omitted.

S310では、位置推定処理部15は、対象物の検出結果に基づき反射強度の分布状態を算出する。具体的には、反射強度の区分が複数定められており、位置推定処理部15は、各対象領域について検出された各反射波がどの区分に属するかを特定し、各区分に属する反射波の数を示すヒストグラムを算出する(図8参照)。そして、該ヒストグラムを、反射強度の分布状態とする。   In S310, the position estimation processing unit 15 calculates the distribution state of the reflection intensity based on the detection result of the object. Specifically, a plurality of reflection intensity categories are determined, and the position estimation processing unit 15 identifies which category each reflected wave detected for each target region belongs to, and reflects the reflected waves belonging to each category. A histogram indicating the number is calculated (see FIG. 8). The histogram is set as a distribution state of reflection intensity.

対象物が建築物,道路標識,信号機等である場合には、該対象物からの反射波の反射強度が高くなり、対象物が歩行者,樹木等である場合には、該対象物からの反射波の反射強度が低くなる。このため、この反射強度の分布状態に基づき、対応する対象領域に存在する対象物の種別の傾向を把握することができる。   When the object is a building, a road sign, a traffic light, etc., the reflected intensity of the reflected wave from the object is increased. When the object is a pedestrian, a tree, etc., The reflected intensity of the reflected wave is lowered. Therefore, based on the distribution state of the reflection intensity, the tendency of the type of the object existing in the corresponding target area can be grasped.

S315では、位置推定処理部15は、反射強度の分布状態に基づき、全対象領域の中から判定領域を選択する。換言すれば、各対象領域の反射強度の分布状態に基づき、車両1の現在地を高い精度で推定する上で好適な対象物が相対的に多く存在すると予想される対象領域を選択する。具体的には、例えば、現在地を推定する上で好適な対象物からの反射波の反射強度の範囲を予め定めておき、該範囲の反射強度の検出回数が相対的に多い対象領域や、該範囲に近い反射強度の検出回数が相対的に多い対象領域を判定領域としても良い。   In S315, the position estimation processing unit 15 selects a determination region from all target regions based on the distribution state of the reflection intensity. In other words, based on the distribution state of the reflection intensity of each target area, a target area that is expected to have a relatively large number of targets suitable for estimating the current location of the vehicle 1 with high accuracy is selected. Specifically, for example, a range of reflected intensity of a reflected wave from an object suitable for estimating the current location is determined in advance, and a target area where the number of detections of the reflected intensity in the range is relatively large, A target region having a relatively large number of reflection intensity detections close to the range may be used as the determination region.

S320,S325は、第1実施形態の現在地推定処理のS125,S130と同じであるため、説明を省略する。
[第4実施形態]
第4実施形態は、基本的な構成は第2実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
Since S320 and S325 are the same as S125 and S130 of the current location estimation process of the first embodiment, a description thereof will be omitted.
[Fourth Embodiment]
Since the basic configuration of the fourth embodiment is the same as that of the second embodiment, a description of the common configuration will be omitted, and differences will be mainly described.

第4実施形態では、現在地推定処理の内容が第2実施形態と異なっている。第2実施形態では、対象物の大きさの分布状態を算出し、これに基づき対象領域の重み付けを行っていた。これに対し、第4実施形態では、第3実施形態と同様、対象物の検出結果に基づき対象領域からの反射波の反射強度の分布状態を算出し、これに基づき、対象領域の重み付けを行う。   In 4th Embodiment, the content of the present location estimation process differs from 2nd Embodiment. In the second embodiment, the distribution state of the size of the object is calculated, and the target area is weighted based on this. On the other hand, in the fourth embodiment, as in the third embodiment, the distribution state of the reflection intensity of the reflected wave from the target area is calculated based on the detection result of the target object, and the target area is weighted based on this. .

以下では、第4実施形態の現在地推定処理について、他の実施形態との相違点を中心に説明する説明する(図9参照)。
S400,S405は、第2実施形態の現在地推定処理のS200,S205と同じであるため、説明を省略する。
In the following, the current location estimation process of the fourth embodiment will be described focusing on the differences from the other embodiments (see FIG. 9).
Since S400 and S405 are the same as S200 and S205 of the current location estimation process of the second embodiment, a description thereof will be omitted.

S410は、第3実施形態の現在地推定処理のS310と同じであるため、説明を省略する。
S415では、位置推定処理部15は、反射強度の分布状態に基づき、各対象領域の重み付けを行う。すなわち、各対象領域について、反射強度の分布状態に基づき、車両1の現在地を高い精度で推定する上での好適さの度合いを特定し、この度合が高い対象領域に対し、より大きな重みを設定する。具体的には、例えば、現在地を推定する上で好適な対象物からの反射波の反射強度の範囲を予め定めておき、該範囲の反射強度の検出回数がより多い対象領域ほど、より大きな重みを設定しても良い。
Since S410 is the same as S310 of the current location estimation process of the third embodiment, a description thereof will be omitted.
In S415, the position estimation processing unit 15 weights each target region based on the distribution state of the reflection intensity. That is, for each target region, the degree of suitability for estimating the current location of the vehicle 1 with high accuracy is specified based on the distribution state of the reflection intensity, and a larger weight is set for the target region having a high degree. To do. Specifically, for example, a range of reflected intensity of a reflected wave from an object suitable for estimating the current location is determined in advance, and a target area with a larger number of detections of the reflected intensity in the range has a higher weight. May be set.

S420,S425は、第2実施形態の現在地推定処理のS225,S230と同じであるため、説明を省略する。
[第5実施形態]
第5実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
Since S420 and S425 are the same as S225 and S230 of the current location estimation process of the second embodiment, description thereof is omitted.
[Fifth Embodiment]
Since the basic configuration of the fifth embodiment is the same as that of the first embodiment, the description of the common configuration will be omitted, and the description will focus on the differences.

第5実施形態では、周辺監視センサ11と、現在地推定処理の内容が第1実施形態と異なっている。
つまり、第1実施形態では、周辺監視センサ11としてレーザーレーダ等が用いられていた。これに対し、第5実施形態では、周辺監視センサ11としてカメラが用いられ、車両1の周囲の空間におけるレイヤ1〜4に相当する空間が、該カメラにより撮影され、その撮影画像に基づき対象物の検出等が行われる。該カメラは、具体的に、ステレオカメラやモノカメラ等が挙げられる。第5実施形態では、車両1の周囲の領域は、前方領域,後方領域,右方領域,左方領域の4つの領域に区分されるが、レイヤは設けられていない。以後、前方領域,後方領域,右方領域,左方領域の各々におけるカメラにより撮影される空間を、対象領域と記載する。
In the fifth embodiment, the periphery monitoring sensor 11 and the contents of the current location estimation process are different from those in the first embodiment.
That is, in the first embodiment, a laser radar or the like is used as the periphery monitoring sensor 11. On the other hand, in the fifth embodiment, a camera is used as the periphery monitoring sensor 11, and a space corresponding to layers 1 to 4 in the space around the vehicle 1 is photographed by the camera, and the object is based on the photographed image. Is detected. Specific examples of the camera include a stereo camera and a mono camera. In the fifth embodiment, the area around the vehicle 1 is divided into four areas: a front area, a rear area, a right area, and a left area, but no layer is provided. Hereinafter, a space photographed by the camera in each of the front area, the rear area, the right area, and the left area is referred to as a target area.

また、第1実施形態では、周辺監視センサ11(レーザーレーダ等)による対象物の検出結果に基づき、対象物の位置等が検出され、これに基づき対象物の大きさの分布状態が算出されていた。これに対し、第5実施形態では、周辺監視センサ11(カメラ)による撮影画像に基づき、対象物の位置等が検出されると共に、各対象領域の撮影画像に所定の色が含まれる度合い(含有度合い)が算出され、これらに基づき、判定領域の選択や車両1の現在地の推定等がなされる。   In the first embodiment, the position of the target is detected based on the detection result of the target by the periphery monitoring sensor 11 (laser radar or the like), and the distribution state of the size of the target is calculated based on this. It was. On the other hand, in the fifth embodiment, the position of the object is detected based on the image captured by the periphery monitoring sensor 11 (camera), and the degree of inclusion of a predetermined color in the captured image of each target region (included) Degree) is calculated, and based on these, the determination area is selected, the current location of the vehicle 1 is estimated, and the like.

以下では、第5実施形態の現在地推定処理について、他の実施形態との相違点を中心に説明する説明する(図10参照)。
S500では、位置推定処理部15は、周辺監視センサ11(カメラ)による撮影画像を取得すると共に、衛星測位部14を介して現在地を検出する。また、位置推定処理部15は、第1実施形態と同様、検出した現在地の変化に応じて地図データを新たに取得し、地図管理部13に保存する。
Below, the present location estimation process of 5th Embodiment is demonstrated centering on difference with other embodiment (refer FIG. 10).
In S <b> 500, the position estimation processing unit 15 acquires a photographed image by the periphery monitoring sensor 11 (camera) and detects the current location via the satellite positioning unit 14. Further, the position estimation processing unit 15 newly acquires map data according to the detected change in the current location, and stores the map data in the map management unit 13 as in the first embodiment.

S505では、位置推定処理部15は、撮影画像に基づき、各対象領域に存在する対象物の位置,大きさ,形状等を検出する。
S510では、位置推定処理部15は、各対象領域の撮影画像について、所定の色の画素(例えば、R,G,Bの各色成分の濃度が所定範囲である画素)の数をカウントし、その画素数を含有度合いとする。無論、1つの色の含有度合いを算出しても良いし、複数の色の含有度合いを算出しても良い。
In S505, the position estimation processing unit 15 detects the position, size, shape, and the like of the target existing in each target area based on the captured image.
In S510, the position estimation processing unit 15 counts the number of pixels of a predetermined color (for example, pixels in which the density of each color component of R, G, B is within a predetermined range) for the captured image of each target region, The number of pixels is the content level. Of course, the content of one color may be calculated, or the content of multiple colors may be calculated.

S515では、位置推定処理部15は、各対象領域について算出した含有度合いに基づき、全対象領域の中から判定領域を選択する。
すなわち、例えば、撮影画像に緑色が多く含まれていれば、撮影された対象領域には樹木等が多く存在し、撮影画像に灰色が多く含まれていれば、撮影された対象領域には建築物等が多く存在すると考えられる。つまり、撮影画像に多く含まれる色に基づき、撮影された対象領域に多く存在する対象物の種別を推定することができる。
In S515, the position estimation processing unit 15 selects a determination region from all the target regions based on the content degree calculated for each target region.
That is, for example, if the photographed image contains a lot of green, the photographed target area contains many trees, and if the photographed image contains a lot of gray, the photographed target area contains a building. It is thought that there are many things. That is, it is possible to estimate the types of objects that exist in a large number of photographed target areas based on the colors that are often included in the photographed image.

そして、含有度合いに係る所定の色とは、車両1の現在地を高い精度で推定する上で好適な対象物の色(一例として、建築物に多く用いられる色)となっている。このため、含有度合いが相対的に高い撮影画像に係る対象領域は、車両1の現在地を高い精度で推定する上で好適であるとみなし、このような1又は複数の対象領域を判定領域として選択する。   The predetermined color relating to the content is the color of the object suitable for estimating the current location of the vehicle 1 with high accuracy (as an example, a color often used in buildings). For this reason, the target region related to the captured image having a relatively high content level is considered suitable for estimating the current location of the vehicle 1 with high accuracy, and such one or more target regions are selected as the determination region. To do.

S520,S525は、第1実施形態の現在地推定処理のS125,S130と同じであるため、説明を省略する。
[変形例]
次に、第5実施形態の変形例について説明する。第5実施形態では、各対象領域の撮影画像における所定の色の含有度合いに基づき判定領域が選択されていたが、本変形例では、各対象領域の撮影画像の画素の濃淡度に基づき、判定領域が選択される。
Since S520 and S525 are the same as S125 and S130 of the current location estimation process of the first embodiment, a description thereof will be omitted.
[Modification]
Next, a modification of the fifth embodiment will be described. In the fifth embodiment, the determination area is selected based on the content of the predetermined color in the captured image of each target area. However, in this modification, the determination is performed based on the intensity of pixels of the captured image of each target area. A region is selected.

本変形例は、現在地推定処理のS510,S515の内容において、第5実施形態と相違している。
すなわち、S510では、位置推定処理部15は、各対象領域の撮影画像を構成する各画素の濃淡度を検出する。このとき、撮影画像は、カラーの場合とモノクロの場合とが考えられるが、どちらの場合であっても、ここでの処理で濃淡度を検出可能とする。
This modification is different from the fifth embodiment in the contents of S510 and S515 of the current location estimation processing.
That is, in S510, the position estimation processing unit 15 detects the intensity of each pixel constituting the captured image of each target area. At this time, the photographed image may be a color image or a monochrome image. In either case, the intensity can be detected by the processing here.

S515では、位置推定処理部15は、各対象領域の撮影画像について算出した濃淡度に基づき、判定領域を選択する。
すなわち、例えば、濃淡変化が大きい傾向のある対象領域の撮影画像においては、画像による対象物の検出精度の信頼度が向上することが考えられ、さらに対象物の情報が多く含まれていることが考えられる。そのような撮影画像は、位置推定における有効な情報が多く含まれることが考えられる。つまり、撮影画像の画素の濃淡度に基づき、対象領域が位置推定に好適か否かを判断できる。
In S515, the position estimation processing unit 15 selects a determination region based on the shade calculated for the captured image of each target region.
That is, for example, in a captured image of a target region that tends to have a large change in shading, it is conceivable that the reliability of detection accuracy of the target object from the image is improved, and more information on the target object is included. Conceivable. Such a captured image may contain a lot of information useful for position estimation. That is, it can be determined whether or not the target region is suitable for position estimation based on the intensity of pixels of the captured image.

このため、位置推定処理部15は、画素の濃淡度が相対的に高い撮影画像に係る対象領域を、判定領域として選択する。
[第6実施形態]
第6実施形態は、基本的な構成は第2実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
For this reason, the position estimation processing unit 15 selects a target area related to a captured image with relatively high pixel density as a determination area.
[Sixth Embodiment]
Since the basic configuration of the sixth embodiment is the same as that of the second embodiment, the description of the common configuration will be omitted, and the description will focus on the differences.

第6実施形態では、周辺監視センサ11と、現在地推定処理の内容が第2実施形態と異なっている。
つまり、第2実施形態では、周辺監視センサ11としてレーザーレーダ等が用いられていた。しかし、第6実施形態では、第5実施形態と同様、周辺監視センサ11としてカメラが用いられると共に、車両1の周囲の領域は前方領域,後方領域,右方領域,左方領域の4つの領域に区分され、レイヤは設けられていない。そして、前方領域,後方領域,右方領域,左方領域の各々におけるカメラにより撮影される空間が、対象領域となる。
In the sixth embodiment, the contents of the periphery monitoring sensor 11 and the current location estimation process are different from those in the second embodiment.
That is, in the second embodiment, a laser radar or the like is used as the periphery monitoring sensor 11. However, in the sixth embodiment, a camera is used as the periphery monitoring sensor 11 as in the fifth embodiment, and the area around the vehicle 1 is four areas: a front area, a rear area, a right area, and a left area. No layer is provided. A space captured by the camera in each of the front area, the rear area, the right area, and the left area is the target area.

また、第2実施形態では、周辺監視センサ11(レーザーレーダ等)による対象物の検出結果に基づき、対象物の位置等が検出され、これに基づき対象物の大きさの分布状態が算出されていた。これに対し、第6実施形態では、周辺監視センサ11(カメラ)による撮影画像に基づき、対象物の位置等が検出されると共に、各対象領域の撮影画像における所定の色の含有度合いが算出され、これらに基づき、対象領域の重み付けや車両1の現在地の推定等がなされる。   In the second embodiment, the position of the target is detected based on the detection result of the target by the periphery monitoring sensor 11 (laser radar or the like), and the distribution state of the size of the target is calculated based on this. It was. On the other hand, in the sixth embodiment, the position of the object is detected based on the image captured by the periphery monitoring sensor 11 (camera), and the content degree of a predetermined color in the captured image of each target area is calculated. Based on these, the target area is weighted, the current location of the vehicle 1 is estimated, and the like.

以下では、第6実施形態の現在地推定処理について、他の実施形態との相違点を中心に説明する説明する(図11参照)。
S600〜S610は、第5実施形態の現在地推定処理のS500〜S510と同じであるため、説明を省略する。
Below, the present location estimation process of 6th Embodiment is demonstrated centering around difference with other embodiment (refer FIG. 11).
Since S600 to S610 are the same as S500 to S510 of the current location estimation process of the fifth embodiment, the description thereof is omitted.

S615では、位置推定処理部15は、所定の色の含有度合いが相対的に高い撮影画像に係る対象領域に対し、より大きな重みを設定することで、各対象領域の重み付けを行う。   In S615, the position estimation processing unit 15 weights each target region by setting a larger weight for the target region related to the captured image having a relatively high content of the predetermined color.

S620,S625は、第2実施形態の現在地推定処理のS225,S230と同じであるため、説明を省略する。
[変形例]
次に、第6実施形態の変形例について説明する。第6実施形態では、各対象領域の撮影画像における所定の色の含有度合いに基づき重み付けがなされていたが、本変形例では、各対象領域の撮影画像の画素の濃淡度に基づき、重み付けがなされる。
Since S620 and S625 are the same as S225 and S230 of the current location estimation process of the second embodiment, description thereof is omitted.
[Modification]
Next, a modification of the sixth embodiment will be described. In the sixth embodiment, weighting is performed based on the degree of inclusion of a predetermined color in the captured image of each target area. However, in this modification, weighting is performed based on the intensity of pixels of the captured image of each target area. The

本変形例は、現在地推定処理のS610,S615の内容が、第6実施形態と相違している。
すなわち、S610では、位置推定処理部15は、第5実施形態の変形例と同様にして、各対象領域の撮影画像に含まれる画素の濃淡度を検出する。
This modification differs from the sixth embodiment in the contents of S610 and S615 of the current location estimation process.
That is, in S610, the position estimation processing unit 15 detects the gray level of the pixels included in the captured image of each target area in the same manner as the modification of the fifth embodiment.

S615では、位置推定処理部15は、各対象領域の撮影画像について算出した濃淡度に基づき、各対象領域の重み付けを行う。具体的には、画素の濃淡度が相対的に高い撮影画像に係る対象領域に対し、より大きな重みを設定する。   In S615, the position estimation processing unit 15 weights each target area based on the shade calculated for the captured image of each target area. Specifically, a larger weight is set for a target area related to a captured image with relatively high pixel intensity.

[効果]
第1,第3,第5実施形態の位置推定装置10によれば、対象領域のうち、車両1の現在地を高精度で推定する上で好適な対象物が多く存在する領域が、判定領域として設定される。このため、車両1の現在地を推定する際に、このような対象物の位置,大きさ,形状等の検出結果が用いられる場合が多くなり、車両1の現在地を高精度で推定することができる。
[effect]
According to the position estimation device 10 of the first, third, and fifth embodiments, an area where there are many objects suitable for estimating the current location of the vehicle 1 with high accuracy is determined as the determination area. Is set. Therefore, when the current location of the vehicle 1 is estimated, detection results such as the position, size, and shape of the object are often used, and the current location of the vehicle 1 can be estimated with high accuracy. .

また、第2,第4,第6実施形態の位置推定装置10によれば、車両1の現在地を高精度で推定する上で好適な対象物がどの程度存在するかにより、各対象領域に重みが設定されるため、このような対象物の検出結果がより反映された状態で、車両1の現在地が推定される。したがって、車両1の位置を高精度で推定することができる。   Further, according to the position estimation device 10 of the second, fourth, and sixth embodiments, each target region is weighted depending on how many suitable objects exist for estimating the current location of the vehicle 1 with high accuracy. Therefore, the current location of the vehicle 1 is estimated in a state in which the detection result of such an object is more reflected. Therefore, the position of the vehicle 1 can be estimated with high accuracy.

また、第1〜第6実施形態の位置推定装置10によれば、車両1に搭載された周辺監視センサ11(レーザーレーダ,カメラ等)による対象物の検出結果により、車両1の現在地が推定される。このため、対象物の位置,大きさ,形状等を正確に検出することができ、現在地を精度良く推定することができる。   Further, according to the position estimation device 10 of the first to sixth embodiments, the current location of the vehicle 1 is estimated based on the detection result of the object by the periphery monitoring sensor 11 (laser radar, camera, etc.) mounted on the vehicle 1. The For this reason, the position, size, shape, and the like of the object can be accurately detected, and the current location can be estimated with high accuracy.

また、第1実施形態の位置推定装置10によれば、車両1の現在地を高精度で推定する上で好適な大きさの対象物が多く存在する対象領域が判定領域として設定される。また、第2実施形態の位置推定装置10によれば、車両1の現在地を高精度で推定する上で好適な大きさの対象物がより多く存在する対象領域に対し、より大きな重み付けがなされる。したがって、車両1の現在地を高精度で推定することができる。   In addition, according to the position estimation device 10 of the first embodiment, a target area where there are many objects of a suitable size for estimating the current location of the vehicle 1 with high accuracy is set as a determination area. In addition, according to the position estimation device 10 of the second embodiment, a larger weight is given to a target area where there are more objects of a suitable size for estimating the current location of the vehicle 1 with high accuracy. . Therefore, the current location of the vehicle 1 can be estimated with high accuracy.

また、第3実施形態の位置推定装置10によれば、予め定められた範囲(現在地を推定する上で好適な対象物からの反射波の反射強度の範囲)の反射強度の検出回数が相対的に多い対象領域が、判定領域として選択される。また、第4実施形態の位置推定装置10によれば、第3実施形態と同様の範囲の反射強度の検出回数が相対的に多い対象領域に対し、より大きな重み付けがなされる。したがって、車両1の現在地を高精度で推定することができる。   Further, according to the position estimation device 10 of the third embodiment, the number of reflection intensity detections in a predetermined range (the range of the reflection intensity of a reflected wave from an object suitable for estimating the current location) is relative. Target areas are selected as determination areas. Further, according to the position estimation device 10 of the fourth embodiment, a larger weight is given to a target region in which the number of reflection intensity detections in the same range as the third embodiment is relatively large. Therefore, the current location of the vehicle 1 can be estimated with high accuracy.

また、第5実施形態の位置推定装置10によれば、現在地を推定する上で好適な対象物の色の画素を相対的に多く含む撮影画像に対応する対象領域が、判定領域として選択される。また、第6実施形態の位置推定装置10によれば、このような色の画素を相対的に多く含む撮影画像に対応する対象領域に対し、より大きな重み付けがなされる。したがって、車両1の現在地を高精度で推定することができる。   In addition, according to the position estimation device 10 of the fifth embodiment, a target area corresponding to a captured image that includes a relatively large number of pixels of an object color suitable for estimating the current location is selected as a determination area. . Further, according to the position estimation device 10 of the sixth embodiment, a larger weight is given to a target region corresponding to a captured image that includes a relatively large number of pixels of such a color. Therefore, the current location of the vehicle 1 can be estimated with high accuracy.

また、第1〜第6実施形態の位置推定装置10では、判定領域又は対象領域に存在する対象物のうち、判定条件1〜3に合致する対象物が判定対象とされ、判定対象と地図データとのマッチングにより、車両1の現在地が推定される。   Moreover, in the position estimation apparatus 10 of 1st-6th embodiment, among the objects which exist in a determination area or a target area, the object which meets the determination conditions 1-3 is made into a determination object, and a determination object and map data The current location of the vehicle 1 is estimated by the matching.

ここで、判定条件1とは、予め定められた大きさを有する対象物を判定対象とするという条件であり、判定条件2とは、予め定められた高さに存在する対象物を判定対象とするという条件であり、判定条件3とは、予め定められた速度を持つ対象物を判定対象とするという条件である。   Here, the determination condition 1 is a condition that an object having a predetermined size is set as the determination object, and the determination condition 2 is an object existing at a predetermined height as the determination object. The determination condition 3 is a condition that an object having a predetermined speed is set as a determination target.

このため、車両1の現在地を推定する上で好適な対象物のみにより現在地の推定がなされ、車両1の現在地を高精度で推定することができる。
[他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されることなく、種々の形態を採り得る。
For this reason, the current location is estimated only by the object suitable for estimating the current location of the vehicle 1, and the current location of the vehicle 1 can be estimated with high accuracy.
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention can take a various form, without being limited to the said embodiment.

(1)上記実施形態における位置推定装置10は、外部に設置された地図DB20から地図データを取得する構成となっている。しかしながら、これに限定されることは無く、地図データ入力部を介して、車両1に搭載されたHDDやDVD−ROM等の記憶媒体に記憶されている地図データを取得する構成としても良い。このような場合であっても、同様の効果を得ることができる。   (1) The position estimation apparatus 10 in the above embodiment is configured to acquire map data from the map DB 20 installed outside. However, the present invention is not limited to this, and the map data stored in a storage medium such as an HDD or a DVD-ROM mounted on the vehicle 1 may be acquired via the map data input unit. Even in such a case, the same effect can be obtained.

(2)上記実施形態における現在地推定処理のS110,S210,S310,S410,S510,S610では、位置推定処理部15は、周辺監視センサ11から対象物の検出結果に基づき、対象物の大きさの分布状態や、反射強度の分布状態や、所定の色の画素の含有度合いを算出する構成となっている。しかしながら、これらのステップにて以下の処理を行っても良い。   (2) In S110, S210, S310, S410, S510, and S610 of the current location estimation process in the above embodiment, the position estimation processing unit 15 determines the size of the object based on the detection result of the object from the surrounding monitoring sensor 11. The distribution state, the reflection intensity distribution state, and the content of pixels of a predetermined color are calculated. However, the following processing may be performed in these steps.

まず、現在地推定処理に用いられる地図データが示す地図の各地点を車両1が走行した際に算出される上記分布状態や含有度合いを予め算出し、算出結果を示す分布データを生成しておく。上記分布状態等は、実際に車両1を走行させて得られた検出結果に基づき算出しても良いし、地図データに登録されている対象物に関する情報に基づき算出しても良い。そして、各地点で得られる分布データを、該地点と対応付けて予め地図データに登録しておく。   First, the distribution state and the degree of inclusion calculated when the vehicle 1 travels each point on the map indicated by the map data used for the current location estimation process are calculated in advance, and distribution data indicating the calculation result is generated. The distribution state or the like may be calculated based on a detection result obtained by actually driving the vehicle 1 or may be calculated based on information on an object registered in map data. Then, distribution data obtained at each point is registered in advance in map data in association with the point.

現在地推定処理のS110,S210,S310,S410,S510,S610では、位置推定処理部15は、地図管理部13にアクセスし、衛星測位部14により検出された現在地に最も近接する地点に対応付けて地図管理部13に保存されている地図データに登録されている分布データを取得し、分布データを用いて、以後の処理を行う。   In S110, S210, S310, S410, S510, and S610 of the current location estimation process, the position estimation processing unit 15 accesses the map management unit 13 and associates it with the point closest to the current location detected by the satellite positioning unit 14. The distribution data registered in the map data stored in the map management unit 13 is acquired, and the subsequent processing is performed using the distribution data.

こうすることにより、位置推定装置10で行われる処理の演算コストを抑えることができる。なお、対象物の大きさの分布状態から算出されるωij等を、地図データに予め登録するようにしても良い。 By doing so, the calculation cost of the processing performed by the position estimation device 10 can be suppressed. Note that ω ij calculated from the distribution state of the size of the object may be registered in advance in the map data.

(3)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしても良い。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えても良い。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略しても良い。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換しても良い。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が、本発明の実施形態である。   (3) The functions of one constituent element in the above embodiment may be distributed as a plurality of constituent elements, or the functions of a plurality of constituent elements may be integrated into one constituent element. In addition, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment as long as a subject can be solved. Further, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claims are embodiments of the present invention.

(4)上述した位置推定装置10の他、当該位置推定装置10を構成要素とするシステム、当該位置推定装置10としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、現在地推定処理により実現される方法等、種々の形態で本発明を実現することもできる。   (4) In addition to the position estimation device 10 described above, a system including the position estimation device 10 as a constituent element, a program for causing a computer to function as the position estimation device 10, a medium storing the program, and a current location estimation process The present invention can also be realized in various forms such as a method to be performed.

[特許請求の範囲との対応]
上記実施形態の説明で用いた用語と、特許請求の範囲の記載に用いた用語との対応を示す。
[Correspondence with Claims]
The correspondence between the terms used in the description of the above embodiment and the terms used in the description of the claims is shown.

車両1が移動体の一例に、プログラム31が位置推定プログラムの一例に相当する。
また、現在地推定処理のS100,S200,S300,S400,S500,S600が、地図データ取得手段,地図データ取得手順,位置情報取得手段,位置情報取得手順,検出結果取得手段,検出結果取得手順の一例に相当する。
The vehicle 1 corresponds to an example of a moving body, and the program 31 corresponds to an example of a position estimation program.
Further, S100, S200, S300, S400, S500, and S600 of the current location estimation processing are examples of map data acquisition means, map data acquisition procedure, position information acquisition means, position information acquisition procedure, detection result acquisition means, and detection result acquisition procedure. It corresponds to.

また、現在地推定処理のS105〜S120,S205〜S220,S310〜S315,S410〜S415,S510〜S515,S610〜S615が、設定手段,設定手順の一例に相当する。   Further, S105 to S120, S205 to S220, S310 to S315, S410 to S415, S510 to S515, and S610 to S615 of the current location estimation process correspond to an example of setting means and setting procedures.

また、現在地推定処理のS105及びS125,S205及びS225,S305及びS320,S405及びS420,S505及びS520,S605及びS620が、特定手段,特定手順の一例に相当する。   Further, S105 and S125, S205 and S225, S305 and S320, S405 and S420, S505 and S520, S605 and S620 of the current location estimation process correspond to an example of the specifying means and the specifying procedure.

また、現在地推定処理のS130,S230,S325,S425,S525,S625が、推定手段,推定手順の一例に相当する。   Also, S130, S230, S325, S425, S525, and S625 of the current location estimation process correspond to an example of an estimation means and an estimation procedure.

1…車両、10…位置推定装置、11…周辺監視センサ、12…無線通信部、13…地図管理部、14…衛星測位部、15…位置推定処理部、20…地図DB、30…記憶媒体、31…プログラム。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 10 ... Position estimation apparatus, 11 ... Perimeter monitoring sensor, 12 ... Wireless communication part, 13 ... Map management part, 14 ... Satellite positioning part, 15 ... Position estimation process part, 20 ... Map DB, 30 ... Storage medium 31 ... Program.

Claims (12)

地図データを取得する地図データ取得手段と(S100,S300,S500)、
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S100,S300,S500)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S100,S300,S500)、
前記検出結果に基づき、前記移動体の周辺のうち、予め定められた条件を満たす前記対象物が多く存在する一部の領域を、判定領域として設定する設定手段と(S105〜S120,S310〜S315,S510〜S515)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手段と(S105,S125,S305,S320,S505,S520)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手段により特定された前記対象物とに基づき、前記移動体の位置を推定する推定手段と(S130,S325,S525)、
を備えることを特徴とする位置推定装置(10)。
Map data acquisition means for acquiring map data (S100, S300, S500);
Position information acquisition means for acquiring position information of the mobile body (1) on which the device is mounted (S100, S300, S500);
Detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S100, S300, S500);
Based on the detection result, setting means for setting a part of the periphery of the moving body where a large number of the objects satisfying a predetermined condition exist as determination areas (S105 to S120, S310 to S315) , S510 to S515),
Based on the detection result, from the determination area, specifying means for specifying the object used for estimating the position of the moving body (S105, S125, S305, S320, S505, S520),
Estimating means for estimating the position of the moving object based on the object registered in the map data as existing in an area determined based on the position information and the object specified by the specifying means (S130, S325, S525),
A position estimation device (10) comprising:
地図データを取得する地図データ取得手段と(S200,S400,S600)、
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S200,S400,S600)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S200,S400,S600)、
前記検出結果に基づき、前記移動体の周辺における複数の判定領域の各々に、予め定められた条件を満たす前記対象物がどの程度存在するかを判定し、判定結果に基づき、前記判定領域に重みを設定する設定手段と(S205〜S220,S410〜S415,S610〜S615)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手段と(S205,S225,S405,S420,S605,S620)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手段によりそれぞれの前記判定領域において特定された前記対象物と、それぞれの前記判定領域の前記重みとに基づき、前記移動体の位置を推定する推定手段と(S230,S425,S625)、
を備えることを特徴とする位置推定装置(10)。
Map data acquisition means for acquiring map data (S200, S400, S600);
Position information acquisition means for acquiring position information of the mobile body (1) on which the device is mounted (S200, S400, S600);
Detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S200, S400, S600);
Based on the detection result, it is determined how many of the objects satisfying a predetermined condition exist in each of a plurality of determination areas around the moving body, and the determination area is weighted based on the determination result. Setting means for setting (S205 to S220, S410 to S415, S610 to S615),
Based on the detection result, from the determination area, specifying means for specifying the object used for estimating the position of the moving body (S205, S225, S405, S420, S605, S620),
The object registered in the map data as existing in an area determined based on the position information, the object specified in each determination area by the specifying means, and each of the determination areas Estimating means for estimating the position of the moving object based on the weight (S230, S425, S625);
A position estimation device (10) comprising:
請求項1又は請求項2に記載の位置推定装置において、
前記検出結果とは、前記対象物の大きさを特定可能な情報であり、
前記設定手段は、前記検出結果に基づき特定される前記対象物の大きさに基づき、前記設定を行うこと、
を特徴とする位置推定装置。
In the position estimation apparatus according to claim 1 or 2,
The detection result is information capable of specifying the size of the object,
The setting means performs the setting based on the size of the object specified based on the detection result;
A position estimation device characterized by the above.
請求項1又は請求項2に記載の位置推定装置において、
前記検出結果とは、前記移動体の周辺を撮影した画像であり、
前記設定手段は、前記検出結果である前記画像の色に基づき、前記設定を行うこと、
を特徴とする位置推定装置。
In the position estimation apparatus according to claim 1 or 2,
The detection result is an image of the periphery of the moving body,
The setting means performs the setting based on the color of the image as the detection result;
A position estimation device characterized by the above.
請求項1又は請求項2に記載の位置推定装置において、
前記検出結果とは、前記移動体の周辺に照射された信号の反射波に基づくものであると共に、前記検出結果から前記反射波の反射強度を特定可能であり、
前記設定手段は、前記検出結果が示す前記反射強度に基づき、前記設定を行うこと、
を特徴とする位置推定装置。
In the position estimation apparatus according to claim 1 or 2,
The detection result is based on the reflected wave of the signal irradiated to the periphery of the moving body, and the reflection intensity of the reflected wave can be specified from the detection result,
The setting means performs the setting based on the reflection intensity indicated by the detection result;
A position estimation device characterized by the above.
請求項1から請求項5のうちのいずれか1項に記載の位置推定装置において、
前記特定手段は、前記検出結果に基づき、予め定められた大きさの前記対象物を、前記移動体の位置の推定に用いる前記対象物として特定すること、
を特徴とする位置推定装置。
In the position estimation device according to any one of claims 1 to 5,
The specifying means specifies the object having a predetermined size based on the detection result as the object to be used for estimating the position of the moving body;
A position estimation device characterized by the above.
請求項1から請求項5のうちのいずれか1項に記載の位置推定装置において、
前記特定手段は、前記検出結果に基づき、予め定められた高さを有する位置に配されている前記対象物を、前記移動体の位置の推定に用いる前記対象物として特定すること、
を特徴とする位置推定装置。
In the position estimation device according to any one of claims 1 to 5,
The specifying means specifies, based on the detection result, the object arranged at a position having a predetermined height as the object used for estimating the position of the moving body;
A position estimation device characterized by the above.
請求項1から請求項5のうちのいずれか1項に記載の位置推定装置において、
前記特定手段は、前記検出結果に基づき、静止している前記対象物を、前記移動体の位置の推定に用いる前記対象物として特定すること、
を特徴とする位置推定装置。
In the position estimation device according to any one of claims 1 to 5,
The specifying means specifies the stationary object as the object used for estimating the position of the moving body based on the detection result;
A position estimation device characterized by the above.
地図データを取得する地図データ取得手順と(S100,S300,S500)、
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手順と(S100,S300,S500)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手順と(S100,S300,S500)、
前記検出結果に基づき、前記移動体の周辺のうち、予め定められた条件を満たす前記対象物が多く存在する一部の領域を、判定領域として設定する設定手順と(S105〜S120,S310〜S315,S510〜S515)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手順と(S105,S125,S305,S320,S505,S520)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手順により特定された前記対象物とに基づき、前記移動体の位置を推定する推定手順と(S130,S325,S525)、
を備えることを特徴とする位置推定方法。
Map data acquisition procedure for acquiring map data (S100, S300, S500),
A position information acquisition procedure for acquiring position information of the mobile body (1) on which the device is mounted (S100, S300, S500);
A detection result acquisition procedure for acquiring a detection result of an object existing around the mobile body by a sensor mounted on the mobile body (S100, S300, S500);
Based on the detection result, a setting procedure for setting, as a determination area, a part of the periphery of the moving body in which many objects satisfying a predetermined condition exist (S105 to S120, S310 to S315) , S510 to S515),
Based on the detection result, a specific procedure for specifying the object used for estimating the position of the moving object from the determination region (S105, S125, S305, S320, S505, S520),
And wherein the object registered in the map data as being present in a region defined on the basis of the position information, on the basis of said object specified by said specifying step, estimation procedure for estimating the position of the movable body (S130, S325, S525),
A position estimation method comprising:
地図データを取得する地図データ取得手順と(S200,S400,S600)、
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手順と(S200,S400,S600)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手順と(S200,S400,S600)、
前記検出結果に基づき、前記移動体の周辺における複数の判定領域の各々に、予め定められた条件を満たす前記対象物がどの程度存在するかを判定し、判定結果に基づき、前記判定領域に重みを設定する設定手順と(S205〜S220,S410〜S415,S610〜S615)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手順と(S205,S225,S405,S420,S605,S620)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手順によりそれぞれの前記判定領域において特定された前記対象物と、それぞれの前記判定領域の前記重みとに基づき、前記移動体の位置を推定する推定手順と(S230,S425,S625)、
を備えることを特徴とする位置推定方法。
Map data acquisition procedure for acquiring map data (S200, S400, S600),
A position information acquisition procedure for acquiring position information of the mobile body (1) on which the device is mounted (S200, S400, S600);
A detection result acquisition procedure for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S200, S400, S600);
Based on the detection result, it is determined how many of the objects satisfying a predetermined condition exist in each of a plurality of determination areas around the moving body, and the determination area is weighted based on the determination result. (S205 to S220, S410 to S415, S610 to S615),
Based on the detection result, a specifying procedure for specifying the object used for estimating the position of the moving object from the determination area (S205, S225, S405, S420, S605, S620),
The object registered in the map data as existing in an area determined based on the position information, the object specified in each determination area by the specifying procedure , and each of the determination areas An estimation procedure for estimating the position of the moving object based on the weight (S230, S425, S625);
A position estimation method comprising:
地図データを取得する地図データ取得手段と(S100,S300,S500)、
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S100,S300,S500)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S100,S300,S500)、
前記検出結果に基づき、前記移動体の周辺のうち、予め定められた条件を満たす前記対象物が多く存在する一部の領域を、判定領域として設定する設定手段と(S105〜S120,S310〜S315,S510〜S515)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手段と(S105,S125,S305,S320,S505,S520)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手段により特定された前記対象物とに基づき、前記移動体の位置を推定する推定手段と(S130,S325,S525)して、コンピュータを動作させること、
を特徴とする位置推定プログラム(31)。
Map data acquisition means for acquiring map data (S100, S300, S500);
Position information acquisition means for acquiring position information of the mobile body (1) on which the device is mounted (S100, S300, S500);
Detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S100, S300, S500);
Based on the detection result, setting means for setting a part of the periphery of the moving body where a large number of the objects satisfying a predetermined condition exist as determination areas (S105 to S120, S310 to S315) , S510 to S515),
Based on the detection result, from the determination area, specifying means for specifying the object used for estimating the position of the moving body (S105, S125, S305, S320, S505, S520),
Estimating means for estimating the position of the moving object based on the object registered in the map data as existing in an area determined based on the position information and the object specified by the specifying means (S130, S325, S525) to operate the computer,
A position estimation program (31) characterized by
地図データを取得する地図データ取得手段と(S200,S400,S600)、
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S200,S400,S600)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S200,S400,S600)、
前記検出結果に基づき、前記移動体の周辺における複数の判定領域の各々に、予め定められた条件を満たす前記対象物がどの程度存在するかを判定し、判定結果に基づき、前記判定領域に重みを設定する設定手段と(S205〜S220,S410〜S415,S610〜S615)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手段と(S205,S225,S405,S420,S605,S620)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手段によりそれぞれの前記判定領域において特定された前記対象物と、それぞれの前記判定領域の前記重みとに基づき、前記移動体の位置を推定する推定手段と(S230,S425,S625)して、コンピュータを動作させること、
を特徴とする位置推定プログラム(31)。
Map data acquisition means for acquiring map data (S200, S400, S600);
Position information acquisition means for acquiring position information of the mobile body (1) on which the device is mounted (S200, S400, S600);
Detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S200, S400, S600);
Based on the detection result, it is determined how many of the objects satisfying a predetermined condition exist in each of a plurality of determination areas around the moving body, and the determination area is weighted based on the determination result. Setting means for setting (S205 to S220, S410 to S415, S610 to S615),
Based on the detection result, from the determination area, specifying means for specifying the object used for estimating the position of the moving body (S205, S225, S405, S420, S605, S620),
The object registered in the map data as existing in an area determined based on the position information, the object specified in each determination area by the specifying means, and each of the determination areas Based on the weights and estimating means for estimating the position of the moving body (S230, S425, S625), and operating the computer;
A position estimation program (31) characterized by
JP2014115825A 2014-06-04 2014-06-04 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM Active JP6336825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014115825A JP6336825B2 (en) 2014-06-04 2014-06-04 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014115825A JP6336825B2 (en) 2014-06-04 2014-06-04 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM

Publications (2)

Publication Number Publication Date
JP2015230213A JP2015230213A (en) 2015-12-21
JP6336825B2 true JP6336825B2 (en) 2018-06-06

Family

ID=54887061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014115825A Active JP6336825B2 (en) 2014-06-04 2014-06-04 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM

Country Status (1)

Country Link
JP (1) JP6336825B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6612135B2 (en) 2016-01-14 2019-11-27 日立オートモティブシステムズ株式会社 Vehicle detection device and light distribution control device
JP6626410B2 (en) * 2016-06-03 2019-12-25 株式会社Soken Vehicle position specifying device and vehicle position specifying method
KR102529903B1 (en) * 2016-12-14 2023-05-08 현대자동차주식회사 Apparatus and method for estimating position of vehicle
CN107203192A (en) * 2017-06-28 2017-09-26 上海应用技术大学 A kind of mobile robot automatic ride control system based on electronic map
AU2018326401C1 (en) * 2017-09-04 2023-07-13 Commonwealth Scientific And Industrial Research Organisation Method and system for use in performing localisation
JP6923748B2 (en) * 2018-03-29 2021-08-25 パイオニア株式会社 Self-position estimation device, self-position estimation method, program and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1972893A1 (en) * 2007-03-21 2008-09-24 Universiteit Gent System and method for position determination
AU2009211435A1 (en) * 2008-02-04 2009-08-13 Tele Atlas B.V. Method for map matching with sensor detected objects

Also Published As

Publication number Publication date
JP2015230213A (en) 2015-12-21

Similar Documents

Publication Publication Date Title
JP6336825B2 (en) POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM
CN110988912B (en) Road target and distance detection method, system and device for automatic driving vehicle
CN105667518B (en) The method and device of lane detection
JP2022000636A (en) Method and device for calibrating external parameter of on-board sensor, and related vehicle
CN110674705B (en) Small-sized obstacle detection method and device based on multi-line laser radar
CN112101092A (en) Automatic driving environment sensing method and system
JP6246609B2 (en) Self-position estimation apparatus and self-position estimation method
JP2020500290A (en) Method and system for generating and using location reference data
JP2015155903A (en) Automated driving system, method for automated driving, and computing device
CN109791408B (en) Self-position estimation method and self-position estimation device
CN113673282A (en) Target detection method and device
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP2022188203A (en) Measurement precision calculation device, self-position estimation device, control method, program and storage medium
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP2017181476A (en) Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program
JP2022176322A (en) Self-position estimation device, control method, program, and storage medium
JP6740470B2 (en) Measuring device, measuring method and program
JP2016045767A (en) Motion amount estimation device and program
KR102255924B1 (en) Vehicle and method for detecting lane
JP2006172016A (en) Mobile robot, mobile robot control method and mobile robot control program
CN112989946B (en) Lane line determining method, device, equipment and vehicle
JP2022136145A (en) Data structure, information processing device, and map data generator
JP6986557B2 (en) Measuring equipment, measuring methods and programs
JP2004326559A (en) Lane mark detector
CN114419573A (en) Dynamic occupancy grid estimation method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6336825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250