JP2019178971A - Device, method, and program for generating environmental map - Google Patents

Device, method, and program for generating environmental map Download PDF

Info

Publication number
JP2019178971A
JP2019178971A JP2018068796A JP2018068796A JP2019178971A JP 2019178971 A JP2019178971 A JP 2019178971A JP 2018068796 A JP2018068796 A JP 2018068796A JP 2018068796 A JP2018068796 A JP 2018068796A JP 2019178971 A JP2019178971 A JP 2019178971A
Authority
JP
Japan
Prior art keywords
probability
map
occupation
sensor device
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018068796A
Other languages
Japanese (ja)
Inventor
芸芸 曹
Geigei So
芸芸 曹
騰龍 谷
Masatatsu Tani
騰龍 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018068796A priority Critical patent/JP2019178971A/en
Publication of JP2019178971A publication Critical patent/JP2019178971A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide an improved device, method, and program for generating an environmental map which can reduce the probability that a sensor device fails to detect or detects wrong, by a sensor fusion method.SOLUTION: The device for generating an environmental map includes: a first probability calculation circuit for calculating a first occupation probability for a first position according to the measured value of an object in the first position in a first region by a first sensor device and the feature of the first position identified by the second sensor device; and a map generation circuit for generating a map showing a second occupation probability that an object exists in each position of a second region on the basis of the first occupation probability.SELECTED DRAWING: Figure 1

Description

本開示は、環境地図生成装置、環境地図生成方法、及び環境地図生成プログラムに関する。   The present disclosure relates to an environment map generation device, an environment map generation method, and an environment map generation program.

近年、自動車の自動運転技術等の運転補助技術の発展に伴い、自動車の置かれた状況を把握するための車載カメラ、車載ソナー、及び車載レーダといった様々な車載センサ装置の需要が高まっている。車載センサ装置には、様々な種類があり、その種類により動作原理及び動作特性が異なる。したがって、1つの車載センサ装置で車両の置かれる様々な状況に万能に対応することは困難である。そこで、車両の置かれる様々な状況に対応するために、複数の車載センサ装置が得意とする状況に応じて、それらの測定結果を融合するセンサフュージョン手法が提案されている。   In recent years, with the development of driving assistance technology such as automatic driving technology for automobiles, demands for various in-vehicle sensor devices such as an in-vehicle camera, an in-vehicle sonar, and an in-vehicle radar for grasping the situation where the automobile is placed are increasing. There are various types of in-vehicle sensor devices, and the operation principle and operation characteristics differ depending on the type. Therefore, it is difficult to cope with various situations where a vehicle is placed with a single in-vehicle sensor device. Therefore, in order to deal with various situations in which the vehicle is placed, a sensor fusion method has been proposed that fuses the measurement results according to the circumstances that the plurality of in-vehicle sensor devices are good at.

特開2012−048642号公報JP 2012-048642 A

本開示の一態様は、センサフュージョン手法において、センサ装置の検出漏れ又は誤検出の確率を低減させる、改善された環境地図生成装置、環境地図生成方法、及び環境地図生成プログラムの提供に資する。   One aspect of the present disclosure contributes to the provision of an improved environment map generation device, an environment map generation method, and an environment map generation program that reduce the probability of detection omission or false detection of a sensor device in a sensor fusion technique.

本開示の一態様に係る環境地図生成装置は、第1のセンサ装置による第1の領域内の第1の位置の測定値及び、第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算する第1の確率計算回路と、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する地図生成回路と、を備える構成を採る。   An environment map generation device according to an aspect of the present disclosure includes a measurement value of a first position in a first region by a first sensor device and a feature of the first position identified by a second sensor device. And a first probability calculation circuit for calculating a first occupation probability that an object at the first position exists, and for each position in the second region based on the first occupation probability And a map generation circuit that generates a map indicating the second occupation probability that the object is present.

本開示の一態様に係る環境地図生成方法は、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算し、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する構成を採る。   The environmental map generation method according to an aspect of the present disclosure is based on the measurement value of the first position in the first region by the first sensor device and the feature of the first position identified by the second sensor device. In response, a first occupancy probability that an object at the first position exists is calculated, and based on the first occupancy probability, a second object exists for each position in the second region. The structure which produces | generates the map which shows an occupation probability is taken.

本開示の一態様に係る環境地図生成プログラムは、コンピュータに、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算させ、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成させる構成を採る。   An environment map generation program according to an aspect of the present disclosure is a computer in which a measured value of a first position in a first region by a first sensor device and the first position identified by a second sensor device The first occupancy probability that the object at the first position exists is calculated according to the characteristics of the object, and the object exists at each position in the second region based on the first occupancy probability. A configuration is adopted in which a map showing the second occupation probability is generated.

なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム、又は、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific aspects may be realized by a system, method, integrated circuit, computer program, or recording medium. Any of the system, apparatus, method, integrated circuit, computer program, and recording medium may be used. It may be realized by various combinations.

本開示の一態様によれば、センサフュージョン手法において、センサ装置の検出漏れ又は誤検出の確率を低減させる、改善された環境地図生成装置、環境地図生成方法、及び環境地図生成プログラムの提供に資する。   According to one aspect of the present disclosure, in the sensor fusion technique, it contributes to the provision of an improved environment map generation device, an environment map generation method, and an environment map generation program that reduce the probability of detection failure or false detection of the sensor device. .

本開示の一態様における更なる利点及び効果は、明細書及び図面から明らかにされる。かかる利点及び/又は効果は、いくつかの実施の形態並びに明細書及び図面に記載された特徴によってそれぞれ提供されるが、1つ又はそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。   Further advantages and effects in one aspect of the present disclosure will become apparent from the specification and drawings. Such advantages and / or effects are each provided by the features described in some embodiments and the specification and drawings, but not necessarily all in order to obtain one or more identical features. There is no need.

本開示に係る環境地図生成システムのブロック図である。It is a block diagram of an environmental map generation system concerning this indication. 本開示に係る環境地図生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the environmental map production | generation apparatus which concerns on this indication. コンピュータのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a computer. ソナーの観測値に基づいて推定される区画の占有確率の説明図である。It is explanatory drawing of the occupation probability of the area estimated based on the sonar observation.

[本開示に至った経緯]
まず、センサフュージョン手法で用いられる環境地図について説明する。
[Background to the Disclosure]
First, an environmental map used in the sensor fusion method will be described.

<環境地図>
環境地図(OGM:Occupancy Grid Map)とは、自車両が観測する周辺領域を格子状に分割し、格子状に区分されて生成された各区画(以下、単に区画と称する)に対して、自車両が回避すべき物体によって当該区画が占有される確率をマップして得られる地図である。
<Environmental map>
The OGM (Occupancy Grid Map) is a map of the surrounding area observed by the host vehicle divided into grids and divided into grids (hereinafter simply referred to as "compartments"). It is a map obtained by mapping the probability that the section is occupied by an object to be avoided by the vehicle.

事象Xを、離散時刻1〜tの自車両の位置がx1:t(=(x,x,…,x))であり、離散時刻1〜t−1のセンサ測定値がZ1:t-1(=(Z,Z,…,Zt-1))である時、離散時刻tのセンサ測定値がZである事象とする。事象Aを、離散時刻1〜tの自車両の位置がx1:tであり、離散時刻1〜t−1のセンサ測定値がZ1:t−1である時、回避すべき物体によって区画mが占有される事象とする。なお、本開示において、センサ測定値は、スカラ値及びベクトル値のいずれであってもよい。 For event X, the position of the vehicle at discrete times 1 to t is x 1: t (= (x 1 , x 2 ,..., X t )), and the sensor measurement values at discrete times 1 to t −1 are Z When 1: t−1 (= (Z 1 , Z 2 ,..., Z t−1 )), it is assumed that the sensor measurement value at the discrete time t is Z t . Event A is defined by an object to be avoided when the position of the vehicle at discrete times 1 to t is x 1: t and the sensor measurement value at discrete times 1 to t-1 is Z 1: t-1. It is assumed that m is occupied. In the present disclosure, the sensor measurement value may be either a scalar value or a vector value.

次の式(1):

Figure 2019178971
で表されるベイズの定理を用いると、次の式(2):
Figure 2019178971
が得られる。ここで、回避すべき物体によって区画mが占有される事象を、同じ記号m(事象m)で表す。 The following formula (1):
Figure 2019178971
Using Bayes' theorem expressed by the following equation (2):
Figure 2019178971
Is obtained. Here, an event in which the section m is occupied by an object to be avoided is represented by the same symbol m (event m).

確率変数Zは、確率変数x1:t−1及びZ1:t−1と独立であるとすると、次の式(3):

Figure 2019178971
が得られる。上述の式(2)に式(3)を代入すると、次の式(4):
Figure 2019178971
が得られる。事象mの余事象についても、同様にして次の式(5):
Figure 2019178971
が得られる。上述の式(4)及び式(5)より、次の式(6):
Figure 2019178971
が得られる。 Assuming that the random variable Z t is independent of the random variables x 1: t−1 and Z 1: t−1 , the following equation (3):
Figure 2019178971
Is obtained. Substituting equation (3) into equation (2) above, the following equation (4):
Figure 2019178971
Is obtained. The following equation (5) is similarly applied to the remaining event of event m:
Figure 2019178971
Is obtained. From the above equations (4) and (5), the following equation (6):
Figure 2019178971
Is obtained.

ここで、事象xに対し、オッズOdds(x)を次の式(7):

Figure 2019178971
で定義する。上述の式(7)をP(x)について解くことにより、確率P(x)とオッズOdds(x)とは、相互に変換可能であることがわかる。上述の式(6)及び式(7)より、次の式(8):
Figure 2019178971
が得られる。ここで、センサ測定値などの情報がない時、区画mの事前占有確率は0.5とし、即ち、P(m)=0.5とおくと、logOdds(m)=0となる。これを上述の式(8)に代入すると、次の式(9):
Figure 2019178971
が得られる。 Here, for the event x, odds Odds (x) is expressed by the following equation (7):
Figure 2019178971
Define in. It is understood that the probability P (x) and the odds Odds (x) can be converted into each other by solving the above equation (7) for P (x). From the above equations (6) and (7), the following equation (8):
Figure 2019178971
Is obtained. Here, when there is no information such as sensor measurement values, the prior occupation probability of the section m is 0.5, that is, if P (m) = 0.5, logOdds (m) = 0. Substituting this into equation (8) above, the following equation (9):
Figure 2019178971
Is obtained.

以下、離散時刻tに回避すべき物体によって区画mが占有される確率を、区画mの占有確率と称する。上述の式(9)は、離散時刻tにおける区画mの占有確率P(m|x1:t,Z1:t)が、離散時刻t−1における区画mの占有確率P(m|x1:t−1,Z1:t−1)=P(m|x1:t,Z1:t−1)と、離散時刻tにおける自車両の位置及びセンサ測定値がそれぞれx及びZである場合の区画mの占有確率P(m|x,Z)とから求められることを示している。即ち、離散時刻tにおける環境地図は、離散時刻t−1における環境地図と、離散時刻tにおける自車両の位置及びセンサ測定値がそれぞれx及びZである条件下における区画mの占有確率P(m|x,Z)とから求められる。言い換えると、離散時刻tにおける環境地図は、離散時刻1〜tまでの、センサ測定値に基づく区画mの占有確率P(m|x,Z),i=1〜tから求められる。 Hereinafter, the probability that the section m is occupied by the object to be avoided at the discrete time t is referred to as the occupation probability of the section m. The above equation (9), occupancy probability P compartment m at discrete time t (m | x 1: t , Z 1: t) is occupancy probability P compartment m at discrete time t-1 (m | x 1 : t-1, Z 1: t-1) = P (m | x 1: t, Z 1: t-1) and the discrete time x-position and the sensor measurements of the vehicle at t, respectively t and Z t It is shown that it is obtained from the occupation probability P (m | x t , Z t ) of the section m in the case of. That is, the environment map at the discrete time t is the environment map at the discrete time t−1 and the occupation probability P of the section m under the condition that the position of the vehicle and the sensor measurement values at the discrete time t are x t and Z t , respectively. (M | x t , Z t ) In other words, the environment map at the discrete time t is obtained from the occupation probabilities P (m | x i , Z i ) and i = 1 to t of the section m based on the sensor measurement values from the discrete times 1 to t.

<センサ測定値に基づく占有確率>
例えば、センサ測定値Zがソナーの測定値Z ussである場合を考察する。ソナーは、観測領域に向けて音波信号を発射し、反射波を検出し、測定値Z ussを出力する。測定値Z ussは、観測領域にある物体の位置情報と反射波の強度情報を含む。測定値Z ussに基づいて、区画mの占有確率P(m|x,Z uss)が推定される。区画mの占有確率P(m|x,Z uss)は、あらかじめ実験を通じて得られた値に基づいて推定する。推定される区画mの占有確率P(m|x,Z uss)は、通常、検出された反射波の強度が反映された値である。反射波の強度が大きいほど、推定される区画mの占有確率P(m|x,Z uss)も大きくなる。
<Occupancy probability based on sensor measurement value>
For example, consider the case where the sensor measurement Z t is the sonar measurement Z t uss . The sonar emits a sound wave signal toward the observation area, detects a reflected wave, and outputs a measured value Z t uss . The measurement value Z t uss includes the position information of the object in the observation region and the intensity information of the reflected wave. Based on the measured value Z t uss , the occupation probability P (m | x t , Z t uss ) of the section m is estimated. Occupancy probability P compartment m (m | x t, Z t uss) is estimated based on a value obtained in advance through experiments. The estimated occupation probability P (m | x t , Z t uss ) of the section m is usually a value reflecting the intensity of the detected reflected wave. The greater the intensity of the reflected wave, the greater the occupation probability P (m | x t , Z t uss ) of the estimated section m.

図4は、ソナーSの観測値Z ussに基づいて推定される区画mの占有確率P(m|x,Z uss)の説明図である。 FIG. 4 is an explanatory diagram of the occupation probability P (m | x t , Z t uss ) of the section m estimated based on the observed value Z t uss of the sonar S.

通常、ソナーSによる反射波の測定値Z ussには、方位及び距離の検出誤差が含まれる。図4に示される説明図において、ソナーSが発射した音波信号は、例えば、物体Tに反射する。ソナーSは、物体Tによる反射波を検出する。グリッドマップGの区画mの占有確率P(m|x,Z uss)には、方位及び距離の検出誤差が反映させる。例えば、区画mがソナー測定値の位置情報成分及び誤差範囲で決められた扇型領域R1に含まれるとき、推定される区画mの占有確率P(m|x,Z uss)は、P(但し、0.5<P≦1)となる。また、区画mが扇型領域R2に含まれるとき、推定される区画mの占有確率P(m|x,Z uss)は、1−Pとなる。区画mがその他の領域に含まれるとき(即ち、ソナーの測定範囲外の区画)、推定される区画mの占有確率P(m|x,Z uss)は0.5となる。なお、Pの値は、反射強度が大きければ大きいほど、大きい数値をとる。例えば、Pの値は、以下の式で計算される。

Figure 2019178971
ここで、a,bは定数の係数であり、Z uss[1]はソナーSが測定値した反射波強度成分であって、測定された距離で正規化された反射波強度成分である。 Usually, the measured value Z t uss of the reflected wave by the sonar S, include detection error of the azimuth and distance. In the explanatory view shown in FIG. 4, the sound wave signal emitted by the sonar S is reflected by the object T, for example. The sonar S detects a reflected wave from the object T. The occupancy probability P (m | x t , Z t uss ) of the section m of the grid map G reflects the direction and distance detection errors. For example, when the section m is included in the sector region R1 determined by the position information component of the sonar measurement value and the error range, the estimated occupation probability P (m | x t , Z t uss ) of the section m is P (However, 0.5 <P ≦ 1). Further, when the section m is included in the sector area R2, the estimated occupation probability P (m | x t , Z t uss ) of the section m is 1-P. When the section m is included in another region (that is, a section outside the sonar measurement range), the estimated occupation probability P (m | x t , Z t uss ) of the section m is 0.5. Note that the value of P takes a larger value as the reflection intensity is higher. For example, the value of P is calculated by the following formula.
Figure 2019178971
Here, a and b are constant coefficients, and Z t uss [1] is a reflected wave intensity component measured by the sonar S, and is a reflected wave intensity component normalized by the measured distance.

ソナーSを、車両が回避すべき物体Tの検出に用いる場合を考える。車両が回避すべき物体Tとして、例えば、路上の歩行者、駐車場に放置された買い物用のカートが挙げられる。しかしながら、歩行者の皮膚や被服は、音波信号を反射しにくく、ソナーSが検出する反射波の強度も弱くなる。また、買い物用のカートは、網で構成される場合が多く、音波信号を反射する面積が小さいため、ソナーSが検出する反射波の強度が弱くなる。したがって、推定される区画mの占有確率P(m|Z uss)が小さくなり、ソナーSは、歩行者、買い物用のカートの検出漏れを起こす可能性がある。 Consider a case where the sonar S is used to detect an object T that the vehicle should avoid. Examples of the object T to be avoided by the vehicle include a pedestrian on a road and a shopping cart left in a parking lot. However, the skin and clothes of pedestrians are difficult to reflect sound wave signals, and the intensity of reflected waves detected by the sonar S is also weakened. Further, a shopping cart is often composed of a net and has a small area for reflecting a sound wave signal, so that the intensity of the reflected wave detected by the sonar S becomes weak. Therefore, the occupation probability P (m | Z t uss ) of the estimated section m becomes small, and the sonar S may cause a detection failure of the pedestrian and the shopping cart.

一方、車両が回避すべきでない物体Tとして、例えば、降雪が挙げられる。車両の進行方向に降雪があっても、通常は、車両は降雪を回避すべきでない。しかしながら、雪がソナーSに付着する等の理由により、ソナーSが強度の大きい反射波を検出した場合、推定される区画mの占有確率P(m|Z uss)が大きくなり、ソナーSは、降雪を回避すべき物体であると誤検出する可能性がある。一方、雪が音を吸収する性質により、雪が積もった物体の表面は、雪が積もってない場合と比較して反射波が弱くなることがあり、ソナーSは、回避すべき物体の検出漏れを起こす可能性がある。 On the other hand, as the object T that the vehicle should not avoid, for example, it is snowfall. Even if there is snow in the direction of travel of the vehicle, usually the vehicle should not avoid snow. However, when the sonar S detects a reflected wave having a high intensity due to, for example, snow adhering to the sonar S, the occupation probability P (m | Z t uss ) of the estimated section m increases, and the sonar S There is a possibility of false detection that the object should avoid snowfall. On the other hand, due to the nature of snow to absorb sound, the surface of an object covered with snow may have a weaker reflected wave than when no snow is accumulated, and sonar S may cause detection omission of an object to be avoided. There is sex.

したがって、検出漏れや誤検出を回避するために、センサフュージョン手法を用いて、ソナーが測定する対象の種別を、ソナーとは異なるセンサを用いて識別し、識別結果を用いて、推定される区画mの占有確率P(m|Z uss)を補正することが考えられる。 Therefore, in order to avoid omissions and false detections, the sensor fusion technique is used to identify the type of object to be measured by the sonar using a sensor different from the sonar, and the estimated section using the identification result. It is conceivable to correct the occupation probability P (m | Z t uss ) of m.

特許文献1に記載の走行環境認識装置は、レーザレーダ、通信機及び地図データベース等のセンサ類ごとに占有グリッドマップ(環境地図)を作成し、自車両の走行の障害となるものの占有確率を計算する(段落[0028]、図2)。しかしながら、センサ類毎に占有グリッドマップを生成して融合計算を行っても、検出される物体の種別ごとに適切な占有確率を計算することは、困難である。   The driving environment recognition device described in Patent Document 1 creates an occupancy grid map (environment map) for each sensor such as a laser radar, a communication device, and a map database, and calculates an occupancy probability of an obstacle that causes the vehicle to travel. (Paragraph [0028], FIG. 2). However, even if an occupancy grid map is generated for each sensor and fusion calculation is performed, it is difficult to calculate an appropriate occupancy probability for each type of detected object.

そこで、検出される物体の種別ごとに適切な占有確率を計算するために、本開示に至った。   Accordingly, the present disclosure has been reached in order to calculate an appropriate occupation probability for each type of detected object.

[実施の形態1]
以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、実施の形態において、同一の構成要素には同一の符号を付し、その説明は重複するので省略する。
[Embodiment 1]
Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In the embodiment, the same components are denoted by the same reference numerals, and the description thereof will be omitted because it is duplicated.

なお、以下に説明する実施の形態は一例であり、本開示は以下の実施の形態により限定されるものではない。   The embodiment described below is an example, and the present disclosure is not limited to the following embodiment.

図1は、本開示に係る環境地図生成システム1のブロック図である。   FIG. 1 is a block diagram of an environment map generation system 1 according to the present disclosure.

環境地図生成システム1は、車両測位センサ110と、ソナー120と、レーダ130と、撮像装置140と、物体識別装置(第2のセンサ装置)150と、環境地図生成装置200と、を備える。   The environment map generation system 1 includes a vehicle positioning sensor 110, a sonar 120, a radar 130, an imaging device 140, an object identification device (second sensor device) 150, and an environment map generation device 200.

車両測位センサ110は、自車両の位置及び向きを測定し、測位情報を出力する。車両測位センサ110は、例えば、GPS端末装置、Wi−Fi端末装置、又はETC2.0車載器である。   The vehicle positioning sensor 110 measures the position and orientation of the host vehicle and outputs positioning information. The vehicle positioning sensor 110 is, for example, a GPS terminal device, a Wi-Fi terminal device, or an ETC 2.0 vehicle-mounted device.

ソナー120は、観測領域に向けて音波を発射し、物体によって反射された反射波を受信する。次いで、ソナー120は、受信した反射波に基づいて、物体の位置、大きさ、又は方位を検出し、観測領域内の各位置に対する測定値Z ussを出力する。 The sonar 120 emits a sound wave toward the observation area and receives a reflected wave reflected by the object. Next, the sonar 120 detects the position, size, or orientation of the object based on the received reflected wave, and outputs a measurement value Z t uss for each position in the observation region.

レーダ130は、観測領域に向けてレーダ波を発射し、物体によって反射された反射波を受信する。次いで、レーダ130は、受信した反射波に基づいて、物体の位置、大きさ、又は方位を検出し、観測領域内の各位置に対する測定値Z radarを出力する。レーダ130は、例えば、ミリ波又はマイクロ波を用いる、パルス圧縮レーダ又は連続波レーダである。 The radar 130 emits a radar wave toward the observation area and receives the reflected wave reflected by the object. Next, the radar 130 detects the position, size, or direction of the object based on the received reflected wave, and outputs a measurement value Z t radar for each position in the observation region. The radar 130 is, for example, a pulse compression radar or a continuous wave radar that uses millimeter waves or microwaves.

撮像装置140は、撮像領域を撮像する。撮像領域は、例えば、車両前方、車両側方、車両後方といった、車両の外部である。撮像装置140は、例えば、車載単眼カメラ、車載ステレオカメラである。   The imaging device 140 images the imaging area. The imaging region is outside the vehicle, for example, the front of the vehicle, the side of the vehicle, or the rear of the vehicle. The imaging device 140 is, for example, a vehicle-mounted monocular camera or a vehicle-mounted stereo camera.

ソナー120と、レーダ130と、撮像装置140とは、観測領域又は撮像領域(第1の領域)内の各位置(第1の位置)を測定するセンサ装置(第1のセンサ装置)として機能する。   The sonar 120, the radar 130, and the imaging device 140 function as a sensor device (first sensor device) that measures each position (first position) in the observation region or the imaging region (first region). .

物体識別装置150は、撮像装置140が撮像した画像から、物体の種別を識別し、識別結果を出力する。物体の種別は、例えば、歩行者、電柱、看板、買い物用のカート、降雪、マンホールである。例えば、撮像装置140が車載ステレオカメラである場合、物体識別装置150は、物体の種別に加えて、物体の位置を識別してもよい。物体識別装置150は、画像内に含まれる第1の位置の特徴を識別するセンサ装置(第2のセンサ装置)として機能する。   The object identification device 150 identifies the type of the object from the image captured by the imaging device 140 and outputs the identification result. The types of objects are, for example, pedestrians, utility poles, signboards, shopping carts, snowfall, and manholes. For example, when the imaging device 140 is an in-vehicle stereo camera, the object identification device 150 may identify the position of the object in addition to the type of the object. The object identification device 150 functions as a sensor device (second sensor device) that identifies the feature of the first position included in the image.

環境地図生成装置200は、車両位置推定回路210と、第1の確率計算回路220と、第2の確率計算回路230と、第3の確率計算回路240と、環境地図グリッド占有確率計算回路250と、環境地図出力回路260と、を備える。   The environment map generation device 200 includes a vehicle position estimation circuit 210, a first probability calculation circuit 220, a second probability calculation circuit 230, a third probability calculation circuit 240, and an environment map grid occupation probability calculation circuit 250. And an environmental map output circuit 260.

車両位置推定回路210は、自車両の位置x及び向きを推定する。例えば、車両位置推定回路210は、車両測位センサ110から測位情報を入力し、測位情報に基づいて自車両の位置x及び向きを推定する。 The vehicle position estimation circuit 210 estimates the position xt and the direction of the host vehicle. For example, the vehicle position estimation circuit 210 inputs positioning information from the vehicle positioning sensor 110, and estimates the position xt and direction of the host vehicle based on the positioning information.

第1の確率計算回路220は、ソナー120から測定値Z ussを入力し、物体識別装置150から識別結果Z camを入力する。次いで、第1の確率計算回路220は、測定値Z uss及び識別結果Z camに基づいて、区画mの占有オッズOを計算する。計算の内容の詳細については、図2を参照して後述される。 The first probability calculation circuit 220 receives the measurement value Z t uss from the sonar 120 and the identification result Z t cam from the object identification device 150. Then, the first probability calculation circuit 220, the measured value Z t uss and identification results based on Z t cam, calculating the occupied odds O 1 compartment m. Details of the contents of the calculation will be described later with reference to FIG.

第2の確率計算回路230は、レーダ130から測定値Z radarを入力し、物体識別装置150から識別結果Z camを入力する。次いで、第2の確率計算回路230は、測定値Z radar及び識別結果Z camに基づいて、区画mの占有オッズOを計算する。計算の内容の詳細については、図2を参照して後述される。 The second probability calculation circuit 230 receives the measurement value Z t radar from the radar 130 and the identification result Z t cam from the object identification device 150. Next, the second probability calculation circuit 230 calculates the occupation odds O 2 of the partition m based on the measurement value Z t radar and the identification result Z t cam . Details of the contents of the calculation will be described later with reference to FIG.

第3の確率計算回路240は、撮像装置140から撮像画像Z cam’を入力し、物体識別装置150から識別結果Z camを入力する。次いで、第3の確率計算回路240は、撮像画像Z cam’及び識別結果Z camに基づいて、区画mの占有オッズOを計算する。計算の内容の詳細については、図2を参照して後述される。 The third probability calculation circuit 240 receives the captured image Z t cam ′ from the imaging device 140 and the identification result Z t cam from the object identification device 150. Next, the third probability calculation circuit 240 calculates the occupation odds O 3 of the section m based on the captured image Z t cam ′ and the identification result Z t cam . Details of the contents of the calculation will be described later with reference to FIG.

環境地図グリッド占有確率計算回路250は、占有オッズO〜Oの区画mをセンサ座標系から自車両の座標系に、続いて自車両の座標系から環境地図座標系に変換する。次いで、環境地図グリッド占有確率計算回路250は、占有オッズO〜Oに基づいて、グリッドマップの各区画mに対して融合占有確率P(m|x1:t,Z1:t)を更新する。計算の内容の詳細については、図2を参照して後述される。 The environment map grid occupation probability calculation circuit 250 converts the division m of the occupation odds O 1 to O 3 from the sensor coordinate system to the coordinate system of the own vehicle, and subsequently from the coordinate system of the own vehicle to the environment map coordinate system. Then, the environment map grid occupancy probability calculation circuit 250, based on the occupancy odds O 1 ~ O 3, fused occupancy probability P for each partition m grid map (m | x 1: t, Z 1: t) a Update. Details of the contents of the calculation will be described later with reference to FIG.

環境地図出力回路260は、更新された融合占有確率P(m|x1:t,Z1:t)に基づいて、グリッドマップの各区画(位置)mに対して、区画mが占有されている占有確率を示す環境地図を更新し、出力する。環境地図グリッド占有確率計算回路250と、環境地図出力回路260とは、第1の確率計算回路220、第2の確率計算回路230、第3の確率計算回路240の少なくとも1つが計算した占有確率に基づいて、グリッドマップ(第2の領域)内の各区画mに対して、融合占有確率(第2の占有確率)P(m|x1:t,Z1:t)を示す地図(環境地図)を生成する地図生成回路として動作する。 Environment map output circuit 260, updated fused occupancy probability P (m | x 1: t , Z 1: t) based on each section of the grid mapped to (position) m, compartment m is occupied Update and output an environmental map showing the occupancy probability. The environment map grid occupancy probability calculation circuit 250 and the environment map output circuit 260 have the occupancy probabilities calculated by at least one of the first probability calculation circuit 220, the second probability calculation circuit 230, and the third probability calculation circuit 240. Based on the map (environment map) indicating the fusion occupation probability (second occupation probability) P (m | x 1: t , Z 1: t ) for each section m in the grid map (second region). ) To generate a map generation circuit.

図2は、本開示に係る環境地図生成装置200の動作を示すフローチャートである。   FIG. 2 is a flowchart illustrating the operation of the environment map generation device 200 according to the present disclosure.

例えば、初期値として、グリッドマップの全ての区画mに対し、P(m|x0,Z0)=P(m|x0)=0.5に設定する。次いで、所定の時間間隔で、図2のステップS110からS170を実行することにより、融合占有確率P(m|x1:t,Z1:t)が更新され、環境地図も更新される。 For example, as an initial value, P (m | x 0 , Z 0 ) = P (m | x 0 ) = 0.5 is set for all sections m of the grid map. Next, by executing steps S110 to S170 of FIG. 2 at a predetermined time interval, the fusion occupation probability P (m | x 1: t , Z 1: t ) is updated, and the environment map is also updated.

ステップS110において、車両位置推定回路210は、自車両の位置及び向きを推定する。例えば、車両位置推定回路210は、車両測位センサ110から測位情報を入力し、測位情報に基づいて自車両の位置x及び向きを推定する。 In step S110, the vehicle position estimation circuit 210 estimates the position and orientation of the host vehicle. For example, the vehicle position estimation circuit 210 inputs positioning information from the vehicle positioning sensor 110, and estimates the position xt and direction of the host vehicle based on the positioning information.

ステップS120において、第1の確率計算回路220、第2の確率計算回路230、及び第3の確率計算回路240は、センサの測定値を受け取る。例えば、第1の確率計算回路220は、ソナー120から測定値Z ussを受け取る。第2の確率計算回路230は、レーダ130から測定値Z radarを受け取る。第3の確率計算回路240は、撮像装置140から撮像画像Z cam’を受け取る。 In step S120, the first probability calculation circuit 220, the second probability calculation circuit 230, and the third probability calculation circuit 240 receive the sensor measurement values. For example, the first probability calculation circuit 220 receives the measurement value Z t uss from the sonar 120. The second probability calculation circuit 230 receives the measurement value Z t radar from the radar 130. The third probability calculation circuit 240 receives the captured image Z t cam ′ from the imaging device 140.

ステップS130において、第1の確率計算回路220、第2の確率計算回路230及び第3の確率計算回路240は、物体識別装置150から、撮像画像に含まれる物体の識別結果Z camを受け取る。識別結果Z camは、例えば、区画mにある物体の種別を含む。 In step S <b> 130, the first probability calculation circuit 220, the second probability calculation circuit 230, and the third probability calculation circuit 240 receive the object identification result Z t cam included in the captured image from the object identification device 150. The identification result Z t cam includes, for example, the type of the object in the section m.

ステップS140において、第1の確率計算回路220、第2の確率計算回路230、及び第3の確率計算回路240は、測定値及び識別結果に基づいて、例えば、占有オッズO〜Oの形式で占有確率を計算する。 In step S140, the first probability calculation circuit 220, the second probability calculation circuit 230, and the third probability calculation circuit 240, for example, occupy odds O 1 to O 3 in a format based on the measurement value and the identification result. Calculate the occupation probability.

例えば、第1の確率計算回路220は、次の式(10):

Figure 2019178971
を用いて占有オッズOの形式で占有確率P(m|x,Z uss,Z cam)(第1の占有確率)を計算する。占有オッズOは、ソナー120の測定値Z ussに加えて、物体識別装置150による識別結果Z camに依存する。 For example, the first probability calculation circuit 220 has the following equation (10):
Figure 2019178971
Is used to calculate the occupation probability P (m | x t , Z t uss , Z t cam ) (first occupation probability) in the form of occupation odds O 1 . Occupied odds O 1 depend on the identification result Z t cam by the object identification device 150 in addition to the measured value Z t uss of the sonar 120.

一例において、区画mに歩行者が存在すると物体識別装置150が識別した場合、例え、物体識別装置150の出力Z camは、歩行者が存在する確率を表すとすれば、第1の確率計算回路220は、次の式(11):

Figure 2019178971
を用いて占有オッズOを計算する。ここで、fは、次の式(12):
Figure 2019178971
で定められる関数であり、αは、ある正の数である。また、Rαは、区画mに歩行者が存在する場合に、logOdds(m|x,Z uss)がとる値の範囲である。即ち、上述の式(11)を用いて計算された占有オッズOは、区画mに歩行者が存在する場合に正方向に補正され、ソナーによる歩行者の検出が容易になるように、ソナーが検出した弱い反射が補正される。 In one example, if the object identification device 150 when there is a pedestrian in a compartment m has identified, for example, an output Z t cam of object identification apparatus 150, if represents the probability that the pedestrian exists, the first probability computing The circuit 220 has the following equation (11):
Figure 2019178971
Is used to calculate the occupied odds O 1 . Where f 1 is the following equation (12):
Figure 2019178971
Where α is a positive number. R α is a range of values taken by logOdds (m | x t , Z t uss ) when a pedestrian is present in the section m. That is, the occupation odds O 1 calculated using the above equation (11) is corrected in the positive direction when there is a pedestrian in the section m, so that the sonar can be easily detected by the sonar. The weak reflection detected by is corrected.

また、他の一例において、区画mに降雪が存在すると物体識別装置150が識別した場合、物体識別装置150の出力Z camは、降雪が存在する確率を表すとすれば、第1の確率計算回路220は、次の式(13):

Figure 2019178971
を用いて占有オッズOを計算する。ここで、fは、次の式(14):
Figure 2019178971
で定められる関数であり、βは、ある正の数である。また、Rβは、区画mに降雪が存在する場合に、logOdds(m|x,Z uss)がとる値の範囲である。即ち、上述の式(14)を用いて計算された占有オッズOは、区画mに降雪が存在する場合に負方向に補正され、ソナーが検出した降雪による反射の影響が除去されるように補正される。 In another example, when the object identification device 150 identifies that there is snowfall in the section m, if the output Z t cam of the object identification device 150 represents the probability of snowfall, the first probability calculation The circuit 220 has the following equation (13):
Figure 2019178971
Is used to calculate the occupied odds O 1 . Here, f 2, the following equation (14):
Figure 2019178971
Where β is a certain positive number. Further, the R beta, when there is snow in the compartment m, logOdds | in the range of (m x t, Z t uss ) takes values. That is, the occupancy odds O 1 calculated using the above equation (14) is corrected in the negative direction when there is snow in the section m, so that the influence of the reflection due to snow detected by the sonar is removed. It is corrected.

例えば、第2の確率計算回路230は、次の式(15):

Figure 2019178971
を用いて占有オッズOの形式で占有確率P(m|x,Z radar,Z cam)を計算する。占有オッズOは、レーダ130の測定値Z radarに加えて、物体識別装置150による識別結果Z camに依存する。 For example, the second probability calculation circuit 230 has the following formula (15):
Figure 2019178971
Is used to calculate the occupation probability P (m | x t , Z t radar , Z t cam ) in the form of occupation odds O 2 . Occupancy odds O 2 depends on the identification result Z t cam by the object identification device 150 in addition to the measurement value Z t radar of the radar 130.

一例において、区画mに買い物用のカートが存在すると物体識別装置150が識別した場合、物体識別装置150の出力Z camは、買い物用のカートが存在する確率を表すとすれば、第2の確率計算回路230は、次の式(16):

Figure 2019178971
を用いて占有オッズOを計算する。ここで、fは、次の式(17):
Figure 2019178971
で定められる関数であり、γは、ある正の数である。また、Rγは、区画mに買い物用のカートが存在する場合に、logOdds(m|x,Z radar)がとる値の範囲である。即ち、上述の式(16)を用いて計算された占有オッズOは、区画mに買い物用のカートが存在する場合に正方向に補正され、レーダによる買い物用のカートの検出が容易になるように、レーダが検出した弱い反射が補正される。 In one example, if the object identification device 150 identifies that there is a shopping cart in the section m, the output Z t cam of the object identification device 150 represents the probability that the shopping cart exists, The probability calculation circuit 230 has the following formula (16):
Figure 2019178971
Is used to calculate the occupancy odds O 2 . Here, f 3, the following equation (17):
Figure 2019178971
Γ is a certain positive number. R γ is a range of values taken by logOdds (m | x t , Z t radar ) when a shopping cart exists in the block m. That is, the occupation odds O 2 calculated using the above equation (16) is corrected in the forward direction when a shopping cart exists in the section m, and the shopping cart can be easily detected by the radar. Thus, the weak reflection detected by the radar is corrected.

また、他の一例において、区画mにマンホールが存在すると物体識別装置150が識別した場合、物体識別装置150の出力Z camは、区画mにマンホールが存在する確率を表すとすれば、第2の確率計算回路230は、次の式(18):

Figure 2019178971
を用いて占有オッズOを計算する。ここで、ここで、fは、次の式(19):
Figure 2019178971
で定められる関数であり、δは、ある正の数である。また、Rδは、区画mにマンホールが存在する場合にlogOdds(m|x,Z radar)がとる値の範囲である。即ち、上述の式(18)を用いて計算された占有オッズOは、区画mにマンホールが存在する場合に負方向に補正され、レーダが検出したマンホールによる強い反射波の占有確率への影響が除去されるように補正される。 In another example, when the object identification device 150 identifies that a manhole exists in the section m, the output Z t cam of the object identification device 150 represents the probability that a manhole exists in the section m. The probability calculation circuit 230 of the following equation (18):
Figure 2019178971
Calculating the occupied odds O 2 used. Where f 4 is the following equation (19):
Figure 2019178971
Where δ is a certain positive number. R δ is a range of values taken by logOdds (m | x t , Z t radar ) when a manhole exists in the partition m. That is, the occupation odds O 2 calculated using the above equation (18) is corrected in the negative direction when a manhole exists in the section m, and the influence on the occupation probability of a strong reflected wave by the manhole detected by the radar. Is corrected to be removed.

例えば、第3の確率計算回路230は、次の式(20):

Figure 2019178971
を用いて占有オッズOの形式でP(m|x,Z cam’,Z cam)を計算する。占有オッズOは、撮像装置140による撮像画像Z cam’に加えて、物体識別装置150による識別結果Z camに依存する。 For example, the third probability calculation circuit 230 has the following formula (20):
Figure 2019178971
Is used to calculate P (m | x t , Z t cam ′ , Z t cam ) in the form of occupation odds O 3 . The occupation odds O 3 depends on the identification result Z t cam by the object identification device 150 in addition to the captured image Z t cam ′ by the imaging device 140.

ステップS150において、環境地図グリッド占有確率計算回路250は、各センサ装置が測定した位置を、センサ座標系から自車両の座標系に、続いて自車両の座標系からマップ座標に変換する。例えば、環境地図グリッド占有確率計算回路250は、必要に応じて、各センサ装置の設置情報(車両のおける位置及び向き)を用いて、占有オッズO〜Oの区画mのセンサ座標系における座標を、自車両の座標系に変換する。次いで、環境地図グリッド占有確率計算回路250は、離散時間tに応じて変化する自車両の位置xおよび向きに基づき、区画mの自車両の座標系における座標を、マップ座標に変換する。 In step S150, the environment map grid occupation probability calculation circuit 250 converts the position measured by each sensor device from the sensor coordinate system to the coordinate system of the host vehicle, and subsequently from the coordinate system of the host vehicle to the map coordinates. For example, the environment map grid occupation probability calculation circuit 250 uses the installation information (position and orientation in the vehicle) of each sensor device as necessary in the sensor coordinate system of the section m of the occupation odds O 1 to O 3 . The coordinates are converted into the coordinate system of the host vehicle. Next, the environment map grid occupancy probability calculation circuit 250 converts the coordinates in the coordinate system of the host vehicle of the section m into map coordinates based on the position xt and the direction of the host vehicle that change according to the discrete time t.

ステップS160において、環境地図グリッド占有確率計算回路250は、次の式(21):

Figure 2019178971
を用いて、環境地図(グリッドマップ)の区画mの融合占有確率(第2の占有確率)P(m|x1:t,Z1:t)を更新する。ここで、logOdds(m|x,Z)=logO+logO+logOである。 In step S160, the environment map grid occupation probability calculation circuit 250 calculates the following equation (21):
Figure 2019178971
Using fusion occupancy probability compartment m environment map (grid map) (second occupancy probability) P (m | x 1: t, Z 1: t) Update. Here, logOdds (m | x t , Z t ) = logO 1 + logO 2 + logO 3 .

ステップS170において、環境地図出力回路260は、各区画mに対して、融合占有確率P(m|x1:t,Z1:t)が更新された環境地図を出力する。出力された環境地図の各区画の情報は、ログオッズから変換された占有確率か、占有確率を閾値で切り上げ、各区画に物体存在するかしないかを二値で表してもよい、例えば、区画mの占有確率が閾値以上なら1を出力し、閾値以下なら0を出力する。所定の時間間隔で、ステップS110〜S170が繰り返される。 In step S170, the environmental map output circuit 260 outputs an environmental map in which the fusion occupation probability P (m | x 1: t , Z 1: t ) is updated for each section m. The information of each section of the output environmental map may be expressed as an occupancy probability converted from log odds, or the occupancy probability is rounded up by a threshold value, and binary indicating whether or not an object exists in each section, for example, section m 1 is output if the occupancy probability is greater than or equal to the threshold, and 0 is output if it is less than or equal to the threshold. Steps S110 to S170 are repeated at predetermined time intervals.

図3は、コンピュータのハードウェア構成の一例を示す図である。   FIG. 3 is a diagram illustrating an example of a hardware configuration of a computer.

上述した各実施の形態および各変形例における各部の機能は、コンピュータ2100が実行するプログラムにより実現される。   The function of each part in each embodiment and each modification described above is realized by a program executed by the computer 2100.

図3に示すように、コンピュータ2100は、上述の各種センサ装置、入力ボタン、タッチパッド等の入力装置2101、ディスプレイ、スピーカ等の出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)等の記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)等の情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。なお、各種センサ装置はUSBを通じてコンピュータ2100と接続してもよい。   As shown in FIG. 3, the computer 2100 includes the above-described various sensor devices, an input device 2101 such as an input button and a touch pad, an output device 2102 such as a display and a speaker, a CPU (Central Processing Unit) 2103, a ROM (Read Only Memory). ) 2104 and RAM (Random Access Memory) 2105. The computer 2100 includes a hard disk device, a storage device 2106 such as an SSD (Solid State Drive), a reading device 2107 that reads information such as a DVD-ROM (Digital Versatile Disk Read Only Memory) and a USB (Universal Serial Bus), and a network. A transmission / reception device 2108 that performs communication via the network is provided. Each unit described above is connected by a bus 2109. Various sensor devices may be connected to the computer 2100 through the USB.

そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。   Then, the reading device 2107 reads the program from a recording medium on which a program for realizing the functions of the above-described units is recorded, and stores the program in the storage device 2106. Alternatively, the transmission / reception device 2108 communicates with the server device connected to the network, and causes the storage device 2106 to store a program for realizing the function of each unit downloaded from the server device.

そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105又は記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。   Then, the CPU 2103 copies the program stored in the storage device 2106 to the RAM 2105, and sequentially reads out and executes the instructions included in the program from the RAM 2105, thereby realizing the functions of the above-described units. When executing the program, the RAM 2105 or the storage device 2106 stores information obtained by the various processes described in each embodiment, and appropriately uses the information.

本開示の実施の形態1によれば、センサ装置が測定する対象の種別に応じて、他のセンサ装置の測定値に基づいて計算された占有確率が補正される。したがって、例えば、他のセンサ装置が測定を苦手とする対象に絞って他のセンサ装置の測定値に基づく占有確率を調節することができ、他のセンサ装置の測定値の精度の悪化に起因する、回避すべき物体の検出漏れ、又は回避すべきでない物体の誤検出を低減できる。   According to the first embodiment of the present disclosure, the occupation probability calculated based on the measurement value of the other sensor device is corrected according to the type of the object measured by the sensor device. Therefore, for example, it is possible to adjust the occupation probability based on the measurement value of the other sensor device by focusing on the object that the other sensor device is not good at measurement, resulting from the deterioration of the accuracy of the measurement value of the other sensor device. Therefore, it is possible to reduce detection omission of an object to be avoided or false detection of an object that should not be avoided.

[他の実施の形態]
実施の形態1においては、センサ装置として、車両測位センサ110、ソナー120、レーダ130、撮像装置140、物体識別装置150を用いている。これらに加えて、又はこれらに代えて、他のセンサ装置、例えば、Lidar、照度センサ、車速センサ、ジャイロスコープを用いる実施の形態も考えられる。
[Other embodiments]
In the first embodiment, a vehicle positioning sensor 110, a sonar 120, a radar 130, an imaging device 140, and an object identification device 150 are used as sensor devices. In addition to or in place of these, embodiments using other sensor devices such as lidar, illuminance sensor, vehicle speed sensor, and gyroscope are also conceivable.

実施の形態1においては、式(10)、式(15)、及び式(20)に示されるように、占有オッズOの値が測定値Z uss及び識別結果Z camに、占有オッズOの値が測定値Z radar及び識別結果Z camに、占有オッズOの値が撮像画像Z cam’及び識別結果Z camに、それぞれ依存する。実施に当たり、追加で他のセンサ測定情報を使って補正しても良い。例えば、夜間は、昼間に比べて撮像装置140の画像が不鮮明になり、物体識別装置150の識別の精度も悪化する。したがって、例えば、照度センサが外光の強さを検出し、外光の強さがある閾値よりも小さい場合、占有オッズOの値が測定値Z uss及びZ radarに依存する実施の形態も考えられる。さらに、車両の置かれた状況において信頼度が高いセンサ装置が判明している場合、信頼度が低いセンサ装置の測定値に基づく占有オッズを、信頼度が高いセンサ装置の測定値に基づいて補正する実施の形態も考えられる。 In the first embodiment, as shown in Expression (10), Expression (15), and Expression (20), the value of the occupied odds O 1 becomes the occupied odds in the measured value Z t uss and the identification result Z t cam. The value of O 2 depends on the measured value Z t radar and the identification result Z t cam , and the value of the occupied odds O 3 depends on the captured image Z t cam ′ and the identification result Z t cam . In implementation, it may be corrected by using other sensor measurement information in addition. For example, at night, the image of the imaging device 140 becomes unclear compared to the daytime, and the identification accuracy of the object identification device 150 also deteriorates. Thus, for example, if the illuminance sensor detects ambient light intensity and the ambient light intensity is less than a certain threshold, the value of the occupancy odds O 3 depends on the measured values Z t uss and Z t radar. Forms are also conceivable. Furthermore, when a highly reliable sensor device is known in the situation where the vehicle is placed, the occupation odds based on the measured value of the sensor device with low reliability are corrected based on the measured value of the sensor device with high reliability. An embodiment is also conceivable.

図1に示される環境地図生成システム1においては、物体の種別を識別する物体識別装置150は、環境地図生成装置200と別体として設けられている。これに代えて、物体識別装置150を、例えば、環境地図生成装置200の第3の確率計算回路240に統合する実施の形態も考えられる。   In the environmental map generation system 1 shown in FIG. 1, an object identification device 150 that identifies the type of an object is provided as a separate body from the environmental map generation device 200. Instead of this, an embodiment in which the object identification device 150 is integrated into, for example, the third probability calculation circuit 240 of the environment map generation device 200 is also conceivable.

以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、開示の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。   While various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present disclosure. Understood. In addition, the constituent elements in the above embodiments may be arbitrarily combined within the scope not departing from the spirit of the disclosure.

[本開示のまとめ]
本開示の環境地図生成装置は、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算する第1の確率計算回路と、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する地図生成回路と、を備える。
[Summary of this disclosure]
The environmental map generation device according to the present disclosure is configured to determine the first position in the first region by the first sensor device and the feature of the first position identified by the second sensor device. A first probability calculation circuit for calculating a first occupation probability that an object at the first position exists, and an object exists for each position in the second region based on the first occupation probability. A map generation circuit for generating a map indicating the second occupation probability.

本開示の環境地図生成装置において、前記第2のセンサ装置は、撮像装置が撮像した画像に基づいて前記特徴を識別する。   In the environment map generation device of the present disclosure, the second sensor device identifies the feature based on an image captured by the imaging device.

本開示の環境地図生成装置において、前記特徴は、前記第1の位置を占有する物体の種別である。   In the environment map generation device of the present disclosure, the feature is a type of an object that occupies the first position.

本開示の環境地図生成装置において、前記種別は、歩行者、買い物カート、マンホール、又は降雪を含む。   In the environmental map generation device of the present disclosure, the type includes a pedestrian, a shopping cart, a manhole, or snowfall.

本開示の環境地図生成装置において、前記第1のセンサ装置は、レーダ又はソナーである。   In the environmental map generation device of the present disclosure, the first sensor device is a radar or a sonar.

本開示の環境地図生成装置において、前記種別が歩行者又は買い物カートである場合、前記第1の確率計算回路は、前記第1の位置の占有確率を増加させる。   In the environment map generation device of the present disclosure, when the type is a pedestrian or a shopping cart, the first probability calculation circuit increases the occupation probability of the first position.

本開示の環境地図生成装置において、前記種別が降雪、或いはマンホールである場合、前記第1の確率計算回路は、前記第1の位置の占有確率を減少させる。   In the environment map generation device of the present disclosure, when the type is snowfall or manhole, the first probability calculation circuit reduces the occupation probability of the first position.

本開示の環境地図生成装置において、前記地図は、グリッドマップである。   In the environment map generation device of the present disclosure, the map is a grid map.

本開示の環境地図生成方法は、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算し、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する。   The environmental map generation method according to the present disclosure is based on the measurement value of the first position in the first region by the first sensor device and the feature of the first position identified by the second sensor device. A first occupancy probability that an object exists at the first position is calculated, and a second occupancy probability that an object exists for each position in the second region is indicated based on the first occupancy probability Generate a map.

本開示の環境地図生成プログラムは、コンピュータに、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算させ、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成させる。   The environment map generation program according to the present disclosure causes a computer to respond to the measurement value of the first position in the first region by the first sensor device and the feature of the first position identified by the second sensor device. Calculating a first occupancy probability that an object exists at the first position and, based on the first occupancy probability, a second occupancy where an object exists for each position in the second region Generate a map showing the probability.

本開示は、環境地図を利用する運転補助技術に好適である。   The present disclosure is suitable for driving assistance technology using an environmental map.

1 環境地図生成システム
110 車両測位センサ
120 ソナー
130 レーダ
140 撮像装置
150 物体識別装置
200 環境地図生成装置
210 車両位置推定回路
220 第1の確率計算回路
230 第2の確率計算回路
240 第3の確率計算回路
250 環境地図グリッド占有確率計算回路
260 環境地図出力回路
DESCRIPTION OF SYMBOLS 1 Environment map generation system 110 Vehicle positioning sensor 120 Sonar 130 Radar 140 Imaging device 150 Object identification device 200 Environment map generation device 210 Vehicle position estimation circuit 220 1st probability calculation circuit 230 2nd probability calculation circuit 240 3rd probability calculation Circuit 250 Environmental map grid occupation probability calculation circuit 260 Environmental map output circuit

Claims (10)

第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算する第1の確率計算回路と、
前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する地図生成回路と、
を備える、
環境地図生成装置。
There is an object at the first position according to the measured value of the first position in the first region by the first sensor device and the characteristics of the first position identified by the second sensor device. A first probability calculation circuit for calculating a first occupation probability;
A map generation circuit that generates a map indicating a second occupation probability that an object exists for each position in the second region based on the first occupation probability;
Comprising
Environmental map generator.
前記第2のセンサ装置は、撮像装置が撮像した画像に基づいて前記特徴を識別する、請求項1に記載の環境地図生成装置。   The environment map generation device according to claim 1, wherein the second sensor device identifies the feature based on an image captured by the imaging device. 前記特徴は、前記第1の位置を占有する物体の種別である、
請求項1又は2に記載の環境地図生成装置。
The feature is a type of an object that occupies the first position.
The environmental map production | generation apparatus of Claim 1 or 2.
前記種別は、歩行者、買い物カート、マンホール、又は降雪を含む、
請求項3に記載の環境地図生成装置。
The type includes pedestrians, shopping carts, manholes, or snowfall,
The environmental map production | generation apparatus of Claim 3.
前記第1のセンサ装置は、レーダ又はソナーである、
請求項4に記載の環境地図生成装置。
The first sensor device is a radar or a sonar;
The environmental map production | generation apparatus of Claim 4.
前記種別が歩行者又は買い物カートである場合、前記第1の確率計算回路は、前記第1の位置の占有確率を増加させる、
請求項5に記載の環境地図生成装置。
When the type is a pedestrian or a shopping cart, the first probability calculation circuit increases the occupation probability of the first position.
The environmental map production | generation apparatus of Claim 5.
前記種別がマンホール又は降雪である場合、前記第1の確率計算回路は、前記第1の位置の占有確率を減少させる、
請求項4から6のいずれか一項に記載の環境地図生成装置。
When the type is manhole or snowfall, the first probability calculation circuit decreases the occupation probability of the first position.
The environmental map production | generation apparatus as described in any one of Claim 4 to 6.
前記地図は、グリッドマップである、
請求項1から7のいずれか一項に記載の環境地図生成装置。
The map is a grid map;
The environmental map production | generation apparatus as described in any one of Claim 1 to 7.
第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算し、
前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する、
環境地図生成方法。
There is an object at the first position according to the measured value of the first position in the first region by the first sensor device and the characteristics of the first position identified by the second sensor device. Calculate a first occupancy probability;
Based on the first occupancy probability, a map indicating a second occupancy probability that an object exists for each position in the second region is generated.
Environmental map generation method.
コンピュータに、
第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算させ、
前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成させる、
環境地図生成プログラム。
On the computer,
There is an object at the first position according to the measured value of the first position in the first region by the first sensor device and the characteristics of the first position identified by the second sensor device. Let the first occupancy probability be calculated,
Based on the first occupancy probability, a map indicating a second occupancy probability that an object exists for each position in the second region is generated.
Environmental map generation program.
JP2018068796A 2018-03-30 2018-03-30 Device, method, and program for generating environmental map Pending JP2019178971A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018068796A JP2019178971A (en) 2018-03-30 2018-03-30 Device, method, and program for generating environmental map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018068796A JP2019178971A (en) 2018-03-30 2018-03-30 Device, method, and program for generating environmental map

Publications (1)

Publication Number Publication Date
JP2019178971A true JP2019178971A (en) 2019-10-17

Family

ID=68278319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018068796A Pending JP2019178971A (en) 2018-03-30 2018-03-30 Device, method, and program for generating environmental map

Country Status (1)

Country Link
JP (1) JP2019178971A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022153586A1 (en) * 2021-01-13 2022-07-21 日立Astemo株式会社 Self-map generation device and self-position estimation device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005240545A (en) * 2004-02-11 2005-09-08 Delphi Technologies Inc Object detection system and method in powered door
JP2006234513A (en) * 2005-02-23 2006-09-07 Toyota Central Res & Dev Lab Inc Obstruction detection system
JP2009053925A (en) * 2007-08-27 2009-03-12 Toyota Motor Corp Behavior prediction device
JP2009174900A (en) * 2008-01-22 2009-08-06 Fujitsu Ten Ltd Object detecting device, object detection method, and object detecting system
JP2009236623A (en) * 2008-03-26 2009-10-15 Fujitsu Ten Ltd Object detector, periphery monitoring apparatus, driving support system, and object detection method
WO2012033173A1 (en) * 2010-09-08 2012-03-15 株式会社豊田中央研究所 Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method
JP2016156973A (en) * 2015-02-25 2016-09-01 パイオニア株式会社 Map data storage device, control method, program and recording medium
WO2017057058A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017224237A (en) * 2016-06-17 2017-12-21 日立オートモティブシステムズ株式会社 Peripheral environment recognition device
JP2018072105A (en) * 2016-10-27 2018-05-10 株式会社Soken Object detection device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005240545A (en) * 2004-02-11 2005-09-08 Delphi Technologies Inc Object detection system and method in powered door
JP2006234513A (en) * 2005-02-23 2006-09-07 Toyota Central Res & Dev Lab Inc Obstruction detection system
JP2009053925A (en) * 2007-08-27 2009-03-12 Toyota Motor Corp Behavior prediction device
JP2009174900A (en) * 2008-01-22 2009-08-06 Fujitsu Ten Ltd Object detecting device, object detection method, and object detecting system
JP2009236623A (en) * 2008-03-26 2009-10-15 Fujitsu Ten Ltd Object detector, periphery monitoring apparatus, driving support system, and object detection method
WO2012033173A1 (en) * 2010-09-08 2012-03-15 株式会社豊田中央研究所 Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method
JP2016156973A (en) * 2015-02-25 2016-09-01 パイオニア株式会社 Map data storage device, control method, program and recording medium
WO2017057058A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017224237A (en) * 2016-06-17 2017-12-21 日立オートモティブシステムズ株式会社 Peripheral environment recognition device
JP2018072105A (en) * 2016-10-27 2018-05-10 株式会社Soken Object detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022153586A1 (en) * 2021-01-13 2022-07-21 日立Astemo株式会社 Self-map generation device and self-position estimation device

Similar Documents

Publication Publication Date Title
CN108116408B (en) Multi-sensor probabilistic object and autobrake
JP2020057081A (en) Vacant parking space finding device and vacant parking space finding method
JP5729398B2 (en) On-vehicle target detection device
KR20210135389A (en) Apparatus for recognizing an obstacle, a vehicle system having the same and method thereof
JP2009508199A (en) Vehicle driving assistance method and improved related apparatus
US20210010814A1 (en) Robust localization
US11961306B2 (en) Object detection device
US20220075074A1 (en) Obstacle detection device and obstacle detection method
JP2011123551A (en) Dead corner area estimating device and program
CN111497741B (en) Collision early warning method and device
CN114945837A (en) Optical receiver, signal processing method for optical receiver, and distance measuring device
JP2001195700A (en) Device for detecting vehicle information
CN109263649B (en) Vehicle, object recognition method and object recognition system thereof in automatic driving mode
JP2007114056A (en) Object recognition device
JP2015148537A (en) Detector, detection method, and detection program
JP6555132B2 (en) Moving object detection device
JP2019178971A (en) Device, method, and program for generating environmental map
JP6333437B1 (en) Object recognition processing device, object recognition processing method, and vehicle control system
US11402487B2 (en) Joint radon transform association
CN112896070A (en) Parking space obstacle detection method and device and computer readable storage medium
JP2021135192A (en) Object detection device
US20230341542A1 (en) Use of camera information for radar beamforming
US20220413144A1 (en) Signal processing device, signal processing method, and distance measurement device
US20240104910A1 (en) Method and apparatus of obtaining position of stationary target
JP7401273B2 (en) Mobile body control device and method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220419