JP2019178971A - Device, method, and program for generating environmental map - Google Patents
Device, method, and program for generating environmental map Download PDFInfo
- Publication number
- JP2019178971A JP2019178971A JP2018068796A JP2018068796A JP2019178971A JP 2019178971 A JP2019178971 A JP 2019178971A JP 2018068796 A JP2018068796 A JP 2018068796A JP 2018068796 A JP2018068796 A JP 2018068796A JP 2019178971 A JP2019178971 A JP 2019178971A
- Authority
- JP
- Japan
- Prior art keywords
- probability
- map
- occupation
- sensor device
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本開示は、環境地図生成装置、環境地図生成方法、及び環境地図生成プログラムに関する。 The present disclosure relates to an environment map generation device, an environment map generation method, and an environment map generation program.
近年、自動車の自動運転技術等の運転補助技術の発展に伴い、自動車の置かれた状況を把握するための車載カメラ、車載ソナー、及び車載レーダといった様々な車載センサ装置の需要が高まっている。車載センサ装置には、様々な種類があり、その種類により動作原理及び動作特性が異なる。したがって、1つの車載センサ装置で車両の置かれる様々な状況に万能に対応することは困難である。そこで、車両の置かれる様々な状況に対応するために、複数の車載センサ装置が得意とする状況に応じて、それらの測定結果を融合するセンサフュージョン手法が提案されている。 In recent years, with the development of driving assistance technology such as automatic driving technology for automobiles, demands for various in-vehicle sensor devices such as an in-vehicle camera, an in-vehicle sonar, and an in-vehicle radar for grasping the situation where the automobile is placed are increasing. There are various types of in-vehicle sensor devices, and the operation principle and operation characteristics differ depending on the type. Therefore, it is difficult to cope with various situations where a vehicle is placed with a single in-vehicle sensor device. Therefore, in order to deal with various situations in which the vehicle is placed, a sensor fusion method has been proposed that fuses the measurement results according to the circumstances that the plurality of in-vehicle sensor devices are good at.
本開示の一態様は、センサフュージョン手法において、センサ装置の検出漏れ又は誤検出の確率を低減させる、改善された環境地図生成装置、環境地図生成方法、及び環境地図生成プログラムの提供に資する。 One aspect of the present disclosure contributes to the provision of an improved environment map generation device, an environment map generation method, and an environment map generation program that reduce the probability of detection omission or false detection of a sensor device in a sensor fusion technique.
本開示の一態様に係る環境地図生成装置は、第1のセンサ装置による第1の領域内の第1の位置の測定値及び、第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算する第1の確率計算回路と、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する地図生成回路と、を備える構成を採る。 An environment map generation device according to an aspect of the present disclosure includes a measurement value of a first position in a first region by a first sensor device and a feature of the first position identified by a second sensor device. And a first probability calculation circuit for calculating a first occupation probability that an object at the first position exists, and for each position in the second region based on the first occupation probability And a map generation circuit that generates a map indicating the second occupation probability that the object is present.
本開示の一態様に係る環境地図生成方法は、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算し、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する構成を採る。 The environmental map generation method according to an aspect of the present disclosure is based on the measurement value of the first position in the first region by the first sensor device and the feature of the first position identified by the second sensor device. In response, a first occupancy probability that an object at the first position exists is calculated, and based on the first occupancy probability, a second object exists for each position in the second region. The structure which produces | generates the map which shows an occupation probability is taken.
本開示の一態様に係る環境地図生成プログラムは、コンピュータに、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算させ、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成させる構成を採る。 An environment map generation program according to an aspect of the present disclosure is a computer in which a measured value of a first position in a first region by a first sensor device and the first position identified by a second sensor device The first occupancy probability that the object at the first position exists is calculated according to the characteristics of the object, and the object exists at each position in the second region based on the first occupancy probability. A configuration is adopted in which a map showing the second occupation probability is generated.
なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム、又は、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific aspects may be realized by a system, method, integrated circuit, computer program, or recording medium. Any of the system, apparatus, method, integrated circuit, computer program, and recording medium may be used. It may be realized by various combinations.
本開示の一態様によれば、センサフュージョン手法において、センサ装置の検出漏れ又は誤検出の確率を低減させる、改善された環境地図生成装置、環境地図生成方法、及び環境地図生成プログラムの提供に資する。 According to one aspect of the present disclosure, in the sensor fusion technique, it contributes to the provision of an improved environment map generation device, an environment map generation method, and an environment map generation program that reduce the probability of detection failure or false detection of the sensor device. .
本開示の一態様における更なる利点及び効果は、明細書及び図面から明らかにされる。かかる利点及び/又は効果は、いくつかの実施の形態並びに明細書及び図面に記載された特徴によってそれぞれ提供されるが、1つ又はそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。 Further advantages and effects in one aspect of the present disclosure will become apparent from the specification and drawings. Such advantages and / or effects are each provided by the features described in some embodiments and the specification and drawings, but not necessarily all in order to obtain one or more identical features. There is no need.
[本開示に至った経緯]
まず、センサフュージョン手法で用いられる環境地図について説明する。
[Background to the Disclosure]
First, an environmental map used in the sensor fusion method will be described.
<環境地図>
環境地図(OGM:Occupancy Grid Map)とは、自車両が観測する周辺領域を格子状に分割し、格子状に区分されて生成された各区画(以下、単に区画と称する)に対して、自車両が回避すべき物体によって当該区画が占有される確率をマップして得られる地図である。
<Environmental map>
The OGM (Occupancy Grid Map) is a map of the surrounding area observed by the host vehicle divided into grids and divided into grids (hereinafter simply referred to as "compartments"). It is a map obtained by mapping the probability that the section is occupied by an object to be avoided by the vehicle.
事象Xを、離散時刻1〜tの自車両の位置がx1:t(=(x1,x2,…,xt))であり、離散時刻1〜t−1のセンサ測定値がZ1:t-1(=(Z1,Z2,…,Zt-1))である時、離散時刻tのセンサ測定値がZtである事象とする。事象Aを、離散時刻1〜tの自車両の位置がx1:tであり、離散時刻1〜t−1のセンサ測定値がZ1:t−1である時、回避すべき物体によって区画mが占有される事象とする。なお、本開示において、センサ測定値は、スカラ値及びベクトル値のいずれであってもよい。
For event X, the position of the vehicle at discrete times 1 to t is x 1: t (= (x 1 , x 2 ,..., X t )), and the sensor measurement values at
次の式(1):
確率変数Ztは、確率変数x1:t−1及びZ1:t−1と独立であるとすると、次の式(3):
ここで、事象xに対し、オッズOdds(x)を次の式(7):
以下、離散時刻tに回避すべき物体によって区画mが占有される確率を、区画mの占有確率と称する。上述の式(9)は、離散時刻tにおける区画mの占有確率P(m|x1:t,Z1:t)が、離散時刻t−1における区画mの占有確率P(m|x1:t−1,Z1:t−1)=P(m|x1:t,Z1:t−1)と、離散時刻tにおける自車両の位置及びセンサ測定値がそれぞれxt及びZtである場合の区画mの占有確率P(m|xt,Zt)とから求められることを示している。即ち、離散時刻tにおける環境地図は、離散時刻t−1における環境地図と、離散時刻tにおける自車両の位置及びセンサ測定値がそれぞれxt及びZtである条件下における区画mの占有確率P(m|xt,Zt)とから求められる。言い換えると、離散時刻tにおける環境地図は、離散時刻1〜tまでの、センサ測定値に基づく区画mの占有確率P(m|xi,Zi),i=1〜tから求められる。
Hereinafter, the probability that the section m is occupied by the object to be avoided at the discrete time t is referred to as the occupation probability of the section m. The above equation (9), occupancy probability P compartment m at discrete time t (m | x 1: t , Z 1: t) is occupancy probability P compartment m at discrete time t-1 (m | x 1 : t-1, Z 1: t-1) = P (m | x 1: t, Z 1: t-1) and the discrete time x-position and the sensor measurements of the vehicle at t, respectively t and Z t It is shown that it is obtained from the occupation probability P (m | x t , Z t ) of the section m in the case of. That is, the environment map at the discrete time t is the environment map at the discrete time t−1 and the occupation probability P of the section m under the condition that the position of the vehicle and the sensor measurement values at the discrete time t are x t and Z t , respectively. (M | x t , Z t ) In other words, the environment map at the discrete time t is obtained from the occupation probabilities P (m | x i , Z i ) and i = 1 to t of the section m based on the sensor measurement values from the
<センサ測定値に基づく占有確率>
例えば、センサ測定値Ztがソナーの測定値Zt ussである場合を考察する。ソナーは、観測領域に向けて音波信号を発射し、反射波を検出し、測定値Zt ussを出力する。測定値Zt ussは、観測領域にある物体の位置情報と反射波の強度情報を含む。測定値Zt ussに基づいて、区画mの占有確率P(m|xt,Zt uss)が推定される。区画mの占有確率P(m|xt,Zt uss)は、あらかじめ実験を通じて得られた値に基づいて推定する。推定される区画mの占有確率P(m|xt,Zt uss)は、通常、検出された反射波の強度が反映された値である。反射波の強度が大きいほど、推定される区画mの占有確率P(m|xt,Zt uss)も大きくなる。
<Occupancy probability based on sensor measurement value>
For example, consider the case where the sensor measurement Z t is the sonar measurement Z t uss . The sonar emits a sound wave signal toward the observation area, detects a reflected wave, and outputs a measured value Z t uss . The measurement value Z t uss includes the position information of the object in the observation region and the intensity information of the reflected wave. Based on the measured value Z t uss , the occupation probability P (m | x t , Z t uss ) of the section m is estimated. Occupancy probability P compartment m (m | x t, Z t uss) is estimated based on a value obtained in advance through experiments. The estimated occupation probability P (m | x t , Z t uss ) of the section m is usually a value reflecting the intensity of the detected reflected wave. The greater the intensity of the reflected wave, the greater the occupation probability P (m | x t , Z t uss ) of the estimated section m.
図4は、ソナーSの観測値Zt ussに基づいて推定される区画mの占有確率P(m|xt,Zt uss)の説明図である。 FIG. 4 is an explanatory diagram of the occupation probability P (m | x t , Z t uss ) of the section m estimated based on the observed value Z t uss of the sonar S.
通常、ソナーSによる反射波の測定値Zt ussには、方位及び距離の検出誤差が含まれる。図4に示される説明図において、ソナーSが発射した音波信号は、例えば、物体Tに反射する。ソナーSは、物体Tによる反射波を検出する。グリッドマップGの区画mの占有確率P(m|xt,Zt uss)には、方位及び距離の検出誤差が反映させる。例えば、区画mがソナー測定値の位置情報成分及び誤差範囲で決められた扇型領域R1に含まれるとき、推定される区画mの占有確率P(m|xt,Zt uss)は、P(但し、0.5<P≦1)となる。また、区画mが扇型領域R2に含まれるとき、推定される区画mの占有確率P(m|xt,Zt uss)は、1−Pとなる。区画mがその他の領域に含まれるとき(即ち、ソナーの測定範囲外の区画)、推定される区画mの占有確率P(m|xt,Zt uss)は0.5となる。なお、Pの値は、反射強度が大きければ大きいほど、大きい数値をとる。例えば、Pの値は、以下の式で計算される。
ソナーSを、車両が回避すべき物体Tの検出に用いる場合を考える。車両が回避すべき物体Tとして、例えば、路上の歩行者、駐車場に放置された買い物用のカートが挙げられる。しかしながら、歩行者の皮膚や被服は、音波信号を反射しにくく、ソナーSが検出する反射波の強度も弱くなる。また、買い物用のカートは、網で構成される場合が多く、音波信号を反射する面積が小さいため、ソナーSが検出する反射波の強度が弱くなる。したがって、推定される区画mの占有確率P(m|Zt uss)が小さくなり、ソナーSは、歩行者、買い物用のカートの検出漏れを起こす可能性がある。 Consider a case where the sonar S is used to detect an object T that the vehicle should avoid. Examples of the object T to be avoided by the vehicle include a pedestrian on a road and a shopping cart left in a parking lot. However, the skin and clothes of pedestrians are difficult to reflect sound wave signals, and the intensity of reflected waves detected by the sonar S is also weakened. Further, a shopping cart is often composed of a net and has a small area for reflecting a sound wave signal, so that the intensity of the reflected wave detected by the sonar S becomes weak. Therefore, the occupation probability P (m | Z t uss ) of the estimated section m becomes small, and the sonar S may cause a detection failure of the pedestrian and the shopping cart.
一方、車両が回避すべきでない物体Tとして、例えば、降雪が挙げられる。車両の進行方向に降雪があっても、通常は、車両は降雪を回避すべきでない。しかしながら、雪がソナーSに付着する等の理由により、ソナーSが強度の大きい反射波を検出した場合、推定される区画mの占有確率P(m|Zt uss)が大きくなり、ソナーSは、降雪を回避すべき物体であると誤検出する可能性がある。一方、雪が音を吸収する性質により、雪が積もった物体の表面は、雪が積もってない場合と比較して反射波が弱くなることがあり、ソナーSは、回避すべき物体の検出漏れを起こす可能性がある。 On the other hand, as the object T that the vehicle should not avoid, for example, it is snowfall. Even if there is snow in the direction of travel of the vehicle, usually the vehicle should not avoid snow. However, when the sonar S detects a reflected wave having a high intensity due to, for example, snow adhering to the sonar S, the occupation probability P (m | Z t uss ) of the estimated section m increases, and the sonar S There is a possibility of false detection that the object should avoid snowfall. On the other hand, due to the nature of snow to absorb sound, the surface of an object covered with snow may have a weaker reflected wave than when no snow is accumulated, and sonar S may cause detection omission of an object to be avoided. There is sex.
したがって、検出漏れや誤検出を回避するために、センサフュージョン手法を用いて、ソナーが測定する対象の種別を、ソナーとは異なるセンサを用いて識別し、識別結果を用いて、推定される区画mの占有確率P(m|Zt uss)を補正することが考えられる。 Therefore, in order to avoid omissions and false detections, the sensor fusion technique is used to identify the type of object to be measured by the sonar using a sensor different from the sonar, and the estimated section using the identification result. It is conceivable to correct the occupation probability P (m | Z t uss ) of m.
特許文献1に記載の走行環境認識装置は、レーザレーダ、通信機及び地図データベース等のセンサ類ごとに占有グリッドマップ(環境地図)を作成し、自車両の走行の障害となるものの占有確率を計算する(段落[0028]、図2)。しかしながら、センサ類毎に占有グリッドマップを生成して融合計算を行っても、検出される物体の種別ごとに適切な占有確率を計算することは、困難である。
The driving environment recognition device described in
そこで、検出される物体の種別ごとに適切な占有確率を計算するために、本開示に至った。 Accordingly, the present disclosure has been reached in order to calculate an appropriate occupation probability for each type of detected object.
[実施の形態1]
以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、実施の形態において、同一の構成要素には同一の符号を付し、その説明は重複するので省略する。
[Embodiment 1]
Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In the embodiment, the same components are denoted by the same reference numerals, and the description thereof will be omitted because it is duplicated.
なお、以下に説明する実施の形態は一例であり、本開示は以下の実施の形態により限定されるものではない。 The embodiment described below is an example, and the present disclosure is not limited to the following embodiment.
図1は、本開示に係る環境地図生成システム1のブロック図である。
FIG. 1 is a block diagram of an environment
環境地図生成システム1は、車両測位センサ110と、ソナー120と、レーダ130と、撮像装置140と、物体識別装置(第2のセンサ装置)150と、環境地図生成装置200と、を備える。
The environment
車両測位センサ110は、自車両の位置及び向きを測定し、測位情報を出力する。車両測位センサ110は、例えば、GPS端末装置、Wi−Fi端末装置、又はETC2.0車載器である。
The
ソナー120は、観測領域に向けて音波を発射し、物体によって反射された反射波を受信する。次いで、ソナー120は、受信した反射波に基づいて、物体の位置、大きさ、又は方位を検出し、観測領域内の各位置に対する測定値Zt ussを出力する。
The
レーダ130は、観測領域に向けてレーダ波を発射し、物体によって反射された反射波を受信する。次いで、レーダ130は、受信した反射波に基づいて、物体の位置、大きさ、又は方位を検出し、観測領域内の各位置に対する測定値Zt radarを出力する。レーダ130は、例えば、ミリ波又はマイクロ波を用いる、パルス圧縮レーダ又は連続波レーダである。
The
撮像装置140は、撮像領域を撮像する。撮像領域は、例えば、車両前方、車両側方、車両後方といった、車両の外部である。撮像装置140は、例えば、車載単眼カメラ、車載ステレオカメラである。
The
ソナー120と、レーダ130と、撮像装置140とは、観測領域又は撮像領域(第1の領域)内の各位置(第1の位置)を測定するセンサ装置(第1のセンサ装置)として機能する。
The
物体識別装置150は、撮像装置140が撮像した画像から、物体の種別を識別し、識別結果を出力する。物体の種別は、例えば、歩行者、電柱、看板、買い物用のカート、降雪、マンホールである。例えば、撮像装置140が車載ステレオカメラである場合、物体識別装置150は、物体の種別に加えて、物体の位置を識別してもよい。物体識別装置150は、画像内に含まれる第1の位置の特徴を識別するセンサ装置(第2のセンサ装置)として機能する。
The
環境地図生成装置200は、車両位置推定回路210と、第1の確率計算回路220と、第2の確率計算回路230と、第3の確率計算回路240と、環境地図グリッド占有確率計算回路250と、環境地図出力回路260と、を備える。
The environment
車両位置推定回路210は、自車両の位置xt及び向きを推定する。例えば、車両位置推定回路210は、車両測位センサ110から測位情報を入力し、測位情報に基づいて自車両の位置xt及び向きを推定する。
The vehicle
第1の確率計算回路220は、ソナー120から測定値Zt ussを入力し、物体識別装置150から識別結果Zt camを入力する。次いで、第1の確率計算回路220は、測定値Zt uss及び識別結果Zt camに基づいて、区画mの占有オッズO1を計算する。計算の内容の詳細については、図2を参照して後述される。
The first
第2の確率計算回路230は、レーダ130から測定値Zt radarを入力し、物体識別装置150から識別結果Zt camを入力する。次いで、第2の確率計算回路230は、測定値Zt radar及び識別結果Zt camに基づいて、区画mの占有オッズO2を計算する。計算の内容の詳細については、図2を参照して後述される。
The second
第3の確率計算回路240は、撮像装置140から撮像画像Zt cam’を入力し、物体識別装置150から識別結果Zt camを入力する。次いで、第3の確率計算回路240は、撮像画像Zt cam’及び識別結果Zt camに基づいて、区画mの占有オッズO3を計算する。計算の内容の詳細については、図2を参照して後述される。
The third
環境地図グリッド占有確率計算回路250は、占有オッズO1〜O3の区画mを、センサ座標系から自車両の座標系に、続いて自車両の座標系から環境地図座標系に変換する。次いで、環境地図グリッド占有確率計算回路250は、占有オッズO1〜O3に基づいて、グリッドマップの各区画mに対して融合占有確率P(m|x1:t,Z1:t)を更新する。計算の内容の詳細については、図2を参照して後述される。
The environment map grid occupation
環境地図出力回路260は、更新された融合占有確率P(m|x1:t,Z1:t)に基づいて、グリッドマップの各区画(位置)mに対して、区画mが占有されている占有確率を示す環境地図を更新し、出力する。環境地図グリッド占有確率計算回路250と、環境地図出力回路260とは、第1の確率計算回路220、第2の確率計算回路230、第3の確率計算回路240の少なくとも1つが計算した占有確率に基づいて、グリッドマップ(第2の領域)内の各区画mに対して、融合占有確率(第2の占有確率)P(m|x1:t,Z1:t)を示す地図(環境地図)を生成する地図生成回路として動作する。
Environment
図2は、本開示に係る環境地図生成装置200の動作を示すフローチャートである。
FIG. 2 is a flowchart illustrating the operation of the environment
例えば、初期値として、グリッドマップの全ての区画mに対し、P(m|x0,Z0)=P(m|x0)=0.5に設定する。次いで、所定の時間間隔で、図2のステップS110からS170を実行することにより、融合占有確率P(m|x1:t,Z1:t)が更新され、環境地図も更新される。 For example, as an initial value, P (m | x 0 , Z 0 ) = P (m | x 0 ) = 0.5 is set for all sections m of the grid map. Next, by executing steps S110 to S170 of FIG. 2 at a predetermined time interval, the fusion occupation probability P (m | x 1: t , Z 1: t ) is updated, and the environment map is also updated.
ステップS110において、車両位置推定回路210は、自車両の位置及び向きを推定する。例えば、車両位置推定回路210は、車両測位センサ110から測位情報を入力し、測位情報に基づいて自車両の位置xt及び向きを推定する。
In step S110, the vehicle
ステップS120において、第1の確率計算回路220、第2の確率計算回路230、及び第3の確率計算回路240は、センサの測定値を受け取る。例えば、第1の確率計算回路220は、ソナー120から測定値Zt ussを受け取る。第2の確率計算回路230は、レーダ130から測定値Zt radarを受け取る。第3の確率計算回路240は、撮像装置140から撮像画像Zt cam’を受け取る。
In step S120, the first
ステップS130において、第1の確率計算回路220、第2の確率計算回路230及び第3の確率計算回路240は、物体識別装置150から、撮像画像に含まれる物体の識別結果Zt camを受け取る。識別結果Zt camは、例えば、区画mにある物体の種別を含む。
In step S <b> 130, the first
ステップS140において、第1の確率計算回路220、第2の確率計算回路230、及び第3の確率計算回路240は、測定値及び識別結果に基づいて、例えば、占有オッズO1〜O3の形式で占有確率を計算する。
In step S140, the first
例えば、第1の確率計算回路220は、次の式(10):
一例において、区画mに歩行者が存在すると物体識別装置150が識別した場合、例え、物体識別装置150の出力Zt camは、歩行者が存在する確率を表すとすれば、第1の確率計算回路220は、次の式(11):
また、他の一例において、区画mに降雪が存在すると物体識別装置150が識別した場合、物体識別装置150の出力Zt camは、降雪が存在する確率を表すとすれば、第1の確率計算回路220は、次の式(13):
例えば、第2の確率計算回路230は、次の式(15):
一例において、区画mに買い物用のカートが存在すると物体識別装置150が識別した場合、物体識別装置150の出力Zt camは、買い物用のカートが存在する確率を表すとすれば、第2の確率計算回路230は、次の式(16):
また、他の一例において、区画mにマンホールが存在すると物体識別装置150が識別した場合、物体識別装置150の出力Zt camは、区画mにマンホールが存在する確率を表すとすれば、第2の確率計算回路230は、次の式(18):
例えば、第3の確率計算回路230は、次の式(20):
ステップS150において、環境地図グリッド占有確率計算回路250は、各センサ装置が測定した位置を、センサ座標系から自車両の座標系に、続いて自車両の座標系からマップ座標に変換する。例えば、環境地図グリッド占有確率計算回路250は、必要に応じて、各センサ装置の設置情報(車両のおける位置及び向き)を用いて、占有オッズO1〜O3の区画mのセンサ座標系における座標を、自車両の座標系に変換する。次いで、環境地図グリッド占有確率計算回路250は、離散時間tに応じて変化する自車両の位置xtおよび向きに基づき、区画mの自車両の座標系における座標を、マップ座標に変換する。
In step S150, the environment map grid occupation
ステップS160において、環境地図グリッド占有確率計算回路250は、次の式(21):
ステップS170において、環境地図出力回路260は、各区画mに対して、融合占有確率P(m|x1:t,Z1:t)が更新された環境地図を出力する。出力された環境地図の各区画の情報は、ログオッズから変換された占有確率か、占有確率を閾値で切り上げ、各区画に物体存在するかしないかを二値で表してもよい、例えば、区画mの占有確率が閾値以上なら1を出力し、閾値以下なら0を出力する。所定の時間間隔で、ステップS110〜S170が繰り返される。
In step S170, the environmental
図3は、コンピュータのハードウェア構成の一例を示す図である。 FIG. 3 is a diagram illustrating an example of a hardware configuration of a computer.
上述した各実施の形態および各変形例における各部の機能は、コンピュータ2100が実行するプログラムにより実現される。
The function of each part in each embodiment and each modification described above is realized by a program executed by the
図3に示すように、コンピュータ2100は、上述の各種センサ装置、入力ボタン、タッチパッド等の入力装置2101、ディスプレイ、スピーカ等の出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)等の記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)等の情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。なお、各種センサ装置はUSBを通じてコンピュータ2100と接続してもよい。
As shown in FIG. 3, the
そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。
Then, the
そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105又は記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。
Then, the
本開示の実施の形態1によれば、センサ装置が測定する対象の種別に応じて、他のセンサ装置の測定値に基づいて計算された占有確率が補正される。したがって、例えば、他のセンサ装置が測定を苦手とする対象に絞って他のセンサ装置の測定値に基づく占有確率を調節することができ、他のセンサ装置の測定値の精度の悪化に起因する、回避すべき物体の検出漏れ、又は回避すべきでない物体の誤検出を低減できる。 According to the first embodiment of the present disclosure, the occupation probability calculated based on the measurement value of the other sensor device is corrected according to the type of the object measured by the sensor device. Therefore, for example, it is possible to adjust the occupation probability based on the measurement value of the other sensor device by focusing on the object that the other sensor device is not good at measurement, resulting from the deterioration of the accuracy of the measurement value of the other sensor device. Therefore, it is possible to reduce detection omission of an object to be avoided or false detection of an object that should not be avoided.
[他の実施の形態]
実施の形態1においては、センサ装置として、車両測位センサ110、ソナー120、レーダ130、撮像装置140、物体識別装置150を用いている。これらに加えて、又はこれらに代えて、他のセンサ装置、例えば、Lidar、照度センサ、車速センサ、ジャイロスコープを用いる実施の形態も考えられる。
[Other embodiments]
In the first embodiment, a
実施の形態1においては、式(10)、式(15)、及び式(20)に示されるように、占有オッズO1の値が測定値Zt uss及び識別結果Zt camに、占有オッズO2の値が測定値Zt radar及び識別結果Zt camに、占有オッズO3の値が撮像画像Zt cam’及び識別結果Zt camに、それぞれ依存する。実施に当たり、追加で他のセンサ測定情報を使って補正しても良い。例えば、夜間は、昼間に比べて撮像装置140の画像が不鮮明になり、物体識別装置150の識別の精度も悪化する。したがって、例えば、照度センサが外光の強さを検出し、外光の強さがある閾値よりも小さい場合、占有オッズO3の値が測定値Zt uss及びZt radarに依存する実施の形態も考えられる。さらに、車両の置かれた状況において信頼度が高いセンサ装置が判明している場合、信頼度が低いセンサ装置の測定値に基づく占有オッズを、信頼度が高いセンサ装置の測定値に基づいて補正する実施の形態も考えられる。
In the first embodiment, as shown in Expression (10), Expression (15), and Expression (20), the value of the occupied odds O 1 becomes the occupied odds in the measured value Z t uss and the identification result Z t cam. The value of O 2 depends on the measured value Z t radar and the identification result Z t cam , and the value of the occupied odds O 3 depends on the captured image Z t cam ′ and the identification result Z t cam . In implementation, it may be corrected by using other sensor measurement information in addition. For example, at night, the image of the
図1に示される環境地図生成システム1においては、物体の種別を識別する物体識別装置150は、環境地図生成装置200と別体として設けられている。これに代えて、物体識別装置150を、例えば、環境地図生成装置200の第3の確率計算回路240に統合する実施の形態も考えられる。
In the environmental
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、開示の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。 While various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present disclosure. Understood. In addition, the constituent elements in the above embodiments may be arbitrarily combined within the scope not departing from the spirit of the disclosure.
[本開示のまとめ]
本開示の環境地図生成装置は、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算する第1の確率計算回路と、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する地図生成回路と、を備える。
[Summary of this disclosure]
The environmental map generation device according to the present disclosure is configured to determine the first position in the first region by the first sensor device and the feature of the first position identified by the second sensor device. A first probability calculation circuit for calculating a first occupation probability that an object at the first position exists, and an object exists for each position in the second region based on the first occupation probability. A map generation circuit for generating a map indicating the second occupation probability.
本開示の環境地図生成装置において、前記第2のセンサ装置は、撮像装置が撮像した画像に基づいて前記特徴を識別する。 In the environment map generation device of the present disclosure, the second sensor device identifies the feature based on an image captured by the imaging device.
本開示の環境地図生成装置において、前記特徴は、前記第1の位置を占有する物体の種別である。 In the environment map generation device of the present disclosure, the feature is a type of an object that occupies the first position.
本開示の環境地図生成装置において、前記種別は、歩行者、買い物カート、マンホール、又は降雪を含む。 In the environmental map generation device of the present disclosure, the type includes a pedestrian, a shopping cart, a manhole, or snowfall.
本開示の環境地図生成装置において、前記第1のセンサ装置は、レーダ又はソナーである。 In the environmental map generation device of the present disclosure, the first sensor device is a radar or a sonar.
本開示の環境地図生成装置において、前記種別が歩行者又は買い物カートである場合、前記第1の確率計算回路は、前記第1の位置の占有確率を増加させる。 In the environment map generation device of the present disclosure, when the type is a pedestrian or a shopping cart, the first probability calculation circuit increases the occupation probability of the first position.
本開示の環境地図生成装置において、前記種別が降雪、或いはマンホールである場合、前記第1の確率計算回路は、前記第1の位置の占有確率を減少させる。 In the environment map generation device of the present disclosure, when the type is snowfall or manhole, the first probability calculation circuit reduces the occupation probability of the first position.
本開示の環境地図生成装置において、前記地図は、グリッドマップである。 In the environment map generation device of the present disclosure, the map is a grid map.
本開示の環境地図生成方法は、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算し、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する。 The environmental map generation method according to the present disclosure is based on the measurement value of the first position in the first region by the first sensor device and the feature of the first position identified by the second sensor device. A first occupancy probability that an object exists at the first position is calculated, and a second occupancy probability that an object exists for each position in the second region is indicated based on the first occupancy probability Generate a map.
本開示の環境地図生成プログラムは、コンピュータに、第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算させ、前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成させる。 The environment map generation program according to the present disclosure causes a computer to respond to the measurement value of the first position in the first region by the first sensor device and the feature of the first position identified by the second sensor device. Calculating a first occupancy probability that an object exists at the first position and, based on the first occupancy probability, a second occupancy where an object exists for each position in the second region Generate a map showing the probability.
本開示は、環境地図を利用する運転補助技術に好適である。 The present disclosure is suitable for driving assistance technology using an environmental map.
1 環境地図生成システム
110 車両測位センサ
120 ソナー
130 レーダ
140 撮像装置
150 物体識別装置
200 環境地図生成装置
210 車両位置推定回路
220 第1の確率計算回路
230 第2の確率計算回路
240 第3の確率計算回路
250 環境地図グリッド占有確率計算回路
260 環境地図出力回路
DESCRIPTION OF
Claims (10)
前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する地図生成回路と、
を備える、
環境地図生成装置。 There is an object at the first position according to the measured value of the first position in the first region by the first sensor device and the characteristics of the first position identified by the second sensor device. A first probability calculation circuit for calculating a first occupation probability;
A map generation circuit that generates a map indicating a second occupation probability that an object exists for each position in the second region based on the first occupation probability;
Comprising
Environmental map generator.
請求項1又は2に記載の環境地図生成装置。 The feature is a type of an object that occupies the first position.
The environmental map production | generation apparatus of Claim 1 or 2.
請求項3に記載の環境地図生成装置。 The type includes pedestrians, shopping carts, manholes, or snowfall,
The environmental map production | generation apparatus of Claim 3.
請求項4に記載の環境地図生成装置。 The first sensor device is a radar or a sonar;
The environmental map production | generation apparatus of Claim 4.
請求項5に記載の環境地図生成装置。 When the type is a pedestrian or a shopping cart, the first probability calculation circuit increases the occupation probability of the first position.
The environmental map production | generation apparatus of Claim 5.
請求項4から6のいずれか一項に記載の環境地図生成装置。 When the type is manhole or snowfall, the first probability calculation circuit decreases the occupation probability of the first position.
The environmental map production | generation apparatus as described in any one of Claim 4 to 6.
請求項1から7のいずれか一項に記載の環境地図生成装置。 The map is a grid map;
The environmental map production | generation apparatus as described in any one of Claim 1 to 7.
前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成する、
環境地図生成方法。 There is an object at the first position according to the measured value of the first position in the first region by the first sensor device and the characteristics of the first position identified by the second sensor device. Calculate a first occupancy probability;
Based on the first occupancy probability, a map indicating a second occupancy probability that an object exists for each position in the second region is generated.
Environmental map generation method.
第1のセンサ装置による第1の領域内の第1の位置の測定値及び第2のセンサ装置により識別された前記第1の位置の特徴に応じて、前記第1の位置における物体が存在する第1の占有確率を計算させ、
前記第1の占有確率に基づいて、第2の領域内の各位置に対して物体が存在する第2の占有確率を示す地図を生成させる、
環境地図生成プログラム。 On the computer,
There is an object at the first position according to the measured value of the first position in the first region by the first sensor device and the characteristics of the first position identified by the second sensor device. Let the first occupancy probability be calculated,
Based on the first occupancy probability, a map indicating a second occupancy probability that an object exists for each position in the second region is generated.
Environmental map generation program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018068796A JP2019178971A (en) | 2018-03-30 | 2018-03-30 | Device, method, and program for generating environmental map |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018068796A JP2019178971A (en) | 2018-03-30 | 2018-03-30 | Device, method, and program for generating environmental map |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019178971A true JP2019178971A (en) | 2019-10-17 |
Family
ID=68278319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018068796A Pending JP2019178971A (en) | 2018-03-30 | 2018-03-30 | Device, method, and program for generating environmental map |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019178971A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022153586A1 (en) * | 2021-01-13 | 2022-07-21 | 日立Astemo株式会社 | Self-map generation device and self-position estimation device |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005240545A (en) * | 2004-02-11 | 2005-09-08 | Delphi Technologies Inc | Object detection system and method in powered door |
JP2006234513A (en) * | 2005-02-23 | 2006-09-07 | Toyota Central Res & Dev Lab Inc | Obstruction detection system |
JP2009053925A (en) * | 2007-08-27 | 2009-03-12 | Toyota Motor Corp | Behavior prediction device |
JP2009174900A (en) * | 2008-01-22 | 2009-08-06 | Fujitsu Ten Ltd | Object detecting device, object detection method, and object detecting system |
JP2009236623A (en) * | 2008-03-26 | 2009-10-15 | Fujitsu Ten Ltd | Object detector, periphery monitoring apparatus, driving support system, and object detection method |
WO2012033173A1 (en) * | 2010-09-08 | 2012-03-15 | 株式会社豊田中央研究所 | Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method |
JP2016156973A (en) * | 2015-02-25 | 2016-09-01 | パイオニア株式会社 | Map data storage device, control method, program and recording medium |
WO2017057058A1 (en) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017224237A (en) * | 2016-06-17 | 2017-12-21 | 日立オートモティブシステムズ株式会社 | Peripheral environment recognition device |
JP2018072105A (en) * | 2016-10-27 | 2018-05-10 | 株式会社Soken | Object detection device |
-
2018
- 2018-03-30 JP JP2018068796A patent/JP2019178971A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005240545A (en) * | 2004-02-11 | 2005-09-08 | Delphi Technologies Inc | Object detection system and method in powered door |
JP2006234513A (en) * | 2005-02-23 | 2006-09-07 | Toyota Central Res & Dev Lab Inc | Obstruction detection system |
JP2009053925A (en) * | 2007-08-27 | 2009-03-12 | Toyota Motor Corp | Behavior prediction device |
JP2009174900A (en) * | 2008-01-22 | 2009-08-06 | Fujitsu Ten Ltd | Object detecting device, object detection method, and object detecting system |
JP2009236623A (en) * | 2008-03-26 | 2009-10-15 | Fujitsu Ten Ltd | Object detector, periphery monitoring apparatus, driving support system, and object detection method |
WO2012033173A1 (en) * | 2010-09-08 | 2012-03-15 | 株式会社豊田中央研究所 | Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method |
JP2016156973A (en) * | 2015-02-25 | 2016-09-01 | パイオニア株式会社 | Map data storage device, control method, program and recording medium |
WO2017057058A1 (en) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017224237A (en) * | 2016-06-17 | 2017-12-21 | 日立オートモティブシステムズ株式会社 | Peripheral environment recognition device |
JP2018072105A (en) * | 2016-10-27 | 2018-05-10 | 株式会社Soken | Object detection device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022153586A1 (en) * | 2021-01-13 | 2022-07-21 | 日立Astemo株式会社 | Self-map generation device and self-position estimation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108116408B (en) | Multi-sensor probabilistic object and autobrake | |
JP2020057081A (en) | Vacant parking space finding device and vacant parking space finding method | |
JP5729398B2 (en) | On-vehicle target detection device | |
KR20210135389A (en) | Apparatus for recognizing an obstacle, a vehicle system having the same and method thereof | |
JP2009508199A (en) | Vehicle driving assistance method and improved related apparatus | |
US20210010814A1 (en) | Robust localization | |
US11961306B2 (en) | Object detection device | |
US20220075074A1 (en) | Obstacle detection device and obstacle detection method | |
JP2011123551A (en) | Dead corner area estimating device and program | |
CN111497741B (en) | Collision early warning method and device | |
CN114945837A (en) | Optical receiver, signal processing method for optical receiver, and distance measuring device | |
JP2001195700A (en) | Device for detecting vehicle information | |
CN109263649B (en) | Vehicle, object recognition method and object recognition system thereof in automatic driving mode | |
JP2007114056A (en) | Object recognition device | |
JP2015148537A (en) | Detector, detection method, and detection program | |
JP6555132B2 (en) | Moving object detection device | |
JP2019178971A (en) | Device, method, and program for generating environmental map | |
JP6333437B1 (en) | Object recognition processing device, object recognition processing method, and vehicle control system | |
US11402487B2 (en) | Joint radon transform association | |
CN112896070A (en) | Parking space obstacle detection method and device and computer readable storage medium | |
JP2021135192A (en) | Object detection device | |
US20230341542A1 (en) | Use of camera information for radar beamforming | |
US20220413144A1 (en) | Signal processing device, signal processing method, and distance measurement device | |
US20240104910A1 (en) | Method and apparatus of obtaining position of stationary target | |
JP7401273B2 (en) | Mobile body control device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190625 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191021 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211026 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220419 |