JP7318521B2 - Estimation device, estimation method, estimation program - Google Patents

Estimation device, estimation method, estimation program Download PDF

Info

Publication number
JP7318521B2
JP7318521B2 JP2019235208A JP2019235208A JP7318521B2 JP 7318521 B2 JP7318521 B2 JP 7318521B2 JP 2019235208 A JP2019235208 A JP 2019235208A JP 2019235208 A JP2019235208 A JP 2019235208A JP 7318521 B2 JP7318521 B2 JP 7318521B2
Authority
JP
Japan
Prior art keywords
error
observation
estimation
observation error
irradiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019235208A
Other languages
Japanese (ja)
Other versions
JP2021103148A (en
Inventor
龍介 大畠
謙一 柳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019235208A priority Critical patent/JP7318521B2/en
Publication of JP2021103148A publication Critical patent/JP2021103148A/en
Application granted granted Critical
Publication of JP7318521B2 publication Critical patent/JP7318521B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Navigation (AREA)

Description

本開示は、車両の位置を含む状態量を、推定する推定技術に関する。 The present disclosure relates to an estimation technique for estimating state quantities including vehicle positions.

従来、外界へのビーム照射により観測したターゲットからのビーム反射を受けて光学画像を出力する光学センサが、車両には搭載されている。こうした光学センサから所定の照射レンジでのビーム照射により出力される光学画像に基づくことで、車両の状態量が推定される。 2. Description of the Related Art Conventionally, a vehicle is equipped with an optical sensor that outputs an optical image by receiving a beam reflection from a target observed by irradiating the beam to the outside world. The state quantity of the vehicle is estimated based on an optical image output from such an optical sensor by beam irradiation in a predetermined irradiation range.

さて、特許文献1に開示される技術では、光学センサとしてのLIDARセンサによる走査結果に基づいて走行状況が決定され、照射レンジとなる走査範囲の方位が当該決定状況に依存するように制御されている。 Now, in the technology disclosed in Patent Document 1, the driving situation is determined based on the scanning result by the LIDAR sensor as an optical sensor, and the direction of the scanning range, which is the irradiation range, is controlled so as to depend on the determined situation. there is

特表2019―507326号公報Japanese Patent Publication No. 2019-507326

しかし、光学センサの出力する光学画像が状態量の推定に利用される場合、特許文献1の開示技術のように走査範囲の方位が変更されると、状態量の推定精度が変動してしまう。この推定精度の変動原理について、説明する。 However, when the optical image output by the optical sensor is used for estimating the state quantity, the accuracy of estimating the state quantity fluctuates if the orientation of the scanning range is changed as in the technique disclosed in Patent Document 1. The principle of variation in estimation accuracy will be described.

図28に示すように、光学センサのビーム直交方向においてターゲットの測距に生じる誤差Emoは、前後方向Xの前後観測誤差(図示しない)と左右方向Yの左右観測誤差Eoyに座標変換可能である。これら前後観測誤差と左右観測誤差Eoyとは、走査範囲におけるビームステアリング角度に応じて、個別に変動する。このような現象は、ビーム平行方向においてターゲットの測距に生じる誤差についても、同様に発現する。 As shown in FIG. 28, the error Emo that occurs in the range measurement of the target in the beam orthogonal direction of the optical sensor can be coordinate-converted into a front-back observation error (not shown) in the front-back direction X and a left-right observation error Eoy in the left-right direction Y. . These front-back observation error and left-right observation error Eoy vary independently according to the beam steering angle in the scanning range. Such a phenomenon similarly occurs with respect to errors occurring in target range finding in the beam parallel direction.

こうした知見から、走行状況に依存して走査範囲の方位が変更される場合、当該方位変更に伴って前後観測誤差と左右観測誤差Eoyとの分布が変化する。その結果、前後観測誤差及び左右観測誤差Eoyの影響した光学画像に基づく状態量推定では、前後方向Xと左右方向Yとにおいて方位変更に伴う推定誤差の変動が惹起されてしまう。 Based on this knowledge, when the orientation of the scanning range is changed depending on the driving situation, the distribution of the front-back observation error and the left-right observation error Eoy changes along with the orientation change. As a result, in the state quantity estimation based on the optical image affected by the front-back observation error and the left-right observation error Eoy, the estimation error changes in the front-back direction X and the left-right direction Y due to the orientation change.

本開示の課題は、状態量の推定精度を高める推定装置を、提供することにある。本開示の別の課題は、状態量の推定精度を高める推定方法を、提供することにある。本開示のさらに別の課題は、状態量の推定精度を高める推定プログラムを、提供することにある。 An object of the present disclosure is to provide an estimating device that improves the accuracy of estimating state quantities. Another object of the present disclosure is to provide an estimation method that increases the accuracy of estimating state quantities. Yet another object of the present disclosure is to provide an estimation program that improves the accuracy of estimating state quantities.

以下、課題を解決するための本開示の技術的手段について、説明する。尚、特許請求の範囲及び本欄に記載された括弧内の符号は、後に詳述する実施形態に記載された具体的手段との対応関係を示すものであり、本開示の技術的範囲を限定するものではない。 Technical means of the present disclosure for solving the problems will be described below. It should be noted that the symbols in parentheses described in the claims and this column indicate the correspondence with specific means described in the embodiments described in detail later, and limit the technical scope of the present disclosure. not something to do.

本開示の第一態様は、
外界へのビーム照射により観測したターゲット(6)からのビーム反射を受けて光学画像(Is)を出力する光学センサ(30)を、搭載した車両(4)の位置を含む状態量(Z)を、推定する推定装置(1)であって、
前後方向(X)に沿う基準方位(Bs)から側方へ広がる照射レンジ(Θs)でのビーム照射に応じてターゲットまでの距離値がデータ化されて光学センサから出力される光学画像に基づいて、状態量を推定する状態量推定部(100)と、
状態量の推定に生じる推定誤差であって、光学画像に対する地図情報(Im)のマッチング処理による観測残差(Δox,Δoy)に対する推定誤差として、前後方向(X)における前後推定誤差(Eex)及び左右方向(Y)における左右推定誤差(Eey)を取得する推定誤差取得部(120)と、
光学センサによるターゲットの観測に生じる観測誤差であって、マッチング処理による観測残差に応じた観測誤差として、前後方向(X)における前後観測誤差(Eox)及び左右方向(Y)における左右観測誤差(Eoy)を、照射レンジにおける照射タイミング(t)毎のビームステアリング角度(θ)に対応付けて取得する観測誤差取得部(160)と、
前後推定誤差及び左右推定誤差のうち大きい側を大側推定誤差と定義し、前後観測誤差及び左右観測誤差のうち小さい側を小側観測誤差と定義すると、大側推定誤差と小側観測誤差とが同方向となるビームステアリング角度に集中する指向パターン(Psd)へ、照射レンジでの照射タイミング毎のビームステアリング角度に応じた照射密度の分布であるビームパターン(Ps)を調整するビーム調整部(180)とを、備える。
A first aspect of the present disclosure is
The state quantity (Z) including the position of the vehicle (4) equipped with the optical sensor (30) that receives the beam reflection from the target (6) observed by the beam irradiation to the outside and outputs the optical image (Is) is , an estimating device (1) for estimating
Based on the optical image output from the optical sensor , the distance value to the target is digitized according to the beam irradiation in the irradiation range (Θs) that spreads laterally from the reference bearing (Bs) along the longitudinal direction (X). , a state quantity estimator (100) for estimating the state quantity;
An estimation error that occurs in the estimation of the state quantity, the estimation error for the observation residual (Δox, Δoy) due to the matching process of the map information (Im) for the optical image, the front-back estimation error (Eex) in the front-back direction (X) and an estimated error acquisition unit (120) that acquires a left-right estimated error (Eey) in the left-right direction (Y);
Observation errors occurring in the observation of the target by the optical sensor, which are observation errors corresponding to the observation residuals due to the matching process , are the front-back observation error (Eox) in the front-back direction (X) and the left-right observation error in the left-right direction (Y) ( Eoy) in association with the beam steering angle (θ) for each irradiation timing (t) in the irradiation range;
If the larger of the front-back estimation error and the left-right estimation error is defined as the large-side estimation error, and the smaller one of the front-back observation error and the left-right observation error is defined as the small-side observation error, then the large-side estimation error and the small-side observation error are defined as A beam adjustment unit ( 180).

本開示の第二態様は、
外界へのビーム照射により観測したターゲット(6)からのビーム反射を受けて光学画像(Is)を出力する光学センサ(30)を、搭載した車両(4)の位置を含む状態量(Z)を、推定するためにプロセッサ(12)により実行される推定方法であって、
前後方向(X)に沿う基準方位(Bs)から側方へ広がる照射レンジ(Θs)でのビーム照射に応じてターゲットまでの距離値がデータ化されて光学センサから出力される光学画像に基づいて、状態量を推定する状態量推定プロセス(S10)と、
状態量の推定に生じる推定誤差であって、光学画像に対する地図情報(Im)のマッチング処理による観測残差(Δox,Δoy)に対する推定誤差として、前後方向(X)における前後推定誤差(Eex)及び左右方向(Y)における左右推定誤差(Eey)を取得する推定誤差取得プロセス(S20)と、
光学センサによるターゲットの観測に生じる観測誤差であって、マッチング処理による観測残差に応じた観測誤差として、前後方向(X)における前後観測誤差(Eox)及び左右方向(Y)における左右観測誤差(Eoy)を、照射レンジにおける照射タイミング(t)毎のビームステアリング角度(θ)に対応付けて取得する観測誤差取得プロセス(S40)と、
前後推定誤差及び左右推定誤差のうち大きい側を大側推定誤差と定義し、前後観測誤差及び左右観測誤差のうち小さい側を小側観測誤差と定義すると、大側推定誤差と小側観測誤差とが同方向となるビームステアリング角度に集中する指向パターン(Psd)へ、照射レンジでの照射タイミング毎のビームステアリング角度に応じた照射密度の分布であるビームパターン(Ps)を調整するビーム調整プロセス(S50)とを、含む。
A second aspect of the present disclosure is
The state quantity (Z) including the position of the vehicle (4) equipped with the optical sensor (30) that receives the beam reflection from the target (6) observed by the beam irradiation to the outside and outputs the optical image (Is) is , an estimation method performed by a processor (12) to estimate
Based on the optical image output from the optical sensor , the distance value to the target is digitized according to the beam irradiation in the irradiation range (Θs) that spreads laterally from the reference bearing (Bs) along the longitudinal direction (X). , a state quantity estimation process (S10) for estimating the state quantity;
An estimation error that occurs in the estimation of the state quantity, the estimation error for the observation residual (Δox, Δoy) due to the matching process of the map information (Im) for the optical image, the front-back estimation error (Eex) in the front-back direction (X) and an estimation error acquisition process (S20) for acquiring a left-right estimation error (Eey) in the left-right direction (Y);
Observation errors occurring in the observation of the target by the optical sensor, which are observation errors corresponding to the observation residuals due to the matching process , are the front-back observation error (Eox) in the front-back direction (X) and the left-right observation error in the left-right direction (Y) ( Eoy) is acquired in association with the beam steering angle (θ) for each irradiation timing (t) in the irradiation range (S40);
If the larger of the front-back estimation error and the left-right estimation error is defined as the large-side estimation error, and the smaller one of the front-back observation error and the left-right observation error is defined as the small-side observation error, then the large-side estimation error and the small-side observation error are defined as A beam adjustment process ( S50).

本開示の第三態様は、
外界へのビーム照射により観測したターゲット(6)からのビーム反射を受けて光学画像(Is)を出力する光学センサ(30)を、搭載した車両(4)の位置を含む状態量(Z)を、推定するために記憶媒体(10)に格納され、プロセッサ(12)に実行させる命令を含む推定プログラムであって、
命令は、
前後方向(X)に沿う基準方位(Bs)から側方へ広がる照射レンジ(Θs)でのビーム照射に応じてターゲットまでの距離値がデータ化されて光学センサから出力される光学画像に基づいて、状態量を推定させる状態量推定プロセス(S10)と、
状態量の推定に生じる推定誤差であって、光学画像に対する地図情報(Im)のマッチング処理による観測残差(Δox,Δoy)に対する誤差として、前後方向(X)における前後推定誤差(Eex)及び左右方向(Y)における左右推定誤差(Eey)を取得させる推定誤差取得プロセス(S20)と、
光学センサによるターゲットの観測に生じる観測誤差であって、マッチング処理による観測残差に応じた観測誤差として、前後方向(X)における前後観測誤差(Eox)及び左右方向(Y)における左右観測誤差(Eoy)を、照射レンジにおける照射タイミング(t)毎のビームステアリング角度(θ)に対応付けて取得させる観測誤差取得プロセス(S40)と、
前後推定誤差及び左右推定誤差のうち大きい側を大側推定誤差と定義し、前後観測誤差及び左右観測誤差のうち小さい側を小側観測誤差と定義すると、大側推定誤差と小側観測誤差とが同方向となるビームステアリング角度に集中する指向パターン(Psd)へ、照射レンジでの照射タイミング毎のビームステアリング角度に応じた照射密度の分布であるビームパターン(Ps)を調整させるビーム調整プロセス(S50)とを、含む。
A third aspect of the present disclosure is
The state quantity (Z) including the position of the vehicle (4) equipped with the optical sensor (30) that receives the beam reflection from the target (6) observed by the beam irradiation to the outside and outputs the optical image (Is) is , an estimation program stored in a storage medium (10) and comprising instructions for execution by a processor (12) to estimate,
the instruction is
Based on the optical image output from the optical sensor , the distance value to the target is digitized according to the beam irradiation in the irradiation range (Θs) that spreads laterally from the reference bearing (Bs) along the longitudinal direction (X). , a state quantity estimation process (S10) for estimating a state quantity;
As an estimation error that occurs in the estimation of the state quantity, the error for the observation residual (Δox, Δoy) due to the matching process of the map information (Im) with respect to the optical image, the front-back estimation error (Eex) in the front-back direction (X) and the left and right an estimation error acquisition process (S20) for acquiring a left-right estimation error (Eey) in the direction (Y);
Observation errors occurring in the observation of the target by the optical sensor, which are observation errors corresponding to the observation residuals due to the matching process , are the front-back observation error (Eox) in the front-back direction (X) and the left-right observation error in the left-right direction (Y) ( Eoy) is acquired in association with the beam steering angle (θ) for each irradiation timing (t) in the irradiation range (S40);
If the larger of the front-back estimation error and the left-right estimation error is defined as the large-side estimation error, and the smaller one of the front-back observation error and the left-right observation error is defined as the small-side observation error, then the large-side estimation error and the small-side observation error are defined as A beam adjustment process ( S50).

これら第一~第三態様のビームパターンは、前後方向に沿う基準方位から側方へ広がる光学センサの照射レンジにおいて、特定のビームステアリング角度に集中する指向パターンへと調整される。ここで特定のビームステアリング角度によると、状態量推定に生じる前後推定誤差及び左右推定誤差のうち大側推定誤差と、ターゲット観測に生じる前後観測誤差及び左右観測誤差のうち小側観測誤差とが、同方向となる。これによれば、大側推定誤差を低減可能なターゲットの観測確率が高いビームステアリング角度に対して、ビーム照射を集中させ得る。故に、指向パターンに従うビーム照射に応じて光学センサから出力の光学画像に基づいた状態量推定では、大側推定誤差を低減させて状態量の推定精度を高めることが可能となる。 The beam patterns of the first to third aspects are adjusted to a directivity pattern centered at a specific beam steering angle in the illumination range of the optical sensor extending laterally from the reference orientation along the longitudinal direction. Here, according to a specific beam steering angle, the large estimation error of the front-back estimation error and the left-right estimation error occurring in the state quantity estimation, and the small-side observation error of the front-back observation error and the left-right observation error occurring in the target observation are: same direction. According to this, the beam irradiation can be concentrated on the beam steering angle with a high target observation probability that can reduce the large-side estimation error. Therefore, in the state quantity estimation based on the optical image output from the optical sensor according to the beam irradiation according to the directivity pattern, it is possible to reduce the large-side estimation error and improve the estimation accuracy of the state quantity.

一実施形態による推定装置と共に車両に搭載される光学センサを説明するための模式図である。It is a schematic diagram for demonstrating the optical sensor mounted in a vehicle with the estimation apparatus by one Embodiment. 一実施形態による推定装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the estimation apparatus by one Embodiment. 一実施形態による推定装置の具体的構成を示すブロック図である。1 is a block diagram showing a specific configuration of an estimation device according to one embodiment; FIG. 図1~3の光学センサを説明するための模式図である。FIG. 4 is a schematic diagram for explaining the optical sensor of FIGS. 1 to 3; FIG. 図3の状態量推定ブロックを詳細に示すブロック図である。4 is a block diagram showing in detail a state quantity estimation block of FIG. 3; FIG. 図3の観測誤差取得ブロック及びビーム調整ブロックを詳細に示すブロック図である。FIG. 4 is a detailed block diagram of an observation error acquisition block and a beam adjustment block of FIG. 3; 図6の最短距離特定サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a shortest distance specifying sub-block in FIG. 6; 図6の測距誤差取得サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a ranging error acquisition sub-block in FIG. 6; 図6の測距誤差取得サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a ranging error acquisition sub-block in FIG. 6; 図6の実測誤差取得サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining an actual measurement error acquisition sub-block in FIG. 6; 図6の実測誤差取得サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining an actual measurement error acquisition sub-block in FIG. 6; 図6の観測誤差平滑サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining an observation error smoothing sub-block in FIG. 6; 図6の観測誤差平滑サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining an observation error smoothing sub-block in FIG. 6; 図6のゲイン設定サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a gain setting sub-block in FIG. 6; FIG. 図6のゲイン設定サブブロック及びパターン更新サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a gain setting sub-block and a pattern updating sub-block in FIG. 6; 図6のゲイン設定サブブロック及びパターン更新サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a gain setting sub-block and a pattern updating sub-block in FIG. 6; 図6のゲイン制限サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a gain limiting sub-block in FIG. 6; FIG. 図6のゲイン制限サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a gain limiting sub-block in FIG. 6; FIG. 図6のパターン更新サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a pattern update sub-block in FIG. 6; 図6のパターン更新サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a pattern update sub-block in FIG. 6; 図6のパターン更新サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a pattern update sub-block in FIG. 6; 図6のパターン更新サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a pattern update sub-block in FIG. 6; 図6のパターン更新サブブロックを説明するための模式図である。FIG. 7 is a schematic diagram for explaining a pattern update sub-block in FIG. 6; 一実施形態による推定方法のフローを示すフローチャートである。1 is a flow chart showing the flow of an estimation method according to one embodiment; 図24のS10を詳細に示すフローチャートである。25 is a flowchart showing in detail S10 of FIG. 24; 図24のS40を詳細に示すフローチャートである。25 is a flowchart showing in detail S40 of FIG. 24; 図24のS50を詳細に示すフローチャートである。25 is a flowchart showing in detail S50 of FIG. 24; 従来の課題を説明するための模式図である。It is a schematic diagram for demonstrating the conventional problem.

以下、一実施形態を図面に基づいて説明する。 An embodiment will be described below with reference to the drawings.

図1,2に示すように、一実施形態による推定装置1は、地図ユニット2及びセンサユニット3と共に、車両4に搭載される。車両4は、推定装置1による運動推定結果に基づいて走行する、例えば高度運転支援車又は自動運転車等である。尚、水平面上の車両4における水平方向のうち、当該車両4の直進方向が、前後方向Xと定義される。また、水平面上の車両4における水平方向のうち、当該車両4の直進方向に対して直交する横方向が、左右方向Yと定義される。 As shown in FIGS. 1 and 2, an estimation device 1 according to one embodiment is mounted on a vehicle 4 together with a map unit 2 and a sensor unit 3. FIG. The vehicle 4 is, for example, an advanced driving assistance vehicle or an automatic driving vehicle, which runs based on the motion estimation result by the estimation device 1 . Of the horizontal directions of the vehicle 4 on the horizontal plane, the straight-ahead direction of the vehicle 4 is defined as the front-rear direction X. As shown in FIG. A lateral direction perpendicular to the straight-ahead direction of the vehicle 4 is defined as a left-right direction Y among the horizontal directions of the vehicle 4 on the horizontal plane.

図2,3に示すように地図ユニット2は、地図情報Imを非一時的に格納又は記憶する、例えば半導体メモリ、磁気媒体及び光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)を主体に、構成される。地図ユニット2は、車両4の高度運転支援又は自動運転制御に利用される、ロケータのデータベースであってもよい。地図ユニット2は、車両4の運転をナビゲートする、ナビゲーション装置のデータベースであってもよい。地図ユニット2は、車両4の運転をナビゲートする、ナビゲーション装置のデータベースであってもよい。地図ユニット2は、これらのデータベース等のうち複数種類の組み合わせにより、構成されてもよい。 As shown in FIGS. 2 and 3, the map unit 2 includes at least one type of non-transitional physical storage medium, such as a semiconductor memory, a magnetic medium, an optical medium, etc., for non-temporarily storing or storing the map information Im. (non-transitory tangible storage medium). The map unit 2 may be a database of locators used for advanced driver assistance or automated driving control of the vehicle 4 . The map unit 2 may be the database of a navigation device for navigating the operation of the vehicle 4 . The map unit 2 may be the database of a navigation device for navigating the operation of the vehicle 4 . The map unit 2 may be configured by combining a plurality of types of these databases.

地図ユニット2は、例えば外部センタとの通信等により、最新の地図情報Imを取得して記憶する。地図情報Imは、車両4の走行環境を表す情報として、二次元又は三次元にデータ化されている。地図情報Imは、例えば道路自体の位置、形状及び路面状態等のうち、少なくとも一種類を表した道路情報を、少なくとも含んでいる。地図情報Imは、例えば道路に付属する標識及び区画線の位置並びに形状等のうち、少なくとも一種類を表した標示情報を、含んでいてもよい。地図情報Imは、例えば道路に面する建造物及び信号機の位置並びに形状等のうち、少なくとも一種類を表した構造物情報を、含んでいてもよい。 The map unit 2 acquires and stores the latest map information Im through communication with an external center, for example. The map information Im is two-dimensional or three-dimensional data as information representing the driving environment of the vehicle 4 . The map information Im includes at least road information representing at least one of the position, shape, road surface condition, and the like of the road itself. The map information Im may include, for example, label information representing at least one of the positions and shapes of road markings and lane markings. The map information Im may include, for example, structure information representing at least one of the positions and shapes of buildings facing roads and traffic lights.

図1~3に示すようにセンサユニット3は、光学センサ30を少なくとも含んで構成される。光学センサ30は、例えば車両4の運動推定等に利用可能な、いわゆるLIDAR(Light Detection and Ranging / Laser Imaging Detection and Ranging)である。光学センサ30は、車両4の外界へのビーム照射により観測したターゲット6からのビーム反射を受けて、光学画像Isを出力する。本実施形態の光学センサ30は、車両4におけるフロント部分の中央に配置されることで、前方から左右両側方に跨って外界を走査する。 As shown in FIGS. 1-3, the sensor unit 3 includes at least an optical sensor 30 . The optical sensor 30 is a so-called LIDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging) that can be used for motion estimation of the vehicle 4, for example. The optical sensor 30 receives beam reflection from the target 6 observed by beam irradiation to the outside of the vehicle 4 and outputs an optical image Is. The optical sensor 30 of the present embodiment is arranged in the center of the front portion of the vehicle 4, and scans the external environment from the front to the left and right sides.

図3に示すように光学センサ30は、ビーム素子300、撮像素子301及び撮像回路302を、それぞれ有している。撮像回路302は、ビーム素子300及び撮像素子301を制御する。具体的に撮像回路302は、図1,4に破線矢印で示すように車両4の外界とへ向かうレーザビームを、ビーム素子300から実質一定強度のパルス光状に、断続照射させる。このとき、光学センサ30の走査範囲となる照射レンジΘsは、前後方向Xに沿う基準方位Bsから側方へと広がる範囲に、設定される。特に本実施形態の照射レンジΘsには、車両4の前方を向く基準方位Bsを中心として、ビームステアリング軸Asまわりの左右両側にそれぞれ同一又は相異の設定角度ずつをあけた、臨界端方位Bcまでの範囲が与えられている。尚、光学センサ30において照射レンジΘsの起点となるビームステアリング軸Asは、水平面上の車両4における鉛直方向、又は当該鉛直方向に対する傾斜方向に設定される。 As shown in FIG. 3, the optical sensor 30 has a beam element 300, an imaging element 301 and an imaging circuit 302, respectively. An imaging circuit 302 controls the beam element 300 and the imaging element 301 . Specifically, the imaging circuit 302 causes the beam element 300 to intermittently irradiate a laser beam toward the outside of the vehicle 4 in the form of pulsed light of substantially constant intensity, as indicated by dashed arrows in FIGS. At this time, the irradiation range Θs, which is the scanning range of the optical sensor 30, is set to a range extending laterally from the reference bearing Bs along the front-rear direction X. As shown in FIG. In particular, in the irradiation range Θs of this embodiment, the critical end direction Bc is set at the same or different setting angles on both left and right sides around the beam steering axis As centering on the reference direction Bs facing forward of the vehicle 4. range is given. The beam steering axis As, which is the starting point of the irradiation range Θs in the optical sensor 30, is set in the vertical direction of the vehicle 4 on the horizontal plane, or in a direction inclined with respect to the vertical direction.

撮像回路302は、照射レンジΘs内においてビームステアリング軸Asまわりのビーム照射方向を決めるビームステアリング角度θを、一定時間間隔の断続的な照射タイミングt毎に切り替える。このとき撮像回路302は、図4に示すように照射タイミングt毎のビームステアリング角度θを等間隔又は不等間隔に規定することで、照射レンジΘs内でのビームの照射密度を等密度又は不等密度に分布させる。そこで撮像回路302は、各照射タイミングtのビームステアリング角度θ間での間隔によって決まる、照射密度の分布パターンを光学センサ30のビームパターンPsとして制御する。尚、本実施形態の照射レンジΘsにおけるビームステアリング角度θは、零値(0)となる基準方位Bsよりも左側領域では負(マイナス)の値、基準方位Bsよりも右側領域では正(プラス)の値として、定義される。また、説明の理解を容易にするために図4は、照射タイミングt毎のビームステアリング角度θのうち、一部のみを例示している。 The imaging circuit 302 switches the beam steering angle θ that determines the beam irradiation direction around the beam steering axis As within the irradiation range Θs at each intermittent irradiation timing t at constant time intervals. At this time, as shown in FIG. 4, the imaging circuit 302 regulates the beam steering angle θ at equal intervals or unequal intervals at each irradiation timing t, so that the irradiation density of the beam within the irradiation range Θs is equal or unequal. Distribute evenly. Therefore, the imaging circuit 302 controls the irradiation density distribution pattern determined by the interval between the beam steering angles θ at each irradiation timing t as the beam pattern Ps of the optical sensor 30 . In this embodiment, the beam steering angle θ in the irradiation range Θs has a negative (minus) value in the area to the left of the reference azimuth Bs, which is zero (0), and a positive (plus) value in the area to the right of the reference azimuth Bs. is defined as the value of Also, in order to facilitate understanding of the explanation, FIG. 4 illustrates only part of the beam steering angle θ at each irradiation timing t.

図3に示す撮像回路302は、撮像素子301における縦横二次元配列の複数画素を、各照射タイミングtのビームステアリング角度θに対応した走査ライン(即ち、縦列)毎に、順次露光する。このように順次露光のローリングシャッタを採用する撮像回路302は、撮像素子301において露光された走査ラインの各画素により、外界からのビーム反射を感知する。撮像回路302は、走査ラインの各画素において照射タイミングtからビーム反射を感知するまでのビーム飛行時間の半値を、撮像素子301からターゲット6までの距離値へと変換する。撮像回路302は、変換した距離値を走査ライン毎の各画素に関連付けしてデータ化することで、いわゆる距離画像又は点群画像としての光学画像Isを生成する。 The image pickup circuit 302 shown in FIG. 3 sequentially exposes a plurality of pixels arranged in a two-dimensional array in the image pickup device 301 for each scanning line (that is, column) corresponding to the beam steering angle θ at each irradiation timing t. In this manner, the imaging circuit 302 that employs a sequential exposure rolling shutter senses beam reflection from the outside by each pixel of the exposed scanning line in the imaging device 301 . The image pickup circuit 302 converts the half value of the beam flight time from the irradiation timing t to the detection of the beam reflection in each pixel of the scanning line into a distance value from the image pickup device 301 to the target 6 . The imaging circuit 302 generates an optical image Is as a so-called distance image or point cloud image by associating the converted distance value with each pixel of each scanning line and converting it into data.

尚、撮像素子301において走査ライン毎の各画素により感知されるビーム反射強度に応じた輝度値が、それら各画素に関連付けして距離値と共にデータ化されることで、光学画像Isが生成されてもよい。また撮像素子301には、断続的なビーム照射の中断期間に感知する外光に応じて車両4の外界を撮像する機能が、備えられていてもよい。この場合、撮像素子301において走査ライン毎の各画素により感知される外光強度に応じた輝度値が、それら各画素に関連付けして距離値と共にデータ化されることで、光学画像Isが生成されてもよい。 The optical image Is is generated by converting the luminance value corresponding to the beam reflection intensity sensed by each pixel of each scanning line in the imaging device 301 into data together with the distance value in association with each pixel. good too. The imaging element 301 may also have a function of capturing an image of the external environment of the vehicle 4 according to external light sensed during a period in which intermittent beam irradiation is interrupted. In this case, the optical image Is is generated by converting the luminance value corresponding to the external light intensity sensed by each pixel of each scanning line in the imaging element 301 into data together with the distance value in association with each pixel. may

図2に示すように推定装置1は、例えばLAN(Local Area Network)、ワイヤハーネス及び内部バス等のうち少なくとも一種類を介して、センサユニット3と接続されている。推定装置1は、車両4の高度運転支援又は自動運転制御を実行する、運転制御専用のECU(Electronic Control Unit)であってもよい。推定装置1は、車両4の高度運転支援又は自動運転制御に利用される、ロケータのECUであってもよい。推定装置1は、車両4の運転をナビゲートする、ナビゲーション装置のECUであってもよい。推定装置1は、光学センサ30の撮像回路302により兼用されてもよい。推定装置1は、これらのECU及び回路302等のうち、後述の機能を分担する複数種類の組み合わせにより、構成されてもよい。 As shown in FIG. 2, the estimation device 1 is connected to the sensor unit 3 via at least one of a LAN (Local Area Network), a wire harness, an internal bus, and the like. The estimating device 1 may be an ECU (Electronic Control Unit) dedicated to driving control that executes advanced driving assistance or automatic driving control of the vehicle 4 . The estimating device 1 may be a locator ECU that is used for advanced driving assistance or automatic driving control of the vehicle 4 . The estimating device 1 may be an ECU of a navigation device that navigates driving of the vehicle 4 . The estimating device 1 may also be used by the imaging circuit 302 of the optical sensor 30 . The estimating device 1 may be configured by a combination of multiple types of these ECUs, circuits 302, and the like that share the functions described below.

推定装置1は、メモリ10及びプロセッサ12を少なくとも一つずつ含んだ、専用のコンピュータである。メモリ10は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に格納又は記憶する、例えば半導体メモリ、磁気媒体及び光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。プロセッサ12は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも一種類をコアとして含む。 The estimation device 1 is a dedicated computer including at least one memory 10 and at least one processor 12 . The memory 10 stores or stores computer-readable programs and data non-temporarily, and includes at least one type of non-transitory storage medium (non-transitory storage medium) such as a semiconductor memory, a magnetic medium, and an optical medium. tangible storage medium). The processor 12 includes, as a core, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a RISC (Reduced Instruction Set Computer)-CPU.

プロセッサ12は、メモリ10に格納された推定プログラムに含まれる複数の命令を、実行する。これにより推定装置1は、車両4の位置を含む状態量を推定するための機能ブロックを、図3に示すように複数構築する。このように推定装置1では、車両4の状態量を推定するためにメモリ10に格納された推定プログラムが複数の命令をプロセッサ12に実行させることで、複数の機能ブロックが構築される。複数の機能ブロックには、状態量推定ブロック100、推定誤差取得ブロック120、更新判定ブロック140、観測誤差取得ブロック160及びビーム調整ブロック180が含まれる。 Processor 12 executes a plurality of instructions contained in an estimation program stored in memory 10 . As a result, the estimating device 1 constructs a plurality of functional blocks for estimating state quantities including the position of the vehicle 4, as shown in FIG. Thus, in the estimation device 1, the estimation program stored in the memory 10 for estimating the state quantity of the vehicle 4 causes the processor 12 to execute a plurality of instructions, thereby constructing a plurality of functional blocks. The multiple functional blocks include state quantity estimation block 100 , estimation error acquisition block 120 , update decision block 140 , observation error acquisition block 160 and beam adjustment block 180 .

状態量推定ブロック100は、照射レンジΘsでのビーム照射に応じて光学センサ30から出力される光学画像Isに基づいて、車両4の状態量Zを推定する。そのために状態量推定ブロック100は、図5に示すように相異なる機能のサブブロック101,102を、有している。 The state quantity estimation block 100 estimates the state quantity Z of the vehicle 4 based on the optical image Is output from the optical sensor 30 in response to beam irradiation in the irradiation range Θs. Therefore, the state quantity estimation block 100 has sub-blocks 101 and 102 with different functions as shown in FIG.

マッチングサブブロック101には、光学センサ30により生成された最新の光学画像Isが、入力される。マッチングサブブロック101には、地図ユニット2に記憶された最新の地図情報Imが、入力される。マッチングサブブロック101は、光学画像Isに対する地図情報Imのマッチング処理により、観測残差Δox,Δoyを取得する。 The latest optical image Is generated by the optical sensor 30 is input to the matching sub-block 101 . The latest map information Im stored in the map unit 2 is input to the matching sub-block 101 . A matching sub-block 101 obtains observation residuals Δox and Δoy by matching the map information Im with the optical image Is.

具体的にマッチングサブブロック101では、光学画像Isにおいてターゲット6を観測した画素に対応する反射点が、観測点と認識される。そこでマッチングサブブロック101は、光学画像Isにおけるターゲット6の観測点に関して、方向X,Yでの直交座標を算出する。マッチングサブブロック101では、地図情報Imにおいてターゲット6の観測点に対応した座標点が、マッチング点と定義される。特に本実施形態のマッチング点は、ターゲット6の観測点との距離が最短となる座標点を、意味する。マッチングサブブロック101は、地図情報Imにおけるマッチング点に関して、方向X,Yでの直交座標を算出する。マッチングサブブロック101は、各方向X,Yでの観測残差Δox,Δoyのベクトル値を、観測点の直交座標とマッチング点の直交座標との差分演算により算出する。このとき観測残差Δox,Δoyは、光学画像Isに対応した方向X,Y毎の残差画像ΔI(後述の図10,11を参照)として、メモリ10に保存されてもよい。 Specifically, in the matching sub-block 101, the reflection point corresponding to the pixel where the target 6 was observed in the optical image Is is recognized as the observation point. Therefore, the matching sub-block 101 calculates orthogonal coordinates in directions X and Y with respect to the observation point of the target 6 in the optical image Is. In the matching sub-block 101, a coordinate point corresponding to the observation point of the target 6 in the map information Im is defined as a matching point. In particular, the matching point in this embodiment means a coordinate point with the shortest distance to the observation point of the target 6 . The matching sub-block 101 calculates orthogonal coordinates in directions X and Y for matching points in the map information Im. The matching sub-block 101 calculates the vector values of the observation residuals Δox and Δoy in each of the X and Y directions by calculating the difference between the orthogonal coordinates of the observation point and the orthogonal coordinates of the matching point. At this time, the observation residuals Δox and Δoy may be stored in the memory 10 as residual images ΔI (see later-described FIGS. 10 and 11) for each of the directions X and Y corresponding to the optical image Is.

フィルタリングサブブロック102には、マッチングサブブロック101でのマッチングにより取得された最新の観測残差Δox,Δoyが、入力される。フィルタリングサブブロック102は、このマッチング結果としての観測残差Δox,Δoyに基づいたフィルタリング処理により、車両4の方向X,Yでの状態量Zの推定値を、位置x,yを含んで取得する。 The latest observation residuals Δox and Δoy obtained by matching in the matching subblock 101 are input to the filtering subblock 102 . The filtering sub-block 102 acquires the estimated value of the state quantity Z in the directions X and Y of the vehicle 4 including the positions x and y by filtering based on the observation residuals Δox and Δoy as the matching results. .

具体的にフィルタリングサブブロック102は、観測残差Δox,Δoyを入力とする推定フィルタとして、例えば拡張カルマンフィルタ、パーティクルフィルタ、無香料カルマンフィルタ及びアンサンブルカルマンフィルタ等のうち、少なくとも一種類を用いる。フィルタリングサブブロック102は、推定フィルタに観測残差Δox,Δoyを通すことで、下記式1に従う状態量Zのベクトル値と共に、下記2に従う誤差共分散行列Mを算出する。ここで式1においてx,yは、それぞれ方向X,Yでの車両4の直交座標位置である。式1においてvx,vyは、それぞれ方向X,Yでの車両4の走行速度である。式2においてσx,σyは、それぞれ方向X,Yでの直交座標位置の誤差分散である。式2においてσvx,σvyは、それぞれ方向X,Yでの走行速度の誤差分散である。

Figure 0007318521000001
Specifically, the filtering sub-block 102 uses at least one of an extended Kalman filter, a particle filter, an unscented Kalman filter, an ensemble Kalman filter, and the like as an estimation filter to which observation residuals Δox and Δoy are input. The filtering sub-block 102 calculates the vector value of the state quantity Z according to Equation 1 below and the error covariance matrix M according to Equation 2 below by passing the observation residuals Δox and Δoy through the estimation filter. Here, x and y in Equation 1 are orthogonal coordinate positions of the vehicle 4 in directions X and Y, respectively. In Equation 1, vx and vy are the running speeds of the vehicle 4 in the X and Y directions, respectively. In Equation 2, σx and σy are error variances of orthogonal coordinate positions in directions X and Y, respectively. In Equation 2, σvx and σvy are error variances of running speeds in directions X and Y, respectively.
Figure 0007318521000001

図3に示すように推定誤差取得ブロック120には、フィルタリングサブブロック102により取得された最新の誤差共分散行列Mが、入力される。推定誤差取得ブロック120は、状態量推定ブロック100での状態量推定に生じる誤差として、誤差共分散行列Mに基づく推定誤差Eex,Eeyを、誤差共分散解析により取得する。ここで推定誤差Eexは、車両4の前後方向Xにおける前後推定誤差として定義される一方、推定誤差Eeyは、車両4の左右方向Yにおける左右推定誤差として定義される。 As shown in FIG. 3, the estimation error acquisition block 120 receives the latest error covariance matrix M acquired by the filtering sub-block 102 . The estimation error acquisition block 120 acquires estimation errors Eex and Eey based on the error covariance matrix M as errors occurring in the state quantity estimation in the state quantity estimation block 100 by error covariance analysis. Here, the estimated error Eex is defined as a front-rear estimated error in the longitudinal direction X of the vehicle 4 , while the estimated error Eey is defined as a left-right estimated error in the left-right direction Y of the vehicle 4 .

具体的に推定誤差取得ブロック120は、誤差共分散行列Mの対角成分のうち前後方向Xでの位置誤差分散σx及び速度誤差σvxを用いた下記式3に従って、前後推定誤差Eexを算出する。推定誤差取得ブロック120は、誤差共分散行列Mの対角成分のうち左右方向Yでの位置誤差分散σy及び速度誤差σvyを用いた下記式4に従って、左右推定誤差Eeyを算出する。ここで式3,4においてα,βは、例えば実車試験結果又はシミュレーション結果等に基づく設計パラメータである。前後方向Xに関する式3の設計パラメータαと、左右方向Yに関する式4の設計パラメータαとは、同一であってもよし、相異していてもよい。また、前後方向Xに関する式3の設計パラメータβと、左右方向Yに関する式4の設計パラメータβとについても、同様である。

Figure 0007318521000002
Specifically, the estimation error acquisition block 120 calculates the front-back estimation error Eex according to Equation 3 below using the position error variance σx and the velocity error σvx in the front-back direction X among the diagonal components of the error covariance matrix M. The estimation error acquisition block 120 calculates the left-right estimation error Eey according to the following equation 4 using the position error variance σy and the velocity error σvy in the left-right direction Y among the diagonal components of the error covariance matrix M. Here, α and β in Equations 3 and 4 are design parameters based on, for example, actual vehicle test results or simulation results. The design parameter α of Formula 3 regarding the longitudinal direction X and the design parameter α of Formula 4 regarding the lateral direction Y may be the same or different. Moreover, the design parameter β of Formula 3 regarding the front-back direction X and the design parameter β of Formula 4 regarding the left-right direction Y are the same.
Figure 0007318521000002

図3に示すように更新判定ブロック140には、推定誤差取得ブロック120により取得された最新の推定誤差Eex,Eeyが、入力される。更新判定ブロック140は、光学センサ30の照射レンジΘsにおけるビームパターンPsを更新するか否かを、推定誤差Eex,Eeyに基づいて判定する。 As shown in FIG. 3, the latest estimated errors Eex and Eey obtained by the estimated error obtaining block 120 are input to the update determination block 140 . The update determination block 140 determines whether or not to update the beam pattern Ps in the irradiation range Θs of the optical sensor 30 based on the estimated errors Eex and Eey.

具体的に更新判定ブロック140は、各方向X,Yの推定誤差Eex,Eeyを、それぞれ許容範囲と対比することで、監視する。その結果、双方の推定誤差Eex,Eeyが各々の許容範囲内に収まっている間は、光学センサ30にビームパターンPsを維持させる維持判定を、更新判定ブロック140が下す。この維持判定の場合、後続ブロック160,180へは処理が進まずに、状態量推定ブロック100へと処理が戻ることで、光学センサ30によりビームパターンPsが維持される。一方、推定誤差Eex,Eeyのうち少なくとも一方が各々の許容範囲から値の大きい側に外れた場合には、光学センサ30によりビームパターンPsを更新させる更新判定を、更新判定ブロック140が下す。この更新判定の場合、後続ブロック160,180へと処理が進むことで、後に詳述するビーム調整ブロック180から出力の指向パターンPsdに従ってビームパターンPsが光学センサ30により更新される。 Specifically, the update decision block 140 monitors the estimated errors Eex and Eey in each of the directions X and Y by comparing them with the allowable range. As a result, update decision block 140 makes a maintenance decision to cause optical sensor 30 to maintain beam pattern Ps while both estimated errors Eex and Eey are within their respective allowable ranges. In the case of this maintenance determination, the beam pattern Ps is maintained by the optical sensor 30 by returning to the state quantity estimation block 100 without proceeding to the subsequent blocks 160 and 180 . On the other hand, when at least one of the estimated errors Eex and Eey deviates from the allowable range to the larger value side, the update decision block 140 makes an update decision to update the beam pattern Ps by the optical sensor 30 . In the case of this update determination, the beam pattern Ps is updated by the optical sensor 30 according to the directivity pattern Psd output from the beam adjustment block 180, which will be described in detail later, by proceeding to subsequent blocks 160 and 180. FIG.

ここで各推定誤差Eex,Eeyの許容範囲は、推定精度上の許容可能な値の上限を閾値として、当該閾値以下の数値範囲に設定されてもよいし、推定精度上の許容困難な値の下限を閾値として、当該閾値未満の数値範囲に設定されてもよい。前後方向Xに関する推定誤差Eexの許容範囲と、左右方向Yに関する推定誤差Eeyの許容範囲とは、同一であってもよし、相異していてもよい。 Here, the permissible range of each estimation error Eex, Eey may be set to a numerical range equal to or less than the threshold, with the upper limit of the permissible value for estimation accuracy as a threshold, or a value that is difficult to allow for estimation accuracy. With the lower limit as a threshold, it may be set to a numerical range less than the threshold. The permissible range of the estimated error Eex in the longitudinal direction X and the permissible range of the estimated error Eey in the lateral direction Y may be the same or different.

図3に示す観測誤差取得ブロック160は、光学センサ30によるターゲット6の観測に生じる誤差として、光学画像Isに基づく観測誤差Eox,Eoyを取得する。ここで観測誤差Eoxは、車両4の前後方向Xにおける前後観測誤差として定義される一方、観測誤差Eoyは、車両4の左右方向Yにおける左右観測誤差として定義される。これらの観測誤差Eox,Eoyを、いずれも理論と実測の二系統によって取得するために観測誤差取得ブロック160は、図6に示すように相異なる機能のサブブロック161,162,163,164,165,166を、有している。 The observation error acquisition block 160 shown in FIG. 3 acquires observation errors Eox and Eoy based on the optical image Is as errors occurring in observation of the target 6 by the optical sensor 30 . Here, the observation error Eox is defined as the front-back observation error in the longitudinal direction X of the vehicle 4 , while the observation error Eoy is defined as the left-right observation error in the left-right direction Y of the vehicle 4 . In order to acquire these observation errors Eox and Eoy by two systems of theory and actual measurement, the observation error acquisition block 160 includes sub-blocks 161, 162, 163, 164 and 165 having different functions as shown in FIG. , 166.

最短距離特定サブブロック161には、光学センサ30により生成された最新の光学画像Isが、入力される。最短距離特定サブブロック161は、光学画像Isにおけるターゲット6までの最短距離観測点を、照射タイミングt毎のビームステアリング角度θに対応付けて特定する。 The latest optical image Is generated by the optical sensor 30 is input to the shortest distance specifying sub-block 161 . The shortest distance specifying sub-block 161 specifies the shortest distance observation point to the target 6 in the optical image Is in association with the beam steering angle θ at each irradiation timing t.

具体的には、図7(a)に示すように最短距離特定サブブロック161は、光学画像Isにおいて照射タイミングt毎のビームステアリング角度θと個別に対応する走査ライン(即ち、縦列)の各々から、ビーム反射点までの距離が最短(即ち、距離値が最小)の最短距離画素Isoを探索する。最短距離特定サブブロック161では、各走査ラインでの最短距離画素Isoに対応する反射点が、照射タイミングt毎にビームステアリング角度θと対応付けの最短距離観測点として認識される。図7(b),(c)に示すように、最短距離特定サブブロック161は、探索した走査ライン毎の最短距離画素Isoでの距離値を、最短距離観測点での最短距離値Isrのベクトル値として抽出する。最短距離特定サブブロック161は、探索した走査ライン毎の最短距離画素Isoを識別する画素番号を、最短距離インデックスIsiのベクトル値として抽出する。尚、説明の理解を容易にするために図7は、光学画像Isにおける一部の画素のみを例示している。 Specifically, as shown in FIG. 7( a ), the shortest distance specifying sub-block 161 determines the beam steering angle θ at each irradiation timing t in the optical image Is from each of the scanning lines (that is, columns) individually corresponding to the beam steering angle θ. , the shortest distance pixel Iso having the shortest distance (that is, the smallest distance value) to the beam reflection point is searched. In the shortest distance identification sub-block 161, the reflection point corresponding to the shortest distance pixel Iso on each scanning line is recognized as the shortest distance observation point associated with the beam steering angle θ at each irradiation timing t. As shown in FIGS. 7(b) and 7(c), the shortest distance specifying sub-block 161 converts the distance value at the shortest distance pixel Iso for each searched scanning line to the vector of the shortest distance value Isr at the shortest distance observation point. Extract as a value. The shortest distance identification sub-block 161 extracts the pixel number identifying the shortest distance pixel Iso for each scanning line searched as the vector value of the shortest distance index Isi. In order to facilitate understanding of the explanation, FIG. 7 illustrates only some pixels in the optical image Is.

図6に示す測距誤差取得サブブロック162は、ターゲット6に対するビーム照射及びビーム反射に応じた測距に生じる誤差として、理論に基づく測距誤差Emo,Empを取得する。ここで図8に示すように測距誤差Emoは、照射タイミングt毎にビームステアリング角度θの変化するビームに対して直交した、ビーム直交方向Dmoにおける直交測距誤差として定義される。この直交測距誤差Emoは、ターゲット6におけるビーム反射点までの距離に依存し、特に当該距離が短いほど小さくなる。図9に示すように測距誤差Empは、照射タイミングt毎にビームステアリング角度θの変化するビームに対して平行な、ビーム平行方向Dmpにおける平行測距誤差として定義される。この平行測距誤差Empは、ビーム照射及びビーム反射に要するビーム飛行時間の計測において、一定に生じる誤差である。 A ranging error acquisition sub-block 162 shown in FIG. 6 acquires theoretical ranging errors Emo and Emp as errors occurring in ranging according to beam irradiation and beam reflection on the target 6 . Here, as shown in FIG. 8, the ranging error Emo is defined as an orthogonal ranging error in a beam orthogonal direction Dmo orthogonal to the beam whose beam steering angle θ changes at each irradiation timing t. This orthogonal ranging error Emo depends on the distance to the beam reflection point on the target 6, and becomes smaller as the distance becomes shorter. As shown in FIG. 9, the distance measurement error Emp is defined as a parallel distance measurement error in a beam parallel direction Dmp parallel to the beam whose beam steering angle θ changes at each irradiation timing t. This parallel ranging error Emp is an error that occurs constantly in the measurement of the beam flight time required for beam irradiation and beam reflection.

具体的に、図6に示すように測距誤差取得サブブロック162には、最短距離特定サブブロック161により取得された最新の最短距離値Isrが、入力される。測距誤差取得サブブロック162は、照射タイミングt毎のビームステアリング角度θに対応した各走査ラインでの直交測距誤差Emoのベクトル値を、最短距離値Isrを用いた下記式5に従って算出する。ここで式5においてEanは、例えばビームステアリング角度θを調整するアクチュエータ等に起因した、光学センサ30に固有の角度誤差である。測距誤差取得サブブロック162は、照射タイミングt毎のビームステアリング角度θに対応した各走査ラインでの平行測距誤差Empのベクトル値を、ビームステアリング角度θには依らない一定値に固定する。このとき測距誤差取得サブブロック162は、例えばビーム飛行時間を計測するカウンタ等に起因した、光学センサ30に固有の計測誤差を、平行測距誤差Empとして設定する。

Figure 0007318521000003
Specifically, as shown in FIG. 6, the latest shortest distance value Isr acquired by the shortest distance specifying sub-block 161 is input to the ranging error acquisition sub-block 162 . The ranging error acquisition sub-block 162 calculates the vector value of the orthogonal ranging error Emo for each scanning line corresponding to the beam steering angle θ at each irradiation timing t according to Equation 5 below using the shortest distance value Isr. 5 where Ean is an angular error inherent in the optical sensor 30 due to, for example, an actuator that adjusts the beam steering angle θ. The ranging error acquisition sub-block 162 fixes the vector value of the parallel ranging error Emp for each scanning line corresponding to the beam steering angle θ at each irradiation timing t to a constant value independent of the beam steering angle θ. At this time, the ranging error acquisition sub-block 162 sets, as the parallel ranging error Emp, a measurement error specific to the optical sensor 30 caused by, for example, a counter that measures the time of flight of the beam.
Figure 0007318521000003

図6に示すように理論誤差取得サブブロック163には、測距誤差取得サブブロック162により取得された最新の測距誤差Emo,Empが、入力される。理論誤差取得サブブロック163は、測距誤差Emo,Empからの座標変換により、観測誤差Eox,Eoyの各理論値Eoxt,Eoytを取得する。以下、観測誤差Eox,Eoyの各理論値Eoxt,Eoytは、理論観測誤差Eoxt,Eoytとも表記される。 As shown in FIG. 6, the theoretical error acquisition sub-block 163 receives the latest ranging errors Emo and Emp acquired by the ranging error acquisition sub-block 162 . The theoretical error acquisition sub-block 163 acquires the theoretical values Eoxt and Eoyt of the observation errors Eox and Eoy by coordinate conversion from the ranging errors Emo and Emp. The theoretical values Eoxt and Eoyt of the observation errors Eox and Eoy are hereinafter also referred to as theoretical observation errors Eoxt and Eoyt.

具体的に理論誤差取得サブブロック163には、後に詳述するビーム調整ブロック180からフィードバックされる指向パターンPsdのうち、照射タイミングt毎に調整される最新のビームステアリング角度θが、入力される。理論誤差取得サブブロック163は、各走査ラインに対応する最新のビームステアリング角度θ毎に、最短距離画素Iso(即ち、最短距離観測点)での理論観測誤差Eoxt,Eoytのベクトル値を、下記式6に従う座標変換により算出する。

Figure 0007318521000004
Specifically, the theoretical error acquisition sub-block 163 receives the latest beam steering angle θ, which is adjusted at each irradiation timing t, among the directivity patterns Psd fed back from the beam adjustment block 180, which will be described in detail later. The theoretical error acquisition sub-block 163 calculates the vector values of the theoretical observation errors Eoxt and Eoyt at the shortest distance pixel Iso (that is, the shortest distance observation point) for each latest beam steering angle θ corresponding to each scan line using the following formula: It is calculated by the coordinate transformation according to 6.
Figure 0007318521000004

図3,6に示すように実測誤差取得サブブロック164には、マッチングサブブロック101により取得された最新の観測残差Δox,Δoyが、入力される。実測誤差取得サブブロック164には、最短距離特定サブブロック161により取得された最新の最短距離インデックスIsiが、入力される。実測誤差取得サブブロック164は、観測残差Δox,Δoyに基づくことで、観測誤差Eox,Eoyの各実測値Eoxm,Eoymを取得する。以下、観測誤差Eox,Eoyの各実測値Eoxm,Eoymは、実測観測誤差Eoxm,Eoymとも表記される。 As shown in FIGS. 3 and 6, the latest observation residuals Δox and Δoy obtained by the matching sub-block 101 are input to the actual measurement error obtaining sub-block 164 . The latest shortest distance index Isi obtained by the shortest distance identification sub-block 161 is input to the actual measurement error obtaining sub-block 164 . The actual measurement error acquisition sub-block 164 acquires actual measurement values Eoxm and Eoym of the observation errors Eox and Eoy based on the observation residuals Δox and Δoy. The measured values Eoxm and Eoym of the observation errors Eox and Eoy are hereinafter also referred to as actual observation errors Eoxm and Eoym.

具体的に実測誤差取得サブブロック164は、照射タイミングt毎のビームステアリング角度θに対応する各走査ラインにおいて、最短距離インデックスIsiに対応する観測残差Δoxを、図10に示すように前後方向Xに関して抽出する。実測誤差取得サブブロック164は、照射タイミングt毎のビームステアリング角度θに対応する各走査ラインにおいて、最短距離インデックスIsiに対応する観測残差Δoyを、図11に示すように左右方向Yに関して抽出する。実測誤差取得サブブロック164は、こうして抽出された最短距離インデックスIsiに対応する最短距離画素Iso(即ち、最短距離観測点)での観測残差Δox,Δoyを、それぞれ実測観測誤差Eoxm,Eoymに設定する。尚、図10,11は、説明の理解を容易にするために、観測残差Δox,Δoyを残差画像ΔIとした場合の、一部の画素のみを例示している。 Specifically, the actual measurement error acquisition sub-block 164 obtains the observation residual Δox corresponding to the shortest distance index Isi on each scanning line corresponding to the beam steering angle θ at each irradiation timing t as shown in FIG. extract with respect to The actual measurement error acquisition sub-block 164 extracts the observation residual Δoy corresponding to the shortest distance index Isi in each scanning line corresponding to the beam steering angle θ at each irradiation timing t in the horizontal direction Y as shown in FIG. . The actual measurement error acquisition sub-block 164 sets the observation residuals Δox and Δoy at the shortest distance pixel Iso (that is, the shortest distance observation point) corresponding to the shortest distance index Isi thus extracted to the actual measurement errors Eoxm and Eoym. do. 10 and 11 illustrate only some pixels when the observation residuals Δox and Δoy are the residual image ΔI, in order to facilitate understanding of the explanation.

図6に示すように観測誤差合成サブブロック165には、理論誤差取得サブブロック163により取得された理論観測誤差Eoxt,Eoytが、入力される。観測誤差合成サブブロック165には、実測誤差取得サブブロック164により取得された実測観測誤差Eoxm,Eoymが、入力される。観測誤差合成サブブロック165は、理論観測誤差Eoxt,Eoytに対して、それぞれ実測観測誤差Eoxm,Eoymを合成することで、照射タイミングt毎のビームステアリング角度θに対応した各走査ラインでの観測誤差Eox,Eoyを取得する。 As shown in FIG. 6, the theoretical observation errors Eoxt and Eoyt acquired by the theoretical error acquisition sub-block 163 are input to the observation error synthesis sub-block 165 . The measured observation errors Eoxm and Eoym obtained by the measured error obtaining sub-block 164 are input to the observed error synthesizing sub-block 165 . The observation error synthesizing sub-block 165 synthesizes the theoretical observation errors Eoxt and Eoyt with the actually measured observation errors Eoxm and Eoym, respectively, to obtain the observation error for each scanning line corresponding to the beam steering angle θ at each irradiation timing t. Get Eox and Eoy.

具体的に観測誤差合成サブブロック165は、理論観測誤差Eoxt及び実測観測誤差Eoxmを用いた下記式7に従う重み付き合成演算により、前後観測誤差Eoxを算出する。観測誤差合成サブブロック165は、理論観測誤差Eoyt及び実測観測誤差Eoymを用いた下記式8に従う重み付き合成演算により、左右観測誤差Eoyを算出する。ここで式7,8においてγは、例えば実車試験結果又はシミュレーション結果等に基づく重み付けパラメータである。前後方向Xに関する式7の重み付けパラメータγと、左右方向Yに関する式8の重み付けパラメータγとは、同一であってもよし、相異していてもよい。

Figure 0007318521000005
Specifically, the observation error synthesizing sub-block 165 calculates the forward and backward observation error Eox by a weighted synthesizing operation according to Equation 7 below using the theoretical observation error Eoxt and the actually measured observation error Eoxm. The observation error synthesizing sub-block 165 calculates the left-right observation error Eoy by a weighted synthesizing operation according to Equation 8 below using the theoretical observation error Eoyt and the actually measured observation error Eoym. Here, γ in Equations 7 and 8 is a weighting parameter based on, for example, actual vehicle test results or simulation results. The weighting parameter γ in Equation 7 regarding the longitudinal direction X and the weighting parameter γ in Equation 8 regarding the lateral direction Y may be the same or different.
Figure 0007318521000005

図6に示すように観測誤差平滑サブブロック166には、観測誤差合成サブブロック165により取得された観測誤差Eox,Eoyが、入力される。観測誤差平滑サブブロック166は、照射レンジΘsでの任意のビームステアリング角度θに対して、観測誤差Eox,Eoyを平滑化する。 As shown in FIG. 6, the observation errors Eox and Eoy obtained by the observation error synthesizing sub-block 165 are input to the observation error smoothing sub-block 166 . The observation error smoothing sub-block 166 smoothes the observation errors Eox, Eoy for any beam steering angle θ over the illumination range Θs.

具体的に観測誤差平滑サブブロック166は、照射タイミングt毎のビームステアリング角度θに対応した各走査ラインでの観測誤差Eox,Eoyを、平滑化フィルタに通す。平滑化フィルタは、図12に示すように連続するビームステアリング角度θを変数とした、数次の多項式関数により前後観測誤差Eoxの分布を近似する。平滑化フィルタは、図13に示すように連続するビームステアリング角度θを変数とした、別な数次の多項式関数により左右観測誤差Eoyの分布を近似する。 Specifically, the observation error smoothing sub-block 166 passes the observation errors Eox and Eoy for each scanning line corresponding to the beam steering angle θ at each irradiation timing t through a smoothing filter. As shown in FIG. 12, the smoothing filter approximates the distribution of the forward and backward observation errors Eox using a polynomial function of several orders with the continuous beam steering angle θ as a variable. As shown in FIG. 13, the smoothing filter approximates the distribution of the left-right observation error Eoy by another polynomial function of several degrees with the continuous beam steering angle θ as a variable.

図3に示すビーム調整ブロック180は、照射レンジΘsにおけるビームパターンPsを、照射密度の指向パターンPsdへと調整する。そのためにビーム調整ブロック180は、図6に示すように相異なる機能のサブブロック181,182,183を、有している。 The beam adjustment block 180 shown in FIG. 3 adjusts the beam pattern Ps at the illumination range Θs to a directivity pattern Psd of illumination density. For that purpose, the beam adjustment block 180 has sub-blocks 181, 182, 183 with different functions as shown in FIG.

図3,6に示すようにゲイン設定サブブロック181には、推定誤差取得ブロック120により取得された最新の推定誤差Eex,Eeyが、入力される。ゲイン設定サブブロック181は、後に詳述するパターン更新サブブロック183に供される調整ゲインδ,εを、推定誤差Eex,Eey同士の比率に基づいて、設定する。 As shown in FIGS. 3 and 6, the latest estimated errors Eex and Eey obtained by the estimated error obtaining block 120 are input to the gain setting sub-block 181 . The gain setting sub-block 181 sets adjustment gains δ and ε supplied to the pattern updating sub-block 183, which will be detailed later, based on the ratio between the estimated errors Eex and Eey.

具体的にゲイン設定サブブロック181では、推定誤差Eex,Eeyを用いた下記式9により、推定比率Reが定義される。ゲイン設定サブブロック181は、この推定比率Reに応じて調整ゲインδ,εを調整する。このとき調整ゲインδ,εは、例えば図14に示すようなゲインデーブルに従って調整されてもよいし、図示はしない演算式に従って調整されてもよい。

Figure 0007318521000006
Specifically, in the gain setting sub-block 181, the estimated ratio Re is defined by the following Equation 9 using the estimated errors Eex and Eey. The gain setting sub-block 181 adjusts the adjustment gains δ and ε according to this estimated ratio Re. At this time, the adjustment gains .delta. and .epsilon. may be adjusted, for example, according to a gain table as shown in FIG. 14, or may be adjusted according to an arithmetic expression (not shown).
Figure 0007318521000006

前後推定誤差Eexが左右推定誤差Eeyよりも大きくなることで推定比率Reが1を下回る図15(a),16(a)の場合、ゲイン設定サブブロック181が第一調整ゲインδに正(プラス)の値を与えると共に、第二調整ゲインεにも正(プラス)の値を与える。このとき、第一調整ゲインδ及び第二調整ゲインεのうち少なくとも前者については、推定比率Reが小さいほど、絶対値が大きくなるように可変設定される。左右推定誤差Eeyが前後推定誤差Eexよりも大きくなることで推定比率Reが1を上回る図15(b),16(b)の場合、ゲイン設定サブブロック181が第一調整ゲインδに負(マイナス)の値を与えると共に、第二調整ゲインεには正(プラス)の値を与える。このとき、第一調整ゲインδ及び第二調整ゲインεのうち少なくとも前者については、推定比率Reが大きいほど、絶対値が大きくなるように可変設定される。 In the case of FIGS. 15A and 16A, where the estimation ratio Re falls below 1 because the front-rear estimation error Eex is greater than the left-right estimation error Eey, the gain setting sub-block 181 positively (pluses) the first adjustment gain δ. ) is given, and a positive (plus) value is given to the second adjustment gain ε. At this time, at least the former of the first adjustment gain δ and the second adjustment gain ε is variably set such that its absolute value increases as the estimated ratio Re decreases. In the case of FIGS. 15(b) and 16(b), where the estimated ratio Re exceeds 1 because the left-right estimation error Eey is greater than the front-rear estimation error Eex, the gain setting sub-block 181 sets the first adjustment gain δ to a negative value. ) is given, and a positive (plus) value is given to the second adjustment gain ε. At this time, at least the former of the first adjustment gain δ and the second adjustment gain ε is variably set such that its absolute value increases as the estimated ratio Re increases.

図6に示すようにゲイン制限サブブロック182には、ゲイン設定サブブロック181により設定された調整ゲインδ,εが、入力される。ゲイン制限サブブロック182は、調整ゲインδ,εに対してリミッタ処理を施す。 As shown in FIG. 6, the gain limiting sub-block 182 receives the adjustment gains δ and ε set by the gain setting sub-block 181 . A gain limiting sub-block 182 applies limiter processing to the adjustment gains δ and ε.

具体的には図17に示すように、第一調整ゲインδの絶対値が第一閾値μを上回る場合、ゲイン制限サブブロック182が当該ゲインδの絶対値を当該閾値μに制限する。図18に示すように、第二調整ゲインεの絶対値が第二閾値ρを上回る場合、ゲイン制限サブブロック182が当該ゲインεの絶対値を当該閾値ρに制限する。これらの場合以外にゲイン制限サブブロック182は、ゲイン設定サブブロック181による設定値のままに、調整ゲインδ,εを確定する。 Specifically, as shown in FIG. 17, when the absolute value of the first adjustment gain δ exceeds the first threshold μ, the gain limiting sub-block 182 limits the absolute value of the gain δ to the threshold μ. As shown in FIG. 18, when the absolute value of the second adjustment gain ε exceeds the second threshold ρ, the gain limit sub-block 182 limits the absolute value of the gain ε to the threshold ρ. Other than these cases, the gain limiting sub-block 182 determines the adjustment gains δ and ε with the values set by the gain setting sub-block 181 as they are.

図3,6に示すようにパターン更新サブブロック183には、観測誤差平滑サブブロック166により平滑化された観測誤差Eox,Eoyが、入力される。パターン更新サブブロック183には、ゲイン制限サブブロック182によりリミッタ処理の施された調整ゲインδ,εが、入力される。パターン更新サブブロック183は、観測誤差Eox,Eoy同士の比率に基づくと共に、調整ゲインδ,εにも基づくことで、照射レンジΘsでのビームパターンPsを最新の指向パターンPsdへと更新する。 As shown in FIGS. 3 and 6, the pattern update sub-block 183 receives the observation errors Eox and Eoy smoothed by the observation error smoothing sub-block 166 . The pattern update sub-block 183 receives the adjusted gains δ and ε subjected to limiter processing by the gain limit sub-block 182 . The pattern update sub-block 183 updates the beam pattern Ps in the irradiation range Θs to the latest directivity pattern Psd based on the ratio of the observation errors Eox and Eoy as well as the adjustment gains δ and ε.

具体的にパターン更新サブブロック183では、図19に示す観測誤差Eox,Eoyを用いた下記式10により、図20に示す観測比率Roが定義される。パターン更新サブブロック183は、上述の推定比率Reに基づく調整ゲインδ,εと共に、この観測比率Roを用いた下記式11に従う密度関数Fdにより、照射レンジΘsでの照射密度更新値を算出する。ここで式11の密度関数Fdは、観測比率Roとその比率Roに対する調整ゲインδ,εとに基づくことで、照射レンジΘsでの任意のビームステアリング角度θに関して照射密度更新値を、図21に示すように関数化した演算式となる。ここで式11においてθlは、照射レンジΘsのうち基準方位Bsに対する左側、即ち負(マイナス)側の臨界端方位Bcにおけるビームステアリング角度θの値である。式11においてθrは、照射レンジΘsのうち基準方位Bsに対する右側、即ち正(プラス)側の臨界端方位Bcにおけるビームステアリング角度θの値である。式11の一部として、観測比率Ro及び調整ゲインδ,εを用いた線形演算部分は、下記式12を満たす。これらのことから式11では、照射レンジΘsでのビーム振幅により、照射密度更新値が正規化されている。

Figure 0007318521000007
Specifically, in the pattern update sub-block 183, the observation ratio Ro shown in FIG. 20 is defined by the following equation 10 using the observation errors Eox and Eoy shown in FIG. The pattern update sub-block 183 calculates the irradiation density update value in the irradiation range Θs by the density function Fd according to the following equation 11 using the observation ratio Ro together with the adjustment gains δ and ε based on the estimated ratio Re described above. Here, the density function Fd of Equation 11 is based on the observed ratio Ro and the adjustment gains δ and ε with respect to the ratio Ro. As shown, it becomes an arithmetic expression converted into a function. Here, θl in Equation 11 is the value of the beam steering angle θ at the critical end azimuth Bc on the left side of the reference azimuth Bs in the irradiation range Θs, that is, on the negative (minus) side. In Equation 11, θr is the value of the beam steering angle θ at the critical end direction Bc on the right side of the irradiation range θs with respect to the reference direction Bs, that is, on the positive (plus) side. As part of Equation 11, the linear calculation portion using the observation ratio Ro and the adjustment gains δ and ε satisfies Equation 12 below. For these reasons, in Equation 11, the irradiation density update value is normalized by the beam amplitude in the irradiation range Θs.
Figure 0007318521000007

パターン更新サブブロック183は、密度関数Fdにより算出した照射密度の更新値を、照射レンジΘsでの任意のビームステアリング角度θに関して累積した、累積分布関数Fcへ図22に示すように変換する。パターン更新サブブロック183は、累積分布関数Fcにおいて等間隔の各照射タイミングtに対応させるビームステアリング角度θを、図23に示すようにサンプリングする。パターン更新サブブロック183は、照射タイミングt毎にサンプリングしたビームステアリング角度θ間での最新間隔によって決まる、照射密度更新値の分布パターンを指向パターンPsdとして出力する。尚、説明の理解を容易にするために図23は、照射タイミングt毎のビームステアリング角度θのうち、一部のみを例示している。また図23は、図4のビームパターンPsを与える指向パターンPsdの例を、代表的に表している。 The pattern update sub-block 183 converts the updated irradiation density calculated by the density function Fd into a cumulative distribution function Fc accumulated for an arbitrary beam steering angle θ in the irradiation range Θs, as shown in FIG. The pattern updating sub-block 183 samples the beam steering angle θ corresponding to each equally spaced irradiation timing t in the cumulative distribution function Fc, as shown in FIG. The pattern update sub-block 183 outputs, as a directivity pattern Psd, a distribution pattern of irradiation density update values determined by the latest interval between the beam steering angles θ sampled at each irradiation timing t. In order to facilitate understanding of the explanation, FIG. 23 illustrates only part of the beam steering angle θ at each irradiation timing t. FIG. 23 representatively shows an example of a directivity pattern Psd that gives the beam pattern Ps of FIG.

ここでパターン更新サブブロック183では、推定誤差Eex,Eeyのうち、大きい側が大側推定誤差として、また小さい側が小側推定誤差として、それぞれ定義される。パターン更新サブブロック183では、各照射タイミングtでのビームステアリング角度θ毎の観測誤差Eox,Eoyのうち、大きい側が大側観測誤として、また小さい側が小側観測誤差として、それぞれ定義される。これらの定義下、指向パターンPsdは式11の密度関数Fdを満たす。 Here, in the pattern update sub-block 183, the larger one of the estimated errors Eex and Eey is defined as the larger estimated error, and the smaller one is defined as the smaller estimated error. In the pattern update sub-block 183, the larger side of the observation errors Eox and Eoy for each beam steering angle θ at each irradiation timing t is defined as the larger side observation error, and the smaller side is defined as the smaller side observation error. Under these definitions, the directivity pattern Psd satisfies the density function Fd of Eq.

式11の密度関数Fdを満たす指向パターンPsdは、推定誤差Eex,Eeyの視点において、推定比率Reに基づく調整ゲインδ,εに応じた指向性を、ビーム照射に与える。詳細には、図15(a)の場合に指向パターンPsdは、照射レンジΘsのうち大側推定誤差Eexの方向Xに最も近いステアリング角度θとして基準方位Bsでの角度θを含んだ側となる、前方領域において照射密度を高い側にバイアスする。このとき特に、調整ゲインδ,εの設定により指向パターンPsdは、特に推定比率Reが小さいほど、前方領域における照射密度の高側バイアス率を大きく設定する。さらに図15(a)の場合に指向パターンPsdは、照射レンジΘsのうち小側推定誤差Eeyの方向Yに最も近いステアリング角度θとして臨界端方位Bcでの角度θを含んだ側となる、左右残りの側方領域において照射密度を低い側にバイアスする。 The directivity pattern Psd that satisfies the density function Fd of Equation 11 gives beam irradiation directivity according to the adjustment gains δ and ε based on the estimated ratio Re from the viewpoint of the estimated errors Eex and Eey. Specifically, in the case of FIG. 15A, the directivity pattern Psd is on the side that includes the angle θ in the reference azimuth Bs as the steering angle θ that is closest to the direction X of the large-side estimation error Eex in the irradiation range Θs. , to bias the irradiation density to the higher side in the front region. At this time, the directivity pattern Psd is set such that the higher-side bias ratio of the irradiation density in the front region is set to be larger as the estimated ratio Re is smaller by setting the adjustment gains δ and ε. Further, in the case of FIG. 15(a), the directivity pattern Psd is on the side of the irradiation range Θs that includes the angle θ at the critical end azimuth Bc as the steering angle θ closest to the direction Y of the small side estimation error Eey. Illumination density is biased to the lower side in the remaining lateral regions.

一方、図15(b)の場合に指向パターンPsdは、照射レンジΘsのうち大側推定誤差Eeyの方向Yに最も近いステアリング角度θとして臨界端方位Bcでの角度θを含んだ側となる、左右の側方領域において照射密度を高い側にバイアスする。このとき特に、調整ゲインδ,εの設定により指向パターンPsdは、特に推定比率Reが大きいほど、各側方領域における照射密度の高側バイアス率を大きく設定する。さらに図15(b)の場合に指向パターンPsdは、照射レンジΘsのうち小側推定誤差Eexの方向Xに最も近いステアリング角度θとして基準方位Bsでの角度θを含んだ側となる、残りの前方領域において照射密度を低い側にバイアスする。 On the other hand, in the case of FIG. 15B, the directivity pattern Psd is on the side that includes the angle θ in the critical end direction Bc as the steering angle θ that is closest to the direction Y of the large-side estimation error Eey in the irradiation range θs. The irradiation density is biased to the higher side in the left and right lateral regions. At this time, the directivity pattern Psd is set such that the higher the estimated ratio Re, the higher the irradiation density bias rate in each lateral region, particularly by setting the adjustment gains δ and ε. Further, in the case of FIG. 15B, the directivity pattern Psd is on the side including the angle θ in the reference direction Bs as the steering angle θ closest to the direction X of the small side estimation error Eex in the irradiation range θs. Biasing the irradiation density to the lower side in the front region.

式11の密度関数Fdを満たす指向パターンPsdは、観測誤差Eox,Eoyの視点において、観測比率Roに基づいた別の指向性を、ビーム照射に与える。詳細には、図15(a)の場合に指向パターンPsdは、照射レンジΘsのうち大側推定誤差Eexと同方向Xの小側観測誤差Eoxに対応するビームステアリング角度θにおいて、照射密度を高い側にバイアスする。このとき特に、正の第一調整ゲインδに応じた正の相関により指向パターンPsdは、観測比率Roが大きいほど、小側観測誤差Eoxの対応角度θにおける照射密度の高側バイアス率を大きく設定する。さらに図15(a)の場合に指向パターンPsdは、照射レンジΘsのうち大側推定誤差Eexと異方向Yの小側観測誤差Eoyに対応する別のステアリング角度θにおいて、照射密度を低い側にバイアスする。このような指向パターンPsdは、大側推定誤差Eexと小側観測誤差Eoyとがそれぞれ異方向X,Yの異方向角度θよりも、大側推定誤差Eexと小側観測誤差Eoxとが同方向Xの同方向角度θに対して、ビーム照射を集中させる。これにより、大側推定誤差Eexを低減可能なターゲット6の観測確率が低い異方向角度θよりも、当該観測確率が高い同方向角度θに対して、ビーム照射が集中することになる。 The directivity pattern Psd that satisfies the density function Fd of Equation 11 gives the beam irradiation another directivity based on the observation ratio Ro from the viewpoint of the observation errors Eox and Eoy. Specifically, in the case of FIG. 15A, the directivity pattern Psd has a high irradiation density at the beam steering angle θ corresponding to the large side estimation error Eex and the small side observation error Eox in the same direction X in the irradiation range θs. bias to the side. At this time, in particular, due to the positive correlation corresponding to the positive first adjustment gain δ, in the directivity pattern Psd, the higher the observation ratio Ro, the larger the high-side bias rate of the irradiation density at the corresponding angle θ of the small-side observation error Eox is set. do. Further, in the case of FIG. 15A, the directivity pattern Psd shifts the irradiation density to the lower side at another steering angle θ corresponding to the large side estimation error Eex and the small side observation error Eoy in the different direction Y in the irradiation range Θs. bias. In such a directivity pattern Psd, the large-side estimated error Eex and the small-side observation error Eoy are different from the different direction angle θ of the different directions X and Y, respectively. Focus the beam illumination on the same directional angle θ of X. As a result, beam irradiation is concentrated on the same-direction angle θ at which the probability of observation of the target 6 at which the large-side estimation error Eex can be reduced is higher than at the opposite-direction angle θ at which the probability of observation of the target 6 is low.

一方、図15(b)の場合に指向パターンPsdは、照射レンジΘsのうち大側推定誤差Eeyと同方向Yの小側観測誤差Eoyに対応するビームステアリング角度θにおいて、照射密度を高い側にバイアスする。このとき特に、負の第一調整ゲインδに応じた負の相関により指向パターンPsdは、観測比率Roが小さいほど、小側観測誤差Eoyの対応角度θにおける照射密度の高側バイアス率を大きく設定する。さらに図15(b)の場合に指向パターンPsdは、照射レンジΘsのうち大側推定誤差Eeyと異方向Xの小側観測誤差Eoxに対応する別のステアリング角度θにおいて、照射密度を低い側にバイアスする。このような指向パターンPsdは、大側推定誤差Eeyと小側観測誤差Eoxとがそれぞれ異方向Y,Xの異方向角度θよりも、大側推定誤差Eeyと小側観測誤差Eoyとが同方向Yの同方向角度θに対して、ビーム照射を集中させる。これにより、大側推定誤差Eeyを低減可能なターゲット6の観測確率が低い異方向角度θよりも、当該観測確率が高い同方向角度θに対して、ビーム照射が集中することになる。 On the other hand, in the case of FIG. 15B, the directivity pattern Psd shifts the irradiation density to the high side at the beam steering angle θ corresponding to the large side estimation error Eey and the small side observation error Eoy in the same direction Y in the irradiation range Θs. bias. At this time, in particular, due to the negative correlation corresponding to the negative first adjustment gain δ, in the directivity pattern Psd, the smaller the observation ratio Ro, the larger the high-side bias rate of the irradiation density at the angle θ corresponding to the small-side observation error Eoy is set. do. Further, in the case of FIG. 15(b), the directivity pattern Psd shifts the irradiation density to the lower side at another steering angle θ corresponding to the large-side estimation error Eey and the small-side observation error Eox in the different direction X in the irradiation range θs. bias. In such a directivity pattern Psd, the large-side estimated error Eey and the small-side observation error Eox are different from the different direction angles θ of the different directions Y and X, respectively. Focus the beam irradiation on the Y co-directional angle θ. As a result, the beam irradiation is concentrated on the same-direction angle θ at which the observation probability of the target 6 is low rather than at the same-direction angle θ at which the large-side estimation error Eey can be reduced.

以上により光学センサ30は、図3,6に示すようにパターン更新サブブロック183から出力される最新の指向パターンPsdに従って、照射レンジΘsのビームパターンPsを制御する。こうして制御された指向パターンPsdでのビーム照射に応じて、状態量Zの次回推定が実行される。このとき生じる推定誤差Eex,Eeyに基づいて次回更新の判定が下される場合、最新の指向パターンPsdに関するデータが、パターン更新サブブロック183から理論誤差取得サブブロック163へとフィードバックされることとなる。 As described above, the optical sensor 30 controls the beam pattern Ps of the irradiation range Θs according to the latest directivity pattern Psd output from the pattern updating sub-block 183 as shown in FIGS. The next estimation of the state quantity Z is performed according to the beam irradiation with the directivity pattern Psd controlled in this manner. When the next update is determined based on the estimated errors Eex and Eey generated at this time, data regarding the latest directivity pattern Psd is fed back from the pattern update sub-block 183 to the theoretical error acquisition sub-block 163. .

ここまで説明したように本実施形態では、状態量推定ブロック100が「状態量推定部」に相当し、推定誤差取得ブロック120が「推定誤差取得部」に相当する。また本実施形態では、観測誤差取得ブロック160が「観測誤差取得部」に相当し、ビーム調整ブロック180が「ビーム調整部」に相当する。 As described above, in this embodiment, the state quantity estimation block 100 corresponds to the "state quantity estimation section", and the estimation error acquisition block 120 corresponds to the "estimation error acquisition section". Further, in this embodiment, the observation error acquisition block 160 corresponds to the "observation error acquisition unit", and the beam adjustment block 180 corresponds to the "beam adjustment unit".

機能ブロック100,120,140,160,180の共同により、推定装置1が車両4の状態量Zを推定する推定方法のフローを、図24~27に基づいて以下に説明する。尚、本フローは、車両4が運動推定を必要とする推定タイミング毎、又は光学センサ30のシャッタフレーム毎に、実行される。また、本フローにおいて「S」とは、推定プログラムに含まれた複数命令により実行される複数ステップを、意味する。 The flow of the estimation method for estimating the state quantity Z of the vehicle 4 by the estimation device 1 in cooperation with the functional blocks 100, 120, 140, 160 and 180 will be described below with reference to FIGS. 24 to 27. FIG. Note that this flow is executed at each estimation timing when the vehicle 4 requires motion estimation or at each shutter frame of the optical sensor 30 . Also, in this flow, "S" means multiple steps executed by multiple instructions included in the estimation program.

図24に示すように、S10において状態量推定ブロック100は、照射レンジΘsでのビーム照射に応じて光学センサ30から出力される光学画像Isに基づいて、車両4の状態量Zを推定する。 As shown in FIG. 24, in S10, the state quantity estimation block 100 estimates the state quantity Z of the vehicle 4 based on the optical image Is output from the optical sensor 30 in response to beam irradiation in the irradiation range Θs.

図25に示すようにS10のうち、S101においてマッチングサブブロック101は、光学画像Isに対する地図情報Imのマッチング処理により、観測残差Δox,Δoyを取得する。S10のうち、S101に続くS102においてフィルタリングサブブロック102は、このマッチングによる観測残差Δox,Δoyに基づくフィルタリング処理により、車両4の方向X,Yでの状態量Zの推定値を取得する。 As shown in FIG. 25, in S101 of S10, the matching sub-block 101 acquires observation residuals Δox and Δoy by matching the map information Im with the optical image Is. In S102 following S101 in S10, the filtering sub-block 102 obtains an estimated value of the state quantity Z in the directions X and Y of the vehicle 4 by filtering based on the observation residuals Δox and Δoy from this matching.

図24に示すように、S10に続くS20において推定誤差取得ブロック120は、状態量推定ブロック100での状態量推定に生じる誤差として、誤差共分散行列Mに基づく推定誤差Eex,Eeyを取得する。さらに続くS30において更新判定ブロック140は、光学センサ30の照射レンジΘsにおけるビームパターンPsを更新するか否かを、推定誤差Eex,Eeyに基づいて判定する。S30において否定判定、即ちビームパターンPsの維持判定が下された場合には、光学センサ30ではビームパターンPsが維持されて、今回フローの実行が終了する。 As shown in FIG. 24, in S20 following S10, the estimation error acquisition block 120 acquires estimation errors Eex and Eey based on the error covariance matrix M as errors occurring in the state quantity estimation in the state quantity estimation block 100. FIG. Further, in subsequent S30, the update determination block 140 determines whether or not to update the beam pattern Ps in the irradiation range Θs of the optical sensor 30 based on the estimated errors Eex and Eey. If a negative determination is made in S30, that is, if the beam pattern Ps is determined to be maintained, the optical sensor 30 maintains the beam pattern Ps, and execution of the current flow ends.

S30において肯定判定、即ちビームパターンPsの更新判定が下された場合には、今回フローがS40へ移行する。S40において観測誤差取得ブロック160は、光学センサ30によるターゲット6の観測に生じる誤差として、光学画像Isに基づく観測誤差Eox,Eoyを取得する。 If an affirmative determination is made in S30, that is, if the beam pattern Ps is determined to be updated, the current flow proceeds to S40. In S<b>40 , the observation error acquisition block 160 acquires observation errors Eox and Eoy based on the optical image Is as errors occurring in observation of the target 6 by the optical sensor 30 .

図26に示すようにS40のうち、S401において最短距離特定サブブロック161は、光学画像Isにおけるターゲット6までの最短距離観測点を、照射タイミングt毎のビームステアリング角度θに対応付けて特定する。S40のうち、S401に続くS402において測距誤差取得サブブロック162は、ターゲット6に対するビーム照射及びビーム反射に応じた測距に生じる誤差として、理論に基づく測距誤差Emo,Empを取得する。 As shown in FIG. 26, in S401 of S40, the shortest distance specifying sub-block 161 specifies the shortest distance observation point to the target 6 in the optical image Is in association with the beam steering angle θ at each irradiation timing t. In S402 following S401 in S40, the ranging error acquisition sub-block 162 acquires theoretical ranging errors Emo and Emp as errors occurring in ranging according to beam irradiation and beam reflection on the target 6. FIG.

S40のうち、S402に続くS403において理論誤差取得サブブロック163は、測距誤差Emo,Empからの座標変換により、理論観測誤差Eoxt,Eoytを取得する。S40のうち、S403に続くS404において実測誤差取得サブブロック164は、観測残差Δox,Δoyに基づくことで、実測観測誤差Eoxm,Eoymを取得する。 In S403 following S402 in S40, the theoretical error acquisition sub-block 163 acquires theoretical observation errors Eoxt and Eoyt by coordinate conversion from the ranging errors Emo and Emp. In S404 following S403 in S40, the actual measurement error acquisition sub-block 164 acquires the actual measurement errors Eoxm and Eoym based on the observation residuals Δox and Δoy.

S40のうち、S404に続くS405において観測誤差合成サブブロック165は、理論観測誤差Eoxt,Eoytに対して、それぞれ実測観測誤差Eoxm,Eoymを合成することで、観測誤差Eox,Eoyを取得する。S40のうち、S405に続くS406において観測誤差平滑サブブロック166は、照射レンジΘsでの任意のビームステアリング角度θに対して、観測誤差Eox,Eoyを平滑化する。 In S405 following S404 in S40, the observation error synthesis sub-block 165 obtains observation errors Eox and Eoy by synthesizing the theoretical observation errors Eoxt and Eoyt with the actually measured observation errors Eoxm and Eoym, respectively. In S406 following S405 in S40, the observation error smoothing sub-block 166 smoothes the observation errors Eox and Eoy for an arbitrary beam steering angle θ in the illumination range Θs.

図24に示すように、40に続くS50においてビーム調整ブロック180は、照射レンジΘsにおけるビームパターンPsを、最新の照射密度を決める指向パターンPsdに調整する。 As shown in FIG. 24, in S50 following 40, the beam adjustment block 180 adjusts the beam pattern Ps in the irradiation range Θs to the directivity pattern Psd that determines the latest irradiation density.

図27に示すようにS50のうち、S501においてゲイン設定サブブロック181は、推定誤差Eex,Eey同士の推定比率Reに基づいて調整ゲインδ,εを設定する。S50のうち、S501に続くS502においてゲイン制限サブブロック182は、調整ゲインδ,εに対するリミッタ処理を実施する。 As shown in FIG. 27, in S501 of S50, the gain setting sub-block 181 sets adjustment gains δ and ε based on the estimated ratio Re between the estimated errors Eex and Eey. In S502 following S501 in S50, the gain limiting sub-block 182 performs limiter processing on the adjustment gains δ and ε.

S50のうち、S502に続くS503においてパターン更新サブブロック183は、観測誤差Eox,Eoy同士の観測比率Roと調整ゲインδ,εとに基づくことで、照射レンジΘsでのビームパターンPsを最新の指向パターンPsdへ更新する。その結果、光学センサ30ではビームパターンPsが指向パターンPsdに制御されると共に、理論誤差取得サブブロック163へと指向パターンPsdがフィードバックされて、今回フローの実行が終了する。 In S503 following S502 in S50, the pattern update sub-block 183 updates the beam pattern Ps in the irradiation range Θs to the latest orientation based on the observation ratio Ro between the observation errors Eox and Eoy and the adjustment gains δ and ε. Update to pattern Psd. As a result, in the optical sensor 30, the beam pattern Ps is controlled to the directivity pattern Psd, and the directivity pattern Psd is fed back to the theoretical error acquisition sub-block 163, and execution of the current flow ends.

S503において更新される指向パターンPsdは推定誤差視点では、照射レンジΘsのうち大側推定誤差の方向に最も近いステアリング角度θ側の領域では、高い側に照射角度をバイアスする。推定誤差視点において指向パターンPsdはまた、照射レンジΘsのうち小側推定誤差の方向に最も近いステアリング角度θ側の領域では、低い側に照射角度をバイアスする。一方、観測誤差視点において指向パターンPsdは、照射レンジΘsのうち大側推定誤差と同方向の小側観測誤差に対応するビームステアリング角度θでは、高い側に照射密度をバイアスする。指向パターンPsdは観測誤差視点ではまた、照射レンジΘsのうち大側推定誤差と異方向の小側観測誤差に対応するビームステアリング角度θでは、低い側に照射密度をバイアスする。これらの観測誤差視点による指向パターンPsdは、大側推定誤差と小側観測誤差とが同方向となるビームステアリング角度θに対してビーム照射が集中するように、指向性を与えることとなる。このような両視点のバイアスが式11の密度関数Fdにより相俟って合成されることで、パターン更新サブブロック183から光学センサ30に指令される最新の指向パターンPsdが決まることとなる。 The directivity pattern Psd updated in S503 biases the irradiation angle to the high side in the region on the steering angle θ side that is closest to the direction of the large estimation error in the irradiation range θs from the viewpoint of the estimation error. In the estimation error viewpoint, the directivity pattern Psd also biases the illumination angle to the low side in the region of the illumination range Θs on the steering angle θ side that is closest to the direction of the small side estimation error. On the other hand, in the observation error viewpoint, the directivity pattern Psd biases the irradiation density to the high side at the beam steering angle θ corresponding to the small-side observation error in the same direction as the large-side estimation error in the irradiation range Θs. The directivity pattern Psd also biases the irradiation density to the low side at the beam steering angle .theta. The directivity pattern Psd based on these observation error viewpoints provides directivity so that the beam irradiation is concentrated at the beam steering angle θ at which the large-side estimation error and the small-side observation error are in the same direction. The latest directivity pattern Psd commanded from the pattern update sub-block 183 to the optical sensor 30 is determined by synthesizing the biases of both viewpoints by the density function Fd of Equation (11).

ここまで説明したように本実施形態では、S10が「状態量推定プロセス」に相当し、S20が「推定誤差取得プロセス」に相当する。また本実施形態では、S40が「観測誤差取得プロセス」に相当し、S50が「ビーム調整プロセス」に相当する。 As described so far, in this embodiment, S10 corresponds to the "state quantity estimation process" and S20 corresponds to the "estimation error acquisition process." Further, in this embodiment, S40 corresponds to the "observation error acquisition process", and S50 corresponds to the "beam adjustment process".

(作用効果)
以上説明した本実施形態の作用効果を、以下に説明する。
(Effect)
The effects of this embodiment described above will be described below.

本実施形態のビームパターンPsは、前後方向Xに沿う基準方位Bsから側方へ広がる光学センサ30の照射レンジΘsにおいて、特定のビームステアリング角度θに集中する指向パターンPsdへと調整される。ここで特定のビームステアリング角度θによると、状態量Zの推定に生じる前後推定誤差Eex及び左右推定誤差Eeyのうち大側推定誤差と、ターゲット6の観測に生じる前後観測誤差Eox及び左右観測誤差Eoyのうち小側観測誤差とが、同方向となる。これによれば、大側推定誤差を低減可能なターゲット6の観測確率が高いビームステアリング角度θに対して、ビーム照射を集中させ得る。故に、指向パターンPsdに従うビーム照射に応じて光学センサ30から出力の光学画像Isに基づいた状態量Zの推定では、大側推定誤差を低減させて状態量Zの推定精度を高めることが可能となる。 The beam pattern Ps of this embodiment is adjusted to a directivity pattern Psd centered at a specific beam steering angle θ in the irradiation range Θs of the optical sensor 30 extending laterally from the reference bearing Bs along the longitudinal direction X. Here, according to a specific beam steering angle θ, the large estimation error of the front-back estimation error Eex and the left-right estimation error Eey occurring in the estimation of the state quantity Z, the front-back observation error Eox and the left-right observation error Eoy occurring in the observation of the target 6 of which the smaller side observation error is in the same direction. According to this, the beam irradiation can be concentrated on the beam steering angle θ at which the probability of observing the target 6 is high, which can reduce the large-side estimation error. Therefore, in estimating the state quantity Z based on the optical image Is output from the optical sensor 30 in response to beam irradiation according to the directivity pattern Psd, it is possible to reduce the large side estimation error and improve the estimation accuracy of the state quantity Z. Become.

本実施形態による指向パターンPsdは、大側推定誤差と同方向の小側観測誤差に対応するビームステアリング角度θでの照射密度を高い側、また大側推定誤差と異方向の小側観測誤差に対応するビームステアリング角度θでの照射密度を低い側に、バイアスする。これによれば、大側推定誤差を低減可能なターゲット6の観測確率が低いビームステアリング角度θよりも、大側推定誤差を低減可能なターゲット6の観測確率が高いビームステアリング角度θに対して、優先的にビーム照射が集中し得る。故に、指向パターンPsdに従うビーム照射に応じての光学画像Isに基づくことで、大側推定誤差の低減効果、ひいては状態量Zの推定精度を高めることが可能となる。 The directivity pattern Psd according to this embodiment has a high irradiation density at the beam steering angle θ corresponding to the large-side estimation error and the small-side observation error in the same direction, and the large-side estimation error and the small-side observation error in the opposite direction. The irradiation density at the corresponding beam steering angle θ is biased to the lower side. According to this, for the beam steering angle θ at which the probability of observation of the target 6 capable of reducing the large-side estimation error is high, compared to the beam steering angle θ at which the probability of observation of the target 6 capable of reducing the large-side estimation error is low, Beam irradiation can be concentrated preferentially. Therefore, based on the optical image Is according to the beam irradiation according to the directivity pattern Psd, it is possible to reduce the large-side estimation error and, in turn, improve the estimation accuracy of the state quantity Z. FIG.

本実施形態によると、照射タイミングt毎のビームステアリング角度θに対応付けて取得されるターゲット6の最短距離観測点では、ビーム直交方向Dmoの成分が最小となる観測誤差Eox,Eoyからは、大側推定誤差と同方向の小側観測誤差を正しく取得できる。これによれば、小側観測誤差のビームステアリング角度θを狙って集中させたビーム照射に応じての光学画像Isに基づくことで、大側推定誤差の低減効果、ひいては状態量Zの推定精度を高めることが可能となる。 According to the present embodiment, at the shortest distance observation point of the target 6 acquired in association with the beam steering angle θ at each irradiation timing t, the observation errors Eox and Eoy with the smallest component in the beam orthogonal direction Dmo are large. The side estimation error and the small side observation error in the same direction can be obtained correctly. According to this, based on the optical image Is according to the beam irradiation concentrated aiming at the beam steering angle θ of the small side observation error, the effect of reducing the large side estimation error and the estimation accuracy of the state quantity Z are improved. can be increased.

本実施形態によると、ターゲット6の観測に生じる直交測距誤差Emo及び平行測距誤差Empからの座標変換により各理論値Eoxt,Eoytが高精度に取得され得る観測誤差Eox,Eoyからは、大側推定誤差と同方向の小側観測誤差を正しく取得できる。これによれば、小側観測誤差のビームステアリング角度θを狙って集中させたビーム照射に応じての光学画像Isに基づくことで、大側推定誤差の低減効果、ひいては状態量Zの推定精度を高めることが可能となる。 According to the present embodiment, the theoretical values Eoxt and Eoyt can be obtained with high accuracy by coordinate conversion from the orthogonal ranging error Emo and the parallel ranging error Emp occurring in the observation of the target 6. From the observation errors Eox and Eoy, large The side estimation error and the small side observation error in the same direction can be obtained correctly. According to this, based on the optical image Is according to the beam irradiation concentrated aiming at the beam steering angle θ of the small side observation error, the effect of reducing the large side estimation error and the estimation accuracy of the state quantity Z are improved. can be increased.

本実施形態によると、直交測距誤差Emo及び平行測距誤差Empから観測誤差Eox,Eoyの各理論値Eoxt,Eoytへの座標変換は、ビーム調整ブロック180のS50からフィードバックされる指向パターンPsdに基づくことで、正確性を増す。これによれば、大側推定誤差と同方向となる小側観測誤差のビームステアリング角度θを適確に狙って、ビーム照射を集中させることができる。故に、そうしたビーム照射に応じての光学画像Isに基づくことで、大側推定誤差の低減効果を担保して状態量Zの推定精度を高めることが可能となる。 According to this embodiment, the coordinate transformation from the orthogonal ranging error Emo and parallel ranging error Emp to the respective theoretical values Eoxt and Eoyt of the observation errors Eox and Eoy is based on the directivity pattern Psd fed back from S50 of the beam adjustment block 180. Based on it increases accuracy. According to this, beam irradiation can be concentrated by accurately targeting the beam steering angle θ of the small-side observation error that is in the same direction as the large-side estimation error. Therefore, based on the optical image Is according to such beam irradiation, it is possible to increase the estimation accuracy of the state quantity Z while securing the effect of reducing the large-side estimation error.

本実施形態によると、光学画像Isにおけるターゲット6の観測点と地図情報Imにおけるマッチング点との観測残差Δox,Δoyに基づくことで、高精度に取得され得る観測誤差Eox,Eoyの各実測値Eoxm,Eoymは、それら誤差の各理論値Eoxt,Eoytと合成される。これによれば、理論と実測の二系統により正確性を増して合成される観測誤差Eox,Eoyからは、大側推定誤差と同方向となる小側観測誤差のビームステアリング角度θを適確に狙って、ビーム照射を集中させることができる。故に、そうしたビーム照射に応じての光学画像Isに基づくことで、大側推定誤差の低減効果を担保して状態量Zの推定精度を高めることが可能となる。 According to the present embodiment, each of the measured values of the observation errors Eox and Eoy can be obtained with high accuracy based on the observation residuals Δox and Δoy between the observation points of the target 6 in the optical image Is and the matching points in the map information Im. Eoxm and Eoym are combined with the respective theoretical values Eoxt and Eoyt of those errors. According to this, from the observation errors Eox and Eoy synthesized with increased accuracy by the two systems of theory and actual measurement, the beam steering angle θ of the small side observation error in the same direction as the large side estimation error can be accurately set. You can aim and concentrate your beam. Therefore, based on the optical image Is according to such beam irradiation, it is possible to increase the estimation accuracy of the state quantity Z while securing the effect of reducing the large-side estimation error.

本実施形態によると、前後観測誤差Eox及び左右観測誤差Eoyがビームステアリング角度θに対して平滑化される。これによれば、ビームステアリング角度θに対して観測誤差Eox,Eoyが外乱によりばらつくことに起因して、大側推定誤差と同方向となる小側観測誤差の取得精度が悪化する事態を、抑制できる。故に、そうした小側観測誤差のビームステアリング角度θを狙って集中させたビーム照射に応じての光学画像Isに基づくことで、外乱による大側推定誤差の増大を抑制し得る。したがって、状態量Zの高い推定精度を確保することが可能となる。 According to this embodiment, the front-back observation error Eox and the left-right observation error Eoy are smoothed with respect to the beam steering angle θ. According to this, it is possible to suppress the deterioration of the acquisition accuracy of the small-side observation error in the same direction as the large-side estimation error due to the variation of the observation errors Eox and Eoy with respect to the beam steering angle θ due to disturbance. can. Therefore, based on the optical image Is according to the beam irradiation concentrated aiming at the beam steering angle θ of the small-side observation error, it is possible to suppress the increase of the large-side estimation error due to the disturbance. Therefore, it is possible to ensure high estimation accuracy of the state quantity Z. FIG.

本実施形態によると、前後観測誤差Eoxと左右観測誤差Eoyとの観測比率Roに基づいて照射密度がビームステアリング角度θに関して関数化されることで、その密度関数Fdを満たす指向パターンPsdへとビームパターンPsが調整される。これによれば、密度関数Fdにおいて観測比率Roにより決まる小側観測誤差のうち、大側推定誤差と同方向誤差のビームステアリング角度θを正しく反映した指向パターンPsdに従って、当該角度θへとビーム照射を集中させることができる。故に、そうしたビーム照射に応じての光学画像Isに基づくことで、大側推定誤差の低減効果、ひいては状態量Zの推定精度を高めることが可能となる。 According to the present embodiment, the irradiation density is functionized with respect to the beam steering angle θ based on the observation ratio Ro between the front-back observation error Eox and the left-right observation error Eoy, so that the beam is directed to the directivity pattern Psd that satisfies the density function Fd. A pattern Ps is adjusted. According to this, according to the directivity pattern Psd that correctly reflects the beam steering angle θ of the large side estimation error and the same direction error among the small side observation errors determined by the observation ratio Ro in the density function Fd, the beam is irradiated to the angle θ. can be concentrated. Therefore, based on the optical image Is according to such beam irradiation, it is possible to reduce the large-side estimation error and improve the estimation accuracy of the state quantity Z by extension.

本実施形態によると、前後推定誤差Eexと左右推定誤差Eeyとの推定比率Reに基づくことで、密度関数Fdの観測比率Roに対する調整ゲインδ,εが設定される。これにより密度関数Fdを満たす指向パターンPsdには、観測誤差Eox,Eoyだけでなく、推定誤差Eex,Eey自体も反映され得る。故に、そうした指向パターンPsdに従うビーム照射に応じての光学画像Isに基づくことで、大側推定誤差を適確に低減して状態量Zの推定精度を高めることが可能となる。 According to this embodiment, the adjustment gains δ and ε for the observed ratio Ro of the density function Fd are set based on the estimated ratio Re between the front-rear estimated error Eex and the left-right estimated error Eey. As a result, the directivity pattern Psd that satisfies the density function Fd can reflect not only the observation errors Eox and Eoy but also the estimated errors Eex and Eey themselves. Therefore, based on the optical image Is according to the beam irradiation according to the directivity pattern Psd, it is possible to appropriately reduce the large-side estimation error and improve the estimation accuracy of the state quantity Z.

本実施形態によるビームパターンPsは、前後推定誤差Eex及び左右推定誤差Eeyのうち少なくとも一方が許容範囲から大きい側に外れる場合に、更新される。これにより推定誤差Eex,Eeyの小さい間は、ビームパターンPsを安定させてロバスト性を高める一方で、推定誤差Eex,Eeyの大きい状況となれば、ビームパターンPsを更新して状態量Zの推定精度を高めることが可能となる。 The beam pattern Ps according to the present embodiment is updated when at least one of the front-rear estimation error Eex and the left-right estimation error Eey deviates from the allowable range to the larger side. As a result, while the estimation errors Eex and Eey are small, the beam pattern Ps is stabilized to improve robustness. It is possible to improve the accuracy.

(他の実施形態)
以上、一実施形態について説明したが、本開示は、当該実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
(Other embodiments)
Although one embodiment has been described above, the present disclosure is not to be construed as being limited to that embodiment, and can be applied to various embodiments within the scope of the present disclosure.

変形例の推定装置1は、デジタル回路及びアナログ回路のうち少なくとも一方をプロセッサとして含んだ、専用のコンピュータであってもよい。ここで特にデジタル回路とは、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを格納したメモリを、備えていてもよい。 The estimation device 1 of the modification may be a dedicated computer that includes at least one of digital circuits and analog circuits as a processor. Here, especially digital circuits include, for example, ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), SOC (System on a Chip), PGA (Programmable Gate Array), and CPLD (Complex Programmable Logic Device). at least one of Such digital circuits may also include memory storing programs.

変形例では、車両4に搭載された少なくとも一つの車載コンピュータと、車両4との間にて通信が可能な少なくとも一つの外部センタコンピュータとから、システム的に推定装置1の機能が分担されてもよい。変形例の地図ユニット2は、車両4との間の通信によりアクセスが可能な、少なくとも一つ外部データベースであってもよい。 In a modification, the function of the estimation device 1 may be systematically shared by at least one in-vehicle computer mounted on the vehicle 4 and at least one external center computer capable of communicating with the vehicle 4. good. Alternatively, the map unit 2 may be at least one external database accessible by communication with the vehicle 4 .

変形例の光学センサ30では、前後方向Xに沿う基準方位Bsが車両4の後方を向くことで、当該後方から左右両側方に跨って外界を走査してもよい。変形例の光学センサ30では、各照射タイミングtでの等間隔又は不等間隔なビームステアリング角度θ毎にビーム強度が調整されることで、指向パターンPsdが更新されてもよい。 In the optical sensor 30 of the modified example, the reference direction Bs along the front-rear direction X faces the rear of the vehicle 4, so that the external environment may be scanned from the rear to the left and right sides. In the optical sensor 30 of the modified example, the directivity pattern Psd may be updated by adjusting the beam intensity for each equal or unequal beam steering angle θ at each irradiation timing t.

変形例では、最短距離の観測点に代わる平均距離の観測点が、サブブロック161及びS401により抽出されて、サブブロック162,164及びS402,S404により利用されてもよい。変形例のサブブロック183及びS503では、指向パターンPsdがサブブロック163及びS403へフィードバックされなくてもよい。 Alternatively, the average distance observation point instead of the shortest distance observation point may be extracted by sub-blocks 161 and S401 and utilized by sub-blocks 162, 164 and S402, S404. In modified sub-blocks 183 and S503, the directivity pattern Psd may not be fed back to sub-blocks 163 and S403.

変形例では、更新判定ブロック140及びS30が省略されてもよい。変形例では、サブブロック162,163及びS402,S403と共に、サブブロック165及びS405が省略されてもよい。変形例では、サブブロック164及びS404と共に、サブブロック165及びS405が省略されてもよい。変形例では、サブブロック166及びS406が省略されてもよい。 Alternatively, the update decision blocks 140 and S30 may be omitted. In a variant, sub-blocks 165 and S405 may be omitted, along with sub-blocks 162, 163 and S402, S403. Alternatively, sub-blocks 165 and S405 may be omitted along with sub-blocks 164 and S404. Alternatively, sub-blocks 166 and S406 may be omitted.

変形例のサブブロック181及びS501では、調整ゲインδ,εが一定値に設定されてもよい。変形例では、サブブロック182及びS502が省略されてもよい。変形例のサブブロック183及びS503では、密度関数Fd及び累積分布関数Fcに代えて、例えばテーブル等に基づくことで、指向パターンPsdが更新されてもよい。変形例のサブブロック183及びS503では、照射レンジΘsのうち小側推定誤差の方向に最も近いステアリング角度θ側の領域では、照射密度を所定密度に保持するように指向パターンPsdが更新されてもよい。 In the modified sub-blocks 181 and S501, the adjustment gains δ and ε may be set to constant values. Alternatively, sub-blocks 182 and S502 may be omitted. In the modified sub-blocks 183 and S503, the directivity pattern Psd may be updated based on, for example, a table instead of the density function Fd and the cumulative distribution function Fc. In sub-blocks 183 and S503 of the modified example, even if the directivity pattern Psd is updated so as to maintain the irradiation density at a predetermined density in the area on the steering angle θ side that is closest to the direction of the small-side estimation error in the irradiation range Θs, good.

1 推定装置、4 車両、6 ターゲット、10 メモリ、12 プロセッサ、30 光学センサ、100 状態量推定ブロック、120 推定誤差取得ブロック、140 更新判定ブロック、160 観測誤差取得ブロック、180 ビーム調整ブロック、Bs 基準方位、Dmo ビーム直交方向、Dmp ビーム平行方向、Eex 前後推定誤差、Eey 左右推定誤差、Emo 直交測距誤差、Emp 平行測距誤差、Eoxm,Eoym 実測値・実測観測誤差、Eoxt,Eoyt 理論値・理論観測誤差、Fd 密度関数、Im 地図情報、Is 光学画像、Ps ビームパターン、Psd 指向パターン、Re 推定比率、Ro 観測比率、X 前後方向、Y 左右方向、Z 状態量、t 照射タイミング、Δox,Δoy 観測残差、Θs 照射レンジ、δ 第一調整ゲイン、ε 第二調整ゲイン、θ ビームステアリング角度 1 estimation device 4 vehicle 6 target 10 memory 12 processor 30 optical sensor 100 state quantity estimation block 120 estimation error acquisition block 140 update judgment block 160 observation error acquisition block 180 beam adjustment block Bs reference Azimuth, Dmo: beam orthogonal direction, Dmp: beam parallel direction, Eex: front-rear estimation error, Eey: left-right estimation error, Emo: orthogonal ranging error, Emp: parallel ranging error, Eoxm, Eoym: actual measurement/observation error, Eoxt, Eoyt: theoretical value/ Theoretical observation error, Fd Density function, Im Map information, Is Optical image, Ps Beam pattern, Psd Directional pattern, Re Estimated ratio, Ro Observation ratio, X Front-back direction, Y Left-right direction, Z State quantity, t Irradiation timing, Δox, Δoy observation residual, Θs illumination range, δ first adjustment gain, ε second adjustment gain, θ beam steering angle

Claims (30)

外界へのビーム照射により観測したターゲット(6)からのビーム反射を受けて光学画像(Is)を出力する光学センサ(30)を、搭載した車両(4)の位置を含む状態量(Z)を、推定する推定装置(1)であって、
前後方向(X)に沿う基準方位(Bs)から側方へ広がる照射レンジ(Θs)での前記ビーム照射に応じて前記ターゲットまでの距離値がデータ化されて前記光学センサから出力される前記光学画像に基づいて、前記状態量を推定する状態量推定部(100)と、
前記状態量の推定に生じる推定誤差であって、前記光学画像に対する地図情報(Im)のマッチング処理による観測残差(Δox,Δoy)に対する推定誤差として、前後方向(X)における前後推定誤差(Eex)及び左右方向(Y)における左右推定誤差(Eey)を取得する推定誤差取得部(120)と、
前記光学センサによる前記ターゲットの観測に生じる観測誤差であって、前記マッチング処理による前記観測残差に応じた観測誤差として、前後方向(X)における前後観測誤差(Eox)及び左右方向(Y)における左右観測誤差(Eoy)を、前記照射レンジにおける照射タイミング(t)毎のビームステアリング角度(θ)に対応付けて取得する観測誤差取得部(160)と、
前記前後推定誤差及び前記左右推定誤差のうち大きい側を大側推定誤差と定義し、前記前後観測誤差及び前記左右観測誤差のうち小さい側を小側観測誤差と定義すると、前記大側推定誤差と前記小側観測誤差とが同方向となる前記ビームステアリング角度に集中する指向パターン(Psd)へ、前記照射レンジでの前記照射タイミング毎の前記ビームステアリング角度に応じた照射密度の分布であるビームパターン(Ps)を調整するビーム調整部(180)とを、備える推定装置。
The state quantity (Z) including the position of the vehicle (4) equipped with the optical sensor (30) that receives the beam reflection from the target (6) observed by the beam irradiation to the outside and outputs the optical image (Is) is , an estimating device (1) for estimating
The distance value to the target is digitized in accordance with the beam irradiation in the irradiation range (Θs) spreading laterally from the reference direction (Bs) along the front-rear direction (X), and the optical sensor outputs the data. a state quantity estimation unit (100) for estimating the state quantity based on an image;
An estimation error occurring in the estimation of the state quantity, which is an estimation error for the observation residuals (Δox, Δoy) due to the matching processing of the map information (Im) with respect to the optical image, is the front-back estimation error (Eex ) and a left-right estimation error (Eey) in the left-right direction (Y);
An observation error occurring in observation of the target by the optical sensor, which is an observation error corresponding to the observation residual due to the matching process , is an observation error (Eox) in the front-back direction (X) and an observation error acquisition unit (160) that acquires the left-right observation error (Eoy) in association with the beam steering angle (θ) for each irradiation timing (t) in the irradiation range;
A larger side of the front-back estimation error and the left-right estimation error is defined as a large-side estimation error, and a smaller side of the front-back observation error and the left-right observation error is defined as a small-side observation error. A beam pattern that is an irradiation density distribution corresponding to the beam steering angle for each irradiation timing in the irradiation range to a directivity pattern (Psd) that is concentrated at the beam steering angle in which the small-side observation error is in the same direction. a beam adjuster (180) for adjusting (Ps).
前記ビーム調整部は、前記大側推定誤差と同方向の前記小側観測誤差に対応する前記ビームステアリング角度での照射密度を高い側にバイアスする前記指向パターンであって、前記大側推定誤差と異方向の前記小側観測誤差に対応する前記ビームステアリング角度での照射密度を低い側にバイアスする前記指向パターンへ、前記ビームパターンを調整する請求項1に記載の推定装置。 The beam adjustment unit biases the irradiation density at the beam steering angle corresponding to the small-side observation error in the same direction as the large-side estimation error to a higher side, the directivity pattern having the large-side estimation error and 2. An estimator according to claim 1, wherein said beam pattern is adjusted to said pointing pattern that biases to a lower side the irradiation density at said beam steering angle corresponding to said minor side observation error in different directions. 前記観測誤差取得部は、前記ターゲットまでの最短距離観測点を前記照射タイミング毎の前記ビームステアリング角度に対応付けて特定し、それら最短距離観測点での前記前後観測誤差及び前記左右観測誤差を取得する請求項1又は2に記載の推定装置。 The observation error acquisition unit identifies the shortest distance observation point to the target in association with the beam steering angle for each irradiation timing, and acquires the front-back observation error and the left-right observation error at the shortest distance observation point. The estimation device according to claim 1 or 2. 前記観測誤差取得部は、前記光学センサによる前記ターゲットの測距に生じる誤差として、ビーム直交方向(Dmo)における直交測距誤差(Emo)及びビーム平行方向(Dmp)における平行測距誤差(Emp)からの座標変換により、前記前後観測誤差及び前記左右観測誤差の各理論値(Eoxt,Eoyt)を取得する請求項1~3のいずれか一項に記載の推定装置。 The observation error acquisition unit obtains an orthogonal ranging error (Emo) in a beam orthogonal direction (Dmo) and a parallel ranging error (Emp) in a beam parallel direction (Dmp) as errors occurring in ranging of the target by the optical sensor. 4. The estimation device according to any one of claims 1 to 3, wherein each theoretical value (Eoxt, Eoyt) of the front-back observation error and the left-right observation error is obtained by coordinate transformation from . 前記観測誤差取得部は、前記ビーム調整部からフィードバックされる前記指向パターンに基づいた前記座標変換により、前記前後観測誤差及び前記左右観測誤差の各理論値(Eoxt,Eoyt)を取得する請求項4に記載の推定装置。 5. The observation error acquisition unit acquires theoretical values (Eoxt, Eoyt) of the front-back observation error and the left-right observation error by the coordinate conversion based on the directivity pattern fed back from the beam adjustment unit. The estimating device described in . 前記状態量推定部は、前記光学画像に対する前記地図情報の前記マッチング処理に基づいて前記状態量を推定し、
前記観測誤差取得部は、前記ターゲットの観測点と前記地図情報におけるマッチング点との前記観測残差に基づいて前記前後観測誤差及び前記左右観測誤差の各実測値(Eoxm,Eoym)を取得し、それら各実測値を前記前後観測誤差及び前記左右観測誤差の各理論値(Eoxt,Eoyt)と合成する請求項4又は5に記載の推定装置。
The state quantity estimating unit estimates the state quantity based on the matching process of the map information with respect to the optical image,
The observation error acquisition unit acquires each measured value (Eoxm, Eoym) of the front-back observation error and the left -right observation error based on the observation residual between the target observation point and the matching point in the map information, 6. An estimating apparatus according to claim 4 or 5, wherein each measured value is synthesized with each theoretical value (Eoxt, Eoyt) of said front-back observation error and said left-right observation error.
前記観測誤差取得部は、前記ビームステアリング角度に対して前記前後観測誤差及び前記左右観測誤差を平滑化する請求項1~6のいずれか一項に記載の推定装置。 The estimation apparatus according to any one of claims 1 to 6, wherein the observation error acquisition unit smoothes the front-back observation error and the left-right observation error with respect to the beam steering angle. 前記ビーム調整部は、前記前後観測誤差と前記左右観測誤差との観測比率(Ro)に基づいて照射密度を前記ビームステアリング角度に関して関数化した、密度関数(Fd)を満たす前記指向パターンへ、前記ビームパターンを調整する請求項1~7のいずれか一項に記載の推定装置。 The beam adjustment unit converts the irradiation density into a function of the beam steering angle based on an observation ratio (Ro) between the front-rear observation error and the left-right observation error, and transforms the directivity pattern into the directivity pattern that satisfies a density function (Fd). The estimation device according to any one of claims 1 to 7, which adjusts the beam pattern. 前記ビーム調整部は、前記密度関数において前記観測比率に対する調整ゲイン(δ,ε)を、前記前後推定誤差と前記左右推定誤差との推定比率(Re)に基づいて設定する請求項8に記載の推定装置。 9. The beam adjustment unit according to claim 8, wherein the adjustment gain (δ, ε) for the observation ratio in the density function is set based on an estimated ratio (Re) between the front-rear estimation error and the left-right estimation error. estimation device. 前記前後推定誤差及び前記左右推定誤差のうち少なくとも一方が許容範囲から大きい側に外れる場合に前記ビーム調整部は、前記ビームパターンを更新する請求項1~9のいずれか一項に記載の推定装置。 The estimation device according to any one of claims 1 to 9, wherein the beam adjustment unit updates the beam pattern when at least one of the front-rear estimation error and the left-right estimation error deviates from an allowable range to a larger side. . 外界へのビーム照射により観測したターゲット(6)からのビーム反射を受けて光学画像(Is)を出力する光学センサ(30)を、搭載した車両(4)の位置を含む状態量(Z)を、推定するためにプロセッサ(12)により実行される推定方法であって、
前後方向(X)に沿う基準方位(Bs)から側方へ広がる照射レンジ(Θs)での前記ビーム照射に応じて前記ターゲットまでの距離値がデータ化されて前記光学センサから出力される前記光学画像に基づいて、前記状態量を推定する状態量推定プロセス(S10)と、
前記状態量の推定に生じる推定誤差であって、前記光学画像に対する地図情報(Im)のマッチング処理による観測残差(Δox,Δoy)に対する推定誤差として、前後方向(X)における前後推定誤差(Eex)及び左右方向(Y)における左右推定誤差(Eey)を取得する推定誤差取得プロセス(S20)と、
前記光学センサによる前記ターゲットの観測に生じる観測誤差であって、前記マッチング処理による前記観測残差に応じた観測誤差として、前後方向(X)における前後観測誤差(Eox)及び左右方向(Y)における左右観測誤差(Eoy)を、前記照射レンジにおける照射タイミング(t)毎のビームステアリング角度(θ)に対応付けて取得する観測誤差取得プロセス(S40)と、
前記前後推定誤差及び前記左右推定誤差のうち大きい側を大側推定誤差と定義し、前記前後観測誤差及び前記左右観測誤差のうち小さい側を小側観測誤差と定義すると、前記大側推定誤差と前記小側観測誤差とが同方向となる前記ビームステアリング角度に集中する指向パターン(Psd)へ、前記照射レンジでの前記照射タイミング毎の前記ビームステアリング角度に応じた照射密度の分布であるビームパターン(Ps)を調整するビーム調整プロセス(S50)とを、含む推定方法。
The state quantity (Z) including the position of the vehicle (4) equipped with the optical sensor (30) that receives the beam reflection from the target (6) observed by the beam irradiation to the outside and outputs the optical image (Is) is , an estimation method performed by a processor (12) to estimate
The distance value to the target is digitized in accordance with the beam irradiation in the irradiation range (Θs) spreading laterally from the reference direction (Bs) along the front-rear direction (X), and the optical sensor outputs the data. a state quantity estimation process (S10) for estimating the state quantity based on the image;
An estimation error occurring in the estimation of the state quantity, which is an estimation error for the observation residuals (Δox, Δoy) due to the matching processing of the map information (Im) with respect to the optical image, is the front-back estimation error (Eex ) and a left-right estimation error (Eey) in the left-right direction (Y);
An observation error occurring in observation of the target by the optical sensor, which is an observation error corresponding to the observation residual due to the matching process , is an observation error (Eox) in the front-back direction (X) and an observation error acquisition process (S40) for acquiring the left-right observation error (Eoy) in association with the beam steering angle (θ) for each irradiation timing (t) in the irradiation range;
A larger side of the front-back estimation error and the left-right estimation error is defined as a large-side estimation error, and a smaller side of the front-back observation error and the left-right observation error is defined as a small-side observation error. A beam pattern that is an irradiation density distribution corresponding to the beam steering angle for each irradiation timing in the irradiation range to a directivity pattern (Psd) that is concentrated at the beam steering angle in which the small-side observation error is in the same direction. a beam adjustment process (S50) to adjust (Ps).
前記ビーム調整プロセスは、前記大側推定誤差と同方向の前記小側観測誤差に対応する前記ビームステアリング角度での照射密度を高い側にバイアスする前記指向パターンであって、前記大側推定誤差と異方向の前記小側観測誤差に対応する前記ビームステアリング角度での照射密度を低い側にバイアスする前記指向パターンへ、前記ビームパターンを調整する請求項11に記載の推定方法。 The beam adjustment process comprises: the pointing pattern biasing the irradiation density at the beam steering angle corresponding to the small-side observation error in the same direction as the large-side estimation error to a higher side; 12. The estimation method of claim 11, wherein the beam pattern is adjusted to the pointing pattern that biases the illumination density at the beam steering angle corresponding to the minor side observation error in the opposite direction to the low side. 前記観測誤差取得プロセスは、前記ターゲットまでの最短距離観測点を前記照射タイミング毎の前記ビームステアリング角度に対応付けて特定し、それら最短距離観測点での前記前後観測誤差及び前記左右観測誤差を取得する請求項11又は12に記載の推定方法。 The observation error acquisition process identifies a shortest distance observation point to the target in association with the beam steering angle for each irradiation timing, and acquires the front-back observation error and the left-right observation error at the shortest distance observation point. The estimation method according to claim 11 or 12. 前記観測誤差取得プロセスは、前記光学センサによる前記ターゲットの測距に生じる誤差として、ビーム直交方向(Dmo)における直交測距誤差(Emo)及びビーム平行方向(Dmp)における平行測距誤差(Emp)からの座標変換により、前記前後観測誤差及び前記左右観測誤差の各理論値(Eoxt,Eoyt)を取得する請求項11~13のいずれか一項に記載の推定方法。 In the observation error acquisition process, as errors occurring in the range measurement of the target by the optical sensor, orthogonal ranging error (Emo) in the beam orthogonal direction (Dmo) and parallel ranging error (Emp) in the beam parallel direction (Dmp) 14. The estimation method according to any one of claims 11 to 13, wherein the theoretical values (Eoxt, Eoyt) of the front-back observation error and the left-right observation error are obtained by coordinate transformation from . 前記観測誤差取得プロセスは、前記ビーム調整プロセスからフィードバックされる前記指向パターンに基づいた前記座標変換により、前記前後観測誤差及び前記左右観測誤差の各理論値(Eoxt,Eoyt)を取得する請求項14に記載の推定方法。 14. The observation error acquisition process acquires theoretical values (Eoxt, Eoyt) of the front-back observation error and the left-right observation error by the coordinate transformation based on the pointing pattern fed back from the beam adjustment process. Estimation method described in . 前記状態量推定プロセスは、前記光学画像に対する前記地図情報の前記マッチング処理に基づいて前記状態量を推定し、
前記観測誤差取得プロセスは、前記ターゲットの観測点と前記地図情報におけるマッチング点との前記観測残差に基づいて前記前後観測誤差及び前記左右観測誤差の各実測値(Eoxm,Eoym)を取得し、それら各実測値を前記前後観測誤差及び前記左右観測誤差の各理論値(Eoxt,Eoyt)と合成する請求項14又は15に記載の推定方法。
The state quantity estimation process estimates the state quantity based on the matching process of the map information with the optical image;
The observation error acquisition process acquires each measured value (Eoxm, Eoym) of the front-back observation error and the left -right observation error based on the observation residual between the target observation point and the matching point in the map information, 16. The estimation method according to claim 14 or 15, wherein each of the measured values is combined with each theoretical value (Eoxt, Eoyt) of the front-back observation error and the left-right observation error.
前記観測誤差取得プロセスは、前記ビームステアリング角度に対して前記前後観測誤差及び前記左右観測誤差を平滑化する請求項11~16のいずれか一項に記載の推定方法。 The estimation method according to any one of claims 11 to 16, wherein the observation error acquisition process smoothes the front-back observation error and the left-right observation error with respect to the beam steering angle. 前記ビーム調整プロセスは、前記前後観測誤差と前記左右観測誤差との観測比率(Ro)に基づいて照射密度を前記ビームステアリング角度に関して関数化した、密度関数(Fd)を満たす前記指向パターンへ、前記ビームパターンを調整する請求項11~17のいずれか一項に記載の推定方法。 The beam adjustment process converts the irradiation density into a density function (Fd), which is a function of the beam steering angle based on the observation ratio (Ro) of the front-back observation error and the left-right observation error. The estimation method according to any one of claims 11 to 17, wherein the beam pattern is adjusted. 前記ビーム調整プロセスは、前記密度関数において前記観測比率に対する調整ゲイン(δ,ε)を、前記前後推定誤差と前記左右推定誤差との推定比率(Re)に基づいて設定する請求項18に記載の推定方法。 19. The beam adjustment process according to claim 18, wherein the adjustment gain ([delta], [epsilon]) for the observation ratio in the density function is set based on an estimated ratio (Re) between the front-back estimation error and the left-right estimation error. estimation method. 前記前後推定誤差及び前記左右推定誤差のうち少なくとも一方が許容範囲から大きい側に外れる場合に前記ビーム調整プロセスは、前記ビームパターンを更新する請求項11~19のいずれか一項に記載の推定方法。 The estimation method according to any one of claims 11 to 19, wherein the beam adjustment process updates the beam pattern when at least one of the front-rear estimation error and the left-right estimation error deviates from an allowable range to a larger side. . 外界へのビーム照射により観測したターゲット(6)からのビーム反射を受けて光学画像(Is)を出力する光学センサ(30)を、搭載した車両(4)の位置を含む状態量(Z)を、推定するために記憶媒体(10)に格納され、プロセッサ(12)に実行させる命令を含む推定プログラムであって、
前記命令は、
前後方向(X)に沿う基準方位(Bs)から側方へ広がる照射レンジ(Θs)での前記ビーム照射に応じて前記ターゲットまでの距離値がデータ化されて前記光学センサから出力される前記光学画像に基づいて、前記状態量を推定させる状態量推定プロセス(S10)と、
前記状態量の推定に生じる推定誤差であって、前記光学画像に対する地図情報(Im)のマッチング処理による観測残差(Δox,Δoy)に対する推定誤差として、前後方向(X)における前後推定誤差(Eex)及び左右方向(Y)における左右推定誤差(Eey)を取得させる推定誤差取得プロセス(S20)と、
前記光学センサによる前記ターゲットの観測に生じる観測誤差であって、前記マッチング処理による前記観測残差に応じた観測誤差として、前後方向(X)における前後観測誤差(Eox)及び左右方向(Y)における左右観測誤差(Eoy)を、前記照射レンジにおける照射タイミング(t)毎のビームステアリング角度(θ)に対応付けて取得させる観測誤差取得プロセス(S40)と、
前記前後推定誤差及び前記左右推定誤差のうち大きい側を大側推定誤差と定義し、前記前後観測誤差及び前記左右観測誤差のうち小さい側を小側観測誤差と定義すると、前記大側推定誤差と前記小側観測誤差とが同方向となる前記ビームステアリング角度に集中する指向パターン(Psd)へ、前記照射レンジでの前記照射タイミング毎の前記ビームステアリング角度に応じた照射密度の分布であるビームパターン(Ps)を調整させるビーム調整プロセス(S50)とを、含む推定プログラム。
The state quantity (Z) including the position of the vehicle (4) equipped with the optical sensor (30) that receives the beam reflection from the target (6) observed by the beam irradiation to the outside and outputs the optical image (Is) is , an estimation program stored in a storage medium (10) and comprising instructions for execution by a processor (12) to estimate,
Said instruction
The distance value to the target is digitized in accordance with the beam irradiation in the irradiation range (Θs) spreading laterally from the reference direction (Bs) along the front-rear direction (X), and the optical sensor outputs the data. a state quantity estimation process (S10) for estimating the state quantity based on the image;
An estimation error occurring in the estimation of the state quantity, which is an estimation error for the observation residuals (Δox, Δoy) due to the matching processing of the map information (Im) with respect to the optical image, is the front-back estimation error (Eex ) and the left-right estimation error (Eey) in the left-right direction (Y); an estimated error acquisition process (S20);
An observation error occurring in observation of the target by the optical sensor, which is an observation error corresponding to the observation residual due to the matching process , is an observation error (Eox) in the front-back direction (X) and an observation error acquisition process (S40) for acquiring the left-right observation error (Eoy) in association with the beam steering angle (θ) for each irradiation timing (t) in the irradiation range;
A larger side of the front-back estimation error and the left-right estimation error is defined as a large-side estimation error, and a smaller side of the front-back observation error and the left-right observation error is defined as a small-side observation error. A beam pattern that is an irradiation density distribution corresponding to the beam steering angle for each irradiation timing in the irradiation range to a directivity pattern (Psd) that is concentrated at the beam steering angle in which the small-side observation error is in the same direction. and a beam adjustment process (S50) to adjust (Ps).
前記ビーム調整プロセスは、前記大側推定誤差と同方向の前記小側観測誤差に対応する前記ビームステアリング角度での照射密度を高い側にバイアスする前記指向パターンであって、前記大側推定誤差と異方向の前記小側観測誤差に対応する前記ビームステアリング角度での照射密度を低い側にバイアスする前記指向パターンへ、前記ビームパターンを調整させる請求項21に記載の推定プログラム。 The beam adjustment process comprises: the pointing pattern biasing the irradiation density at the beam steering angle corresponding to the small-side observation error in the same direction as the large-side estimation error to a higher side; 22. The estimation program according to claim 21, causing the beam pattern to be adjusted to the directivity pattern that biases the irradiation density at the beam steering angle corresponding to the minor side observation error in the opposite direction to the low side. 前記観測誤差取得プロセスは、前記ターゲットまでの最短距離観測を前記照射タイミング毎の前記ビームステアリング角度に対応付けて特定させ、それら最短距離観測点での前記前後観測誤差及び前記左右観測誤差を取得させる請求項21又は22に記載の推定プログラム。 The observation error acquisition process specifies the shortest distance observation to the target in association with the beam steering angle for each irradiation timing, and acquires the front-back observation error and the left-right observation error at the shortest distance observation points. The estimation program according to claim 21 or 22. 前記観測誤差取得プロセスは、前記光学センサによる前記ターゲットの測距に生じる誤差として、ビーム直交方向(Dmo)における直交測距誤差(Emo)及びビーム平行方向(Dmp)における平行測距誤差(Emp)からの座標変換により、前記前後観測誤差及び前記左右観測誤差の各理論値(Eoxt,Eoyt)を取得させる請求項21~23のいずれか一項に記載の推定プログラム。 In the observation error acquisition process, as errors occurring in the range measurement of the target by the optical sensor, orthogonal ranging error (Emo) in the beam orthogonal direction (Dmo) and parallel ranging error (Emp) in the beam parallel direction (Dmp) 24. The estimation program according to any one of claims 21 to 23, wherein each theoretical value (Eoxt, Eoyt) of said front-back observation error and said left-right observation error is obtained by coordinate transformation from . 前記観測誤差取得プロセスは、前記ビーム調整プロセスからフィードバックされる前記指向パターンに基づいた前記座標変換により、前記前後観測誤差及び前記左右観測誤差の各理論値(Eoxt,Eoyt)を取得させる請求項24に記載の推定プログラム。 25. The observation error acquisition process acquires theoretical values (Eoxt, Eoyt) of the front-back observation error and the left-right observation error by the coordinate transformation based on the pointing pattern fed back from the beam adjustment process. Estimation program described in . 前記状態量推定プロセスは、前記光学画像に対する前記地図情報の前記マッチング処理に基づいて前記状態量を推定させ、
前記観測誤差取得プロセスは、前記ターゲットの観測点と前記地図情報におけるマッチング点との前記観測残差に基づいて前記前後観測誤差及び前記左右観測誤差の各実測値(Eoxm,Eoym)を取得させ、それら各実測値を前記前後観測誤差及び前記左右観測誤差の各理論値(Eoxt,Eoyt)と合成させる請求項24又は25に記載の推定プログラム。
The state quantity estimation process estimates the state quantity based on the matching process of the map information with respect to the optical image;
The observation error acquisition process acquires each measured value (Eoxm, Eoym) of the front-back observation error and the left -right observation error based on the observation residual between the target observation point and the matching point in the map information, 26. The estimation program according to claim 24 or 25, which synthesizes each of the measured values with the theoretical values (Eoxt, Eoyt) of the front-back observation error and the left-right observation error.
前記観測誤差取得プロセスは、前記ビームステアリング角度に対して前記前後観測誤差及び前記左右観測誤差を平滑化させる請求項21~26のいずれか一項に記載の推定プログラム。 The estimation program according to any one of claims 21 to 26, wherein the observation error acquisition process smoothes the front-back observation error and the left-right observation error with respect to the beam steering angle. 前記ビーム調整プロセスは、前記前後観測誤差と前記左右観測誤差との観測比率(Ro)に基づいて照射密度を前記ビームステアリング角度に関して関数化した、密度関数(Fd)を満たす前記指向パターンへ、前記ビームパターンを調整させる請求項21~27のいずれか一項に記載の推定プログラム。 The beam adjustment process converts the irradiation density into a density function (Fd), which is a function of the beam steering angle based on the observation ratio (Ro) of the front-back observation error and the left-right observation error. The estimation program according to any one of claims 21 to 27, which adjusts the beam pattern. 前記ビーム調整プロセスは、前記密度関数において前記観測比率に対する調整ゲイン(δ,ε)を、前記前後推定誤差と前記左右推定誤差との推定比率(Re)に基づいて設定させる請求項28に記載の推定プログラム。 29. The beam adjustment process according to claim 28, wherein the adjustment gain (δ, ε) for the observation ratio in the density function is set based on an estimated ratio (Re) between the front-back estimation error and the left-right estimation error. estimation program. 前記前後推定誤差及び前記左右推定誤差のうち少なくとも一方が許容範囲から大きい側に外れる場合に前記ビーム調整プロセスは、前記ビームパターンを更新させる請求項21~29のいずれか一項に記載の推定プログラム。 The estimation program according to any one of claims 21 to 29, wherein the beam adjustment process updates the beam pattern when at least one of the front-rear estimation error and the left-right estimation error deviates from an allowable range to a larger side. .
JP2019235208A 2019-12-25 2019-12-25 Estimation device, estimation method, estimation program Active JP7318521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019235208A JP7318521B2 (en) 2019-12-25 2019-12-25 Estimation device, estimation method, estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019235208A JP7318521B2 (en) 2019-12-25 2019-12-25 Estimation device, estimation method, estimation program

Publications (2)

Publication Number Publication Date
JP2021103148A JP2021103148A (en) 2021-07-15
JP7318521B2 true JP7318521B2 (en) 2023-08-01

Family

ID=76755156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019235208A Active JP7318521B2 (en) 2019-12-25 2019-12-25 Estimation device, estimation method, estimation program

Country Status (1)

Country Link
JP (1) JP7318521B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013030929A1 (en) 2011-08-29 2013-03-07 株式会社日立製作所 Monitoring device, monitoring system and monitoring method
CN104793619A (en) 2015-04-17 2015-07-22 上海交通大学 Warehouse roadway automatic guided vehicle navigation device based on swing single-line laser radar
WO2017060965A1 (en) 2015-10-06 2017-04-13 パイオニア株式会社 Light control device, control method, program, and storage medium
JP2018054539A (en) 2016-09-30 2018-04-05 パイオニア株式会社 Detection device, control method, and program
WO2018212301A1 (en) 2017-05-19 2018-11-22 パイオニア株式会社 Self-position estimation device, control method, program, and storage medium
WO2019044500A1 (en) 2017-09-04 2019-03-07 日本電産株式会社 Location estimation system and mobile body comprising location estimation system
JP2019040176A (en) 2017-08-28 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing apparatus, vehicle, information processing method, travel control method, and map update method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013030929A1 (en) 2011-08-29 2013-03-07 株式会社日立製作所 Monitoring device, monitoring system and monitoring method
CN104793619A (en) 2015-04-17 2015-07-22 上海交通大学 Warehouse roadway automatic guided vehicle navigation device based on swing single-line laser radar
WO2017060965A1 (en) 2015-10-06 2017-04-13 パイオニア株式会社 Light control device, control method, program, and storage medium
JP2018054539A (en) 2016-09-30 2018-04-05 パイオニア株式会社 Detection device, control method, and program
WO2018212301A1 (en) 2017-05-19 2018-11-22 パイオニア株式会社 Self-position estimation device, control method, program, and storage medium
JP2019040176A (en) 2017-08-28 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing apparatus, vehicle, information processing method, travel control method, and map update method
WO2019044500A1 (en) 2017-09-04 2019-03-07 日本電産株式会社 Location estimation system and mobile body comprising location estimation system

Also Published As

Publication number Publication date
JP2021103148A (en) 2021-07-15

Similar Documents

Publication Publication Date Title
US10935643B2 (en) Sensor calibration method and sensor calibration apparatus
JP6770393B2 (en) Tracking device and program
JP2023073257A (en) Output device, control method, program, and storage medium
CN108377380B (en) Image scanning system and method thereof
CN107305632B (en) Monocular computer vision technology-based target object distance measuring method and system
WO2012120856A1 (en) Object detection device and object detection method
JP6777403B2 (en) Object recognition device and program
JP2007316767A (en) Lane mark recognition device for vehicle
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
EP3505865B1 (en) On-vehicle camera, method for adjusting on-vehicle camera, and on-vehicle camera system
JP6838285B2 (en) Lane marker recognition device, own vehicle position estimation device
EP1649334A1 (en) Sensing apparatus for vehicles
US11731649B2 (en) High precision position estimation method through road shape classification-based map matching and autonomous vehicle thereof
JP6569280B2 (en) Road marking detection device and road marking detection method
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP2017111632A (en) Information arithmetic processor
CN109035345A (en) The TOF camera range correction method returned based on Gaussian process
JP2016001841A (en) Parallax image generation apparatus, parallax image generation method, and image
JP2023164553A (en) Position estimation device, estimation device, control method, program and storage medium
CN111989541B (en) Stereo camera device
JP2020118575A (en) Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof
JP6370234B2 (en) MAP DATA GENERATION DEVICE, MAP DATA GENERATION METHOD, MAP DATA GENERATION COMPUTER PROGRAM, AND VEHICLE POSITION DETECTION DEVICE
KR20180083091A (en) System and method for compensating avm tolerance
JP2024038322A (en) Measurement device, measurement method, and program
JP7318521B2 (en) Estimation device, estimation method, estimation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R151 Written notification of patent or utility model registration

Ref document number: 7318521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151