JP2020154619A - Vehicle controller, object monitoring device, and vehicle control system - Google Patents
Vehicle controller, object monitoring device, and vehicle control system Download PDFInfo
- Publication number
- JP2020154619A JP2020154619A JP2019051676A JP2019051676A JP2020154619A JP 2020154619 A JP2020154619 A JP 2020154619A JP 2019051676 A JP2019051676 A JP 2019051676A JP 2019051676 A JP2019051676 A JP 2019051676A JP 2020154619 A JP2020154619 A JP 2020154619A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- obstacle
- blind spot
- monitoring device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Abstract
Description
本発明は、車両を制御する車両制御装置に関する。 The present invention relates to a vehicle control device that controls a vehicle.
車両の運転を支援する技術として、車両が搭載しているセンサや路上に設置しているセンサが検出した物体を運転者に対して通知するものがある。車載センサや路上センサは必ずしも車両周辺の全ての物体を検出できるわけではなく、車両にとって死角となるエリアに物体が存在する場合もある。このような死角障害物をどのようにして運転者に対して通知するのかについて、いくつかの技術が開発されている。 As a technology for supporting the driving of a vehicle, there is a technology for notifying the driver of an object detected by a sensor mounted on the vehicle or a sensor installed on the road. In-vehicle sensors and road sensors cannot always detect all objects around the vehicle, and objects may exist in areas that are blind spots for the vehicle. Several techniques have been developed on how to notify the driver of such blind spot obstacles.
下記特許文献1は、『車両が安全に走行を行うことができる車両システム、車両情報処理方法、プログラムおよび交通システムを提供する。』ことを課題として、『車両システム50は、周囲のオブジェクトを検知するインフラセンサ31から見た場合における、オブジェクトによって生じる死角領域を示す第1死角情報を、インフラセンサ31を有するインフラシステム3から取得する取得部と、オブジェクトを検知する車載センサ51から見た場合における、オブジェクトによって生じる死角領域を示す第2死角情報を生成する検知認識部52とを備える。そして、検知認識部52は、第1死角情報および第2死角情報に基づく各々の死角領域に共通する第1共通死角領域を示す共通死角情報を外部装置に出力する統合部を有する。』という技術を記載している(要約参照)。
The following
下記特許文献2は、『対象物が作り出す死角領域を算出して、対象物の死角領域に存在する移動体同士の接触を起こりにくくすることが可能な運転支援装置を提供すること。』を課題として、『死角領域F1,F2を発生させる死角対象物A1の位置を認識し、死角対象物A1とこの死角対象物A1の近傍に存在する移動体B1,B2との相対位置に基づいて、死角対象物A1によって作り出された移動体B1,B2の死角領域F1,F2を算出する。これにより、死角対象物A1による移動体B1,B2の死角領域F1,F2を認識することができ、例えば死角領域F1,F2に存在する移動体B1,B2に警報を発することで注意喚起を行うことで、死角対象物A1が作り出す異なる死角領域に存在する移動体B1,B2同士の接触を起こりにくくすることができる。』という技術を記載している(要約参照)。
The following
車載センサと路上センサが同じ物体を検出した場合、車載センサが検出した物体位置と路上センサが検出した物体位置がずれる場合がある。車両と路上センサとの間の通信時間や演算時間が必要だからである。このとき車両としては、その位置に2つの物体が存在するのか、それとも同じ物体の位置がずれて検出されたのかを判断することは困難である。他方で車載センサは検出できず路上センサのみが検出した物体については、そのような判断は必要ない。物体位置についての情報は路上センサから取得したもののみだからである。以上に鑑みると、同じ物体について車載センサと路上センサ両者の検出結果が混在することによる影響を緩和することが望ましいと考えられる。 When the in-vehicle sensor and the road sensor detect the same object, the object position detected by the in-vehicle sensor and the object position detected by the road sensor may deviate from each other. This is because the communication time and calculation time between the vehicle and the road sensor are required. At this time, it is difficult for the vehicle to determine whether two objects exist at that position or whether the same object is detected at a different position. On the other hand, such a judgment is not necessary for an object that cannot be detected by the in-vehicle sensor and is detected only by the road sensor. This is because the information about the position of the object is only obtained from the road sensor. In view of the above, it is desirable to mitigate the influence of the mixture of the detection results of both the in-vehicle sensor and the road sensor for the same object.
上記特許文献1〜2記載の技術においては、死角領域に存在する物体を検出することについては考慮されているが、上記のように同じ物体について車載センサと路上センサ両者の検出結果が混在することによる影響については、格別考慮されていないと考えられる。
In the techniques described in
本発明は、上記のような課題に鑑みてなされたものであり、車載センサと路上センサが協調して車両周辺の物体を検出する場合において、同じ物体について車載センサと路上センサ両者の検出結果が混在することによる影響を緩和することを目的とする。 The present invention has been made in view of the above problems, and when the in-vehicle sensor and the road sensor cooperate to detect an object around the vehicle, the detection results of both the in-vehicle sensor and the road sensor are obtained for the same object. The purpose is to mitigate the effects of mixing.
本発明に係る車両制御装置は、車両の外部に設置された物体監視装置から、第1物体の位置と第2物体の位置を記述した障害物データを受信し、前記第1物体が前記車両である場合は前記第2物体を死角障害物とみなす。 The vehicle control device according to the present invention receives obstacle data describing the position of the first object and the position of the second object from an object monitoring device installed outside the vehicle, and the first object is the vehicle. If there is, the second object is regarded as a blind spot obstacle.
本発明に係る車両制御装置によれば、物体監視装置が送信する障害物データが記述している物体のうち一方が自車である場合は他方を死角障害物とみなすので、死角障害物とみなす物体を絞り込むことができる。これにより、同じ物体について車載センサと路上センサ両者の検出結果が混在することによる影響を緩和することができる。 According to the vehicle control device according to the present invention, if one of the objects described in the obstacle data transmitted by the object monitoring device is the own vehicle, the other is regarded as a blind spot obstacle, and thus is regarded as a blind spot obstacle. You can narrow down the objects. This makes it possible to mitigate the effect of mixing the detection results of both the in-vehicle sensor and the road sensor for the same object.
<実施の形態1>
図1は、本発明の実施形態1に係る車両制御システム1の構成図である。車両制御システム1は、車両10の動作を制御するシステムであり、車両制御装置100と物体監視装置200を有する。車両制御装置100は、車両10に搭載されており、車両10が備える各機能部を電子的に制御する装置である。物体監視装置200は、車両10の外部(例えば路上)に設置されており、物体監視装置200の周辺に存在する物体を検出する装置である。
<
FIG. 1 is a configuration diagram of a
図2Aは、車両制御装置100が検出することができる物体の範囲を模式的に示す図である。図1に示す場面において、車両10が走行している道路の周辺には遮蔽物30(例えばある程度の高さを有する壁)が存在している。歩行者21と22は、車両10の進行方向に対して直交する方向にそれぞれ進行している。歩行者21は遮蔽物30により、車両制御装置100にとって死角(図2Aの斜線部分)となる位置に存在している。すなわち車両制御装置100は、歩行者21を認識できない。歩行者22は車両制御装置100が認識できる位置に存在している。
FIG. 2A is a diagram schematically showing a range of objects that can be detected by the
図2Bは、物体監視装置200が検出した物体を模式的に示す図である。図1に示す場面において、物体監視装置200は、車両10、歩行者21と22、遮蔽物30を検出することができる。物体監視装置200は歩行者21を検出できるので、歩行者21の位置を物体監視装置200から車両制御装置100に対して送信することにより、車両制御装置100が歩行者21を認識できない場合であっても、車両制御装置100はその位置を把握して回避行動などをとることができる。
FIG. 2B is a diagram schematically showing an object detected by the
図2Cは、物体監視装置200が検出した物体位置を車両制御装置100が受信したときの状態を示す図である。物体監視装置200が検出した歩行者21の位置を物体監視装置200から車両制御装置100に対して送信したとき、物体監視装置200と車両制御装置100との間の通信時間に起因して、歩行者21の実際の位置と車両制御装置100が認識する位置との間にずれが生じる場合がある。例えば図2Cにおける歩行者21を物体監視装置200が認識してその位置を車両制御装置100に対して送信したとき、車両制御装置100がその位置を受信した時点では、歩行者21が位置21aまで移動している可能性がある。同様に歩行者22も位置22aまで移動している可能性がある。
FIG. 2C is a diagram showing a state when the
車両制御装置100は歩行者21を認識できないのであるから、歩行者21の位置が物体監視装置200から受信した位置から多少ずれていたとしても、歩行者21の存在を認識できる限り、その位置を取得するのは有用である。歩行者22については、車両制御装置100としては位置22a上に歩行者22を認識しているのに対して、物体監視装置200は図2Cの実線上に歩行者22を認識しているので、車両制御装置100は歩行者22の位置を2つ取得することになる。そうすると車両制御装置100としては、その位置に2つの物体が存在するのか、それとも車両制御装置100と物体監視装置200がそれぞれ同じ物体をずれて認識したのか、判断することが困難である。
Since the
本実施形態1は、以上のような課題に鑑みて、車両制御装置100にとって死角となる物体についてのみ、物体監視装置200から車両制御装置100に対してその位置を通知することができる手法を提供することとした。これにより車両制御装置100は、歩行者21については物体監視装置200からその位置(ただし多少ずれている場合もある)を取得することができるとともに、歩行者22については車両制御装置100が認識した位置のみを取得することができる。したがって、同じ物体の位置についての複数の検出結果が車両制御装置100上で混在する可能性を抑制できると考えられる。
In view of the above problems, the first embodiment provides a method capable of notifying the
図3は、車両制御システム1が備える各装置の機能ブロック図である。物体監視装置200は、周辺監視部210、物体検知部220、地形取得部230、死角関係抽出部240、障害物データ送信部250を備える。車両制御装置100は、周辺監視部110、障害物データ受信部120、物体検知部130、死角障害物抽出部140、走行制御部150、制御実行部160を備える。
FIG. 3 is a functional block diagram of each device included in the
周辺監視部210は、物体監視装置200の周辺に存在する物体の位置を検出する。例えばカメラなどの画像センサやLiDARなどの測距センサによって周辺監視部210を構成することができる。画像センサを用いる場合、周辺監視部210は物体監視装置200周辺の監視画像を出力する。測距センサを用いる場合、周辺監視部210は物体の境界部分の座標を表す点群データを出力する。その他適当な検出デバイスを用いることもできる。
The
物体検知部220は、後述するフローチャートにしたがって、物体監視装置200周辺の固定物座標を記述した背景マップを作成するとともに、物体監視装置200周辺の障害物を検出する。障害物の詳細については後述する。地形取得部230は、後述するフローチャートにしたがって、遮蔽物30の座標を記述した遮蔽物マップを作成する。死角関係抽出部240は、後述するフローチャートにしたがって、死角関係にある2つの障害物のペアを特定する。死角関係の詳細については後述する。
The
障害物データ送信部250は、物体監視装置200が検出した障害物のうち、死角関係を有するペアについて、その位置を記述した障害物データを送信する。死角関係を有する障害物ペアの座標のみを送信することにより、図2Cで説明した課題を解消することを図る。ただし障害物データ送信部250は、送信先が車両10であるか否かを区別することなく、ブロードキャスト送信により障害物データを送信する。したがって車両制御装置100は後述する手順により、障害物データが記述している障害物ペアのうち一方が車両10自身であるか否か判断する必要がある。
The obstacle
周辺監視部110は、車両10の周辺に存在する物体の位置を検出する。周辺監視部210と同様のデバイスによって周辺監視部110を構成することができる。障害物データ受信部120は、物体監視装置200から障害物データを受信する。この障害物データは上記の通り、車両10以外の障害物の座標を含んでいる場合もある。物体検知部130は周辺監視部110による検出結果にしたがって、車両10の周辺に存在する障害物を検出する。検出手順は物体検知部130と同じでもよいし、その他手順を用いてもよい。死角障害物抽出部140は、後述するフローチャートにしたがって、障害物データが記述している障害物のうち、車両制御装置100にとって死角関係となっているものを特定する。走行制御部150と制御実行部160は、後述するフローチャートにしたがって、車両10の動作を制御する。
The
図4Aは、物体検知部220の動作手順を説明するフローチャートである。以下図4Aの各ステップについて説明する。以下では周辺監視部210が測距センサによって構成されているものとする。
FIG. 4A is a flowchart illustrating the operation procedure of the
(図4A:ステップS401〜S402)
物体検知部220は、周辺監視部210から3次元点群データを取得する(S401)。物体検知部220は、3次元点群データを用いて、以下に例示する手順にしたがって2次元マップ(XYマップ)を作成する(S402)。XYマップの範囲と解像度はあらかじめ定めておく。例えば範囲は周辺監視部210を中心としてX方向に±50m、Y方向に±50mとし、解像度は1グリッド20cmとする。
(FIG. 4A: steps S401-S402)
The
(図4A:ステップS402:XYマップの作成手順例その1)
周辺監視部210は、地面も周辺物体として検出する場合がある。そこで物体検知部220は、地面を周辺物体から除外するために、点群データが記述しているXYZ座標のうち、Z方向(鉛直方向)における座標が所定範囲内(例えば30cm以上2m以下)にあるもののみを、XYマップ上のXY座標として採用する。以下の例その2と例その3によっても同様の効果を発揮することができる。
(FIG. 4A: Step S402: Example 1 of procedure for creating XY map)
The
(図4A:ステップS402:XYマップの作成手順例その2)
周辺監視部210が測距センサである場合は、例その1に代えて以下の手順を用いることができる。3次元点群データ上でZ方向において値を有する(物体境界が存在する)座標点をXYグリッド上に投影する。同じXYグリッドに属する座標点についてはZ方向の値を加算する。加算後のZ座標値が所定値以上であるXYグリッドのみを、XYマップ上に残す。これにより、Z方向においてある程度の幅を有するXY座標点のみがXYマップ上に反映されることになる。
(FIG. 4A: Step S402: Example of procedure for creating an XY map Part 2)
When the
(図4A:ステップS402:XYマップの作成手順例その3)
周辺監視部210が測距センサである場合は、例その1または例その2に代えて以下の手順を用いることができる。同じXYグリッドに属するLiDARの反射強度値を加算する。加算後の反射強度値が所定値以上のXYグリッドのみを、XYマップ上に残す。これにより、Z方向においてある程度の幅を有するXY座標点のみがXYマップ上に反映されることになる。
(FIG. 4A: Step S402: Example of procedure for creating XY map No. 3)
When the
(図4A:ステップS402:補足)
周辺監視部210がカメラによって構成されている場合、カメラの設置位置と撮影方向を用いて、監視画像のうち地面部分を除去することができる。周辺物体の位置は、例えば監視画像上の境界位置を検出することにより特定することができる。
(FIG. 4A: Step S402: Supplement)
When the
(図4A:ステップS403〜S404)
物体検知部220は、背景マップが完成したか否かを判定する(S403)。完成していればステップS405へ進む。完成していなければ、ステップS402の結果を背景マップに対して適用することにより、背景マップを更新する(S404)。ステップS401に戻って新たな時刻における点群データを取得し、同様の処理を繰り返す。
(FIG. 4A: steps S403 to S404)
The
(図4A:ステップS403〜S404:補足)
ステップS402において作成したXYマップを所定個数以上平均することにより、背景マップを作成することができる。XYマップを時間的に平均化することにより、固定物のXY座標を記述したXYマップが得られると考えられるからである。ただし物体監視装置200周辺に移動物が多い場合や、一時的に載置された物体が多い場合は、XYマップを平均化したとしても、固定物のXY座標の精度は低いと考えられる。そこでS403において物体検知部220は、XYマップの積算個数が所定個数に達していない場合、または平均化したXYマップが記述している物体位置の分散が所定値以上である場合は、背景マップが完成していないものとみなす。
(FIG. 4A: Steps S403 to S404: Supplement)
A background map can be created by averaging a predetermined number or more of the XY maps created in step S402. This is because it is considered that an XY map describing the XY coordinates of a fixed object can be obtained by averaging the XY maps over time. However, when there are many moving objects around the
(図4A:ステップS405〜S406)
物体検知部220は、S402において作成したXYマップと、完成した背景マップとの間の差分を求めることにより、差分マップを作成する(S405)。物体検知部220は、差分マップ上に存在するXYグリッド上に、移動物または一時載置物が存在するものとみなし、これらの物体を障害物として特定する(S406)。
(FIG. 4A: steps S405-S406)
The
図4Bは、物体検知部220がS406を実施する様子を示す概念図である。ここでは図1の状況において周辺物体の境界面を点群データとして検出する例を示した。図4B右図はその点群データである。図4B左図に図1を転記した。物体検知部220は、S405において差分マップを作成することにより、遮蔽物30以外の物体の境界面を点データとして検出する。物体検知部220は、点データをグループ化することにより、各物体の範囲を認識する。例えば距離が近接している点群は同じ物体とみなすことにより、点データを物体としてグループ化できる。図4Bの例においては、それぞれ車両10/歩行者21/歩行者22に対応する物体ID=1〜3を認識した。
FIG. 4B is a conceptual diagram showing how the
図5は、地形取得部230の動作手順を説明するフローチャートである。地形取得部230は、背景マップが完成した後に本フローチャートを実施する。以下図5の各ステップについて説明する。
FIG. 5 is a flowchart illustrating the operation procedure of the
(図5:ステップS501)
地形取得部230は、周辺監視部210から3次元点群データを取得する。
(Fig. 5: Step S501)
The
(図5:ステップS502)
地形取得部230は、遮蔽物候補が存在するXY座標を記述した遮蔽物候補マップを作成する。具体的には、まず各XY座標における最高点(最も大きいZ座標)を記述した最高点マップと、各XY座標における最低点(最も小さいZ座標)を記述した最低点マップを、それぞれ作成する。地形取得部230は、同じXY座標における最高点と最低点との間の差分が所定値以上であるXY座標を特定する。すなわち、高さ方向においてある程度の幅を有する物体のXY座標を特定する。
(Fig. 5: Step S502)
The
(図5:ステップS503)
地形取得部230は、S502において特定したXY座標と背景マップを重ね合わせることにより、静止しておりかつ高さ方向においてある程度の幅を有する物体が存在するXYグリッドを特定する。このXYグリッドは、遮蔽物30の座標とみなすことができる。本ステップによって作成するXYグリッドを、遮蔽物マップと呼ぶことにする。
(Fig. 5: Step S503)
The
(図5:ステップS503:補足)
周辺監視部210は、物体監視装置200の周辺物体の3次元座標を取得することができるので、障害物データ送信部250はその3次元座標を記述した障害物データを送信することも可能である。しかし3次元座標データを処理するのは演算負荷が大きく、また衝突回避のためには車両制御装置100が2次元座標を取得できれば足りる。そこで障害物データは2次元座標によって記述するとともに、遮蔽物30の候補を特定するときのみ高さ方向のデータを用いることとした。これにより障害物データに関する通信負荷や演算負荷を抑制できる利点がある。
(Fig. 5: Step S503: Supplement)
Since the
図6Aは、死角関係抽出部240の動作手順を説明するフローチャートである。死角関係抽出部240は、遮蔽物マップが完成した後に本フローチャートを実施する。以下図6Aの各ステップについて説明する。
FIG. 6A is a flowchart illustrating the operation procedure of the blind spot
(図6A:ステップS601〜S602)
死角関係抽出部240は、物体検知部220が特定した障害物の位置を取得する(S601)。死角関係抽出部240は、その障害物のうちいずれか2つを選択し、遮蔽物マップ上へ投影する(S602)。
(FIG. 6A: steps S601 to S602)
The blind spot
(図6A:ステップS603〜S605)
死角関係抽出部240は、S602において選択した2つの障害物の間に遮蔽物があるか否かを判定する(S603)。S603の具体的手順については後述する。死角関係抽出部240は、間に遮蔽物がある2つの障害物を、死角関係にある障害物ペアとして保存する(S604)。死角関係抽出部240は、S602〜S604を全ての障害物の組み合わせについて実施する(S605)。
(FIG. 6A: steps S603 to S605)
The blind spot
図6Bは、死角関係抽出部240がS603を実施する様子を示す概念図である。ここでは図4Bと同じ例を示した。死角関係抽出部240は、2つの障害物の各重心を線分で結び、その線分上に遮蔽物が存在するか否かにより、その2つの障害物が死角関係であるか否かを判定する。図6Bの例においては、物体ID=1(車両10)と物体ID=2(歩行者21)との間に遮蔽物30が存在するので、これら物体は死角関係にあることが分かる。
FIG. 6B is a conceptual diagram showing how the blind spot
図7は、死角障害物抽出部140の動作手順を説明するフローチャートである。以下図7の各ステップについて説明する。
FIG. 7 is a flowchart illustrating the operation procedure of the blind spot
(図7:ステップS701〜S702)
死角障害物抽出部140は、例えば車両10が搭載しているGPS(Global Positioning System)システムから、車両10の位置を取得する(S701)。死角障害物抽出部140は、障害物データが記述している任意の障害物ペアを取得する(S702)。
(FIG. 7: Steps S701 to S702)
The blind spot
(図7:ステップS703)
死角障害物抽出部140は、S702において選択した障害物ペアのうちいずれかが車両10であるか否かを判定する。具体的には、S701において取得した車両10の位置と、障害物ペアのうちいずれか一方の位置とが一致する(両位置の差分が判定閾値以内である)か否かを判定する。障害物ペアのうちいずれかが車両10であればS704へ進み、いずれも車両10でなければS706へスキップする。
(Fig. 7: Step S703)
The blind spot
(図7:ステップS703:補足)
物体監視装置200は、障害物データの送信先が車両10であるか否かを判断することなく、ブロードキャスト送信により障害物データを送信する。したがって車両10は、例えば図6Bにおける物体ID=1と物体ID=2以外の障害物ペアを受信する可能性がある。本ステップは、物体監視装置200が送信する障害物データのうち、車両10にとって死角関係となる障害物を記述した障害物ペアを抽出するためのものである。障害物データは死角関係となる2物体のペアを記述しているので、その2物体のうち一方が車両10であれば、他方は車両10にとって死角障害物だからである。
(Fig. 7: Step S703: Supplement)
The
(図7:ステップS704〜S706)
死角障害物抽出部140は、後述するフローチャートにしたがって、S702〜S703において取得した障害物の位置を補正する(S704)。死角障害物抽出部140は、補正後の障害物の位置を保存する(S705)。死角障害物抽出部140は、障害物データが記述している全ての障害物ペアの組み合わせについて、S702〜S705を実施する(S706)。
(FIG. 7: Steps S704 to S706)
The blind spot
図8Aは、死角障害物抽出部140がS704を実施する様子を示す概念図である。ここでは車両10が右方向に直進しており、その進行方向の延長上に周辺監視部210の検出面が配置されているものとする(図8A(1))。周辺監視部210が例えばLiDARなどの測距センサによって構成されている場合、周辺監視部210はビームの照射方向と反射強度によって周辺物体の位置を検出する。したがって物体監視装置200の設置角度が例えば環境変化などの影響によってずれると、周辺監視部210による検出結果は、物体の検出方向がずれる可能性が高まる(図8A(2))。そこで死角障害物抽出部140は、この方向ずれを補正する。
FIG. 8A is a conceptual diagram showing how the blind spot
図8Aに示す位置関係において、車両10の実際の位置と、物体監視装置200が認識した車両10の位置との間の方向ずれが角度θであるものとする。死角障害物抽出部140は、歩行者21の位置に対して角度θを適用することにより、歩行者21の位置を補正することができる。これにより、物体監視装置200から受信した歩行者21の位置をより正確な位置へ補正することができる(図8A(3))。
In the positional relationship shown in FIG. 8A, it is assumed that the directional deviation between the actual position of the
車両10が物体監視装置200に向かって進行している場合、車両10の進行にともなって物体監視装置200が検出する車両10の方向はほぼ変化しない。したがって死角障害物抽出部140が車両10と物体監視装置200の位置関係を取得するなどの処理時間中においても車両10の方向は変化しないので、歩行者21の位置を正確に補正することができる。これに対して車両10が物体監視装置200に向かって進行していない場合(図8A(4))、死角障害物抽出部140が車両10と物体監視装置200の位置関係を取得するなどのごく短い処理時間内で、物体監視装置200が検出する車両10の方向が大きく変化する。そうすると、わずかな角度θを補正しても補正の効果が乏しいと考えられる。したがって死角障害物抽出部140は、車両10が物体監視装置200に向かっているときのみ、角度θを補正することが望ましい。
When the
図8Bは、S704の詳細手順を説明するフローチャートである。周辺監視部210が測距センサではない場合、S704は省略することができることを付言しておく。以下図8Bの各ステップについて説明する。
FIG. 8B is a flowchart illustrating the detailed procedure of S704. It should be added that S704 can be omitted when the
(図8B:ステップS801)
死角障害物抽出部140は、車両10の進行方向の延長上に物体監視装置200が配置されているか否かを判定する。車両10の現在位置はS701において取得できる。車両10の進行方向は、例えば車両10の操舵角などから判定することができる。物体監視装置200の位置は、例えばあらかじめ搭載している地図データなどに記述しておくこともできるし、物体監視装置200から取得することもできる。車両10の進行方向の延長上に物体監視装置200が配置されている場合はステップS802へ進み、それ以外であれば補正不可とみなして本フローチャートを終了する。
(FIG. 8B: step S801)
The blind spot
(図8B:ステップS801:補足)
本ステップは、図8A(4)のような状況を除外するためのものである。ただし車両10の進行方向の延長線上から僅かに外れた位置に物体監視装置200が配置されているのであれば、車両10の進行にともなって物体監視装置200が検出する車両10の方向がほぼ変化しない場合もある。したがって、車両10と物体監視装置200を結ぶ線分が車両10の進行方向との間でなす角度θが0度以上閾値未満であれば、S802以降を実施してもよい。具体的な閾値は、例えば車両10の進行速度にしたがって動的に定めてもよいし、あらかじめ固定値を定めておいてもよい。
(FIG. 8B: Step S801: Supplement)
This step is for excluding the situation as shown in FIG. 8A (4). However, if the
(図8B:ステップS802〜S804)
死角障害物抽出部140は、物体監視装置200の位置を取得する(S802)。死角障害物抽出部140はさらに、車両10が搭載している車載センサ(S803)と物体監視装置200(S804)からそれぞれ、車両10の位置を取得する。車載センサとしては例えばGPS装置などの位置検出装置を用いることができる。
(FIG. 8B: steps S802-S804)
The blind spot
(図8B:ステップS805〜S806)
死角障害物抽出部140は、物体監視装置200の位置/車載センサから取得した車両10の位置(第1車両位置)/物体監視装置200から取得した車両10の位置(第2車両位置)、の3座標を用いて、図8Aで説明した角度θを算出する(S805)。すなわち、物体監視装置200の位置と第1車両位置を結ぶ第1直線が、物体監視装置200の位置と第2車両位置を結ぶ第2直線との間で形成する角度θを算出する。S801における角度θも同様に算出することができるので、S801とS805において角度θを共用してもよい。死角障害物抽出部140は、角度θを用いて、障害物ペアのうち車両10ではない側の位置を補正する(S806)。
(FIG. 8B: steps S805 to S806)
The blind spot
図9は、走行制御部150の動作手順を説明するフローチャートである。以下図9の各ステップについて説明する。
FIG. 9 is a flowchart illustrating the operation procedure of the traveling
(図9:ステップS901)
走行制御部150は、車両10が検出した障害物と物体監視装置200から受信した障害物それぞれの位置を取得する。本ステップにおいて取得する障害物は、車両10にとって死角にある死角障害物、車両10の周辺に存在する物体、物体監視装置200の周辺に存在する物体、などが含まれる。
(Fig. 9: Step S901)
The
(図9:ステップS902)
走行制御部150は、障害物iと車両10が衝突するまでに要すると予測される時間TTC[i]を算出する(S902)。TTC[i]は、例えば障害物iが停止していると仮定した上で、車両10の進行方向、車両10の速度、障害物iと車両10との間の距離、などを用いて算出することができる。車両10の進行方向は、例えば操舵角などから判定することができる。車両10の速度は、例えば車速センサから取得することができる。走行制御部150が車両10を自動運転させる場合は、その走行計画から車両10の速度や進行方向を取得することもできる。
(Fig. 9: Step S902)
The
(図9:ステップS903)
走行制御部150は、車両10と障害物iが衝突する可能性を表す危険度DRECI[i]を算出する。算出手法としては例えば、車両10と障害物iとの間の距離が短いほど、DRECI[i]を高くすることが考えられる。走行制御部150は、全ての障害物iについてS901〜S903を実施する。
(Fig. 9: Step S903)
The
(図9:ステップS904〜S908)
走行制御部150は、衝突危険度DRECIが閾値以上である障害物のうち、衝突予測時間TTCが最小である障害物kを特定する(S904)。TTC[k]がブレーキ閾値以下であれば、走行制御部150は制御実行部160を介してブレーキを作動させる(S905〜S906)。TTC[k]がブレーキ閾値超かつ警報閾値以下であれば、走行制御部150は制御実行部160を介して警報を出力する(S907〜S908)。ブレーキ閾値は警報閾値よりも小さい値である。障害物kを特定するのは、障害物kと衝突する可能性を回避できるのであれば、その他物体と衝突する可能性も回避できると考えられるからである。
(FIG. 9: Steps S904 to S908)
The traveling
<実施の形態1:まとめ>
本実施形態1に係る物体監視装置200は、死角関係にある2つの物体のみについてそれらの位置を記述した障害物データを送信する。これにより、障害物データを受信した車両制御装置100において、車両10が検出した物体の位置と物体監視装置200が検出した同じ物体の位置が混在する可能性を抑制できる。またこれにより、物体監視装置200から車両制御装置100に対して送信するデータ量を抑制することができる。換言すると、車両制御装置100が処理すべきデータ量を抑制することができるので、通信負荷や演算負荷を抑制することができる。
<Embodiment 1: Summary>
The
本実施形態1に係る車両制御装置100は、障害物データが記述している障害物ペアのうちいずれか一方が車両10であるか否かを判定し、車両10であれば障害物ペアの他方は死角障害物とみなす。これにより、車両制御装置100が認識できない死角障害物の位置を取得できるとともに、同じ物体の位置が混在する可能性を抑制できる。さらに障害物データのデータ量も抑制できる。
The
<実施の形態2>
実施形態1では、物体監視装置200が検出するXYマップ上で物体を検出する例を説明した。物体監視装置200は死角関係にある障害物ペアについてのみその位置を送信するので、障害物データ量を抑制することができる。ただし障害物の位置はXYマップ上の座標によって記述されているので、XYマップのグリッドが小さければ相応の処理負荷が生じる。そこで本発明の実施形態2では、障害物データを記述する座標系のグリッドを粗くすることにより、処理負荷をさらに抑制する構成例を説明する。
<
In the first embodiment, an example of detecting an object on the XY map detected by the
図10は、物体監視装置200周辺の座標を記述したグリッドの例である。物体監視装置200は、周辺監視部210が検出することができる空間解像度よりも大きいグリッド幅を用いて、物体監視装置200周辺の空間座標系を設定する。この粗いグリッド上の各矩形領域のことを、本実施形態2では「エリア」と呼ぶことにする。各エリアにはエリアIDが割り当てられる。
FIG. 10 is an example of a grid in which the coordinates around the
本実施形態2において物体監視装置200は、周辺監視部210が検出する座標系に代えて、図10のような粗いグリッド上における各障害物の位置を、障害物データとして車両制御装置100に対して送信する。これにより、障害物データのサイズや演算負荷を抑制することを図る。
In the second embodiment, the
図11は、本実施形態2における各装置の機能ブロック図である。物体監視装置200は実施形態1で説明した構成に加えて、エリア作成部260とエリアデータ送信部270を備える。車両制御装置100は実施形態1で説明した構成に加えて、エリアデータ受信部170と位置変換部180を備える。
FIG. 11 is a functional block diagram of each device according to the second embodiment. The
エリア作成部260は、図10で例示したような物体監視装置200周辺の粗い座標系を記述したエリアデータを作成する。エリアデータは、各エリアの座標とIDによって記述することができる。エリアの座標は、車両制御装置100がエリアの範囲を特定することができればどのような形式で記述してもよい。例えばGPS上の座標によってエリアの4隅座標を記述することができる。あるいはエリアのサイズが規定されていれば、当該エリアの代表位置(例えば左上端部)によって当該エリアの座標を記述することができる。エリアデータ送信部270は、エリアデータをブロードキャストにより送信する。障害物データ送信部250は、後述するように、障害物が存在するエリアのIDを、障害物データとして送信する。
The
エリアデータ受信部170は、物体監視装置200からエリアデータを受信する。障害物データ受信部120は、障害物が存在するエリアのIDを記述した障害物データを受信する。位置変換部180は、障害物データが記述しているエリアIDをエリアデータと照合することにより、障害物が存在しているエリアの座標を取得する。
The area
図12は、本実施形態2において物体検知部220が障害物を検出した結果を示す模式図である。物体検知部220は実施形態1と同様に障害物を検出する。ただしその検出結果は、エリアデータ上のエリアによって記述する。すなわち物体検知部220は、障害物が存在しているエリアのIDによって、障害物の位置を記述する。図12における斜線エリアは、障害物が存在していると判断したエリアである。
FIG. 12 is a schematic view showing the result of the
図13は、本実施形態2において死角関係抽出部240が死角関係にある障害物ペアを特定する様子を示す概念図である。実施形態1においては、各物体の重心を線分で結ぶことにより、間に遮蔽物が存在するか否かを判定した。本実施形態2においては物体の重心に代えて、障害物が存在するエリアの中心(または重心)を線分で結ぶことにより、同様の判定を実施する。エリアの座標は、位置変換部180が特定する。以後の処理は実施形態1と同様である。
FIG. 13 is a conceptual diagram showing how the blind spot
図14は、物体監視装置200と車両制御装置100との間でエリアデータと障害物データを送受信する様子を示す概念図である。図10で説明した粗いグリッドによる座標系は、物体監視装置200が作成したものであるので、車両制御装置100に対して各エリアの座標とIDを通知する必要がある。物体監視装置200はエリアデータを送信し、車両制御装置100はそのエリアデータを受信することにより、物体監視装置200が設定したエリアの座標とIDを認識する。障害物データは、障害物が存在するエリアを特定することができれば足りるので、2つの障害物がそれぞれ存在する2つのエリアIDによって記述することができる。
FIG. 14 is a conceptual diagram showing how area data and obstacle data are transmitted and received between the
物体監視装置200は、エリアデータと障害物データを同時に送信してもよいし、例えば交互に送信してもよい。ただし車両制御装置100はエリアデータをいったん受信すれば、物体監視装置200がエリア構成を変更するまではそのエリアデータを再使用することができる。したがって、エリアデータの送信頻度は障害物データの送信頻度よりも少なくてよい。
The
<実施の形態2:まとめ>
本実施形態2に係る物体監視装置200は、物体監視装置200の周辺座標を複数のエリアに区分して記述したエリアデータを送信するとともに、障害物データとして、障害物が存在するエリアのIDを送信する。これにより、障害物データのサイズを抑制し、通信負荷や演算負荷を抑制することができる。
<Embodiment 2: Summary>
The
<実施の形態3>
実施形態1〜2においては、車両制御装置100と物体監視装置200との間で障害物データを送受信する例を説明した。これに代えてまたはこれに加えて、車両制御装置100が物体監視装置200と同様の構成を備え、各車両が搭載する車両制御装置100間で障害物データを送受信することもできる。本発明の実施形態3では、その構成例を説明する。
<
In the first and second embodiments, an example of transmitting and receiving obstacle data between the
図15は、本実施形態3に係る車両制御装置100の機能ブロック図である。本実施形態3における車両制御装置100は、実施形態1〜2で説明した構成に加えて、物体監視装置200が備える各機能部を備える。ここでは実施形態1と同様の構成例を示した。ただし周辺監視部110と物体検知部130は、それぞれ周辺監視部210と物体検知部220によって代用することとした。
FIG. 15 is a functional block diagram of the
障害物データ送信部250は障害物データをブロードキャストにより送信し、他の車両制御装置100はこれを受信する。障害物データ受信部120は、他の車両制御装置100から障害物データを受信する。その他構成は実施形態1〜2と同様である。車両制御装置100間で障害物データを送受信することにより、物体監視装置200と通信することができない場所であっても、車両制御装置100にとって死角となっている物体を認識することができる。さらに、車両制御装置100間で送受信する障害物データのサイズを抑制することができる。
The obstacle
<本発明の変形例について>
本発明は上記実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
<About a modified example of the present invention>
The present invention is not limited to the above embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
実施形態2において、エリアデータが記述する座標系として直交座標系を例示したが、エリアの構成はこれに限らない。例えば回転座標系などその他座標系によってエリアデータを記述することもできる。 In the second embodiment, the orthogonal coordinate system is illustrated as the coordinate system described by the area data, but the configuration of the area is not limited to this. Area data can also be described by other coordinate systems such as a rotating coordinate system.
以上の実施形態において、車両制御装置100と物体監視装置200が備える各機能部は、その機能を実装した回路デバイスなどのハードウェアによって構成することもできるし、その機能を実装したソフトウェアを演算装置(Central Processing Unitなど)が実行することにより構成することもできる。
In the above embodiment, each functional unit included in the
1:車両制御システム
10:車両
21:歩行者
22:歩行者
30:遮蔽物
100:車両制御装置
110:周辺監視部
120:障害物データ受信部
130:物体検知部
140:死角障害物抽出部
150:走行制御部
160:制御実行部
170:エリアデータ受信部
180:位置変換部
200:物体監視装置
210:周辺監視部
220:物体検知部
230:地形取得部
240:死角関係抽出部
250:障害物データ送信部
260:エリア作成部
270:エリアデータ送信部
1: Vehicle control system 10: Vehicle 21: Pedestrian 22: Pedestrian 30: Obstruction 100: Vehicle control device 110: Peripheral monitoring unit 120: Obstacle data reception unit 130: Object detection unit 140: Blind spot obstacle extraction unit 150 : Travel control unit 160: Control execution unit 170: Area data reception unit 180: Position conversion unit 200: Object monitoring device 210: Peripheral monitoring unit 220: Object detection unit 230: Topography acquisition unit 240: Blind spot relationship extraction unit 250: Obstacle Data transmission unit 260: Area creation unit 270: Area data transmission unit
Claims (15)
前記車両の周辺に存在する車両周辺物体の物体位置を検出する周辺監視部、
前記車両の外部に設置された物体監視装置が検出した第1物体の第1物体位置と前記物体監視装置が検出した第2物体の第2物体位置のペアを記述した障害物データを受信する障害物データ受信部、
前記障害物データが記述している前記第1物体が前記車両であるか否かを判定するとともに、前記第1物体が前記車両である場合は前記周辺監視部が検出できない死角障害物として前記第2物体の前記第2物体位置を取得する、死角障害物抽出部、
を備える
ことを特徴とする車両制御装置。 A vehicle control device that controls the operation of a vehicle.
Peripheral monitoring unit that detects the position of objects around the vehicle existing around the vehicle,
Obstacle to receive obstacle data describing a pair of the first object position of the first object detected by the object monitoring device installed outside the vehicle and the second object position of the second object detected by the object monitoring device. Object data receiver,
It is determined whether or not the first object described in the obstacle data is the vehicle, and when the first object is the vehicle, the peripheral monitoring unit cannot detect the first object as a blind spot obstacle. Blind spot obstacle extraction unit, which acquires the position of the second object of two objects,
A vehicle control device characterized by being equipped with.
前記走行制御部は、前記物体位置、前記死角障害物の位置、および前記走行計画を用いて、前記車両と前記車両周辺物体が衝突するか否かおよび前記車両と前記死角障害物が衝突するか否かを判定する衝突判定を実施し、
前記走行制御部は、前記車両周辺物体と前記車両がまたは前記死角障害物と前記車両が衝突するまでに要する衝突予測時間を算出し、
前記走行制御部は、前記衝突予測時間が第1閾値以下である場合は、前記車両のブレーキを動作させることにより前記車両の速度を下げ、
前記走行制御部は、前記衝突予測時間が前記第1閾値よりも大きく第2閾値以下である場合は、その旨を表すアラートを出力する
ことを特徴とする請求項1記載の車両制御装置。 The vehicle control device further includes a travel control unit that creates a travel plan for the vehicle.
The travel control unit uses the object position, the position of the blind spot obstacle, and the travel plan to determine whether or not the vehicle collides with the object around the vehicle and whether the vehicle collides with the blind spot obstacle. Perform a collision judgment to determine whether or not
The traveling control unit calculates a collision prediction time required for the vehicle to collide with an object around the vehicle or the blind spot obstacle with the vehicle.
When the collision prediction time is equal to or less than the first threshold value, the traveling control unit reduces the speed of the vehicle by operating the brake of the vehicle.
The vehicle control device according to claim 1, wherein the traveling control unit outputs an alert indicating that when the collision prediction time is larger than the first threshold value and is equal to or less than the second threshold value.
前記走行制御部は、前記車両周辺物体と前記死角障害物のうち前記衝突危険度が最も高い危険物体を特定し、
前記走行制御部は、前記危険物体について前記衝突予測時間を算出することにより、前記危険物体と前記車両が衝突する可能性が低下するように、前記車両を制御する
ことを特徴とする請求項2記載の車両制御装置。 The traveling control unit calculates a collision risk indicating the possibility of the vehicle colliding with the vehicle peripheral object or the blind spot obstacle.
The traveling control unit identifies the dangerous object having the highest collision risk among the vehicle peripheral object and the blind spot obstacle.
2. The traveling control unit controls the vehicle so that the possibility of the dangerous object colliding with the vehicle is reduced by calculating the collision prediction time for the dangerous object. The vehicle control device described.
前記障害物データ受信部は、前記障害物データとして、前記第1物体が存在する前記エリアの第1IDと前記第2物体が存在する前記エリアの第2IDのペアを記述したデータを受信する
ことを特徴とする請求項1記載の車両制御装置。 The vehicle control device further includes an area data receiving unit that receives area data described by dividing the peripheral coordinates of the vehicle into a plurality of areas.
The obstacle data receiving unit receives, as the obstacle data, data describing a pair of a first ID of the area where the first object exists and a second ID of the area where the second object exists. The vehicle control device according to claim 1.
前記死角障害物抽出部は、前記車両が備える位置検出装置から前記車両の第2車両位置を取得し、
前記死角障害物抽出部は、前記物体監視装置の位置と前記第1車両位置を結ぶ第1直線が、前記物体監視装置の位置と前記第2車両位置を結ぶ第2直線との間で形成する角度が0よりも大きくかつ所定角度以下である場合は、前記角度を用いて前記第2物体位置を補正する
ことを特徴とする請求項1記載の車両制御装置。 The blind spot obstacle extraction unit acquires the position of the object monitoring device and the first vehicle position of the vehicle from the object monitoring device.
The blind spot obstacle extraction unit acquires the position of the second vehicle of the vehicle from the position detection device included in the vehicle.
The blind spot obstacle extraction unit is formed by a first straight line connecting the position of the object monitoring device and the position of the first vehicle between the position of the object monitoring device and the second straight line connecting the position of the second vehicle. The vehicle control device according to claim 1, wherein when the angle is greater than 0 and less than or equal to a predetermined angle, the position of the second object is corrected using the angle.
前記周辺監視部が検出した第3物体と前記周辺監視部が検出した第4物体との間に遮蔽物が存在するか否かを判定するとともに、存在する場合は、前記第3物体と前記第4物体が互いに死角となっている死角関係を有すると判定する、死角関係抽出部、
前記第3物体と前記第4物体それぞれの位置を記述した障害物データを送信する障害物データ送信部、
を備え、
前記障害物データ送信部は、前記第3物体と前記第4物体が前記死角関係を有する場合は、前記障害物データを送信し、
前記障害物データ送信部は、前記第3物体と前記第4物体が前記死角関係を有さない場合は、前記障害物データを送信しない
ことを特徴とする請求項1記載の車両制御装置。 The vehicle control device further
It is determined whether or not there is a shield between the third object detected by the peripheral monitoring unit and the fourth object detected by the peripheral monitoring unit, and if so, the third object and the third object are present. Blind spot relationship extraction unit, which determines that four objects have a blind spot relationship in which they are blind spots to each other.
An obstacle data transmission unit that transmits obstacle data that describes the positions of the third object and the fourth object.
With
When the third object and the fourth object have the blind spot relationship, the obstacle data transmission unit transmits the obstacle data.
The vehicle control device according to claim 1, wherein the obstacle data transmission unit does not transmit the obstacle data when the third object and the fourth object do not have the blind spot relationship.
前記物体監視装置の周辺に存在する周辺物体の位置を検出する周辺監視部、
前記周辺監視部が検出した第1物体と前記周辺監視部が検出した第2物体との間に遮蔽物が存在するか否かを判定するとともに、存在する場合は、前記第1物体と前記第2物体が互いに死角となっている死角関係を有すると判定する、死角関係抽出部、
前記第1物体と前記第2物体それぞれの位置を記述した障害物データを送信する障害物データ送信部、
を備え、
前記障害物データ送信部は、前記第1物体と前記第2物体が前記死角関係を有する場合は、前記障害物データを送信し、
前記障害物データ送信部は、前記第1物体と前記第2物体が前記死角関係を有さない場合は、前記障害物データを送信しない
ことを特徴とする物体監視装置。 An object monitoring device installed outside the vehicle to monitor objects existing around the vehicle.
Peripheral monitoring unit that detects the position of peripheral objects existing around the object monitoring device,
It is determined whether or not there is a shield between the first object detected by the peripheral monitoring unit and the second object detected by the peripheral monitoring unit, and if so, the first object and the first object are present. A blind spot relationship extraction unit that determines that two objects have a blind spot relationship that is a blind spot to each other.
An obstacle data transmission unit that transmits obstacle data that describes the positions of the first object and the second object.
With
When the first object and the second object have the blind spot relationship, the obstacle data transmission unit transmits the obstacle data.
The obstacle data transmission unit is an object monitoring device that does not transmit the obstacle data when the first object and the second object do not have the blind spot relationship.
前記物体監視装置はさらに、前記周辺監視部が検出した前記境界位置を用いて前記周辺物体の範囲を特定する物体検知部を備え、
前記物体検知部は、前記境界位置の地面からの高さが所定範囲内である場合は、前記境界位置を前記周辺物体の境界として特定し、
前記物体検知部は、前記境界位置の地面からの高さが前記所定範囲外である場合は、前記境界位置を前記周辺物体の境界として取り扱わない
ことを特徴とする請求項7記載の物体監視装置。 The peripheral monitoring unit is configured to detect the boundary position of the peripheral object.
The object monitoring device further includes an object detection unit that identifies a range of the peripheral object using the boundary position detected by the peripheral monitoring unit.
When the height of the boundary position from the ground is within a predetermined range, the object detection unit identifies the boundary position as the boundary of the peripheral object.
The object monitoring device according to claim 7, wherein the object detection unit does not treat the boundary position as a boundary of the peripheral objects when the height of the boundary position from the ground is outside the predetermined range. ..
前記物体検知部は、前記周辺物体の位置を記述した物体マップを平均することによって平均マップを作成するとともに、前記平均マップが記述している物体位置の分散が所定閾値未満となるまで前記平均マップを繰り返し作成することにより、前記背景マップを作成する
ことを特徴とする請求項7記載の物体監視装置。 The object monitoring device further includes an object detection unit that identifies a peripheral object whose position does not change as a fixed object and creates a background map that describes the coordinates of the fixed object.
The object detection unit creates an average map by averaging an object map that describes the positions of the surrounding objects, and the average map until the dispersion of the object positions described by the average map becomes less than a predetermined threshold. 7. The object monitoring device according to claim 7, wherein the background map is created by repeatedly creating the above.
ことを特徴とする請求項9記載の物体監視装置。 The object detection unit is characterized in that it identifies a moving object or a temporarily placed object from the peripheral objects by obtaining a difference between the position of the peripheral object and the background map. 9. The object monitoring device according to claim 9.
前記死角関係抽出部は、前記地形取得部が特定した前記遮蔽物の候補を用いて、前記死角関係の有無を判定する
ことを特徴とする請求項9記載の物体監視装置。 The object monitoring device further includes a terrain acquisition unit that identifies a fixed object having a height equal to or higher than a predetermined height as a candidate for the shield.
The object monitoring device according to claim 9, wherein the blind spot relationship extraction unit determines the presence or absence of the blind spot relationship by using the candidate of the shield specified by the terrain acquisition unit.
前記物体検知部は、前記固定物の平面座標を特定することにより2次元マップとして前記背景マップを作成し、
前記地形取得部は、前記固定物の高さを記述した高さマップを前記背景マップと照合することにより、前記遮蔽物の候補を特定する
ことを特徴とする請求項11記載の物体監視装置。 The object monitoring device further includes an object detection unit that identifies a peripheral object whose position does not change as a fixed object and creates a background map that describes the coordinates of the fixed object.
The object detection unit creates the background map as a two-dimensional map by specifying the plane coordinates of the fixed object.
The object monitoring device according to claim 11, wherein the terrain acquisition unit identifies a candidate for the shield by collating a height map describing the height of the fixed object with the background map.
前記死角関係抽出部は、前記背景マップ上で前記第1物体と前記第2物体を結ぶ直線を求めるとともに、前記地形取得部が特定した前記遮蔽物の候補が前記直線上に存在するか否かを判定することにより、前記第1物体と前記第2物体が前記死角関係を有するか否かを判定する
ことを特徴とする請求項9記載の物体監視装置。 The object monitoring device further includes a terrain acquisition unit that identifies a fixed object having a height equal to or higher than a predetermined height as a candidate for the shield.
The blind spot relationship extraction unit obtains a straight line connecting the first object and the second object on the background map, and whether or not the candidate for the shield specified by the terrain acquisition unit exists on the straight line. 9. The object monitoring device according to claim 9, wherein it is determined whether or not the first object and the second object have the blind spot relationship.
前記物体監視装置はさらに、前記エリアデータを送信するエリアデータ送信部を備え、
前記障害物データ送信部は、前記障害物データとして、前記第1物体が存在する前記エリアの第1IDと前記第2物体が存在する前記エリアの第2IDのペアを記述したデータを送信する
ことを特徴とする請求項7記載の物体監視装置。 The object monitoring device further includes an area data creation unit that creates area data in which the peripheral coordinates of the object monitoring device are divided into a plurality of areas and described.
The object monitoring device further includes an area data transmission unit for transmitting the area data.
The obstacle data transmission unit transmits, as the obstacle data, data describing a pair of a first ID of the area where the first object exists and a second ID of the area where the second object exists. The object monitoring device according to claim 7, wherein the object monitoring device is characterized.
前記車両の動作を制御する車両制御装置、
前記車両の外部に設置され、前記車両の周辺に存在する物体を監視する物体監視装置、
を備え、
前記車両制御装置は、
前記車両の周辺に存在する車両周辺物体の物体位置を検出する周辺監視部、
前記車両の外部に設置された物体監視装置が検出した第1物体の第1物体位置と前記物体監視装置が検出した第2物体の第2物体位置のペアを記述した障害物データを受信する障害物データ受信部、
前記障害物データが記述している前記第1物体が前記車両であるか否かを判定するとともに、前記第1物体が前記車両である場合は前記周辺監視部が検出できない死角障害物として前記第2物体の前記第2物体位置を取得する、死角障害物抽出部、
を備え、
前記物体監視装置は、
前記物体監視装置の周辺に存在する周辺物体の位置を検出する周辺監視部、
前記周辺監視部が検出した第3物体と前記周辺監視部が検出した第4物体との間に遮蔽物が存在するか否かを判定するとともに、存在する場合は、前記第3物体と前記第4物体が互いに死角となっている死角関係を有すると判定する、死角関係抽出部、
前記第3物体と前記第4物体それぞれの位置を記述した障害物データを送信する障害物データ送信部、
を備え、
前記障害物データ送信部は、前記第3物体と前記第4物体が前記死角関係を有する場合は、前記障害物データを送信し、
前記障害物データ送信部は、前記第3物体と前記第4物体が前記死角関係を有さない場合は、前記障害物データを送信しない
ことを特徴とする車両制御システム。 A vehicle control system that controls the operation of a vehicle.
A vehicle control device that controls the operation of the vehicle,
An object monitoring device installed outside the vehicle to monitor objects existing around the vehicle,
With
The vehicle control device
Peripheral monitoring unit that detects the position of objects around the vehicle existing around the vehicle,
Obstacle to receive obstacle data describing a pair of the first object position of the first object detected by the object monitoring device installed outside the vehicle and the second object position of the second object detected by the object monitoring device. Object data receiver,
It is determined whether or not the first object described in the obstacle data is the vehicle, and when the first object is the vehicle, the peripheral monitoring unit cannot detect the first object as a blind spot obstacle. Blind spot obstacle extraction unit, which acquires the position of the second object of two objects,
With
The object monitoring device is
Peripheral monitoring unit that detects the position of peripheral objects existing around the object monitoring device,
It is determined whether or not there is a shield between the third object detected by the peripheral monitoring unit and the fourth object detected by the peripheral monitoring unit, and if so, the third object and the third object are present. Blind spot relationship extraction unit, which determines that four objects have a blind spot relationship in which they are blind spots to each other.
An obstacle data transmission unit that transmits obstacle data that describes the positions of the third object and the fourth object.
With
When the third object and the fourth object have the blind spot relationship, the obstacle data transmission unit transmits the obstacle data.
The vehicle control system is characterized in that the obstacle data transmission unit does not transmit the obstacle data when the third object and the fourth object do not have the blind spot relationship.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019051676A JP7229052B2 (en) | 2019-03-19 | 2019-03-19 | vehicle control device, vehicle control system |
PCT/JP2020/000945 WO2020188974A1 (en) | 2019-03-19 | 2020-01-15 | Vehicle control device, object-monitoring device, and vehicle control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019051676A JP7229052B2 (en) | 2019-03-19 | 2019-03-19 | vehicle control device, vehicle control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154619A true JP2020154619A (en) | 2020-09-24 |
JP7229052B2 JP7229052B2 (en) | 2023-02-27 |
Family
ID=72520590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019051676A Active JP7229052B2 (en) | 2019-03-19 | 2019-03-19 | vehicle control device, vehicle control system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7229052B2 (en) |
WO (1) | WO2020188974A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023276840A1 (en) * | 2021-07-01 | 2023-01-05 | 住友電気工業株式会社 | Vehicle-mounted device, identifying method, computer program, and vehicle-mounted system |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7203902B2 (en) * | 2021-06-08 | 2023-01-13 | 本田技研工業株式会社 | CONTROL DEVICE, MOVING OBJECT, CONTROL METHOD AND PROGRAM |
JP7256233B2 (en) * | 2021-06-18 | 2023-04-11 | 本田技研工業株式会社 | WARNING CONTROL DEVICE, MOVING OBJECT, WARNING CONTROL METHOD AND PROGRAM |
JP7203905B2 (en) * | 2021-06-18 | 2023-01-13 | 本田技研工業株式会社 | CONTROL DEVICE, MOVING OBJECT, CONTROL METHOD AND PROGRAM |
JP7203908B1 (en) | 2021-06-22 | 2023-01-13 | 本田技研工業株式会社 | CONTROL DEVICE, MOBILE BODY, CONTROL METHOD, AND PROGRAM |
JP7203907B1 (en) | 2021-06-22 | 2023-01-13 | 本田技研工業株式会社 | CONTROL DEVICE, MOBILE BODY, CONTROL METHOD, AND TERMINAL |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164190A (en) * | 2002-11-12 | 2004-06-10 | Nissan Motor Co Ltd | Annunciator for vehicle |
JP2004355324A (en) * | 2003-05-29 | 2004-12-16 | Nissan Motor Co Ltd | Contact avoidance control device for vehicle |
JP2009252214A (en) * | 2008-04-11 | 2009-10-29 | Denso Corp | Radio communication system |
JP2010079565A (en) * | 2008-09-25 | 2010-04-08 | Toyota Motor Corp | Drive assist device |
JP2011065235A (en) * | 2009-09-15 | 2011-03-31 | Mitsubishi Fuso Truck & Bus Corp | Automatic stop controller and road traffic information system |
JP2015225366A (en) * | 2014-05-26 | 2015-12-14 | 株式会社リコー | Accident prevention system, accident prevention device, and accident prevention method |
JP2017033403A (en) * | 2015-08-04 | 2017-02-09 | 株式会社デンソー | Driving support apparatus |
WO2018193535A1 (en) * | 2017-04-19 | 2018-10-25 | 日産自動車株式会社 | Travel assistance method and travel assistance device |
WO2018194016A1 (en) * | 2017-04-20 | 2018-10-25 | マツダ株式会社 | Vehicle driving assistance device |
WO2019016882A1 (en) * | 2017-07-19 | 2019-01-24 | 三菱電機株式会社 | Notification control device and notification control method |
JP2019041354A (en) * | 2017-08-29 | 2019-03-14 | パナソニック株式会社 | Terminal device, roadside device, communication system, and position acquisition method |
-
2019
- 2019-03-19 JP JP2019051676A patent/JP7229052B2/en active Active
-
2020
- 2020-01-15 WO PCT/JP2020/000945 patent/WO2020188974A1/en active Application Filing
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164190A (en) * | 2002-11-12 | 2004-06-10 | Nissan Motor Co Ltd | Annunciator for vehicle |
JP2004355324A (en) * | 2003-05-29 | 2004-12-16 | Nissan Motor Co Ltd | Contact avoidance control device for vehicle |
JP2009252214A (en) * | 2008-04-11 | 2009-10-29 | Denso Corp | Radio communication system |
JP2010079565A (en) * | 2008-09-25 | 2010-04-08 | Toyota Motor Corp | Drive assist device |
JP2011065235A (en) * | 2009-09-15 | 2011-03-31 | Mitsubishi Fuso Truck & Bus Corp | Automatic stop controller and road traffic information system |
JP2015225366A (en) * | 2014-05-26 | 2015-12-14 | 株式会社リコー | Accident prevention system, accident prevention device, and accident prevention method |
JP2017033403A (en) * | 2015-08-04 | 2017-02-09 | 株式会社デンソー | Driving support apparatus |
WO2018193535A1 (en) * | 2017-04-19 | 2018-10-25 | 日産自動車株式会社 | Travel assistance method and travel assistance device |
WO2018194016A1 (en) * | 2017-04-20 | 2018-10-25 | マツダ株式会社 | Vehicle driving assistance device |
WO2019016882A1 (en) * | 2017-07-19 | 2019-01-24 | 三菱電機株式会社 | Notification control device and notification control method |
JP2019041354A (en) * | 2017-08-29 | 2019-03-14 | パナソニック株式会社 | Terminal device, roadside device, communication system, and position acquisition method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023276840A1 (en) * | 2021-07-01 | 2023-01-05 | 住友電気工業株式会社 | Vehicle-mounted device, identifying method, computer program, and vehicle-mounted system |
Also Published As
Publication number | Publication date |
---|---|
WO2020188974A1 (en) | 2020-09-24 |
JP7229052B2 (en) | 2023-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020188974A1 (en) | Vehicle control device, object-monitoring device, and vehicle control system | |
US9229450B2 (en) | Autonomous movement system | |
JP4569652B2 (en) | Recognition system | |
KR101622028B1 (en) | Apparatus and Method for controlling Vehicle using Vehicle Communication | |
US10520949B2 (en) | Method and device for localizing a vehicle in its surroundings | |
US9223311B2 (en) | Vehicle driving support control apparatus | |
KR102075110B1 (en) | Apparatus of identificating vehicle based vehicle-to-vehicle communication, and method of thereof | |
JP6323064B2 (en) | Traveling lane identification device, lane change support device, traveling lane identification method | |
KR101886483B1 (en) | Method for classify Target using Path History Data at V2V | |
CN106597472A (en) | Intelligent vehicle collision avoidance system and method based on laser radar | |
JP2008225786A (en) | Road circumstance detection system | |
JP2009230389A (en) | Recognition system | |
US11042759B2 (en) | Roadside object recognition apparatus | |
JP2009042999A (en) | Traveling plan generation device | |
US11978261B2 (en) | Information processing apparatus and information processing method | |
JP2015179482A (en) | In-vehicle image processing device and vehicle system using the same | |
JP6521753B2 (en) | Vehicle positioning system | |
JP2010044461A (en) | Apparatus and program for collision estimation | |
JP2018048949A (en) | Object recognition device | |
JP2005258941A (en) | Device for detecting obstacle | |
WO2021049233A1 (en) | Information processing device, information processing method, and program | |
JP2019055675A (en) | Method and device for controlling vehicle running | |
JP2018084987A (en) | Object recognition device | |
JP2019070895A (en) | Runway recognizer | |
JP5104604B2 (en) | Collision judgment device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7229052 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |