JP2020154619A - Vehicle controller, object monitoring device, and vehicle control system - Google Patents

Vehicle controller, object monitoring device, and vehicle control system Download PDF

Info

Publication number
JP2020154619A
JP2020154619A JP2019051676A JP2019051676A JP2020154619A JP 2020154619 A JP2020154619 A JP 2020154619A JP 2019051676 A JP2019051676 A JP 2019051676A JP 2019051676 A JP2019051676 A JP 2019051676A JP 2020154619 A JP2020154619 A JP 2020154619A
Authority
JP
Japan
Prior art keywords
vehicle
unit
obstacle
blind spot
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019051676A
Other languages
Japanese (ja)
Other versions
JP7229052B2 (en
Inventor
健人 緒方
Taketo Ogata
健人 緒方
新 吉高
Yoshitaka Shin
吉高 新
範安 長谷島
Noriyasu HASEJIMA
範安 長谷島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019051676A priority Critical patent/JP7229052B2/en
Priority to PCT/JP2020/000945 priority patent/WO2020188974A1/en
Publication of JP2020154619A publication Critical patent/JP2020154619A/en
Application granted granted Critical
Publication of JP7229052B2 publication Critical patent/JP7229052B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

To mitigate the influence of a detection result of both an in-vehicle sensor and a road sensor being mixed for the same object when the in-vehicle sensor and the road sensor cooperatively detect an object around a vehicle.SOLUTION: A vehicle controller according to the present invention receives obstacle data describing a position of a first object and a position of a second object from an object monitoring device installed outside a vehicle, and regards the second object as a blind spot obstacle when the first object is the vehicle.SELECTED DRAWING: Figure 6B

Description

本発明は、車両を制御する車両制御装置に関する。 The present invention relates to a vehicle control device that controls a vehicle.

車両の運転を支援する技術として、車両が搭載しているセンサや路上に設置しているセンサが検出した物体を運転者に対して通知するものがある。車載センサや路上センサは必ずしも車両周辺の全ての物体を検出できるわけではなく、車両にとって死角となるエリアに物体が存在する場合もある。このような死角障害物をどのようにして運転者に対して通知するのかについて、いくつかの技術が開発されている。 As a technology for supporting the driving of a vehicle, there is a technology for notifying the driver of an object detected by a sensor mounted on the vehicle or a sensor installed on the road. In-vehicle sensors and road sensors cannot always detect all objects around the vehicle, and objects may exist in areas that are blind spots for the vehicle. Several techniques have been developed on how to notify the driver of such blind spot obstacles.

下記特許文献1は、『車両が安全に走行を行うことができる車両システム、車両情報処理方法、プログラムおよび交通システムを提供する。』ことを課題として、『車両システム50は、周囲のオブジェクトを検知するインフラセンサ31から見た場合における、オブジェクトによって生じる死角領域を示す第1死角情報を、インフラセンサ31を有するインフラシステム3から取得する取得部と、オブジェクトを検知する車載センサ51から見た場合における、オブジェクトによって生じる死角領域を示す第2死角情報を生成する検知認識部52とを備える。そして、検知認識部52は、第1死角情報および第2死角情報に基づく各々の死角領域に共通する第1共通死角領域を示す共通死角情報を外部装置に出力する統合部を有する。』という技術を記載している(要約参照)。 The following Patent Document 1 "provides a vehicle system, a vehicle information processing method, a program, and a traffic system capable of safely traveling a vehicle. "The vehicle system 50 acquires the first blind spot information indicating the blind spot region generated by the object when viewed from the infrastructure sensor 31 that detects surrounding objects from the infrastructure system 3 having the infrastructure sensor 31." The acquisition unit is provided with a detection / recognition unit 52 that generates second blind spot information indicating a blind spot region generated by the object when viewed from the vehicle-mounted sensor 51 that detects the object. Then, the detection recognition unit 52 has an integrated unit that outputs common blind spot information indicating a first common blind spot area common to each blind spot area based on the first blind spot information and the second blind spot information to an external device. 』(See summary).

下記特許文献2は、『対象物が作り出す死角領域を算出して、対象物の死角領域に存在する移動体同士の接触を起こりにくくすることが可能な運転支援装置を提供すること。』を課題として、『死角領域F,Fを発生させる死角対象物Aの位置を認識し、死角対象物Aとこの死角対象物Aの近傍に存在する移動体B,Bとの相対位置に基づいて、死角対象物Aによって作り出された移動体B,Bの死角領域F,Fを算出する。これにより、死角対象物Aによる移動体B,Bの死角領域F,Fを認識することができ、例えば死角領域F,Fに存在する移動体B,Bに警報を発することで注意喚起を行うことで、死角対象物Aが作り出す異なる死角領域に存在する移動体B,B同士の接触を起こりにくくすることができる。』という技術を記載している(要約参照)。 The following Patent Document 2 provides, "Providing a driving support device capable of calculating a blind spot region created by an object and making it difficult for moving objects existing in the blind spot region of the object to come into contact with each other. The subject is "the position of the blind spot object A 1 that generates the blind spot areas F 1 and F 2, and the moving objects B 1 and B existing in the vicinity of the blind spot object A 1 and the blind spot object A 1". based on the relative position of the 2, it calculates the blind spot object a moving body B 1, produced by a blind spot region of the B 2 F 1, F 2. Thus, it is possible to recognize the blind area of the blind spot object A 1 mobile B 1, B 2 by F 1, F 2, for example, the mobile B 1, B 2 existing in the blind area F 1, F 2 By calling attention by issuing an alarm, it is possible to make it difficult for moving objects B 1 and B 2 existing in different blind spot regions created by the blind spot object A 1 to come into contact with each other. 』(See summary).

特開2018−195289号公報JP-A-2018-195289 特開2010−079565号公報Japanese Unexamined Patent Publication No. 2010-079655

車載センサと路上センサが同じ物体を検出した場合、車載センサが検出した物体位置と路上センサが検出した物体位置がずれる場合がある。車両と路上センサとの間の通信時間や演算時間が必要だからである。このとき車両としては、その位置に2つの物体が存在するのか、それとも同じ物体の位置がずれて検出されたのかを判断することは困難である。他方で車載センサは検出できず路上センサのみが検出した物体については、そのような判断は必要ない。物体位置についての情報は路上センサから取得したもののみだからである。以上に鑑みると、同じ物体について車載センサと路上センサ両者の検出結果が混在することによる影響を緩和することが望ましいと考えられる。 When the in-vehicle sensor and the road sensor detect the same object, the object position detected by the in-vehicle sensor and the object position detected by the road sensor may deviate from each other. This is because the communication time and calculation time between the vehicle and the road sensor are required. At this time, it is difficult for the vehicle to determine whether two objects exist at that position or whether the same object is detected at a different position. On the other hand, such a judgment is not necessary for an object that cannot be detected by the in-vehicle sensor and is detected only by the road sensor. This is because the information about the position of the object is only obtained from the road sensor. In view of the above, it is desirable to mitigate the influence of the mixture of the detection results of both the in-vehicle sensor and the road sensor for the same object.

上記特許文献1〜2記載の技術においては、死角領域に存在する物体を検出することについては考慮されているが、上記のように同じ物体について車載センサと路上センサ両者の検出結果が混在することによる影響については、格別考慮されていないと考えられる。 In the techniques described in Patent Documents 1 and 2, detection of an object existing in the blind spot region is considered, but as described above, the detection results of both the in-vehicle sensor and the road sensor are mixed for the same object. It is considered that no special consideration has been given to the effects of this.

本発明は、上記のような課題に鑑みてなされたものであり、車載センサと路上センサが協調して車両周辺の物体を検出する場合において、同じ物体について車載センサと路上センサ両者の検出結果が混在することによる影響を緩和することを目的とする。 The present invention has been made in view of the above problems, and when the in-vehicle sensor and the road sensor cooperate to detect an object around the vehicle, the detection results of both the in-vehicle sensor and the road sensor are obtained for the same object. The purpose is to mitigate the effects of mixing.

本発明に係る車両制御装置は、車両の外部に設置された物体監視装置から、第1物体の位置と第2物体の位置を記述した障害物データを受信し、前記第1物体が前記車両である場合は前記第2物体を死角障害物とみなす。 The vehicle control device according to the present invention receives obstacle data describing the position of the first object and the position of the second object from an object monitoring device installed outside the vehicle, and the first object is the vehicle. If there is, the second object is regarded as a blind spot obstacle.

本発明に係る車両制御装置によれば、物体監視装置が送信する障害物データが記述している物体のうち一方が自車である場合は他方を死角障害物とみなすので、死角障害物とみなす物体を絞り込むことができる。これにより、同じ物体について車載センサと路上センサ両者の検出結果が混在することによる影響を緩和することができる。 According to the vehicle control device according to the present invention, if one of the objects described in the obstacle data transmitted by the object monitoring device is the own vehicle, the other is regarded as a blind spot obstacle, and thus is regarded as a blind spot obstacle. You can narrow down the objects. This makes it possible to mitigate the effect of mixing the detection results of both the in-vehicle sensor and the road sensor for the same object.

実施形態1に係る車両制御システム1の構成図である。It is a block diagram of the vehicle control system 1 which concerns on Embodiment 1. 車両制御装置100が検出することができる物体の範囲を模式的に示す図である。It is a figure which shows typically the range of the object which can be detected by the vehicle control device 100. 物体監視装置200が検出した物体を模式的に示す図である。It is a figure which shows typically the object which the object monitoring apparatus 200 detected. 物体監視装置200が検出した物体位置を車両制御装置100が受信したときの状態を示す図である。It is a figure which shows the state when the vehicle control device 100 receives the object position detected by the object monitoring device 200. 車両制御システム1が備える各装置の機能ブロック図である。It is a functional block diagram of each device included in a vehicle control system 1. 物体検知部220の動作手順を説明するフローチャートである。It is a flowchart explaining the operation procedure of the object detection unit 220. 物体検知部220がS406を実施する様子を示す概念図である。It is a conceptual diagram which shows how the object detection part 220 carries out S406. 地形取得部230の動作手順を説明するフローチャートである。It is a flowchart explaining the operation procedure of the terrain acquisition part 230. 死角関係抽出部240の動作手順を説明するフローチャートである。It is a flowchart explaining the operation procedure of the blind spot relation extraction part 240. 死角関係抽出部240がS603を実施する様子を示す概念図である。It is a conceptual diagram which shows how the blind spot relation extraction part 240 carries out S603. 死角障害物抽出部140の動作手順を説明するフローチャートである。It is a flowchart explaining the operation procedure of the blind spot obstacle extraction unit 140. 死角障害物抽出部140がS704を実施する様子を示す概念図である。It is a conceptual diagram which shows how the blind spot obstacle extraction unit 140 carries out S704. S704の詳細手順を説明するフローチャートである。It is a flowchart explaining the detailed procedure of S704. 走行制御部150の動作手順を説明するフローチャートである。It is a flowchart explaining the operation procedure of the traveling control unit 150. 物体監視装置200周辺の座標を記述したグリッドの例である。This is an example of a grid that describes the coordinates around the object monitoring device 200. 実施形態2における各装置の機能ブロック図である。It is a functional block diagram of each apparatus in Embodiment 2. FIG. 実施形態2において物体検知部220が障害物を検出した結果を示す模式図である。It is a schematic diagram which shows the result of the object detection unit 220 detecting an obstacle in Embodiment 2. 実施形態2において死角関係抽出部240が死角関係にある障害物ペアを特定する様子を示す概念図である。FIG. 5 is a conceptual diagram showing how the blind spot relationship extraction unit 240 identifies an obstacle pair having a blind spot relationship in the second embodiment. 物体監視装置200と車両制御装置100との間でエリアデータと障害物データを送受信する様子を示す概念図である。It is a conceptual diagram which shows how the area data and obstacle data are transmitted and received between the object monitoring device 200 and the vehicle control device 100. 実施形態3に係る車両制御装置100の機能ブロック図である。It is a functional block diagram of the vehicle control device 100 which concerns on Embodiment 3.

<実施の形態1>
図1は、本発明の実施形態1に係る車両制御システム1の構成図である。車両制御システム1は、車両10の動作を制御するシステムであり、車両制御装置100と物体監視装置200を有する。車両制御装置100は、車両10に搭載されており、車両10が備える各機能部を電子的に制御する装置である。物体監視装置200は、車両10の外部(例えば路上)に設置されており、物体監視装置200の周辺に存在する物体を検出する装置である。
<Embodiment 1>
FIG. 1 is a configuration diagram of a vehicle control system 1 according to a first embodiment of the present invention. The vehicle control system 1 is a system that controls the operation of the vehicle 10, and includes a vehicle control device 100 and an object monitoring device 200. The vehicle control device 100 is a device mounted on the vehicle 10 and electronically controls each functional unit included in the vehicle 10. The object monitoring device 200 is a device that is installed outside the vehicle 10 (for example, on the road) and detects an object existing in the vicinity of the object monitoring device 200.

図2Aは、車両制御装置100が検出することができる物体の範囲を模式的に示す図である。図1に示す場面において、車両10が走行している道路の周辺には遮蔽物30(例えばある程度の高さを有する壁)が存在している。歩行者21と22は、車両10の進行方向に対して直交する方向にそれぞれ進行している。歩行者21は遮蔽物30により、車両制御装置100にとって死角(図2Aの斜線部分)となる位置に存在している。すなわち車両制御装置100は、歩行者21を認識できない。歩行者22は車両制御装置100が認識できる位置に存在している。 FIG. 2A is a diagram schematically showing a range of objects that can be detected by the vehicle control device 100. In the scene shown in FIG. 1, a shield 30 (for example, a wall having a certain height) exists around the road on which the vehicle 10 is traveling. The pedestrians 21 and 22 are traveling in directions orthogonal to the traveling direction of the vehicle 10, respectively. The pedestrian 21 is present at a position that becomes a blind spot (hatched portion in FIG. 2A) for the vehicle control device 100 due to the shield 30. That is, the vehicle control device 100 cannot recognize the pedestrian 21. The pedestrian 22 is located at a position that can be recognized by the vehicle control device 100.

図2Bは、物体監視装置200が検出した物体を模式的に示す図である。図1に示す場面において、物体監視装置200は、車両10、歩行者21と22、遮蔽物30を検出することができる。物体監視装置200は歩行者21を検出できるので、歩行者21の位置を物体監視装置200から車両制御装置100に対して送信することにより、車両制御装置100が歩行者21を認識できない場合であっても、車両制御装置100はその位置を把握して回避行動などをとることができる。 FIG. 2B is a diagram schematically showing an object detected by the object monitoring device 200. In the scene shown in FIG. 1, the object monitoring device 200 can detect the vehicle 10, the pedestrians 21 and 22, and the shield 30. Since the object monitoring device 200 can detect the pedestrian 21, there is a case where the vehicle control device 100 cannot recognize the pedestrian 21 by transmitting the position of the pedestrian 21 from the object monitoring device 200 to the vehicle control device 100. However, the vehicle control device 100 can grasp the position and take an avoidance action or the like.

図2Cは、物体監視装置200が検出した物体位置を車両制御装置100が受信したときの状態を示す図である。物体監視装置200が検出した歩行者21の位置を物体監視装置200から車両制御装置100に対して送信したとき、物体監視装置200と車両制御装置100との間の通信時間に起因して、歩行者21の実際の位置と車両制御装置100が認識する位置との間にずれが生じる場合がある。例えば図2Cにおける歩行者21を物体監視装置200が認識してその位置を車両制御装置100に対して送信したとき、車両制御装置100がその位置を受信した時点では、歩行者21が位置21aまで移動している可能性がある。同様に歩行者22も位置22aまで移動している可能性がある。 FIG. 2C is a diagram showing a state when the vehicle control device 100 receives the object position detected by the object monitoring device 200. When the position of the pedestrian 21 detected by the object monitoring device 200 is transmitted from the object monitoring device 200 to the vehicle control device 100, walking is caused by the communication time between the object monitoring device 200 and the vehicle control device 100. There may be a gap between the actual position of the person 21 and the position recognized by the vehicle control device 100. For example, when the object monitoring device 200 recognizes the pedestrian 21 in FIG. 2C and transmits the position to the vehicle control device 100, the pedestrian 21 reaches the position 21a when the vehicle control device 100 receives the position. It may be moving. Similarly, the pedestrian 22 may have moved to the position 22a.

車両制御装置100は歩行者21を認識できないのであるから、歩行者21の位置が物体監視装置200から受信した位置から多少ずれていたとしても、歩行者21の存在を認識できる限り、その位置を取得するのは有用である。歩行者22については、車両制御装置100としては位置22a上に歩行者22を認識しているのに対して、物体監視装置200は図2Cの実線上に歩行者22を認識しているので、車両制御装置100は歩行者22の位置を2つ取得することになる。そうすると車両制御装置100としては、その位置に2つの物体が存在するのか、それとも車両制御装置100と物体監視装置200がそれぞれ同じ物体をずれて認識したのか、判断することが困難である。 Since the vehicle control device 100 cannot recognize the pedestrian 21, even if the position of the pedestrian 21 deviates slightly from the position received from the object monitoring device 200, the position of the pedestrian 21 can be recognized as long as the presence of the pedestrian 21 can be recognized. It is useful to get. As for the pedestrian 22, the vehicle control device 100 recognizes the pedestrian 22 on the position 22a, whereas the object monitoring device 200 recognizes the pedestrian 22 on the solid line in FIG. 2C. The vehicle control device 100 acquires two positions of the pedestrian 22. Then, it is difficult for the vehicle control device 100 to determine whether there are two objects at the positions, or whether the vehicle control device 100 and the object monitoring device 200 recognize the same object with a deviation.

本実施形態1は、以上のような課題に鑑みて、車両制御装置100にとって死角となる物体についてのみ、物体監視装置200から車両制御装置100に対してその位置を通知することができる手法を提供することとした。これにより車両制御装置100は、歩行者21については物体監視装置200からその位置(ただし多少ずれている場合もある)を取得することができるとともに、歩行者22については車両制御装置100が認識した位置のみを取得することができる。したがって、同じ物体の位置についての複数の検出結果が車両制御装置100上で混在する可能性を抑制できると考えられる。 In view of the above problems, the first embodiment provides a method capable of notifying the vehicle control device 100 of the position of only an object that is a blind spot for the vehicle control device 100 from the object monitoring device 200. It was decided to. As a result, the vehicle control device 100 can acquire the position (although it may be slightly deviated) from the object monitoring device 200 for the pedestrian 21, and the vehicle control device 100 recognizes the pedestrian 22. Only the position can be obtained. Therefore, it is considered that the possibility that a plurality of detection results for the position of the same object are mixed on the vehicle control device 100 can be suppressed.

図3は、車両制御システム1が備える各装置の機能ブロック図である。物体監視装置200は、周辺監視部210、物体検知部220、地形取得部230、死角関係抽出部240、障害物データ送信部250を備える。車両制御装置100は、周辺監視部110、障害物データ受信部120、物体検知部130、死角障害物抽出部140、走行制御部150、制御実行部160を備える。 FIG. 3 is a functional block diagram of each device included in the vehicle control system 1. The object monitoring device 200 includes a peripheral monitoring unit 210, an object detection unit 220, a terrain acquisition unit 230, a blind spot relationship extraction unit 240, and an obstacle data transmission unit 250. The vehicle control device 100 includes a peripheral monitoring unit 110, an obstacle data receiving unit 120, an object detecting unit 130, a blind spot obstacle extracting unit 140, a traveling control unit 150, and a control executing unit 160.

周辺監視部210は、物体監視装置200の周辺に存在する物体の位置を検出する。例えばカメラなどの画像センサやLiDARなどの測距センサによって周辺監視部210を構成することができる。画像センサを用いる場合、周辺監視部210は物体監視装置200周辺の監視画像を出力する。測距センサを用いる場合、周辺監視部210は物体の境界部分の座標を表す点群データを出力する。その他適当な検出デバイスを用いることもできる。 The peripheral monitoring unit 210 detects the position of an object existing in the vicinity of the object monitoring device 200. For example, the peripheral monitoring unit 210 can be configured by an image sensor such as a camera or a distance measuring sensor such as LiDAR. When an image sensor is used, the peripheral monitoring unit 210 outputs a monitoring image around the object monitoring device 200. When the distance measuring sensor is used, the peripheral monitoring unit 210 outputs point cloud data representing the coordinates of the boundary portion of the object. Other suitable detection devices can also be used.

物体検知部220は、後述するフローチャートにしたがって、物体監視装置200周辺の固定物座標を記述した背景マップを作成するとともに、物体監視装置200周辺の障害物を検出する。障害物の詳細については後述する。地形取得部230は、後述するフローチャートにしたがって、遮蔽物30の座標を記述した遮蔽物マップを作成する。死角関係抽出部240は、後述するフローチャートにしたがって、死角関係にある2つの障害物のペアを特定する。死角関係の詳細については後述する。 The object detection unit 220 creates a background map in which the coordinates of fixed objects around the object monitoring device 200 are described according to a flowchart described later, and detects obstacles around the object monitoring device 200. The details of the obstacle will be described later. The terrain acquisition unit 230 creates a shield map in which the coordinates of the shield 30 are described according to a flowchart described later. The blind spot relationship extraction unit 240 identifies a pair of two obstacles having a blind spot relationship according to a flowchart described later. Details of the blind spot relationship will be described later.

障害物データ送信部250は、物体監視装置200が検出した障害物のうち、死角関係を有するペアについて、その位置を記述した障害物データを送信する。死角関係を有する障害物ペアの座標のみを送信することにより、図2Cで説明した課題を解消することを図る。ただし障害物データ送信部250は、送信先が車両10であるか否かを区別することなく、ブロードキャスト送信により障害物データを送信する。したがって車両制御装置100は後述する手順により、障害物データが記述している障害物ペアのうち一方が車両10自身であるか否か判断する必要がある。 The obstacle data transmission unit 250 transmits obstacle data describing the positions of pairs having a blind spot relationship among the obstacles detected by the object monitoring device 200. By transmitting only the coordinates of the obstacle pair having a blind spot relationship, the problem described in FIG. 2C is solved. However, the obstacle data transmission unit 250 transmits the obstacle data by broadcast transmission without distinguishing whether or not the transmission destination is the vehicle 10. Therefore, the vehicle control device 100 needs to determine whether or not one of the obstacle pairs described in the obstacle data is the vehicle 10 itself by the procedure described later.

周辺監視部110は、車両10の周辺に存在する物体の位置を検出する。周辺監視部210と同様のデバイスによって周辺監視部110を構成することができる。障害物データ受信部120は、物体監視装置200から障害物データを受信する。この障害物データは上記の通り、車両10以外の障害物の座標を含んでいる場合もある。物体検知部130は周辺監視部110による検出結果にしたがって、車両10の周辺に存在する障害物を検出する。検出手順は物体検知部130と同じでもよいし、その他手順を用いてもよい。死角障害物抽出部140は、後述するフローチャートにしたがって、障害物データが記述している障害物のうち、車両制御装置100にとって死角関係となっているものを特定する。走行制御部150と制御実行部160は、後述するフローチャートにしたがって、車両10の動作を制御する。 The peripheral monitoring unit 110 detects the position of an object existing around the vehicle 10. The peripheral monitoring unit 110 can be configured by the same device as the peripheral monitoring unit 210. The obstacle data receiving unit 120 receives obstacle data from the object monitoring device 200. As described above, this obstacle data may include the coordinates of an obstacle other than the vehicle 10. The object detection unit 130 detects obstacles existing around the vehicle 10 according to the detection result by the peripheral monitoring unit 110. The detection procedure may be the same as that of the object detection unit 130, or other procedures may be used. The blind spot obstacle extraction unit 140 identifies an obstacle described in the obstacle data that has a blind spot relationship with the vehicle control device 100 according to a flowchart described later. The travel control unit 150 and the control execution unit 160 control the operation of the vehicle 10 according to a flowchart described later.

図4Aは、物体検知部220の動作手順を説明するフローチャートである。以下図4Aの各ステップについて説明する。以下では周辺監視部210が測距センサによって構成されているものとする。 FIG. 4A is a flowchart illustrating the operation procedure of the object detection unit 220. Each step of FIG. 4A will be described below. In the following, it is assumed that the peripheral monitoring unit 210 is composed of a distance measuring sensor.

(図4A:ステップS401〜S402)
物体検知部220は、周辺監視部210から3次元点群データを取得する(S401)。物体検知部220は、3次元点群データを用いて、以下に例示する手順にしたがって2次元マップ(XYマップ)を作成する(S402)。XYマップの範囲と解像度はあらかじめ定めておく。例えば範囲は周辺監視部210を中心としてX方向に±50m、Y方向に±50mとし、解像度は1グリッド20cmとする。
(FIG. 4A: steps S401-S402)
The object detection unit 220 acquires three-dimensional point cloud data from the peripheral monitoring unit 210 (S401). The object detection unit 220 creates a two-dimensional map (XY map) according to the procedure illustrated below using the three-dimensional point cloud data (S402). The range and resolution of the XY map are determined in advance. For example, the range is ± 50 m in the X direction and ± 50 m in the Y direction centering on the peripheral monitoring unit 210, and the resolution is 20 cm per grid.

(図4A:ステップS402:XYマップの作成手順例その1)
周辺監視部210は、地面も周辺物体として検出する場合がある。そこで物体検知部220は、地面を周辺物体から除外するために、点群データが記述しているXYZ座標のうち、Z方向(鉛直方向)における座標が所定範囲内(例えば30cm以上2m以下)にあるもののみを、XYマップ上のXY座標として採用する。以下の例その2と例その3によっても同様の効果を発揮することができる。
(FIG. 4A: Step S402: Example 1 of procedure for creating XY map)
The peripheral monitoring unit 210 may also detect the ground as a peripheral object. Therefore, in order to exclude the ground from the surrounding objects, the object detection unit 220 keeps the coordinates in the Z direction (vertical direction) within a predetermined range (for example, 30 cm or more and 2 m or less) among the XYZ coordinates described in the point cloud data. Only certain ones are adopted as XY coordinates on the XY map. The same effect can be obtained by the following examples 2 and 3.

(図4A:ステップS402:XYマップの作成手順例その2)
周辺監視部210が測距センサである場合は、例その1に代えて以下の手順を用いることができる。3次元点群データ上でZ方向において値を有する(物体境界が存在する)座標点をXYグリッド上に投影する。同じXYグリッドに属する座標点についてはZ方向の値を加算する。加算後のZ座標値が所定値以上であるXYグリッドのみを、XYマップ上に残す。これにより、Z方向においてある程度の幅を有するXY座標点のみがXYマップ上に反映されることになる。
(FIG. 4A: Step S402: Example of procedure for creating an XY map Part 2)
When the peripheral monitoring unit 210 is a distance measuring sensor, the following procedure can be used instead of Example 1. A coordinate point having a value in the Z direction (an object boundary exists) on the 3D point cloud data is projected on the XY grid. For coordinate points belonging to the same XY grid, the values in the Z direction are added. Only the XY grid whose Z coordinate value after addition is equal to or greater than a predetermined value is left on the XY map. As a result, only the XY coordinate points having a certain width in the Z direction are reflected on the XY map.

(図4A:ステップS402:XYマップの作成手順例その3)
周辺監視部210が測距センサである場合は、例その1または例その2に代えて以下の手順を用いることができる。同じXYグリッドに属するLiDARの反射強度値を加算する。加算後の反射強度値が所定値以上のXYグリッドのみを、XYマップ上に残す。これにより、Z方向においてある程度の幅を有するXY座標点のみがXYマップ上に反映されることになる。
(FIG. 4A: Step S402: Example of procedure for creating XY map No. 3)
When the peripheral monitoring unit 210 is a distance measuring sensor, the following procedure can be used instead of Example 1 or Example 2. The reflection intensity values of LiDAR belonging to the same XY grid are added. Only the XY grid whose reflection intensity value after addition is equal to or more than a predetermined value is left on the XY map. As a result, only the XY coordinate points having a certain width in the Z direction are reflected on the XY map.

(図4A:ステップS402:補足)
周辺監視部210がカメラによって構成されている場合、カメラの設置位置と撮影方向を用いて、監視画像のうち地面部分を除去することができる。周辺物体の位置は、例えば監視画像上の境界位置を検出することにより特定することができる。
(FIG. 4A: Step S402: Supplement)
When the peripheral monitoring unit 210 is composed of a camera, the ground portion of the monitored image can be removed by using the camera installation position and shooting direction. The position of the peripheral object can be specified, for example, by detecting the boundary position on the surveillance image.

(図4A:ステップS403〜S404)
物体検知部220は、背景マップが完成したか否かを判定する(S403)。完成していればステップS405へ進む。完成していなければ、ステップS402の結果を背景マップに対して適用することにより、背景マップを更新する(S404)。ステップS401に戻って新たな時刻における点群データを取得し、同様の処理を繰り返す。
(FIG. 4A: steps S403 to S404)
The object detection unit 220 determines whether or not the background map is completed (S403). If it is completed, the process proceeds to step S405. If it is not completed, the background map is updated by applying the result of step S402 to the background map (S404). Returning to step S401, the point cloud data at a new time is acquired, and the same process is repeated.

(図4A:ステップS403〜S404:補足)
ステップS402において作成したXYマップを所定個数以上平均することにより、背景マップを作成することができる。XYマップを時間的に平均化することにより、固定物のXY座標を記述したXYマップが得られると考えられるからである。ただし物体監視装置200周辺に移動物が多い場合や、一時的に載置された物体が多い場合は、XYマップを平均化したとしても、固定物のXY座標の精度は低いと考えられる。そこでS403において物体検知部220は、XYマップの積算個数が所定個数に達していない場合、または平均化したXYマップが記述している物体位置の分散が所定値以上である場合は、背景マップが完成していないものとみなす。
(FIG. 4A: Steps S403 to S404: Supplement)
A background map can be created by averaging a predetermined number or more of the XY maps created in step S402. This is because it is considered that an XY map describing the XY coordinates of a fixed object can be obtained by averaging the XY maps over time. However, when there are many moving objects around the object monitoring device 200 or when there are many temporarily placed objects, it is considered that the accuracy of the XY coordinates of the fixed objects is low even if the XY maps are averaged. Therefore, in S403, the object detection unit 220 sets the background map when the integrated number of XY maps does not reach the predetermined number, or when the dispersion of the object positions described in the averaged XY map is equal to or more than the predetermined value. It is considered incomplete.

(図4A:ステップS405〜S406)
物体検知部220は、S402において作成したXYマップと、完成した背景マップとの間の差分を求めることにより、差分マップを作成する(S405)。物体検知部220は、差分マップ上に存在するXYグリッド上に、移動物または一時載置物が存在するものとみなし、これらの物体を障害物として特定する(S406)。
(FIG. 4A: steps S405-S406)
The object detection unit 220 creates a difference map by obtaining the difference between the XY map created in S402 and the completed background map (S405). The object detection unit 220 considers that a moving object or a temporary object exists on the XY grid existing on the difference map, and identifies these objects as obstacles (S406).

図4Bは、物体検知部220がS406を実施する様子を示す概念図である。ここでは図1の状況において周辺物体の境界面を点群データとして検出する例を示した。図4B右図はその点群データである。図4B左図に図1を転記した。物体検知部220は、S405において差分マップを作成することにより、遮蔽物30以外の物体の境界面を点データとして検出する。物体検知部220は、点データをグループ化することにより、各物体の範囲を認識する。例えば距離が近接している点群は同じ物体とみなすことにより、点データを物体としてグループ化できる。図4Bの例においては、それぞれ車両10/歩行者21/歩行者22に対応する物体ID=1〜3を認識した。 FIG. 4B is a conceptual diagram showing how the object detection unit 220 executes S406. Here, an example of detecting the boundary surface of a peripheral object as point cloud data in the situation of FIG. 1 is shown. The right figure of FIG. 4B is the point cloud data. FIG. 1 is transcribed in the left figure of FIG. 4B. The object detection unit 220 detects the boundary surface of an object other than the shield 30 as point data by creating a difference map in S405. The object detection unit 220 recognizes the range of each object by grouping the point data. For example, point clouds that are close to each other can be grouped as objects by regarding them as the same object. In the example of FIG. 4B, the object IDs 1 to 3 corresponding to the vehicle 10 / pedestrian 21 / pedestrian 22 were recognized.

図5は、地形取得部230の動作手順を説明するフローチャートである。地形取得部230は、背景マップが完成した後に本フローチャートを実施する。以下図5の各ステップについて説明する。 FIG. 5 is a flowchart illustrating the operation procedure of the terrain acquisition unit 230. The terrain acquisition unit 230 implements this flowchart after the background map is completed. Each step of FIG. 5 will be described below.

(図5:ステップS501)
地形取得部230は、周辺監視部210から3次元点群データを取得する。
(Fig. 5: Step S501)
The terrain acquisition unit 230 acquires three-dimensional point cloud data from the peripheral monitoring unit 210.

(図5:ステップS502)
地形取得部230は、遮蔽物候補が存在するXY座標を記述した遮蔽物候補マップを作成する。具体的には、まず各XY座標における最高点(最も大きいZ座標)を記述した最高点マップと、各XY座標における最低点(最も小さいZ座標)を記述した最低点マップを、それぞれ作成する。地形取得部230は、同じXY座標における最高点と最低点との間の差分が所定値以上であるXY座標を特定する。すなわち、高さ方向においてある程度の幅を有する物体のXY座標を特定する。
(Fig. 5: Step S502)
The terrain acquisition unit 230 creates a shield candidate map that describes the XY coordinates in which the shield candidate exists. Specifically, first, a highest point map describing the highest point (largest Z coordinate) at each XY coordinate and a lowest point map describing the lowest point (smallest Z coordinate) at each XY coordinate are created. The terrain acquisition unit 230 specifies the XY coordinates in which the difference between the highest point and the lowest point in the same XY coordinates is equal to or greater than a predetermined value. That is, the XY coordinates of an object having a certain width in the height direction are specified.

(図5:ステップS503)
地形取得部230は、S502において特定したXY座標と背景マップを重ね合わせることにより、静止しておりかつ高さ方向においてある程度の幅を有する物体が存在するXYグリッドを特定する。このXYグリッドは、遮蔽物30の座標とみなすことができる。本ステップによって作成するXYグリッドを、遮蔽物マップと呼ぶことにする。
(Fig. 5: Step S503)
The terrain acquisition unit 230 identifies the XY grid in which an object that is stationary and has a certain width in the height direction exists by superimposing the XY coordinates specified in S502 and the background map. This XY grid can be regarded as the coordinates of the shield 30. The XY grid created by this step will be called a shield map.

(図5:ステップS503:補足)
周辺監視部210は、物体監視装置200の周辺物体の3次元座標を取得することができるので、障害物データ送信部250はその3次元座標を記述した障害物データを送信することも可能である。しかし3次元座標データを処理するのは演算負荷が大きく、また衝突回避のためには車両制御装置100が2次元座標を取得できれば足りる。そこで障害物データは2次元座標によって記述するとともに、遮蔽物30の候補を特定するときのみ高さ方向のデータを用いることとした。これにより障害物データに関する通信負荷や演算負荷を抑制できる利点がある。
(Fig. 5: Step S503: Supplement)
Since the peripheral monitoring unit 210 can acquire the three-dimensional coordinates of the peripheral object of the object monitoring device 200, the obstacle data transmission unit 250 can also transmit the obstacle data in which the three-dimensional coordinates are described. .. However, processing the three-dimensional coordinate data has a large calculation load, and it is sufficient if the vehicle control device 100 can acquire the two-dimensional coordinates in order to avoid a collision. Therefore, the obstacle data is described by two-dimensional coordinates, and the data in the height direction is used only when the candidate of the shield 30 is specified. This has the advantage that the communication load and calculation load related to obstacle data can be suppressed.

図6Aは、死角関係抽出部240の動作手順を説明するフローチャートである。死角関係抽出部240は、遮蔽物マップが完成した後に本フローチャートを実施する。以下図6Aの各ステップについて説明する。 FIG. 6A is a flowchart illustrating the operation procedure of the blind spot relationship extraction unit 240. The blind spot relationship extraction unit 240 implements this flowchart after the shield map is completed. Each step of FIG. 6A will be described below.

(図6A:ステップS601〜S602)
死角関係抽出部240は、物体検知部220が特定した障害物の位置を取得する(S601)。死角関係抽出部240は、その障害物のうちいずれか2つを選択し、遮蔽物マップ上へ投影する(S602)。
(FIG. 6A: steps S601 to S602)
The blind spot relationship extraction unit 240 acquires the position of the obstacle specified by the object detection unit 220 (S601). The blind spot relationship extraction unit 240 selects any two of the obstacles and projects them onto the shield map (S602).

(図6A:ステップS603〜S605)
死角関係抽出部240は、S602において選択した2つの障害物の間に遮蔽物があるか否かを判定する(S603)。S603の具体的手順については後述する。死角関係抽出部240は、間に遮蔽物がある2つの障害物を、死角関係にある障害物ペアとして保存する(S604)。死角関係抽出部240は、S602〜S604を全ての障害物の組み合わせについて実施する(S605)。
(FIG. 6A: steps S603 to S605)
The blind spot relationship extraction unit 240 determines whether or not there is a shield between the two obstacles selected in S602 (S603). The specific procedure of S603 will be described later. The blind spot relationship extraction unit 240 stores two obstacles having a shield between them as a pair of obstacles having a blind spot relationship (S604). The blind spot relationship extraction unit 240 carries out S602 to S604 for all combinations of obstacles (S605).

図6Bは、死角関係抽出部240がS603を実施する様子を示す概念図である。ここでは図4Bと同じ例を示した。死角関係抽出部240は、2つの障害物の各重心を線分で結び、その線分上に遮蔽物が存在するか否かにより、その2つの障害物が死角関係であるか否かを判定する。図6Bの例においては、物体ID=1(車両10)と物体ID=2(歩行者21)との間に遮蔽物30が存在するので、これら物体は死角関係にあることが分かる。 FIG. 6B is a conceptual diagram showing how the blind spot relationship extraction unit 240 executes S603. Here, the same example as in FIG. 4B is shown. The blind spot relationship extraction unit 240 connects each center of gravity of two obstacles with a line segment, and determines whether or not the two obstacles have a blind spot relationship depending on whether or not there is a shield on the line segment. To do. In the example of FIG. 6B, since the shield 30 exists between the object ID = 1 (vehicle 10) and the object ID = 2 (pedestrian 21), it can be seen that these objects are in a blind spot relationship.

図7は、死角障害物抽出部140の動作手順を説明するフローチャートである。以下図7の各ステップについて説明する。 FIG. 7 is a flowchart illustrating the operation procedure of the blind spot obstacle extraction unit 140. Each step of FIG. 7 will be described below.

(図7:ステップS701〜S702)
死角障害物抽出部140は、例えば車両10が搭載しているGPS(Global Positioning System)システムから、車両10の位置を取得する(S701)。死角障害物抽出部140は、障害物データが記述している任意の障害物ペアを取得する(S702)。
(FIG. 7: Steps S701 to S702)
The blind spot obstacle extraction unit 140 acquires the position of the vehicle 10 from, for example, the GPS (Global Positioning System) system mounted on the vehicle 10 (S701). The blind spot obstacle extraction unit 140 acquires an arbitrary obstacle pair described in the obstacle data (S702).

(図7:ステップS703)
死角障害物抽出部140は、S702において選択した障害物ペアのうちいずれかが車両10であるか否かを判定する。具体的には、S701において取得した車両10の位置と、障害物ペアのうちいずれか一方の位置とが一致する(両位置の差分が判定閾値以内である)か否かを判定する。障害物ペアのうちいずれかが車両10であればS704へ進み、いずれも車両10でなければS706へスキップする。
(Fig. 7: Step S703)
The blind spot obstacle extraction unit 140 determines whether or not any one of the obstacle pairs selected in S702 is the vehicle 10. Specifically, it is determined whether or not the position of the vehicle 10 acquired in S701 and the position of any one of the obstacle pairs match (the difference between the two positions is within the determination threshold value). If any one of the obstacle pairs is the vehicle 10, the process proceeds to S704, and if none of the obstacle pairs is the vehicle 10, the process proceeds to S706.

(図7:ステップS703:補足)
物体監視装置200は、障害物データの送信先が車両10であるか否かを判断することなく、ブロードキャスト送信により障害物データを送信する。したがって車両10は、例えば図6Bにおける物体ID=1と物体ID=2以外の障害物ペアを受信する可能性がある。本ステップは、物体監視装置200が送信する障害物データのうち、車両10にとって死角関係となる障害物を記述した障害物ペアを抽出するためのものである。障害物データは死角関係となる2物体のペアを記述しているので、その2物体のうち一方が車両10であれば、他方は車両10にとって死角障害物だからである。
(Fig. 7: Step S703: Supplement)
The object monitoring device 200 transmits the obstacle data by broadcast transmission without determining whether or not the destination of the obstacle data is the vehicle 10. Therefore, the vehicle 10 may receive, for example, an obstacle pair other than the object ID = 1 and the object ID = 2 in FIG. 6B. This step is for extracting an obstacle pair that describes an obstacle that has a blind spot relationship for the vehicle 10 from the obstacle data transmitted by the object monitoring device 200. This is because the obstacle data describes a pair of two objects having a blind spot relationship, and if one of the two objects is the vehicle 10, the other is a blind spot obstacle for the vehicle 10.

(図7:ステップS704〜S706)
死角障害物抽出部140は、後述するフローチャートにしたがって、S702〜S703において取得した障害物の位置を補正する(S704)。死角障害物抽出部140は、補正後の障害物の位置を保存する(S705)。死角障害物抽出部140は、障害物データが記述している全ての障害物ペアの組み合わせについて、S702〜S705を実施する(S706)。
(FIG. 7: Steps S704 to S706)
The blind spot obstacle extraction unit 140 corrects the position of the obstacle acquired in S702 to S703 according to the flowchart described later (S704). The blind spot obstacle extraction unit 140 saves the corrected obstacle position (S705). The blind spot obstacle extraction unit 140 carries out S702 to S705 for all the combinations of obstacle pairs described in the obstacle data (S706).

図8Aは、死角障害物抽出部140がS704を実施する様子を示す概念図である。ここでは車両10が右方向に直進しており、その進行方向の延長上に周辺監視部210の検出面が配置されているものとする(図8A(1))。周辺監視部210が例えばLiDARなどの測距センサによって構成されている場合、周辺監視部210はビームの照射方向と反射強度によって周辺物体の位置を検出する。したがって物体監視装置200の設置角度が例えば環境変化などの影響によってずれると、周辺監視部210による検出結果は、物体の検出方向がずれる可能性が高まる(図8A(2))。そこで死角障害物抽出部140は、この方向ずれを補正する。 FIG. 8A is a conceptual diagram showing how the blind spot obstacle extraction unit 140 executes S704. Here, it is assumed that the vehicle 10 is traveling straight to the right and the detection surface of the peripheral monitoring unit 210 is arranged on the extension of the traveling direction (FIG. 8A (1)). When the peripheral monitoring unit 210 is composed of a distance measuring sensor such as LiDAR, the peripheral monitoring unit 210 detects the position of a peripheral object based on the beam irradiation direction and the reflection intensity. Therefore, if the installation angle of the object monitoring device 200 deviates due to the influence of, for example, an environmental change, the detection result by the peripheral monitoring unit 210 increases the possibility that the object detection direction deviates (FIG. 8A (2)). Therefore, the blind spot obstacle extraction unit 140 corrects this directional deviation.

図8Aに示す位置関係において、車両10の実際の位置と、物体監視装置200が認識した車両10の位置との間の方向ずれが角度θであるものとする。死角障害物抽出部140は、歩行者21の位置に対して角度θを適用することにより、歩行者21の位置を補正することができる。これにより、物体監視装置200から受信した歩行者21の位置をより正確な位置へ補正することができる(図8A(3))。 In the positional relationship shown in FIG. 8A, it is assumed that the directional deviation between the actual position of the vehicle 10 and the position of the vehicle 10 recognized by the object monitoring device 200 is the angle θ. The blind spot obstacle extraction unit 140 can correct the position of the pedestrian 21 by applying the angle θ to the position of the pedestrian 21. As a result, the position of the pedestrian 21 received from the object monitoring device 200 can be corrected to a more accurate position (FIG. 8A (3)).

車両10が物体監視装置200に向かって進行している場合、車両10の進行にともなって物体監視装置200が検出する車両10の方向はほぼ変化しない。したがって死角障害物抽出部140が車両10と物体監視装置200の位置関係を取得するなどの処理時間中においても車両10の方向は変化しないので、歩行者21の位置を正確に補正することができる。これに対して車両10が物体監視装置200に向かって進行していない場合(図8A(4))、死角障害物抽出部140が車両10と物体監視装置200の位置関係を取得するなどのごく短い処理時間内で、物体監視装置200が検出する車両10の方向が大きく変化する。そうすると、わずかな角度θを補正しても補正の効果が乏しいと考えられる。したがって死角障害物抽出部140は、車両10が物体監視装置200に向かっているときのみ、角度θを補正することが望ましい。 When the vehicle 10 is moving toward the object monitoring device 200, the direction of the vehicle 10 detected by the object monitoring device 200 does not change substantially as the vehicle 10 moves. Therefore, since the direction of the vehicle 10 does not change even during the processing time such as the blind spot obstacle extraction unit 140 acquiring the positional relationship between the vehicle 10 and the object monitoring device 200, the position of the pedestrian 21 can be accurately corrected. .. On the other hand, when the vehicle 10 is not moving toward the object monitoring device 200 (FIG. 8A (4)), the blind spot obstacle extraction unit 140 acquires the positional relationship between the vehicle 10 and the object monitoring device 200. Within a short processing time, the direction of the vehicle 10 detected by the object monitoring device 200 changes significantly. Then, even if a slight angle θ is corrected, the effect of the correction is considered to be poor. Therefore, it is desirable that the blind spot obstacle extraction unit 140 corrects the angle θ only when the vehicle 10 is facing the object monitoring device 200.

図8Bは、S704の詳細手順を説明するフローチャートである。周辺監視部210が測距センサではない場合、S704は省略することができることを付言しておく。以下図8Bの各ステップについて説明する。 FIG. 8B is a flowchart illustrating the detailed procedure of S704. It should be added that S704 can be omitted when the peripheral monitoring unit 210 is not a distance measuring sensor. Each step of FIG. 8B will be described below.

(図8B:ステップS801)
死角障害物抽出部140は、車両10の進行方向の延長上に物体監視装置200が配置されているか否かを判定する。車両10の現在位置はS701において取得できる。車両10の進行方向は、例えば車両10の操舵角などから判定することができる。物体監視装置200の位置は、例えばあらかじめ搭載している地図データなどに記述しておくこともできるし、物体監視装置200から取得することもできる。車両10の進行方向の延長上に物体監視装置200が配置されている場合はステップS802へ進み、それ以外であれば補正不可とみなして本フローチャートを終了する。
(FIG. 8B: step S801)
The blind spot obstacle extraction unit 140 determines whether or not the object monitoring device 200 is arranged on the extension of the traveling direction of the vehicle 10. The current position of the vehicle 10 can be obtained in S701. The traveling direction of the vehicle 10 can be determined from, for example, the steering angle of the vehicle 10. The position of the object monitoring device 200 can be described in, for example, map data mounted in advance, or can be acquired from the object monitoring device 200. If the object monitoring device 200 is arranged on the extension of the traveling direction of the vehicle 10, the process proceeds to step S802, and if not, it is considered that the correction is not possible and the present flowchart is terminated.

(図8B:ステップS801:補足)
本ステップは、図8A(4)のような状況を除外するためのものである。ただし車両10の進行方向の延長線上から僅かに外れた位置に物体監視装置200が配置されているのであれば、車両10の進行にともなって物体監視装置200が検出する車両10の方向がほぼ変化しない場合もある。したがって、車両10と物体監視装置200を結ぶ線分が車両10の進行方向との間でなす角度θが0度以上閾値未満であれば、S802以降を実施してもよい。具体的な閾値は、例えば車両10の進行速度にしたがって動的に定めてもよいし、あらかじめ固定値を定めておいてもよい。
(FIG. 8B: Step S801: Supplement)
This step is for excluding the situation as shown in FIG. 8A (4). However, if the object monitoring device 200 is arranged at a position slightly off the extension of the traveling direction of the vehicle 10, the direction of the vehicle 10 detected by the object monitoring device 200 changes substantially as the vehicle 10 travels. It may not be. Therefore, if the angle θ formed by the line segment connecting the vehicle 10 and the object monitoring device 200 with the traveling direction of the vehicle 10 is 0 degrees or more and less than the threshold value, S802 or later may be performed. The specific threshold value may be dynamically set according to the traveling speed of the vehicle 10, for example, or a fixed value may be set in advance.

(図8B:ステップS802〜S804)
死角障害物抽出部140は、物体監視装置200の位置を取得する(S802)。死角障害物抽出部140はさらに、車両10が搭載している車載センサ(S803)と物体監視装置200(S804)からそれぞれ、車両10の位置を取得する。車載センサとしては例えばGPS装置などの位置検出装置を用いることができる。
(FIG. 8B: steps S802-S804)
The blind spot obstacle extraction unit 140 acquires the position of the object monitoring device 200 (S802). The blind spot obstacle extraction unit 140 further acquires the position of the vehicle 10 from the vehicle-mounted sensor (S803) and the object monitoring device 200 (S804) mounted on the vehicle 10. As the in-vehicle sensor, for example, a position detection device such as a GPS device can be used.

(図8B:ステップS805〜S806)
死角障害物抽出部140は、物体監視装置200の位置/車載センサから取得した車両10の位置(第1車両位置)/物体監視装置200から取得した車両10の位置(第2車両位置)、の3座標を用いて、図8Aで説明した角度θを算出する(S805)。すなわち、物体監視装置200の位置と第1車両位置を結ぶ第1直線が、物体監視装置200の位置と第2車両位置を結ぶ第2直線との間で形成する角度θを算出する。S801における角度θも同様に算出することができるので、S801とS805において角度θを共用してもよい。死角障害物抽出部140は、角度θを用いて、障害物ペアのうち車両10ではない側の位置を補正する(S806)。
(FIG. 8B: steps S805 to S806)
The blind spot obstacle extraction unit 140 is of the position of the object monitoring device 200 / the position of the vehicle 10 acquired from the vehicle-mounted sensor (first vehicle position) / the position of the vehicle 10 acquired from the object monitoring device 200 (second vehicle position). The angle θ described with reference to FIG. 8A is calculated using the three coordinates (S805). That is, the angle θ formed by the first straight line connecting the position of the object monitoring device 200 and the position of the first vehicle between the position of the object monitoring device 200 and the second straight line connecting the position of the second vehicle is calculated. Since the angle θ in S801 can be calculated in the same manner, the angle θ may be shared in S801 and S805. The blind spot obstacle extraction unit 140 corrects the position of the obstacle pair on the side other than the vehicle 10 by using the angle θ (S806).

図9は、走行制御部150の動作手順を説明するフローチャートである。以下図9の各ステップについて説明する。 FIG. 9 is a flowchart illustrating the operation procedure of the traveling control unit 150. Each step of FIG. 9 will be described below.

(図9:ステップS901)
走行制御部150は、車両10が検出した障害物と物体監視装置200から受信した障害物それぞれの位置を取得する。本ステップにおいて取得する障害物は、車両10にとって死角にある死角障害物、車両10の周辺に存在する物体、物体監視装置200の周辺に存在する物体、などが含まれる。
(Fig. 9: Step S901)
The travel control unit 150 acquires the positions of the obstacles detected by the vehicle 10 and the obstacles received from the object monitoring device 200. The obstacles acquired in this step include blind spot obstacles in the blind spot for the vehicle 10, objects existing in the vicinity of the vehicle 10, objects existing in the vicinity of the object monitoring device 200, and the like.

(図9:ステップS902)
走行制御部150は、障害物iと車両10が衝突するまでに要すると予測される時間TTC[i]を算出する(S902)。TTC[i]は、例えば障害物iが停止していると仮定した上で、車両10の進行方向、車両10の速度、障害物iと車両10との間の距離、などを用いて算出することができる。車両10の進行方向は、例えば操舵角などから判定することができる。車両10の速度は、例えば車速センサから取得することができる。走行制御部150が車両10を自動運転させる場合は、その走行計画から車両10の速度や進行方向を取得することもできる。
(Fig. 9: Step S902)
The travel control unit 150 calculates the time TTC [i] estimated to be required for the obstacle i to collide with the vehicle 10 (S902). The TTC [i] is calculated using, for example, the traveling direction of the vehicle 10, the speed of the vehicle 10, the distance between the obstacle i and the vehicle 10, and the like, assuming that the obstacle i is stopped. be able to. The traveling direction of the vehicle 10 can be determined from, for example, the steering angle. The speed of the vehicle 10 can be obtained from, for example, a vehicle speed sensor. When the travel control unit 150 automatically drives the vehicle 10, the speed and the traveling direction of the vehicle 10 can be acquired from the travel plan.

(図9:ステップS903)
走行制御部150は、車両10と障害物iが衝突する可能性を表す危険度DRECI[i]を算出する。算出手法としては例えば、車両10と障害物iとの間の距離が短いほど、DRECI[i]を高くすることが考えられる。走行制御部150は、全ての障害物iについてS901〜S903を実施する。
(Fig. 9: Step S903)
The travel control unit 150 calculates the risk level DRECI [i] indicating the possibility of the vehicle 10 colliding with the obstacle i. As a calculation method, for example, it is conceivable that the shorter the distance between the vehicle 10 and the obstacle i, the higher the DRECI [i]. The travel control unit 150 implements S901 to S903 for all obstacles i.

(図9:ステップS904〜S908)
走行制御部150は、衝突危険度DRECIが閾値以上である障害物のうち、衝突予測時間TTCが最小である障害物kを特定する(S904)。TTC[k]がブレーキ閾値以下であれば、走行制御部150は制御実行部160を介してブレーキを作動させる(S905〜S906)。TTC[k]がブレーキ閾値超かつ警報閾値以下であれば、走行制御部150は制御実行部160を介して警報を出力する(S907〜S908)。ブレーキ閾値は警報閾値よりも小さい値である。障害物kを特定するのは、障害物kと衝突する可能性を回避できるのであれば、その他物体と衝突する可能性も回避できると考えられるからである。
(FIG. 9: Steps S904 to S908)
The traveling control unit 150 identifies the obstacle k having the minimum collision prediction time TTC among the obstacles having the collision risk DRECI equal to or higher than the threshold value (S904). If the TTC [k] is equal to or less than the brake threshold value, the travel control unit 150 operates the brake via the control execution unit 160 (S905 to S906). If the TTC [k] exceeds the brake threshold value and is equal to or lower than the alarm threshold value, the travel control unit 150 outputs an alarm via the control execution unit 160 (S907 to S908). The brake threshold value is smaller than the alarm threshold value. The obstacle k is specified because it is considered that the possibility of collision with other objects can be avoided if the possibility of collision with the obstacle k can be avoided.

<実施の形態1:まとめ>
本実施形態1に係る物体監視装置200は、死角関係にある2つの物体のみについてそれらの位置を記述した障害物データを送信する。これにより、障害物データを受信した車両制御装置100において、車両10が検出した物体の位置と物体監視装置200が検出した同じ物体の位置が混在する可能性を抑制できる。またこれにより、物体監視装置200から車両制御装置100に対して送信するデータ量を抑制することができる。換言すると、車両制御装置100が処理すべきデータ量を抑制することができるので、通信負荷や演算負荷を抑制することができる。
<Embodiment 1: Summary>
The object monitoring device 200 according to the first embodiment transmits obstacle data describing the positions of only two objects having a blind spot relationship. As a result, in the vehicle control device 100 that has received the obstacle data, the possibility that the position of the object detected by the vehicle 10 and the position of the same object detected by the object monitoring device 200 are mixed can be suppressed. Further, this makes it possible to suppress the amount of data transmitted from the object monitoring device 200 to the vehicle control device 100. In other words, since the amount of data to be processed by the vehicle control device 100 can be suppressed, the communication load and the calculation load can be suppressed.

本実施形態1に係る車両制御装置100は、障害物データが記述している障害物ペアのうちいずれか一方が車両10であるか否かを判定し、車両10であれば障害物ペアの他方は死角障害物とみなす。これにより、車両制御装置100が認識できない死角障害物の位置を取得できるとともに、同じ物体の位置が混在する可能性を抑制できる。さらに障害物データのデータ量も抑制できる。 The vehicle control device 100 according to the first embodiment determines whether or not one of the obstacle pairs described in the obstacle data is the vehicle 10, and if it is the vehicle 10, the other of the obstacle pairs. Is considered a blind spot obstacle. As a result, the positions of blind spot obstacles that cannot be recognized by the vehicle control device 100 can be acquired, and the possibility that the positions of the same objects coexist can be suppressed. Furthermore, the amount of obstacle data can be suppressed.

<実施の形態2>
実施形態1では、物体監視装置200が検出するXYマップ上で物体を検出する例を説明した。物体監視装置200は死角関係にある障害物ペアについてのみその位置を送信するので、障害物データ量を抑制することができる。ただし障害物の位置はXYマップ上の座標によって記述されているので、XYマップのグリッドが小さければ相応の処理負荷が生じる。そこで本発明の実施形態2では、障害物データを記述する座標系のグリッドを粗くすることにより、処理負荷をさらに抑制する構成例を説明する。
<Embodiment 2>
In the first embodiment, an example of detecting an object on the XY map detected by the object monitoring device 200 has been described. Since the object monitoring device 200 transmits the position only for the obstacle pair having a blind spot relationship, the amount of obstacle data can be suppressed. However, since the position of the obstacle is described by the coordinates on the XY map, if the grid of the XY map is small, a corresponding processing load is generated. Therefore, in the second embodiment of the present invention, a configuration example in which the processing load is further suppressed by roughening the grid of the coordinate system that describes the obstacle data will be described.

図10は、物体監視装置200周辺の座標を記述したグリッドの例である。物体監視装置200は、周辺監視部210が検出することができる空間解像度よりも大きいグリッド幅を用いて、物体監視装置200周辺の空間座標系を設定する。この粗いグリッド上の各矩形領域のことを、本実施形態2では「エリア」と呼ぶことにする。各エリアにはエリアIDが割り当てられる。 FIG. 10 is an example of a grid in which the coordinates around the object monitoring device 200 are described. The object monitoring device 200 sets the spatial coordinate system around the object monitoring device 200 by using a grid width larger than the spatial resolution that can be detected by the peripheral monitoring unit 210. Each rectangular area on the coarse grid is referred to as an "area" in the second embodiment. An area ID is assigned to each area.

本実施形態2において物体監視装置200は、周辺監視部210が検出する座標系に代えて、図10のような粗いグリッド上における各障害物の位置を、障害物データとして車両制御装置100に対して送信する。これにより、障害物データのサイズや演算負荷を抑制することを図る。 In the second embodiment, the object monitoring device 200 uses the position of each obstacle on the rough grid as shown in FIG. 10 as obstacle data for the vehicle control device 100 instead of the coordinate system detected by the peripheral monitoring unit 210. And send. As a result, the size of obstacle data and the calculation load are suppressed.

図11は、本実施形態2における各装置の機能ブロック図である。物体監視装置200は実施形態1で説明した構成に加えて、エリア作成部260とエリアデータ送信部270を備える。車両制御装置100は実施形態1で説明した構成に加えて、エリアデータ受信部170と位置変換部180を備える。 FIG. 11 is a functional block diagram of each device according to the second embodiment. The object monitoring device 200 includes an area creation unit 260 and an area data transmission unit 270 in addition to the configuration described in the first embodiment. The vehicle control device 100 includes an area data receiving unit 170 and a position changing unit 180 in addition to the configuration described in the first embodiment.

エリア作成部260は、図10で例示したような物体監視装置200周辺の粗い座標系を記述したエリアデータを作成する。エリアデータは、各エリアの座標とIDによって記述することができる。エリアの座標は、車両制御装置100がエリアの範囲を特定することができればどのような形式で記述してもよい。例えばGPS上の座標によってエリアの4隅座標を記述することができる。あるいはエリアのサイズが規定されていれば、当該エリアの代表位置(例えば左上端部)によって当該エリアの座標を記述することができる。エリアデータ送信部270は、エリアデータをブロードキャストにより送信する。障害物データ送信部250は、後述するように、障害物が存在するエリアのIDを、障害物データとして送信する。 The area creation unit 260 creates area data that describes a rough coordinate system around the object monitoring device 200 as illustrated in FIG. Area data can be described by the coordinates and ID of each area. The coordinates of the area may be described in any format as long as the vehicle control device 100 can specify the range of the area. For example, the coordinates of the four corners of the area can be described by the coordinates on GPS. Alternatively, if the size of the area is specified, the coordinates of the area can be described by the representative position of the area (for example, the upper left end). The area data transmission unit 270 transmits the area data by broadcasting. As will be described later, the obstacle data transmission unit 250 transmits the ID of the area where the obstacle exists as obstacle data.

エリアデータ受信部170は、物体監視装置200からエリアデータを受信する。障害物データ受信部120は、障害物が存在するエリアのIDを記述した障害物データを受信する。位置変換部180は、障害物データが記述しているエリアIDをエリアデータと照合することにより、障害物が存在しているエリアの座標を取得する。 The area data receiving unit 170 receives the area data from the object monitoring device 200. The obstacle data receiving unit 120 receives the obstacle data that describes the ID of the area where the obstacle exists. The position conversion unit 180 acquires the coordinates of the area where the obstacle exists by collating the area ID described in the obstacle data with the area data.

図12は、本実施形態2において物体検知部220が障害物を検出した結果を示す模式図である。物体検知部220は実施形態1と同様に障害物を検出する。ただしその検出結果は、エリアデータ上のエリアによって記述する。すなわち物体検知部220は、障害物が存在しているエリアのIDによって、障害物の位置を記述する。図12における斜線エリアは、障害物が存在していると判断したエリアである。 FIG. 12 is a schematic view showing the result of the object detection unit 220 detecting an obstacle in the second embodiment. The object detection unit 220 detects an obstacle as in the first embodiment. However, the detection result is described by the area on the area data. That is, the object detection unit 220 describes the position of the obstacle by the ID of the area where the obstacle exists. The shaded area in FIG. 12 is an area where it is determined that an obstacle exists.

図13は、本実施形態2において死角関係抽出部240が死角関係にある障害物ペアを特定する様子を示す概念図である。実施形態1においては、各物体の重心を線分で結ぶことにより、間に遮蔽物が存在するか否かを判定した。本実施形態2においては物体の重心に代えて、障害物が存在するエリアの中心(または重心)を線分で結ぶことにより、同様の判定を実施する。エリアの座標は、位置変換部180が特定する。以後の処理は実施形態1と同様である。 FIG. 13 is a conceptual diagram showing how the blind spot relationship extraction unit 240 identifies an obstacle pair having a blind spot relationship in the second embodiment. In the first embodiment, by connecting the center of gravity of each object with a line segment, it is determined whether or not there is a shield between them. In the second embodiment, the same determination is performed by connecting the center (or the center of gravity) of the area where the obstacle exists with a line segment instead of the center of gravity of the object. The coordinates of the area are specified by the position conversion unit 180. Subsequent processing is the same as in the first embodiment.

図14は、物体監視装置200と車両制御装置100との間でエリアデータと障害物データを送受信する様子を示す概念図である。図10で説明した粗いグリッドによる座標系は、物体監視装置200が作成したものであるので、車両制御装置100に対して各エリアの座標とIDを通知する必要がある。物体監視装置200はエリアデータを送信し、車両制御装置100はそのエリアデータを受信することにより、物体監視装置200が設定したエリアの座標とIDを認識する。障害物データは、障害物が存在するエリアを特定することができれば足りるので、2つの障害物がそれぞれ存在する2つのエリアIDによって記述することができる。 FIG. 14 is a conceptual diagram showing how area data and obstacle data are transmitted and received between the object monitoring device 200 and the vehicle control device 100. Since the coordinate system based on the coarse grid described with reference to FIG. 10 is created by the object monitoring device 200, it is necessary to notify the vehicle control device 100 of the coordinates and ID of each area. The object monitoring device 200 transmits the area data, and the vehicle control device 100 receives the area data to recognize the coordinates and ID of the area set by the object monitoring device 200. Since it is sufficient that the obstacle data can identify the area where the obstacle exists, it can be described by the two area IDs where the two obstacles exist.

物体監視装置200は、エリアデータと障害物データを同時に送信してもよいし、例えば交互に送信してもよい。ただし車両制御装置100はエリアデータをいったん受信すれば、物体監視装置200がエリア構成を変更するまではそのエリアデータを再使用することができる。したがって、エリアデータの送信頻度は障害物データの送信頻度よりも少なくてよい。 The object monitoring device 200 may transmit the area data and the obstacle data at the same time, or may transmit, for example, alternately. However, once the vehicle control device 100 receives the area data, the area data can be reused until the object monitoring device 200 changes the area configuration. Therefore, the transmission frequency of the area data may be lower than the transmission frequency of the obstacle data.

<実施の形態2:まとめ>
本実施形態2に係る物体監視装置200は、物体監視装置200の周辺座標を複数のエリアに区分して記述したエリアデータを送信するとともに、障害物データとして、障害物が存在するエリアのIDを送信する。これにより、障害物データのサイズを抑制し、通信負荷や演算負荷を抑制することができる。
<Embodiment 2: Summary>
The object monitoring device 200 according to the second embodiment transmits area data in which the peripheral coordinates of the object monitoring device 200 are divided into a plurality of areas and described, and also uses the ID of the area where the obstacle exists as the obstacle data. Send. As a result, the size of obstacle data can be suppressed, and the communication load and the calculation load can be suppressed.

<実施の形態3>
実施形態1〜2においては、車両制御装置100と物体監視装置200との間で障害物データを送受信する例を説明した。これに代えてまたはこれに加えて、車両制御装置100が物体監視装置200と同様の構成を備え、各車両が搭載する車両制御装置100間で障害物データを送受信することもできる。本発明の実施形態3では、その構成例を説明する。
<Embodiment 3>
In the first and second embodiments, an example of transmitting and receiving obstacle data between the vehicle control device 100 and the object monitoring device 200 has been described. Instead of or in addition to this, the vehicle control device 100 has the same configuration as the object monitoring device 200, and obstacle data can be transmitted and received between the vehicle control devices 100 mounted on each vehicle. In the third embodiment of the present invention, a configuration example thereof will be described.

図15は、本実施形態3に係る車両制御装置100の機能ブロック図である。本実施形態3における車両制御装置100は、実施形態1〜2で説明した構成に加えて、物体監視装置200が備える各機能部を備える。ここでは実施形態1と同様の構成例を示した。ただし周辺監視部110と物体検知部130は、それぞれ周辺監視部210と物体検知部220によって代用することとした。 FIG. 15 is a functional block diagram of the vehicle control device 100 according to the third embodiment. The vehicle control device 100 in the third embodiment includes each functional unit included in the object monitoring device 200 in addition to the configurations described in the first and second embodiments. Here, the same configuration example as in the first embodiment is shown. However, the peripheral monitoring unit 110 and the object detection unit 130 are replaced by the peripheral monitoring unit 210 and the object detection unit 220, respectively.

障害物データ送信部250は障害物データをブロードキャストにより送信し、他の車両制御装置100はこれを受信する。障害物データ受信部120は、他の車両制御装置100から障害物データを受信する。その他構成は実施形態1〜2と同様である。車両制御装置100間で障害物データを送受信することにより、物体監視装置200と通信することができない場所であっても、車両制御装置100にとって死角となっている物体を認識することができる。さらに、車両制御装置100間で送受信する障害物データのサイズを抑制することができる。 The obstacle data transmission unit 250 transmits obstacle data by broadcasting, and the other vehicle control device 100 receives this. The obstacle data receiving unit 120 receives obstacle data from another vehicle control device 100. Other configurations are the same as those of the first and second embodiments. By transmitting and receiving obstacle data between the vehicle control devices 100, it is possible to recognize an object that is a blind spot for the vehicle control device 100 even in a place where communication with the object monitoring device 200 is not possible. Further, the size of obstacle data transmitted / received between the vehicle control devices 100 can be suppressed.

<本発明の変形例について>
本発明は上記実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
<About a modified example of the present invention>
The present invention is not limited to the above embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

実施形態2において、エリアデータが記述する座標系として直交座標系を例示したが、エリアの構成はこれに限らない。例えば回転座標系などその他座標系によってエリアデータを記述することもできる。 In the second embodiment, the orthogonal coordinate system is illustrated as the coordinate system described by the area data, but the configuration of the area is not limited to this. Area data can also be described by other coordinate systems such as a rotating coordinate system.

以上の実施形態において、車両制御装置100と物体監視装置200が備える各機能部は、その機能を実装した回路デバイスなどのハードウェアによって構成することもできるし、その機能を実装したソフトウェアを演算装置(Central Processing Unitなど)が実行することにより構成することもできる。 In the above embodiment, each functional unit included in the vehicle control device 100 and the object monitoring device 200 can be configured by hardware such as a circuit device that implements the function, or software that implements the function is used as an arithmetic unit. It can also be configured by executing (such as Central Processing Unit).

1:車両制御システム
10:車両
21:歩行者
22:歩行者
30:遮蔽物
100:車両制御装置
110:周辺監視部
120:障害物データ受信部
130:物体検知部
140:死角障害物抽出部
150:走行制御部
160:制御実行部
170:エリアデータ受信部
180:位置変換部
200:物体監視装置
210:周辺監視部
220:物体検知部
230:地形取得部
240:死角関係抽出部
250:障害物データ送信部
260:エリア作成部
270:エリアデータ送信部
1: Vehicle control system 10: Vehicle 21: Pedestrian 22: Pedestrian 30: Obstruction 100: Vehicle control device 110: Peripheral monitoring unit 120: Obstacle data reception unit 130: Object detection unit 140: Blind spot obstacle extraction unit 150 : Travel control unit 160: Control execution unit 170: Area data reception unit 180: Position conversion unit 200: Object monitoring device 210: Peripheral monitoring unit 220: Object detection unit 230: Topography acquisition unit 240: Blind spot relationship extraction unit 250: Obstacle Data transmission unit 260: Area creation unit 270: Area data transmission unit

Claims (15)

車両の動作を制御する車両制御装置であって、
前記車両の周辺に存在する車両周辺物体の物体位置を検出する周辺監視部、
前記車両の外部に設置された物体監視装置が検出した第1物体の第1物体位置と前記物体監視装置が検出した第2物体の第2物体位置のペアを記述した障害物データを受信する障害物データ受信部、
前記障害物データが記述している前記第1物体が前記車両であるか否かを判定するとともに、前記第1物体が前記車両である場合は前記周辺監視部が検出できない死角障害物として前記第2物体の前記第2物体位置を取得する、死角障害物抽出部、
を備える
ことを特徴とする車両制御装置。
A vehicle control device that controls the operation of a vehicle.
Peripheral monitoring unit that detects the position of objects around the vehicle existing around the vehicle,
Obstacle to receive obstacle data describing a pair of the first object position of the first object detected by the object monitoring device installed outside the vehicle and the second object position of the second object detected by the object monitoring device. Object data receiver,
It is determined whether or not the first object described in the obstacle data is the vehicle, and when the first object is the vehicle, the peripheral monitoring unit cannot detect the first object as a blind spot obstacle. Blind spot obstacle extraction unit, which acquires the position of the second object of two objects,
A vehicle control device characterized by being equipped with.
前記車両制御装置はさらに、前記車両の走行計画を作成する走行制御部を備え、
前記走行制御部は、前記物体位置、前記死角障害物の位置、および前記走行計画を用いて、前記車両と前記車両周辺物体が衝突するか否かおよび前記車両と前記死角障害物が衝突するか否かを判定する衝突判定を実施し、
前記走行制御部は、前記車両周辺物体と前記車両がまたは前記死角障害物と前記車両が衝突するまでに要する衝突予測時間を算出し、
前記走行制御部は、前記衝突予測時間が第1閾値以下である場合は、前記車両のブレーキを動作させることにより前記車両の速度を下げ、
前記走行制御部は、前記衝突予測時間が前記第1閾値よりも大きく第2閾値以下である場合は、その旨を表すアラートを出力する
ことを特徴とする請求項1記載の車両制御装置。
The vehicle control device further includes a travel control unit that creates a travel plan for the vehicle.
The travel control unit uses the object position, the position of the blind spot obstacle, and the travel plan to determine whether or not the vehicle collides with the object around the vehicle and whether the vehicle collides with the blind spot obstacle. Perform a collision judgment to determine whether or not
The traveling control unit calculates a collision prediction time required for the vehicle to collide with an object around the vehicle or the blind spot obstacle with the vehicle.
When the collision prediction time is equal to or less than the first threshold value, the traveling control unit reduces the speed of the vehicle by operating the brake of the vehicle.
The vehicle control device according to claim 1, wherein the traveling control unit outputs an alert indicating that when the collision prediction time is larger than the first threshold value and is equal to or less than the second threshold value.
前記走行制御部は、前記車両周辺物体または前記死角障害物と前記車両とが衝突する可能性を表す衝突危険度を算出し、
前記走行制御部は、前記車両周辺物体と前記死角障害物のうち前記衝突危険度が最も高い危険物体を特定し、
前記走行制御部は、前記危険物体について前記衝突予測時間を算出することにより、前記危険物体と前記車両が衝突する可能性が低下するように、前記車両を制御する
ことを特徴とする請求項2記載の車両制御装置。
The traveling control unit calculates a collision risk indicating the possibility of the vehicle colliding with the vehicle peripheral object or the blind spot obstacle.
The traveling control unit identifies the dangerous object having the highest collision risk among the vehicle peripheral object and the blind spot obstacle.
2. The traveling control unit controls the vehicle so that the possibility of the dangerous object colliding with the vehicle is reduced by calculating the collision prediction time for the dangerous object. The vehicle control device described.
前記車両制御装置はさらに、前記車両の周辺座標を複数のエリアに区分して記述したエリアデータを受信するエリアデータ受信部を備え、
前記障害物データ受信部は、前記障害物データとして、前記第1物体が存在する前記エリアの第1IDと前記第2物体が存在する前記エリアの第2IDのペアを記述したデータを受信する
ことを特徴とする請求項1記載の車両制御装置。
The vehicle control device further includes an area data receiving unit that receives area data described by dividing the peripheral coordinates of the vehicle into a plurality of areas.
The obstacle data receiving unit receives, as the obstacle data, data describing a pair of a first ID of the area where the first object exists and a second ID of the area where the second object exists. The vehicle control device according to claim 1.
前記死角障害物抽出部は、前記物体監視装置の位置を取得するとともに、前記車両の第1車両位置を前記物体監視装置から取得し、
前記死角障害物抽出部は、前記車両が備える位置検出装置から前記車両の第2車両位置を取得し、
前記死角障害物抽出部は、前記物体監視装置の位置と前記第1車両位置を結ぶ第1直線が、前記物体監視装置の位置と前記第2車両位置を結ぶ第2直線との間で形成する角度が0よりも大きくかつ所定角度以下である場合は、前記角度を用いて前記第2物体位置を補正する
ことを特徴とする請求項1記載の車両制御装置。
The blind spot obstacle extraction unit acquires the position of the object monitoring device and the first vehicle position of the vehicle from the object monitoring device.
The blind spot obstacle extraction unit acquires the position of the second vehicle of the vehicle from the position detection device included in the vehicle.
The blind spot obstacle extraction unit is formed by a first straight line connecting the position of the object monitoring device and the position of the first vehicle between the position of the object monitoring device and the second straight line connecting the position of the second vehicle. The vehicle control device according to claim 1, wherein when the angle is greater than 0 and less than or equal to a predetermined angle, the position of the second object is corrected using the angle.
前記車両制御装置はさらに、
前記周辺監視部が検出した第3物体と前記周辺監視部が検出した第4物体との間に遮蔽物が存在するか否かを判定するとともに、存在する場合は、前記第3物体と前記第4物体が互いに死角となっている死角関係を有すると判定する、死角関係抽出部、
前記第3物体と前記第4物体それぞれの位置を記述した障害物データを送信する障害物データ送信部、
を備え、
前記障害物データ送信部は、前記第3物体と前記第4物体が前記死角関係を有する場合は、前記障害物データを送信し、
前記障害物データ送信部は、前記第3物体と前記第4物体が前記死角関係を有さない場合は、前記障害物データを送信しない
ことを特徴とする請求項1記載の車両制御装置。
The vehicle control device further
It is determined whether or not there is a shield between the third object detected by the peripheral monitoring unit and the fourth object detected by the peripheral monitoring unit, and if so, the third object and the third object are present. Blind spot relationship extraction unit, which determines that four objects have a blind spot relationship in which they are blind spots to each other.
An obstacle data transmission unit that transmits obstacle data that describes the positions of the third object and the fourth object.
With
When the third object and the fourth object have the blind spot relationship, the obstacle data transmission unit transmits the obstacle data.
The vehicle control device according to claim 1, wherein the obstacle data transmission unit does not transmit the obstacle data when the third object and the fourth object do not have the blind spot relationship.
車両の外部に設置され、前記車両の周辺に存在する物体を監視する物体監視装置であって、
前記物体監視装置の周辺に存在する周辺物体の位置を検出する周辺監視部、
前記周辺監視部が検出した第1物体と前記周辺監視部が検出した第2物体との間に遮蔽物が存在するか否かを判定するとともに、存在する場合は、前記第1物体と前記第2物体が互いに死角となっている死角関係を有すると判定する、死角関係抽出部、
前記第1物体と前記第2物体それぞれの位置を記述した障害物データを送信する障害物データ送信部、
を備え、
前記障害物データ送信部は、前記第1物体と前記第2物体が前記死角関係を有する場合は、前記障害物データを送信し、
前記障害物データ送信部は、前記第1物体と前記第2物体が前記死角関係を有さない場合は、前記障害物データを送信しない
ことを特徴とする物体監視装置。
An object monitoring device installed outside the vehicle to monitor objects existing around the vehicle.
Peripheral monitoring unit that detects the position of peripheral objects existing around the object monitoring device,
It is determined whether or not there is a shield between the first object detected by the peripheral monitoring unit and the second object detected by the peripheral monitoring unit, and if so, the first object and the first object are present. A blind spot relationship extraction unit that determines that two objects have a blind spot relationship that is a blind spot to each other.
An obstacle data transmission unit that transmits obstacle data that describes the positions of the first object and the second object.
With
When the first object and the second object have the blind spot relationship, the obstacle data transmission unit transmits the obstacle data.
The obstacle data transmission unit is an object monitoring device that does not transmit the obstacle data when the first object and the second object do not have the blind spot relationship.
前記周辺監視部は、前記周辺物体の境界位置を検出するように構成されており、
前記物体監視装置はさらに、前記周辺監視部が検出した前記境界位置を用いて前記周辺物体の範囲を特定する物体検知部を備え、
前記物体検知部は、前記境界位置の地面からの高さが所定範囲内である場合は、前記境界位置を前記周辺物体の境界として特定し、
前記物体検知部は、前記境界位置の地面からの高さが前記所定範囲外である場合は、前記境界位置を前記周辺物体の境界として取り扱わない
ことを特徴とする請求項7記載の物体監視装置。
The peripheral monitoring unit is configured to detect the boundary position of the peripheral object.
The object monitoring device further includes an object detection unit that identifies a range of the peripheral object using the boundary position detected by the peripheral monitoring unit.
When the height of the boundary position from the ground is within a predetermined range, the object detection unit identifies the boundary position as the boundary of the peripheral object.
The object monitoring device according to claim 7, wherein the object detection unit does not treat the boundary position as a boundary of the peripheral objects when the height of the boundary position from the ground is outside the predetermined range. ..
前記物体監視装置はさらに、前記周辺物体のうち位置が変化しないものを固定物として特定するとともに前記固定物の座標を記述した背景マップを作成する物体検知部を備え、
前記物体検知部は、前記周辺物体の位置を記述した物体マップを平均することによって平均マップを作成するとともに、前記平均マップが記述している物体位置の分散が所定閾値未満となるまで前記平均マップを繰り返し作成することにより、前記背景マップを作成する
ことを特徴とする請求項7記載の物体監視装置。
The object monitoring device further includes an object detection unit that identifies a peripheral object whose position does not change as a fixed object and creates a background map that describes the coordinates of the fixed object.
The object detection unit creates an average map by averaging an object map that describes the positions of the surrounding objects, and the average map until the dispersion of the object positions described by the average map becomes less than a predetermined threshold. 7. The object monitoring device according to claim 7, wherein the background map is created by repeatedly creating the above.
前記物体検知部は、前記周辺物体の位置と前記背景マップとの間の差分を求めることにより、前記周辺物体のなかから移動物または一時的に載置された一時載置物を特定する
ことを特徴とする請求項9記載の物体監視装置。
The object detection unit is characterized in that it identifies a moving object or a temporarily placed object from the peripheral objects by obtaining a difference between the position of the peripheral object and the background map. 9. The object monitoring device according to claim 9.
前記物体監視装置はさらに、前記固定物のうち高さが所定高さ以上のものを前記遮蔽物の候補として特定する地形取得部を備え、
前記死角関係抽出部は、前記地形取得部が特定した前記遮蔽物の候補を用いて、前記死角関係の有無を判定する
ことを特徴とする請求項9記載の物体監視装置。
The object monitoring device further includes a terrain acquisition unit that identifies a fixed object having a height equal to or higher than a predetermined height as a candidate for the shield.
The object monitoring device according to claim 9, wherein the blind spot relationship extraction unit determines the presence or absence of the blind spot relationship by using the candidate of the shield specified by the terrain acquisition unit.
前記物体監視装置はさらに、前記周辺物体のうち位置が変化しないものを固定物として特定するとともに前記固定物の座標を記述した背景マップを作成する物体検知部を備え、
前記物体検知部は、前記固定物の平面座標を特定することにより2次元マップとして前記背景マップを作成し、
前記地形取得部は、前記固定物の高さを記述した高さマップを前記背景マップと照合することにより、前記遮蔽物の候補を特定する
ことを特徴とする請求項11記載の物体監視装置。
The object monitoring device further includes an object detection unit that identifies a peripheral object whose position does not change as a fixed object and creates a background map that describes the coordinates of the fixed object.
The object detection unit creates the background map as a two-dimensional map by specifying the plane coordinates of the fixed object.
The object monitoring device according to claim 11, wherein the terrain acquisition unit identifies a candidate for the shield by collating a height map describing the height of the fixed object with the background map.
前記物体監視装置はさらに、前記固定物のうち高さが所定高さ以上のものを前記遮蔽物の候補として特定する地形取得部を備え、
前記死角関係抽出部は、前記背景マップ上で前記第1物体と前記第2物体を結ぶ直線を求めるとともに、前記地形取得部が特定した前記遮蔽物の候補が前記直線上に存在するか否かを判定することにより、前記第1物体と前記第2物体が前記死角関係を有するか否かを判定する
ことを特徴とする請求項9記載の物体監視装置。
The object monitoring device further includes a terrain acquisition unit that identifies a fixed object having a height equal to or higher than a predetermined height as a candidate for the shield.
The blind spot relationship extraction unit obtains a straight line connecting the first object and the second object on the background map, and whether or not the candidate for the shield specified by the terrain acquisition unit exists on the straight line. 9. The object monitoring device according to claim 9, wherein it is determined whether or not the first object and the second object have the blind spot relationship.
前記物体監視装置はさらに、前記物体監視装置の周辺座標を複数のエリアに区分して記述したエリアデータを作成するエリアデータ作成部を備え、
前記物体監視装置はさらに、前記エリアデータを送信するエリアデータ送信部を備え、
前記障害物データ送信部は、前記障害物データとして、前記第1物体が存在する前記エリアの第1IDと前記第2物体が存在する前記エリアの第2IDのペアを記述したデータを送信する
ことを特徴とする請求項7記載の物体監視装置。
The object monitoring device further includes an area data creation unit that creates area data in which the peripheral coordinates of the object monitoring device are divided into a plurality of areas and described.
The object monitoring device further includes an area data transmission unit for transmitting the area data.
The obstacle data transmission unit transmits, as the obstacle data, data describing a pair of a first ID of the area where the first object exists and a second ID of the area where the second object exists. The object monitoring device according to claim 7, wherein the object monitoring device is characterized.
車両の動作を制御する車両制御システムであって、
前記車両の動作を制御する車両制御装置、
前記車両の外部に設置され、前記車両の周辺に存在する物体を監視する物体監視装置、
を備え、
前記車両制御装置は、
前記車両の周辺に存在する車両周辺物体の物体位置を検出する周辺監視部、
前記車両の外部に設置された物体監視装置が検出した第1物体の第1物体位置と前記物体監視装置が検出した第2物体の第2物体位置のペアを記述した障害物データを受信する障害物データ受信部、
前記障害物データが記述している前記第1物体が前記車両であるか否かを判定するとともに、前記第1物体が前記車両である場合は前記周辺監視部が検出できない死角障害物として前記第2物体の前記第2物体位置を取得する、死角障害物抽出部、
を備え、
前記物体監視装置は、
前記物体監視装置の周辺に存在する周辺物体の位置を検出する周辺監視部、
前記周辺監視部が検出した第3物体と前記周辺監視部が検出した第4物体との間に遮蔽物が存在するか否かを判定するとともに、存在する場合は、前記第3物体と前記第4物体が互いに死角となっている死角関係を有すると判定する、死角関係抽出部、
前記第3物体と前記第4物体それぞれの位置を記述した障害物データを送信する障害物データ送信部、
を備え、
前記障害物データ送信部は、前記第3物体と前記第4物体が前記死角関係を有する場合は、前記障害物データを送信し、
前記障害物データ送信部は、前記第3物体と前記第4物体が前記死角関係を有さない場合は、前記障害物データを送信しない
ことを特徴とする車両制御システム。
A vehicle control system that controls the operation of a vehicle.
A vehicle control device that controls the operation of the vehicle,
An object monitoring device installed outside the vehicle to monitor objects existing around the vehicle,
With
The vehicle control device
Peripheral monitoring unit that detects the position of objects around the vehicle existing around the vehicle,
Obstacle to receive obstacle data describing a pair of the first object position of the first object detected by the object monitoring device installed outside the vehicle and the second object position of the second object detected by the object monitoring device. Object data receiver,
It is determined whether or not the first object described in the obstacle data is the vehicle, and when the first object is the vehicle, the peripheral monitoring unit cannot detect the first object as a blind spot obstacle. Blind spot obstacle extraction unit, which acquires the position of the second object of two objects,
With
The object monitoring device is
Peripheral monitoring unit that detects the position of peripheral objects existing around the object monitoring device,
It is determined whether or not there is a shield between the third object detected by the peripheral monitoring unit and the fourth object detected by the peripheral monitoring unit, and if so, the third object and the third object are present. Blind spot relationship extraction unit, which determines that four objects have a blind spot relationship in which they are blind spots to each other.
An obstacle data transmission unit that transmits obstacle data that describes the positions of the third object and the fourth object.
With
When the third object and the fourth object have the blind spot relationship, the obstacle data transmission unit transmits the obstacle data.
The vehicle control system is characterized in that the obstacle data transmission unit does not transmit the obstacle data when the third object and the fourth object do not have the blind spot relationship.
JP2019051676A 2019-03-19 2019-03-19 vehicle control device, vehicle control system Active JP7229052B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019051676A JP7229052B2 (en) 2019-03-19 2019-03-19 vehicle control device, vehicle control system
PCT/JP2020/000945 WO2020188974A1 (en) 2019-03-19 2020-01-15 Vehicle control device, object-monitoring device, and vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019051676A JP7229052B2 (en) 2019-03-19 2019-03-19 vehicle control device, vehicle control system

Publications (2)

Publication Number Publication Date
JP2020154619A true JP2020154619A (en) 2020-09-24
JP7229052B2 JP7229052B2 (en) 2023-02-27

Family

ID=72520590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019051676A Active JP7229052B2 (en) 2019-03-19 2019-03-19 vehicle control device, vehicle control system

Country Status (2)

Country Link
JP (1) JP7229052B2 (en)
WO (1) WO2020188974A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276840A1 (en) * 2021-07-01 2023-01-05 住友電気工業株式会社 Vehicle-mounted device, identifying method, computer program, and vehicle-mounted system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7203902B2 (en) * 2021-06-08 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOVING OBJECT, CONTROL METHOD AND PROGRAM
JP7256233B2 (en) * 2021-06-18 2023-04-11 本田技研工業株式会社 WARNING CONTROL DEVICE, MOVING OBJECT, WARNING CONTROL METHOD AND PROGRAM
JP7203905B2 (en) * 2021-06-18 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOVING OBJECT, CONTROL METHOD AND PROGRAM
JP7203908B1 (en) 2021-06-22 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOBILE BODY, CONTROL METHOD, AND PROGRAM
JP7203907B1 (en) 2021-06-22 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOBILE BODY, CONTROL METHOD, AND TERMINAL

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164190A (en) * 2002-11-12 2004-06-10 Nissan Motor Co Ltd Annunciator for vehicle
JP2004355324A (en) * 2003-05-29 2004-12-16 Nissan Motor Co Ltd Contact avoidance control device for vehicle
JP2009252214A (en) * 2008-04-11 2009-10-29 Denso Corp Radio communication system
JP2010079565A (en) * 2008-09-25 2010-04-08 Toyota Motor Corp Drive assist device
JP2011065235A (en) * 2009-09-15 2011-03-31 Mitsubishi Fuso Truck & Bus Corp Automatic stop controller and road traffic information system
JP2015225366A (en) * 2014-05-26 2015-12-14 株式会社リコー Accident prevention system, accident prevention device, and accident prevention method
JP2017033403A (en) * 2015-08-04 2017-02-09 株式会社デンソー Driving support apparatus
WO2018193535A1 (en) * 2017-04-19 2018-10-25 日産自動車株式会社 Travel assistance method and travel assistance device
WO2018194016A1 (en) * 2017-04-20 2018-10-25 マツダ株式会社 Vehicle driving assistance device
WO2019016882A1 (en) * 2017-07-19 2019-01-24 三菱電機株式会社 Notification control device and notification control method
JP2019041354A (en) * 2017-08-29 2019-03-14 パナソニック株式会社 Terminal device, roadside device, communication system, and position acquisition method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164190A (en) * 2002-11-12 2004-06-10 Nissan Motor Co Ltd Annunciator for vehicle
JP2004355324A (en) * 2003-05-29 2004-12-16 Nissan Motor Co Ltd Contact avoidance control device for vehicle
JP2009252214A (en) * 2008-04-11 2009-10-29 Denso Corp Radio communication system
JP2010079565A (en) * 2008-09-25 2010-04-08 Toyota Motor Corp Drive assist device
JP2011065235A (en) * 2009-09-15 2011-03-31 Mitsubishi Fuso Truck & Bus Corp Automatic stop controller and road traffic information system
JP2015225366A (en) * 2014-05-26 2015-12-14 株式会社リコー Accident prevention system, accident prevention device, and accident prevention method
JP2017033403A (en) * 2015-08-04 2017-02-09 株式会社デンソー Driving support apparatus
WO2018193535A1 (en) * 2017-04-19 2018-10-25 日産自動車株式会社 Travel assistance method and travel assistance device
WO2018194016A1 (en) * 2017-04-20 2018-10-25 マツダ株式会社 Vehicle driving assistance device
WO2019016882A1 (en) * 2017-07-19 2019-01-24 三菱電機株式会社 Notification control device and notification control method
JP2019041354A (en) * 2017-08-29 2019-03-14 パナソニック株式会社 Terminal device, roadside device, communication system, and position acquisition method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276840A1 (en) * 2021-07-01 2023-01-05 住友電気工業株式会社 Vehicle-mounted device, identifying method, computer program, and vehicle-mounted system

Also Published As

Publication number Publication date
WO2020188974A1 (en) 2020-09-24
JP7229052B2 (en) 2023-02-27

Similar Documents

Publication Publication Date Title
WO2020188974A1 (en) Vehicle control device, object-monitoring device, and vehicle control system
US9229450B2 (en) Autonomous movement system
JP4569652B2 (en) Recognition system
KR101622028B1 (en) Apparatus and Method for controlling Vehicle using Vehicle Communication
US10520949B2 (en) Method and device for localizing a vehicle in its surroundings
US9223311B2 (en) Vehicle driving support control apparatus
KR102075110B1 (en) Apparatus of identificating vehicle based vehicle-to-vehicle communication, and method of thereof
JP6323064B2 (en) Traveling lane identification device, lane change support device, traveling lane identification method
KR101886483B1 (en) Method for classify Target using Path History Data at V2V
CN106597472A (en) Intelligent vehicle collision avoidance system and method based on laser radar
JP2008225786A (en) Road circumstance detection system
JP2009230389A (en) Recognition system
US11042759B2 (en) Roadside object recognition apparatus
JP2009042999A (en) Traveling plan generation device
US11978261B2 (en) Information processing apparatus and information processing method
JP2015179482A (en) In-vehicle image processing device and vehicle system using the same
JP6521753B2 (en) Vehicle positioning system
JP2010044461A (en) Apparatus and program for collision estimation
JP2018048949A (en) Object recognition device
JP2005258941A (en) Device for detecting obstacle
WO2021049233A1 (en) Information processing device, information processing method, and program
JP2019055675A (en) Method and device for controlling vehicle running
JP2018084987A (en) Object recognition device
JP2019070895A (en) Runway recognizer
JP5104604B2 (en) Collision judgment device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230214

R150 Certificate of patent or registration of utility model

Ref document number: 7229052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150