JP2018081358A - Merging support device, merging support system, on-vehicle unit, and merging support method - Google Patents
Merging support device, merging support system, on-vehicle unit, and merging support method Download PDFInfo
- Publication number
- JP2018081358A JP2018081358A JP2016221485A JP2016221485A JP2018081358A JP 2018081358 A JP2018081358 A JP 2018081358A JP 2016221485 A JP2016221485 A JP 2016221485A JP 2016221485 A JP2016221485 A JP 2016221485A JP 2018081358 A JP2018081358 A JP 2018081358A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- merging
- information
- main line
- support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、合流支援装置、合流支援システム、車載器及び合流支援方法に関する。 The present invention relates to a merge support device, a merge support system, an in-vehicle device, and a merge support method.
高速道路等における合流地点では、合流車線を走行する車両の運転者は、車両周囲の本線上を走行している他の車両の動きを確認しながら運転操作を行う。運転者は、特に、本線上を走行している周囲車両の中で、合流に影響を与える車両の動きを的確に把握する必要がある。
例えば、特許文献1には、自車両の合流時にどの車両に注意すべきかの指標を運転者に与えることで、運転操作を支援する合流支援装置及び合流支援方法が開示されている。
At a merging point on an expressway or the like, a driver of a vehicle traveling on a merging lane performs a driving operation while confirming the movement of another vehicle traveling on the main line around the vehicle. In particular, the driver needs to accurately grasp the movement of the vehicle that affects the merging among the surrounding vehicles traveling on the main line.
For example,
例えば、車両に搭載された車載カメラ等による映像情報を通じて、本線を走行する周囲の車両を把握する技術が開発されている。
また、車車間通信(車両どうしが車載器(無線通信機)を通じて行う無線通信)等により、本線を走行する互いの位置、間隔などを把握できる技術が開発されている。
For example, a technology has been developed for grasping surrounding vehicles traveling on the main line through video information from an in-vehicle camera or the like mounted on the vehicle.
In addition, a technology has been developed that can grasp each other's position, distance, and the like traveling on the main line by inter-vehicle communication (wireless communication performed between vehicles through an on-vehicle device (wireless communication device)).
しかしながら、合流地点に到達するよりも前の段階では、車載カメラの映像情報から取得できる情報が制限される場合がある。例えば、合流車線と本線との間に遮蔽物(遮音壁等)があって合流車線から本線を撮影できない場合や、合流車線が上り坂のため本線が死角となる場合が想定される。
また、車車間通信等を通じて本線を走行する車両の位置を把握する場合には、当該本線を走行する車両に車載器が搭載されていることが前提となるが、本線を走行する車両に車載器が搭載されていない場合は、その車両の存在を把握することができない。
However, information that can be acquired from the video information of the in-vehicle camera may be limited before reaching the junction. For example, there may be a case where there is a shield (such as a sound insulation wall) between the merging lane and the main line and the main line cannot be photographed from the merging lane, or the main line becomes a blind spot because the merging lane is uphill.
In addition, when grasping the position of a vehicle traveling on the main line through inter-vehicle communication, etc., it is assumed that the vehicle traveling on the main line is equipped with an on-vehicle device. If is not installed, the existence of the vehicle cannot be grasped.
本発明の目的は、合流車線を走行する車両に対し、本線を走行する車両の状況を適切に認識させる合流支援装置、合流支援システム、車載器及び合流支援方法を提供することにある。 An object of the present invention is to provide a merging support device, a merging support system, an in-vehicle device, and a merging support method that allow a vehicle traveling on a merging lane to appropriately recognize the situation of the vehicle traveling on the main lane.
本発明の第1の態様によれば、合流支援装置(10)は、道路の本線(L1)に沿って複数配置され、各々の検知範囲において本線を走行する本線車両(A1)を検知する車両検知センサ(12)と、前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置を示す合流支援情報を生成する合流支援情報生成部(111)と、前記合流支援情報を、合流車線(L2)を走行する合流車両(A2)に搭載された車載器(20)に送信する路側無線機(13)と、を備える。
このようにすることで、合流車両は、路側無線機を通じて、本線車両の本線上の位置を示す合流支援情報を取得することができる。したがって、本線への視界が制限される場合であっても合流支援を受けることができる。また、車両検知センサを通じて、特定の車載器を搭載しない車両であっても存在を検知することができる。
以上より、合流車線を走行する車両に対し、本線を走行する車両の状況を適切に認識させることができる。
According to the first aspect of the present invention, a plurality of merging support devices (10) are arranged along the main line (L1) of the road and detect a main line vehicle (A1) that travels on the main line in each detection range. A merging support information generating unit (111) for generating merging support information indicating a position of the main vehicle on the main line based on vehicle detection information from the detection sensor (12), and the merging support information; A roadside wireless device (13) that transmits the vehicle-mounted device (20) mounted on the joining vehicle (A2) traveling on the joining lane (L2).
By doing in this way, the merging vehicle can acquire the merging support information indicating the position of the main line vehicle on the main line through the roadside radio. Therefore, even if the field of view to the main line is limited, the merge support can be received. Moreover, even if it is a vehicle which does not mount a specific vehicle equipment through a vehicle detection sensor, presence can be detected.
From the above, it is possible to make the vehicle traveling on the merged lane properly recognize the situation of the vehicle traveling on the main line.
また、本発明の第2の態様によれば、複数の前記車両検知センサは、隣り合う前記車両検知センサの互いの検知範囲が重なる重複領域を有するように配置され、前記合流支援情報生成部は、前記重複領域において、一の前記車両検知センサによって検知された車両と、他の前記車両検知センサによって検知された車両と、を同一車両として関連付ける。
このような構成とすることで、異なる車両検知センサによって同一の車両が検知された場合に、1台の車両が異なる2台の車両として検知されることを抑制できる。これにより、一層精度の高い合流支援情報を提供することができる。
Moreover, according to the 2nd aspect of this invention, the said some vehicle detection sensor is arrange | positioned so that the mutual detection range of the said adjacent vehicle detection sensor may overlap, and the said merge assistance information generation part is In the overlap region, the vehicle detected by one vehicle detection sensor and the vehicle detected by another vehicle detection sensor are associated as the same vehicle.
By setting it as such a structure, when the same vehicle is detected by a different vehicle detection sensor, it can suppress that one vehicle is detected as two different vehicles. As a result, it is possible to provide merge support information with higher accuracy.
また、本発明の第3の態様によれば、前記合流支援情報生成部は、前記車両検知センサからの車両検知情報に基づいて前記本線車両の速度を取得し、前記本線上における前記本線車両の位置及び速度を示す前記合流支援情報を生成する。
このような構成とすることで、本線を走行する車両の速度を特定することができるので、合流するにあたり、合流車両がどの程度の速度で走行すればよいかを認識することができる。
According to the third aspect of the present invention, the merging support information generation unit acquires the speed of the main line vehicle based on the vehicle detection information from the vehicle detection sensor, and the main line vehicle on the main line. The merge support information indicating the position and speed is generated.
With such a configuration, the speed of the vehicle traveling on the main line can be specified, so it is possible to recognize how fast the joined vehicle should travel when joining.
また、本発明の第4の態様によれば、合流支援システムは、上述の合流支援装置と、前記合流車両に搭載された車載器と、を備え、前記車載器は、受信した前記合流支援情報に基づいて、前記本線車両の前記本線上における位置と、前記合流車両の前記合流車線上における位置と、を示す画像情報を生成する画像情報生成部(201)を備える。
このような構成とすることで、合流車両の運転者は、画像情報を視認することで、自車両(合流車両)と、本線を走行する本線車両との位置関係を一目で把握することができる。
Moreover, according to the 4th aspect of this invention, a merging assistance system is provided with the above-mentioned merging assistance apparatus and the onboard equipment mounted in the said merging vehicle, The said onboard equipment received the said merging assistance information received An image information generation unit (201) that generates image information indicating the position of the main line vehicle on the main line and the position of the confluence vehicle on the merge lane.
With such a configuration, the driver of the merging vehicle can grasp the positional relationship between the own vehicle (merging vehicle) and the main vehicle traveling on the main line at a glance by viewing the image information. .
また、本発明の第5の態様によれば、合流支援システムは、上述の合流支援装置と、前記合流車両に搭載された車載器と、前記合流車両の自動運転に係る制御を行う自動運転制御部(30)と、を備え、前記自動運転制御部は、前記車載器が受信した前記合流支援情報に基づいて、前記合流車線における位置及び速度を調整する。
このような構成とすることで、自動運転車両である合流車両は、合流車線を走行中に、合流支援装置から提供される合流支援情報を受信し、当該合流支援情報に基づいて適切に合流を行うことができる。
According to the fifth aspect of the present invention, the merging support system includes the above-described merging support device, the vehicle-mounted device mounted on the merging vehicle, and the automatic driving control that performs control related to the automatic driving of the merging vehicle. And the automatic operation control unit adjusts the position and speed in the merging lane based on the merging support information received by the vehicle-mounted device.
With such a configuration, the merging vehicle, which is an autonomous driving vehicle, receives the merging support information provided from the merging support device while traveling in the merging lane, and appropriately merges based on the merging support information. It can be carried out.
また、本発明の第6の態様によれば、車載器は、上述の合流支援装置から前記合流支援情報を受信する受信部(200)と、受信した前記合流支援情報に基づいて、前記本線車両の前記本線上における位置と、前記合流車両の前記合流車線上における位置と、を示す画像情報を生成する画像情報生成部(201)と、を備える。 Moreover, according to the 6th aspect of this invention, an onboard equipment is the said main line vehicle based on the receiving part (200) which receives the said joining assistance information from the above-mentioned joining assistance apparatus, and the received said joining assistance information. An image information generation unit (201) that generates image information indicating the position of the merging vehicle on the merging lane of the merging vehicle.
また、本発明の第7の態様によれば、合流支援システムは、道路の本線に沿って複数配置され、各々の検知範囲において本線を走行する本線車両を検知する車両検知センサと、前記車両検知センサからの車両検知情報を、合流車線を走行する合流車両に搭載された車載器に送信する路側無線機と、前記合流車両に搭載された車載器と、を備え、前記車載器は、前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置に基づく合流支援情報を生成する合流支援情報生成部(211)を備える。 According to the seventh aspect of the present invention, the merging support system includes a vehicle detection sensor that detects a main line vehicle that is arranged along the main line of the road and travels along the main line in each detection range, and the vehicle detection method. A roadside radio that transmits vehicle detection information from a sensor to an in-vehicle device mounted in a confluence vehicle traveling in a confluence lane, and an in-vehicle device mounted in the confluence vehicle, wherein the in-vehicle device includes the vehicle A merging support information generation unit (211) that generates merging support information based on the position of the main vehicle on the main line based on vehicle detection information from a detection sensor is provided.
また、本発明の第8の態様は、道路の本線に沿って複数配置された車両検知センサを通じて、各々の検知範囲において本線を走行する本線車両を検知する車両検知ステップと、前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置に基づく合流支援情報を生成する合流支援情報生成ステップと、前記合流支援情報を、合流車線を走行する合流車両に搭載された車載器に送信する送信ステップと、を有する合流支援方法である。 According to an eighth aspect of the present invention, there is provided a vehicle detection step of detecting a main line vehicle traveling on the main line in each detection range through a plurality of vehicle detection sensors arranged along the main line of the road, and the vehicle detection sensor. A merging support information generating step for generating merging support information based on the position of the main vehicle on the main line based on the vehicle detection information of the vehicle, and an in-vehicle device mounted on the merging vehicle that travels the merging support information on the merging lane And a transmission step of transmitting to the merge support method.
上述の合流支援装置、合流支援システム、車載器及び合流支援方法によれば、合流車線を走行する車両に対し、本線を走行する車両の状況を適切に認識させることができる。 According to the merging support apparatus, the merging support system, the vehicle-mounted device, and the merging support method described above, the vehicle traveling on the merging lane can be appropriately recognized on the situation of the vehicle traveling on the main lane.
<第1の実施形態>
以下、第1の実施形態に係る合流支援システム及び合流支援装置について、図1〜図8を参照しながら説明する。
<First Embodiment>
Hereinafter, the merging support system and the merging support device according to the first embodiment will be described with reference to FIGS.
(合流支援システムの全体構成)
図1は、第1の実施形態に係る合流支援システムの全体構成を示す図である。
合流支援システム1は、上述の合流支援装置10と、合流車両A2に搭載される車載器20と、によって構成される。
(Overall configuration of confluence support system)
FIG. 1 is a diagram illustrating an overall configuration of a merging support system according to the first embodiment.
The
図1に示すように、合流支援装置10は、道路(高速道路等)の本線L1に対し合流車線L2が合流する合流地点Cの周辺に設置される。以下の説明において、本線L1を走行する車両を「本線車両A1」と表記し、合流車線L2を走行する車両を「合流車両A2」とも表記する。
本実施形態に係る合流車両A2は、運転者がハンドル、アクセル及びブレーキを操作して運転を行う手動運転車両であるものとする。
As shown in FIG. 1, the merging
The joining vehicle A2 according to the present embodiment is a manually operated vehicle in which the driver operates the steering wheel, the accelerator, and the brake.
図1に示すように、合流支援装置10は、制御装置11と、車両検知センサ12と、路側無線機13と、を備えている。
As shown in FIG. 1, the merging
制御装置11は、合流支援装置10の全体の動作を司る演算処理装置である。制御装置11は、特に、合流車両A2に対し合流を支援するための合流支援情報を生成する。制御装置11の機能の詳細については後述する。
The
車両検知センサ12は、本線L1に沿って、合流地点Cから本線L1の上流側(本線車両A1の走行方向手前側)に遡って複数箇所に設置される。車両検知センサ12は、各々の検知範囲において本線L1を走行する本線車両A1を検知する。
本実施形態においては、車両検知センサ12は、車両撮影用カメラとレーダーとを組み合わせてなる。車両撮影用カメラは、本線L1における検知範囲(撮影範囲)を撮影し、その映像情報を出力する。また、レーダーは、検知範囲に電波を発信し、当該電波が車両の車体で反射されてなる反射波に基づくレーダー検知情報を出力する。このレーダー検知情報によれば、車両(本線車両A1)の存在位置及び速度を識別することができる。
車両検知センサ12は、上記映像情報及びレーダー検知情報(以下、これらを総称して「車両検知情報」とも表記する。)を制御装置11に出力する。
なお、図1において、車両検知センサ12は、追越車線(車両A1の走行方向右側の車線)側の路側に設置されているが、この態様に限定されない。例えば、車両検知センサ12は、走行車線(車両A1の走行方向左側の車線)側の路側に設置されていてもよい。このようにすることで、合流支援のために重要な、走行車線側を走行する車両A1の存在を精度良く検知することができる。
The
In the present embodiment, the
The
In FIG. 1, the
車両検知センサ12は、合流地点Cの上流側の広範囲(例えば、500m〜1km程度)に渡って100mおきに設置される。
このようにすることで、合流車両A2が合流地点Cに到達するよりも十分に手前側から本線車両A1の状況を認識することができる。したがって、合流車両A2は、合流地点Cよりも十分に手前側を走行する本線車両A1の状況に基づいて、より安全かつ的確な判断をすることができる。
また、例えば、自動運転車両の合流車両A2が制御不能状態となった場合、本線車両A1が時速100kmで走行中に、異常に気づくまでの時間を10秒(約278m走行)とし、そこから急制動(約112mで停止)するまでの距離以上(500m〜1km)が確保されるので、本線車両A1の安全性も高められる。
The
By doing in this way, the situation of main line vehicle A1 can be recognized from the near side rather than merging vehicle A2 reaches merging point C. Therefore, the merging vehicle A2 can make a safer and more accurate determination based on the situation of the main line vehicle A1 that travels in front of the merging point C.
In addition, for example, when the merging vehicle A2 of the autonomous driving vehicle is in an uncontrollable state, the time until the main line vehicle A1 notices an abnormality while traveling at 100 km / h is 10 seconds (traveling about 278 m), and then suddenly Since the distance (500 m to 1 km) until braking (stop at about 112 m) is ensured, the safety of the main line vehicle A1 is also improved.
路側無線機13は、合流車線L2に沿って設置される。路側無線機13は、無線通信を介して、合流車線L2を走行する合流車両A2に向けて合流支援情報を送信する。ここで、図1に示すように、合流車両A2は、車載器20を搭載している。車載器20は、路側無線機13から送信された合流支援情報を受信可能とされている。
路側無線機13及び車載器20は、例えば、狭域通信(Dedicated Short Range Communications:DSRC)技術に基づく無線通信を行う。
路側無線機13は、合流地点Cから合流車線L2の上流側(合流車両A2の走行方向手前側)に遡って複数箇所に設置される。
このようにすることで、合流車両A2は、合流地点Cに到達する十分に手前側から合流支援情報を受信することができ、合流に係る運転操作に関し、より的確な判断をすることができる。
The
The
The
By doing in this way, the merging vehicle A2 can receive the merging support information from the front side sufficiently to reach the merging point C, and can make a more accurate determination regarding the driving operation related to the merging.
(合流支援システムの機能構成)
図2は、第1の実施形態に係る合流支援システムの機能構成を示す図である。
図2に示すように、合流支援装置10の制御装置11は、車両検知情報取得部110と、合流支援情報生成部111と、出力部112と、を備えている。
(Functional configuration of confluence support system)
FIG. 2 is a diagram illustrating a functional configuration of the merge support system according to the first embodiment.
As shown in FIG. 2, the
車両検知情報取得部110は、複数の車両検知センサ12から車両検知情報を取得する。
合流支援情報生成部111は、車両検知センサ12からの車両検知情報に基づいて本線L1上における本線車両A1の位置及び速度に基づく合流支援情報を生成する。
出力部112は、合流支援情報生成部111によって生成された合流支援情報を路側無線機13に出力する。
The vehicle detection
The merging support information generation unit 111 generates merging support information based on the position and speed of the main vehicle A1 on the main line L1 based on the vehicle detection information from the
The
車載器20は、受信部200と、画像情報生成部201と、表示パネル202と、測位情報取得部203と、を備えている。
受信部200は、路側無線機13からの無線信号を受信して、合流支援情報を取得する。
画像情報生成部201は、受信した合流支援情報に基づいて、本線車両A1の本線L1上における位置と、合流車両A2の合流車線L2上における位置と、を示す画像情報を生成する。
表示パネル202は、一般的な液晶ディスプレイパネル、有機ELパネル等であって、画像情報生成部201によって生成された画像情報を表示する。合流車両A2の運転者は、表示パネル202に表示された画像(上記画像情報に基づく画像)を視認することで合流時における運転の支援を受ける。
測位情報取得部203は、例えば、GNSS(Global Navigation Satellite System)による衛星から、自車両の位置を特定するための衛星航法情報(測位情報)を受信する。
The vehicle-mounted
The receiving
The image
The
The positioning
(合流支援装置の処理フロー)
図3は、第1の実施形態に係る合流支援装置の処理フローを示す図である。
図3に示す処理フローは、合流支援装置10の制御装置11によって実行される。
(Processing flow of the merge support device)
FIG. 3 is a diagram illustrating a processing flow of the merging support apparatus according to the first embodiment.
The processing flow shown in FIG. 3 is executed by the
図3に示すように、制御装置11の車両検知情報取得部110は、複数の車両検知センサ12の各々から車両検知情報(車両撮影用カメラによる映像情報、及び、レーダーによるレーダー検知情報)を取得する(ステップS01)。
次に、制御装置11の合流支援情報生成部111は、取得された車両検知情報のうち映像情報に基づいて走行する車両の車両ナンバーを取得する。具体的には、合流支援情報生成部111は、取得された映像情報に対し所定の画像認識処理を行い、映像に映されたナンバープレートから車両ナンバーを抽出する(ステップS02)。
次に、合流支援情報生成部111は、レーダー検知情報に基づいて上記映像情報に含まれる本線車両A1の位置及び速度を取得する(ステップS03)。具体的には、レーダーが電磁波を発信した時刻とその反射波が帰還した時刻との時間差、及び、当該反射波の到来方向により本線車両A1の位置を平面座標(位置(X、Y))で特定することができる。また、レーダーが発信した電磁波とその反射波との間に生じた周波数変化により本線車両A1の速度を判別することができる。更に、合流支援情報生成部111は、レーダー検知情報によって特定された本線車両A1の位置に、車両撮影用カメラによる映像情報を重ね合わせることで、1台の本線車両A1に対する位置(X、Y)、速度(V)及び車両ナンバーを関連付ける。
次に、合流支援情報生成部111は、1台の本線車両A1が複数の車両検知センサ12によって検知された場合に、一の車両検知センサ12によって検知された車両と、他の車両検知センサ12によって検知された車両と、を同一車両として関連付ける(ステップS04)。合流支援情報生成部111は、関連付け処理により、重複して検知された本線車両A1に関する情報のうちのいずれか一方を選択する。このようにすることで、実際には1台の本線車両A1が、誤って2台存在するものとして検知されることを防止することができる。
次に、合流支援情報生成部111は、本線L1を走行する本線車両A1の位置及び速度に基づいて、合流スペースを演算する(ステップS05)。
制御装置11の出力部112は、合流支援情報生成部111によって特定された、各本線車両A1に対する位置(X、Y)、速度(V)及び車両ナンバーと、合流スペースとを含む合流支援情報を路側無線機13に向けて出力する(ステップS06)。
As shown in FIG. 3, the vehicle detection
Next, the merge support information generation unit 111 of the
Next, the merge support information generation unit 111 acquires the position and speed of the main line vehicle A1 included in the video information based on the radar detection information (step S03). Specifically, the position of the main vehicle A1 is expressed in plane coordinates (position (X, Y)) according to the time difference between the time when the radar transmits the electromagnetic wave and the time when the reflected wave returns and the arrival direction of the reflected wave. Can be identified. Further, the speed of the main line vehicle A1 can be determined based on the frequency change generated between the electromagnetic wave transmitted by the radar and the reflected wave. Further, the merging support information generation unit 111 superimposes the video information obtained by the vehicle photographing camera on the position of the main line vehicle A1 specified by the radar detection information, so that the position (X, Y) with respect to one main line vehicle A1 is obtained. Associate the speed (V) and vehicle number.
Next, when one main line vehicle A1 is detected by the plurality of
Next, the merging support information generation unit 111 calculates a merging space based on the position and speed of the main line vehicle A1 traveling on the main line L1 (step S05).
The
制御装置11は、以上のステップS01〜S06の処理を、50〜100msecの間隔で繰り返し実行する。このようにすることで、本線L1を走行する本線車両A1の各々の位置及び速度等をリアルタイムで認識することができる。
The
(制御装置の機能)
図4〜図7は、それぞれ、第1の実施形態に係る制御装置の機能を説明する第1の図〜第4の図である。
図3に示す処理フローの各処理ステップにおける詳細な処理を、図4〜図7を参照しながら説明する。
(Function of control device)
4 to 7 are first to fourth diagrams illustrating functions of the control device according to the first embodiment, respectively.
Detailed processing in each processing step of the processing flow shown in FIG. 3 will be described with reference to FIGS.
図4に示すように、複数の車両検知センサ12は、隣り合う車両検知センサ12の互いの検知範囲が重なる重複領域を有するように配置されている。
具体的には、車両検知センサ121は、当該車両検知センサ121の検知範囲P1が、車両検知センサ120の検知範囲P0と一部重なり合うように配置される。また、車両検知センサ122は、当該車両検知センサ122の検知範囲P2が、車両検知センサ121の検知範囲P1と一部重なり合うように配置される。以下、検知範囲P0と検知範囲P1とが重なる範囲を「重複領域P01」と表記し、検知範囲P1と検知範囲P2とが重なる範囲を「重複領域P12」と表記する。また、図4において、本線L1を走行する本線車両A1を、個々に、車両a1、a2、・・・、a6と表記する。
As shown in FIG. 4, the plurality of
Specifically, the
図4に示す例によれば、車両検知センサ120の検知範囲P0には、車両a1、a2が存在する。この場合、車両検知情報取得部110は、車両検知センサ120から受信したレーダー検知情報により車両a1、a2の位置、速度を検知し、また、映像情報により車両a1、a2の車両ナンバーを取得する。
また、車両検知センサ121の検知範囲P1には、車両a2、a3、a4が存在する。この場合、車両検知情報取得部110は、車両検知センサ121から受信したレーダー検知情報により車両a2、a3、a4の位置、速度を検知し、また、映像情報により車両a2、a3、a4の車両ナンバーを取得する。
同様に、車両検知センサ122の検知範囲P2には、車両a4、a5、a6が存在する。この場合、車両検知情報取得部110は、車両検知センサ122から受信したレーダー検知情報により車両a4、a5、a6の位置、速度を検知し、また、映像情報により車両a4、a5、a6の車両ナンバーを取得する。
なお、図4に示す通り、車両a2は、重複領域P01に属している。したがって、車両a2は、車両検知センサ120と車両検知センサ121との両方によって検知される。また、車両a4は、重複領域P12に属している。したがって、車両a4は、車両検知センサ121と車両検知センサ122との両方によって検知される。
According to the example shown in FIG. 4, vehicles a <b> 1 and a <b> 2 exist in the detection range P <b> 0 of the
Vehicles a2, a3, and a4 exist in the detection range P1 of the
Similarly, vehicles a4, a5, and a6 exist in the detection range P2 of the
In addition, as shown in FIG. 4, the vehicle a2 belongs to the overlap area P01. Therefore, the vehicle a2 is detected by both the
ところで、各車両検知センサ120、121、122が出力するレーダー検知情報は、各センサ自身の設置位置を基準とする各車両との相対的な位置関係(相対位置)を示すものである。ここで、合流支援情報生成部111は、各車両検知センサ120、121、122の本線L1における設置位置を予め記録している。合流支援情報生成部111は、各車両検知センサ120、121、122の設置位置に、当該車両検知センサ120、121、122の各々によって検知された車両a1〜a6の相対位置を加算することで、各車両a1〜a6の本線L1上における絶対位置を認識する。図5、図6の各情報テーブルに示す位置座標は、各車両a1〜a6の本線L1上における絶対位置を示すものとする。
By the way, the radar detection information output from each
図5に示す情報テーブルは、ステップS03(図3)にて合流支援情報生成部111が、車両検知センサ120、121、122の各々から受信した車両検知情報に基づいて生成した車両検知センサ別の車両位置速度情報(以下、「センサ別車両位置速度情報」と表記する。)である。
図5に示すように、センサ別車両位置速度情報は、各車両検知センサ120、121、122が検知した各車両a1〜a6についての位置座標(絶対位置)、速度及び車両ナンバーが関連付けられた情報テーブルである。
The information table shown in FIG. 5 is based on the vehicle detection sensor generated by the merging support information generation unit 111 based on the vehicle detection information received from each of the
As shown in FIG. 5, the vehicle position speed information for each sensor is information in which position coordinates (absolute position), speed, and vehicle number are associated with each of the vehicles a1 to a6 detected by the
センサ別車両位置速度情報T0は、車両検知センサ120によって検知された車両に関する車両位置速度情報である。例えば、センサ別車両位置速度情報T0によれば、センサ別車両ID=“ID01”に対し、位置座標=(X01,Y01)、速度=V01、車両ナンバー=“11−11”との情報が関連付けられる。また、センサ別車両ID=“ID02”に対し、位置座標=(X02,Y02)、速度=V02、車両ナンバー=“22−22”との情報が関連付けられる。
なお、センサ別車両ID=“ID01”に関連付けられた各種情報は、図4の車両a1についての情報であり、センサ別車両ID=“ID02”に関連付けられた各種情報は、図4の車両a2についての情報であるものとする。
The sensor-specific vehicle position / speed information T0 is vehicle position / speed information related to the vehicle detected by the
The various information associated with the sensor-specific vehicle ID = “ID01” is information about the vehicle a1 in FIG. 4, and the various information associated with the sensor-specific vehicle ID = “ID02” is the vehicle a2 in FIG. Information about
センサ別車両位置速度情報T1は、車両検知センサ121によって検知された車両に関する車両位置速度情報である。例えば、センサ別車両位置速度情報T1によれば、センサ別車両ID=“ID11”に関して、位置座標=(X02’,Y02’)、速度=V02’、車両ナンバー=“22−22”との情報が関連付けられる。また、センサ別車両ID=“ID12”に関して、位置座標=(X03,Y03)、速度=V03、車両ナンバー=“33−33”との情報が関連付けられる。更に、センサ別車両ID=“ID13”に関して、位置座標=(X04,Y04)、速度=V04、車両ナンバー=“44−44”との情報が関連付けられる。
なお、センサ別車両ID=“ID11”に関連付けられた各種情報は、図4の車両a2についての情報であり、センサ別車両ID=“ID12”に関連付けられた各種情報は、図4の車両a3についての情報であるものとする。また、センサ別車両ID=“ID13”に関連付けられた各種情報は、図4の車両a4についての情報であるものとする。
The sensor-specific vehicle position / speed information T <b> 1 is vehicle position / speed information related to the vehicle detected by the
Note that the various information associated with the sensor-specific vehicle ID = “ID11” is information about the vehicle a2 in FIG. 4, and the various information associated with the sensor-specific vehicle ID = “ID12” is the vehicle a3 in FIG. Information about In addition, the various information associated with the sensor-specific vehicle ID = “ID13” is information on the vehicle a4 in FIG.
センサ別車両位置速度情報T2は、車両検知センサ122によって検知された車両に関する車両位置速度情報である。例えば、センサ別車両位置速度情報T2によれば、センサ別車両ID=“ID21”に関して、位置座標=(X04’,Y04’)、速度=V04’、車両ナンバー=“44−44”との情報が関連付けられる。また、センサ別車両ID=“ID22”に関して、位置座標=(X05,Y05)、速度=V05、車両ナンバー=“55−55”との情報が関連付けられる。更に、センサ別車両ID=“ID23”に関して、位置座標=(X06,Y06)、速度=V06、車両ナンバー=“66−66”との情報が関連付けられる。
なお、センサ別車両ID=“ID21”に関連付けられた各種情報は、図4の車両a4についての情報であり、センサ別車両ID=“ID22”に関連付けられた各種情報は、図4の車両a5についての情報であるものとする。また、センサ別車両ID=“ID23”に関連付けられた各種情報は、図4の車両a6についての情報であるものとする。
The sensor-specific vehicle position / speed information T <b> 2 is vehicle position / speed information related to the vehicle detected by the
The various information associated with the sensor-specific vehicle ID = “ID21” is information on the vehicle a4 in FIG. 4, and the various information associated with the sensor-specific vehicle ID = “ID22” is the vehicle a5 in FIG. Information about In addition, the various information associated with the sensor-specific vehicle ID = “ID23” is information on the vehicle a6 in FIG.
ここで、センサ別車両位置速度情報T1に示されるセンサ別車両ID=“ID02”に係る情報と、センサ別車両位置速度情報T2に示されるセンサ別車両ID=“ID11”に係る情報とは、同一の車両(車両a2)の位置、速度等を示す情報である。したがって、理想的には、位置(X02,Y02)と位置(X02’,Y02’)、及び、速度V02と速度V02’とは一致するはずであるが、車両検知情報の誤差に起因して、両者は必ずしも一致しない。そのため、実際には1台の車両a2について、あたかも異なる2台の車両が存在するかのような誤検知が発生し得る。 Here, the information related to the sensor-specific vehicle ID = “ID02” shown in the sensor-specific vehicle position / speed information T1 and the information related to the sensor-specific vehicle ID = “ID11” shown in the sensor-specific vehicle position / speed information T2 are: This is information indicating the position, speed, etc. of the same vehicle (vehicle a2). Therefore, ideally, the position (X02, Y02) and the position (X02 ′, Y02 ′) and the speed V02 and the speed V02 ′ should match, but due to the error of the vehicle detection information, Both do not necessarily match. For this reason, in actuality, erroneous detection as if there are two different vehicles may occur for one vehicle a2.
図6は、ステップS04(図3)にて合流支援情報生成部111が、車両検知センサ120、121、122別に得られた複数のセンサ別車両位置速度情報T0、T1、T2を統合してなる車両位置速度情報(以下、「統合車両位置速度情報T」とも表記する。)である。
ステップS04にて、合流支援情報生成部111は、センサ別車両位置速度情報T0、T1、T2を対比して、同一の車両ナンバーを有する車両IDの組み合わせを検索する。そして、同一の車両ナンバーを有する複数の車両IDが見つかった場合には、そのうちのいずれか一方を選択する。
例えば、センサ別車両位置速度情報T0のセンサ別車両ID=“ID02”と、センサ別車両位置速度情報T1のセンサ別車両ID=“ID11”とは、共に車両ナンバーが“22−22”で同一である。したがって、合流支援情報生成部111は、“ID02”に係る車両と“ID11”に係る車両とは、重複して検知された1台の車両と判断し、何れか一方(例えば、“ID02”)に関連付けられた情報を選択する。
同様に、センサ別車両位置速度情報T1のセンサ別車両ID=“ID13”と、センサ別車両位置速度情報T2のセンサ別車両ID=“ID21”とは、共に車両ナンバーが“44−44”で同一である。したがって、合流支援情報生成部111は、“ID13”に係る車両と“ID21”に係る車両とは、重複して検知された1台の車両と判断し、何れか一方(例えば、“ID13”)に関連付けられた情報を選択する。
In FIG. 6, the merge support information generation unit 111 integrates a plurality of sensor-specific vehicle position speed information T0, T1, and T2 obtained by the
In step S04, the merging support information generation unit 111 searches for a combination of vehicle IDs having the same vehicle number by comparing the vehicle position speed information T0, T1, and T2 by sensor. If a plurality of vehicle IDs having the same vehicle number are found, one of them is selected.
For example, the sensor-specific vehicle ID = “ID02” of the sensor-specific vehicle position / speed information T0 and the sensor-specific vehicle ID = “ID11” of the sensor-specific vehicle position / speed information T1 both have the same vehicle number “22-22”. It is. Therefore, the merging support information generation unit 111 determines that the vehicle related to “ID02” and the vehicle related to “ID11” are one detected in duplicate, and one of them (for example, “ID02”) Select information associated with.
Similarly, the vehicle number is “44-44” for both the sensor-specific vehicle ID = “ID13” of the sensor-specific vehicle position / speed information T1 and the sensor-specific vehicle ID = “ID21” of the sensor-specific vehicle position / speed information T2. Are the same. Therefore, the merging support information generation unit 111 determines that the vehicle related to “ID13” and the vehicle related to “ID21” are one detected in duplicate, and one of them (for example, “ID13”) Select information associated with.
このように、合流支援情報生成部111は、重複して検知された各種情報のうちの一方を選択しながら、車両検知センサ120、121、122別に得られた複数のセンサ別車両位置速度情報T0、T1、T2を統合し、図6に示すような統合車両位置速度情報Tを生成する。図6に示す車両ID=“IDA01”〜“IDA06”の各々に関連付けられた各種情報は、それぞれ、車両a1〜a6の位置、速度(及び車両ナンバー)を示す。
なお、図6に示す統合車両位置速度情報Tの例では、合流支援情報生成部111は、車両a2について車両検知センサ120で検知された位置、速度が採用されているが、他の実施形態では、車両検知センサ121で検知された位置、速度が採用されてもよい。
また、他の実施形態においては、複数の車両検知センサ120、121、122を通じて取得された複数の位置、速度の平均値を採用して統合してもよい。例えば、車両a2の位置座標は、車両検知センサ120による検知結果(位置(X02,Y02))と車両検知センサ121による検知結果(位置(X02’,Y02’))との平均値によって算出されてもよい。
As described above, the merge support information generation unit 111 selects a plurality of pieces of vehicle-detected vehicle position / speed information T0 obtained for each of the
In the example of the integrated vehicle position speed information T shown in FIG. 6, the merging support information generation unit 111 employs the position and speed detected by the
In another embodiment, an average value of a plurality of positions and speeds acquired through a plurality of
図7は、合流支援情報生成部111が車両a1〜a6の位置関係に基づいて生成する合流スペース情報Uを示している。
合流支援情報生成部111は、まず、統合車両位置速度情報Tに示される位置座標に基づいて、本線L1を走行する車両a1〜a6のうち、合流車線L2に隣接する車線(第1走行車線)を走行する車両を、合流スペースを構成する“対象車両”として抽出する。図4に示す例では、合流支援情報生成部111は、車両a1、a3、a4、a6を対象車両として抽出する。
次に、合流支援情報生成部111は、対象車両の各々の間に存在する合流スペースの始点、終点、及び、合流スペースの移動速度を演算する。ここで、統合車両位置速度情報Tに示される車線方向の位置(X座標値)は、各車両a1〜a6の車体前端面の位置を示している。したがって、合流スペースの始点は、先行車両の車線方向の位置(X座標値)から車両1台分の車長Δ(予め規定されたオフセット値)を差し引くことで算出される。また、合流スペースの終点には、後続車両の車線方向の位置(X座標の値)が採用される。合流スペースの移動速度は、例えば、当該合流スペースを構成する先行車両及び後続車両の平均速度として算出される。
FIG. 7 illustrates the merge space information U generated by the merge support information generation unit 111 based on the positional relationship between the vehicles a1 to a6.
First, the merge support information generation unit 111, based on the position coordinates indicated by the integrated vehicle position speed information T, out of the vehicles a1 to a6 traveling on the main line L1, the lane adjacent to the merge lane L2 (first travel lane). Are extracted as “target vehicles” constituting the merge space. In the example illustrated in FIG. 4, the merging support information generation unit 111 extracts vehicles a1, a3, a4, and a6 as target vehicles.
Next, the merge support information generation unit 111 calculates the start point and end point of the merge space existing between the target vehicles, and the moving speed of the merge space. Here, the position in the lane direction (X coordinate value) indicated in the integrated vehicle position speed information T indicates the position of the front end face of the vehicle body of each of the vehicles a1 to a6. Therefore, the start point of the merge space is calculated by subtracting the vehicle length Δ (predefined offset value) for one vehicle from the position in the lane direction (X coordinate value) of the preceding vehicle. Further, the position (X coordinate value) of the following vehicle in the lane direction is adopted as the end point of the merge space. The moving speed of the joining space is calculated as, for example, the average speed of the preceding vehicle and the succeeding vehicle that form the joining space.
例えば、図4に示す例において、合流支援情報生成部111は、車両a1と車両a3との間に存在する合流スペース(スペースID=“SP1”)について、始点=“X03−Δ”、終点=“X01”、移動速度=“Vs1”(=(V01+V03)/2)と演算する。また、合流支援情報生成部111は、車両a4と車両a6との間に存在する合流スペース(スペースID=“SP2”)について、始点=“X06−Δ”、終点=“X04”、移動速度=“Vs2”(=(V04+V06)/2)と演算する。
なお、合流支援情報生成部111は、車両a3と車両a4との間隔が所定の判定閾値(安全に合流できるか否かの判断に基づいて規定される閾値)に満たないことをもって、車両a3と車両a4との間には合流スペースが存在しないものと判断する。
For example, in the example illustrated in FIG. 4, the merging support information generation unit 111 has a start point = “X03−Δ” and an end point = for a merging space (space ID = “SP1”) existing between the vehicle a1 and the vehicle a3. “X01” and moving speed = “Vs1” (= (V01 + V03) / 2) are calculated. In addition, the merging support information generation unit 111 has a start point = “X06-Δ”, an end point = “X04”, and a moving speed = for a merging space (space ID = “SP2”) existing between the vehicle a4 and the vehicle a6. “Vs2” (= (V04 + V06) / 2) is calculated.
The merging support information generation unit 111 determines that the distance between the vehicle a3 and the vehicle a4 is less than a predetermined determination threshold value (threshold value that is defined based on a determination as to whether the vehicle can be safely merged) or not. It is determined that there is no merge space with the vehicle a4.
以上のように、合流支援情報生成部111は、合流支援情報として、本線車両A1の位置及び速度を示す統合車両位置速度情報T(図6)と、合流スペース情報U(図7)とを生成する。 As described above, the merge support information generation unit 111 generates the integrated vehicle position speed information T (FIG. 6) indicating the position and speed of the main vehicle A1 and the merge space information U (FIG. 7) as the merge support information. To do.
(車載器の機能)
図8は、第1の実施形態に係る車載器の機能を説明する図である。
車載器20の受信部200(図2)は、合流支援情報(統合車両位置速度情報T、合流スペース情報U)を受信する。
車載器20の画像情報生成部201(図2)は、受信部200を通じて取得した合流支援情報と、測位情報取得部203を通じて取得した自車両の位置とに基づいて、図8に示す画像情報Dを生成する。
図8に示すように、画像情報Dは、各本線車両A1の本線L1上における位置と、合流車両A2(自車両)の合流車線L2上における位置とが俯瞰図として示される画像情報である。
図8に示すように、画像情報Dには、本線画像DL1、合流車線画像DL2、自車両画像Ds、車両画像Da1〜Da6、及び、合流スペース画像Dsp1、Dsp2が含まれる。車両画像Da1〜Da6は、それぞれ、本線L1を走行する車両a1〜a6(図4参照)に関連するものである。
画像情報生成部201は、車載器20に予め記録されているマップ情報と、測位情報取得部203を通じて取得される衛星航法情報とに基づいて、本線画像DL1、合流車線画像DL2、及び、自車両画像Dsを生成する。
また、画像情報生成部201は、統合車両位置速度情報Tに基づいて車両画像Da1〜Da6を生成し、また、合流スペース情報Uに基づいて合流スペース画像Dsp1、Dsp2を生成する。
合流支援情報生成部111は、生成した画像情報Dを表示パネル202に表示させる。これにより、合流車両A2の運転者は、表示パネル202に表示された画像情報Dを視認することで、本線車両A1の位置、速度、及び、合流スペースを把握することができる。
(Function of OBE)
FIG. 8 is a diagram for explaining functions of the vehicle-mounted device according to the first embodiment.
The receiving unit 200 (FIG. 2) of the vehicle-mounted
The image information generation unit 201 (FIG. 2) of the vehicle-mounted
As shown in FIG. 8, the image information D is image information in which the position on the main line L1 of each main line vehicle A1 and the position on the merging lane L2 of the merging vehicle A2 (own vehicle) are shown as an overhead view.
As shown in FIG. 8, the image information D includes a main line image DL1, a merged lane image DL2, a host vehicle image Ds, vehicle images Da1 to Da6, and merged space images Dsp1 and Dsp2. The vehicle images Da1 to Da6 are related to the vehicles a1 to a6 (see FIG. 4) traveling on the main line L1, respectively.
Based on the map information recorded in advance in the vehicle-mounted
The image
The merge support information generation unit 111 causes the
(作用、効果)
以上の通り、第1の実施形態に係る合流支援装置10は、本線L1に沿って複数配置され、各々の検知範囲において本線L1を走行する本線車両A1を検知する車両検知センサ12を備える。また、合流支援装置10は、車両検知センサ12からの車両検知情報に基づいて本線L1上における本線車両A1の位置を示す合流支援情報を生成する制御装置11(合流支援情報生成部111)を備える。また、合流支援装置10は、合流支援情報を、合流車線L2を走行する合流車両A2に搭載された車載器20に送信する路側無線機13を備える。
このような構成とすることで、合流車両A2は、路側無線機13を通じて、本線車両A1の本線L1上の位置を示す合流支援情報を取得することができる。したがって、合流地点Cに到達するよりも前の段階で視界が制限される場合(例えば、合流車線L2と本線L1との間に遮蔽物がある場合等)であっても合流支援を受けることができる。
また、車両検知センサ12(車両撮影用カメラ、レーダー)は、光、電波を通じて、車両の車体を直接検知可能とする態様のセンサとされるため、あらゆる態様の車両、例えば、特定の車載器を搭載しない車両であっても存在を検知することができる。
以上より、合流車線を走行する車両に対し、本線を走行する車両の状況を適切に認識させることができる。
(Function, effect)
As described above, the merging
With such a configuration, the merging vehicle A2 can acquire the merging support information indicating the position of the main line vehicle A1 on the main line L1 through the
Further, since the vehicle detection sensor 12 (vehicle shooting camera, radar) is a sensor that can directly detect the vehicle body through light and radio waves, any vehicle such as a specific vehicle-mounted device can be used. The presence can be detected even if the vehicle is not mounted.
From the above, it is possible to make the vehicle traveling on the merged lane properly recognize the situation of the vehicle traveling on the main line.
また、第1の実施形態に係る合流支援装置10によれば、複数の車両検知センサ12は、隣り合う車両検知センサ12の互いの検知範囲が重なる重複領域を有するように配置される。また、合流支援情報生成部111は、重複領域において、一の車両検知センサ12によって検知された車両と、他の車両検知センサ12によって検知された車両と、を同一車両として関連付ける。
このような構成とすることで、異なる車両検知センサによって同一の車両が検知された場合に、1台の車両が異なる2台の車両として検知されることを抑制できる。これにより、一層精度の高い合流支援情報を提供することができる。
Moreover, according to the confluence | merging
By setting it as such a structure, when the same vehicle is detected by a different vehicle detection sensor, it can suppress that one vehicle is detected as two different vehicles. As a result, it is possible to provide merge support information with higher accuracy.
また、第1の実施形態に係る合流支援装置10によれば、合流支援情報生成部111は、車両検知センサ12からの車両検知情報に基づいて本線車両A1の速度を更に取得し、本線L1上における本線車両A1の位置及び速度を示す合流支援情報を生成する。
このような構成とすることで、本線L1を走行する本線車両A1の速度(又は、合流スペースの移動速度)を特定することができるので、合流車両A2の運転者は、合流するにあたり、どの程度の速度で走行すればよいかを認識することができる。
Further, according to the
By setting it as such a structure, since the speed (or moving speed of merge space) of main line vehicle A1 which drive | works the main line L1 can be pinpointed, when the driver of merge vehicle A2 joins, how much It is possible to recognize whether to travel at a speed of.
また、第1の実施形態に係る合流支援システム1によれば、車載器20は、受信した合流支援情報に基づいて、本線車両A1の本線L1上における位置と、合流車両A2の合流車線L2上における位置と、を示す画像情報Dを生成する画像情報生成部201を備える。
このような構成とすることで、自車両(合流車両A2)の運転者は、画像情報Dを視認することで、自車両と、本線L1を走行する本線車両A1との位置関係を一目で把握することができる。
Moreover, according to the
With such a configuration, the driver of the own vehicle (merging vehicle A2) can grasp the positional relationship between the own vehicle and the main vehicle A1 traveling on the main line L1 at a glance by viewing the image information D. can do.
(変形例)
以上、第1の実施形態に係る合流支援システム1及び合流支援装置10について詳細に説明したが、合流支援システム1及び合流支援装置10の具体的な態様は、上述のものに限定されることはなく、要旨を逸脱しない範囲内において種々の設計変更等を加えることは可能である。
(Modification)
As described above, the merging
例えば、第1の実施形態に係る車両検知センサ12は、車両撮影用カメラ及びレーダーの組み合わせで構成されるものとして説明したが、他の実施形態においてはこの態様に限定されない。
例えば、他の実施形態に係る車両検知センサ12は、車両撮影用カメラ、レーダーの何れか一方のみで構成されてもよい。
例えば、車両検知センサ12がレーダーのみである場合、合流支援情報生成部111は、車両ナンバーに基づいて同一車両を関連付けることができない。この場合、合流支援情報生成部111は、レーダー検知情報に基づく位置、速度の差が所定の誤差範囲内に属する2つの車両位置速度情報を、同一の車両によるものと見なして関連付けるようにしてもよい。例えば、図5において、車両検知センサ120によって検知された位置(X02,Y02)と車両検知センサ121によって検知された位置(X02’,Y02’)との差が所定の誤差範囲内であった場合、合流支援情報生成部111は、“ID02”に係る車両位置速度情報と、“ID11”に係る車両位置速度情報と、を同一車両によるものとして関連付ける。
For example, the
For example, the
For example, when the
また、第1の実施形態において、合流支援情報生成部111は、合流スペースの始点(図7)につき、先行車両の車線方向の位置(X座標値)から予め規定された車長Δをオフセットとして差し引くことで算出するものとして説明したが、他の実施形態においてはこの態様に限定されない。
他の実施形態に係る合流支援情報生成部111は、上述の車長Δに対し、本線車両A1の各々についての車長の測定結果を当てはめて合流スペースの始点を演算してもよい。
この場合、制御装置11は、例えば、車両検知センサ12(撮影カメラ)によって取得された映像情報に基づいて本線車両A1の車長を計測可能な車長計測手段を有していてもよい。
In the first embodiment, the merging support information generating unit 111 uses the vehicle length Δ that is defined in advance from the position in the lane direction (X coordinate value) of the preceding vehicle as an offset for the start point (FIG. 7) of the merging space. Although it has been described that it is calculated by subtracting, in other embodiments, it is not limited to this aspect.
The merging support information generation unit 111 according to another embodiment may calculate the start point of the merging space by applying the measurement result of the vehicle length for each main line vehicle A1 to the vehicle length Δ described above.
In this case, for example, the
また、第1の実施形態に係る車載器20は、測位情報取得部203を通じて、GNSSに基づく衛星航法情報(測位情報)を受信することで自車両の位置を認識するものとして説明したが、他の実施形態においてはこの態様に限定されない。
例えば、他の実施形態において、車両検知センサ12は、本線L1のみならず合流車線L2に沿って複数設置されていてもよい。合流車線L2に沿って設置された車両検知センサ12は、合流車線L2を走行する合流車両A2を検知可能とする。そして、合流車両A2に搭載された車載器20は、路側無線機13から、車両検知センサ12を通じて取得された自車両に関する車両位置速度情報を受信して、自車両の位置を認識するものとしてもよい。
Moreover, although the
For example, in other embodiments, a plurality of
<第2の実施形態>
次に、第2の実施形態に係る合流支援システム及び合流支援装置について、図9を参照しながら説明する。
<Second Embodiment>
Next, a merge support system and a merge support apparatus according to the second embodiment will be described with reference to FIG.
(合流支援システムの機能構成)
図9は、第2の実施形態に係る合流支援システムの機能構成を示す図である。
第2の実施形態に係る合流車両A2は、自律して走行が可能な自動運転車両であるものとする。
図2に示すように、合流車両A2は、自動運転制御を司る自動運転制御部30を備えている。自動運転制御部30は、車載器20が受信した合流支援情報と、測位情報取得部203を通じて取得した自車両の位置とに基づいて、合流車線L2における位置及び速度を調整する。
例えば、自動運転制御部30は、合流スペース情報に示される合流スペースの移動速度(例えば、移動速度Vs1(図7))を参照しながら、自車両の速度を当該移動速度Vs1に一致するように加減速を行う。また、自動運転制御部30は、自車両の位置が、合流スペース情報に示される始点と終点との間に位置するように位置調整を行う。
(Functional configuration of confluence support system)
FIG. 9 is a diagram illustrating a functional configuration of the merge support system according to the second embodiment.
The joining vehicle A2 according to the second embodiment is assumed to be an autonomous driving vehicle capable of traveling autonomously.
As shown in FIG. 2, the merging vehicle A2 includes an automatic
For example, the automatic
このような構成とすることで、自動運転車両である合流車両A2は、合流車線L2を走行中に、合流支援装置10から提供される合流支援情報を受信し、当該合流支援情報に基づいて適切に合流を行うことができる。
With such a configuration, the merging vehicle A2, which is an autonomous driving vehicle, receives the merging support information provided from the merging
<第3の実施形態>
次に、第3の実施形態に係る合流支援システム及び合流支援装置について、図10を参照しながら説明する。
<Third Embodiment>
Next, a merge support system and a merge support apparatus according to a third embodiment will be described with reference to FIG.
(合流支援システムの機能構成)
図10は、第3の実施形態に係る合流支援システムの機能構成を示す図である。
第3の実施形態に係る合流車両A2は、第2の実施形態と同様に、自律して走行が可能な自動運転車両であるものとする。
第1、第2の実施形態と異なり、第3の実施形態に係る合流支援装置10の制御装置11は、合流支援情報生成部111を備えていない。第3の実施形態に係る制御装置11は、車両検知センサ12から受信した車両検知情報を、路側無線機13に出力する。路側無線機13は、車両検知センサ12から受信した車両検知情報を無線で車載器20に送信する。
第3の実施形態に係る車載器20は、合流支援情報生成部211を備えている。
車載器20の合流支援情報生成部211は、第1、第2の実施形態に係る制御装置11が備えている合流支援情報生成部111(図2、図9)と同等の機能を有している。
即ち、合流支援情報生成部211は、受信部200を通じて受信した車両検知情報に基づいて本線車両A1の位置及び速度等を示す合流支援情報を生成する。そして、生成した合流支援情報を自動運転制御部30に出力する。
(Functional configuration of confluence support system)
FIG. 10 is a diagram illustrating a functional configuration of the merge support system according to the third embodiment.
The joining vehicle A2 according to the third embodiment is assumed to be an autonomous driving vehicle capable of traveling autonomously as in the second embodiment.
Unlike the first and second embodiments, the
The vehicle-mounted
The merge support
That is, the merging support
以上のように、合流支援システム1は、第1、第2の実施形態にて制御装置11が備えていた合流支援情報生成部111の機能を、車載器20が備える態様であってもよい。
なお、上述の第3の実施形態においては、合流車両A2が自動運転車両であるものとしたが、他の実施形態においては、合流車両A2が手動運転車両であってもよい。この場合、車載器20は、車載器20が備える合流支援情報生成部211が合流支援情報を生成し、画像情報生成部201が当該生成した合流支援情報に基づいて画像情報D(図8)を生成する。
As described above, the merging
In the above-described third embodiment, the joining vehicle A2 is an automatic driving vehicle. However, in another embodiment, the joining vehicle A2 may be a manually operated vehicle. In this case, in the vehicle-mounted
なお、上述の各実施形態においては、上述した合流支援装置10、車載器20の各種処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。また、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
In each of the above-described embodiments, the processes of the merging
上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。更に、合流支援装置10、車載器20は、それぞれ、1台のコンピュータで構成されていても良いし、通信可能に接続された複数のコンピュータで構成されていてもよい。
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient. Furthermore, the merging
以上のとおり、本発明に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態及びその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As described above, several embodiments according to the present invention have been described. However, all these embodiments are presented as examples, and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof as well as included in the scope and gist of the invention.
1 合流支援システム
10 合流支援装置
11 制御装置
12 車両検知センサ
13 路側無線機
20 車載器
30 自動運転制御部
110 車両検知情報取得部
111 合流支援情報生成部
112 出力部
200 受信部
201 画像情報生成部
202 表示パネル
203 測位情報取得部
211 合流支援情報生成部
A1 本線車両
A2 合流車両
C 合流地点
D 画像情報
L1 本線
L2 合流車線
DESCRIPTION OF
Claims (8)
前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置を示す合流支援情報を生成する合流支援情報生成部と、
前記合流支援情報を、合流車線を走行する合流車両に搭載された車載器に送信する路側無線機と、
を備える合流支援装置。 A plurality of vehicle detection sensors that are arranged along the main line of the road and detect a main line vehicle traveling on the main line in each detection range;
A merging support information generating unit that generates merging support information indicating a position of the main vehicle on the main line based on vehicle detection information from the vehicle detection sensor;
A roadside radio that transmits the merging support information to a vehicle-mounted device mounted on a merging vehicle traveling in a merging lane;
A confluence support device comprising:
前記合流支援情報生成部は、
前記重複領域において、一の前記車両検知センサによって検知された車両と、他の前記車両検知センサによって検知された車両と、を同一車両として関連付ける
請求項1に記載の合流支援装置。 The plurality of vehicle detection sensors are arranged so as to have overlapping regions where the detection ranges of the adjacent vehicle detection sensors overlap.
The merge support information generation unit
The merging support device according to claim 1, wherein in the overlapping region, a vehicle detected by one of the vehicle detection sensors and a vehicle detected by another of the vehicle detection sensors are associated as the same vehicle.
前記車両検知センサからの車両検知情報に基づいて前記本線車両の速度を取得し、前記本線上における前記本線車両の位置及び速度を示す前記合流支援情報を生成する
請求項1に記載の合流支援装置。 The merge support information generation unit
The merge support apparatus according to claim 1, wherein the speed of the main vehicle is acquired based on vehicle detection information from the vehicle detection sensor, and the merge support information indicating the position and speed of the main vehicle on the main line is generated. .
前記合流車両に搭載された車載器と、
を備え、
前記車載器は、
受信した前記合流支援情報に基づいて、前記本線車両の前記本線上における位置と、前記合流車両の前記合流車線上における位置と、を示す画像情報を生成する画像情報生成部を備える
合流支援システム。 The merge support device according to any one of claims 1 to 3,
A vehicle-mounted device mounted on the merging vehicle;
With
The in-vehicle device is
A merging support system comprising an image information generating unit that generates image information indicating the position of the main vehicle on the main lane and the position of the merging vehicle on the merging lane based on the received merging support information.
前記合流車両に搭載された車載器と、
前記合流車両の自動運転に係る制御を行う自動運転制御部と、
を備え、
前記自動運転制御部は、
前記車載器が受信した前記合流支援情報に基づいて、前記合流車線における位置及び速度を調整する
合流支援システム。 The merge support device according to any one of claims 1 to 3,
A vehicle-mounted device mounted on the merging vehicle;
An automatic operation control unit that performs control related to the automatic operation of the merging vehicle;
With
The automatic operation control unit is
A merging support system that adjusts a position and a speed in the merging lane based on the merging assistance information received by the vehicle-mounted device.
受信した前記合流支援情報に基づいて、前記本線車両の前記本線上における位置と、前記合流車両の前記合流車線上における位置と、を示す画像情報を生成する画像情報生成部と、
を備える車載器。 A receiving unit that receives the joining support information from the joining support device according to any one of claims 1 to 3;
Based on the received merging support information, an image information generating unit that generates image information indicating the position of the main vehicle on the main line and the position of the merging vehicle on the merging lane;
On-vehicle device equipped with.
前記車両検知センサからの車両検知情報を、合流車線を走行する合流車両に搭載された車載器に送信する路側無線機と、
前記合流車両に搭載された車載器と、
を備え、
前記車載器は、
前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置に基づく合流支援情報を生成する合流支援情報生成部を備える
合流支援システム。 A plurality of vehicle detection sensors that are arranged along the main line of the road and detect a main line vehicle traveling on the main line in each detection range;
A roadside radio that transmits vehicle detection information from the vehicle detection sensor to an in-vehicle device mounted on a confluence vehicle traveling in a confluence lane, and
A vehicle-mounted device mounted on the merging vehicle;
With
The in-vehicle device is
A merging support system comprising a merging support information generating unit that generates merging support information based on a position of the main vehicle on the main line based on vehicle detection information from the vehicle detection sensor.
前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置に基づく合流支援情報を生成する合流支援情報生成ステップと、
前記合流支援情報を、合流車線を走行する合流車両に搭載された車載器に送信する送信ステップと、
を有する合流支援方法。 A vehicle detection step of detecting a main line vehicle traveling on the main line in each detection range through a plurality of vehicle detection sensors arranged along the main line of the road;
A merging support information generating step for generating merging support information based on a position of the main vehicle on the main line based on vehicle detection information from the vehicle detection sensor;
A transmission step of transmitting the merging support information to a vehicle-mounted device mounted on a merging vehicle traveling in a merging lane;
A confluence support method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016221485A JP6789078B2 (en) | 2016-11-14 | 2016-11-14 | Merge support device, merge support system, on-board unit and merge support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016221485A JP6789078B2 (en) | 2016-11-14 | 2016-11-14 | Merge support device, merge support system, on-board unit and merge support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018081358A true JP2018081358A (en) | 2018-05-24 |
JP6789078B2 JP6789078B2 (en) | 2020-11-25 |
Family
ID=62198078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016221485A Active JP6789078B2 (en) | 2016-11-14 | 2016-11-14 | Merge support device, merge support system, on-board unit and merge support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6789078B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110296713A (en) * | 2019-06-17 | 2019-10-01 | 深圳数翔科技有限公司 | Trackside automatic driving vehicle Position Fixing Navigation System and single, multiple vehicle positioning and navigation methods |
WO2021187455A1 (en) * | 2020-03-18 | 2021-09-23 | 古河電気工業株式会社 | Radar system |
CN116168546A (en) * | 2023-02-20 | 2023-05-26 | 烽火通信科技股份有限公司 | Method, device, equipment and readable storage medium for judging attribution of vehicle identification information |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH085316A (en) * | 1994-06-23 | 1996-01-12 | Hitachi Ltd | Method and apparatus for recognizing moving body |
JP2005353004A (en) * | 2004-06-14 | 2005-12-22 | Sumitomo Electric Ind Ltd | Vehicle traveling measurement system and vehicle tracking method |
JP2008097279A (en) * | 2006-10-11 | 2008-04-24 | Denso Corp | Vehicle exterior information display device |
JP2009230377A (en) * | 2008-03-21 | 2009-10-08 | Mazda Motor Corp | Driving support device for vehicle |
JP2013200845A (en) * | 2012-03-26 | 2013-10-03 | Mitsubishi Heavy Ind Ltd | Vehicle number data processing system, vehicle number data processing method, vehicle number data processing device, program and recording medium |
JP2016007954A (en) * | 2014-06-25 | 2016-01-18 | トヨタ自動車株式会社 | Lane merging assist system |
-
2016
- 2016-11-14 JP JP2016221485A patent/JP6789078B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH085316A (en) * | 1994-06-23 | 1996-01-12 | Hitachi Ltd | Method and apparatus for recognizing moving body |
JP2005353004A (en) * | 2004-06-14 | 2005-12-22 | Sumitomo Electric Ind Ltd | Vehicle traveling measurement system and vehicle tracking method |
JP2008097279A (en) * | 2006-10-11 | 2008-04-24 | Denso Corp | Vehicle exterior information display device |
JP2009230377A (en) * | 2008-03-21 | 2009-10-08 | Mazda Motor Corp | Driving support device for vehicle |
JP2013200845A (en) * | 2012-03-26 | 2013-10-03 | Mitsubishi Heavy Ind Ltd | Vehicle number data processing system, vehicle number data processing method, vehicle number data processing device, program and recording medium |
JP2016007954A (en) * | 2014-06-25 | 2016-01-18 | トヨタ自動車株式会社 | Lane merging assist system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110296713A (en) * | 2019-06-17 | 2019-10-01 | 深圳数翔科技有限公司 | Trackside automatic driving vehicle Position Fixing Navigation System and single, multiple vehicle positioning and navigation methods |
CN110296713B (en) * | 2019-06-17 | 2024-06-04 | 广州卡尔动力科技有限公司 | Roadside automatic driving vehicle positioning navigation system and single/multiple vehicle positioning navigation method |
WO2021187455A1 (en) * | 2020-03-18 | 2021-09-23 | 古河電気工業株式会社 | Radar system |
CN116168546A (en) * | 2023-02-20 | 2023-05-26 | 烽火通信科技股份有限公司 | Method, device, equipment and readable storage medium for judging attribution of vehicle identification information |
CN116168546B (en) * | 2023-02-20 | 2024-05-31 | 烽火通信科技股份有限公司 | Method, device, equipment and readable storage medium for judging attribution of vehicle identification information |
Also Published As
Publication number | Publication date |
---|---|
JP6789078B2 (en) | 2020-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10293748B2 (en) | Information presentation system | |
US9550496B2 (en) | Travel control apparatus | |
US11597396B2 (en) | Vehicle control device | |
JP6325670B2 (en) | Lane selection device, vehicle control system, and lane selection method | |
US9896098B2 (en) | Vehicle travel control device | |
JP2017087816A (en) | Automatic drive system | |
JP5841235B2 (en) | Navigation system | |
WO2016194297A1 (en) | On-board device | |
JP5898539B2 (en) | Vehicle driving support system | |
JP6500724B2 (en) | Danger information notification system, server and computer program | |
CN103608217A (en) | Retrofit parking assistance kit | |
US20200341111A1 (en) | Method and apparatus for radar detection confirmation | |
JP2019079363A (en) | Vehicle control device | |
JP2019147459A (en) | Vehicle travel control system | |
JP6789078B2 (en) | Merge support device, merge support system, on-board unit and merge support method | |
JP2012234373A (en) | Driving support device | |
US20200110183A1 (en) | Method of determining location of vehicle, apparatus for determining location, and system for controlling driving | |
US10134281B2 (en) | Collision avoidance system and collision avoidance method | |
US20220364874A1 (en) | Method of providing image by vehicle navigation device | |
US20200118424A1 (en) | Map information system | |
JP2006072725A (en) | On-vehicle system | |
JP2023006734A (en) | Vehicle travel control device and vehicle travel control method | |
US20190308622A1 (en) | Vehicle travel control system | |
JP2017004339A (en) | Driver support device for vehicle | |
JP2020091644A (en) | Obstacle detection system, obstacle identification device, and method for controlling obstacle identification device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20161115 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181102 |
|
A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20190731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200519 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200918 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6789078 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |