JP2018081358A - Merging support device, merging support system, on-vehicle unit, and merging support method - Google Patents

Merging support device, merging support system, on-vehicle unit, and merging support method Download PDF

Info

Publication number
JP2018081358A
JP2018081358A JP2016221485A JP2016221485A JP2018081358A JP 2018081358 A JP2018081358 A JP 2018081358A JP 2016221485 A JP2016221485 A JP 2016221485A JP 2016221485 A JP2016221485 A JP 2016221485A JP 2018081358 A JP2018081358 A JP 2018081358A
Authority
JP
Japan
Prior art keywords
vehicle
merging
information
main line
support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016221485A
Other languages
Japanese (ja)
Other versions
JP6789078B2 (en
Inventor
勤 高橋
Tsutomu Takahashi
勤 高橋
野口 直志
Naoshi Noguchi
直志 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Machinery Systems Co Ltd
Original Assignee
Mitsubishi Heavy Industries Machinery Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Machinery Systems Co Ltd filed Critical Mitsubishi Heavy Industries Machinery Systems Co Ltd
Priority to JP2016221485A priority Critical patent/JP6789078B2/en
Publication of JP2018081358A publication Critical patent/JP2018081358A/en
Application granted granted Critical
Publication of JP6789078B2 publication Critical patent/JP6789078B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a vehicle traveling on a merging lane to appropriately recognize a situation of vehicles traveling on a main lane.SOLUTION: A merging support device 10 includes: multiple vehicle detection sensors 12 arranged along a main lane L1 of a road so as to detect main lane vehicles A1 traveling on the main lane L1 in each detection range; a control device 11 for generating merging support information that indicates positions of the main lane vehicles A1 on the main lane L1 on the basis of vehicle detection information from the vehicle detection sensors 12; and road side wireless apparatuses 13 for transmitting merging support information to an on-vehicle unit 20 mounted on a merging vehicle A2 traveling on a merging lane L2.SELECTED DRAWING: Figure 1

Description

本発明は、合流支援装置、合流支援システム、車載器及び合流支援方法に関する。   The present invention relates to a merge support device, a merge support system, an in-vehicle device, and a merge support method.

高速道路等における合流地点では、合流車線を走行する車両の運転者は、車両周囲の本線上を走行している他の車両の動きを確認しながら運転操作を行う。運転者は、特に、本線上を走行している周囲車両の中で、合流に影響を与える車両の動きを的確に把握する必要がある。
例えば、特許文献1には、自車両の合流時にどの車両に注意すべきかの指標を運転者に与えることで、運転操作を支援する合流支援装置及び合流支援方法が開示されている。
At a merging point on an expressway or the like, a driver of a vehicle traveling on a merging lane performs a driving operation while confirming the movement of another vehicle traveling on the main line around the vehicle. In particular, the driver needs to accurately grasp the movement of the vehicle that affects the merging among the surrounding vehicles traveling on the main line.
For example, Patent Literature 1 discloses a merging support device and a merging support method that support a driving operation by giving a driver an indicator of which vehicle to watch out for when the host vehicle merges.

特開2007−304992号公報JP 2007-304992 A

例えば、車両に搭載された車載カメラ等による映像情報を通じて、本線を走行する周囲の車両を把握する技術が開発されている。
また、車車間通信(車両どうしが車載器(無線通信機)を通じて行う無線通信)等により、本線を走行する互いの位置、間隔などを把握できる技術が開発されている。
For example, a technology has been developed for grasping surrounding vehicles traveling on the main line through video information from an in-vehicle camera or the like mounted on the vehicle.
In addition, a technology has been developed that can grasp each other's position, distance, and the like traveling on the main line by inter-vehicle communication (wireless communication performed between vehicles through an on-vehicle device (wireless communication device)).

しかしながら、合流地点に到達するよりも前の段階では、車載カメラの映像情報から取得できる情報が制限される場合がある。例えば、合流車線と本線との間に遮蔽物(遮音壁等)があって合流車線から本線を撮影できない場合や、合流車線が上り坂のため本線が死角となる場合が想定される。
また、車車間通信等を通じて本線を走行する車両の位置を把握する場合には、当該本線を走行する車両に車載器が搭載されていることが前提となるが、本線を走行する車両に車載器が搭載されていない場合は、その車両の存在を把握することができない。
However, information that can be acquired from the video information of the in-vehicle camera may be limited before reaching the junction. For example, there may be a case where there is a shield (such as a sound insulation wall) between the merging lane and the main line and the main line cannot be photographed from the merging lane, or the main line becomes a blind spot because the merging lane is uphill.
In addition, when grasping the position of a vehicle traveling on the main line through inter-vehicle communication, etc., it is assumed that the vehicle traveling on the main line is equipped with an on-vehicle device. If is not installed, the existence of the vehicle cannot be grasped.

本発明の目的は、合流車線を走行する車両に対し、本線を走行する車両の状況を適切に認識させる合流支援装置、合流支援システム、車載器及び合流支援方法を提供することにある。   An object of the present invention is to provide a merging support device, a merging support system, an in-vehicle device, and a merging support method that allow a vehicle traveling on a merging lane to appropriately recognize the situation of the vehicle traveling on the main lane.

本発明の第1の態様によれば、合流支援装置(10)は、道路の本線(L1)に沿って複数配置され、各々の検知範囲において本線を走行する本線車両(A1)を検知する車両検知センサ(12)と、前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置を示す合流支援情報を生成する合流支援情報生成部(111)と、前記合流支援情報を、合流車線(L2)を走行する合流車両(A2)に搭載された車載器(20)に送信する路側無線機(13)と、を備える。
このようにすることで、合流車両は、路側無線機を通じて、本線車両の本線上の位置を示す合流支援情報を取得することができる。したがって、本線への視界が制限される場合であっても合流支援を受けることができる。また、車両検知センサを通じて、特定の車載器を搭載しない車両であっても存在を検知することができる。
以上より、合流車線を走行する車両に対し、本線を走行する車両の状況を適切に認識させることができる。
According to the first aspect of the present invention, a plurality of merging support devices (10) are arranged along the main line (L1) of the road and detect a main line vehicle (A1) that travels on the main line in each detection range. A merging support information generating unit (111) for generating merging support information indicating a position of the main vehicle on the main line based on vehicle detection information from the detection sensor (12), and the merging support information; A roadside wireless device (13) that transmits the vehicle-mounted device (20) mounted on the joining vehicle (A2) traveling on the joining lane (L2).
By doing in this way, the merging vehicle can acquire the merging support information indicating the position of the main line vehicle on the main line through the roadside radio. Therefore, even if the field of view to the main line is limited, the merge support can be received. Moreover, even if it is a vehicle which does not mount a specific vehicle equipment through a vehicle detection sensor, presence can be detected.
From the above, it is possible to make the vehicle traveling on the merged lane properly recognize the situation of the vehicle traveling on the main line.

また、本発明の第2の態様によれば、複数の前記車両検知センサは、隣り合う前記車両検知センサの互いの検知範囲が重なる重複領域を有するように配置され、前記合流支援情報生成部は、前記重複領域において、一の前記車両検知センサによって検知された車両と、他の前記車両検知センサによって検知された車両と、を同一車両として関連付ける。
このような構成とすることで、異なる車両検知センサによって同一の車両が検知された場合に、1台の車両が異なる2台の車両として検知されることを抑制できる。これにより、一層精度の高い合流支援情報を提供することができる。
Moreover, according to the 2nd aspect of this invention, the said some vehicle detection sensor is arrange | positioned so that the mutual detection range of the said adjacent vehicle detection sensor may overlap, and the said merge assistance information generation part is In the overlap region, the vehicle detected by one vehicle detection sensor and the vehicle detected by another vehicle detection sensor are associated as the same vehicle.
By setting it as such a structure, when the same vehicle is detected by a different vehicle detection sensor, it can suppress that one vehicle is detected as two different vehicles. As a result, it is possible to provide merge support information with higher accuracy.

また、本発明の第3の態様によれば、前記合流支援情報生成部は、前記車両検知センサからの車両検知情報に基づいて前記本線車両の速度を取得し、前記本線上における前記本線車両の位置及び速度を示す前記合流支援情報を生成する。
このような構成とすることで、本線を走行する車両の速度を特定することができるので、合流するにあたり、合流車両がどの程度の速度で走行すればよいかを認識することができる。
According to the third aspect of the present invention, the merging support information generation unit acquires the speed of the main line vehicle based on the vehicle detection information from the vehicle detection sensor, and the main line vehicle on the main line. The merge support information indicating the position and speed is generated.
With such a configuration, the speed of the vehicle traveling on the main line can be specified, so it is possible to recognize how fast the joined vehicle should travel when joining.

また、本発明の第4の態様によれば、合流支援システムは、上述の合流支援装置と、前記合流車両に搭載された車載器と、を備え、前記車載器は、受信した前記合流支援情報に基づいて、前記本線車両の前記本線上における位置と、前記合流車両の前記合流車線上における位置と、を示す画像情報を生成する画像情報生成部(201)を備える。
このような構成とすることで、合流車両の運転者は、画像情報を視認することで、自車両(合流車両)と、本線を走行する本線車両との位置関係を一目で把握することができる。
Moreover, according to the 4th aspect of this invention, a merging assistance system is provided with the above-mentioned merging assistance apparatus and the onboard equipment mounted in the said merging vehicle, The said onboard equipment received the said merging assistance information received An image information generation unit (201) that generates image information indicating the position of the main line vehicle on the main line and the position of the confluence vehicle on the merge lane.
With such a configuration, the driver of the merging vehicle can grasp the positional relationship between the own vehicle (merging vehicle) and the main vehicle traveling on the main line at a glance by viewing the image information. .

また、本発明の第5の態様によれば、合流支援システムは、上述の合流支援装置と、前記合流車両に搭載された車載器と、前記合流車両の自動運転に係る制御を行う自動運転制御部(30)と、を備え、前記自動運転制御部は、前記車載器が受信した前記合流支援情報に基づいて、前記合流車線における位置及び速度を調整する。
このような構成とすることで、自動運転車両である合流車両は、合流車線を走行中に、合流支援装置から提供される合流支援情報を受信し、当該合流支援情報に基づいて適切に合流を行うことができる。
According to the fifth aspect of the present invention, the merging support system includes the above-described merging support device, the vehicle-mounted device mounted on the merging vehicle, and the automatic driving control that performs control related to the automatic driving of the merging vehicle. And the automatic operation control unit adjusts the position and speed in the merging lane based on the merging support information received by the vehicle-mounted device.
With such a configuration, the merging vehicle, which is an autonomous driving vehicle, receives the merging support information provided from the merging support device while traveling in the merging lane, and appropriately merges based on the merging support information. It can be carried out.

また、本発明の第6の態様によれば、車載器は、上述の合流支援装置から前記合流支援情報を受信する受信部(200)と、受信した前記合流支援情報に基づいて、前記本線車両の前記本線上における位置と、前記合流車両の前記合流車線上における位置と、を示す画像情報を生成する画像情報生成部(201)と、を備える。   Moreover, according to the 6th aspect of this invention, an onboard equipment is the said main line vehicle based on the receiving part (200) which receives the said joining assistance information from the above-mentioned joining assistance apparatus, and the received said joining assistance information. An image information generation unit (201) that generates image information indicating the position of the merging vehicle on the merging lane of the merging vehicle.

また、本発明の第7の態様によれば、合流支援システムは、道路の本線に沿って複数配置され、各々の検知範囲において本線を走行する本線車両を検知する車両検知センサと、前記車両検知センサからの車両検知情報を、合流車線を走行する合流車両に搭載された車載器に送信する路側無線機と、前記合流車両に搭載された車載器と、を備え、前記車載器は、前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置に基づく合流支援情報を生成する合流支援情報生成部(211)を備える。   According to the seventh aspect of the present invention, the merging support system includes a vehicle detection sensor that detects a main line vehicle that is arranged along the main line of the road and travels along the main line in each detection range, and the vehicle detection method. A roadside radio that transmits vehicle detection information from a sensor to an in-vehicle device mounted in a confluence vehicle traveling in a confluence lane, and an in-vehicle device mounted in the confluence vehicle, wherein the in-vehicle device includes the vehicle A merging support information generation unit (211) that generates merging support information based on the position of the main vehicle on the main line based on vehicle detection information from a detection sensor is provided.

また、本発明の第8の態様は、道路の本線に沿って複数配置された車両検知センサを通じて、各々の検知範囲において本線を走行する本線車両を検知する車両検知ステップと、前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置に基づく合流支援情報を生成する合流支援情報生成ステップと、前記合流支援情報を、合流車線を走行する合流車両に搭載された車載器に送信する送信ステップと、を有する合流支援方法である。   According to an eighth aspect of the present invention, there is provided a vehicle detection step of detecting a main line vehicle traveling on the main line in each detection range through a plurality of vehicle detection sensors arranged along the main line of the road, and the vehicle detection sensor. A merging support information generating step for generating merging support information based on the position of the main vehicle on the main line based on the vehicle detection information of the vehicle, and an in-vehicle device mounted on the merging vehicle that travels the merging support information on the merging lane And a transmission step of transmitting to the merge support method.

上述の合流支援装置、合流支援システム、車載器及び合流支援方法によれば、合流車線を走行する車両に対し、本線を走行する車両の状況を適切に認識させることができる。   According to the merging support apparatus, the merging support system, the vehicle-mounted device, and the merging support method described above, the vehicle traveling on the merging lane can be appropriately recognized on the situation of the vehicle traveling on the main lane.

第1の実施形態に係る合流支援システムの全体構成を示す図である。It is a figure showing the whole confluence support system composition concerning a 1st embodiment. 第1の実施形態に係る合流支援システムの機能構成を示す図である。It is a figure which shows the function structure of the confluence | merging support system which concerns on 1st Embodiment. 第1の実施形態に係る合流支援装置の処理フローを示す図である。It is a figure which shows the processing flow of the confluence | merging assistance apparatus which concerns on 1st Embodiment. 第1の実施形態に係る制御装置の機能を説明する第1の図である。It is the 1st figure explaining the function of the control device concerning a 1st embodiment. 第1の実施形態に係る制御装置の機能を説明する第2の図である。It is a 2nd figure explaining the function of the control apparatus which concerns on 1st Embodiment. 第1の実施形態に係る制御装置の機能を説明する第3の図である。It is a 3rd figure explaining the function of the control apparatus which concerns on 1st Embodiment. 第1の実施形態に係る制御装置の機能を説明する第4の図である。It is a 4th figure explaining the function of the control apparatus which concerns on 1st Embodiment. 第1の実施形態に係る車載器の機能を説明する図である。It is a figure explaining the function of the onboard equipment concerning a 1st embodiment. 第2の実施形態に係る合流支援システムの機能構成を示す図である。It is a figure which shows the function structure of the confluence | merging assistance system which concerns on 2nd Embodiment. 第3の実施形態に係る合流支援システムの機能構成を示す図である。It is a figure which shows the function structure of the confluence | merging assistance system which concerns on 3rd Embodiment.

<第1の実施形態>
以下、第1の実施形態に係る合流支援システム及び合流支援装置について、図1〜図8を参照しながら説明する。
<First Embodiment>
Hereinafter, the merging support system and the merging support device according to the first embodiment will be described with reference to FIGS.

(合流支援システムの全体構成)
図1は、第1の実施形態に係る合流支援システムの全体構成を示す図である。
合流支援システム1は、上述の合流支援装置10と、合流車両A2に搭載される車載器20と、によって構成される。
(Overall configuration of confluence support system)
FIG. 1 is a diagram illustrating an overall configuration of a merging support system according to the first embodiment.
The merge support system 1 includes the above-described merge support device 10 and the vehicle-mounted device 20 mounted on the merge vehicle A2.

図1に示すように、合流支援装置10は、道路(高速道路等)の本線L1に対し合流車線L2が合流する合流地点Cの周辺に設置される。以下の説明において、本線L1を走行する車両を「本線車両A1」と表記し、合流車線L2を走行する車両を「合流車両A2」とも表記する。
本実施形態に係る合流車両A2は、運転者がハンドル、アクセル及びブレーキを操作して運転を行う手動運転車両であるものとする。
As shown in FIG. 1, the merging support device 10 is installed around a merging point C where a merging lane L2 merges with a main line L1 of a road (such as a highway). In the following description, a vehicle traveling on the main line L1 is referred to as “main line vehicle A1”, and a vehicle traveling on the merging lane L2 is also referred to as “merging vehicle A2”.
The joining vehicle A2 according to the present embodiment is a manually operated vehicle in which the driver operates the steering wheel, the accelerator, and the brake.

図1に示すように、合流支援装置10は、制御装置11と、車両検知センサ12と、路側無線機13と、を備えている。   As shown in FIG. 1, the merging support device 10 includes a control device 11, a vehicle detection sensor 12, and a roadside wireless device 13.

制御装置11は、合流支援装置10の全体の動作を司る演算処理装置である。制御装置11は、特に、合流車両A2に対し合流を支援するための合流支援情報を生成する。制御装置11の機能の詳細については後述する。   The control device 11 is an arithmetic processing device that controls the overall operation of the merging support device 10. In particular, the control device 11 generates merging support information for supporting merging for the merging vehicle A2. Details of the function of the control device 11 will be described later.

車両検知センサ12は、本線L1に沿って、合流地点Cから本線L1の上流側(本線車両A1の走行方向手前側)に遡って複数箇所に設置される。車両検知センサ12は、各々の検知範囲において本線L1を走行する本線車両A1を検知する。
本実施形態においては、車両検知センサ12は、車両撮影用カメラとレーダーとを組み合わせてなる。車両撮影用カメラは、本線L1における検知範囲(撮影範囲)を撮影し、その映像情報を出力する。また、レーダーは、検知範囲に電波を発信し、当該電波が車両の車体で反射されてなる反射波に基づくレーダー検知情報を出力する。このレーダー検知情報によれば、車両(本線車両A1)の存在位置及び速度を識別することができる。
車両検知センサ12は、上記映像情報及びレーダー検知情報(以下、これらを総称して「車両検知情報」とも表記する。)を制御装置11に出力する。
なお、図1において、車両検知センサ12は、追越車線(車両A1の走行方向右側の車線)側の路側に設置されているが、この態様に限定されない。例えば、車両検知センサ12は、走行車線(車両A1の走行方向左側の車線)側の路側に設置されていてもよい。このようにすることで、合流支援のために重要な、走行車線側を走行する車両A1の存在を精度良く検知することができる。
The vehicle detection sensors 12 are installed at a plurality of locations along the main line L1 from the merging point C to the upstream side of the main line L1 (the front side in the traveling direction of the main line vehicle A1). The vehicle detection sensor 12 detects the main line vehicle A1 that travels on the main line L1 in each detection range.
In the present embodiment, the vehicle detection sensor 12 is a combination of a vehicle shooting camera and a radar. The vehicle photographing camera photographs a detection range (photographing range) on the main line L1 and outputs video information thereof. In addition, the radar transmits radio waves to the detection range, and outputs radar detection information based on the reflected waves that are reflected by the vehicle body. According to this radar detection information, the position and speed of the vehicle (main line vehicle A1) can be identified.
The vehicle detection sensor 12 outputs the video information and radar detection information (hereinafter collectively referred to as “vehicle detection information”) to the control device 11.
In FIG. 1, the vehicle detection sensor 12 is installed on the road side on the overtaking lane (the lane on the right side in the traveling direction of the vehicle A1), but is not limited to this mode. For example, the vehicle detection sensor 12 may be installed on the road side of the traveling lane (the lane on the left side in the traveling direction of the vehicle A1). By doing in this way, it is possible to accurately detect the presence of the vehicle A1 traveling on the traveling lane side, which is important for merging support.

車両検知センサ12は、合流地点Cの上流側の広範囲(例えば、500m〜1km程度)に渡って100mおきに設置される。
このようにすることで、合流車両A2が合流地点Cに到達するよりも十分に手前側から本線車両A1の状況を認識することができる。したがって、合流車両A2は、合流地点Cよりも十分に手前側を走行する本線車両A1の状況に基づいて、より安全かつ的確な判断をすることができる。
また、例えば、自動運転車両の合流車両A2が制御不能状態となった場合、本線車両A1が時速100kmで走行中に、異常に気づくまでの時間を10秒(約278m走行)とし、そこから急制動(約112mで停止)するまでの距離以上(500m〜1km)が確保されるので、本線車両A1の安全性も高められる。
The vehicle detection sensor 12 is installed every 100 m over a wide range (for example, about 500 m to 1 km) on the upstream side of the junction C.
By doing in this way, the situation of main line vehicle A1 can be recognized from the near side rather than merging vehicle A2 reaches merging point C. Therefore, the merging vehicle A2 can make a safer and more accurate determination based on the situation of the main line vehicle A1 that travels in front of the merging point C.
In addition, for example, when the merging vehicle A2 of the autonomous driving vehicle is in an uncontrollable state, the time until the main line vehicle A1 notices an abnormality while traveling at 100 km / h is 10 seconds (traveling about 278 m), and then suddenly Since the distance (500 m to 1 km) until braking (stop at about 112 m) is ensured, the safety of the main line vehicle A1 is also improved.

路側無線機13は、合流車線L2に沿って設置される。路側無線機13は、無線通信を介して、合流車線L2を走行する合流車両A2に向けて合流支援情報を送信する。ここで、図1に示すように、合流車両A2は、車載器20を搭載している。車載器20は、路側無線機13から送信された合流支援情報を受信可能とされている。
路側無線機13及び車載器20は、例えば、狭域通信(Dedicated Short Range Communications:DSRC)技術に基づく無線通信を行う。
路側無線機13は、合流地点Cから合流車線L2の上流側(合流車両A2の走行方向手前側)に遡って複数箇所に設置される。
このようにすることで、合流車両A2は、合流地点Cに到達する十分に手前側から合流支援情報を受信することができ、合流に係る運転操作に関し、より的確な判断をすることができる。
The roadside radio 13 is installed along the merge lane L2. The roadside wireless device 13 transmits merging support information toward the merging vehicle A2 traveling on the merging lane L2 via wireless communication. Here, as shown in FIG. 1, the joining vehicle A <b> 2 is equipped with an in-vehicle device 20. The vehicle-mounted device 20 can receive the merge support information transmitted from the roadside wireless device 13.
The roadside wireless device 13 and the vehicle-mounted device 20 perform wireless communication based on, for example, a dedicated short range communications (DSRC) technology.
The roadside wireless devices 13 are installed at a plurality of locations from the merging point C to the upstream side of the merging lane L2 (the front side in the traveling direction of the merging vehicle A2).
By doing in this way, the merging vehicle A2 can receive the merging support information from the front side sufficiently to reach the merging point C, and can make a more accurate determination regarding the driving operation related to the merging.

(合流支援システムの機能構成)
図2は、第1の実施形態に係る合流支援システムの機能構成を示す図である。
図2に示すように、合流支援装置10の制御装置11は、車両検知情報取得部110と、合流支援情報生成部111と、出力部112と、を備えている。
(Functional configuration of confluence support system)
FIG. 2 is a diagram illustrating a functional configuration of the merge support system according to the first embodiment.
As shown in FIG. 2, the control device 11 of the merge support device 10 includes a vehicle detection information acquisition unit 110, a merge support information generation unit 111, and an output unit 112.

車両検知情報取得部110は、複数の車両検知センサ12から車両検知情報を取得する。
合流支援情報生成部111は、車両検知センサ12からの車両検知情報に基づいて本線L1上における本線車両A1の位置及び速度に基づく合流支援情報を生成する。
出力部112は、合流支援情報生成部111によって生成された合流支援情報を路側無線機13に出力する。
The vehicle detection information acquisition unit 110 acquires vehicle detection information from the plurality of vehicle detection sensors 12.
The merging support information generation unit 111 generates merging support information based on the position and speed of the main vehicle A1 on the main line L1 based on the vehicle detection information from the vehicle detection sensor 12.
The output unit 112 outputs the merge support information generated by the merge support information generation unit 111 to the roadside wireless device 13.

車載器20は、受信部200と、画像情報生成部201と、表示パネル202と、測位情報取得部203と、を備えている。
受信部200は、路側無線機13からの無線信号を受信して、合流支援情報を取得する。
画像情報生成部201は、受信した合流支援情報に基づいて、本線車両A1の本線L1上における位置と、合流車両A2の合流車線L2上における位置と、を示す画像情報を生成する。
表示パネル202は、一般的な液晶ディスプレイパネル、有機ELパネル等であって、画像情報生成部201によって生成された画像情報を表示する。合流車両A2の運転者は、表示パネル202に表示された画像(上記画像情報に基づく画像)を視認することで合流時における運転の支援を受ける。
測位情報取得部203は、例えば、GNSS(Global Navigation Satellite System)による衛星から、自車両の位置を特定するための衛星航法情報(測位情報)を受信する。
The vehicle-mounted device 20 includes a receiving unit 200, an image information generation unit 201, a display panel 202, and a positioning information acquisition unit 203.
The receiving unit 200 receives a wireless signal from the roadside wireless device 13 and obtains merging support information.
The image information generation unit 201 generates image information indicating the position of the main vehicle A1 on the main line L1 and the position of the confluence vehicle A2 on the merge lane L2 based on the received merging support information.
The display panel 202 is a general liquid crystal display panel, organic EL panel, or the like, and displays the image information generated by the image information generation unit 201. The driver of the merging vehicle A2 receives driving assistance at the time of merging by visually recognizing an image (an image based on the image information) displayed on the display panel 202.
The positioning information acquisition unit 203 receives satellite navigation information (positioning information) for specifying the position of the host vehicle from, for example, a satellite based on GNSS (Global Navigation Satellite System).

(合流支援装置の処理フロー)
図3は、第1の実施形態に係る合流支援装置の処理フローを示す図である。
図3に示す処理フローは、合流支援装置10の制御装置11によって実行される。
(Processing flow of the merge support device)
FIG. 3 is a diagram illustrating a processing flow of the merging support apparatus according to the first embodiment.
The processing flow shown in FIG. 3 is executed by the control device 11 of the merge support device 10.

図3に示すように、制御装置11の車両検知情報取得部110は、複数の車両検知センサ12の各々から車両検知情報(車両撮影用カメラによる映像情報、及び、レーダーによるレーダー検知情報)を取得する(ステップS01)。
次に、制御装置11の合流支援情報生成部111は、取得された車両検知情報のうち映像情報に基づいて走行する車両の車両ナンバーを取得する。具体的には、合流支援情報生成部111は、取得された映像情報に対し所定の画像認識処理を行い、映像に映されたナンバープレートから車両ナンバーを抽出する(ステップS02)。
次に、合流支援情報生成部111は、レーダー検知情報に基づいて上記映像情報に含まれる本線車両A1の位置及び速度を取得する(ステップS03)。具体的には、レーダーが電磁波を発信した時刻とその反射波が帰還した時刻との時間差、及び、当該反射波の到来方向により本線車両A1の位置を平面座標(位置(X、Y))で特定することができる。また、レーダーが発信した電磁波とその反射波との間に生じた周波数変化により本線車両A1の速度を判別することができる。更に、合流支援情報生成部111は、レーダー検知情報によって特定された本線車両A1の位置に、車両撮影用カメラによる映像情報を重ね合わせることで、1台の本線車両A1に対する位置(X、Y)、速度(V)及び車両ナンバーを関連付ける。
次に、合流支援情報生成部111は、1台の本線車両A1が複数の車両検知センサ12によって検知された場合に、一の車両検知センサ12によって検知された車両と、他の車両検知センサ12によって検知された車両と、を同一車両として関連付ける(ステップS04)。合流支援情報生成部111は、関連付け処理により、重複して検知された本線車両A1に関する情報のうちのいずれか一方を選択する。このようにすることで、実際には1台の本線車両A1が、誤って2台存在するものとして検知されることを防止することができる。
次に、合流支援情報生成部111は、本線L1を走行する本線車両A1の位置及び速度に基づいて、合流スペースを演算する(ステップS05)。
制御装置11の出力部112は、合流支援情報生成部111によって特定された、各本線車両A1に対する位置(X、Y)、速度(V)及び車両ナンバーと、合流スペースとを含む合流支援情報を路側無線機13に向けて出力する(ステップS06)。
As shown in FIG. 3, the vehicle detection information acquisition unit 110 of the control device 11 acquires vehicle detection information (video information from a vehicle photographing camera and radar detection information from a radar) from each of a plurality of vehicle detection sensors 12. (Step S01).
Next, the merge support information generation unit 111 of the control device 11 acquires the vehicle number of the vehicle that travels based on the video information among the acquired vehicle detection information. Specifically, the merging support information generation unit 111 performs a predetermined image recognition process on the acquired video information, and extracts the vehicle number from the license plate displayed in the video (step S02).
Next, the merge support information generation unit 111 acquires the position and speed of the main line vehicle A1 included in the video information based on the radar detection information (step S03). Specifically, the position of the main vehicle A1 is expressed in plane coordinates (position (X, Y)) according to the time difference between the time when the radar transmits the electromagnetic wave and the time when the reflected wave returns and the arrival direction of the reflected wave. Can be identified. Further, the speed of the main line vehicle A1 can be determined based on the frequency change generated between the electromagnetic wave transmitted by the radar and the reflected wave. Further, the merging support information generation unit 111 superimposes the video information obtained by the vehicle photographing camera on the position of the main line vehicle A1 specified by the radar detection information, so that the position (X, Y) with respect to one main line vehicle A1 is obtained. Associate the speed (V) and vehicle number.
Next, when one main line vehicle A1 is detected by the plurality of vehicle detection sensors 12, the merge support information generation unit 111 and the other vehicle detection sensor 12 are detected by the vehicle detection sensor 12. Is associated with the vehicle detected by (step S04). The merge support information generation unit 111 selects any one of the information related to the main line vehicle A1 detected in duplicate by the association process. By doing in this way, it can prevent actually detecting one main line vehicle A1 as what exists two units | sets.
Next, the merging support information generation unit 111 calculates a merging space based on the position and speed of the main line vehicle A1 traveling on the main line L1 (step S05).
The output unit 112 of the control device 11 includes the merging support information including the position (X, Y), the speed (V), the vehicle number, and the merging space with respect to each main line vehicle A1 specified by the merging support information generating unit 111. It outputs towards the roadside radio | wireless machine 13 (step S06).

制御装置11は、以上のステップS01〜S06の処理を、50〜100msecの間隔で繰り返し実行する。このようにすることで、本線L1を走行する本線車両A1の各々の位置及び速度等をリアルタイムで認識することができる。   The control device 11 repeatedly executes the above steps S01 to S06 at intervals of 50 to 100 msec. By doing in this way, each position, speed, etc. of the main line vehicle A1 which drive | works the main line L1 can be recognized in real time.

(制御装置の機能)
図4〜図7は、それぞれ、第1の実施形態に係る制御装置の機能を説明する第1の図〜第4の図である。
図3に示す処理フローの各処理ステップにおける詳細な処理を、図4〜図7を参照しながら説明する。
(Function of control device)
4 to 7 are first to fourth diagrams illustrating functions of the control device according to the first embodiment, respectively.
Detailed processing in each processing step of the processing flow shown in FIG. 3 will be described with reference to FIGS.

図4に示すように、複数の車両検知センサ12は、隣り合う車両検知センサ12の互いの検知範囲が重なる重複領域を有するように配置されている。
具体的には、車両検知センサ121は、当該車両検知センサ121の検知範囲P1が、車両検知センサ120の検知範囲P0と一部重なり合うように配置される。また、車両検知センサ122は、当該車両検知センサ122の検知範囲P2が、車両検知センサ121の検知範囲P1と一部重なり合うように配置される。以下、検知範囲P0と検知範囲P1とが重なる範囲を「重複領域P01」と表記し、検知範囲P1と検知範囲P2とが重なる範囲を「重複領域P12」と表記する。また、図4において、本線L1を走行する本線車両A1を、個々に、車両a1、a2、・・・、a6と表記する。
As shown in FIG. 4, the plurality of vehicle detection sensors 12 are arranged so as to have overlapping regions where the detection ranges of adjacent vehicle detection sensors 12 overlap each other.
Specifically, the vehicle detection sensor 121 is arranged such that the detection range P1 of the vehicle detection sensor 121 partially overlaps the detection range P0 of the vehicle detection sensor 120. Further, the vehicle detection sensor 122 is arranged such that the detection range P2 of the vehicle detection sensor 122 partially overlaps the detection range P1 of the vehicle detection sensor 121. Hereinafter, a range where the detection range P0 and the detection range P1 overlap is expressed as “overlap region P01”, and a range where the detection range P1 and the detection range P2 overlap is expressed as “overlap region P12”. In FIG. 4, the main line vehicle A1 traveling on the main line L1 is individually expressed as vehicles a1, a2,.

図4に示す例によれば、車両検知センサ120の検知範囲P0には、車両a1、a2が存在する。この場合、車両検知情報取得部110は、車両検知センサ120から受信したレーダー検知情報により車両a1、a2の位置、速度を検知し、また、映像情報により車両a1、a2の車両ナンバーを取得する。
また、車両検知センサ121の検知範囲P1には、車両a2、a3、a4が存在する。この場合、車両検知情報取得部110は、車両検知センサ121から受信したレーダー検知情報により車両a2、a3、a4の位置、速度を検知し、また、映像情報により車両a2、a3、a4の車両ナンバーを取得する。
同様に、車両検知センサ122の検知範囲P2には、車両a4、a5、a6が存在する。この場合、車両検知情報取得部110は、車両検知センサ122から受信したレーダー検知情報により車両a4、a5、a6の位置、速度を検知し、また、映像情報により車両a4、a5、a6の車両ナンバーを取得する。
なお、図4に示す通り、車両a2は、重複領域P01に属している。したがって、車両a2は、車両検知センサ120と車両検知センサ121との両方によって検知される。また、車両a4は、重複領域P12に属している。したがって、車両a4は、車両検知センサ121と車両検知センサ122との両方によって検知される。
According to the example shown in FIG. 4, vehicles a <b> 1 and a <b> 2 exist in the detection range P <b> 0 of the vehicle detection sensor 120. In this case, the vehicle detection information acquisition unit 110 detects the positions and speeds of the vehicles a1 and a2 from the radar detection information received from the vehicle detection sensor 120, and acquires the vehicle numbers of the vehicles a1 and a2 from the video information.
Vehicles a2, a3, and a4 exist in the detection range P1 of the vehicle detection sensor 121. In this case, the vehicle detection information acquisition unit 110 detects the positions and speeds of the vehicles a2, a3, and a4 based on the radar detection information received from the vehicle detection sensor 121, and the vehicle numbers of the vehicles a2, a3, and a4 based on the video information. To get.
Similarly, vehicles a4, a5, and a6 exist in the detection range P2 of the vehicle detection sensor 122. In this case, the vehicle detection information acquisition unit 110 detects the position and speed of the vehicles a4, a5, and a6 from the radar detection information received from the vehicle detection sensor 122, and the vehicle number of the vehicles a4, a5, and a6 from the video information. To get.
In addition, as shown in FIG. 4, the vehicle a2 belongs to the overlap area P01. Therefore, the vehicle a2 is detected by both the vehicle detection sensor 120 and the vehicle detection sensor 121. Further, the vehicle a4 belongs to the overlapping region P12. Therefore, the vehicle a4 is detected by both the vehicle detection sensor 121 and the vehicle detection sensor 122.

ところで、各車両検知センサ120、121、122が出力するレーダー検知情報は、各センサ自身の設置位置を基準とする各車両との相対的な位置関係(相対位置)を示すものである。ここで、合流支援情報生成部111は、各車両検知センサ120、121、122の本線L1における設置位置を予め記録している。合流支援情報生成部111は、各車両検知センサ120、121、122の設置位置に、当該車両検知センサ120、121、122の各々によって検知された車両a1〜a6の相対位置を加算することで、各車両a1〜a6の本線L1上における絶対位置を認識する。図5、図6の各情報テーブルに示す位置座標は、各車両a1〜a6の本線L1上における絶対位置を示すものとする。   By the way, the radar detection information output from each vehicle detection sensor 120, 121, 122 indicates a relative positional relationship (relative position) with each vehicle based on the installation position of each sensor itself. Here, the merging support information generation unit 111 records in advance the installation positions of the vehicle detection sensors 120, 121, and 122 on the main line L1. The merge support information generation unit 111 adds the relative positions of the vehicles a1 to a6 detected by the vehicle detection sensors 120, 121, and 122 to the installation positions of the vehicle detection sensors 120, 121, and 122, respectively. The absolute positions of the vehicles a1 to a6 on the main line L1 are recognized. The position coordinates shown in the information tables of FIGS. 5 and 6 indicate the absolute positions of the vehicles a1 to a6 on the main line L1.

図5に示す情報テーブルは、ステップS03(図3)にて合流支援情報生成部111が、車両検知センサ120、121、122の各々から受信した車両検知情報に基づいて生成した車両検知センサ別の車両位置速度情報(以下、「センサ別車両位置速度情報」と表記する。)である。
図5に示すように、センサ別車両位置速度情報は、各車両検知センサ120、121、122が検知した各車両a1〜a6についての位置座標(絶対位置)、速度及び車両ナンバーが関連付けられた情報テーブルである。
The information table shown in FIG. 5 is based on the vehicle detection sensor generated by the merging support information generation unit 111 based on the vehicle detection information received from each of the vehicle detection sensors 120, 121, and 122 in step S03 (FIG. 3). Vehicle position speed information (hereinafter referred to as “sensor-specific vehicle position speed information”).
As shown in FIG. 5, the vehicle position speed information for each sensor is information in which position coordinates (absolute position), speed, and vehicle number are associated with each of the vehicles a1 to a6 detected by the vehicle detection sensors 120, 121, and 122. It is a table.

センサ別車両位置速度情報T0は、車両検知センサ120によって検知された車両に関する車両位置速度情報である。例えば、センサ別車両位置速度情報T0によれば、センサ別車両ID=“ID01”に対し、位置座標=(X01,Y01)、速度=V01、車両ナンバー=“11−11”との情報が関連付けられる。また、センサ別車両ID=“ID02”に対し、位置座標=(X02,Y02)、速度=V02、車両ナンバー=“22−22”との情報が関連付けられる。
なお、センサ別車両ID=“ID01”に関連付けられた各種情報は、図4の車両a1についての情報であり、センサ別車両ID=“ID02”に関連付けられた各種情報は、図4の車両a2についての情報であるものとする。
The sensor-specific vehicle position / speed information T0 is vehicle position / speed information related to the vehicle detected by the vehicle detection sensor 120. For example, according to the sensor-specific vehicle position speed information T0, the information of the position coordinates = (X01, Y01), the speed = V01, and the vehicle number = “11-11” is associated with the sensor-specific vehicle ID = “ID01”. It is done. In addition, information of position coordinates = (X02, Y02), speed = V02, and vehicle number = “22-22” is associated with the sensor-specific vehicle ID = “ID02”.
The various information associated with the sensor-specific vehicle ID = “ID01” is information about the vehicle a1 in FIG. 4, and the various information associated with the sensor-specific vehicle ID = “ID02” is the vehicle a2 in FIG. Information about

センサ別車両位置速度情報T1は、車両検知センサ121によって検知された車両に関する車両位置速度情報である。例えば、センサ別車両位置速度情報T1によれば、センサ別車両ID=“ID11”に関して、位置座標=(X02’,Y02’)、速度=V02’、車両ナンバー=“22−22”との情報が関連付けられる。また、センサ別車両ID=“ID12”に関して、位置座標=(X03,Y03)、速度=V03、車両ナンバー=“33−33”との情報が関連付けられる。更に、センサ別車両ID=“ID13”に関して、位置座標=(X04,Y04)、速度=V04、車両ナンバー=“44−44”との情報が関連付けられる。
なお、センサ別車両ID=“ID11”に関連付けられた各種情報は、図4の車両a2についての情報であり、センサ別車両ID=“ID12”に関連付けられた各種情報は、図4の車両a3についての情報であるものとする。また、センサ別車両ID=“ID13”に関連付けられた各種情報は、図4の車両a4についての情報であるものとする。
The sensor-specific vehicle position / speed information T <b> 1 is vehicle position / speed information related to the vehicle detected by the vehicle detection sensor 121. For example, according to sensor-specific vehicle position speed information T1, with respect to sensor-specific vehicle ID = “ID11”, information of position coordinates = (X02 ′, Y02 ′), speed = V02 ′, and vehicle number = “22-22”. Are associated. In addition, regarding the vehicle-specific sensor ID = “ID12”, information such as position coordinates = (X03, Y03), speed = V03, and vehicle number = “33-33” is associated. Further, with respect to the sensor-specific vehicle ID = “ID13”, information such as position coordinates = (X04, Y04), speed = V04, and vehicle number = “44-44” is associated.
Note that the various information associated with the sensor-specific vehicle ID = “ID11” is information about the vehicle a2 in FIG. 4, and the various information associated with the sensor-specific vehicle ID = “ID12” is the vehicle a3 in FIG. Information about In addition, the various information associated with the sensor-specific vehicle ID = “ID13” is information on the vehicle a4 in FIG.

センサ別車両位置速度情報T2は、車両検知センサ122によって検知された車両に関する車両位置速度情報である。例えば、センサ別車両位置速度情報T2によれば、センサ別車両ID=“ID21”に関して、位置座標=(X04’,Y04’)、速度=V04’、車両ナンバー=“44−44”との情報が関連付けられる。また、センサ別車両ID=“ID22”に関して、位置座標=(X05,Y05)、速度=V05、車両ナンバー=“55−55”との情報が関連付けられる。更に、センサ別車両ID=“ID23”に関して、位置座標=(X06,Y06)、速度=V06、車両ナンバー=“66−66”との情報が関連付けられる。
なお、センサ別車両ID=“ID21”に関連付けられた各種情報は、図4の車両a4についての情報であり、センサ別車両ID=“ID22”に関連付けられた各種情報は、図4の車両a5についての情報であるものとする。また、センサ別車両ID=“ID23”に関連付けられた各種情報は、図4の車両a6についての情報であるものとする。
The sensor-specific vehicle position / speed information T <b> 2 is vehicle position / speed information related to the vehicle detected by the vehicle detection sensor 122. For example, according to the sensor-specific vehicle position speed information T2, with respect to the sensor-specific vehicle ID = “ID21”, information of position coordinates = (X04 ′, Y04 ′), speed = V04 ′, vehicle number = “44-44”. Are associated. Further, with respect to the sensor-specific vehicle ID = “ID22”, information such as position coordinates = (X05, Y05), speed = V05, and vehicle number = “55-55” is associated. Further, regarding the vehicle-specific vehicle ID = “ID23”, information such as position coordinates = (X06, Y06), speed = V06, vehicle number = “66-66” is associated.
The various information associated with the sensor-specific vehicle ID = “ID21” is information on the vehicle a4 in FIG. 4, and the various information associated with the sensor-specific vehicle ID = “ID22” is the vehicle a5 in FIG. Information about In addition, the various information associated with the sensor-specific vehicle ID = “ID23” is information on the vehicle a6 in FIG.

ここで、センサ別車両位置速度情報T1に示されるセンサ別車両ID=“ID02”に係る情報と、センサ別車両位置速度情報T2に示されるセンサ別車両ID=“ID11”に係る情報とは、同一の車両(車両a2)の位置、速度等を示す情報である。したがって、理想的には、位置(X02,Y02)と位置(X02’,Y02’)、及び、速度V02と速度V02’とは一致するはずであるが、車両検知情報の誤差に起因して、両者は必ずしも一致しない。そのため、実際には1台の車両a2について、あたかも異なる2台の車両が存在するかのような誤検知が発生し得る。   Here, the information related to the sensor-specific vehicle ID = “ID02” shown in the sensor-specific vehicle position / speed information T1 and the information related to the sensor-specific vehicle ID = “ID11” shown in the sensor-specific vehicle position / speed information T2 are: This is information indicating the position, speed, etc. of the same vehicle (vehicle a2). Therefore, ideally, the position (X02, Y02) and the position (X02 ′, Y02 ′) and the speed V02 and the speed V02 ′ should match, but due to the error of the vehicle detection information, Both do not necessarily match. For this reason, in actuality, erroneous detection as if there are two different vehicles may occur for one vehicle a2.

図6は、ステップS04(図3)にて合流支援情報生成部111が、車両検知センサ120、121、122別に得られた複数のセンサ別車両位置速度情報T0、T1、T2を統合してなる車両位置速度情報(以下、「統合車両位置速度情報T」とも表記する。)である。
ステップS04にて、合流支援情報生成部111は、センサ別車両位置速度情報T0、T1、T2を対比して、同一の車両ナンバーを有する車両IDの組み合わせを検索する。そして、同一の車両ナンバーを有する複数の車両IDが見つかった場合には、そのうちのいずれか一方を選択する。
例えば、センサ別車両位置速度情報T0のセンサ別車両ID=“ID02”と、センサ別車両位置速度情報T1のセンサ別車両ID=“ID11”とは、共に車両ナンバーが“22−22”で同一である。したがって、合流支援情報生成部111は、“ID02”に係る車両と“ID11”に係る車両とは、重複して検知された1台の車両と判断し、何れか一方(例えば、“ID02”)に関連付けられた情報を選択する。
同様に、センサ別車両位置速度情報T1のセンサ別車両ID=“ID13”と、センサ別車両位置速度情報T2のセンサ別車両ID=“ID21”とは、共に車両ナンバーが“44−44”で同一である。したがって、合流支援情報生成部111は、“ID13”に係る車両と“ID21”に係る車両とは、重複して検知された1台の車両と判断し、何れか一方(例えば、“ID13”)に関連付けられた情報を選択する。
In FIG. 6, the merge support information generation unit 111 integrates a plurality of sensor-specific vehicle position speed information T0, T1, and T2 obtained by the vehicle detection sensors 120, 121, and 122 in step S04 (FIG. 3). Vehicle position speed information (hereinafter also referred to as “integrated vehicle position speed information T”).
In step S04, the merging support information generation unit 111 searches for a combination of vehicle IDs having the same vehicle number by comparing the vehicle position speed information T0, T1, and T2 by sensor. If a plurality of vehicle IDs having the same vehicle number are found, one of them is selected.
For example, the sensor-specific vehicle ID = “ID02” of the sensor-specific vehicle position / speed information T0 and the sensor-specific vehicle ID = “ID11” of the sensor-specific vehicle position / speed information T1 both have the same vehicle number “22-22”. It is. Therefore, the merging support information generation unit 111 determines that the vehicle related to “ID02” and the vehicle related to “ID11” are one detected in duplicate, and one of them (for example, “ID02”) Select information associated with.
Similarly, the vehicle number is “44-44” for both the sensor-specific vehicle ID = “ID13” of the sensor-specific vehicle position / speed information T1 and the sensor-specific vehicle ID = “ID21” of the sensor-specific vehicle position / speed information T2. Are the same. Therefore, the merging support information generation unit 111 determines that the vehicle related to “ID13” and the vehicle related to “ID21” are one detected in duplicate, and one of them (for example, “ID13”) Select information associated with.

このように、合流支援情報生成部111は、重複して検知された各種情報のうちの一方を選択しながら、車両検知センサ120、121、122別に得られた複数のセンサ別車両位置速度情報T0、T1、T2を統合し、図6に示すような統合車両位置速度情報Tを生成する。図6に示す車両ID=“IDA01”〜“IDA06”の各々に関連付けられた各種情報は、それぞれ、車両a1〜a6の位置、速度(及び車両ナンバー)を示す。
なお、図6に示す統合車両位置速度情報Tの例では、合流支援情報生成部111は、車両a2について車両検知センサ120で検知された位置、速度が採用されているが、他の実施形態では、車両検知センサ121で検知された位置、速度が採用されてもよい。
また、他の実施形態においては、複数の車両検知センサ120、121、122を通じて取得された複数の位置、速度の平均値を採用して統合してもよい。例えば、車両a2の位置座標は、車両検知センサ120による検知結果(位置(X02,Y02))と車両検知センサ121による検知結果(位置(X02’,Y02’))との平均値によって算出されてもよい。
As described above, the merge support information generation unit 111 selects a plurality of pieces of vehicle-detected vehicle position / speed information T0 obtained for each of the vehicle detection sensors 120, 121, and 122 while selecting one of various types of information detected in duplicate. , T1 and T2 are integrated to generate integrated vehicle position speed information T as shown in FIG. Various information associated with each of vehicle ID = “IDA01” to “IDA06” shown in FIG. 6 indicates the position and speed (and vehicle number) of the vehicles a1 to a6, respectively.
In the example of the integrated vehicle position speed information T shown in FIG. 6, the merging support information generation unit 111 employs the position and speed detected by the vehicle detection sensor 120 for the vehicle a2, but in other embodiments. The position and speed detected by the vehicle detection sensor 121 may be employed.
In another embodiment, an average value of a plurality of positions and speeds acquired through a plurality of vehicle detection sensors 120, 121, and 122 may be adopted and integrated. For example, the position coordinate of the vehicle a2 is calculated by an average value of the detection result (position (X02, Y02)) by the vehicle detection sensor 120 and the detection result (position (X02 ′, Y02 ′)) by the vehicle detection sensor 121. Also good.

図7は、合流支援情報生成部111が車両a1〜a6の位置関係に基づいて生成する合流スペース情報Uを示している。
合流支援情報生成部111は、まず、統合車両位置速度情報Tに示される位置座標に基づいて、本線L1を走行する車両a1〜a6のうち、合流車線L2に隣接する車線(第1走行車線)を走行する車両を、合流スペースを構成する“対象車両”として抽出する。図4に示す例では、合流支援情報生成部111は、車両a1、a3、a4、a6を対象車両として抽出する。
次に、合流支援情報生成部111は、対象車両の各々の間に存在する合流スペースの始点、終点、及び、合流スペースの移動速度を演算する。ここで、統合車両位置速度情報Tに示される車線方向の位置(X座標値)は、各車両a1〜a6の車体前端面の位置を示している。したがって、合流スペースの始点は、先行車両の車線方向の位置(X座標値)から車両1台分の車長Δ(予め規定されたオフセット値)を差し引くことで算出される。また、合流スペースの終点には、後続車両の車線方向の位置(X座標の値)が採用される。合流スペースの移動速度は、例えば、当該合流スペースを構成する先行車両及び後続車両の平均速度として算出される。
FIG. 7 illustrates the merge space information U generated by the merge support information generation unit 111 based on the positional relationship between the vehicles a1 to a6.
First, the merge support information generation unit 111, based on the position coordinates indicated by the integrated vehicle position speed information T, out of the vehicles a1 to a6 traveling on the main line L1, the lane adjacent to the merge lane L2 (first travel lane). Are extracted as “target vehicles” constituting the merge space. In the example illustrated in FIG. 4, the merging support information generation unit 111 extracts vehicles a1, a3, a4, and a6 as target vehicles.
Next, the merge support information generation unit 111 calculates the start point and end point of the merge space existing between the target vehicles, and the moving speed of the merge space. Here, the position in the lane direction (X coordinate value) indicated in the integrated vehicle position speed information T indicates the position of the front end face of the vehicle body of each of the vehicles a1 to a6. Therefore, the start point of the merge space is calculated by subtracting the vehicle length Δ (predefined offset value) for one vehicle from the position in the lane direction (X coordinate value) of the preceding vehicle. Further, the position (X coordinate value) of the following vehicle in the lane direction is adopted as the end point of the merge space. The moving speed of the joining space is calculated as, for example, the average speed of the preceding vehicle and the succeeding vehicle that form the joining space.

例えば、図4に示す例において、合流支援情報生成部111は、車両a1と車両a3との間に存在する合流スペース(スペースID=“SP1”)について、始点=“X03−Δ”、終点=“X01”、移動速度=“Vs1”(=(V01+V03)/2)と演算する。また、合流支援情報生成部111は、車両a4と車両a6との間に存在する合流スペース(スペースID=“SP2”)について、始点=“X06−Δ”、終点=“X04”、移動速度=“Vs2”(=(V04+V06)/2)と演算する。
なお、合流支援情報生成部111は、車両a3と車両a4との間隔が所定の判定閾値(安全に合流できるか否かの判断に基づいて規定される閾値)に満たないことをもって、車両a3と車両a4との間には合流スペースが存在しないものと判断する。
For example, in the example illustrated in FIG. 4, the merging support information generation unit 111 has a start point = “X03−Δ” and an end point = for a merging space (space ID = “SP1”) existing between the vehicle a1 and the vehicle a3. “X01” and moving speed = “Vs1” (= (V01 + V03) / 2) are calculated. In addition, the merging support information generation unit 111 has a start point = “X06-Δ”, an end point = “X04”, and a moving speed = for a merging space (space ID = “SP2”) existing between the vehicle a4 and the vehicle a6. “Vs2” (= (V04 + V06) / 2) is calculated.
The merging support information generation unit 111 determines that the distance between the vehicle a3 and the vehicle a4 is less than a predetermined determination threshold value (threshold value that is defined based on a determination as to whether the vehicle can be safely merged) or not. It is determined that there is no merge space with the vehicle a4.

以上のように、合流支援情報生成部111は、合流支援情報として、本線車両A1の位置及び速度を示す統合車両位置速度情報T(図6)と、合流スペース情報U(図7)とを生成する。   As described above, the merge support information generation unit 111 generates the integrated vehicle position speed information T (FIG. 6) indicating the position and speed of the main vehicle A1 and the merge space information U (FIG. 7) as the merge support information. To do.

(車載器の機能)
図8は、第1の実施形態に係る車載器の機能を説明する図である。
車載器20の受信部200(図2)は、合流支援情報(統合車両位置速度情報T、合流スペース情報U)を受信する。
車載器20の画像情報生成部201(図2)は、受信部200を通じて取得した合流支援情報と、測位情報取得部203を通じて取得した自車両の位置とに基づいて、図8に示す画像情報Dを生成する。
図8に示すように、画像情報Dは、各本線車両A1の本線L1上における位置と、合流車両A2(自車両)の合流車線L2上における位置とが俯瞰図として示される画像情報である。
図8に示すように、画像情報Dには、本線画像DL1、合流車線画像DL2、自車両画像Ds、車両画像Da1〜Da6、及び、合流スペース画像Dsp1、Dsp2が含まれる。車両画像Da1〜Da6は、それぞれ、本線L1を走行する車両a1〜a6(図4参照)に関連するものである。
画像情報生成部201は、車載器20に予め記録されているマップ情報と、測位情報取得部203を通じて取得される衛星航法情報とに基づいて、本線画像DL1、合流車線画像DL2、及び、自車両画像Dsを生成する。
また、画像情報生成部201は、統合車両位置速度情報Tに基づいて車両画像Da1〜Da6を生成し、また、合流スペース情報Uに基づいて合流スペース画像Dsp1、Dsp2を生成する。
合流支援情報生成部111は、生成した画像情報Dを表示パネル202に表示させる。これにより、合流車両A2の運転者は、表示パネル202に表示された画像情報Dを視認することで、本線車両A1の位置、速度、及び、合流スペースを把握することができる。
(Function of OBE)
FIG. 8 is a diagram for explaining functions of the vehicle-mounted device according to the first embodiment.
The receiving unit 200 (FIG. 2) of the vehicle-mounted device 20 receives the merging support information (integrated vehicle position speed information T, merging space information U).
The image information generation unit 201 (FIG. 2) of the vehicle-mounted device 20 is based on the merging support information acquired through the reception unit 200 and the position of the host vehicle acquired through the positioning information acquisition unit 203. Is generated.
As shown in FIG. 8, the image information D is image information in which the position on the main line L1 of each main line vehicle A1 and the position on the merging lane L2 of the merging vehicle A2 (own vehicle) are shown as an overhead view.
As shown in FIG. 8, the image information D includes a main line image DL1, a merged lane image DL2, a host vehicle image Ds, vehicle images Da1 to Da6, and merged space images Dsp1 and Dsp2. The vehicle images Da1 to Da6 are related to the vehicles a1 to a6 (see FIG. 4) traveling on the main line L1, respectively.
Based on the map information recorded in advance in the vehicle-mounted device 20 and the satellite navigation information acquired through the positioning information acquisition unit 203, the image information generation unit 201 is connected to the main line image DL1, the merged lane image DL2, and the host vehicle. An image Ds is generated.
The image information generation unit 201 generates vehicle images Da1 to Da6 based on the integrated vehicle position speed information T, and generates merge space images Dsp1 and Dsp2 based on the merge space information U.
The merge support information generation unit 111 causes the display panel 202 to display the generated image information D. Thereby, the driver | operator of merge vehicle A2 can grasp | ascertain the position, speed, and merge space of main line vehicle A1 by visually recognizing the image information D displayed on the display panel 202. FIG.

(作用、効果)
以上の通り、第1の実施形態に係る合流支援装置10は、本線L1に沿って複数配置され、各々の検知範囲において本線L1を走行する本線車両A1を検知する車両検知センサ12を備える。また、合流支援装置10は、車両検知センサ12からの車両検知情報に基づいて本線L1上における本線車両A1の位置を示す合流支援情報を生成する制御装置11(合流支援情報生成部111)を備える。また、合流支援装置10は、合流支援情報を、合流車線L2を走行する合流車両A2に搭載された車載器20に送信する路側無線機13を備える。
このような構成とすることで、合流車両A2は、路側無線機13を通じて、本線車両A1の本線L1上の位置を示す合流支援情報を取得することができる。したがって、合流地点Cに到達するよりも前の段階で視界が制限される場合(例えば、合流車線L2と本線L1との間に遮蔽物がある場合等)であっても合流支援を受けることができる。
また、車両検知センサ12(車両撮影用カメラ、レーダー)は、光、電波を通じて、車両の車体を直接検知可能とする態様のセンサとされるため、あらゆる態様の車両、例えば、特定の車載器を搭載しない車両であっても存在を検知することができる。
以上より、合流車線を走行する車両に対し、本線を走行する車両の状況を適切に認識させることができる。
(Function, effect)
As described above, the merging support apparatus 10 according to the first embodiment includes the vehicle detection sensors 12 that are arranged along the main line L1 and detect the main vehicle A1 that travels on the main line L1 in each detection range. The merging support apparatus 10 includes a control device 11 (merging support information generating unit 111) that generates merging support information indicating the position of the main vehicle A1 on the main line L1 based on the vehicle detection information from the vehicle detection sensor 12. . In addition, the merging support device 10 includes a roadside radio 13 that transmits the merging support information to the vehicle-mounted device 20 mounted on the merging vehicle A2 traveling on the merging lane L2.
With such a configuration, the merging vehicle A2 can acquire the merging support information indicating the position of the main line vehicle A1 on the main line L1 through the roadside radio device 13. Therefore, even when the field of view is limited at a stage before reaching the junction point C (for example, when there is an obstacle between the junction lane L2 and the main line L1, etc.), the junction support can be received. it can.
Further, since the vehicle detection sensor 12 (vehicle shooting camera, radar) is a sensor that can directly detect the vehicle body through light and radio waves, any vehicle such as a specific vehicle-mounted device can be used. The presence can be detected even if the vehicle is not mounted.
From the above, it is possible to make the vehicle traveling on the merged lane properly recognize the situation of the vehicle traveling on the main line.

また、第1の実施形態に係る合流支援装置10によれば、複数の車両検知センサ12は、隣り合う車両検知センサ12の互いの検知範囲が重なる重複領域を有するように配置される。また、合流支援情報生成部111は、重複領域において、一の車両検知センサ12によって検知された車両と、他の車両検知センサ12によって検知された車両と、を同一車両として関連付ける。
このような構成とすることで、異なる車両検知センサによって同一の車両が検知された場合に、1台の車両が異なる2台の車両として検知されることを抑制できる。これにより、一層精度の高い合流支援情報を提供することができる。
Moreover, according to the confluence | merging assistance apparatus 10 which concerns on 1st Embodiment, the several vehicle detection sensor 12 is arrange | positioned so that it may have an overlapping area | region where the mutual detection range of the adjacent vehicle detection sensor 12 overlaps. In addition, the merge support information generation unit 111 associates the vehicle detected by the one vehicle detection sensor 12 and the vehicle detected by the other vehicle detection sensor 12 as the same vehicle in the overlapping region.
By setting it as such a structure, when the same vehicle is detected by a different vehicle detection sensor, it can suppress that one vehicle is detected as two different vehicles. As a result, it is possible to provide merge support information with higher accuracy.

また、第1の実施形態に係る合流支援装置10によれば、合流支援情報生成部111は、車両検知センサ12からの車両検知情報に基づいて本線車両A1の速度を更に取得し、本線L1上における本線車両A1の位置及び速度を示す合流支援情報を生成する。
このような構成とすることで、本線L1を走行する本線車両A1の速度(又は、合流スペースの移動速度)を特定することができるので、合流車両A2の運転者は、合流するにあたり、どの程度の速度で走行すればよいかを認識することができる。
Further, according to the merge support device 10 according to the first embodiment, the merge support information generation unit 111 further acquires the speed of the main vehicle A1 based on the vehicle detection information from the vehicle detection sensor 12, and on the main line L1. The merge support information indicating the position and speed of the main line vehicle A1 is generated.
By setting it as such a structure, since the speed (or moving speed of merge space) of main line vehicle A1 which drive | works the main line L1 can be pinpointed, when the driver of merge vehicle A2 joins, how much It is possible to recognize whether to travel at a speed of.

また、第1の実施形態に係る合流支援システム1によれば、車載器20は、受信した合流支援情報に基づいて、本線車両A1の本線L1上における位置と、合流車両A2の合流車線L2上における位置と、を示す画像情報Dを生成する画像情報生成部201を備える。
このような構成とすることで、自車両(合流車両A2)の運転者は、画像情報Dを視認することで、自車両と、本線L1を走行する本線車両A1との位置関係を一目で把握することができる。
Moreover, according to the merge support system 1 which concerns on 1st Embodiment, the vehicle equipment 20 is based on the position on the main line L1 of main line vehicle A1, and the merge lane L2 of merge vehicle A2 based on the received merge support information. An image information generation unit 201 that generates image information D indicating the position of the image information D is provided.
With such a configuration, the driver of the own vehicle (merging vehicle A2) can grasp the positional relationship between the own vehicle and the main vehicle A1 traveling on the main line L1 at a glance by viewing the image information D. can do.

(変形例)
以上、第1の実施形態に係る合流支援システム1及び合流支援装置10について詳細に説明したが、合流支援システム1及び合流支援装置10の具体的な態様は、上述のものに限定されることはなく、要旨を逸脱しない範囲内において種々の設計変更等を加えることは可能である。
(Modification)
As described above, the merging support system 1 and the merging support apparatus 10 according to the first embodiment have been described in detail. However, specific aspects of the merging support system 1 and the merging support apparatus 10 are not limited to those described above. It is possible to add various design changes and the like without departing from the scope of the invention.

例えば、第1の実施形態に係る車両検知センサ12は、車両撮影用カメラ及びレーダーの組み合わせで構成されるものとして説明したが、他の実施形態においてはこの態様に限定されない。
例えば、他の実施形態に係る車両検知センサ12は、車両撮影用カメラ、レーダーの何れか一方のみで構成されてもよい。
例えば、車両検知センサ12がレーダーのみである場合、合流支援情報生成部111は、車両ナンバーに基づいて同一車両を関連付けることができない。この場合、合流支援情報生成部111は、レーダー検知情報に基づく位置、速度の差が所定の誤差範囲内に属する2つの車両位置速度情報を、同一の車両によるものと見なして関連付けるようにしてもよい。例えば、図5において、車両検知センサ120によって検知された位置(X02,Y02)と車両検知センサ121によって検知された位置(X02’,Y02’)との差が所定の誤差範囲内であった場合、合流支援情報生成部111は、“ID02”に係る車両位置速度情報と、“ID11”に係る車両位置速度情報と、を同一車両によるものとして関連付ける。
For example, the vehicle detection sensor 12 according to the first embodiment has been described as a combination of a vehicle photographing camera and a radar. However, in other embodiments, the vehicle detection sensor 12 is not limited to this mode.
For example, the vehicle detection sensor 12 according to another embodiment may be configured by only one of a vehicle shooting camera and a radar.
For example, when the vehicle detection sensor 12 is only a radar, the merging support information generation unit 111 cannot associate the same vehicle based on the vehicle number. In this case, the merging support information generation unit 111 may associate and associate two vehicle position / velocity information in which the difference between the position and the speed based on the radar detection information falls within a predetermined error range. Good. For example, in FIG. 5, the difference between the position (X02, Y02) detected by the vehicle detection sensor 120 and the position (X02 ′, Y02 ′) detected by the vehicle detection sensor 121 is within a predetermined error range. The merging support information generation unit 111 associates the vehicle position / speed information related to “ID02” with the vehicle position / speed information related to “ID11” as being from the same vehicle.

また、第1の実施形態において、合流支援情報生成部111は、合流スペースの始点(図7)につき、先行車両の車線方向の位置(X座標値)から予め規定された車長Δをオフセットとして差し引くことで算出するものとして説明したが、他の実施形態においてはこの態様に限定されない。
他の実施形態に係る合流支援情報生成部111は、上述の車長Δに対し、本線車両A1の各々についての車長の測定結果を当てはめて合流スペースの始点を演算してもよい。
この場合、制御装置11は、例えば、車両検知センサ12(撮影カメラ)によって取得された映像情報に基づいて本線車両A1の車長を計測可能な車長計測手段を有していてもよい。
In the first embodiment, the merging support information generating unit 111 uses the vehicle length Δ that is defined in advance from the position in the lane direction (X coordinate value) of the preceding vehicle as an offset for the start point (FIG. 7) of the merging space. Although it has been described that it is calculated by subtracting, in other embodiments, it is not limited to this aspect.
The merging support information generation unit 111 according to another embodiment may calculate the start point of the merging space by applying the measurement result of the vehicle length for each main line vehicle A1 to the vehicle length Δ described above.
In this case, for example, the control device 11 may include a vehicle length measuring unit that can measure the vehicle length of the main vehicle A1 based on video information acquired by the vehicle detection sensor 12 (imaging camera).

また、第1の実施形態に係る車載器20は、測位情報取得部203を通じて、GNSSに基づく衛星航法情報(測位情報)を受信することで自車両の位置を認識するものとして説明したが、他の実施形態においてはこの態様に限定されない。
例えば、他の実施形態において、車両検知センサ12は、本線L1のみならず合流車線L2に沿って複数設置されていてもよい。合流車線L2に沿って設置された車両検知センサ12は、合流車線L2を走行する合流車両A2を検知可能とする。そして、合流車両A2に搭載された車載器20は、路側無線機13から、車両検知センサ12を通じて取得された自車両に関する車両位置速度情報を受信して、自車両の位置を認識するものとしてもよい。
Moreover, although the onboard equipment 20 which concerns on 1st Embodiment was demonstrated as what recognizes the position of the own vehicle by receiving the satellite navigation information (positioning information) based on GNSS through the positioning information acquisition part 203, others However, the present invention is not limited to this aspect.
For example, in other embodiments, a plurality of vehicle detection sensors 12 may be installed along the merging lane L2 as well as the main line L1. The vehicle detection sensor 12 installed along the merge lane L2 can detect the merge vehicle A2 traveling along the merge lane L2. The vehicle-mounted device 20 mounted on the joining vehicle A2 receives vehicle position speed information related to the own vehicle acquired from the roadside wireless device 13 through the vehicle detection sensor 12, and recognizes the position of the own vehicle. Good.

<第2の実施形態>
次に、第2の実施形態に係る合流支援システム及び合流支援装置について、図9を参照しながら説明する。
<Second Embodiment>
Next, a merge support system and a merge support apparatus according to the second embodiment will be described with reference to FIG.

(合流支援システムの機能構成)
図9は、第2の実施形態に係る合流支援システムの機能構成を示す図である。
第2の実施形態に係る合流車両A2は、自律して走行が可能な自動運転車両であるものとする。
図2に示すように、合流車両A2は、自動運転制御を司る自動運転制御部30を備えている。自動運転制御部30は、車載器20が受信した合流支援情報と、測位情報取得部203を通じて取得した自車両の位置とに基づいて、合流車線L2における位置及び速度を調整する。
例えば、自動運転制御部30は、合流スペース情報に示される合流スペースの移動速度(例えば、移動速度Vs1(図7))を参照しながら、自車両の速度を当該移動速度Vs1に一致するように加減速を行う。また、自動運転制御部30は、自車両の位置が、合流スペース情報に示される始点と終点との間に位置するように位置調整を行う。
(Functional configuration of confluence support system)
FIG. 9 is a diagram illustrating a functional configuration of the merge support system according to the second embodiment.
The joining vehicle A2 according to the second embodiment is assumed to be an autonomous driving vehicle capable of traveling autonomously.
As shown in FIG. 2, the merging vehicle A2 includes an automatic driving control unit 30 that controls automatic driving control. The automatic operation control unit 30 adjusts the position and speed in the merge lane L2 based on the merge support information received by the vehicle-mounted device 20 and the position of the host vehicle acquired through the positioning information acquisition unit 203.
For example, the automatic operation control unit 30 refers to the moving speed (for example, the moving speed Vs1 (FIG. 7)) of the joining space indicated in the joining space information so that the speed of the host vehicle matches the moving speed Vs1. Accelerate / decelerate. In addition, the automatic operation control unit 30 performs position adjustment so that the position of the host vehicle is located between the start point and the end point indicated in the merge space information.

このような構成とすることで、自動運転車両である合流車両A2は、合流車線L2を走行中に、合流支援装置10から提供される合流支援情報を受信し、当該合流支援情報に基づいて適切に合流を行うことができる。   With such a configuration, the merging vehicle A2, which is an autonomous driving vehicle, receives the merging support information provided from the merging support device 10 while traveling on the merging lane L2, and is appropriately based on the merging support information. Can be joined.

<第3の実施形態>
次に、第3の実施形態に係る合流支援システム及び合流支援装置について、図10を参照しながら説明する。
<Third Embodiment>
Next, a merge support system and a merge support apparatus according to a third embodiment will be described with reference to FIG.

(合流支援システムの機能構成)
図10は、第3の実施形態に係る合流支援システムの機能構成を示す図である。
第3の実施形態に係る合流車両A2は、第2の実施形態と同様に、自律して走行が可能な自動運転車両であるものとする。
第1、第2の実施形態と異なり、第3の実施形態に係る合流支援装置10の制御装置11は、合流支援情報生成部111を備えていない。第3の実施形態に係る制御装置11は、車両検知センサ12から受信した車両検知情報を、路側無線機13に出力する。路側無線機13は、車両検知センサ12から受信した車両検知情報を無線で車載器20に送信する。
第3の実施形態に係る車載器20は、合流支援情報生成部211を備えている。
車載器20の合流支援情報生成部211は、第1、第2の実施形態に係る制御装置11が備えている合流支援情報生成部111(図2、図9)と同等の機能を有している。
即ち、合流支援情報生成部211は、受信部200を通じて受信した車両検知情報に基づいて本線車両A1の位置及び速度等を示す合流支援情報を生成する。そして、生成した合流支援情報を自動運転制御部30に出力する。
(Functional configuration of confluence support system)
FIG. 10 is a diagram illustrating a functional configuration of the merge support system according to the third embodiment.
The joining vehicle A2 according to the third embodiment is assumed to be an autonomous driving vehicle capable of traveling autonomously as in the second embodiment.
Unlike the first and second embodiments, the control device 11 of the merge support apparatus 10 according to the third embodiment does not include the merge support information generation unit 111. The control device 11 according to the third embodiment outputs the vehicle detection information received from the vehicle detection sensor 12 to the roadside radio device 13. The roadside wireless device 13 transmits the vehicle detection information received from the vehicle detection sensor 12 to the vehicle-mounted device 20 wirelessly.
The vehicle-mounted device 20 according to the third embodiment includes a merging support information generation unit 211.
The merge support information generation unit 211 of the vehicle-mounted device 20 has a function equivalent to that of the merge support information generation unit 111 (FIGS. 2 and 9) provided in the control device 11 according to the first and second embodiments. Yes.
That is, the merging support information generation unit 211 generates merging support information indicating the position and speed of the main vehicle A1 based on the vehicle detection information received through the receiving unit 200. Then, the generated merge support information is output to the automatic operation control unit 30.

以上のように、合流支援システム1は、第1、第2の実施形態にて制御装置11が備えていた合流支援情報生成部111の機能を、車載器20が備える態様であってもよい。
なお、上述の第3の実施形態においては、合流車両A2が自動運転車両であるものとしたが、他の実施形態においては、合流車両A2が手動運転車両であってもよい。この場合、車載器20は、車載器20が備える合流支援情報生成部211が合流支援情報を生成し、画像情報生成部201が当該生成した合流支援情報に基づいて画像情報D(図8)を生成する。
As described above, the merging support system 1 may be an aspect in which the vehicle-mounted device 20 includes the function of the merging support information generation unit 111 included in the control device 11 in the first and second embodiments.
In the above-described third embodiment, the joining vehicle A2 is an automatic driving vehicle. However, in another embodiment, the joining vehicle A2 may be a manually operated vehicle. In this case, in the vehicle-mounted device 20, the merge support information generation unit 211 included in the vehicle-mounted device 20 generates the merge support information, and the image information generation unit 201 generates the image information D (FIG. 8) based on the generated merge support information. Generate.

なお、上述の各実施形態においては、上述した合流支援装置10、車載器20の各種処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。また、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   In each of the above-described embodiments, the processes of the merging support apparatus 10 and the vehicle-mounted device 20 described above are stored in a computer-readable recording medium in the form of a program, and the computer reads out this program. The various processes are performed by executing them. The computer-readable recording medium is a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。更に、合流支援装置10、車載器20は、それぞれ、1台のコンピュータで構成されていても良いし、通信可能に接続された複数のコンピュータで構成されていてもよい。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient. Furthermore, the merging support apparatus 10 and the vehicle-mounted device 20 may each be configured by a single computer, or may be configured by a plurality of computers connected so as to be communicable.

以上のとおり、本発明に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態及びその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As described above, several embodiments according to the present invention have been described. However, all these embodiments are presented as examples, and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof as well as included in the scope and gist of the invention.

1 合流支援システム
10 合流支援装置
11 制御装置
12 車両検知センサ
13 路側無線機
20 車載器
30 自動運転制御部
110 車両検知情報取得部
111 合流支援情報生成部
112 出力部
200 受信部
201 画像情報生成部
202 表示パネル
203 測位情報取得部
211 合流支援情報生成部
A1 本線車両
A2 合流車両
C 合流地点
D 画像情報
L1 本線
L2 合流車線
DESCRIPTION OF SYMBOLS 1 Join support system 10 Join support apparatus 11 Control apparatus 12 Vehicle detection sensor 13 Roadside radio | wireless machine 20 Onboard equipment 30 Automatic operation control part 110 Vehicle detection information acquisition part 111 Join support information generation part 112 Output part 200 Reception part 201 Image information generation part 202 Display Panel 203 Positioning Information Acquisition Unit 211 Merge Support Information Generation Unit A1 Main Line Vehicle A2 Merge Vehicle C Merge Point D Image Information L1 Main Line L2 Merge Lane

Claims (8)

道路の本線に沿って複数配置され、各々の検知範囲において本線を走行する本線車両を検知する車両検知センサと、
前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置を示す合流支援情報を生成する合流支援情報生成部と、
前記合流支援情報を、合流車線を走行する合流車両に搭載された車載器に送信する路側無線機と、
を備える合流支援装置。
A plurality of vehicle detection sensors that are arranged along the main line of the road and detect a main line vehicle traveling on the main line in each detection range;
A merging support information generating unit that generates merging support information indicating a position of the main vehicle on the main line based on vehicle detection information from the vehicle detection sensor;
A roadside radio that transmits the merging support information to a vehicle-mounted device mounted on a merging vehicle traveling in a merging lane;
A confluence support device comprising:
複数の前記車両検知センサは、隣り合う前記車両検知センサの互いの検知範囲が重なる重複領域を有するように配置され、
前記合流支援情報生成部は、
前記重複領域において、一の前記車両検知センサによって検知された車両と、他の前記車両検知センサによって検知された車両と、を同一車両として関連付ける
請求項1に記載の合流支援装置。
The plurality of vehicle detection sensors are arranged so as to have overlapping regions where the detection ranges of the adjacent vehicle detection sensors overlap.
The merge support information generation unit
The merging support device according to claim 1, wherein in the overlapping region, a vehicle detected by one of the vehicle detection sensors and a vehicle detected by another of the vehicle detection sensors are associated as the same vehicle.
前記合流支援情報生成部は、
前記車両検知センサからの車両検知情報に基づいて前記本線車両の速度を取得し、前記本線上における前記本線車両の位置及び速度を示す前記合流支援情報を生成する
請求項1に記載の合流支援装置。
The merge support information generation unit
The merge support apparatus according to claim 1, wherein the speed of the main vehicle is acquired based on vehicle detection information from the vehicle detection sensor, and the merge support information indicating the position and speed of the main vehicle on the main line is generated. .
請求項1から請求項3の何れか一項に記載された合流支援装置と、
前記合流車両に搭載された車載器と、
を備え、
前記車載器は、
受信した前記合流支援情報に基づいて、前記本線車両の前記本線上における位置と、前記合流車両の前記合流車線上における位置と、を示す画像情報を生成する画像情報生成部を備える
合流支援システム。
The merge support device according to any one of claims 1 to 3,
A vehicle-mounted device mounted on the merging vehicle;
With
The in-vehicle device is
A merging support system comprising an image information generating unit that generates image information indicating the position of the main vehicle on the main lane and the position of the merging vehicle on the merging lane based on the received merging support information.
請求項1から請求項3の何れか一項に記載された合流支援装置と、
前記合流車両に搭載された車載器と、
前記合流車両の自動運転に係る制御を行う自動運転制御部と、
を備え、
前記自動運転制御部は、
前記車載器が受信した前記合流支援情報に基づいて、前記合流車線における位置及び速度を調整する
合流支援システム。
The merge support device according to any one of claims 1 to 3,
A vehicle-mounted device mounted on the merging vehicle;
An automatic operation control unit that performs control related to the automatic operation of the merging vehicle;
With
The automatic operation control unit is
A merging support system that adjusts a position and a speed in the merging lane based on the merging assistance information received by the vehicle-mounted device.
請求項1から請求項3の何れか一項に記載された合流支援装置から前記合流支援情報を受信する受信部と、
受信した前記合流支援情報に基づいて、前記本線車両の前記本線上における位置と、前記合流車両の前記合流車線上における位置と、を示す画像情報を生成する画像情報生成部と、
を備える車載器。
A receiving unit that receives the joining support information from the joining support device according to any one of claims 1 to 3;
Based on the received merging support information, an image information generating unit that generates image information indicating the position of the main vehicle on the main line and the position of the merging vehicle on the merging lane;
On-vehicle device equipped with.
道路の本線に沿って複数配置され、各々の検知範囲において本線を走行する本線車両を検知する車両検知センサと、
前記車両検知センサからの車両検知情報を、合流車線を走行する合流車両に搭載された車載器に送信する路側無線機と、
前記合流車両に搭載された車載器と、
を備え、
前記車載器は、
前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置に基づく合流支援情報を生成する合流支援情報生成部を備える
合流支援システム。
A plurality of vehicle detection sensors that are arranged along the main line of the road and detect a main line vehicle traveling on the main line in each detection range;
A roadside radio that transmits vehicle detection information from the vehicle detection sensor to an in-vehicle device mounted on a confluence vehicle traveling in a confluence lane, and
A vehicle-mounted device mounted on the merging vehicle;
With
The in-vehicle device is
A merging support system comprising a merging support information generating unit that generates merging support information based on a position of the main vehicle on the main line based on vehicle detection information from the vehicle detection sensor.
道路の本線に沿って複数配置された車両検知センサを通じて、各々の検知範囲において本線を走行する本線車両を検知する車両検知ステップと、
前記車両検知センサからの車両検知情報に基づいて前記本線上における前記本線車両の位置に基づく合流支援情報を生成する合流支援情報生成ステップと、
前記合流支援情報を、合流車線を走行する合流車両に搭載された車載器に送信する送信ステップと、
を有する合流支援方法。
A vehicle detection step of detecting a main line vehicle traveling on the main line in each detection range through a plurality of vehicle detection sensors arranged along the main line of the road;
A merging support information generating step for generating merging support information based on a position of the main vehicle on the main line based on vehicle detection information from the vehicle detection sensor;
A transmission step of transmitting the merging support information to a vehicle-mounted device mounted on a merging vehicle traveling in a merging lane;
A confluence support method.
JP2016221485A 2016-11-14 2016-11-14 Merge support device, merge support system, on-board unit and merge support method Active JP6789078B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016221485A JP6789078B2 (en) 2016-11-14 2016-11-14 Merge support device, merge support system, on-board unit and merge support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016221485A JP6789078B2 (en) 2016-11-14 2016-11-14 Merge support device, merge support system, on-board unit and merge support method

Publications (2)

Publication Number Publication Date
JP2018081358A true JP2018081358A (en) 2018-05-24
JP6789078B2 JP6789078B2 (en) 2020-11-25

Family

ID=62198078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016221485A Active JP6789078B2 (en) 2016-11-14 2016-11-14 Merge support device, merge support system, on-board unit and merge support method

Country Status (1)

Country Link
JP (1) JP6789078B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110296713A (en) * 2019-06-17 2019-10-01 深圳数翔科技有限公司 Trackside automatic driving vehicle Position Fixing Navigation System and single, multiple vehicle positioning and navigation methods
WO2021187455A1 (en) * 2020-03-18 2021-09-23 古河電気工業株式会社 Radar system
CN116168546A (en) * 2023-02-20 2023-05-26 烽火通信科技股份有限公司 Method, device, equipment and readable storage medium for judging attribution of vehicle identification information

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085316A (en) * 1994-06-23 1996-01-12 Hitachi Ltd Method and apparatus for recognizing moving body
JP2005353004A (en) * 2004-06-14 2005-12-22 Sumitomo Electric Ind Ltd Vehicle traveling measurement system and vehicle tracking method
JP2008097279A (en) * 2006-10-11 2008-04-24 Denso Corp Vehicle exterior information display device
JP2009230377A (en) * 2008-03-21 2009-10-08 Mazda Motor Corp Driving support device for vehicle
JP2013200845A (en) * 2012-03-26 2013-10-03 Mitsubishi Heavy Ind Ltd Vehicle number data processing system, vehicle number data processing method, vehicle number data processing device, program and recording medium
JP2016007954A (en) * 2014-06-25 2016-01-18 トヨタ自動車株式会社 Lane merging assist system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085316A (en) * 1994-06-23 1996-01-12 Hitachi Ltd Method and apparatus for recognizing moving body
JP2005353004A (en) * 2004-06-14 2005-12-22 Sumitomo Electric Ind Ltd Vehicle traveling measurement system and vehicle tracking method
JP2008097279A (en) * 2006-10-11 2008-04-24 Denso Corp Vehicle exterior information display device
JP2009230377A (en) * 2008-03-21 2009-10-08 Mazda Motor Corp Driving support device for vehicle
JP2013200845A (en) * 2012-03-26 2013-10-03 Mitsubishi Heavy Ind Ltd Vehicle number data processing system, vehicle number data processing method, vehicle number data processing device, program and recording medium
JP2016007954A (en) * 2014-06-25 2016-01-18 トヨタ自動車株式会社 Lane merging assist system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110296713A (en) * 2019-06-17 2019-10-01 深圳数翔科技有限公司 Trackside automatic driving vehicle Position Fixing Navigation System and single, multiple vehicle positioning and navigation methods
CN110296713B (en) * 2019-06-17 2024-06-04 广州卡尔动力科技有限公司 Roadside automatic driving vehicle positioning navigation system and single/multiple vehicle positioning navigation method
WO2021187455A1 (en) * 2020-03-18 2021-09-23 古河電気工業株式会社 Radar system
CN116168546A (en) * 2023-02-20 2023-05-26 烽火通信科技股份有限公司 Method, device, equipment and readable storage medium for judging attribution of vehicle identification information
CN116168546B (en) * 2023-02-20 2024-05-31 烽火通信科技股份有限公司 Method, device, equipment and readable storage medium for judging attribution of vehicle identification information

Also Published As

Publication number Publication date
JP6789078B2 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
US10293748B2 (en) Information presentation system
US9550496B2 (en) Travel control apparatus
US11597396B2 (en) Vehicle control device
JP6325670B2 (en) Lane selection device, vehicle control system, and lane selection method
US9896098B2 (en) Vehicle travel control device
JP2017087816A (en) Automatic drive system
JP5841235B2 (en) Navigation system
WO2016194297A1 (en) On-board device
JP5898539B2 (en) Vehicle driving support system
JP6500724B2 (en) Danger information notification system, server and computer program
CN103608217A (en) Retrofit parking assistance kit
US20200341111A1 (en) Method and apparatus for radar detection confirmation
JP2019079363A (en) Vehicle control device
JP2019147459A (en) Vehicle travel control system
JP6789078B2 (en) Merge support device, merge support system, on-board unit and merge support method
JP2012234373A (en) Driving support device
US20200110183A1 (en) Method of determining location of vehicle, apparatus for determining location, and system for controlling driving
US10134281B2 (en) Collision avoidance system and collision avoidance method
US20220364874A1 (en) Method of providing image by vehicle navigation device
US20200118424A1 (en) Map information system
JP2006072725A (en) On-vehicle system
JP2023006734A (en) Vehicle travel control device and vehicle travel control method
US20190308622A1 (en) Vehicle travel control system
JP2017004339A (en) Driver support device for vehicle
JP2020091644A (en) Obstacle detection system, obstacle identification device, and method for controlling obstacle identification device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161115

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181102

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20190731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201102

R150 Certificate of patent or registration of utility model

Ref document number: 6789078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150