JP2021043861A - Driving support control device, determination support control device, driving support system, driving support control method and determination support control method - Google Patents

Driving support control device, determination support control device, driving support system, driving support control method and determination support control method Download PDF

Info

Publication number
JP2021043861A
JP2021043861A JP2019167148A JP2019167148A JP2021043861A JP 2021043861 A JP2021043861 A JP 2021043861A JP 2019167148 A JP2019167148 A JP 2019167148A JP 2019167148 A JP2019167148 A JP 2019167148A JP 2021043861 A JP2021043861 A JP 2021043861A
Authority
JP
Japan
Prior art keywords
vehicle
information
passing
unit
bird
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019167148A
Other languages
Japanese (ja)
Inventor
彬光 落合
Akimitsu OCHIAI
彬光 落合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019167148A priority Critical patent/JP2021043861A/en
Publication of JP2021043861A publication Critical patent/JP2021043861A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To support a driver of each passing vehicle to make an appropriate decision when multiple vehicles pass each other.SOLUTION: A driving support control device is comprised of: a peripheral situation recognizing unit 53 as an other vehicle information acquisition unit that acquires other vehicle information on other vehicles including a following vehicle of a first vehicle and a second vehicle that is an oncoming vehicle of the first vehicle; a passing determination unit 55 that determines whether or not the second vehicle and the first vehicle may pass each other in a presence of the following vehicle based on the other vehicle information recognized by the peripheral situation recognizing unit 53; a bird's-eye view image generation unit 56 as an information generation unit that generates the passing information including information indicating a relative positional relationship between the first vehicle and a driving road when it is determined that there is a possibility of passing each other; a first transmission control unit 57 that transmits the passing information generated by the bird's-eye view image generation unit 56 to the second vehicle; and a second transmission control unit 58 that transmits oncoming vehicle information indicating that the second vehicle and the first vehicle may pass each other to the following vehicle.SELECTED DRAWING: Figure 2

Description

本発明は、運転支援制御装置、判断支援制御装置、運転支援システム、運転支援制御方法及び判断支援制御方法に関する。 The present invention relates to a driving support control device, a judgment support control device, a driving support system, a driving support control method, and a judgment support control method.

例えば、狭い路地などで車両同士がすれ違いをする場合、地図情報などに基づいて、すれ違いができる場所を表示したりする技術が知られている(例えば、特許文献1、特許文献2、特許文献3参照)。 For example, when vehicles pass each other in a narrow alley, there is known a technique of displaying a place where vehicles can pass each other based on map information or the like (for example, Patent Document 1, Patent Document 2, Patent Document 3). reference).

特開平10−086761号公報Japanese Unexamined Patent Publication No. 10-086761 特開2006−106945号公報Japanese Unexamined Patent Publication No. 2006-106945 特開2018−151177号公報JP-A-2018-151177

複数の車両がすれ違いを行う際に、各車両の運転者が、すれ違いに適した場所であるすれ違いポイントを適切に判断できない場合、すれ違いが難しくなるおそれがある。すれ違いを適切に行うためには、すれ違う各車両の運転者が周辺の状況を確認して、すれ違いポイントを適切に判断することが望まれる。 When a plurality of vehicles pass each other, if the driver of each vehicle cannot properly determine the passing point, which is a suitable place for passing, the passing may become difficult. In order to properly pass each other, it is desirable that the driver of each passing vehicle confirms the surrounding conditions and appropriately determines the passing point.

本発明は、上記に鑑みてなされたものであって、複数の車両がすれ違いを行う際に、すれ違う各車両の運転者による適切な判断を支援することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to support an appropriate judgment by a driver of each passing vehicle when a plurality of vehicles pass each other.

上述した課題を解決し、目的を達成するために、本発明に係る運転支援制御装置は、第一車両の周辺に位置する、前記第一車両の後続車両及び前記第一車両の対向車両である第二車両を含む他車両の他車両情報を取得する他車両情報取得部と、前記他車両情報取得部が取得した前記他車両情報に基づいて、前記後続車両が存在する状態において、前記第二車両と前記第一車両とがすれ違う可能性の有無を判定するすれ違い判定部と、前記すれ違い判定部がすれ違う可能性があると判定した場合、前記第一車両と前記第一車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成部と、前記情報生成部が生成した前記すれ違い情報を前記第二車両へ送信する第一送信制御部と、前記第二車両と前記第一車両とがすれ違う可能性があることを示す対向車両情報を前記後続車両へ送信する第二送信制御部と、を備える。 In order to solve the above-mentioned problems and achieve the object, the driving support control device according to the present invention is a vehicle following the first vehicle and an oncoming vehicle of the first vehicle located in the vicinity of the first vehicle. In a state where the following vehicle exists based on the other vehicle information acquisition unit that acquires other vehicle information of the other vehicle including the second vehicle and the other vehicle information acquired by the other vehicle information acquisition unit, the second vehicle When the passing determination unit that determines whether or not the vehicle and the first vehicle may pass each other and the passing determination unit determine that there is a possibility of passing each other, the first vehicle and the first vehicle are traveling. An information generation unit that generates passing information including information indicating a relative positional relationship with a driving road, a first transmission control unit that transmits the passing information generated by the information generation unit to the second vehicle, and a first transmission control unit. It includes a second transmission control unit that transmits oncoming vehicle information indicating that the second vehicle and the first vehicle may pass each other to the following vehicle.

本発明に係る判断支援制御装置は、第二車両の周辺に位置し、前記第二車両の対向車両である第一車両から、前記第一車両と前記第一車両が走行している走行道路との相対的な位置関係を示す情報を含むすれ違い情報を取得し、前記第一車両の後続車両から、前記後続車両と前記走行道路との相対的な位置関係を示す情報を含むすれ違い情報を取得するすれ違い情報取得部と、前記すれ違い情報取得部が前記第一車両及び前記第一車両の後続車両から前記すれ違い情報を取得した場合、前記すれ違い情報を合成すると判定する合成判定部と、前記合成判定部が前記すれ違い情報を合成すると判定した場合、前記すれ違い情報を合成して合成情報を生成する合成処理部と、前記合成処理部が生成した前記合成情報を表示部に表示させる表示制御部とを備える。 The judgment support control device according to the present invention is located in the vicinity of the second vehicle, from the first vehicle, which is an oncoming vehicle of the second vehicle, to the first vehicle and the traveling road on which the first vehicle is traveling. The passing information including the information indicating the relative positional relationship of the first vehicle is acquired, and the passing information including the information indicating the relative positional relationship between the following vehicle and the driving road is acquired from the following vehicle of the first vehicle. The passing information acquisition unit, the synthesis determination unit that determines that the passing information is synthesized when the passing information acquisition unit acquires the passing information from the first vehicle and the following vehicle of the first vehicle, and the synthesis determination unit. When it is determined that the passing information is synthesized, the synthesis processing unit that synthesizes the passing information to generate the synthesis information and a display control unit that displays the synthesis information generated by the synthesis processing unit on the display unit are provided. ..

本発明に係る運転支援システムは、上記の運転支援制御装置と、上記の判断支援制御装置とを備える。 The driving support system according to the present invention includes the above-mentioned driving support control device and the above-mentioned judgment support control device.

本発明に係る運転支援制御方法は、第一車両の周辺に位置する、前記第一車両の後続車両及び前記第一車両の対向車両である第二車両を含む他車両の他車両情報を取得する他車両情報取得ステップと、前記他車両情報取得ステップによって取得された前記他車両情報に基づいて、前記後続車両が存在する状態において、前記第二車両と前記第一車両とがすれ違う可能性の有無を判定するすれ違い判定ステップと、前記すれ違い判定ステップによってすれ違う可能性があると判定された場合、前記第一車両と前記第一車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成ステップと、前記情報生成ステップによって生成された前記すれ違い情報を前記第二車両へ送信する第一送信制御ステップと、前記第二車両と前記第一車両とがすれ違う可能性があることを示す対向車両情報を前記後続車両へ送信する第二送信制御ステップとを含む。 The driving support control method according to the present invention acquires information on other vehicles of other vehicles including a following vehicle of the first vehicle and a second vehicle which is an oncoming vehicle of the first vehicle located in the vicinity of the first vehicle. Whether or not the second vehicle and the first vehicle may pass each other in the presence of the following vehicle based on the other vehicle information acquisition step and the other vehicle information acquired by the other vehicle information acquisition step. Information indicating the relative positional relationship between the first vehicle and the driving road on which the first vehicle is traveling when it is determined by the passing determination step and the passing determination step that there is a possibility of passing each other. An information generation step for generating passing information, a first transmission control step for transmitting the passing information generated by the information generation step to the second vehicle, and the second vehicle and the first vehicle It includes a second transmission control step of transmitting oncoming vehicle information indicating that there is a possibility of passing each other to the following vehicle.

本発明に係る判断支援制御方法は、第二車両の周辺に位置し、前記第二車両の対向車両である第一車両から、前記第一車両と前記第一車両が走行している走行道路との相対的な位置関係を示す情報を含むすれ違い情報を取得し、前記第一車両の後続車両から、前記後続車両と前記走行道路との相対的な位置関係を示す情報を含むすれ違い情報を取得するすれ違い情報取得ステップと、前記すれ違い情報取得ステップによって前記第一車両及び前記第一車両の後続車両から前記すれ違い情報が取得された場合、前記すれ違い情報を合成すると判定する合成判定ステップと、前記合成判定ステップによって前記すれ違い情報を合成すると判定された場合、前記すれ違い情報を合成して合成情報を生成する合成処理ステップと、前記合成処理ステップによって生成された前記合成情報を表示部に表示させる表示制御ステップとを含む。 The judgment support control method according to the present invention is located in the vicinity of the second vehicle, from the first vehicle, which is an oncoming vehicle of the second vehicle, to the first vehicle and the traveling road on which the first vehicle is traveling. The passing information including the information indicating the relative positional relationship of the first vehicle is acquired, and the passing information including the information indicating the relative positional relationship between the following vehicle and the driving road is acquired from the following vehicle of the first vehicle. When the passing information is acquired from the first vehicle and the following vehicle of the first vehicle by the passing information acquisition step and the passing information acquisition step, the synthesis determination step of determining that the passing information is synthesized and the synthesis determination are made. When it is determined that the passing information is to be synthesized by the step, a synthesis processing step of synthesizing the passing information to generate the synthesis information and a display control step of displaying the synthesis information generated by the synthesis processing step on the display unit. And include.

本発明によれば、複数の車両がすれ違いを行う際に、すれ違う各車両の運転者による適切な判断を支援することができるという効果を奏する。 According to the present invention, when a plurality of vehicles pass each other, it is possible to support an appropriate judgment by the driver of each passing vehicle.

図1は、第一実施形態に係る運転支援システムの概略を説明する概略図である。FIG. 1 is a schematic diagram illustrating an outline of a driving support system according to the first embodiment. 図2は、第一実施形態に係る第一装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the first apparatus according to the first embodiment. 図3は、第一実施形態に係る第二装置の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of the second device according to the first embodiment. 図4は、第一実施形態に係る第一装置が生成した俯瞰映像の一例を示す図である。FIG. 4 is a diagram showing an example of a bird's-eye view image generated by the first apparatus according to the first embodiment. 図5は、第一実施形態に係る第二装置が生成した合成俯瞰映像の一例を示す図である。FIG. 5 is a diagram showing an example of a composite bird's-eye view image generated by the second apparatus according to the first embodiment. 図6は、第一実施形態に係る第一装置において、先頭車両での処理の流れの一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of a processing flow in the leading vehicle in the first apparatus according to the first embodiment. 図7は、第一実施形態に係る第一装置において、後続車両での処理の流れの一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of a processing flow in the following vehicle in the first apparatus according to the first embodiment. 図8は、第一実施形態に係る第二装置における処理の流れの一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of a processing flow in the second apparatus according to the first embodiment. 図9は、第二実施形態に係る第一装置の構成例を示すブロック図である。FIG. 9 is a block diagram showing a configuration example of the first apparatus according to the second embodiment. 図10は、第三実施形態に係る第二装置の構成例を示すブロック図である。FIG. 10 is a block diagram showing a configuration example of the second device according to the third embodiment. 図11は、第三実施形態に係る第二装置が生成した合成俯瞰映像の一例を示す図である。FIG. 11 is a diagram showing an example of a composite bird's-eye view image generated by the second apparatus according to the third embodiment. 図12は、第三実施形態に係る第二装置における処理の流れの一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of a processing flow in the second apparatus according to the third embodiment. 図13は、第四実施形態に係る第一装置の構成例を示すブロック図である。FIG. 13 is a block diagram showing a configuration example of the first device according to the fourth embodiment. 図14は、第四実施形態に係る第二装置の構成例を示すブロック図である。FIG. 14 is a block diagram showing a configuration example of the second device according to the fourth embodiment. 図15は、第四実施形態に係る第一装置における処理の流れの一例を示すフローチャートである。FIG. 15 is a flowchart showing an example of a processing flow in the first apparatus according to the fourth embodiment. 図16は、第五実施形態に係る第二装置の構成例を示すブロック図である。FIG. 16 is a block diagram showing a configuration example of the second device according to the fifth embodiment. 図17は、第五実施形態に係る第二装置が生成した合成俯瞰映像の一例を示す図である。FIG. 17 is a diagram showing an example of a composite bird's-eye view image generated by the second apparatus according to the fifth embodiment.

以下に添付図面を参照して、本発明に係る運転支援制御装置としての制御部50、判断支援制御装置としての制御部90と、運転支援システム1、運転支援制御方法、判断支援制御方法及びプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 With reference to the accompanying drawings below, the control unit 50 as the driving support control device, the control unit 90 as the judgment support control device, the driving support system 1, the driving support control method, the judgment support control method and the program according to the present invention. The embodiment of the above will be described in detail. The present invention is not limited to the following embodiments.

[第一実施形態]
<運転支援システム1>
図1は、第一実施形態に係る運転支援システム1の概略を説明する概略図である。図2は、第一実施形態に係る第一装置10の構成例を示すブロック図である。図3は、第一実施形態に係る第二装置80の構成例を示すブロック図である。
[First Embodiment]
<Driving support system 1>
FIG. 1 is a schematic diagram illustrating an outline of the driving support system 1 according to the first embodiment. FIG. 2 is a block diagram showing a configuration example of the first device 10 according to the first embodiment. FIG. 3 is a block diagram showing a configuration example of the second device 80 according to the first embodiment.

本実施形態では、道幅が狭い走行道路Rにおいて、第一方向に向かって先頭車両Vと、その後続車両VBが走行している。また、走行道路Rにおいて、第一方向とは反対の第二方向に向かって、対向車両VAが走行している。後続車両VBは、例えば後続車両VB及び後続車両VBとして説明する。複数の後続車両VBの区別を要しない場合、後続車両VBとして説明する。走行道路Rの道幅は、普通車2台分の車幅よりわずかに広いものとする。走行道路Rの両側には、塀F1、塀F2が設置されている。本実施形態では、先頭車両Vが第一車両であり、対向車両VAが第二車両である。 In the present embodiment, the leading vehicle V and the following vehicle VB are traveling in the first direction on the traveling road R having a narrow road width. Further, on the traveling road R, the oncoming vehicle VA is traveling in the second direction opposite to the first direction. The following vehicle VB will be described as, for example, the following vehicle VB 1 and the following vehicle VB 2 . When it is not necessary to distinguish between a plurality of following vehicle VBs, it will be described as a following vehicle VB. The width of the traveling road R shall be slightly wider than the width of two ordinary vehicles. Fences F1 and F2 are installed on both sides of the road R. In the present embodiment, the leading vehicle V is the first vehicle and the oncoming vehicle VA is the second vehicle.

運転支援システム1は、先頭車両Vと後続車両VBと、対向車両VAとがすれ違う可能性がある場合(以下、「多重すれ違いの可能性がある場合」という。)、先頭車両Vの周辺の情報をすれ違い情報として対向車両VAに送信する。後続車両VBは、1台以上であればよい。以下の説明では、後続車両VBが2台以上であるものとする。また、複数の後続車両VBからも、後続車両VBの周辺の情報をすれ違い情報として対向車両VAにそれぞれ送信する。本実施形態では、運転支援システム1は、多重すれ違いの可能性がある場合、先頭車両Vの周辺の俯瞰映像100(図4参照)を対向車両VAに送信する。また、複数の後続車両VBからも、後続車両VBの周辺の俯瞰映像を対向車両VAにそれぞれ送信する。運転支援システム1は、先頭車両V及び後続車両VBに搭載された運転支援装置としての第一装置10と、対向車両VAに搭載された判断支援装置としての第二装置80とを含む。 In the driving support system 1, when there is a possibility that the leading vehicle V, the following vehicle VB, and the oncoming vehicle VA pass each other (hereinafter, referred to as "when there is a possibility of multiple passing"), information around the leading vehicle V is provided. Is transmitted to the oncoming vehicle VA as passing information. The following vehicle VB may be one or more. In the following description, it is assumed that there are two or more following vehicles VB. Further, the information around the following vehicle VB is also transmitted from the plurality of following vehicle VBs to the oncoming vehicle VA as passing information. In the present embodiment, the driving support system 1 transmits a bird's-eye view image 100 (see FIG. 4) around the leading vehicle V to the oncoming vehicle VA when there is a possibility of multiple passing. In addition, a bird's-eye view image of the vicinity of the following vehicle VB is also transmitted from the plurality of following vehicle VBs to the oncoming vehicle VA. The driving support system 1 includes a first device 10 as a driving support device mounted on the leading vehicle V and the following vehicle VB, and a second device 80 as a judgment support device mounted on the oncoming vehicle VA.

<第一装置>
第一装置10は、同様に構成されたものが先頭車両V及び後続車両VBに搭載されるので、例として、先頭車両Vに搭載されたものについて説明する。第一装置10は、先頭車両Vに載置されているものに加えて、可搬型で先頭車両Vにおいて利用可能な装置であってもよい。第一装置10は、前俯瞰映像用カメラ(撮影部)11と、後俯瞰映像用カメラ(撮影部)12と、左俯瞰映像用カメラ(撮影部)13と、右俯瞰映像用カメラ(撮影部)14と、インターフェース部21と、認識辞書記憶部31と、表示部41と、制御部(運転支援制御装置)50とを有する。
<First device>
Since the first device 10 having the same configuration is mounted on the leading vehicle V and the following vehicle VB, the first device 10 mounted on the leading vehicle V will be described as an example. The first device 10 may be a portable device that can be used in the leading vehicle V, in addition to the device mounted on the leading vehicle V. The first device 10 includes a front bird's-eye view camera (shooting unit) 11, a rear bird's-eye view camera (shooting unit) 12, a left bird's-eye view camera (shooting unit) 13, and a right bird's-eye view camera (shooting unit). ) 14, an interface unit 21, a recognition dictionary storage unit 31, a display unit 41, and a control unit (driving support control device) 50.

前俯瞰映像用カメラ11は、俯瞰映像用カメラである。前俯瞰映像用カメラ11は、先頭車両Vの前方に配置され、先頭車両Vの前方を中心とした周辺を撮影する。前俯瞰映像用カメラ11は、例えば、180°程度の撮影範囲を撮影する。撮影範囲は、俯瞰映像100の表示範囲より先頭車両Vの前方に広い範囲を含む。前俯瞰映像用カメラ11は、撮影した周辺映像データを制御部50の映像データ取得部51へ出力する。 The front bird's-eye view image camera 11 is a bird's-eye view image camera. The front bird's-eye view image camera 11 is arranged in front of the leading vehicle V, and photographs the surroundings centered on the front of the leading vehicle V. The front bird's-eye view image camera 11 captures, for example, a shooting range of about 180 °. The shooting range includes a wider range in front of the leading vehicle V than the display range of the bird's-eye view image 100. The front bird's-eye view image camera 11 outputs the captured peripheral image data to the image data acquisition unit 51 of the control unit 50.

後俯瞰映像用カメラ12は、俯瞰映像用カメラである。後俯瞰映像用カメラ12は、先頭車両Vの後方に配置され、先頭車両Vの後方を中心とした周辺を撮影する。後俯瞰映像用カメラ12は、例えば、180°程度の撮影範囲を撮影する。撮影範囲は、俯瞰映像100の表示範囲より先頭車両Vの後方に広い範囲を含む。後俯瞰映像用カメラ12は、撮影した周辺映像データを制御部50の映像データ取得部51へ出力する。 The rear bird's-eye view image camera 12 is a bird's-eye view image camera. The rear view image camera 12 is arranged behind the leading vehicle V and photographs the surroundings centered on the rear of the leading vehicle V. The rear view image camera 12 captures, for example, a shooting range of about 180 °. The shooting range includes a wider range behind the leading vehicle V than the display range of the bird's-eye view image 100. The rear view image camera 12 outputs the captured peripheral image data to the image data acquisition unit 51 of the control unit 50.

左俯瞰映像用カメラ13は、俯瞰映像用カメラである。左俯瞰映像用カメラ13は、先頭車両Vの左側方に配置され、先頭車両Vの左側方を中心とした周辺を撮影する。左俯瞰映像用カメラ13は、例えば、180°程度の撮影範囲を撮影する。撮影範囲は、俯瞰映像100の表示範囲より先頭車両Vの左側方に広い範囲を含む。左俯瞰映像用カメラ13は、撮影した周辺映像データを制御部50の映像データ取得部51へ出力する。 The left bird's-eye view image camera 13 is a bird's-eye view image camera. The left bird's-eye view image camera 13 is arranged on the left side of the leading vehicle V, and photographs the surroundings centered on the left side of the leading vehicle V. The left bird's-eye view image camera 13 captures, for example, a shooting range of about 180 °. The shooting range includes a wider range on the left side of the leading vehicle V than the display range of the bird's-eye view image 100. The left bird's-eye view image camera 13 outputs the captured peripheral image data to the image data acquisition unit 51 of the control unit 50.

右俯瞰映像用カメラ14は、俯瞰映像用カメラである。右俯瞰映像用カメラ14は、先頭車両Vの右側方に配置され、先頭車両Vの右側方を中心とした周辺を撮影する。右俯瞰映像用カメラ14は、例えば、180°程度の撮影範囲を撮影する。撮影範囲は、俯瞰映像100の表示範囲より先頭車両Vの右側方に広い範囲を含む。右俯瞰映像用カメラ14は、撮影した周辺映像データを制御部50の映像データ取得部51へ出力する。 The right bird's-eye view image camera 14 is a bird's-eye view image camera. The right bird's-eye view image camera 14 is arranged on the right side of the leading vehicle V, and photographs the surroundings centered on the right side of the leading vehicle V. The right bird's-eye view image camera 14 captures, for example, a shooting range of about 180 °. The shooting range includes a wider range on the right side of the leading vehicle V than the display range of the bird's-eye view image 100. The right bird's-eye view image camera 14 outputs the captured peripheral image data to the image data acquisition unit 51 of the control unit 50.

前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とで、先頭車両Vの全方位を撮影する。前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とに限らず、先頭車両Vの周辺を撮影する全天周カメラであってもよい。 The front bird's-eye view image camera 11, the rear bird's-eye view image camera 12, the left bird's-eye view image camera 13, and the right bird's-eye view image camera 14 capture all directions of the leading vehicle V. The camera 11 for the front bird's-eye view image, the camera 12 for the rear bird's-eye view image, the camera 13 for the left bird's-eye view image, and the camera 14 for the right bird's-eye view image are not limited to this, and may be an all-sky camera that captures the periphery of the leading vehicle V.

インターフェース部21は、後続車両VBに搭載された第一装置10と、対向車両VAに搭載された第二装置80との間で、情報を送受信するためのインターフェースである。インターフェース部21は、例えば、Wi−Fi(登録商標)または電話等の通信回線などに接続する。インターフェース部21は、後続車両VBに搭載された第一装置10へ、対向車両VAとすれ違いを行うことを示す対向車両情報を送信する。本実施形態では、インターフェース部21は、後続車両VBに搭載された第一装置10、後続車両VBに搭載された第一装置10へ、対向車両VAとすれ違いを行うことを示す対向車両情報を送信する。インターフェース部21は、対向車両VAに搭載された第二装置80へ、生成した俯瞰映像100を送信する。 The interface unit 21 is an interface for transmitting and receiving information between the first device 10 mounted on the following vehicle VB and the second device 80 mounted on the oncoming vehicle VA. The interface unit 21 connects to, for example, a Wi-Fi (registered trademark) or a communication line such as a telephone. The interface unit 21 transmits oncoming vehicle information indicating that the vehicle passes the oncoming vehicle VA to the first device 10 mounted on the following vehicle VB. In the present embodiment, the interface unit 21 faces the first device 10 2 mounted on the following vehicle VB 1 and the first device 10 3 mounted on the following vehicle VB 2 to pass the oncoming vehicle VA. Send vehicle information. The interface unit 21 transmits the generated bird's-eye view image 100 to the second device 80 mounted on the oncoming vehicle VA.

認識辞書記憶部31は、例えば、様々な車両の各方向視の形状、大きさ、色などのパターンを照合可能な認識辞書を記憶している。認識辞書記憶部31は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、または、ハードディスク、光ディスク、ネットワークを介した外部記憶装置などの記憶装置である。 The recognition dictionary storage unit 31 stores, for example, a recognition dictionary capable of collating patterns such as shapes, sizes, and colors of various vehicles in each direction. The recognition dictionary storage unit 31 is, for example, a semiconductor memory element such as a RAM, ROM, or flash memory, or a storage device such as an external storage device via a hard disk, an optical disk, or a network.

表示部41は、一例としてはナビゲーションシステムを含む他のシステムと共用した表示装置などである。表示部41は、必要なタイミングで、先頭車両Vの周辺を確認するためのモニタである。表示部41は、先頭車両Vの周辺を確認することができれば、様々な形態をとりうることができる。表示パネルの一例としては、電子ルームミラーを用いたり、インストルメントパネルの機能とすることも可能である。表示部41は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro−Luminescence)ディスプレイなどを含むディスプレイである。表示部41は、運転者から視認容易な位置に配置されている。本実施形態では、表示部41は、先頭車両Vの運転者前方の、ダッシュボード、インストルメントパネル、センターコンソールなどに配置されている。表示部41は、制御部50の表示制御部59から出力された映像信号に基づき、先頭車両Vの俯瞰映像100を表示する。 As an example, the display unit 41 is a display device shared with other systems including a navigation system. The display unit 41 is a monitor for confirming the periphery of the leading vehicle V at a required timing. The display unit 41 can take various forms as long as the periphery of the leading vehicle V can be confirmed. As an example of the display panel, it is also possible to use an electronic rear-view mirror or to function as an instrument panel. The display unit 41 is a display including, for example, a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Organic Electro-Luminence) display. The display unit 41 is arranged at a position that is easily visible to the driver. In the present embodiment, the display unit 41 is arranged on the dashboard, the instrument panel, the center console, or the like in front of the driver of the leading vehicle V. The display unit 41 displays a bird's-eye view image 100 of the leading vehicle V based on the image signal output from the display control unit 59 of the control unit 50.

制御部50は、多重すれ違いの可能性がある場合、先頭車両Vの周辺を確認するための俯瞰映像100を生成して、対向車両VAの第二装置80へ提供する。また、制御部50は、多重すれ違いの可能性がある場合、後続車両VBの第一装置10へ対向車両情報を提供する。制御部50は、例えば、CPU(Central Processing Unit)または映像処理用プロセッサなどで構成された演算処理装置(制御部)である。制御部50は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部50は、映像データ取得部51と、車両情報取得部52と、周辺状況認識部(他車両情報取得部)53と、対向車両情報取得部54と、すれ違い判定部55と、俯瞰映像生成部(情報生成部)56と、第一送信制御部57と、第二送信制御部58と、表示制御部59と、内部メモリである記憶部とが含まれる。制御部50は、一または複数の装置で構成されていてもよい。 When there is a possibility of multiple passing, the control unit 50 generates a bird's-eye view image 100 for confirming the periphery of the leading vehicle V and provides it to the second device 80 of the oncoming vehicle VA. Further, the control unit 50 provides oncoming vehicle information to the first device 10 of the following vehicle VB when there is a possibility of multiple passing. The control unit 50 is an arithmetic processing unit (control unit) composed of, for example, a CPU (Central Processing Unit) or a video processing processor. The control unit 50 loads a program stored in a storage unit (not shown) into the memory and executes an instruction included in the program. The control unit 50 includes a video data acquisition unit 51, a vehicle information acquisition unit 52, a surrounding situation recognition unit (other vehicle information acquisition unit) 53, an oncoming vehicle information acquisition unit 54, a passing determination unit 55, and a bird's-eye view image generation. A unit (information generation unit) 56, a first transmission control unit 57, a second transmission control unit 58, a display control unit 59, and a storage unit which is an internal memory are included. The control unit 50 may be composed of one or a plurality of devices.

映像データ取得部51は、先頭車両Vの周辺を撮影した周辺映像データを取得する。より詳しくは、映像データ取得部51は、前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とが出力した周辺映像データを取得する。映像データ取得部51は、取得した周辺映像データを俯瞰映像生成部56に出力する。 The video data acquisition unit 51 acquires peripheral video data obtained by photographing the periphery of the leading vehicle V. More specifically, the video data acquisition unit 51 acquires peripheral video data output by the front bird's-eye view image camera 11, the rear bird's-eye view image camera 12, the left bird's-eye view image camera 13, and the right bird's-eye view image camera 14. The video data acquisition unit 51 outputs the acquired peripheral video data to the bird's-eye view video generation unit 56.

車両情報取得部52は、先頭車両Vの車速情報を含む車両情報を、CAN(Controller Area Network)または先頭車両Vの状態をセンシングする各種センサなどから取得する。車両情報取得部52は、車両情報として、CANまたは各種センサなどから取得した先頭車両Vの進行方向の情報を取得する。車両情報取得部52は、取得した車両情報をすれ違い判定部55に出力する。 The vehicle information acquisition unit 52 acquires vehicle information including vehicle speed information of the leading vehicle V from CAN (Control Area Network) or various sensors that sense the state of the leading vehicle V. The vehicle information acquisition unit 52 acquires information on the traveling direction of the leading vehicle V acquired from the CAN or various sensors as vehicle information. The vehicle information acquisition unit 52 outputs the acquired vehicle information to the passing determination unit 55.

周辺状況認識部53は、先頭車両Vの周辺の後続車両VB及び対向車両VAを含む他車両の他車両情報を取得する他車両情報取得部として機能する。本実施形態では、周辺状況認識部53は、先頭車両Vの周辺の後続車両VB、後続車両VB及び対向車両VAを含む他車両の他車両情報を取得する他車両情報取得部として機能する。周辺状況認識部53は、先頭車両Vの周辺の状況を認識する。本実施形態では、周辺状況認識部53は、先頭車両Vの周辺を撮影した周辺映像データから他車両を認識して、他車両情報を取得する。より詳しくは、周辺状況認識部53は、映像データ取得部51が取得した周辺映像データに対して、認識辞書記憶部31が記憶している認識辞書を用いたパターンマッチングを行い、走行道路Rにおいて、先頭車両Vの後方に位置する後続車両VB、及び、先頭車両Vの前方に位置する対向車両VAを認識する。周辺状況認識部53は、認識結果を他車両情報としてすれ違い判定部55に出力する。 The peripheral situation recognition unit 53 functions as another vehicle information acquisition unit that acquires other vehicle information of other vehicles including the following vehicle VB and the oncoming vehicle VA around the leading vehicle V. In the present embodiment, the peripheral situational awareness unit 53 functions as another vehicle information acquisition unit that acquires other vehicle information of other vehicles including the following vehicle VB 1 , the following vehicle VB 2, and the oncoming vehicle VA around the leading vehicle V. .. The surrounding situation recognition unit 53 recognizes the situation around the leading vehicle V. In the present embodiment, the surrounding situation recognition unit 53 recognizes another vehicle from the peripheral image data obtained by photographing the vicinity of the leading vehicle V, and acquires the other vehicle information. More specifically, the peripheral situation recognition unit 53 performs pattern matching using the recognition dictionary stored in the recognition dictionary storage unit 31 with respect to the peripheral video data acquired by the video data acquisition unit 51, and performs pattern matching on the traveling road R. , The following vehicle VB located behind the leading vehicle V, and the oncoming vehicle VA located in front of the leading vehicle V are recognized. The surrounding situation recognition unit 53 outputs the recognition result as other vehicle information to the passing determination unit 55.

周辺状況認識部53は、認識した後続車両VBのナンバープレートの文字、数字、及び記号を読み取って、後続車両VBを識別する後続車両識別情報を認識する。周辺状況認識部53は、認識した対向車両VAのナンバープレートの文字、数字、及び記号を読み取って、対向車両VAを識別する他車両識別情報を認識する。 The surrounding situation recognition unit 53 reads the characters, numbers, and symbols on the license plate of the recognized following vehicle VB, and recognizes the following vehicle identification information that identifies the following vehicle VB. The surrounding situation recognition unit 53 reads the characters, numbers, and symbols on the license plate of the recognized oncoming vehicle VA, and recognizes other vehicle identification information that identifies the oncoming vehicle VA.

周辺状況認識部53は、映像データ取得部51が取得した周辺映像データに画像処理を行って、先頭車両Vが走行している走行道路Rの道幅を取得する。 The surrounding situation recognition unit 53 performs image processing on the peripheral video data acquired by the video data acquisition unit 51 to acquire the road width of the traveling road R on which the leading vehicle V is traveling.

対向車両情報取得部54は、自車両の先行車両に搭載された第一装置10において多重すれ違いの可能性があると判定された場合、自車両の先行車両の第一装置10から送信された対向車両情報を取得する。 When the oncoming vehicle information acquisition unit 54 determines that there is a possibility of multiple passing in the first device 10 mounted on the preceding vehicle of the own vehicle, the oncoming vehicle information acquisition unit 54 is transmitted from the first device 10 of the preceding vehicle of the own vehicle. Get vehicle information.

すれ違い判定部55は、多重すれ違いの可能性があるか否かを判定する。すれ違い判定部55は、第一判定部551と第二判定部552とを有する。 The passing determination unit 55 determines whether or not there is a possibility of multiple passing. The passing determination unit 55 includes a first determination unit 551 and a second determination unit 552.

第一判定部551は、自車両が先頭車両Vである場合に多重すれ違いの可能性を判定する。第一判定部551は、他車両情報に基づいて、先頭車両Vに後続車両VBが存在する状態において、対向車両VAと先頭車両Vとがすれ違う可能性があるか否かを判定する。本実施形態では、第一判定部551は、周辺状況認識部53の認識結果に基づいて、先頭車両Vに後続車両VBが存在する状態において、先頭車両Vが対向車両VAとすれ違う可能性があるか否かを判定する。より詳しくは、第一判定部551は、周辺状況認識部53の認識結果に基づいて、走行道路Rの道幅が閾値以下であり、先頭車両Vに後続車両VBが存在する状態において、対向車両VAが認識された場合、多重すれ違いの可能性があると判定する。道幅の閾値は、普通車2台分の車幅よりわずかに広い、例えば、3.8m程度とする。 The first determination unit 551 determines the possibility of multiple passing when the own vehicle is the leading vehicle V. Based on the other vehicle information, the first determination unit 551 determines whether or not there is a possibility that the oncoming vehicle VA and the leading vehicle V may pass each other in a state where the following vehicle VB exists in the leading vehicle V. In the present embodiment, the first determination unit 551 may pass the leading vehicle V with the oncoming vehicle VA in a state where the following vehicle VB exists in the leading vehicle V based on the recognition result of the surrounding situation recognition unit 53. Judge whether or not. More specifically, the first determination unit 551 determines that the oncoming vehicle VA is in a state where the road width of the traveling road R is equal to or less than the threshold value and the following vehicle VB exists in the leading vehicle V based on the recognition result of the surrounding situation recognition unit 53. If is recognized, it is determined that there is a possibility of multiple passing. The threshold value of the road width is set to be slightly wider than the width of two ordinary vehicles, for example, about 3.8 m.

第二判定部552は、自車両が先頭ではない場合、例えば、自車両が後続車両VBである場合に多重すれ違いの可能性を判定する。第二判定部552は、対向車両情報取得部54が先頭車両Vから対向車両情報を取得した場合、多重すれ違いの可能性があると判定する。本実施形態では、第二判定部552は、先頭車両Vの第一装置10から送信された対向車両情報を取得した場合、多重すれ違いの可能性があると判定する。 The second determination unit 552 determines the possibility of multiple passing when the own vehicle is not the head, for example, when the own vehicle is the following vehicle VB. When the oncoming vehicle information acquisition unit 54 acquires the oncoming vehicle information from the leading vehicle V, the second determination unit 552 determines that there is a possibility of multiple passing. In the present embodiment, the second determination unit 552 determines that there is a possibility of multiple passing each other when the oncoming vehicle information transmitted from the first device 10 of the leading vehicle V is acquired.

俯瞰映像生成部56は、先頭車両Vと走行道路Rとの相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成部としての機能を有する。本実施形態では、俯瞰映像生成部56は、映像データ取得部51で取得した周辺映像データに視点変換処理及び合成処理を行い、先頭車両Vから所定の表示範囲を表示する俯瞰映像100を、すれ違い情報として生成する。俯瞰映像生成部56は、生成した俯瞰映像100を第一送信制御部57、第二送信制御部58及び表示制御部59に出力する。俯瞰映像生成部56は、視点変換処理部561と、切出処理部562と、合成処理部563とを有する。 The bird's-eye view image generation unit 56 has a function as an information generation unit that generates passing information including information indicating a relative positional relationship between the leading vehicle V and the traveling road R. In the present embodiment, the bird's-eye view image generation unit 56 performs viewpoint conversion processing and composition processing on the peripheral image data acquired by the image data acquisition unit 51, and passes the bird's-eye view image 100 that displays a predetermined display range from the leading vehicle V. Generate as information. The bird's-eye view image generation unit 56 outputs the generated bird's-eye view image 100 to the first transmission control unit 57, the second transmission control unit 58, and the display control unit 59. The bird's-eye view image generation unit 56 includes a viewpoint conversion processing unit 561, a cutting processing unit 562, and a composition processing unit 563.

すれ違い情報は、先頭車両Vの車幅と、走行道路Rの道幅とを示す情報を含む。すれ違い情報は、走行道路Rに設置された電柱、標識及び側溝などの障害物を示す情報を含んでもよい。 The passing information includes information indicating the width of the leading vehicle V and the width of the traveling road R. The passing information may include information indicating obstacles such as utility poles, signs, and gutters installed on the road R.

視点変換処理部561は、映像データ取得部51で取得した周辺映像データに対して、先頭車両Vの上方から見下ろすように視点変換処理を行う。より詳しくは、視点変換処理部561は、前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とで撮影した周辺映像データに基づいて、視点変換処理を行った映像を生成する。視点変換処理の方法は、公知のいずれの方法でもよく、限定されない。視点変換処理部561は、視点変換処理を行った周辺映像データを切出処理部562に出力する。 The viewpoint conversion processing unit 561 performs the viewpoint conversion processing on the peripheral video data acquired by the video data acquisition unit 51 so as to look down from above the leading vehicle V. More specifically, the viewpoint conversion processing unit 561 is based on the peripheral image data captured by the front bird's-eye view image camera 11, the rear bird's-eye view image camera 12, the left bird's-eye view image camera 13, and the right bird's-eye view image camera 14. Generate the converted video. The method of the viewpoint conversion process may be any known method and is not limited. The viewpoint conversion processing unit 561 outputs the peripheral video data that has undergone the viewpoint conversion processing to the cutout processing unit 562.

切出処理部562は、視点変換処理を行った周辺映像データから所定の範囲の映像を切出す切出処理を行う。どの範囲を切出範囲とするかは、あらかじめ登録され記憶されている。本実施形態では、切出範囲は、先頭車両Vが3.8m程度の道路を走行しているときに、道幅を確認可能な範囲である。切出範囲は、例えば、先頭車両Vから2m程度の範囲を含む。切出処理部562は、切出処理を行った映像の映像データを合成処理部563に出力する。 The cutout processing unit 562 performs a cutout process for cutting out a predetermined range of video from the peripheral video data that has undergone the viewpoint conversion process. Which range is to be the cutout range is registered and stored in advance. In the present embodiment, the cutting range is a range in which the road width can be confirmed when the leading vehicle V is traveling on a road of about 3.8 m. The cutting range includes, for example, a range of about 2 m from the leading vehicle V. The cutout processing unit 562 outputs the video data of the cutout processed video to the synthesis processing unit 563.

合成処理部563は、切出処理を行った映像データを合成する合成処理を行う。合成処理部563は、合成した映像に車両アイコン110を表示した俯瞰映像100を生成する。 The compositing processing unit 563 performs a compositing process for synthesizing the cutout processed video data. The compositing processing unit 563 generates a bird's-eye view video 100 in which the vehicle icon 110 is displayed on the composited video.

図4を用いて、俯瞰映像100について説明する。図4は、第一実施形態に係る第一装置10で生成した俯瞰映像100の一例を示す図である。俯瞰映像100は、先頭車両Vから2m程度の範囲を表示する。これにより、俯瞰映像100には、先頭車両Vが道幅3.8m以下の狭い路地を走行している場合、走行道路Rの境界に設置された、塀F1、塀F2または側溝などが表示される。俯瞰映像100は、中央部に位置する車両アイコン110を含む。車両アイコン110は、先頭車両Vの車幅と走行道路Rの道幅との相対的な関係と、先頭車両Vの位置と向きとを示す。車両アイコン110は、前後方向を俯瞰映像100の前後方向と平行にして、中央部に配置されている。 The bird's-eye view image 100 will be described with reference to FIG. FIG. 4 is a diagram showing an example of a bird's-eye view image 100 generated by the first apparatus 10 according to the first embodiment. The bird's-eye view image 100 displays a range of about 2 m from the leading vehicle V. As a result, when the leading vehicle V is traveling in a narrow alley with a road width of 3.8 m or less, the bird's-eye view image 100 displays a fence F1, a fence F2, a gutter, etc. installed at the boundary of the road R. .. The bird's-eye view image 100 includes a vehicle icon 110 located at the center. The vehicle icon 110 indicates the relative relationship between the vehicle width of the leading vehicle V and the road width of the traveling road R, and the position and orientation of the leading vehicle V. The vehicle icon 110 is arranged in the central portion so that the front-rear direction is parallel to the front-rear direction of the bird's-eye view image 100.

第一送信制御部57は、すれ違いの相手車両である対向車両VAに、すれ違いの判断を支援する情報であるすれ違い情報を送信する。本実施形態では、第一送信制御部57は、周辺状況認識部53の認識結果に基づいて、俯瞰映像生成部56が生成した俯瞰映像100を、認識した他車両識別情報に対応する対向車両VAに搭載された第二装置80へ送信する。 The first transmission control unit 57 transmits the passing information, which is the information supporting the judgment of the passing, to the oncoming vehicle VA, which is the partner vehicle of the passing. In the present embodiment, the first transmission control unit 57 recognizes the bird's-eye view image 100 generated by the bird's-eye view image generation unit 56 based on the recognition result of the surrounding situation recognition unit 53, and the oncoming vehicle VA corresponding to the other vehicle identification information recognized. It transmits to the second device 80 mounted on the.

第二送信制御部58は、対向車両VAと先頭車両Vとがすれ違う可能性があることを示す対向車両情報を後続車両VBへ送信する。第二送信制御部58は、後続車両VBに、すれ違いの相手車両である対向車両VAが存在することを示す対向車両情報を送信する。本実施形態では、第二送信制御部58は、周辺状況認識部53の認識結果に基づいて、対向車両情報を、認識した他車両識別情報に対応する後続車両VB及び後続車両VBに搭載された第一装置10、第一装置10へ送信する。 The second transmission control unit 58 transmits oncoming vehicle information indicating that the oncoming vehicle VA and the leading vehicle V may pass each other to the following vehicle VB. The second transmission control unit 58 transmits oncoming vehicle information indicating that an oncoming vehicle VA, which is an oncoming vehicle passing by, exists in the following vehicle VB. In the present embodiment, the second transmission control unit 58 mounts oncoming vehicle information on the following vehicle VB 1 and the following vehicle VB 2 corresponding to the recognized other vehicle identification information based on the recognition result of the surrounding situation recognition unit 53. the first device 10 2 is, transmitted to the first device 10 3.

本実施形態では、対向車両情報は、俯瞰映像生成部56が生成した俯瞰映像100と、周辺状況認識部53の認識結果に含まれる、対向車両VAと先頭車両Vとの相対的な位置関係を示す情報とを含む。対向車両情は、後続車両VBに対して、車間距離をつめないように依頼する情報、例えば「車間距離をつめず、その位置で待機してください」といった文字情報を含んでもよい。対向車両情報は、対向車両VAを示す他車両識別情報を含む。 In the present embodiment, the oncoming vehicle information is the relative positional relationship between the oncoming vehicle VA and the leading vehicle V included in the recognition result of the bird's-eye view image 100 generated by the bird's-eye view image generation unit 56 and the surrounding situation recognition unit 53. Includes information to indicate. The oncoming vehicle information may include information requesting the following vehicle VB not to close the inter-vehicle distance, for example, textual information such as "Please do not close the inter-vehicle distance and wait at that position". The oncoming vehicle information includes other vehicle identification information indicating the oncoming vehicle VA.

表示制御部59は、すれ違い情報を表示部41に表示させる。本実施形態では、表示制御部59は、俯瞰映像生成部56が生成した俯瞰映像100を表示部41に表示させる。表示制御部59によって、俯瞰映像生成部56が生成した俯瞰映像100が表示される際に、図示しないスピーカなどを介して、多重すれ違いの可能性があることと、俯瞰映像100を表示していることを音声によって報知することが好ましい。 The display control unit 59 causes the display unit 41 to display the passing information. In the present embodiment, the display control unit 59 causes the display unit 41 to display the bird's-eye view image 100 generated by the bird's-eye view image generation unit 56. When the bird's-eye view image 100 generated by the bird's-eye view image generation unit 56 is displayed by the display control unit 59, there is a possibility of multiple passing through a speaker (not shown) or the like, and the bird's-eye view image 100 is displayed. It is preferable to notify this by voice.

表示制御部59は、対向車両情報取得部54が対向車両情報を取得した場合、対向車両情報を表示部41に表示させてもよい。表示制御部59によって、対向車両情報が表示される際に、図示しないスピーカなどを介して、多重すれ違いの可能性があることと、俯瞰映像100を表示していることを音声によって報知することが好ましい。 When the oncoming vehicle information acquisition unit 54 acquires the oncoming vehicle information, the display control unit 59 may display the oncoming vehicle information on the display unit 41. When the oncoming vehicle information is displayed by the display control unit 59, it is possible to notify by voice that there is a possibility of multiple passing and that the bird's-eye view image 100 is being displayed via a speaker (not shown) or the like. preferable.

<第二装置>
第二装置80は、対向車両VAに載置されているものに加えて、可搬型で対向車両VAにおいて利用可能な装置であってもよい。第二装置80は、インターフェース部81と、表示部82と、制御部90とを有する。
<Second device>
The second device 80 may be a portable device that can be used in the oncoming vehicle VA, in addition to the device mounted on the oncoming vehicle VA. The second device 80 includes an interface unit 81, a display unit 82, and a control unit 90.

インターフェース部81は、第一装置10との間で、情報を送受信するためのインターフェースである。インターフェース部81は、例えば、Wi−Fiまたは電話等の通信回線などに接続し、第一装置10から生成した俯瞰映像100を受信する。 The interface unit 81 is an interface for transmitting and receiving information to and from the first device 10. The interface unit 81 connects to, for example, a communication line such as Wi-Fi or a telephone, and receives the bird's-eye view image 100 generated from the first device 10.

表示部82は、一例としてはナビゲーションシステムを含む他のシステムと共用した表示装置などである。表示部82は、制御部90の表示制御部99から出力された映像信号に基づき、複数の第一装置10から受信した俯瞰映像100から生成した合成俯瞰映像200を表示する。 As an example, the display unit 82 is a display device shared with other systems including a navigation system. The display unit 82 displays the composite bird's-eye view image 200 generated from the bird's-eye view image 100 received from the plurality of first devices 10 based on the video signal output from the display control unit 99 of the control unit 90.

制御部90は、例えば、CPUまたは映像処理用プロセッサなどで構成された演算処理装置(制御部)である。制御部90は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部90は、すれ違い情報取得部91と、合成判定部92と、合成処理部93と、表示制御部99と、内部メモリである図示しない記憶部とが含まれる。制御部90は、一または複数の装置で構成されていてもよい。 The control unit 90 is an arithmetic processing unit (control unit) composed of, for example, a CPU or a video processing processor. The control unit 90 loads a program stored in a storage unit (not shown) into the memory and executes an instruction included in the program. The control unit 90 includes a passing information acquisition unit 91, a synthesis determination unit 92, a synthesis processing unit 93, a display control unit 99, and a storage unit (not shown) which is an internal memory. The control unit 90 may be composed of one or a plurality of devices.

すれ違い情報取得部91は、すれ違いの相手車両から、すれ違い情報を取得する。より詳しくは、すれ違い情報取得部91は、周辺に位置する他車両から、他車両と、他車両が走行している走行道路Rとの相対的な位置関係を示す情報を含むすれ違い情報を取得する。本実施形態では、すれ違い情報取得部91は、先頭車両Vの第一装置10、後続車両VBの第一装置10、及び、後続車両VBの第一装置10から、すれ違い情報として俯瞰映像100をそれぞれ取得する。すれ違い情報取得部91は、取得した俯瞰映像100を合成判定部92及び合成処理部93に出力する。 The passing information acquisition unit 91 acquires the passing information from the passing partner vehicle. More specifically, the passing information acquisition unit 91 acquires passing information from other vehicles located in the vicinity, including information indicating the relative positional relationship between the other vehicle and the traveling road R on which the other vehicle is traveling. .. In this embodiment, passing information acquisition unit 91, first device 10 1 of the leading vehicle V, the first device 10 and second following vehicle VB 1, and, from the first device 103 of the following vehicle VB 2, as passing information Each of the bird's-eye view images 100 is acquired. The passing information acquisition unit 91 outputs the acquired bird's-eye view image 100 to the composition determination unit 92 and the composition processing unit 93.

合成判定部92は、すれ違い情報取得部91が複数の他車両からすれ違い情報を取得した場合、すれ違い情報を合成すると判定する。本実施形態では、合成判定部92は、すれ違い情報取得部91が先頭車両Vと、先頭車両Vの後続車両VBからすれ違い情報として俯瞰映像100を取得した場合、すれ違い情報である俯瞰映像100を合成すると判定する。 When the passing information acquisition unit 91 acquires the passing information from a plurality of other vehicles, the synthesis determination unit 92 determines that the passing information is combined. In the present embodiment, when the passing information acquisition unit 91 acquires the bird's-eye view image 100 as the passing information from the leading vehicle V and the following vehicle VB of the leading vehicle V, the composite determination unit 92 synthesizes the bird's-eye view image 100 which is the passing information. Then it is determined.

合成処理部93は、すれ違い情報を合成して合成情報を生成する。本実施形態では、合成処理部93は、各車両から取得した俯瞰映像100を合成して、合成情報として合成俯瞰映像200を生成する。例えば、合成処理部93は、俯瞰映像100に映りこんだ前後の車両を基準にして、複数の俯瞰映像100を合成してもよい。例えば、合成処理部93は、俯瞰映像100に映りこんだ走行道路Rの特徴点を基準にして、複数の俯瞰映像100を合成してもよい。例えば、合成処理部93は、俯瞰映像100に映りこんだ縁石や看板などの撮影物を基準にして、複数の俯瞰映像100を合成してもよい。 The synthesis processing unit 93 synthesizes the passing information to generate the synthesis information. In the present embodiment, the synthesis processing unit 93 synthesizes the bird's-eye view video 100 acquired from each vehicle and generates the composite bird's-eye view video 200 as the composite information. For example, the compositing processing unit 93 may synthesize a plurality of bird's-eye view images 100 with reference to the vehicles before and after reflected in the bird's-eye view image 100. For example, the composition processing unit 93 may synthesize a plurality of bird's-eye view images 100 based on the feature points of the traveling road R reflected in the bird's-eye view image 100. For example, the compositing processing unit 93 may synthesize a plurality of bird's-eye view images 100 based on a photographed object such as a curb or a signboard reflected in the bird's-eye view image 100.

図5を用いて、合成俯瞰映像200について説明する。図5は、第一実施形態に係る第二装置80が生成した合成俯瞰映像200の一例を示す図である。合成俯瞰映像200は、先頭車両Vから取得した俯瞰映像100、後続車両VBから取得した俯瞰映像100及び後続車両VBから取得した俯瞰映像100を合成した映像である。俯瞰映像100と俯瞰映像100と俯瞰映像100とは、車線を基準にして合成されている。俯瞰映像100と俯瞰映像100とは、俯瞰映像100に映りこんだ後続車両VBと、俯瞰映像100に映りこんだ先頭車両Vとを基準にして、合成されている。俯瞰映像100と俯瞰映像100とは、俯瞰映像100に映りこんだ後続車両VBと、俯瞰映像100に映りこんだ後続車両VBとを基準にして、合成されている。合成俯瞰映像200は、先頭車両Vを示す車両アイコン110、後続車両VBを示す車両アイコン110B、後続車両VBを示す車両アイコン110Bを含む。車両アイコン110、車両アイコン110B及び車両アイコン110Bは、前後方向を合成俯瞰映像200の前後方向と平行にして、中央部に配置されている。 The composite bird's-eye view image 200 will be described with reference to FIG. FIG. 5 is a diagram showing an example of a composite bird's-eye view image 200 generated by the second apparatus 80 according to the first embodiment. The composite bird's-eye view image 200 is an image obtained by synthesizing the bird's-eye view image 100 1 acquired from the leading vehicle V, the bird's-eye view image 100 2 acquired from the following vehicle VB 1 , and the bird's-eye view image 100 3 acquired from the following vehicle VB 2 . The bird's-eye view image 100 1 and the bird's-eye view image 100 2 and the bird's-eye view image 100 3 are combined with respect to the lane. Overhead image 100 1 and the bird's-eye view image 100 2 has a following vehicle VB 1 that reflected on the overhead image 100 1, based on the leading vehicle V that reflected on the overhead image 100 2, have been synthesized. A bird's-eye view image 100 2 and bird's-eye view image 100 3, the following vehicle VB 2 that reflected on the overhead image 100 2, based on the following vehicle VB 1 that reflected on the overhead image 100 3, have been synthesized. Synthesis overhead image 200 includes leading vehicle icon 110 1 of a vehicle V, the vehicle icon 110B 1 showing a following vehicle VB 1, a vehicle icon 110B 2 showing the following vehicle VB 2. The vehicle icon 110 1 , the vehicle icon 110B 1, and the vehicle icon 110B 2 are arranged in the central portion so that the front-rear direction is parallel to the front-rear direction of the composite bird's-eye view image 200.

表示制御部99は、合成処理部93が合成した合成情報を表示部82に表示させる。本実施形態では、表示制御部99は、合成処理部93が合成した合成俯瞰映像200を表示部82に表示させる。表示制御部99によって、合成俯瞰映像200が表示される際に、図示しないスピーカなどを介して、多重すれ違いの可能性があることと、合成俯瞰映像200を表示していることを音声によって報知することが好ましい。 The display control unit 99 causes the display unit 82 to display the composite information synthesized by the synthesis processing unit 93. In the present embodiment, the display control unit 99 causes the display unit 82 to display the composite bird's-eye view image 200 synthesized by the synthesis processing unit 93. When the composite bird's-eye view image 200 is displayed by the display control unit 99, it is notified by voice that there is a possibility of multiple passing through a speaker (not shown) and that the composite bird's-eye view image 200 is being displayed. Is preferable.

<第一装置における情報処理>
次に、図6を用いて、先頭車両Vの第一装置10の制御部50における処理の流れについて説明する。図6は、第一実施形態に係る第一装置10において、先頭車両Vでの処理の流れの一例を示すフローチャートである。
<Information processing in the first device>
Next, with reference to FIG. 6, a description is given of the flow of processing in the first device 10 1 of the control unit 50 of the leading vehicle V. 6, the first device 10 1 according to the first embodiment, is a flowchart illustrating an example of processing flow at the leading vehicle V.

運転支援システム1が起動されると、第一装置10の前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とが先頭車両Vの周辺を撮影する。第一装置10の制御部50は、映像データ取得部51によって周辺映像データを取得して、周辺状況認識部53によって先頭車両Vの周辺の状況を認識する。制御部50は、車両情報取得部52によって車両情報を取得する。 When the driving support system 1 is activated, and surrounding the first device 10 1 of the front bird's-eye-view video camera 11 and the rear bird's-eye-view video camera 12 and the left bird's-eye-view video camera 13 and the right bird's-eye-view video camera 14 of the leading vehicle V To shoot. First device 10 1 of the control unit 50 obtains the peripheral image data by the image data acquiring unit 51 recognizes the situation around the lead vehicle V by the peripheral situation recognition unit 53. The control unit 50 acquires vehicle information by the vehicle information acquisition unit 52.

制御部50は、すれ違い判定部55によって、走行道路Rの道幅が狭いか否かを判定する(ステップS101)。より詳しくは、すれ違い判定部55によって、周辺状況認識部53の認識結果に基づいて、走行道路Rの道幅が閾値以下であるか否かを判定する。すれ違い判定部55によって、走行道路Rの道幅が閾値以下であると判定する場合(ステップS101でYes)、ステップS102へ進む。すれ違い判定部55によって、走行道路Rの道幅が閾値以下であると判定しない場合(ステップS101でNo)、ステップS101の処理を再度実行する。 The control unit 50 determines whether or not the road width of the traveling road R is narrow by the passing determination unit 55 (step S101). More specifically, the passing determination unit 55 determines whether or not the road width of the traveling road R is equal to or less than the threshold value based on the recognition result of the surrounding situational awareness unit 53. When the passing determination unit 55 determines that the road width of the traveling road R is equal to or less than the threshold value (Yes in step S101), the process proceeds to step S102. When the passing determination unit 55 does not determine that the road width of the traveling road R is equal to or less than the threshold value (No in step S101), the process of step S101 is executed again.

走行道路Rの道幅が閾値以下であると判定する場合(ステップS101でYes)、制御部50は、すれ違い判定部55によって、先頭車両Vに後続車両VBが存在するか否かを判定する(ステップS102)。より詳しくは、すれ違い判定部55によって、周辺状況認識部53の認識結果に基づいて、先頭車両Vの後方に位置する後続車両VBが認識された場合(ステップS102でYes)、ステップS103へ進む。すれ違い判定部55によって、周辺状況認識部53の認識結果に基づいて、先頭車両Vの後方に位置する後続車両VBが認識されない場合(ステップS102でNo)、ステップS101の処理を再度実行する。 When it is determined that the road width of the traveling road R is equal to or less than the threshold value (Yes in step S101), the control unit 50 determines whether or not the following vehicle VB exists in the leading vehicle V by the passing determination unit 55 (step). S102). More specifically, when the passing vehicle VB located behind the leading vehicle V is recognized by the passing determination unit 55 based on the recognition result of the surrounding situation recognition unit 53 (Yes in step S102), the process proceeds to step S103. If the passing vehicle VB located behind the leading vehicle V is not recognized by the passing determination unit 55 based on the recognition result of the surrounding situation recognition unit 53 (No in step S102), the process of step S101 is executed again.

先頭車両Vの後方に位置する後続車両VBが認識された場合(ステップS102でYes)、制御部50は、すれ違い判定部55によって、すれ違いの可能性がある対向車両VAの有無を判定する(ステップS103)。より詳しくは、すれ違い判定部55によって、周辺状況認識部53の認識結果に基づいて、走行道路Rの前方に位置する対向車両VAが認識された場合(ステップS103でYes)、多重すれ違いの可能性があると判定して、ステップS104へ進む。すれ違い判定部55によって、周辺状況認識部53の認識結果に基づいて、走行道路Rの前方に位置する対向車両VAが認識されない場合(ステップS103でNo)、ステップS101の処理を再度実行する。 When the following vehicle VB located behind the leading vehicle V is recognized (Yes in step S102), the control unit 50 determines by the passing determination unit 55 whether or not there is an oncoming vehicle VA that may pass each other (step). S103). More specifically, when the passing vehicle VA located in front of the driving road R is recognized by the passing determination unit 55 based on the recognition result of the surrounding situation recognition unit 53 (Yes in step S103), there is a possibility of multiple passing. It is determined that there is, and the process proceeds to step S104. When the oncoming vehicle VA located in front of the traveling road R is not recognized by the passing determination unit 55 based on the recognition result of the surrounding situation recognition unit 53 (No in step S103), the process of step S101 is executed again.

多重すれ違いの可能性があると判定された場合(ステップS103でYes)、制御部50は、俯瞰映像生成部56によって、先頭車両Vの俯瞰映像100を生成する(ステップS104)。制御部50は、ステップS105へ進む。 When it is determined that there is a possibility of multiple passing (Yes in step S103), the control unit 50 generates the bird's-eye view image 100 1 of the leading vehicle V by the bird's-eye view image generation unit 56 (step S104). The control unit 50 proceeds to step S105.

制御部50は、第一送信制御部57によって、すれ違い情報として俯瞰映像100を対向車両VAの第二装置80へ送信する(ステップS105)。制御部50は、ステップS106へ進む。 The control unit 50 transmits the bird's-eye view image 100 1 as passing information to the second device 80 of the oncoming vehicle VA by the first transmission control unit 57 (step S105). The control unit 50 proceeds to step S106.

制御部50は、第二送信制御部58によって、俯瞰映像100と、対向車両VAと先頭車両Vとの相対的な位置関係を示す情報を含む対向車両情報を後続車両VBの第一装置10へ送信する(ステップS106)。制御部50は、ステップS107へ進む。 The control unit 50 uses the second transmission control unit 58 to provide the oncoming vehicle information including the bird's-eye view image 100 1 and the information indicating the relative positional relationship between the oncoming vehicle VA and the leading vehicle V as the first device 10 of the following vehicle VB. It is transmitted to 2 (step S106). The control unit 50 proceeds to step S107.

制御部50は、表示制御部59によって、俯瞰映像100を表示部41に表示させる(ステップS107)。制御部50は、スピーカを介して、多重すれ違いの可能性があることと、俯瞰映像100を表示していることを音声によって報知する。先頭車両Vの運転者は、表示部41に表示された俯瞰映像100を確認する。そして、先頭車両Vの運転者は、対向車両VAとすれ違いを行う場合、俯瞰映像100から先頭車両Vの周辺の道幅及び障害物などを確認して、すれ違いポイントを判断する。制御部50は、ステップS108へ進む。 The control unit 50 causes the display control unit 59 to display the bird's-eye view image 100 1 on the display unit 41 (step S107). The control unit 50 notifies by voice that there is a possibility of multiple passing and that the bird's-eye view image 100 1 is being displayed via the speaker. The driver of the leading vehicle V confirms the bird's-eye view image 100 1 displayed on the display unit 41. Then, the driver of the leading vehicle V, when performing oncoming vehicle VA and passing, to check the road width and the obstacle near the leading vehicle V from bird's-eye view image 100 1, it is determined passing point. The control unit 50 proceeds to step S108.

制御部50は、俯瞰映像表示を終了するか否かを判定する(ステップS108)。より詳しくは、制御部50は、周辺状況認識部53の認識結果に基づいて、対向車両VAが認識されなくなった場合、俯瞰映像表示を終了すると判定して(ステップS108でYes)、処理を終了する。例えば、先頭車両Vが対向車両VAを通り過ぎた場合、または、対向車両VAの運転者が第二装置80に表示された俯瞰映像100を確認して、すれ違いを断念して迂回した場合などには、対向車両VAが認識されなくなる。制御部50は、周辺状況認識部53の認識結果に基づいて、対向車両VAが認識されている場合、俯瞰映像表示を終了しないと判定して(ステップS108でNo)、ステップS104の処理を再度実行する。 The control unit 50 determines whether or not to end the bird's-eye view video display (step S108). More specifically, the control unit 50 determines that the bird's-eye view image display is terminated when the oncoming vehicle VA is no longer recognized based on the recognition result of the surrounding situation recognition unit 53 (Yes in step S108), and ends the process. To do. For example, when the leading vehicle V has passed the oncoming vehicle VA, or when the driver of the oncoming vehicle VA confirms the bird's-eye view image 100 1 displayed on the second device 80 and abandons the passing and detours. Will not recognize the oncoming vehicle VA. Based on the recognition result of the surrounding situation recognition unit 53, the control unit 50 determines that the bird's-eye view image display is not terminated when the oncoming vehicle VA is recognized (No in step S108), and repeats the process of step S104. Execute.

図7を用いて、後続車両VBの第一装置10の制御部50における処理の流れについて説明する。図7は、第一実施形態に係る第一装置10において、後続車両VBでの処理の流れの一例を示すフローチャートである。ここでは、後続車両VBが後続車両VBである場合について説明する。後続車両VBに搭載された第一装置10は、先頭車両Vに搭載された第一装置10から、対向車両VAと先頭車両Vとがすれ違う可能性があることを示す対向車両情報を取得した場合、対向車両VAに搭載された第二装置80に対して、後続車両VBのすれ違い情報として俯瞰映像100を送信する。後続車両VBに搭載された第一装置10でも同様の処理が行われて、後続車両VBのすれ違い情報として俯瞰映像100を送信する。 With reference to FIG. 7, a description is given of the flow of processing in the first device 10 and second control unit 50 of the following vehicle VB 1. Figure 7 is the first device 10 2 according to the first embodiment, is a flowchart illustrating an example of a process flow in the following vehicles VB 1. Here, the case where the following vehicle VB is the following vehicle VB 1 will be described. The first device 10 2 mounted on the following vehicle VB 1 from the first device 10 1 mounted on the head car V, the oncoming vehicle information indicating that the oncoming vehicle VA and leading vehicle V is likely to pass by When acquired, the bird's-eye view image 100 2 is transmitted to the second device 80 mounted on the oncoming vehicle VA as the passing information of the following vehicle VB 1. First device 103 also being performed the same processing that is mounted on the following vehicle VB 2, and transmits the overhead image 100 3 as passing information for the following vehicle VB 2.

制御部50は、すれ違い判定部55によって、周辺状況認識部53が他車両情報を取得したか否かを判定する(ステップS201)。すれ違い判定部55によって、周辺状況認識部53が他車両情報を取得したと判定する場合(ステップS201でYes)、ステップS202へ進む。すれ違い判定部55によって、周辺状況認識部53が他車両情報を取得したと判定しない場合(ステップS201でNo)、ステップS201の処理を再度実行する。 The control unit 50 determines whether or not the surrounding situational awareness unit 53 has acquired other vehicle information by the passing determination unit 55 (step S201). When the passing determination unit 55 determines that the surrounding situational awareness unit 53 has acquired other vehicle information (Yes in step S201), the process proceeds to step S202. If the passing determination unit 55 does not determine that the surrounding situational awareness unit 53 has acquired other vehicle information (No in step S201), the process of step S201 is executed again.

周辺状況認識部53が他車両情報を取得したと判定された場合(ステップS201でYes)、制御部50は、俯瞰映像生成部56によって、後続車両VBの俯瞰映像100を生成する(ステップS202)。制御部50は、ステップS203へ進む。 When it is determined that the surrounding situation recognition unit 53 has acquired other vehicle information (Yes in step S201), the control unit 50 generates the bird's-eye view image 100 2 of the following vehicle VB 1 by the bird's-eye view image generation unit 56 (step). S202). The control unit 50 proceeds to step S203.

制御部50は、第一送信制御部57によって、すれ違い情報として、後続車両VBの俯瞰映像100を対向車両VAの第二装置80へ送信する(ステップS203)。制御部50は、ステップS204へ進む。 The control unit 50 transmits the bird's-eye view image 100 2 of the following vehicle VB 1 to the second device 80 of the oncoming vehicle VA as passing information by the first transmission control unit 57 (step S203). The control unit 50 proceeds to step S204.

制御部50は、後続車両VBが存在するか否かを判定する(ステップS204)。より詳しくは、制御部50は、周辺状況認識部53の認識結果に基づいて、後続車両VBの後方に位置する後続車両VBが認識された場合(ステップS204でYes)、ステップS205へ進む。制御部50は、周辺状況認識部53の認識結果に基づいて、後続車両VBが認識されない場合(ステップS204でNo)、ステップS206へ進む。 The control unit 50 determines whether or not the following vehicle VB 2 exists (step S204). More specifically, the control unit 50 proceeds to step S205 when the following vehicle VB 2 located behind the following vehicle VB 1 is recognized based on the recognition result of the surrounding situation recognition unit 53 (Yes in step S204). .. The control unit 50 proceeds to step S206 when the following vehicle VB 2 is not recognized (No in step S204) based on the recognition result of the surrounding situation recognition unit 53.

後続車両VBの後方に位置する後続車両VBが認識された場合(ステップS204でYes)、制御部50は、第二送信制御部58によって、後続車両VBの俯瞰映像100と対向車両情報とを、後続車両VBの後続車両VBの第一装置10へ送信する(ステップS205)。制御部50は、ステップS206へ進む。 When the following vehicle VB 2 located behind the following vehicle VB 1 is recognized (Yes in step S204), the control unit 50 receives the bird's-eye view image 100 2 of the following vehicle VB 1 and the oncoming vehicle by the second transmission control unit 58. and information is transmitted to the first device 10 and second following vehicle VB 2 of the following vehicle VB 1 (step S205). The control unit 50 proceeds to step S206.

制御部50は、表示制御部59によって、後続車両VBの俯瞰映像100を表示部41に表示させる(ステップS206)。制御部50は、スピーカを介して、多重すれ違いの可能性があることと、俯瞰映像100を表示していることを音声によって報知する。後続車両VBの運転者は、表示部41に表示された俯瞰映像100を確認する。そして、後続車両VBの運転者は、対向車両VAとすれ違いを行う場合、俯瞰映像100から後続車両VBの周辺の道幅及び障害物などを確認して、すれ違いポイントを判断する。制御部50は、ステップS207へ進む。 The control unit 50 causes the display control unit 59 to display the bird's-eye view image 100 2 of the following vehicle VB 1 on the display unit 41 (step S206). The control unit 50 notifies by voice that there is a possibility of multiple passing and that the bird's-eye view image 100 2 is being displayed via the speaker. The driver of the following vehicle VB 1 confirms the bird's-eye view image 100 2 displayed on the display unit 41. Then, when the driver of the following vehicle VB 1 passes by the oncoming vehicle VA, the driver confirms the road width and obstacles around the following vehicle VB 1 from the bird's-eye view image 100 2 and determines the passing point. The control unit 50 proceeds to step S207.

制御部50は、俯瞰映像表示を終了するか否かを判定する(ステップS207)。より詳しくは、制御部50は、周辺状況認識部53の認識結果に基づいて、対向車両VAが認識されなくなった場合、俯瞰映像表示を終了すると判定して(ステップS207でYes)、処理を終了する。例えば、後続車両VBが対向車両VAを通り過ぎた場合、または、対向車両VAの運転者が第二装置80に表示された俯瞰映像100を確認して、すれ違いを断念して迂回した場合などには、対向車両VAが認識されなくなる。制御部50は、周辺状況認識部53の認識結果に基づいて、対向車両VAが認識されている場合、俯瞰映像表示を終了しないと判定して(ステップS207でNo)、ステップS202の処理を再度実行する。 The control unit 50 determines whether or not to end the bird's-eye view video display (step S207). More specifically, the control unit 50 determines that the bird's-eye view image display is terminated when the oncoming vehicle VA is no longer recognized based on the recognition result of the surrounding situation recognition unit 53 (Yes in step S207), and ends the process. To do. For example, when the following vehicle VB 1 has passed the oncoming vehicle VA, or when the driver of the oncoming vehicle VA confirms the bird's-eye view image 100 2 displayed on the second device 80 and abandons the passing and detours. Will not recognize the oncoming vehicle VA. Based on the recognition result of the surrounding situation recognition unit 53, the control unit 50 determines that the bird's-eye view image display is not terminated when the oncoming vehicle VA is recognized (No in step S207), and repeats the process of step S202. Execute.

<第二装置における情報処理>
次に、図8を用いて、第二装置80の制御部90における処理の流れについて説明する。図8は、第一実施形態に係る第二装置80における処理の流れの一例を示すフローチャートである。
<Information processing in the second device>
Next, the flow of processing in the control unit 90 of the second device 80 will be described with reference to FIG. FIG. 8 is a flowchart showing an example of a processing flow in the second apparatus 80 according to the first embodiment.

制御部90は、すれ違い情報取得部91によって、すれ違い情報を取得する(ステップS301)。本実施形態では、すれ違い情報取得部91によって、先頭車両Vの第一装置10、後続車両VBの第一装置10及び後続車両VBの第一装置10から、すれ違い情報として俯瞰映像100、俯瞰映像100及び俯瞰映像100をそれぞれ取得する。制御部90は、ステップS302へ進む。 The control unit 90 acquires the passing information by the passing information acquisition unit 91 (step S301). In the present embodiment, by passing information acquiring unit 91, from the leading vehicle first device 10 1 and V, the first device 10 2 and the first device 103 of the following vehicle VB 2 of the following vehicle VB 1, the overhead image as passing information 100 1 , bird's-eye view image 100 2, and bird's-eye view image 100 3 are acquired, respectively. The control unit 90 proceeds to step S302.

制御部90は、合成判定部92によって、複数のすれ違い情報としての俯瞰映像100を取得したか否かを判定する(ステップS302)。本実施形態では、合成判定部92によって、すれ違い情報取得部91が複数の他車両から俯瞰映像100を取得したと判定する場合(ステップS302でYes)、ステップS303へ進む。合成判定部92によって、すれ違い情報取得部91が複数の他車両から俯瞰映像100を取得したと判定しない場合(ステップS302でNo)、ステップS305へ進む。 The control unit 90 determines whether or not the composite determination unit 92 has acquired the bird's-eye view video 100 as a plurality of passing information (step S302). In the present embodiment, when the synthesis determination unit 92 determines that the passing information acquisition unit 91 has acquired the bird's-eye view image 100 from a plurality of other vehicles (Yes in step S302), the process proceeds to step S303. If the synthesis determination unit 92 does not determine that the passing information acquisition unit 91 has acquired the bird's-eye view image 100 from a plurality of other vehicles (No in step S302), the process proceeds to step S305.

複数のすれ違い情報としての俯瞰映像100を取得したと判定する場合(ステップS302でYes)、制御部90は、合成処理部93によって、各車両から取得した俯瞰映像100を合成して合成俯瞰映像200を生成する(ステップS303)。本実施形態では、合成処理部93によって、俯瞰映像100、俯瞰映像100及び俯瞰映像100を合成して合成俯瞰映像200を生成する。制御部90は、ステップS304へ進む。 When it is determined that the bird's-eye view video 100 as a plurality of passing information has been acquired (Yes in step S302), the control unit 90 synthesizes the bird's-eye view video 100 acquired from each vehicle by the synthesis processing unit 93 and synthesizes the bird's-eye view video 200. Is generated (step S303). In the present embodiment, the composition processing unit 93 synthesizes the bird's-eye view image 100 1 , the bird's-eye view image 100 2 and the bird's-eye view image 100 3 to generate the composite bird's-eye view image 200. The control unit 90 proceeds to step S304.

制御部90は、表示制御部99によって、合成した合成俯瞰映像200を表示部82に表示させる(ステップS304)。制御部90は、ステップS306へ進む。 The control unit 90 causes the display control unit 99 to display the combined bird's-eye view image 200 on the display unit 82 (step S304). The control unit 90 proceeds to step S306.

すれ違い情報取得部91が複数の他車両から俯瞰映像100を取得したと判定しない場合(ステップS302でNo)、制御部90は、表示制御部99によって、俯瞰映像100を表示部82に表示させる(ステップS305)。制御部90は、ステップS306へ進む。 When the passing information acquisition unit 91 does not determine that the bird's-eye view image 100 has been acquired from a plurality of other vehicles (No in step S302), the control unit 90 causes the display control unit 99 to display the bird's-eye view image 100 on the display unit 82 (No). Step S305). The control unit 90 proceeds to step S306.

制御部90は、俯瞰映像表示を終了するか否かを判定する(ステップS306)。より詳しくは、制御部90は、すれ違い情報取得部91がすれ違い情報を所定期間以上、取得していない場合、俯瞰映像表示を終了すると判定して(ステップS306でYes)、処理を終了する。制御部90は、すれ違い情報取得部91がすれ違い情報を取得している場合、俯瞰映像表示を終了しないと判定して(ステップS306でNo)、ステップS301の処理を再度実行する。 The control unit 90 determines whether or not to end the bird's-eye view video display (step S306). More specifically, if the passing information acquisition unit 91 has not acquired the passing information for a predetermined period or more, the control unit 90 determines that the bird's-eye view video display is finished (Yes in step S306), and ends the process. When the passing information acquisition unit 91 has acquired the passing information, the control unit 90 determines that the bird's-eye view image display is not finished (No in step S306), and executes the process of step S301 again.

<効果>
上述したように、本実施形態によれば、多重すれ違いの可能性がある場合、先頭車両Vに搭載された第一装置10は、すれ違い情報として、生成した俯瞰映像100を、対向車両VAに搭載された第二装置80へ送信する。先頭車両Vに搭載された第一装置10は、先頭車両Vの後続車両VBに搭載された第一装置10へ、対向車両VAが存在することを示す他車両情報を送信する。先頭車両Vの運転者は、俯瞰映像100を確認して、すれ違いポイントを判断することができる。
<Effect>
As described above, according to the present embodiment, when there is a possibility of multiple passing, the first device 10 mounted on the leading vehicle V mounts the generated bird's-eye view image 100 on the oncoming vehicle VA as passing information. It is transmitted to the second device 80. The first device 10 mounted on the leading vehicle V transmits other vehicle information indicating that the oncoming vehicle VA exists to the first device 10 mounted on the following vehicle VB of the leading vehicle V. The driver of the leading vehicle V can check the bird's-eye view image 100 and determine the passing point.

先頭車両Vの後続車両VBに搭載された第一装置10は、後続車両VBの周辺の情報として、生成した俯瞰映像100を、対向車両VAに搭載された第二装置80へ送信する。後続車両VBの運転者は、対向車両情報によって、多重すれ違いの可能性があることを確認して、すれ違いポイントを判断することができる。 The first device 10 mounted on the following vehicle VB of the leading vehicle V transmits the generated bird's-eye view image 100 to the second device 80 mounted on the oncoming vehicle VA as information around the following vehicle VB. The driver of the following vehicle VB can determine the passing point by confirming that there is a possibility of multiple passing by the oncoming vehicle information.

対向車両VAは、複数の、すれ違いの相手車両から取得した俯瞰映像100を合成して合成俯瞰映像200を生成して表示部82に表示させることができる。対向車両VAの運転者は、合成俯瞰映像200を確認して、すれ違いをするか否かを判断したり、すれ違いをする場合、すれ違いポイントを判断したりすることができる。対向車両VAの運転者は、対向車両VAから視認しにくい先頭車両Vの周辺の状況及び先頭車両Vの後続車両VBの周辺の状況を、合成俯瞰映像200によって適切に確認することができる。例えば、対向車両VAの運転者は、合成俯瞰映像200によって、多重すれ違いを行う先頭車両Vと後続車両VBとのうち、車幅が一番広く、すれ違いが困難な車両を確認することができる。このようにして、本実施形態によれば、多重すれ違いの可能性がある場合、各車両の運転者の判断を支援して、運転を支援することができる。本実施形態によれば、スムースな交通を支援することができる。 The oncoming vehicle VA can synthesize the bird's-eye view images 100 acquired from a plurality of passing opponent vehicles to generate a composite bird's-eye view image 200 and display it on the display unit 82. The driver of the oncoming vehicle VA can check the composite bird's-eye view image 200 to determine whether or not to pass each other, and when passing each other, determine the passing point. The driver of the oncoming vehicle VA can appropriately confirm the situation around the leading vehicle V, which is difficult to see from the oncoming vehicle VA, and the situation around the following vehicle VB of the leading vehicle V, by the composite bird's-eye view image 200. For example, the driver of the oncoming vehicle VA can confirm from the composite bird's-eye view image 200 which of the leading vehicle V and the following vehicle VB, which perform multiple passing, has the widest vehicle width and is difficult to pass. In this way, according to the present embodiment, when there is a possibility of multiple passing, it is possible to support the judgment of the driver of each vehicle and support the driving. According to this embodiment, smooth traffic can be supported.

[第二実施形態]
図9を参照しながら、本実施形態に係る運転支援システム1について説明する。図9は、第二実施形態に係る第一装置10Aの構成例を示すブロック図である。運転支援システム1は、基本的な構成は第一実施形態の運転支援システム1と同様である。第一装置10Aは、周辺状況認識部53に代わって、周辺状況情報取得部(他車両情報取得部)53Aを有する点と、インターフェース部21Aとすれ違い判定部55Aとが第一実施形態と異なる。
[Second Embodiment]
The driving support system 1 according to the present embodiment will be described with reference to FIG. FIG. 9 is a block diagram showing a configuration example of the first device 10A according to the second embodiment. The basic configuration of the driving support system 1 is the same as that of the driving support system 1 of the first embodiment. The first device 10A is different from the first embodiment in that it has a peripheral situation information acquisition unit (other vehicle information acquisition unit) 53A instead of the peripheral situation recognition unit 53, and the interface unit 21A and the passing determination unit 55A.

インターフェース部21Aは、周辺状況情報取得部53Aが、先頭車両Vの周辺に存在する、後続車両VB及び対向車両VAの情報を含む周辺状況情報を取得するための情報源に接続するインターフェースである。インターフェース部21Aは、後続車両VBに設置された第一装置10Aとの車車間通信、対向車両VAに設置された第二装置80との車車間通信、または、路上に設置された図示しない路上装置との路車間通信を行うインターフェースである。本実施形態では、インターフェース部21Aは、後続車両VBに設置された第一装置10Aから、後続車両VBの情報を含む周辺状況情報を取得する。インターフェース部21Aは、後続車両VBに設置された第一装置10Aから、後続車両VBの情報を含む周辺状況情報を取得する。インターフェース部21Aは、対向車両VAに搭載された第二装置80から、対向車両VAの情報を含む周辺状況情報を取得する。 The interface unit 21A is an interface in which the peripheral situation information acquisition unit 53A connects to an information source existing around the leading vehicle V for acquiring peripheral situation information including information on the following vehicle VB and the oncoming vehicle VA. The interface unit 21A is used for vehicle-to-vehicle communication with the first device 10A installed in the following vehicle VB, vehicle-to-vehicle communication with the second device 80 installed in the oncoming vehicle VA, or a road device (not shown) installed on the road. It is an interface for road-to-vehicle communication with. In this embodiment, the interface unit 21A from the first device 10A 2 installed in the following vehicles VB 1, to obtain the peripheral status information including information on the following vehicle VB 1. Interface unit 21A from the first device 10A 3 installed in following vehicles VB 2, acquires the peripheral status information including information on the following vehicle VB 2. The interface unit 21A acquires peripheral situation information including information on the oncoming vehicle VA from the second device 80 mounted on the oncoming vehicle VA.

周辺状況情報取得部53Aは、先頭車両Vの周辺の後続車両VB及び対向車両VAの他車両情報を取得する他車両情報取得部として機能する。周辺状況情報取得部53Aは、先頭車両Vの周辺に存在する後続車両VB及び対向車両VAの情報を含む周辺状況情報を取得する。周辺状況情報取得部53Aが取得する後続車両VBの情報は、後続車両VBの現在位置情報を示す情報を含む。周辺状況情報取得部53Aが取得する対向車両VAの情報は、対向車両VAの現在位置情報、対向車両VAの形状及び大きさを示す情報を含む。本実施形態では、周辺状況情報取得部53Aは、後続車両VBに設置された第一装置10Aとの車車間通信、後続車両VBに設置された第一装置10Aとの車車間通信、対向車両VAに設置された第二装置80との車車間通信、または、路上装置との路車間通信によって、周辺状況情報を取得する。 The surrounding situation information acquisition unit 53A functions as another vehicle information acquisition unit that acquires other vehicle information of the following vehicle VB and the oncoming vehicle VA around the leading vehicle V. The peripheral situation information acquisition unit 53A acquires peripheral situation information including information on the following vehicle VB and the oncoming vehicle VA existing in the vicinity of the leading vehicle V. The information of the following vehicle VB acquired by the peripheral situation information acquisition unit 53A includes information indicating the current position information of the following vehicle VB. The information on the oncoming vehicle VA acquired by the peripheral situation information acquisition unit 53A includes the current position information of the oncoming vehicle VA and the information indicating the shape and size of the oncoming vehicle VA. In the present embodiment, the peripheral situation information acquisition unit 53A communicates between vehicles with the first device 10A 2 installed in the following vehicle VB 1 and between vehicles with the first device 10A 3 installed in the following vehicle VB 2. , The surrounding situation information is acquired by vehicle-to-vehicle communication with the second device 80 installed in the oncoming vehicle VA, or road-to-vehicle communication with the road device.

すれ違い判定部55Aは、周辺状況情報取得部53Aが取得した周辺状況情報に基づいて、多重すれ違いの可能性があるか否かを判定する。 The passing determination unit 55A determines whether or not there is a possibility of multiple passing based on the peripheral situation information acquired by the peripheral situation information acquisition unit 53A.

第一判定部551Aは、周辺状況情報取得部53Aが取得した周辺状況情報に基づいて、走行道路Rの道幅が閾値以下であり、先頭車両Vに後続車両VBが存在する状態において、対向車両VAが認識された場合、多重すれ違いの可能性があると判定する。 The first determination unit 551A has the oncoming vehicle VA in a state where the road width of the traveling road R is equal to or less than the threshold value and the following vehicle VB exists in the leading vehicle V based on the peripheral situation information acquired by the peripheral situation information acquisition unit 53A. If is recognized, it is determined that there is a possibility of multiple passing.

<効果>
上述したように、本実施形態によれば、後続車両VBに設置された第一装置10Aとの車車間通信、第二装置80との車車間通信、または、路上装置との路車間通信によって取得した周辺状況情報に基づいて、多重すれ違いの可能性があるか否かを判定することができる。本実施形態によれば、例えば、見通しが悪く、先頭車両Vから対向車両VAを見通すことができない場合でも、適切に対向車両VAの他車両情報を取得することができる。
<Effect>
As described above, according to the present embodiment, it is acquired by vehicle-to-vehicle communication with the first device 10A installed in the following vehicle VB, vehicle-to-vehicle communication with the second device 80, or road-to-vehicle communication with the road device. It is possible to determine whether or not there is a possibility of multiple passing based on the surrounding situation information. According to the present embodiment, for example, even when the visibility is poor and the oncoming vehicle VA cannot be seen from the leading vehicle V, it is possible to appropriately acquire other vehicle information of the oncoming vehicle VA.

[第三実施形態]
図10ないし図12を参照しながら、本実施形態に係る運転支援システム1について説明する。図10は、第三実施形態に係る第二装置80Bの構成例を示すブロック図である。図11は、第三実施形態に係る第二装置80Bが生成した合成俯瞰映像200の一例を示す図である。図12は、第三実施形態に係る第二装置80Bにおける処理の流れの一例を示すフローチャートである。第二装置80Bは、さらに、すれ違いポイント判定部94Bを有する点と、合成処理部93Bとが第一実施形態と異なる。
[Third Embodiment]
The driving support system 1 according to the present embodiment will be described with reference to FIGS. 10 to 12. FIG. 10 is a block diagram showing a configuration example of the second device 80B according to the third embodiment. FIG. 11 is a diagram showing an example of a composite bird's-eye view image 200 generated by the second apparatus 80B according to the third embodiment. FIG. 12 is a flowchart showing an example of a processing flow in the second apparatus 80B according to the third embodiment. The second device 80B is further different from the first embodiment in that it has a passing point determination unit 94B and the synthesis processing unit 93B.

すれ違いポイント判定部94Bは、すれ違い情報取得部91が取得したすれ違い情報に基づいて、対向車両VAと先頭車両Vとがすれ違うのに適したポイントを判定する。すれ違いポイント判定部94Bは、合成判定部92がすれ違い情報を合成すると判定した場合、合成情報に基づいて、対向車両VAと先頭車両Vとのすれ違いに適したポイントを判定してもよい。例えば、すれ違いポイント判定部94Bは、走行道路Rの道幅が、対向車両VAの車幅と先頭車両Vの車幅との合計より広い場所をすれ違いポイントと判定する。例えば、すれ違いポイント判定部94Bは、走行道路Rの道幅が、他より広い場所をすれ違いポイントと判定する。例えば、すれ違いポイント判定部94Bは、図示しない車両情報記憶部から、対向車両VAの車種に対応する車幅、最低地上高を取得して、すれ違いポイントを判定する。例えば、すれ違いポイント判定部94Bは、走行道路Rが段差Dを有する場合、図示しない車両情報記憶部から取得した対向車両VAの最低地上高、または、すれ違い情報に含まれる先頭車両Vの最低地上高で、段差Dに乗り上げ可能であれば、段差Dを含む場所をすれ違いポイントと判定する。例えば、すれ違いポイント判定部94Bは、走行道路Rに障害物が存在しない場所をすれ違いポイントと判定する。すれ違いポイント判定部94Bは、判定したすれ違いポイントが複数ある場合、走行道路Rの道幅と、対向車両VAの車幅と先頭車両Vの車幅との合計との差に応じて、すれ違いの難易度の優先順位を付ける。そして、すれ違いポイント判定部94Bは、優先順位が高いすれ違いポイントを優先して、すれ違いポイントを判定する。 The passing point determination unit 94B determines a point suitable for the oncoming vehicle VA and the leading vehicle V to pass each other based on the passing information acquired by the passing information acquisition unit 91. When the combination determination unit 92 determines that the passing information is to be combined, the passing point determination unit 94B may determine a point suitable for passing the oncoming vehicle VA and the leading vehicle V based on the combined information. For example, the passing point determination unit 94B determines a place where the road width of the traveling road R is wider than the total of the width of the oncoming vehicle VA and the width of the leading vehicle V as the passing point. For example, the passing point determination unit 94B determines a place where the road width of the traveling road R is wider than the others as a passing point. For example, the passing point determination unit 94B acquires the vehicle width and the minimum ground clearance corresponding to the vehicle type of the oncoming vehicle VA from the vehicle information storage unit (not shown), and determines the passing point. For example, when the traveling road R has a step D, the passing point determination unit 94B determines the minimum ground clearance of the oncoming vehicle VA acquired from the vehicle information storage unit (not shown) or the minimum ground clearance of the leading vehicle V included in the passing information. Then, if it is possible to ride on the step D, the place including the step D is determined as a passing point. For example, the passing point determination unit 94B determines a place where there is no obstacle on the traveling road R as a passing point. When there are a plurality of determined passing points, the passing point determination unit 94B determines the degree of difficulty of passing according to the difference between the road width of the driving road R and the total of the width of the oncoming vehicle VA and the width of the leading vehicle V. Prioritize. Then, the passing point determination unit 94B prioritizes the passing points having a high priority and determines the passing points.

すれ違いポイント判定部94Bは、すれ違いポイントにおける、対向車両VAと先頭車両Vとの停車ポイントを判定してもよい。さらに、すれ違いポイント判定部94Bは、先頭車両Vとすれ違いを行う際の、後続車両VBの停車ポイントを判定してもよい。後続車両VBの停車ポイントは、すれ違いポイント、及び、対向車両VAと先頭車両Vとの停車ポイントを避けた地点である。後続車両VBの停車ポイントは、対向車両VAと先頭車両Vとのすれ違い時に、どちらかの車両が後退したり、脇に避けて進路を譲ったりする動作を妨げないような地点である。 The passing point determination unit 94B may determine the stop point between the oncoming vehicle VA and the leading vehicle V at the passing point. Further, the passing point determination unit 94B may determine the stop point of the following vehicle VB when passing the leading vehicle V. The stop point of the following vehicle VB is a point avoiding the passing point and the stop point between the oncoming vehicle VA and the leading vehicle V. The stop point of the following vehicle VB is a point that does not hinder the operation of either vehicle moving backward or avoiding aside to give way when the oncoming vehicle VA and the leading vehicle V pass each other.

すれ違いポイント判定部94Bは、例えば、対向車両VAの運転者と先頭車両Vの運転者との運転技術の習熟度を記憶した、図示しない運転履歴情報記憶部から取得して、運転習熟度が低い運転者が運転する車両が停止して、運転習熟度が高い運転者が運転する車両がすれ違うように、すれ違いポイントを判定してもよい。すれ違いポイント判定部94Bは、例えば、対向車両VAの運転者と、先頭車両Vの運転者との事故履歴情報を記憶した、図示しない事故履歴情報記憶部から取得して、事故履歴がある運転者が運転する車両が停止して、事故履歴がない運転者が運転する車両がすれ違うように、すれ違いポイントを判定してもよい。 The passing point determination unit 94B acquires, for example, the proficiency level of the driving technique between the driver of the oncoming vehicle VA and the driver of the leading vehicle V from a driving history information storage unit (not shown), and the driving proficiency level is low. The passing point may be determined so that the vehicle driven by the driver stops and the vehicle driven by the driver with high driving proficiency passes each other. The passing point determination unit 94B acquires, for example, accident history information between the driver of the oncoming vehicle VA and the driver of the leading vehicle V from an accident history information storage unit (not shown), and has an accident history. The passing point may be determined so that the vehicle driven by the driver stops and the vehicle driven by the driver having no accident history passes each other.

上記では、すれ違いポイント判定部94Bは、先頭車両Vとのすれ違いポイントを判定するものとして説明したが、これに限定されない。すれ違いポイント判定部94Bは、先頭車両V及び後続車両VBの中で、すれ違いが最も難しいと予測される対象車両について、上記のようなすれ違いポイントを判定してもよい。対象車両は、例えば、最も大型の車両、車幅が最も広い車両、または、運転技術の習熟度が最も低い運転者の車両などである。 In the above, the passing point determination unit 94B has been described as determining the passing point with the leading vehicle V, but the present invention is not limited to this. The passing point determination unit 94B may determine the passing points as described above for the target vehicle, which is predicted to be the most difficult to pass among the leading vehicle V and the following vehicle VB. The target vehicle is, for example, the largest vehicle, the widest vehicle, or the driver's vehicle with the lowest level of proficiency in driving skills.

図11に示すように、合成処理部93Bは、すれ違いポイント判定部94Bが判定した、すれ違いポイントを合成俯瞰映像200に合成する。合成処理部93Bは、すれ違いポイントに色を付けた合成俯瞰映像200を合成する。図11では、すれ違いポイントは、幅の広い斜線を引いた範囲で示している。すれ違いポイントには、走行道路Rの段差Dを除く範囲が含まれている。対向車両VAの最低地上高が段差Dの高さより低い場合、段差Dがすれ違いポイントから外れる。 As shown in FIG. 11, the compositing processing unit 93B synthesizes the passing points determined by the passing point determination unit 94B into the composite bird's-eye view image 200. The compositing processing unit 93B synthesizes a composite bird's-eye view image 200 in which the passing points are colored. In FIG. 11, the passing points are shown in a wide shaded area. The passing point includes a range excluding the step D of the traveling road R. When the minimum ground clearance of the oncoming vehicle VA is lower than the height of the step D, the step D deviates from the passing point.

合成処理部93Bは、すれ違いポイント判定部94Bが判定した、すれ違いポイントにおける、対向車両VAと先頭車両Vとの停車ポイントを俯瞰映像100に合成してもよい。 The compositing processing unit 93B may synthesize the stop points of the oncoming vehicle VA and the leading vehicle V at the passing points determined by the passing point determination unit 94B into the bird's-eye view image 100.

合成処理部93Bは、すれ違いポイント判定部94Bが判定した、すれ違いの難易度に応じて、すれ違いポイントに色を付けた俯瞰映像100を合成してもよい。 The compositing processing unit 93B may synthesize the bird's-eye view image 100 in which the passing points are colored according to the difficulty level of the passing points determined by the passing point determination unit 94B.

次に、図12を用いて、制御部90Bにおける処理の流れについて説明する。ステップS311ないしステップS313、ステップS316、ステップS319、ステップS320の処理は、図8に示すフローチャートのステップS301ないしステップS303、ステップS304、ステップS305、ステップS306と同様の処理を行う。一例として、対向車両VAと先頭車両Vとのすれ違いポイントを判定する場合について説明する。 Next, the flow of processing in the control unit 90B will be described with reference to FIG. The processes of steps S311 to S313, step S316, step S319, and step S320 are the same as those of steps S301 to S303, step S304, step S305, and step S306 of the flowchart shown in FIG. As an example, a case where the passing point between the oncoming vehicle VA and the leading vehicle V is determined will be described.

制御部90Bは、すれ違いポイント判定部94Bによって、多重すれ違いを行う際に、対向車両VAと先頭車両Vとがすれ違うのに適したポイントを判定する(ステップS314)。制御部90Bは、ステップS315へ進む。 The control unit 90B determines a point suitable for the oncoming vehicle VA and the leading vehicle V to pass each other when performing multiple passing by the passing point determination unit 94B (step S314). The control unit 90B proceeds to step S315.

制御部90Bは、合成処理部93Bによって、多重すれ違いのすれ違いポイントを合成した合成俯瞰映像200を生成する(ステップS315)。制御部90Bは、ステップS316へ進む。 The control unit 90B generates a composite bird's-eye view image 200 in which multiple passing points are combined by the synthesis processing unit 93B (step S315). The control unit 90B proceeds to step S316.

制御部90Bは、すれ違いポイント判定部94Bによって、対向車両VAと先頭車両Vとがすれ違うのに適したポイントを判定する(ステップS317)。制御部90Bは、ステップS318へ進む。 The control unit 90B determines a point suitable for the oncoming vehicle VA and the leading vehicle V to pass each other by the passing point determination unit 94B (step S317). The control unit 90B proceeds to step S318.

制御部90Bは、合成処理部93Bによって、すれ違いポイントを合成した俯瞰映像100を生成する(ステップS318)。制御部90Bは、ステップS319へ進む。 The control unit 90B generates a bird's-eye view image 100 in which the passing points are combined by the composition processing unit 93B (step S318). The control unit 90B proceeds to step S319.

対向車両VAの運転者は、第二装置80Bの表示部82に表示された合成俯瞰映像200に示されたすれ違いポイントを確認する。そして、対向車両VAの運転者は、先頭車両Vとすれ違いをするか、先頭車両Vの通過を待つか、または、迂回するかを判断する。対向車両VAの運転者は、先頭車両Vとすれ違いを行う場合、合成俯瞰映像200に示されたすれ違いポイントを確認して、実際にすれ違いを行う場所を判断する。 The driver of the oncoming vehicle VA confirms the passing point shown in the composite bird's-eye view image 200 displayed on the display unit 82 of the second device 80B. Then, the driver of the oncoming vehicle VA determines whether to pass the leading vehicle V, wait for the leading vehicle V to pass, or detour. When the driver of the oncoming vehicle VA passes by the leading vehicle V, the driver confirms the passing points shown in the composite bird's-eye view image 200 and determines the place where the passing is actually performed.

<効果>
上述したように、本実施形態は、先頭車両V、後続車両VB及び対向車両VAの車両情報に基づいて、多重すれ違いにおけるすれ違いに適したすれ違いポイントを判定することができる。本実施形態は、多重すれ違いの可能性がある場合、合成俯瞰映像200にすれ違いポイントを示すことによって、運転者の判断を支援して、運転を支援することができる。
<Effect>
As described above, in the present embodiment, it is possible to determine a passing point suitable for passing in multiple passing based on the vehicle information of the leading vehicle V, the following vehicle VB, and the oncoming vehicle VA. In the present embodiment, when there is a possibility of multiple passing, the driver's judgment can be supported and the driving can be supported by showing the passing points in the composite bird's-eye view image 200.

[第四実施形態]
図13ないし図15を参照しながら、本実施形態に係る運転支援システム1について説明する。図13は、第四実施形態に係る第一装置10Cの構成例を示すブロック図である。図14は、第四実施形態に係る第二装置80Cの構成例を示すブロック図である。図15は、第四実施形態に係る第一装置10Cにおける処理の流れの一例を示すフローチャートである。運転支援システム1は、第一装置10Cと第二装置80Cとが、第三実施形態と異なる。
[Fourth Embodiment]
The driving support system 1 according to the present embodiment will be described with reference to FIGS. 13 to 15. FIG. 13 is a block diagram showing a configuration example of the first device 10C according to the fourth embodiment. FIG. 14 is a block diagram showing a configuration example of the second device 80C according to the fourth embodiment. FIG. 15 is a flowchart showing an example of a processing flow in the first apparatus 10C according to the fourth embodiment. In the driving support system 1, the first device 10C and the second device 80C are different from the third embodiment.

第一装置10Cの制御部50Cは、さらに通知取得部60Cを有する。通知取得部60Cは、第一送信制御部57によるすれ違い情報の送信先である第二装置80Cから、すれ違いを行うことを示す情報であるすれ違い通知を取得する。 The control unit 50C of the first device 10C further includes a notification acquisition unit 60C. The notification acquisition unit 60C acquires a passing notification, which is information indicating that the passing information is to be performed, from the second device 80C, which is the transmission destination of the passing information by the first transmission control unit 57.

俯瞰映像生成部56Cの合成処理部563Cは、通知取得部60Cによって第二装置80Cからすれ違いポイントの情報を含むすれ違い通知を取得した場合、通知されたすれ違いポイントを俯瞰映像100に合成する。 When the synthesis processing unit 563C of the bird's-eye view image generation unit 56C acquires the passing notification including the information of the passing points from the second device 80C by the notification acquisition unit 60C, the synthesis processing unit 563C synthesizes the notified passing points with the bird's-eye view image 100.

第二装置80Cのインターフェース部81Cは、第一装置10Cへ、すれ違い通知を送信する。第二装置80Cのインターフェース部81Cは、すれ違い情報取得部91が取得したすれ違い情報の送信元のすべての第一装置10Cに対して、すれ違い通知を送信する。 The interface unit 81C of the second device 80C transmits a passing notification to the first device 10C. The interface unit 81C of the second device 80C transmits a passing notification to all the first devices 10C of the transmission source of the passing information acquired by the passing information acquisition unit 91.

操作部83Cは、すれ違いを行うことを第一装置10Cへ通知する通知操作を受付可能である。より詳しくは、例えば、対向車両VAの運転者は、表示部82に表示された、合成俯瞰映像200を確認して、すれ違いを行うと判断した場合、操作部83Cを介して、通知操作を行う。操作部83Cは、受け付けた通知操作を示す操作情報を制御部90Cの操作受付部95Cへ出力する。さらに、操作部83Cは、すれ違いを行う際に、対向車両VAを停車させる停車ポイントまたはすれ違いを行いたいポイントを、対向車両VAの運転者が選択する選択操作を受付可能である。例えば、対向車両VAの運転者は合成俯瞰映像200に表示されたすれ違いポイントを確認して、同じ場所をすれ違いポイントとして選択してもよいし、よりすれ違いが容易なすれ違いポイントを選択してもよい。例えば、対向車両VAの運転者は合成俯瞰映像200に表示された停車ポイントを確認して、同じ場所を停車ポイントとして選択してもよいし、他の停車ポイントを選択してもよい。操作部83Cは、受け付けた通知操作などの操作を示す操作情報を制御部90Cの操作受付部95Cへ出力する。 The operation unit 83C can accept a notification operation for notifying the first device 10C that the passing is performed. More specifically, for example, when the driver of the oncoming vehicle VA confirms the composite bird's-eye view image 200 displayed on the display unit 82 and determines that the vehicle passes each other, the driver performs a notification operation via the operation unit 83C. .. The operation unit 83C outputs the operation information indicating the received notification operation to the operation reception unit 95C of the control unit 90C. Further, the operation unit 83C can accept a selection operation in which the driver of the oncoming vehicle VA selects a stop point at which the oncoming vehicle VA is stopped or a point at which the oncoming vehicle VA is desired to be passed when passing each other. For example, the driver of the oncoming vehicle VA may check the passing points displayed on the composite bird's-eye view image 200 and select the same place as the passing points, or may select the passing points where the passing points are easier to pass. .. For example, the driver of the oncoming vehicle VA may check the stop point displayed on the composite bird's-eye view image 200 and select the same place as the stop point, or may select another stop point. The operation unit 83C outputs operation information indicating an operation such as a received notification operation to the operation reception unit 95C of the control unit 90C.

制御部90Cの操作受付部95Cは、操作部83Cが受け付けた通知操作などの操作の操作情報を取得する。例えば、操作受付部95Cは、通知操作及び選択操作を示す操作情報を取得して制御信号を出力する。 The operation reception unit 95C of the control unit 90C acquires the operation information of the operation such as the notification operation received by the operation unit 83C. For example, the operation reception unit 95C acquires operation information indicating a notification operation and a selection operation and outputs a control signal.

送信制御部96Cは、操作受付部95Cが取得した操作情報を、第一装置10Cへ送信する。本実施形態では、送信制御部96Cは、すれ違いを行うことを示す情報であるすれ違い通知を、第一装置10Cへ送信する。すれ違い通知には、運転者によって選択された、対向車両VAを停車させる停車ポイントまたはすれ違いを行いたいポイントを示す情報を含んでもよい。 The transmission control unit 96C transmits the operation information acquired by the operation reception unit 95C to the first device 10C. In the present embodiment, the transmission control unit 96C transmits a passing notification, which is information indicating that the passing is performed, to the first device 10C. The passing notification may include information selected by the driver indicating a stop point at which the oncoming vehicle VA is stopped or a point at which the passing vehicle is desired to be stopped.

次に、図15を用いて、制御部50Cにおける処理の流れについて説明する。ステップS111ないしステップS117、ステップS122の処理は、図6に示すステップS101ないしステップ107、ステップS108と同様の処理を行う。 Next, the flow of processing in the control unit 50C will be described with reference to FIG. The processes of steps S111 to S117 and S122 are the same as those of steps S101 to 107 and S108 shown in FIG.

制御部50Cは、第二装置80Cからすれ違い通知があったか否かを判定する(ステップS118)。通知取得部60Cによって、すれ違い通知を示す情報を取得した場合(ステップS118でYes)、ステップS119へ進む。通知取得部60Cによって、すれ違い通知を示す情報を取得していない場合(ステップS118でNo)、ステップS122へ進む。 The control unit 50C determines whether or not there has been a passing notification from the second device 80C (step S118). When the notification acquisition unit 60C has acquired the information indicating the passing notification (Yes in step S118), the process proceeds to step S119. If the notification acquisition unit 60C has not acquired the information indicating the passing notification (No in step S118), the process proceeds to step S122.

制御部50Cは、第二装置80Cからすれ違いポイントの通知があったか否かを判定する(ステップS119)。通知取得部60Cによって、すれ違いポイントの通知を示す情報を取得した場合(ステップS119でYes)、ステップS120へ進む。通知取得部60Cによって、すれ違いポイントの通知を示す情報を取得していない場合(ステップS119でNo)、ステップS122へ進む。 The control unit 50C determines whether or not the second device 80C has notified the passing point (step S119). When the notification acquisition unit 60C acquires the information indicating the notification of the passing point (Yes in step S119), the process proceeds to step S120. If the notification acquisition unit 60C has not acquired the information indicating the notification of the passing point (No in step S119), the process proceeds to step S122.

制御部50Cは、俯瞰映像生成部56Cによって、通知されたすれ違いポイントを合成した俯瞰映像100を生成する(ステップS120)。制御部50Cは、ステップS121へ進む。 The control unit 50C generates a bird's-eye view image 100 by synthesizing the passing points notified by the bird's-eye view image generation unit 56C (step S120). The control unit 50C proceeds to step S121.

制御部50Cは、表示制御部59によって、すれ違いポイントを合成した俯瞰映像100を表示する(ステップS121)。制御部50Cは、ステップS122へ進む。 The control unit 50C displays the bird's-eye view image 100 in which the passing points are combined by the display control unit 59 (step S121). The control unit 50C proceeds to step S122.

<効果>
上述したように、本実施形態によれば、多重すれ違いの可能性がある場合、対向車両VAの運転者は、すれ違いポイントが合成された合成俯瞰映像200を確認して、すれ違いをすることを判断した場合、すれ違いを行うことを、先頭車両V及び後続車両VBに搭載された第一装置10Cへ通知することができる。また、本実施形態では、対向車両VAの運転者が判断した、停車ポイントまたはすれ違いを行いたいポイントを、第一装置10Cへ通知することができる。これにより、各車両の運転者が、すれ違いを行うポイントについて、共通認識を有することができる。このようにして、本実施形態によれば、多重すれ違いの可能性がある状態において、各車両の運転者の判断を支援して、運転を支援することができる。
<Effect>
As described above, according to the present embodiment, when there is a possibility of multiple passing, the driver of the oncoming vehicle VA confirms the composite bird's-eye view image 200 in which the passing points are combined, and determines that the passing points are to be passed. If so, it is possible to notify the first device 10C mounted on the leading vehicle V and the following vehicle VB that they are passing each other. Further, in the present embodiment, the first device 10C can be notified of the stop point or the point at which the driver of the oncoming vehicle VA wants to pass each other, which is determined by the driver. As a result, the drivers of each vehicle can have a common understanding of the points at which they pass each other. In this way, according to the present embodiment, it is possible to support the judgment of the driver of each vehicle and support the driving in a state where there is a possibility of multiple passing.

[第五実施形態]
図16、図17を参照しながら、本実施形態に係る運転支援システム1について説明する。図16は、第五実施形態に係る第二装置80Dの構成例を示すブロック図である。図17は、第五実施形態に係る第二装置80Dが生成した合成俯瞰映像200の一例を示す図である。第二装置80Dは、さらに地図情報記憶部83Dと地図情報取得部97Dとを有する点と、合成処理部93Dとが第一実施形態と異なる。
[Fifth Embodiment]
The driving support system 1 according to the present embodiment will be described with reference to FIGS. 16 and 17. FIG. 16 is a block diagram showing a configuration example of the second device 80D according to the fifth embodiment. FIG. 17 is a diagram showing an example of a composite bird's-eye view image 200 generated by the second apparatus 80D according to the fifth embodiment. The second device 80D is different from the first embodiment in that it further has a map information storage unit 83D and a map information acquisition unit 97D, and the synthesis processing unit 93D.

地図情報記憶部83Dは、道路の形状、道幅を含む地図情報を記憶する。地図情報記憶部83Dは、走行道路Rの道幅を認識可能な程度に詳細な航空写真を記憶してもよい。地図情報記憶部83Dは、記憶している地図情報を地図情報取得部97Dへ出力する。地図情報記憶部83Dは、図示しない通信機能を介して地図情報を取得する外部サーバ等の記憶装置であってもよい。 The map information storage unit 83D stores map information including the shape and width of the road. The map information storage unit 83D may store a detailed aerial photograph to the extent that the road width of the traveling road R can be recognized. The map information storage unit 83D outputs the stored map information to the map information acquisition unit 97D. The map information storage unit 83D may be a storage device such as an external server that acquires map information via a communication function (not shown).

地図情報取得部97Dは、地図情報記憶部83Dから地図情報を取得する。 The map information acquisition unit 97D acquires map information from the map information storage unit 83D.

合成処理部93Dは、複数のすれ違い情報と、地図情報取得部97Dが取得した地図情報とを合成して合成情報を生成する。本実施形態では、合成処理部93Dは、地図情報取得部97Dが取得した地図情報と、各車両から取得した俯瞰映像100とを合成して合成俯瞰映像200を生成する。例えば、合成処理部93Dは、地図情報を基準として、各車両から取得した俯瞰映像100を合成して合成俯瞰映像200を生成してもよい。例えば、合成処理部93Dは、各車両から取得した俯瞰映像100を基準にして、不足している範囲を地図情報によって補完して合成俯瞰映像200を生成してもよい。 The synthesis processing unit 93D synthesizes a plurality of passing information and the map information acquired by the map information acquisition unit 97D to generate composite information. In the present embodiment, the synthesis processing unit 93D synthesizes the map information acquired by the map information acquisition unit 97D and the bird's-eye view image 100 acquired from each vehicle to generate the composite bird's-eye view image 200. For example, the composition processing unit 93D may generate the composite bird's-eye view image 200 by synthesizing the bird's-eye view image 100 acquired from each vehicle based on the map information. For example, the composition processing unit 93D may generate the composite bird's-eye view image 200 by complementing the insufficient range with the map information based on the bird's-eye view image 100 acquired from each vehicle.

図17を用いて、合成俯瞰映像200について説明する。合成俯瞰映像200は、先頭車両Vから取得した俯瞰映像100、後続車両VBから取得した俯瞰映像100、後続車両VBから取得した俯瞰映像100、後続車両VBから取得した俯瞰映像100及び地図情報に基づく映像120を合成した映像である。合成俯瞰映像200は、俯瞰映像100と俯瞰映像100との間の不足している範囲が映像120によって補完されている。 The composite bird's-eye view image 200 will be described with reference to FIG. The composite bird's-eye view image 200 includes a bird's-eye view image 100 1 acquired from the leading vehicle V, a bird's-eye view image 100 2 acquired from the following vehicle VB 1, a bird's-eye view image 100 3 acquired from the following vehicle VB 2 , and a bird's-eye view image acquired from the following vehicle VB 3. This is a composite image of 100 4 and the image 120 based on the map information. In the composite bird's-eye view image 200, the insufficient range between the bird's-eye view image 100 3 and the bird's-eye view image 100 4 is complemented by the image 120.

<効果>
上述したように、本実施形態は、他車両から取得した俯瞰映像100の表示範囲が連続しておらず、途切れた範囲が存在する場合でも、地図情報を使用して、合成俯瞰映像200を生成することができる。
<Effect>
As described above, in the present embodiment, even when the display range of the bird's-eye view image 100 acquired from another vehicle is not continuous and there is an interrupted range, the composite bird's-eye view image 200 is generated by using the map information. can do.

図示した運転支援システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担または使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated driving support system 1 is a functional concept and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of each device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load or usage status of each device. You may.

運転支援システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the driving support system 1 is realized, for example, by a program loaded in a memory as software. In the above embodiment, it has been described as a functional block realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The components described above include those that can be easily assumed by those skilled in the art and those that are substantially the same. Further, the configurations described above can be combined as appropriate. Further, various omissions, substitutions or changes of the configuration can be made without departing from the gist of the present invention.

<変形例>
上記では、情報生成部の一例として俯瞰映像生成部56について説明したが、これに限定されない。情報生成部は、すれ違い情報として俯瞰映像100に代わって、走行道路Rの道幅、走行道路Rにおける先頭車両Vの位置を図で示す画像を生成して、第二装置80へ送信してもよい。または、情報生成部は、すれ違い情報として俯瞰映像100または画像に代わって、走行道路Rの道幅、走行道路Rにおける先頭車両Vの位置を示す情報を生成して、第二装置80へ送信してもよい。第二装置80では、取得したすれ違い情報に基づいて、相対的な位置関係を示す画像を生成して表示してもよい。これらにより、第一装置10と第二装置80とが送受信するデータ量を低減することができる。
<Modification example>
In the above, the bird's-eye view image generation unit 56 has been described as an example of the information generation unit, but the present invention is not limited to this. Instead of the bird's-eye view image 100, the information generation unit may generate an image showing the road width of the driving road R and the position of the leading vehicle V on the driving road R in a diagram and transmit it to the second device 80 as passing information. .. Alternatively, the information generation unit generates information indicating the road width of the traveling road R and the position of the leading vehicle V on the traveling road R as the passing information instead of the bird's-eye view image 100 or the image, and transmits the information to the second device 80. May be good. The second device 80 may generate and display an image showing a relative positional relationship based on the acquired passing information. As a result, the amount of data transmitted and received between the first device 10 and the second device 80 can be reduced.

上記では、第一装置10が、撮影部として、前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とを備えるものとして説明したが、例えば、ナビゲーションシステムを含む他のシステムの既設のカメラを共用し、第一装置10には撮影部を備えていなくてもよい。また、第一装置10が表示部41を備えるものとして説明したが、例えば、ナビゲーションシステムを含む他のシステムと既設の表示部を共用し、第一装置10に表示部を備えていなくてもよい。 In the above description, the first device 10 has been described as having a front bird's-eye view image camera 11, a rear bird's-eye view image camera 12, a left bird's-eye view image camera 13, and a right bird's-eye view image camera 14 as a shooting unit. , The existing cameras of other systems including the navigation system may be shared, and the first device 10 may not have a photographing unit. Further, although the first device 10 has been described as having the display unit 41, for example, the existing display unit may be shared with other systems including the navigation system, and the first device 10 may not be provided with the display unit. ..

多重すれ違いの可能性があって、さらに、走行道路R上に停車中の車両、または、工事などによって走行道路Rの一部が通行できない範囲がある場合、通行できない部分を強調した、俯瞰映像100を生成して送信してもよい。例えば、周辺状況認識部53が、周辺映像データから走行道路R上に停車している他車両を認識した場合、俯瞰映像生成部56が、停車している他車両を強調した俯瞰映像100を生成する。例えば、周辺状況認識部53が、周辺映像データから工事などによって走行道路Rの一部が通行できない範囲を認識した場合、俯瞰映像生成部56が、通行できない範囲を強調した俯瞰映像100を生成する。 A bird's-eye view image 100 that emphasizes the part that cannot be passed when there is a possibility of multiple passing, and there is a range where a part of the road R cannot be passed due to a vehicle stopped on the road R or construction work. May be generated and transmitted. For example, when the surrounding situation recognition unit 53 recognizes another vehicle stopped on the driving road R from the peripheral image data, the bird's-eye view image generation unit 56 generates a bird's-eye view image 100 emphasizing the other stopped vehicle. To do. For example, when the surrounding situation recognition unit 53 recognizes a range in which a part of the traveling road R cannot pass due to construction work or the like from the peripheral video data, the bird's-eye view image generation unit 56 generates a bird's-eye view image 100 emphasizing the impassable range. ..

1 運転支援システム
10 第一装置(運転支援装置)
11 前俯瞰映像用カメラ(撮影部)
12 後俯瞰映像用カメラ(撮影部)
13 左俯瞰映像用カメラ(撮影部)
14 右俯瞰映像用カメラ(撮影部)
21 インターフェース部
31 認識辞書記憶部
41 表示部
50 制御部(運転支援制御装置)
51 映像データ取得部
52 車両情報取得部
53 周辺状況認識部(他車両情報取得部)
54 対向車両情報取得部
55 すれ違い判定部
551 第一判定部
552 第二判定部
56 俯瞰映像生成部(情報生成部)
57 第一送信制御部
58 第二送信制御部
59 表示制御部
80 第二装置(判断支援装置)
90 制御部(判断支援制御装置)
91 すれ違い情報取得部
92 合成判定部
93 合成処理部
99 表示制御部
100 俯瞰映像
V 先頭車両(第一車両)
VA 対向車両(第二車両)
VB 後続車両
1 Driving support system 10 First device (driving support device)
11 Front bird's-eye view camera (shooting section)
12 Rear bird's-eye view camera (shooting section)
13 Left bird's-eye view camera (shooting section)
14 Right bird's-eye view camera (shooting section)
21 Interface unit 31 Recognition dictionary storage unit 41 Display unit 50 Control unit (driving support control device)
51 Video data acquisition unit 52 Vehicle information acquisition unit 53 Peripheral situational awareness unit (other vehicle information acquisition unit)
54 Oncoming vehicle information acquisition unit 55 Passing judgment unit 551 First judgment unit 552 Second judgment unit 56 Bird's-eye view image generation unit (information generation unit)
57 1st transmission control unit 58 2nd transmission control unit 59 Display control unit 80 2nd device (judgment support device)
90 Control unit (judgment support control device)
91 Passing information acquisition unit 92 Synthesis judgment unit 93 Synthesis processing unit 99 Display control unit 100 Bird's-eye view video V Leading vehicle (first vehicle)
VA Oncoming vehicle (second vehicle)
VB following vehicle

Claims (10)

第一車両の周辺に位置する、前記第一車両の後続車両及び前記第一車両の対向車両である第二車両を含む他車両の他車両情報を取得する他車両情報取得部と、
前記他車両情報取得部が取得した前記他車両情報に基づいて、前記後続車両が存在する状態において、前記第二車両と前記第一車両とがすれ違う可能性の有無を判定するすれ違い判定部と、
前記すれ違い判定部がすれ違う可能性があると判定した場合、前記第一車両と前記第一車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成部と、
前記情報生成部が生成した前記すれ違い情報を前記第二車両へ送信する第一送信制御部と、
前記第二車両と前記第一車両とがすれ違う可能性があることを示す対向車両情報を前記後続車両へ送信する第二送信制御部と、
を備える運転支援制御装置。
Other vehicle information acquisition unit that acquires other vehicle information of other vehicles including the following vehicle of the first vehicle and the second vehicle that is an oncoming vehicle of the first vehicle located in the vicinity of the first vehicle.
Based on the other vehicle information acquired by the other vehicle information acquisition unit, a passing determination unit that determines whether or not the second vehicle and the first vehicle may pass each other in the presence of the following vehicle, and a passing determination unit.
Information that generates passing information, including information indicating the relative positional relationship between the first vehicle and the road on which the first vehicle is traveling when the passing determination unit determines that there is a possibility of passing each other. Generator and
A first transmission control unit that transmits the passing information generated by the information generation unit to the second vehicle, and
A second transmission control unit that transmits oncoming vehicle information indicating that the second vehicle and the first vehicle may pass each other to the following vehicle.
A driving support control device equipped with.
前記情報生成部は、前記すれ違い情報として、前記第一車両の周辺を撮影する複数の撮影部が撮影した周辺映像データに視点変換処理及び合成処理を行い、前記第一車両から所定の表示範囲を表示する俯瞰映像を生成する、
請求項1に記載の運転支援制御装置。
The information generation unit performs viewpoint conversion processing and composition processing on peripheral video data captured by a plurality of photographing units that photograph the periphery of the first vehicle as the passing information, and obtains a predetermined display range from the first vehicle. Generate a bird's-eye view image to display,
The driving support control device according to claim 1.
前記他車両情報取得部は、前記第一車両の周辺を撮影した周辺映像データから前記他車両を認識して、前記他車両情報を取得する、
請求項1または2に記載の運転支援制御装置。
The other vehicle information acquisition unit recognizes the other vehicle from the peripheral image data obtained by photographing the periphery of the first vehicle, and acquires the other vehicle information.
The driving support control device according to claim 1 or 2.
第二車両の周辺に位置し、前記第二車両の対向車両である第一車両から、前記第一車両と前記第一車両が走行している走行道路との相対的な位置関係を示す情報を含むすれ違い情報を取得し、前記第一車両の後続車両から、前記後続車両と前記走行道路との相対的な位置関係を示す情報を含むすれ違い情報を取得するすれ違い情報取得部と、
前記すれ違い情報取得部が前記第一車両及び前記第一車両の後続車両から前記すれ違い情報を取得した場合、前記すれ違い情報を合成すると判定する合成判定部と、
前記合成判定部が前記すれ違い情報を合成すると判定した場合、前記すれ違い情報を合成して合成情報を生成する合成処理部と、
前記合成処理部が生成した前記合成情報を表示部に表示させる表示制御部と、
を備える判断支援制御装置。
Information indicating the relative positional relationship between the first vehicle and the driving road on which the first vehicle is traveling from the first vehicle, which is located in the vicinity of the second vehicle and is an oncoming vehicle of the second vehicle. A passing information acquisition unit that acquires passing information including information including information indicating a relative positional relationship between the following vehicle and the traveling road from the following vehicle of the first vehicle.
When the passing information acquisition unit acquires the passing information from the first vehicle and the following vehicle of the first vehicle, a synthesis determination unit that determines that the passing information is synthesized, and a synthesis determination unit.
When the synthesis determination unit determines that the passing information is to be synthesized, the synthesis processing unit that synthesizes the passing information to generate the synthesis information and the synthesis processing unit.
A display control unit that displays the composite information generated by the synthesis processing unit on the display unit,
Judgment support control device equipped with.
前記合成判定部が前記すれ違い情報を合成すると判定した場合、前記合成処理部が合成した前記合成情報に基づいて、前記第二車両と前記第一車両とのすれ違いに適したポイントを判定するすれ違いポイント判定部、
を備え、
前記合成処理部は、前記すれ違いポイント判定部が判定した、すれ違いに適したポイントを合成して合成情報を生成する、
請求項4に記載の判断支援制御装置。
When the synthesis determination unit determines that the passing information is to be synthesized, the passing point for determining a point suitable for passing between the second vehicle and the first vehicle based on the synthesis information synthesized by the synthesis processing unit. Judgment unit,
With
The synthesis processing unit synthesizes points suitable for passing, which are determined by the passing point determination unit, to generate synthetic information.
The judgment support control device according to claim 4.
前記第一車両が走行している走行道路の情報を含む地図情報を取得する地図情報取得部、
を備え、
前記合成処理部は、前記すれ違い情報と、前記地図情報取得部が取得した前記地図情報とを合成して合成情報を生成する、
請求項4または5に記載の判断支援制御装置。
Map information acquisition unit that acquires map information including information on the road on which the first vehicle is traveling,
With
The synthesis processing unit synthesizes the passing information and the map information acquired by the map information acquisition unit to generate synthetic information.
The judgment support control device according to claim 4 or 5.
請求項1から3のいずれか一項に記載の運転支援制御装置と、
請求項4から6のいずれか一項に記載の判断支援制御装置と、
を備えることを特徴とする運転支援システム。
The driving support control device according to any one of claims 1 to 3 and
The judgment support control device according to any one of claims 4 to 6.
A driving support system characterized by being equipped with.
前記運転支援制御装置は、第一車両及び前記第一車両の後続車両に搭載され、
前記判断支援制御装置は、第二車両に搭載され、
前記後続車両に搭載された前記運転支援制御装置は、前記第一車両に搭載された前記運転支援制御装置から、前記第二車両と前記第一車両とがすれ違う可能性があることを示す対向車両情報を取得した場合、前記第二車両に搭載された前記判断支援制御装置に対して、前記後続車両のすれ違い情報を送信する、
請求項7に記載の運転支援システム。
The driving support control device is mounted on the first vehicle and a vehicle following the first vehicle.
The judgment support control device is mounted on the second vehicle and is mounted on the second vehicle.
The driving support control device mounted on the following vehicle is an oncoming vehicle indicating that the second vehicle and the first vehicle may pass each other from the driving support control device mounted on the first vehicle. When the information is acquired, the passing information of the following vehicle is transmitted to the judgment support control device mounted on the second vehicle.
The driving support system according to claim 7.
第一車両の周辺に位置する、前記第一車両の後続車両及び前記第一車両の対向車両である第二車両を含む他車両の他車両情報を取得する他車両情報取得ステップと、
前記他車両情報取得ステップによって取得された前記他車両情報に基づいて、前記後続車両が存在する状態において、前記第二車両と前記第一車両とがすれ違う可能性の有無を判定するすれ違い判定ステップと、
前記すれ違い判定ステップによってすれ違う可能性があると判定された場合、前記第一車両と前記第一車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成ステップと、
前記情報生成ステップによって生成された前記すれ違い情報を前記第二車両へ送信する第一送信制御ステップと、
前記第二車両と前記第一車両とがすれ違う可能性があることを示す対向車両情報を前記後続車両へ送信する第二送信制御ステップと、
を含む運転支援制御方法。
Other vehicle information acquisition step for acquiring other vehicle information of other vehicles including the following vehicle of the first vehicle and the second vehicle which is an oncoming vehicle of the first vehicle located in the vicinity of the first vehicle.
Based on the other vehicle information acquired by the other vehicle information acquisition step, the passing determination step of determining whether or not the second vehicle and the first vehicle may pass each other in the presence of the following vehicle. ,
When it is determined by the passing determination step that there is a possibility of passing each other, the passing information including the information indicating the relative positional relationship between the first vehicle and the traveling road on which the first vehicle is traveling is generated. Information generation steps and
A first transmission control step for transmitting the passing information generated by the information generation step to the second vehicle, and
A second transmission control step for transmitting oncoming vehicle information indicating that the second vehicle and the first vehicle may pass each other to the following vehicle, and
Driving support control methods including.
第二車両の周辺に位置し、前記第二車両の対向車両である第一車両から、前記第一車両と前記第一車両が走行している走行道路との相対的な位置関係を示す情報を含むすれ違い情報を取得し、前記第一車両の後続車両から、前記後続車両と前記走行道路との相対的な位置関係を示す情報を含むすれ違い情報を取得するすれ違い情報取得ステップと、
前記すれ違い情報取得ステップによって前記第一車両及び前記第一車両の後続車両から前記すれ違い情報が取得された場合、前記すれ違い情報を合成すると判定する合成判定ステップと、
前記合成判定ステップによって前記すれ違い情報を合成すると判定された場合、前記すれ違い情報を合成して合成情報を生成する合成処理ステップと、
前記合成処理ステップによって生成された前記合成情報を表示部に表示させる表示制御ステップと、
を含む判断支援制御方法。
Information indicating the relative positional relationship between the first vehicle and the driving road on which the first vehicle is traveling from the first vehicle, which is located in the vicinity of the second vehicle and is an oncoming vehicle of the second vehicle. The passing information acquisition step of acquiring the passing information including the passing information including the information indicating the relative positional relationship between the following vehicle and the traveling road from the following vehicle of the first vehicle.
When the passing information is acquired from the first vehicle and the following vehicle of the first vehicle by the passing information acquisition step, a synthesis determination step of determining that the passing information is synthesized and a synthesis determination step.
When it is determined by the synthesis determination step that the passing information is to be synthesized, the synthesis processing step of synthesizing the passing information to generate the synthesis information and the synthesis processing step.
A display control step for displaying the synthetic information generated by the synthetic processing step on the display unit, and
Judgment support control method including.
JP2019167148A 2019-09-13 2019-09-13 Driving support control device, determination support control device, driving support system, driving support control method and determination support control method Pending JP2021043861A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019167148A JP2021043861A (en) 2019-09-13 2019-09-13 Driving support control device, determination support control device, driving support system, driving support control method and determination support control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167148A JP2021043861A (en) 2019-09-13 2019-09-13 Driving support control device, determination support control device, driving support system, driving support control method and determination support control method

Publications (1)

Publication Number Publication Date
JP2021043861A true JP2021043861A (en) 2021-03-18

Family

ID=74861713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167148A Pending JP2021043861A (en) 2019-09-13 2019-09-13 Driving support control device, determination support control device, driving support system, driving support control method and determination support control method

Country Status (1)

Country Link
JP (1) JP2021043861A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114782865A (en) * 2022-04-20 2022-07-22 清华大学 Intersection vehicle positioning method and system based on multi-view angle and re-recognition
WO2022224534A1 (en) * 2021-04-21 2022-10-27 日立Astemo株式会社 Vehicle control device and vehicle control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224534A1 (en) * 2021-04-21 2022-10-27 日立Astemo株式会社 Vehicle control device and vehicle control system
CN114782865A (en) * 2022-04-20 2022-07-22 清华大学 Intersection vehicle positioning method and system based on multi-view angle and re-recognition

Similar Documents

Publication Publication Date Title
US11619998B2 (en) Communication between autonomous vehicle and external observers
JP6635428B2 (en) Car peripheral information display system
US9195894B2 (en) Vehicle and mobile device traffic hazard warning techniques
EP3496068A1 (en) Travel assistance device and computer program
JP2010271155A (en) Current position determining device and current position determining method
CN111243332A (en) Information providing system and method, server, in-vehicle device, and storage medium
CN111273765A (en) Display control device for vehicle, display control method for vehicle, and storage medium
JP2020065141A (en) Vehicle overhead image generation system and method thereof
JP2019109707A (en) Display control device, display control method and vehicle
JP2021043861A (en) Driving support control device, determination support control device, driving support system, driving support control method and determination support control method
JP2009139306A (en) Road surface marking recognition device
WO2019172333A1 (en) Parking support device
US20210284192A1 (en) Movable object control device, movable object control method, and storage medium storing program
JPWO2019123976A1 (en) Display control method, display control device and head-up display device
JP2022041244A (en) On-vehicle display device, method, and program
JP2009110343A (en) Drive support device
JP2021022325A (en) Drive support control device, drive support system, drive support control method, and program
CN115131960A (en) Intelligent safety processing method and device for road vehicle accidents
CN115131749A (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP7451901B2 (en) Communication devices, communication methods and programs
JP2014074627A (en) Navigation system for vehicle
KR20170055623A (en) Display system and control method therof
US11645038B1 (en) Augmented reality head-up display for audio event awareness
WO2021015090A1 (en) Control device
US20240042858A1 (en) Vehicle display system, vehicle display method, and storage medium storing vehicle display program