JP2021022325A - Drive support control device, drive support system, drive support control method, and program - Google Patents

Drive support control device, drive support system, drive support control method, and program Download PDF

Info

Publication number
JP2021022325A
JP2021022325A JP2019140140A JP2019140140A JP2021022325A JP 2021022325 A JP2021022325 A JP 2021022325A JP 2019140140 A JP2019140140 A JP 2019140140A JP 2019140140 A JP2019140140 A JP 2019140140A JP 2021022325 A JP2021022325 A JP 2021022325A
Authority
JP
Japan
Prior art keywords
vehicle
passing
information
unit
bird
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019140140A
Other languages
Japanese (ja)
Inventor
彬光 落合
Akimitsu OCHIAI
彬光 落合
栗原 誠
Makoto Kurihara
誠 栗原
宗一 山口
Soichi Yamaguchi
宗一 山口
野田 隆
Takashi Noda
隆 野田
修司 岡松
Shuji Okamatsu
修司 岡松
勉 関根
Tsutomu Sekine
勉 関根
謙一 浦山
Kenichi Urayama
謙一 浦山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019140140A priority Critical patent/JP2021022325A/en
Publication of JP2021022325A publication Critical patent/JP2021022325A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To support proper determination by drivers of vehicles passing each other.SOLUTION: A drive support control device includes: a peripheral situation recognizing unit 53 as an other vehicle information acquisition unit for acquiring other vehicle information of another vehicle located in a periphery of a vehicle; a passing determination unit 54 for determining whether or not the other vehicle may pass the vehicle based on other vehicle information acquired by the peripheral situation recognizing unit 53; a bird's-eye view video generation unit 57 as an information generation unit for generating a bird's-eye view video as passing information including information showing a relative positional relation with a traveling road on which the vehicle is traveling when the passing determination unit 54 determines that the other vehicle may pass; and a transmission control unit 58 for transmitting the bird's-eye view video generated by the bird's-eye view video generation unit 57 to the other vehicle.SELECTED DRAWING: Figure 2

Description

本発明は、運転支援制御装置、運転支援システム、運転支援制御方法及びプログラムに関する。 The present invention relates to a driving support control device, a driving support system, a driving support control method and a program.

例えば、狭い路地などで車両同士がすれ違いをする場合、地図情報などに基づいて、すれ違いができる場所を表示したりする技術が知られている(例えば、特許文献1、特許文献2、特許文献3参照)。 For example, when vehicles pass each other in a narrow alley, there is known a technique of displaying a place where they can pass each other based on map information or the like (for example, Patent Document 1, Patent Document 2, Patent Document 3). reference).

特開平10−086761号公報Japanese Unexamined Patent Publication No. 10-086761 特開2006−106945号公報Japanese Unexamined Patent Publication No. 2006-106945 特開2018−151177号公報JP-A-2018-151177

双方の車両の運転者が、すれ違いに適した場所であるすれ違いポイントを適切に判断できない場合、すれ違いが難しくなるおそれがある。すれ違いを適切に行うためには、すれ違う双方の車両の運転者が周辺の状況を確認して、すれ違いポイントを適切に判断することが望まれる。 If the drivers of both vehicles cannot properly determine the passing point, which is a suitable place for passing, passing may become difficult. In order to properly pass each other, it is desirable that the drivers of both vehicles passing each other check the surrounding conditions and appropriately determine the passing point.

本発明は、上記に鑑みてなされたものであって、すれ違う双方の車両の運転者による適切な判断を支援することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to support an appropriate judgment by drivers of both vehicles passing each other.

上述した課題を解決し、目的を達成するために、本発明に係る運転支援制御装置は、車両の周辺に位置する他車両の他車両情報を取得する他車両情報取得部と、前記他車両情報取得部が取得した前記他車両情報に基づいて、前記他車両が前記車両とすれ違う可能性の有無を判定するすれ違い判定部と、前記すれ違い判定部がすれ違う可能性があると判定した場合、前記車両と、前記車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成部と、前記情報生成部が生成した前記すれ違い情報を前記他車両へ送信する送信制御部とを備える。 In order to solve the above-mentioned problems and achieve the object, the driving support control device according to the present invention includes another vehicle information acquisition unit that acquires other vehicle information of other vehicles located in the vicinity of the vehicle, and the other vehicle information. When it is determined that the passing determination unit that determines whether or not the other vehicle may pass the vehicle and the passing determination unit may pass each other based on the other vehicle information acquired by the acquisition unit, the vehicle And the information generation unit that generates the passing information including the information indicating the relative positional relationship with the traveling road on which the vehicle is traveling, and the passing information generated by the information generation unit is transmitted to the other vehicle. A transmission control unit is provided.

本発明に係る運転支援システムは、上記の運転支援制御装置と、前記車両の周辺を撮影する撮影部、前記情報生成部が生成した前記すれ違い情報を表示させる表示部の少なくともいずれかとを備える。 The driving support system according to the present invention includes at least one of the above-mentioned driving support control device, a photographing unit for photographing the periphery of the vehicle, and a display unit for displaying the passing information generated by the information generating unit.

本発明に係る運転支援制御方法は、車両の周辺に位置する他車両の他車両情報を取得する他車両情報取得ステップと、前記他車両情報取得ステップによって取得された前記他車両情報に基づいて、前記他車両が前記車両とすれ違う可能性の有無を判定するすれ違い判定ステップと、前記すれ違い判定ステップによってすれ違う可能性があると判定した場合、前記車両と、前記車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成ステップと、前記情報生成ステップによって生成された前記すれ違い情報を前記他車両へ送信する送信制御ステップとを含む。 The driving support control method according to the present invention is based on the other vehicle information acquisition step of acquiring other vehicle information of another vehicle located in the vicinity of the vehicle and the other vehicle information acquired by the other vehicle information acquisition step. When it is determined by the passing determination step for determining whether or not the other vehicle may pass the vehicle and the passing determination step may cause the other vehicle to pass each other, the vehicle and the traveling road on which the vehicle is traveling It includes an information generation step for generating passing information including information indicating a relative positional relationship, and a transmission control step for transmitting the passing information generated by the information generation step to the other vehicle.

本発明に係るプログラムは、車両の周辺に位置する他車両の他車両情報を取得する他車両情報取得ステップと、前記他車両情報取得ステップによって取得された前記他車両情報に基づいて、前記他車両が前記車両とすれ違う可能性の有無を判定するすれ違い判定ステップと、前記すれ違い判定ステップによってすれ違う可能性があると判定した場合、前記車両と、前記車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成ステップと、前記情報生成ステップによって生成された前記すれ違い情報を前記他車両へ送信する送信制御ステップとを運転支援制御装置として動作するコンピュータに実行させる。 The program according to the present invention is based on the other vehicle information acquisition step for acquiring other vehicle information of another vehicle located in the vicinity of the vehicle and the other vehicle information acquired by the other vehicle information acquisition step. When it is determined that there is a possibility of passing by the passing determination step for determining whether or not there is a possibility of passing the vehicle and the passing determination step, the relative between the vehicle and the traveling road on which the vehicle is traveling. A computer that operates as a driving support control device includes an information generation step that generates passing information including information indicating a positional relationship, and a transmission control step that transmits the passing information generated by the information generation step to the other vehicle. Let it run.

本発明によれば、すれ違う双方の車両の運転者による適切な判断を支援することができるという効果を奏する。 According to the present invention, it is possible to support an appropriate judgment by the drivers of both vehicles passing each other.

図1は、第一実施形態に係る運転支援システムの概略を説明する概略図である。FIG. 1 is a schematic diagram illustrating an outline of a driving support system according to the first embodiment. 図2は、第一実施形態に係る運転支援システムの第一装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the first device of the driving support system according to the first embodiment. 図3は、第一実施形態に係る運転支援システムの第二装置の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of the second device of the driving support system according to the first embodiment. 図4は、第一実施形態に係る第一装置が生成した俯瞰映像の一例を示す図である。FIG. 4 is a diagram showing an example of a bird's-eye view image generated by the first apparatus according to the first embodiment. 図5は、第一実施形態に係る第一装置における処理の流れの一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of a processing flow in the first apparatus according to the first embodiment. 図6は、第二実施形態に係る運転支援システムの第一装置の構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of the first device of the driving support system according to the second embodiment. 図7は、第三実施形態に係る運転支援システムの第一装置の構成例を示すブロック図である。FIG. 7 is a block diagram showing a configuration example of the first device of the driving support system according to the third embodiment. 図8は、第三実施形態に係る第一装置が生成した俯瞰映像の一例を示す図である。FIG. 8 is a diagram showing an example of a bird's-eye view image generated by the first apparatus according to the third embodiment. 図9は、第三実施形態に係る第一装置における処理の流れの一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the processing flow in the first apparatus according to the third embodiment. 図10は、第四実施形態に係る運転支援システムの第一装置の構成例を示すブロック図である。FIG. 10 is a block diagram showing a configuration example of the first device of the driving support system according to the fourth embodiment. 図11は、第四実施形態に係る運転支援システムの第二装置の構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of the second device of the driving support system according to the fourth embodiment. 図12は、第四実施形態に係る第一装置における処理の流れの一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of a processing flow in the first apparatus according to the fourth embodiment.

以下に添付図面を参照して、本発明に係る運転支援制御装置としての制御部50、運転支援システム1、運転支援制御方法及びプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the control unit 50, the driving support system 1, the driving support control method, and the program as the driving support control device according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the following embodiments.

[第一実施形態]
<運転支援システム1>
図1は、第一実施形態に係る運転支援システム1の概略を説明する概略図である。図2は、第一実施形態に係る運転支援システム1の第一装置10の構成例を示すブロック図である。図3は、第一実施形態に係る運転支援システム1の第二装置80の構成例を示すブロック図である。運転支援システム1は、車両Vが他車両V1とすれ違う可能性がある場合、車両Vの周辺の情報をすれ違い情報として他車両V1に送信する。本実施形態では、運転支援システム1は、車両Vが他車両V1とすれ違う可能性がある場合、車両Vの周辺の俯瞰映像100(図4参照)を他車両V1に送信する。運転支援システム1は、車両Vに搭載された運転支援装置としての第一装置10と、他車両V1に搭載された外部装置としての第二装置80とを含む。
[First Embodiment]
<Driving support system 1>
FIG. 1 is a schematic diagram illustrating an outline of the driving support system 1 according to the first embodiment. FIG. 2 is a block diagram showing a configuration example of the first device 10 of the driving support system 1 according to the first embodiment. FIG. 3 is a block diagram showing a configuration example of the second device 80 of the driving support system 1 according to the first embodiment. When the vehicle V may pass the other vehicle V1, the driving support system 1 transmits the information around the vehicle V to the other vehicle V1 as the passing information. In the present embodiment, the driving support system 1 transmits a bird's-eye view image 100 (see FIG. 4) around the vehicle V to the other vehicle V1 when the vehicle V may pass the other vehicle V1. The driving support system 1 includes a first device 10 as a driving support device mounted on the vehicle V and a second device 80 as an external device mounted on the other vehicle V1.

本実施形態では、車両Vが走行している走行道路Rに接続された接続道路R1から、他車両V1が走行道路Rへ進入しようとしているものとして説明する。走行道路Rの道幅は、乗用車2台分の車幅よりわずかに広いものとする。走行道路Rには、接続道路R1を映すコーナーミラーCが配置されている。走行道路Rの両側には、塀F1、塀F2が設置されている。 In the present embodiment, it is assumed that another vehicle V1 is about to enter the traveling road R from the connecting road R1 connected to the traveling road R on which the vehicle V is traveling. The width of the traveling road R shall be slightly wider than the width of two passenger cars. A corner mirror C that reflects the connecting road R1 is arranged on the traveling road R. Fences F1 and F2 are installed on both sides of the road R.

<第一装置>
第一装置10は、車両Vに載置されているものに加えて、可搬型で車両Vにおいて利用可能な装置であってもよい。第一装置10は、前俯瞰映像用カメラ(撮影部)11と、後俯瞰映像用カメラ(撮影部)12と、左俯瞰映像用カメラ(撮影部)13と、右俯瞰映像用カメラ(撮影部)14と、インターフェース部21と、認識辞書記憶部31と、表示部41と、制御部(運転支援制御装置)50とを有する。
<First device>
The first device 10 may be a portable device that can be used in the vehicle V, in addition to the device mounted on the vehicle V. The first device 10 includes a front bird's-eye view image camera (shooting unit) 11, a rear bird's-eye view image camera (shooting unit) 12, a left bird's-eye view image camera (shooting unit) 13, and a right bird's-eye view image camera (shooting unit). ) 14, an interface unit 21, a recognition dictionary storage unit 31, a display unit 41, and a control unit (driving support control device) 50.

前俯瞰映像用カメラ11は、俯瞰映像用カメラである。前俯瞰映像用カメラ11は、車両Vの前方に配置され、車両Vの前方を中心とした周辺を撮影する。前俯瞰映像用カメラ11は、例えば、180°程度の撮影範囲を撮影する。撮影範囲は、俯瞰映像100の表示範囲より車両Vの前方に広い範囲を含む。前俯瞰映像用カメラ11は、撮影した周辺映像データを制御部50の映像データ取得部51へ出力する。 The front bird's-eye view image camera 11 is a bird's-eye view image camera. The front bird's-eye view image camera 11 is arranged in front of the vehicle V and photographs the surroundings centered on the front of the vehicle V. The front bird's-eye view image camera 11 captures, for example, a shooting range of about 180 °. The shooting range includes a wider range in front of the vehicle V than the display range of the bird's-eye view image 100. The front bird's-eye view image camera 11 outputs the captured peripheral image data to the image data acquisition unit 51 of the control unit 50.

後俯瞰映像用カメラ12は、俯瞰映像用カメラである。後俯瞰映像用カメラ12は、車両Vの後方に配置され、車両Vの後方を中心とした周辺を撮影する。後俯瞰映像用カメラ12は、例えば、180°程度の撮影範囲を撮影する。撮影範囲は、俯瞰映像100の表示範囲より車両Vの後方に広い範囲を含む。後俯瞰映像用カメラ12は、撮影した周辺映像データを制御部50の映像データ取得部51へ出力する。 The rear bird's-eye view image camera 12 is a bird's-eye view image camera. The rear view image camera 12 is arranged behind the vehicle V and photographs the surroundings centered on the rear of the vehicle V. The rear view image camera 12 captures, for example, a shooting range of about 180 °. The shooting range includes a wider range behind the vehicle V than the display range of the bird's-eye view image 100. The rear view image camera 12 outputs the captured peripheral image data to the image data acquisition unit 51 of the control unit 50.

左俯瞰映像用カメラ13は、俯瞰映像用カメラである。左俯瞰映像用カメラ13は、車両Vの左側方に配置され、車両Vの左側方を中心とした周辺を撮影する。左俯瞰映像用カメラ13は、例えば、180°程度の撮影範囲を撮影する。撮影範囲は、俯瞰映像100の表示範囲より車両Vの左側方に広い範囲を含む。左俯瞰映像用カメラ13は、撮影した周辺映像データを制御部50の映像データ取得部51へ出力する。 The left bird's-eye view image camera 13 is a bird's-eye view image camera. The left bird's-eye view image camera 13 is arranged on the left side of the vehicle V, and photographs the surroundings centered on the left side of the vehicle V. The left bird's-eye view image camera 13 captures, for example, a shooting range of about 180 °. The shooting range includes a wider range on the left side of the vehicle V than the display range of the bird's-eye view image 100. The left bird's-eye view image camera 13 outputs the captured peripheral image data to the image data acquisition unit 51 of the control unit 50.

右俯瞰映像用カメラ14は、俯瞰映像用カメラである。右俯瞰映像用カメラ14は、車両Vの右側方に配置され、車両Vの右側方を中心とした周辺を撮影する。右俯瞰映像用カメラ14は、例えば、180°程度の撮影範囲を撮影する。撮影範囲は、俯瞰映像100の表示範囲より車両Vの右側方に広い範囲を含む。右俯瞰映像用カメラ14は、撮影した周辺映像データを制御部50の映像データ取得部51へ出力する。 The right bird's-eye view image camera 14 is a bird's-eye view image camera. The right bird's-eye view image camera 14 is arranged on the right side of the vehicle V, and photographs the surroundings centered on the right side of the vehicle V. The right bird's-eye view image camera 14 captures, for example, a shooting range of about 180 °. The shooting range includes a wider range on the right side of the vehicle V than the display range of the bird's-eye view image 100. The right bird's-eye view image camera 14 outputs the captured peripheral image data to the image data acquisition unit 51 of the control unit 50.

前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とで、車両Vの全方位を撮影する。前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とに限らず、車両Vの周辺を撮影する全天周カメラであってもよい。 The front bird's-eye view image camera 11, the rear bird's-eye view image camera 12, the left bird's-eye view image camera 13, and the right bird's-eye view image camera 14 capture all directions of the vehicle V. The camera 11 for the front bird's-eye view image, the camera 12 for the rear bird's-eye view image, the camera 13 for the left bird's-eye view image, and the camera 14 for the right bird's-eye view image are not limited to this, and may be an all-sky camera that photographs the periphery of the vehicle V.

インターフェース部21は、他車両V1に搭載された第二装置80との間で、情報を送受信するためのインターフェースである。インターフェース部21は、例えば、Wi−Fi(登録商標)または電話等の通信回線などに接続し、他車両V1に搭載された第二装置80へ、生成した俯瞰映像100を送信する。 The interface unit 21 is an interface for transmitting and receiving information to and from the second device 80 mounted on the other vehicle V1. The interface unit 21 connects to, for example, a Wi-Fi (registered trademark) or a communication line such as a telephone, and transmits the generated bird's-eye view image 100 to the second device 80 mounted on the other vehicle V1.

認識辞書記憶部31は、例えば、車両Vの各方向視の形状、大きさ、色などのパターンを照合可能な認識辞書を記憶している。認識辞書記憶部31は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、または、ハードディスク、光ディスク、ネットワークを介した外部記憶装置などの記憶装置である。 The recognition dictionary storage unit 31 stores, for example, a recognition dictionary capable of collating patterns such as the shape, size, and color of the vehicle V in each direction. The recognition dictionary storage unit 31 is, for example, a semiconductor memory element such as a RAM, ROM, or flash memory, or a storage device such as an external storage device via a hard disk, an optical disk, or a network.

表示部41は、一例としてはナビゲーションシステムを含む他のシステムと共用した表示装置などである。表示部41は、必要なタイミングで、車両Vの周辺を確認するためのモニタである。表示部41は、車両Vの周辺を確認することができれば、様々な形態をとりうることがでる。表示パネルの一例としては、電子ルームミラーを用いたり、インストルメントパネルの機能とすることも可能である。表示部41は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro−Luminescence)ディスプレイなどを含むディスプレイである。表示部41は、運転者から視認容易な位置に配置されている。本実施形態では、表示部41は、車両Vの運転者前方の、ダッシュボード、インストルメントパネル、センターコンソールなどに配置されている。表示部41は、制御部50の表示制御部59から出力された映像信号に基づき、車両Vの俯瞰映像100を表示する。 As an example, the display unit 41 is a display device shared with other systems including a navigation system. The display unit 41 is a monitor for checking the periphery of the vehicle V at a required timing. The display unit 41 can take various forms if the surroundings of the vehicle V can be confirmed. As an example of the display panel, it is also possible to use an electronic rear-view mirror or to function as an instrument panel. The display unit 41 is a display including, for example, a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Organic Electro-Luminence) display. The display unit 41 is arranged at a position that is easily visible to the driver. In the present embodiment, the display unit 41 is arranged on the dashboard, the instrument panel, the center console, or the like in front of the driver of the vehicle V. The display unit 41 displays the bird's-eye view image 100 of the vehicle V based on the image signal output from the display control unit 59 of the control unit 50.

制御部50は、車両Vが他車両V1とすれ違う可能性がある場合、車両Vの周辺を確認するための俯瞰映像100を生成して、他車両V1の第二装置80へ提供する。制御部50は、例えば、CPU(Central Processing Unit)または映像処理用プロセッサなどで構成された演算処理装置(制御部)である。制御部50は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部50は、映像データ取得部51と、車両情報取得部52と、周辺状況認識部(他車両情報取得部)53と、すれ違い判定部54と、俯瞰映像生成部(情報生成部)57と、送信制御部58と、表示制御部59と、内部メモリである記憶部とが含まれる。制御部50は、一または複数の装置で構成されていてもよい。 When there is a possibility that the vehicle V may pass the other vehicle V1, the control unit 50 generates a bird's-eye view image 100 for confirming the periphery of the vehicle V and provides it to the second device 80 of the other vehicle V1. The control unit 50 is an arithmetic processing unit (control unit) composed of, for example, a CPU (Central Processing Unit) or a video processing processor. The control unit 50 loads a program stored in a storage unit (not shown) into the memory and executes an instruction included in the program. The control unit 50 includes a video data acquisition unit 51, a vehicle information acquisition unit 52, a peripheral situation recognition unit (other vehicle information acquisition unit) 53, a passing determination unit 54, and a bird's-eye view image generation unit (information generation unit) 57. , A transmission control unit 58, a display control unit 59, and a storage unit which is an internal memory are included. The control unit 50 may be composed of one or a plurality of devices.

映像データ取得部51は、車両Vの周辺を撮影した周辺映像データを取得する。より詳しくは、映像データ取得部51は、前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とが出力した周辺映像データを取得する。映像データ取得部51は、取得した周辺映像データを俯瞰映像生成部57に出力する。 The video data acquisition unit 51 acquires peripheral video data obtained by photographing the periphery of the vehicle V. More specifically, the video data acquisition unit 51 acquires peripheral video data output by the front bird's-eye view image camera 11, the rear bird's-eye view image camera 12, the left bird's-eye view image camera 13, and the right bird's-eye view image camera 14. The video data acquisition unit 51 outputs the acquired peripheral video data to the bird's-eye view video generation unit 57.

車両情報取得部52は、車両Vの車速情報を含む車両情報を、CAN(Controller Area Network)または車両Vの状態をセンシングする各種センサなどから取得する。車両情報取得部52は、車両情報として、CANまたは各種センサなどから取得した車両Vの進行方向の情報を取得する。車両情報取得部52は、取得した車両情報をすれ違い判定部54に出力する。 The vehicle information acquisition unit 52 acquires vehicle information including vehicle speed information of the vehicle V from CAN (Control Area Network) or various sensors that sense the state of the vehicle V. The vehicle information acquisition unit 52 acquires information on the traveling direction of the vehicle V acquired from CAN or various sensors as vehicle information. The vehicle information acquisition unit 52 outputs the acquired vehicle information to the passing determination unit 54.

周辺状況認識部53は、車両Vの周辺の他車両V1の他車両情報を取得する他車両情報取得部として機能する。本実施形態では、周辺状況認識部53は、車両Vの周辺の状況を認識する。周辺状況認識部53は、映像データ取得部51が取得した周辺映像データに対して、認識辞書記憶部31が記憶している認識辞書を用いたパターンマッチングを行い、他車両V1を認識する。周辺状況認識部53は、車両Vの走行道路Rに進入するおそれがある他車両V1を認識する。より詳しくは、周辺状況認識部53は、車両Vの走行道路Rにおいて、車両Vの前方に位置する対向車両を他車両V1として認識する。周辺状況認識部53は、車両Vの前方において、例えば、車両Vの走行道路Rと交差または接続する道路、走行道路Rに面した駐車場などから走行道路Rへ進入しようとしている他車両V1を認識する。周辺状況認識部53は、他車両V1の方向指示器を認識して、車両Vとすれ違いをする方向に進入する他車両V1を認識してもよい。周辺状況認識部53は、認識結果を他車両情報としてすれ違い判定部54に出力する。 The surrounding situation recognition unit 53 functions as another vehicle information acquisition unit that acquires information on other vehicles V1 around the vehicle V. In the present embodiment, the surrounding situation recognition unit 53 recognizes the situation around the vehicle V. The peripheral situation recognition unit 53 performs pattern matching using the recognition dictionary stored in the recognition dictionary storage unit 31 with respect to the peripheral video data acquired by the video data acquisition unit 51, and recognizes the other vehicle V1. The surrounding situation recognition unit 53 recognizes another vehicle V1 that may enter the traveling road R of the vehicle V. More specifically, the surrounding situation recognition unit 53 recognizes an oncoming vehicle located in front of the vehicle V as another vehicle V1 on the traveling road R of the vehicle V. In front of the vehicle V, the surrounding situation recognition unit 53 uses, for example, another vehicle V1 that is about to enter the driving road R from a road that intersects or connects with the driving road R of the vehicle V, a parking lot facing the driving road R, or the like. recognize. The surrounding situation recognition unit 53 may recognize the direction indicator of the other vehicle V1 and recognize the other vehicle V1 entering in the direction of passing the vehicle V. The surrounding situation recognition unit 53 outputs the recognition result as other vehicle information to the passing determination unit 54.

周辺状況認識部53は、認識した他車両V1のナンバープレートの文字、数字、及び記号を読み取って、他車両V1を識別する他車両識別情報を認識する。 The surrounding situation recognition unit 53 reads the characters, numbers, and symbols on the license plate of the recognized other vehicle V1 and recognizes the other vehicle identification information that identifies the other vehicle V1.

周辺状況認識部53は、映像データ取得部51が取得した周辺映像データから、他車両V1が映されたコーナーミラーCを認識して、車両Vの走行道路Rに進入するおそれがある他車両V1を認識してもよい。 The surrounding situation recognition unit 53 recognizes the corner mirror C on which the other vehicle V1 is projected from the peripheral video data acquired by the video data acquisition unit 51, and may enter the driving road R of the vehicle V. May be recognized.

周辺状況認識部53は、映像データ取得部51が取得した周辺映像データに画像処理を行って、車両Vが走行している走行道路Rの道幅を取得する。 The surrounding situation recognition unit 53 performs image processing on the peripheral video data acquired by the video data acquisition unit 51 to acquire the road width of the traveling road R on which the vehicle V is traveling.

すれ違い判定部54は、他車両V1を示す他車両情報に基づいて、車両Vが他車両V1とすれ違う可能性があるか否かを判定する。本実施形態では、すれ違い判定部54は、周辺状況認識部53の認識結果に基づいて、車両Vが他車両V1とすれ違う可能性があるか否かを判定する。より詳しくは、すれ違い判定部54は、周辺状況認識部53の認識結果に基づいて、車両Vの走行道路Rの道幅が閾値以下であり、車両Vの走行道路Rに進入するおそれがある他車両V1が認識された場合、車両Vが他車両V1とすれ違う可能性があると判定する。道幅の閾値は、乗用車2台分の車幅よりわずかに広い、例えば、3.8m程度とする。 The passing determination unit 54 determines whether or not the vehicle V may pass the other vehicle V1 based on the other vehicle information indicating the other vehicle V1. In the present embodiment, the passing determination unit 54 determines whether or not the vehicle V may pass the other vehicle V1 based on the recognition result of the surrounding situation recognition unit 53. More specifically, the passing determination unit 54 is based on the recognition result of the surrounding situation recognition unit 53, and the road width of the traveling road R of the vehicle V is equal to or less than the threshold value, and the other vehicle may enter the traveling road R of the vehicle V. When V1 is recognized, it is determined that the vehicle V may pass another vehicle V1. The threshold value of the road width is slightly wider than the width of two passenger cars, for example, about 3.8 m.

俯瞰映像生成部57は、車両Vと走行道路Rとの相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成部としての機能を有する。本実施形態では、俯瞰映像生成部57は、すれ違い判定部54が車両Vが他車両V1とすれ違う可能性があると判定した場合、映像データ取得部51で取得した周辺映像データに視点変換処理及び合成処理を行い、車両Vから所定の表示範囲を表示する俯瞰映像100を、すれ違い情報として生成する。俯瞰映像生成部57は、生成した俯瞰映像100を送信制御部58及び表示制御部59に出力する。俯瞰映像生成部57は、視点変換処理部571と、切出処理部572と、合成処理部573とを有する。 The bird's-eye view image generation unit 57 has a function as an information generation unit that generates passing information including information indicating a relative positional relationship between the vehicle V and the traveling road R. In the present embodiment, when the passing determination unit 54 determines that the vehicle V may pass another vehicle V1, the bird's-eye view image generation unit 57 converts the viewpoint conversion process and the peripheral image data acquired by the image data acquisition unit 51 into the peripheral image data. The composition process is performed, and a bird's-eye view image 100 displaying a predetermined display range from the vehicle V is generated as passing information. The bird's-eye view image generation unit 57 outputs the generated bird's-eye view image 100 to the transmission control unit 58 and the display control unit 59. The bird's-eye view image generation unit 57 includes a viewpoint conversion processing unit 571, a cutting processing unit 572, and a composition processing unit 573.

すれ違い情報は、車両Vの車幅と、走行道路Rの道幅とを示す情報を含む。すれ違い情報は、車両Vの走行道路Rに設置された電柱、標識及び側溝などの障害物を示す情報を含んでもよい。 The passing information includes information indicating the vehicle width of the vehicle V and the road width of the traveling road R. The passing information may include information indicating obstacles such as utility poles, signs and gutters installed on the road R of the vehicle V.

視点変換処理部571は、映像データ取得部51で取得した周辺映像データに対して、車両Vの上方から見下ろすように視点変換処理を行う。より詳しくは、視点変換処理部571は、前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とで撮影した周辺映像データに基づいて、視点変換処理を行った映像を生成する。視点変換処理の方法は、公知のいずれの方法でもよく、限定されない。視点変換処理部571は、視点変換処理を行った周辺映像データを切出処理部572に出力する。 The viewpoint conversion processing unit 571 performs viewpoint conversion processing on the peripheral video data acquired by the video data acquisition unit 51 so as to look down from above the vehicle V. More specifically, the viewpoint conversion processing unit 571 refers to the viewpoint based on the peripheral image data captured by the front bird's-eye view image camera 11, the rear bird's-eye view image camera 12, the left bird's-eye view image camera 13, and the right bird's-eye view image camera 14. Generates the converted video. The method of the viewpoint conversion process may be any known method and is not limited. The viewpoint conversion processing unit 571 outputs the peripheral video data that has undergone the viewpoint conversion processing to the cutout processing unit 572.

切出処理部572は、視点変換処理を行った周辺映像データから所定の範囲の映像を切出す切出処理を行う。どの範囲を切出範囲とするかは、あらかじめ登録され記憶されている。本実施形態では、切出範囲は、車両Vが3.8m程度の道路を走行しているときに、道幅を確認可能な範囲である。切出範囲は、例えば、車両Vから2m程度の範囲を含む。切出処理部572は、切出処理を行った映像の映像データを合成処理部573に出力する。 The cutout processing unit 572 performs a cutout process for cutting out a predetermined range of video from the peripheral video data that has undergone the viewpoint conversion process. Which range is to be the cutout range is registered and stored in advance. In the present embodiment, the cutting range is a range in which the road width can be confirmed when the vehicle V is traveling on a road of about 3.8 m. The cutting range includes, for example, a range of about 2 m from the vehicle V. The cutout processing unit 572 outputs the video data of the cutout processed video to the synthesis processing unit 573.

合成処理部573は、切出処理を行った映像データを合成する合成処理を行う。合成処理部573は、合成した映像に車両アイコン110を表示した俯瞰映像100を生成する。 The compositing processing unit 573 performs a compositing process for synthesizing the video data that has been cut out. The compositing processing unit 573 generates a bird's-eye view video 100 in which the vehicle icon 110 is displayed on the composited video.

図4を用いて、俯瞰映像100について説明する。図4は、第一実施形態に係る第一装置10で生成した俯瞰映像100の一例を示す図である。俯瞰映像100は、車両Vから2m程度の範囲を表示する。これにより、俯瞰映像100には、車両Vが道幅3.8m以下の狭い路地を走行している場合、走行道路Rの境界に設置された、塀F1、塀F2または側溝などが表示される。俯瞰映像100は、中央部に位置する車両アイコン110を含む。車両アイコン110は、車両Vの車幅と走行道路Rの道幅との相対的な関係と、車両Vの位置と向きとを示す。車両アイコン110は、前後方向を俯瞰映像100の前後方向と平行にして、中央部に配置されている。 The bird's-eye view image 100 will be described with reference to FIG. FIG. 4 is a diagram showing an example of a bird's-eye view image 100 generated by the first apparatus 10 according to the first embodiment. The bird's-eye view image 100 displays a range of about 2 m from the vehicle V. As a result, when the vehicle V is traveling in a narrow alley with a road width of 3.8 m or less, the bird's-eye view image 100 displays a wall F1, a wall F2, a gutter, or the like installed at the boundary of the road R. The bird's-eye view image 100 includes a vehicle icon 110 located at the center. The vehicle icon 110 indicates the relative relationship between the vehicle width of the vehicle V and the road width of the traveling road R, and the position and orientation of the vehicle V. The vehicle icon 110 is arranged at the center of the bird's-eye view image 100 with the front-rear direction parallel to the front-rear direction.

送信制御部58は、すれ違いの相手車両に、すれ違いの判断を支援する情報であるすれ違い情報を送信する。本実施形態では。送信制御部58は、周辺状況認識部53の認識結果に基づいて、俯瞰映像生成部57が生成した俯瞰映像100を、認識した他車両識別に対応する他車両V1に搭載された第二装置80へ送信する。 The transmission control unit 58 transmits the passing information, which is information for supporting the judgment of the passing, to the passing vehicle. In this embodiment. The transmission control unit 58 uses the second device 80 mounted on the other vehicle V1 that recognizes the bird's-eye view image 100 generated by the bird's-eye view image generation unit 57 based on the recognition result of the surrounding situation recognition unit 53. Send to.

表示制御部59は、すれ違い情報を表示部41に表示させる。本実施形態では、表示制御部59は、俯瞰映像生成部57が生成した俯瞰映像100を表示部41に表示させる。表示制御部59によって、俯瞰映像生成部57が生成した俯瞰映像100が表示される際に、図示しないスピーカなどを介して、すれ違いの可能性があることと、俯瞰映像100を表示していることを音声によって報知することが好ましい。 The display control unit 59 causes the display unit 41 to display the passing information. In the present embodiment, the display control unit 59 causes the display unit 41 to display the bird's-eye view image 100 generated by the bird's-eye view image generation unit 57. When the bird's-eye view image 100 generated by the bird's-eye view image generation unit 57 is displayed by the display control unit 59, there is a possibility of passing each other through a speaker (not shown) or the like, and the bird's-eye view image 100 is displayed. Is preferably announced by voice.

<第二装置>
第二装置80は、他車両V1に載置されているものに加えて、可搬型で他車両V1において利用可能な装置であってもよい。第二装置80は、インターフェース部81と、表示部82と、制御部90とを有する。
<Second device>
The second device 80 may be a portable device that can be used in the other vehicle V1 in addition to the device mounted on the other vehicle V1. The second device 80 includes an interface unit 81, a display unit 82, and a control unit 90.

インターフェース部81は、第一装置10との間で、情報を送受信するためのインターフェースである。インターフェース部81は、例えば、Wi−Fiまたは電話等の通信回線などに接続し、第一装置10から生成した俯瞰映像100を受信する。 The interface unit 81 is an interface for transmitting and receiving information to and from the first device 10. The interface unit 81 connects to, for example, a communication line such as Wi-Fi or a telephone, and receives the bird's-eye view image 100 generated from the first device 10.

表示部82は、一例としてはナビゲーションシステムを含む他のシステムと共用した表示装置などである。表示部82は、制御部90の表示制御部92から出力された映像信号に基づき、第一装置10から受信した車両Vの俯瞰映像100を表示する。 As an example, the display unit 82 is a display device shared with other systems including a navigation system. The display unit 82 displays the bird's-eye view image 100 of the vehicle V received from the first device 10 based on the image signal output from the display control unit 92 of the control unit 90.

制御部90は、例えば、CPUまたは映像処理用プロセッサなどで構成された演算処理装置(制御部)である。制御部90は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部90は、すれ違い情報取得部91と、表示制御部92と、内部メモリである図示しない記憶部とが含まれる。制御部90は、一または複数の装置で構成されていてもよい。 The control unit 90 is an arithmetic processing unit (control unit) composed of, for example, a CPU or a video processing processor. The control unit 90 loads a program stored in a storage unit (not shown) into the memory and executes an instruction included in the program. The control unit 90 includes a passing information acquisition unit 91, a display control unit 92, and a storage unit (not shown) which is an internal memory. The control unit 90 may be composed of one or a plurality of devices.

すれ違い情報取得部91は、すれ違いの相手車両から、すれ違い情報を取得する。本実施形態では、すれ違い情報取得部91は、第一装置10から、すれ違い情報として俯瞰映像100を取得する。すれ違い情報取得部91は、取得した俯瞰映像100を表示制御部92に出力する。 The passing information acquisition unit 91 acquires the passing information from the passing partner vehicle. In the present embodiment, the passing information acquisition unit 91 acquires the bird's-eye view image 100 as the passing information from the first device 10. The passing information acquisition unit 91 outputs the acquired bird's-eye view image 100 to the display control unit 92.

表示制御部92は、取得したすれ違い情報を表示部82に表示させる。本実施形態では、表示制御部92は、取得した俯瞰映像100を表示部82に表示させる。表示制御部92によって、第一装置10から取得した俯瞰映像100が表示される際に、図示しないスピーカなどを介して、すれ違いの可能性があることと、第一装置10から取得した俯瞰映像100を表示していることを音声によって報知することが好ましい。 The display control unit 92 causes the display unit 82 to display the acquired passing information. In the present embodiment, the display control unit 92 causes the display unit 82 to display the acquired bird's-eye view image 100. When the display control unit 92 displays the bird's-eye view image 100 acquired from the first device 10, there is a possibility of passing each other through a speaker (not shown) or the like, and the bird's-eye view image 100 acquired from the first device 10 It is preferable to notify by voice that is displayed.

<第一装置における情報処理>
次に、図5を用いて、第一装置10の制御部50における処理の流れについて説明する。図5は、第一実施形態に係る第一装置10における処理の流れの一例を示すフローチャートである。
<Information processing in the first device>
Next, the flow of processing in the control unit 50 of the first device 10 will be described with reference to FIG. FIG. 5 is a flowchart showing an example of a processing flow in the first apparatus 10 according to the first embodiment.

運転支援システム1が起動されると、第一装置10の前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とが車両Vの周辺を撮影する。第一装置10の制御部50は、映像データ取得部51によって周辺映像データを取得して、周辺状況認識部53によって車両Vの周辺の状況を認識する。制御部50は、車両情報取得部52によって車両情報を取得する。 When the driving support system 1 is activated, the front bird's-eye view image camera 11, the rear bird's-eye view image camera 12, the left bird's-eye view image camera 13, and the right bird's-eye view image camera 14 of the first device 10 photograph the periphery of the vehicle V. To do. The control unit 50 of the first device 10 acquires peripheral video data by the video data acquisition unit 51, and recognizes the situation around the vehicle V by the peripheral situation recognition unit 53. The control unit 50 acquires vehicle information by the vehicle information acquisition unit 52.

制御部50は、すれ違い判定部54によって、車両Vの走行道路Rの道幅が狭いか否かを判定する(ステップS101)。より詳しくは、すれ違い判定部54によって、周辺状況認識部53の認識結果に基づいて、車両Vの走行道路Rの道幅が閾値以下であるか否かを判定する。すれ違い判定部54によって、車両Vの走行道路Rの道幅が閾値以下であると判定する場合(ステップS101でYes)、ステップS102へ進む。すれ違い判定部54によって、車両Vの走行道路Rの道幅が閾値以下であると判定しない場合(ステップS101でNo)、ステップS101の処理を再度実行する。 The control unit 50 determines whether or not the road width of the traveling road R of the vehicle V is narrow by the passing determination unit 54 (step S101). More specifically, the passing determination unit 54 determines whether or not the road width of the traveling road R of the vehicle V is equal to or less than the threshold value based on the recognition result of the surrounding situation awareness unit 53. When the passing determination unit 54 determines that the road width of the traveling road R of the vehicle V is equal to or less than the threshold value (Yes in step S101), the process proceeds to step S102. When the passing determination unit 54 does not determine that the road width of the traveling road R of the vehicle V is equal to or less than the threshold value (No in step S101), the process of step S101 is executed again.

車両Vの走行道路Rの道幅が閾値以下であると判定する場合(ステップS101でYes)、制御部50は、すれ違い判定部54によって、すれ違いの可能性がある他車両V1の有無を判定する(ステップS102)。より詳しくは、すれ違い判定部54によって、周辺状況認識部53の認識結果に基づいて、車両Vの走行道路Rに進入するおそれがある他車両V1が認識された場合(ステップS102でYes)、ステップS103へ進む。すれ違い判定部54によって、周辺状況認識部53の認識結果に基づいて、車両Vの走行道路Rに進入するおそれがある他車両V1が認識されない場合(ステップS102でNo)、ステップS101の処理を再度実行する。 When it is determined that the road width of the traveling road R of the vehicle V is equal to or less than the threshold value (Yes in step S101), the control unit 50 determines by the passing determination unit 54 whether or not there is another vehicle V1 that may pass each other (Yes). Step S102). More specifically, when the passing determination unit 54 recognizes another vehicle V1 that may enter the driving road R of the vehicle V based on the recognition result of the surrounding situation awareness unit 53 (Yes in step S102), the step Proceed to S103. If the passing determination unit 54 does not recognize another vehicle V1 that may enter the driving road R of the vehicle V based on the recognition result of the surrounding situation recognition unit 53 (No in step S102), the process of step S101 is repeated. Execute.

車両Vの走行道路Rに進入するおそれがある他車両V1が認識された場合(ステップS102でYes)、制御部50は、俯瞰映像生成部57によって、車両Vの俯瞰映像100を生成する(ステップS103)。制御部50は、ステップS104へ進む。 When another vehicle V1 that may enter the driving road R of the vehicle V is recognized (Yes in step S102), the control unit 50 generates a bird's-eye view image 100 of the vehicle V by the bird's-eye view image generation unit 57 (step). S103). The control unit 50 proceeds to step S104.

制御部50は、送信制御部58によって、俯瞰映像100を第二装置80へ送信する(ステップS104)。制御部50は、ステップS105へ進む。 The control unit 50 transmits the bird's-eye view image 100 to the second device 80 by the transmission control unit 58 (step S104). The control unit 50 proceeds to step S105.

制御部50は、表示制御部59によって、俯瞰映像100を表示部41に表示させる(ステップS105)。制御部50は、スピーカを介して、すれ違いの可能性があることと、俯瞰映像100を表示していることを音声によって報知する。車両Vの運転者は、表示部41に表示された俯瞰映像100を確認する。そして、車両Vの運転者は、他車両V1とすれ違いを行う場合、俯瞰映像100から車両Vの周辺の道幅及び障害物などを確認して、すれ違いポイントを判断する。制御部50は、ステップS106へ進む。 The control unit 50 causes the display control unit 59 to display the bird's-eye view image 100 on the display unit 41 (step S105). The control unit 50 notifies by voice that there is a possibility of passing each other and that the bird's-eye view image 100 is being displayed via the speaker. The driver of the vehicle V confirms the bird's-eye view image 100 displayed on the display unit 41. Then, when the driver of the vehicle V passes by another vehicle V1, he / she confirms the road width and obstacles around the vehicle V from the bird's-eye view image 100 to determine the passing point. The control unit 50 proceeds to step S106.

制御部50は、俯瞰映像表示を終了するか否かを判定する(ステップS106)。より詳しくは、制御部50は、周辺状況認識部53の認識結果に基づいて、他車両V1が認識されなくなった場合、俯瞰映像表示を終了すると判定して(ステップS106でYes)、処理を終了する。例えば、車両Vが他車両V1を通り過ぎた場合、または、他車両V1の運転者が第二装置80に表示された俯瞰映像100を確認して、すれ違いを断念して迂回した場合などには、他車両V1が認識されなくなる。制御部50は、周辺状況認識部53の認識結果に基づいて、他車両V1が認識されている場合、俯瞰映像表示を終了しないと判定して(ステップS106でNo)、ステップS103の処理を再度実行する。 The control unit 50 determines whether or not to end the bird's-eye view video display (step S106). More specifically, the control unit 50 determines that the bird's-eye view video display is terminated when the other vehicle V1 is no longer recognized based on the recognition result of the surrounding situation recognition unit 53 (Yes in step S106), and ends the process. To do. For example, when the vehicle V has passed the other vehicle V1, or when the driver of the other vehicle V1 confirms the bird's-eye view image 100 displayed on the second device 80 and gives up the passing and detours. The other vehicle V1 is not recognized. Based on the recognition result of the surrounding situation recognition unit 53, the control unit 50 determines that the bird's-eye view image display is not terminated when the other vehicle V1 is recognized (No in step S106), and repeats the process of step S103. Execute.

他車両V1では、第二装置80のすれ違い情報取得部91によって、第一装置10から、車両Vの俯瞰映像100を取得する。そして、第二装置80の表示制御部92によって、取得した車両Vの俯瞰映像100が、表示部82に表示される。他車両V1の運転者は、第二装置80の表示部82に表示された、車両Vの俯瞰映像100を確認する。そして、他車両V1の運転者は、俯瞰映像100から車両Vの周辺の道幅及び障害物などを確認して、他車両V1の車幅及び自身の運転技術の習熟度などを考慮して、車両Vとすれ違いをするか、車両Vの通過を待つか、または、迂回するかを判断する。他車両V1の運転者は、車両Vとすれ違いを行う場合、俯瞰映像100から車両Vの周辺の道幅及び障害物などを確認して、すれ違いポイントを判断する。 In the other vehicle V1, the passing information acquisition unit 91 of the second device 80 acquires a bird's-eye view image 100 of the vehicle V from the first device 10. Then, the display control unit 92 of the second device 80 displays the acquired bird's-eye view image 100 of the vehicle V on the display unit 82. The driver of the other vehicle V1 confirms the bird's-eye view image 100 of the vehicle V displayed on the display unit 82 of the second device 80. Then, the driver of the other vehicle V1 confirms the road width and obstacles around the vehicle V from the bird's-eye view image 100, and considers the vehicle width of the other vehicle V1 and the proficiency level of his / her own driving technique. Determine whether to pass V, wait for vehicle V to pass, or detour. When the driver of the other vehicle V1 passes the vehicle V, the driver confirms the road width and obstacles around the vehicle V from the bird's-eye view image 100 to determine the passing point.

このように、車両Vが他車両V1とすれ違う可能性がある場合、車両Vに搭載された第一装置10は、車両Vの周辺の情報として、生成した俯瞰映像100を、他車両V1に搭載された第二装置80へ送信する。 In this way, when there is a possibility that the vehicle V may pass the other vehicle V1, the first device 10 mounted on the vehicle V mounts the generated bird's-eye view image 100 on the other vehicle V1 as information around the vehicle V. It is transmitted to the second device 80.

<効果>
上述したように、本実施形態によれば、車両Vが他車両V1とすれ違う可能性がある場合、車両Vに搭載された第一装置10は、車両Vの周辺の情報として、生成した俯瞰映像100を、他車両V1に搭載された第二装置80へ送信することができる。車両Vの運転者は、俯瞰映像100を確認して、すれ違いポイントを判断することができる。他車両V1の運転者は、取得した俯瞰映像100を確認して、すれ違いをするか否かを判断したり、すれ違いをする場合、すれ違いポイントを判断したりすることができる。他車両V1の運転者は、他車両V1から視認しにくい車両Vの周辺の状況を、俯瞰映像100によって適切に確認することができる。このようにして、本実施形態によれば、車両Vと他車両V1とがすれ違う可能性がある場合、双方の運転者の判断を支援して、運転を支援することができる。本実施形態によれば、スムースな交通を支援することができる。
<Effect>
As described above, according to the present embodiment, when the vehicle V may pass the other vehicle V1, the first device 10 mounted on the vehicle V generates a bird's-eye view image as information around the vehicle V. 100 can be transmitted to the second device 80 mounted on the other vehicle V1. The driver of the vehicle V can check the bird's-eye view image 100 and determine the passing point. The driver of the other vehicle V1 can check the acquired bird's-eye view image 100 to determine whether or not to pass each other, and when passing each other, determine the passing point. The driver of the other vehicle V1 can appropriately confirm the situation around the vehicle V, which is difficult to see from the other vehicle V1, by the bird's-eye view image 100. In this way, according to the present embodiment, when there is a possibility that the vehicle V and the other vehicle V1 pass each other, it is possible to support the judgment of both drivers and support the driving. According to this embodiment, smooth traffic can be supported.

[第二実施形態]
図6を参照しながら、本実施形態に係る運転支援システム1について説明する。図6は、第二実施形態に係る運転支援システム1の第一装置10Aの構成例を示すブロック図である。運転支援システム1は、基本的な構成は第一実施形態の運転支援システム1と同様である。第一装置10Aは、周辺状況認識部53に代わって、周辺状況情報取得部(他車両情報取得部)53Aを有する点と、インターフェース部21Aとすれ違い判定部54Aとが第一実施形態と異なる。
[Second Embodiment]
The driving support system 1 according to the present embodiment will be described with reference to FIG. FIG. 6 is a block diagram showing a configuration example of the first device 10A of the driving support system 1 according to the second embodiment. The basic configuration of the driving support system 1 is the same as that of the driving support system 1 of the first embodiment. The first device 10A is different from the first embodiment in that it has a peripheral situation information acquisition unit (other vehicle information acquisition unit) 53A instead of the peripheral situation recognition unit 53, and the interface unit 21A and the passing determination unit 54A.

インターフェース部21Aは、周辺状況情報取得部53Aが、車両Vの周辺に存在する他車両V1の情報を含む周辺状況情報を取得するための情報源に接続するインターフェースである。インターフェース部21Aは、他車両V1に設置された第二装置80との車車間通信、または、路上に設置された図示しない路上装置との路車間通信を行うインターフェースである。本実施形態では、インターフェース部21Aは、他車両V1に搭載された第二装置80から、車両Vの周辺に存在する他車両V1の情報を含む周辺状況情報を取得する。 The interface unit 21A is an interface in which the peripheral situation information acquisition unit 53A connects to an information source for acquiring peripheral situation information including information of another vehicle V1 existing in the vicinity of the vehicle V. The interface unit 21A is an interface for performing vehicle-to-vehicle communication with a second device 80 installed in another vehicle V1 or road-to-vehicle communication with a road device (not shown) installed on the road. In the present embodiment, the interface unit 21A acquires peripheral situation information including information on the other vehicle V1 existing in the vicinity of the vehicle V from the second device 80 mounted on the other vehicle V1.

周辺状況情報取得部53Aは、車両Vの周辺の他車両V1の他車両情報を取得する他車両情報取得部として機能する。周辺状況情報取得部53Aは、車両Vの周辺に存在する他車両V1の情報を含む周辺状況情報を取得する。周辺状況情報取得部53Aが取得する他車両V1の情報は、他車両V1の現在位置情報、他車両V1の形状及び大きさを示す情報を含む。本実施形態では、周辺状況情報取得部53Aは、他車両V1に設置された第二装置80との車車間通信、または、路上装置との路車間通信によって、周辺状況情報を取得する。 The peripheral situation information acquisition unit 53A functions as another vehicle information acquisition unit that acquires other vehicle information of the other vehicle V1 around the vehicle V. The peripheral situation information acquisition unit 53A acquires the peripheral situation information including the information of the other vehicle V1 existing in the vicinity of the vehicle V. The information of the other vehicle V1 acquired by the peripheral situation information acquisition unit 53A includes the current position information of the other vehicle V1 and the information indicating the shape and size of the other vehicle V1. In the present embodiment, the peripheral situation information acquisition unit 53A acquires the peripheral situation information by vehicle-to-vehicle communication with the second device 80 installed in the other vehicle V1 or road-to-vehicle communication with the road device.

すれ違い判定部54Aは、周辺状況情報取得部53Aが取得した周辺状況情報に基づいて、車両Vの走行道路Rの道幅が閾値以下であり、車両Vの走行道路Rに進入するおそれがある他車両V1が存在することを示す場合、車両Vが他車両V1とすれ違う可能性があると判定する。 Based on the peripheral situation information acquired by the peripheral situation information acquisition unit 53A, the passing determination unit 54A has a road width of the vehicle V's traveling road R equal to or less than the threshold value, and may enter the traveling road R of the vehicle V. When indicating that V1 exists, it is determined that the vehicle V may pass another vehicle V1.

<効果>
上述したように、本実施形態によれば、第二装置80との車車間通信、または、路上装置との路車間通信によって取得した周辺状況情報に基づいて、車両Vが他車両V1とすれ違う可能性があるか否かを判定することができる。本実施形態によれば、例えば、見通しが悪く、車両Vから他車両V1が見通すことができない場合でも、適切に他車両V1の他車両情報を取得することができる。
<Effect>
As described above, according to the present embodiment, the vehicle V can pass the other vehicle V1 based on the surrounding situation information acquired by the vehicle-to-vehicle communication with the second device 80 or the road-to-vehicle communication with the road device. It is possible to determine whether or not there is a sex. According to the present embodiment, for example, even when the visibility is poor and the other vehicle V1 cannot be seen from the vehicle V, the other vehicle information of the other vehicle V1 can be appropriately acquired.

[第三実施形態]
図7ないし図9を参照しながら、本実施形態に係る運転支援システム1について説明する。図7は、第三実施形態に係る運転支援システム1の第一装置10Bの構成例を示すブロック図である。図8は、第三実施形態に係る第一装置10Bが生成した俯瞰映像100の一例を示す図である。図9は、第三実施形態に係る第一装置10Bにおける処理の流れの一例を示すフローチャートである。第一装置10Bは、さらにすれ違いポイント判定部55Bを有する点と、周辺状況認識部53Bと俯瞰映像生成部57Bの合成処理部573Bとが第一実施形態と異なる。
[Third Embodiment]
The driving support system 1 according to the present embodiment will be described with reference to FIGS. 7 to 9. FIG. 7 is a block diagram showing a configuration example of the first device 10B of the driving support system 1 according to the third embodiment. FIG. 8 is a diagram showing an example of a bird's-eye view image 100 generated by the first apparatus 10B according to the third embodiment. FIG. 9 is a flowchart showing an example of the processing flow in the first apparatus 10B according to the third embodiment. The first apparatus 10B is different from the first embodiment in that it further has a passing point determination unit 55B, and the surrounding situation recognition unit 53B and the synthesis processing unit 573B of the bird's-eye view image generation unit 57B.

周辺状況認識部53Bは、周辺映像データに画像認識を行って、車両Vの走行道路Rの形状、車両Vの走行道路Rの道幅、車両Vの走行道路Rに設置された電柱、標識及び側溝などの障害物を認識する。周辺状況認識部53Bは、認識した他車両V1の最低地上高、車幅のような他車両V1の形状及び大きさを認識してもよい。周辺状況認識部53Bは、認識した他車両V1の車種を認識する。 The surrounding situation recognition unit 53B performs image recognition on the peripheral video data, and performs image recognition on the shape of the driving road R of the vehicle V, the road width of the driving road R of the vehicle V, and the utility poles, signs and gutters installed on the driving road R of the vehicle V. Recognize obstacles such as. The surrounding situation recognition unit 53B may recognize the shape and size of the other vehicle V1 such as the minimum ground clearance and the vehicle width of the recognized other vehicle V1. The surrounding situation recognition unit 53B recognizes the recognized vehicle type of the other vehicle V1.

すれ違いポイント判定部55Bは、すれ違い判定部54が車両Vと他車両V1とがすれ違う可能性があると判定した場合、すれ違い情報に基づいて、車両Vと他車両V1とがすれ違うのに適したポイントを判定する。本実施形態では、すれ違いポイント判定部55Bは、周辺状況認識部53Bの認識結果に基づいて、車両Vと他車両V1とがすれ違うのに適したポイントを判定する。例えば、すれ違いポイント判定部55Bは、走行道路Rの道幅が、車両Vの車幅と他車両V1の車幅との合計より広い場所をすれ違いポイントと判定する。例えば、すれ違いポイント判定部55Bは、走行道路Rの道幅が、他より広い場所をすれ違いポイントと判定する。例えば、すれ違いポイント判定部55Bは、走行道路Rが段差D(図8参照)を有する場合、車両Vの最低地上高または他車両V1の最低地上高で、段差Dに乗り上げ可能であれば、段差Dを含む場所をすれ違いポイントと判定する。例えば、すれ違いポイント判定部55Bは、図示しない車両情報記憶部から、他車両V1の車種に対応する車幅、最低地上高を取得して、すれ違いポイントを判定する。例えば、すれ違いポイント判定部55Bは、走行道路Rに障害物が存在しない場所をすれ違いポイントと判定する。すれ違いポイント判定部55Bは、判定したすれ違いポイントが複数ある場合、走行道路Rの道幅と、車両Vの車幅と他車両V1の車幅の合計との差に応じて、すれ違いの難易度の優先順位を付ける。そして、すれ違いポイント判定部55Bは、優先順位が高いすれ違いポイントを優先して、すれ違いポイントを判定する。さらに、すれ違いポイント判定部55Bは、すれ違いポイントにおける、車両Vと他車両V1との停車ポイントを判定してもよい。 When the passing judgment unit 54 determines that the vehicle V and the other vehicle V1 may pass each other, the passing point determination unit 55B is a point suitable for the vehicle V and the other vehicle V1 to pass each other based on the passing information. To judge. In the present embodiment, the passing point determination unit 55B determines a point suitable for the vehicle V and the other vehicle V1 to pass each other based on the recognition result of the surrounding situation recognition unit 53B. For example, the passing point determination unit 55B determines a place where the road width of the traveling road R is wider than the total of the vehicle width of the vehicle V and the vehicle width of the other vehicle V1 as the passing point. For example, the passing point determination unit 55B determines a place where the road width of the traveling road R is wider than the others as a passing point. For example, when the traveling road R has a step D (see FIG. 8), the passing point determination unit 55B can ride on the step D at the minimum ground clearance of the vehicle V or the other vehicle V1. The place including D is determined as a passing point. For example, the passing point determination unit 55B acquires the vehicle width and the minimum ground clearance corresponding to the vehicle type of the other vehicle V1 from the vehicle information storage unit (not shown), and determines the passing point. For example, the passing point determination unit 55B determines a place where there is no obstacle on the traveling road R as a passing point. When there are a plurality of determined passing points, the passing point determination unit 55B gives priority to the difficulty of passing according to the difference between the road width of the driving road R and the total width of the vehicle V and the width of the other vehicle V1. Rank. Then, the passing point determination unit 55B gives priority to the passing points having a high priority and determines the passing points. Further, the passing point determination unit 55B may determine the stop point between the vehicle V and the other vehicle V1 at the passing point.

すれ違いポイント判定部55Bは、例えば、車両Vの運転者と、他車両V1の運転者の運転技術の習熟度を記憶した、図示しない運転履歴情報記憶部から取得して、運転習熟度が低い運転者が運転する車両が停止して、運転習熟度が高い運転者が運転する車両がすれ違うように、すれ違いポイントを判定してもよい。すれ違いポイント判定部55Bは、例えば、車両Vの運転者と、他車両V1の運転者の事故履歴情報を記憶した、図示しない事故履歴情報記憶部から取得して、事故履歴がある運転者が運転する車両が停止して、事故履歴がない運転者が運転する車両がすれ違うように、すれ違いポイントを判定してもよい。 The passing point determination unit 55B acquires, for example, from a driving history information storage unit (not shown) that stores the proficiency level of the driving technique of the driver of the vehicle V and the driver of the other vehicle V1 and has a low driving proficiency level. The passing point may be determined so that the vehicle driven by the person stops and the vehicle driven by the driver with high driving proficiency passes each other. The passing point determination unit 55B is, for example, acquired from an accident history information storage unit (not shown) that stores accident history information of the driver of vehicle V and the driver of another vehicle V1, and is driven by a driver having an accident history. The passing point may be determined so that the vehicle to be driven stops and the vehicle driven by the driver having no accident history passes each other.

図8に示すように、俯瞰映像生成部57Bの合成処理部573Bは、すれ違いポイント判定部55Bが判定した、すれ違いポイントを俯瞰映像100に合成する。合成処理部573Bは、すれ違いポイントに色を付けた俯瞰映像100を合成する。図8では、すれ違いポイントは、幅の広い斜線を引いた範囲で示している。すれ違いポイントには、走行道路Rの段差Dの手前までの範囲が含まれている。他車両V1の最低地上高が段差Dの高さより低い場合、段差Dがすれ違いポイントから外れる。 As shown in FIG. 8, the synthesis processing unit 573B of the bird's-eye view image generation unit 57B synthesizes the passing points determined by the passing point determination unit 55B into the bird's-eye view image 100. The compositing processing unit 573B synthesizes the bird's-eye view image 100 in which the passing points are colored. In FIG. 8, the passing points are shown in a wide shaded area. The passing point includes the range up to the front of the step D of the driving road R. When the minimum ground clearance of the other vehicle V1 is lower than the height of the step D, the step D deviates from the passing point.

合成処理部573Bは、すれ違いポイント判定部55Bが判定した、すれ違いポイントにおける、車両Vと他車両V1との停車ポイントを俯瞰映像100に合成してもよい。 The compositing processing unit 573B may synthesize the stop points of the vehicle V and the other vehicle V1 at the passing points determined by the passing point determination unit 55B into the bird's-eye view image 100.

合成処理部573Bは、すれ違いポイント判定部55Bが判定した、すれ違いの難易度に応じて、すれ違いポイントに色を付けた俯瞰映像100を合成してもよい。 The compositing processing unit 573B may synthesize the bird's-eye view image 100 in which the passing points are colored according to the difficulty level of the passing points determined by the passing point determination unit 55B.

次に、図9を用いて、運転支援システム1の制御部50Bにおける処理の流れについて説明する。ステップS111、ステップ112、ステップS115ないしステップS117の処理は、図5に示すフローチャートのステップS101、ステップS102、ステップS104ないしステップS106と同様の処理を行う。 Next, the flow of processing in the control unit 50B of the driving support system 1 will be described with reference to FIG. The processing of step S111, step 112, step S115 to step S117 is the same as that of step S101, step S102, step S104 to step S106 of the flowchart shown in FIG.

車両Vの走行道路Rに進入するおそれがある他車両V1が認識された場合(ステップS112でYes)、制御部50Bは、すれ違いポイント判定部55Bによって、周辺状況認識部53Bの認識結果に基づいて、車両Vと他車両V1とがすれ違うのに適したポイントを判定する(ステップS113)。制御部50Bは、ステップS114へ進む。 When another vehicle V1 that may enter the driving road R of the vehicle V is recognized (Yes in step S112), the control unit 50B is based on the recognition result of the surrounding situation recognition unit 53B by the passing point determination unit 55B. , A point suitable for the vehicle V and the other vehicle V1 to pass each other is determined (step S113). The control unit 50B proceeds to step S114.

制御部50Bは、俯瞰映像生成部57Bによって、すれ違いポイントを合成した俯瞰映像100を生成する(ステップS114)。制御部50Bは、ステップS115へ進む。 The control unit 50B generates the bird's-eye view image 100 by synthesizing the passing points by the bird's-eye view image generation unit 57B (step S114). The control unit 50B proceeds to step S115.

車両Vの運転者は、表示部41に表示された俯瞰映像100に示されたすれ違いポイントを確認して、実際にすれ違いを行う場所を判断する。 The driver of the vehicle V confirms the passing points shown in the bird's-eye view image 100 displayed on the display unit 41, and determines the place where the passing is actually performed.

他車両V1の運転者は、第二装置80の表示部82に表示された、車両Vの俯瞰映像100に示されたすれ違いポイントを確認する。そして、他車両V1の運転者は、車両Vとすれ違いをするか、車両Vの通過を待つか、または、迂回するかを判断する。他車両V1の運転者は、車両Vとすれ違いを行う場合、俯瞰映像100に示されたすれ違いポイントを確認して、実際にすれ違いを行う場所を判断する。 The driver of the other vehicle V1 confirms the passing point shown in the bird's-eye view image 100 of the vehicle V displayed on the display unit 82 of the second device 80. Then, the driver of the other vehicle V1 determines whether to pass the vehicle V, wait for the vehicle V to pass, or detour. When the driver of the other vehicle V1 passes by the vehicle V, he / she confirms the passing point shown in the bird's-eye view image 100 and determines the place where the passing is actually performed.

<効果>
上述したように、本実施形態は、車両V及び他車両V1の車両情報に基づいて、すれ違いに適したすれ違いポイントを判定することができる。本実施形態は、車両Vが他車両V1とすれ違う可能性がある場合、車両Vに搭載された第一装置10Bは、すれ違いポイントを示す俯瞰映像100を、他車両V1に搭載された第二装置80へ送信することができる。このようにして、本実施形態は、車両Vと他車両V1とがすれ違う可能性がある場合、俯瞰映像100にすれ違いポイントを示すことによって、双方の運転者の判断を支援して、運転を支援することができる。
<Effect>
As described above, in the present embodiment, it is possible to determine a passing point suitable for passing based on the vehicle information of the vehicle V and the other vehicle V1. In the present embodiment, when the vehicle V may pass the other vehicle V1, the first device 10B mounted on the vehicle V provides a bird's-eye view image 100 showing the passing points to the second device mounted on the other vehicle V1. It can be transmitted to 80. In this way, in the present embodiment, when there is a possibility that the vehicle V and the other vehicle V1 pass each other, the passing points are shown in the bird's-eye view image 100 to support the judgment of both drivers and support the driving. can do.

[第四実施形態]
図10ないし図12を参照しながら、本実施形態に係る運転支援システム1について説明する。図10は、第四実施形態に係る運転支援システム1の第一装置10Cの構成例を示すブロック図である。図11は、第四実施形態に係る運転支援システム1の第二装置80Cの構成例を示すブロック図である。図12は、第四実施形態に係る第一装置10Cにおける処理の流れの一例を示すフローチャートである。運転支援システム1は、第一装置10Cと第二装置80Cとが、第三実施形態と異なる。
[Fourth Embodiment]
The driving support system 1 according to the present embodiment will be described with reference to FIGS. 10 to 12. FIG. 10 is a block diagram showing a configuration example of the first device 10C of the driving support system 1 according to the fourth embodiment. FIG. 11 is a block diagram showing a configuration example of the second device 80C of the driving support system 1 according to the fourth embodiment. FIG. 12 is a flowchart showing an example of the processing flow in the first apparatus 10C according to the fourth embodiment. In the driving support system 1, the first device 10C and the second device 80C are different from the third embodiment.

第一装置10Cの制御部50Cは、さらに通知取得部56Cを有する。通知取得部56Cは、第二装置80Cから、すれ違いを行うことを示す情報であるすれ違い通知を取得する。 The control unit 50C of the first device 10C further includes a notification acquisition unit 56C. The notification acquisition unit 56C acquires a passing notification, which is information indicating that the passing is performed, from the second device 80C.

すれ違いポイント判定部55Cは、第三実施形態と同様に、車両Vと他車両V1とがすれ違うのに適したポイントを判定する。 The passing point determination unit 55C determines a point suitable for the vehicle V and the other vehicle V1 to pass each other, as in the third embodiment.

俯瞰映像生成部57Cの合成処理部573Cは、第三実施形態と同様に、すれ違いポイント判定部55Cが判定した、すれ違いポイントを俯瞰映像100に合成する。さらに、俯瞰映像生成部57Cの合成処理部573Cは、通知取得部56Cによって第二装置80Cからすれ違いポイントの情報を含むすれ違い通知を取得した場合、通知されたすれ違いポイントを俯瞰映像100に合成する。 Similar to the third embodiment, the synthesis processing unit 573C of the bird's-eye view image generation unit 57C synthesizes the passing points determined by the passing point determination unit 55C with the bird's-eye view image 100. Further, when the synthesis processing unit 573C of the bird's-eye view image generation unit 57C acquires the passing notification including the information of the passing points from the second device 80C by the notification acquisition unit 56C, the synthesis processing unit 573C synthesizes the notified passing points with the bird's-eye view image 100.

第二装置80Cのインターフェース部81Cは、第一装置10Cへ、すれ違い通知を送信する。 The interface unit 81C of the second device 80C transmits a passing notification to the first device 10C.

操作部83Cは、すれ違いを行うことを第一装置10Cへ通知する通知操作を受付可能である。より詳しくは、例えば、他車両V1の運転者は、表示部82に表示された、車両Vの俯瞰映像100を確認して、すれ違いを行うと判断した場合、操作部83Cを介して、通知操作を行う。操作部83Cは、受け付けた通知操作を示す操作情報を制御部90Cの操作受付部93Cへ出力する。さらに、操作部83Cは、すれ違いを行う際に、他車両V1を停車させるポイントまたはすれ違いを行いたいポイントを、他車両V1の運転者が選択する選択操作を受付可能である。例えば、他車両V1の運転者は、俯瞰映像100に表示されたすれ違いポイントを確認して、同じ場所をすれ違いポイントとして選択してもよいし、よりすれ違いが容易なすれ違いポイントを選択してもよい。操作部83Cは、受け付けた通知操作などの操作を示す操作情報を制御部90Cの操作受付部93Cへ出力する。 The operation unit 83C can accept a notification operation for notifying the first device 10C that the passing is performed. More specifically, for example, when the driver of the other vehicle V1 confirms the bird's-eye view image 100 of the vehicle V displayed on the display unit 82 and determines that the vehicle V is passing each other, the notification operation is performed via the operation unit 83C. I do. The operation unit 83C outputs the operation information indicating the received notification operation to the operation reception unit 93C of the control unit 90C. Further, the operation unit 83C can accept a selection operation in which the driver of the other vehicle V1 selects a point at which the other vehicle V1 is stopped or a point at which the other vehicle V1 wants to pass each other when passing each other. For example, the driver of the other vehicle V1 may check the passing points displayed on the bird's-eye view image 100 and select the same place as the passing points, or may select the passing points where the passing points are easier to pass. .. The operation unit 83C outputs operation information indicating an operation such as a received notification operation to the operation reception unit 93C of the control unit 90C.

制御部90Cの操作受付部93Cは、操作部83Cが受け付けた通知操作などの操作の操作情報を取得する。例えば、操作受付部93Cは、通知操作及び選択操作を示す操作情報を取得して制御信号を出力する。 The operation reception unit 93C of the control unit 90C acquires operation information of operations such as notification operations received by the operation unit 83C. For example, the operation reception unit 93C acquires operation information indicating a notification operation and a selection operation, and outputs a control signal.

送信制御部94Cは、操作受付部93Cが取得した操作情報を、第一装置10Cへ送信する。本実施形態では、送信制御部94Cは、すれ違いを行うことを示す情報であるすれ違い通知を、第一装置10Cへ送信する。すれ違い通知には、運転者によって選択された、他車両V1を停車させるポイントまたはすれ違いを行いたいポイントを示す情報を含んでもよい。 The transmission control unit 94C transmits the operation information acquired by the operation reception unit 93C to the first device 10C. In the present embodiment, the transmission control unit 94C transmits a passing notification, which is information indicating that the passing is performed, to the first device 10C. The passing notification may include information selected by the driver indicating a point at which the other vehicle V1 is stopped or a point at which the passing is desired to be performed.

次に、図12を用いて、運転支援システム1の制御部50Cにおける処理の流れについて説明する。ステップS121ないしステップS126、ステップS130ないしステップ132の処理は、図9に示すフローチャートのステップS111ないしステップS116、ステップS115ないしステップS117と同様の処理を行う。 Next, the flow of processing in the control unit 50C of the driving support system 1 will be described with reference to FIG. The processes of steps S121 to S126 and steps S130 to 132 are the same as those of steps S111 to S116 and steps S115 to S117 of the flowchart shown in FIG.

制御部50Cは、第二装置80Cからすれ違い通知があったか否かを判定する(ステップS127)。通知取得部56Cによって、すれ違い通知を示す情報を取得した場合(ステップS127でYes)、ステップS128へ進む。通知取得部56Cによって、すれ違い通知を示す情報を取得していない場合(ステップS127でNo)、ステップS132へ進む。 The control unit 50C determines whether or not there has been a passing notification from the second device 80C (step S127). When the notification acquisition unit 56C acquires the information indicating the passing notification (Yes in step S127), the process proceeds to step S128. If the notification acquisition unit 56C has not acquired the information indicating the passing notification (No in step S127), the process proceeds to step S132.

制御部50Cは、第二装置80Cからすれ違いポイントの通知があったか否かを判定する(ステップS128)。通知取得部56Cによって、すれ違いポイントの通知を示す情報を取得した場合(ステップS128でYes)、ステップS129へ進む。通知取得部56Cによって、すれ違いポイントの通知を示す情報を取得していない場合(ステップS128でNo)、ステップS132へ進む。 The control unit 50C determines whether or not the second device 80C has notified the passing point (step S128). When the notification acquisition unit 56C acquires the information indicating the notification of the passing point (Yes in step S128), the process proceeds to step S129. If the notification acquisition unit 56C has not acquired the information indicating the notification of the passing point (No in step S128), the process proceeds to step S132.

制御部50Cは、俯瞰映像生成部57Cによって、通知されたすれ違いポイントを合成した俯瞰映像100を生成する(ステップS129)。制御部50Cは、ステップS130へ進む。 The control unit 50C generates a bird's-eye view image 100 by synthesizing the passing points notified by the bird's-eye view image generation unit 57C (step S129). The control unit 50C proceeds to step S130.

本実施形態では、車両Vのすれ違いポイント判定部55Cによって判定された、すれ違いポイントと、他車両V1の運転者によって選択された、他車両V1を停車させるポイントまたはすれ違いを行いたいポイントとが異なる場合、第二装置80Cから取得したすれ違いポイントを優先する。 In the present embodiment, when the passing point determined by the passing point determination unit 55C of the vehicle V is different from the point selected by the driver of the other vehicle V1 to stop the other vehicle V1 or the point at which the passing point is desired to be performed. , Priority is given to the passing points acquired from the second device 80C.

<効果>
上述したように、本実施形態によれば、車両Vが他車両V1とすれ違う可能性がある場合、他車両V1の運転者は、取得したすれ違いポイントが合成された俯瞰映像100を確認して、すれ違いをすることを判断した場合、すれ違いを行うことを、車両Vに搭載された第一装置10Cへ通知することができる。また、本実施形態では、他車両V1の運転者が判断した、他車両V1を停車させるポイントまたはすれ違いを行いたいポイントを、第一装置10Cへ通知することができる。これにより、双方の運転者が、すれ違いを行うポイントについて、共通認識を有することができる。このようにして、本実施形態によれば、車両Vと他車両V1とがすれ違う可能性がある場合、双方の運転者の判断を支援して、運転を支援することができる。
<Effect>
As described above, according to the present embodiment, when the vehicle V may pass the other vehicle V1, the driver of the other vehicle V1 confirms the bird's-eye view image 100 in which the acquired passing points are combined. When it is determined that the vehicles pass each other, it is possible to notify the first device 10C mounted on the vehicle V that the vehicles pass each other. Further, in the present embodiment, it is possible to notify the first device 10C of the point at which the driver of the other vehicle V1 determines to stop the other vehicle V1 or the point at which he / she wants to pass each other. As a result, both drivers can have a common understanding of the points at which they pass each other. In this way, according to the present embodiment, when there is a possibility that the vehicle V and the other vehicle V1 pass each other, it is possible to support the judgment of both drivers and support the driving.

図示した運転支援システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担または使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated driving support system 1 is a functional concept and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of each device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load or usage status of each device. You may.

運転支援システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the driving support system 1 is realized, for example, by a program loaded in a memory as software. In the above embodiment, it has been described as a functional block realized by linking these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The components described above include those that can be easily assumed by those skilled in the art and those that are substantially the same. Further, the configurations described above can be appropriately combined. Further, various omissions, substitutions or changes of the configuration can be made without departing from the gist of the present invention.

<変形例>
上記では、情報生成部の一例として俯瞰映像生成部57について説明したが、これに限定されない。情報生成部は、すれ違い情報として俯瞰映像100に代わって、走行道路Rの道幅、走行道路Rにおける車両Vの位置を図で示す画像を生成して、第二装置80へ送信してもよい。または、情報生成部は、すれ違い情報として俯瞰映像100または画像に代わって、走行道路Rの道幅、走行道路Rにおける車両Vの位置を示す情報を生成して、第二装置80へ送信してもよい。第二装置80では、取得したすれ違い情報に基づいて、相対的な位置関係を示す画像を生成して表示してもよい。これらにより、第一装置10と第二装置80とが送受信するデータ量を低減することができる。
<Modification example>
In the above, the bird's-eye view image generation unit 57 has been described as an example of the information generation unit, but the present invention is not limited to this. Instead of the bird's-eye view image 100, the information generation unit may generate an image showing the road width of the traveling road R and the position of the vehicle V on the traveling road R in a diagram and transmit it to the second device 80 as the passing information. Alternatively, the information generation unit may generate information indicating the road width of the traveling road R and the position of the vehicle V on the traveling road R as the passing information instead of the bird's-eye view image 100 or the image, and transmit the information to the second device 80. Good. The second device 80 may generate and display an image showing a relative positional relationship based on the acquired passing information. As a result, the amount of data transmitted and received between the first device 10 and the second device 80 can be reduced.

上記では、車両Vの第一装置10から他車両V1の第二装置80に、車両Vの俯瞰映像100を送信するものとして説明したが、これに限定されない。例えば、車両Vと他車両V1とのうち、優先道路を走行している車両に搭載された装置から、俯瞰映像を送信するようにしてもよい。 In the above description, the bird's-eye view image 100 of the vehicle V is transmitted from the first device 10 of the vehicle V to the second device 80 of the other vehicle V1, but the present invention is not limited to this. For example, the bird's-eye view image may be transmitted from the device mounted on the vehicle traveling on the priority road among the vehicle V and the other vehicle V1.

上記では、車両Vが他車両V1とすれ違う可能性がある場合、車両Vの第一装置10から他車両V1の第二装置80に、車両Vの俯瞰映像100を送信するものとして説明したが、これに限定されず、例えば、車両Vの後続車両の車載装置及び他車両V1の後続車両の車載装置にも、車両Vの俯瞰映像100を送信してもよい。これにより、車両Vと他車両V1とがすれ違う可能性がある場合、双方の後続車両の運転者の判断を支援して、運転を支援することができる。本実施形態によれば、よりスムースな交通を支援することができる。 In the above description, when there is a possibility that the vehicle V may pass the other vehicle V1, the bird's-eye view image 100 of the vehicle V is transmitted from the first device 10 of the vehicle V to the second device 80 of the other vehicle V1. Not limited to this, for example, the bird's-eye view image 100 of the vehicle V may be transmitted to the in-vehicle device of the vehicle following the vehicle V and the in-vehicle device of the following vehicle of the other vehicle V1. As a result, when there is a possibility that the vehicle V and the other vehicle V1 pass each other, it is possible to support the judgment of the drivers of both following vehicles and support the driving. According to this embodiment, it is possible to support smoother traffic.

また、他車両V1の第二装置80と、俯瞰映像100を取得した車両Vの後続車両の車載装置及び他車両V1の後続車両の車載装置とにおいては、車両Vの俯瞰映像100と、自車両で生成した俯瞰映像とを合成してもよい。この場合、2つの俯瞰映像に共通して映されている車両Vの車体、道路などの撮影物を基準に合成すればよい。または、走行道路Rの道幅を認識可能な程度に詳細な航空写真、または、詳細な地図情報に、2つの俯瞰映像を重ね合わせ合成してもよい。 Further, in the second device 80 of the other vehicle V1, the in-vehicle device of the vehicle following the vehicle V that has acquired the bird's-eye view image 100, and the in-vehicle device of the following vehicle of the other vehicle V1, the bird's-eye view image 100 of the vehicle V and the own vehicle You may combine it with the bird's-eye view image generated in. In this case, it suffices to combine the photographed objects such as the vehicle body and the road of the vehicle V, which are commonly projected in the two bird's-eye views, as a reference. Alternatively, two bird's-eye view images may be superimposed and combined with a detailed aerial photograph or detailed map information so that the width of the traveling road R can be recognized.

上記では、第一装置10が、撮影部として、前俯瞰映像用カメラ11と後俯瞰映像用カメラ12と左俯瞰映像用カメラ13と右俯瞰映像用カメラ14とを備えるものとして説明したが、例えば、ナビゲーションシステムを含む他のシステムの既設のカメラを共用し、第一装置10には撮影部を備えていなくてもよい。また、第一装置10が表示部41を備えるものとして説明したが、例えば、ナビゲーションシステムを含む他のシステムと既設の表示部を共用し、第一装置10に表示部を備えていなくてもよい。 In the above description, the first device 10 has been described as having a front bird's-eye view image camera 11, a rear bird's-eye view image camera 12, a left bird's-eye view image camera 13, and a right bird's-eye view image camera 14 as a photographing unit. , The existing cameras of other systems including the navigation system may be shared, and the first device 10 may not have a photographing unit. Further, although the first device 10 has been described as having the display unit 41, for example, the existing display unit may be shared with other systems including the navigation system, and the first device 10 may not be provided with the display unit. ..

1 運転支援システム
10 第一装置(運転支援装置)
11 前俯瞰映像用カメラ(撮影部)
12 後俯瞰映像用カメラ(撮影部)
13 左俯瞰映像用カメラ(撮影部)
14 右俯瞰映像用カメラ(撮影部)
21 インターフェース部
31 認識辞書記憶部
41 表示部
50 制御部(運転支援制御装置)
51 映像データ取得部
52 車両情報取得部
53 周辺状況認識部(他車両情報取得部)
54 すれ違い判定部
57 俯瞰映像生成部(情報生成部)
58 送信制御部
59 表示制御部
80 第二装置(外部装置)
90 制御部
91 すれ違い情報取得部
92 表示制御部
100 俯瞰映像
V 車両
V1 他車両
1 Driving support system 10 First device (driving support device)
11 Front bird's-eye view camera (shooting section)
12 Rear bird's-eye view camera (shooting section)
13 Left bird's-eye view camera (shooting section)
14 Right bird's-eye view camera (shooting section)
21 Interface unit 31 Recognition dictionary storage unit 41 Display unit 50 Control unit (driving support control device)
51 Video data acquisition unit 52 Vehicle information acquisition unit 53 Surrounding situation awareness unit (other vehicle information acquisition unit)
54 Passing judgment unit 57 Bird's-eye view video generation unit (information generation unit)
58 Transmission control unit 59 Display control unit 80 Second device (external device)
90 Control unit 91 Passing information acquisition unit 92 Display control unit 100 Bird's-eye view video V vehicle V1 Other vehicle

Claims (8)

車両の周辺に位置する他車両の他車両情報を取得する他車両情報取得部と、
前記他車両情報取得部が取得した前記他車両情報に基づいて、前記他車両が前記車両とすれ違う可能性の有無を判定するすれ違い判定部と、
前記すれ違い判定部がすれ違う可能性があると判定した場合、前記車両と、前記車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成部と、
前記情報生成部が生成した前記すれ違い情報を前記他車両へ送信する送信制御部と、
を備える運転支援制御装置。
Other vehicle information acquisition unit that acquires other vehicle information of other vehicles located around the vehicle,
Based on the other vehicle information acquired by the other vehicle information acquisition unit, a passing determination unit that determines whether or not the other vehicle may pass the vehicle, and a passing determination unit.
When the passing determination unit determines that there is a possibility of passing each other, an information generation unit that generates passing information including information indicating a relative positional relationship between the vehicle and the road on which the vehicle is traveling. ,
A transmission control unit that transmits the passing information generated by the information generation unit to the other vehicle, and
A driving support control device equipped with.
前記情報生成部は、前記すれ違い情報として、前記車両の周辺を撮影する複数の撮影部が撮影した周辺映像データに視点変換処理及び合成処理を行い、前記車両から所定の表示範囲を表示する俯瞰映像を生成する、
請求項1に記載の運転支援制御装置。
The information generation unit performs viewpoint conversion processing and composition processing on peripheral image data captured by a plurality of photographing units that photograph the periphery of the vehicle as the passing information, and displays a bird's-eye view image that displays a predetermined display range from the vehicle. To generate,
The driving support control device according to claim 1.
前記すれ違い判定部がすれ違う可能性があると判定した場合、前記すれ違い情報に基づいて、前記車両と前記他車両とのすれ違いに適したポイントを判定するすれ違いポイント判定部、
を備え、
前記情報生成部は、前記すれ違いポイント判定部が判定した、すれ違いに適したポイントをすれ違い情報に含んで生成する、
請求項1または2に記載の運転支援制御装置。
When the passing determination unit determines that there is a possibility of passing each other, the passing point determination unit determines a point suitable for passing between the vehicle and the other vehicle based on the passing information.
With
The information generation unit generates points suitable for passing, which are determined by the passing point determination unit, in the passing information.
The driving support control device according to claim 1 or 2.
前記他車両情報取得部は、前記車両の周辺を撮影した周辺映像データから前記他車両を認識して、前記他車両情報を取得する、
請求項1から3のいずれか一項に記載の運転支援制御装置。
The other vehicle information acquisition unit recognizes the other vehicle from the peripheral image data obtained by photographing the periphery of the vehicle, and acquires the other vehicle information.
The driving support control device according to any one of claims 1 to 3.
前記他車両情報取得部は、前記他車両に設置された外部装置、または、路上に設置された路上装置から取得した情報に基づいて、前記他車両情報を取得する、
請求項1から3のいずれか一項に記載の運転支援制御装置。
The other vehicle information acquisition unit acquires the other vehicle information based on the information acquired from the external device installed on the other vehicle or the road device installed on the road.
The driving support control device according to any one of claims 1 to 3.
請求項1から5のいずれか一項に記載の運転支援制御装置と、
前記車両の周辺を撮影する撮影部、前記情報生成部が生成した前記すれ違い情報を表示させる表示部の少なくともいずれかと、
を備えることを特徴とする運転支援システム。
The driving support control device according to any one of claims 1 to 5.
At least one of a photographing unit that photographs the periphery of the vehicle and a display unit that displays the passing information generated by the information generating unit.
A driving support system characterized by being equipped with.
車両の周辺に位置する他車両の他車両情報を取得する他車両情報取得ステップと、
前記他車両情報取得ステップによって取得された前記他車両情報に基づいて、前記他車両が前記車両とすれ違う可能性の有無を判定するすれ違い判定ステップと、
前記すれ違い判定ステップによってすれ違う可能性があると判定した場合、前記車両と、前記車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成ステップと、
前記情報生成ステップによって生成された前記すれ違い情報を前記他車両へ送信する送信制御ステップと、
を含む運転支援制御方法。
Other vehicle information acquisition step to acquire other vehicle information of other vehicles located around the vehicle,
Based on the other vehicle information acquired by the other vehicle information acquisition step, a passing determination step of determining whether or not the other vehicle may pass the vehicle, and a passing determination step.
When it is determined by the passing determination step that there is a possibility of passing each other, an information generation step for generating passing information including information indicating a relative positional relationship between the vehicle and the road on which the vehicle is traveling. ,
A transmission control step for transmitting the passing information generated by the information generation step to the other vehicle, and
Driving support control methods including.
車両の周辺に位置する他車両の他車両情報を取得する他車両情報取得ステップと、
前記他車両情報取得ステップによって取得された前記他車両情報に基づいて、前記他車両が前記車両とすれ違う可能性の有無を判定するすれ違い判定ステップと、
前記すれ違い判定ステップによってすれ違う可能性があると判定した場合、前記車両と、前記車両が走行している走行道路との相対的な位置関係を示す情報を含む、すれ違い情報を生成する情報生成ステップと、
前記情報生成ステップによって生成された前記すれ違い情報を前記他車両へ送信する送信制御ステップと、
を、運転支援制御装置として動作するコンピュータに実行させるプログラム。
Other vehicle information acquisition step to acquire other vehicle information of other vehicles located around the vehicle,
Based on the other vehicle information acquired by the other vehicle information acquisition step, a passing determination step of determining whether or not the other vehicle may pass the vehicle, and a passing determination step.
When it is determined by the passing determination step that there is a possibility of passing each other, an information generation step for generating passing information including information indicating a relative positional relationship between the vehicle and the road on which the vehicle is traveling. ,
A transmission control step for transmitting the passing information generated by the information generation step to the other vehicle, and
Is a program that causes a computer that operates as a driving support control device to execute.
JP2019140140A 2019-07-30 2019-07-30 Drive support control device, drive support system, drive support control method, and program Pending JP2021022325A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019140140A JP2021022325A (en) 2019-07-30 2019-07-30 Drive support control device, drive support system, drive support control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019140140A JP2021022325A (en) 2019-07-30 2019-07-30 Drive support control device, drive support system, drive support control method, and program

Publications (1)

Publication Number Publication Date
JP2021022325A true JP2021022325A (en) 2021-02-18

Family

ID=74574836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019140140A Pending JP2021022325A (en) 2019-07-30 2019-07-30 Drive support control device, drive support system, drive support control method, and program

Country Status (1)

Country Link
JP (1) JP2021022325A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190481A1 (en) * 2021-03-12 2022-09-15 株式会社Jvcケンウッド Recording device for vehicle and recording method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190481A1 (en) * 2021-03-12 2022-09-15 株式会社Jvcケンウッド Recording device for vehicle and recording method

Similar Documents

Publication Publication Date Title
JP5169884B2 (en) Head-up display device
EP3357793A1 (en) Parking assist apparatus
JP6935800B2 (en) Vehicle control devices, vehicle control methods, and moving objects
JP6311646B2 (en) Image processing apparatus, electronic mirror system, and image processing method
US11022795B2 (en) Vehicle display control device
US20120133738A1 (en) Data Processing System and Method for Providing at Least One Driver Assistance Function
JP4930187B2 (en) Driving support system
WO2008056780A1 (en) Driving assistance device, driving assistance method, and program
JP2016218732A (en) Automobile peripheral information display system
CN111699680B (en) Automobile data recorder, display control method, and storage medium
JP4214841B2 (en) Ambient situation recognition system
JP2004061259A (en) System, method, and program for providing information
JP2021043861A (en) Driving support control device, determination support control device, driving support system, driving support control method and determination support control method
JPWO2018020604A1 (en) In-vehicle device, automobile, information providing system, in-vehicle device program, and automotive program
JP2021022325A (en) Drive support control device, drive support system, drive support control method, and program
JP2012230522A (en) Image processing apparatus and image processing method
CN115131749A (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP7451901B2 (en) Communication devices, communication methods and programs
JP7037896B2 (en) Visual assistance device
KR20210102212A (en) Image processing apparatus, image processing method and image processing system
JP2021051562A (en) Driving assist controller, result-of-determination transmission controller, driving assist system, driving assist method, and program
JP2020111260A (en) Automobile with side camera
WO2022097218A1 (en) Driving evaluation device, driving evaluation method, driving evaluation program and recording medium
JP7116670B2 (en) TRIP CONTROL DEVICE, CONTROL METHOD AND PROGRAM
WO2022176267A1 (en) Display control device and display control method