JP2021140689A - Drive assistance system, drive assistance device, drive assistance method, and drive assistance program - Google Patents

Drive assistance system, drive assistance device, drive assistance method, and drive assistance program Download PDF

Info

Publication number
JP2021140689A
JP2021140689A JP2020040281A JP2020040281A JP2021140689A JP 2021140689 A JP2021140689 A JP 2021140689A JP 2020040281 A JP2020040281 A JP 2020040281A JP 2020040281 A JP2020040281 A JP 2020040281A JP 2021140689 A JP2021140689 A JP 2021140689A
Authority
JP
Japan
Prior art keywords
image
region
traveling
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020040281A
Other languages
Japanese (ja)
Other versions
JP7422567B2 (en
Inventor
進 矢田
Susumu Yada
進 矢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020040281A priority Critical patent/JP7422567B2/en
Publication of JP2021140689A publication Critical patent/JP2021140689A/en
Application granted granted Critical
Publication of JP7422567B2 publication Critical patent/JP7422567B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To obtain a drive assistance system that can provide a captured image of a traveling area including a junction area to a driver of a vehicle, while reducing difficulty in installation of a camera.SOLUTION: A drive assistance system 100 comprises: a plurality of cameras 21, 22, and 23; and a drive assistance device 1. Each of the plurality of cameras 21, 22, and 23 images a traveling area including a first traveling route area, a second traveling route area, and an area where the first traveling route area and the second traveling route area merge. The drive assistance device 1 comprises: a conversion unit 21; a synthesis unit 22; and a display processing unit 23. The conversion unit 21 converts each of a plurality of images into an overhead view image. The synthesis unit 22 generates a synthesis image by synthesizing a plurality of overhead view images converted by the conversion unit 21. The display processing unit 23 causes each of display devices 31, 32, 33, and 34 to display the synthesis image generated by the synthesis unit 22 as an assisting image.SELECTED DRAWING: Figure 2

Description

本開示は、2つの走行路の合流領域を含む走行領域における車両の運転を支援する運転支援システム、運転支援装置、運転支援方法、および運転支援プログラムに関する。 The present disclosure relates to a driving support system, a driving support device, a driving support method, and a driving support program that support the driving of a vehicle in a driving area including a confluence area of two driving paths.

従来、複数の走行路が合流する合流領域を含む走行領域における車両の運転を支援する技術が知られている。例えば、特許文献1には、合流領域に向かって道路上を走行する各車両をカメラで撮像し、カメラの撮像画像を表示装置に表示する技術が開示されている。特許文献1に記載の技術では、各車両の未来の位置を予測し、予測した結果に基づき、推奨する走行方法を車両に実行させるための指示情報と指示情報の対象となる車両を強調する強調画像とをカメラの撮像画像上に配置した画像が表示装置に表示される。 Conventionally, there is known a technique for supporting the driving of a vehicle in a traveling area including a merging area where a plurality of traveling paths merge. For example, Patent Document 1 discloses a technique of capturing an image of each vehicle traveling on a road toward a confluence region with a camera and displaying the captured image of the camera on a display device. In the technique described in Patent Document 1, the future position of each vehicle is predicted, and based on the predicted result, the instruction information for causing the vehicle to execute the recommended driving method and the vehicle subject to the instruction information are emphasized. An image in which the image and the image are arranged on the captured image of the camera is displayed on the display device.

特開2015−52902号公報Japanese Unexamined Patent Publication No. 2015-52902

しかしながら、上記特許文献1に記載の技術では、走行領域をカメラで鉛直下向きに撮影している。そのため、例えば、高速道路において、本線、側道、および本線と側道との合流地点とを含む走行領域の画像を撮像しようとすると、カメラを走行領域の上空の高い位置に配置する必要があり、カメラの設置が難しい場合がある。 However, in the technique described in Patent Document 1, the traveling region is photographed vertically downward by the camera. Therefore, for example, on an expressway, when trying to capture an image of a traveling area including a main line, a side road, and a confluence of the main line and a side road, it is necessary to place the camera at a high position in the sky above the traveling area. , Camera installation may be difficult.

本開示は、上記に鑑みてなされたものであって、カメラの設置の困難性を低減しつつ、合流領域を含む走行領域の撮像画像を車両のドライバに提供することができる運転支援システムを得ることを目的とする。 The present disclosure has been made in view of the above, and obtains a driving support system capable of providing a captured image of a traveling region including a merging region to a vehicle driver while reducing the difficulty of installing a camera. The purpose is.

上述した課題を解決し、目的を達成するために、本開示の運転支援システムは、複数のカメラと、運転支援装置とを備える。複数のカメラは、第1の走行路の領域と、第2の走行路の領域と、第1の走行路と第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する。運転支援装置は、複数のカメラで撮像された複数の画像に基づいて、走行領域における車両の運転を支援するための支援画像を表示装置に表示させる。運転支援装置は、変換部と、合成部と、表示処理部とを備える。変換部は、複数の画像の各々を俯瞰画像へ変換する。合成部は、変換部によって変換された複数の俯瞰画像を合成した合成画像を生成する。表示処理部は、合成部によって生成された合成画像を支援画像として表示装置に表示させる。 In order to solve the above-mentioned problems and achieve the object, the driving support system of the present disclosure includes a plurality of cameras and a driving support device. The plurality of cameras cover different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. Take an image. The driving support device causes the display device to display a support image for supporting the driving of the vehicle in the traveling area based on a plurality of images captured by the plurality of cameras. The driving support device includes a conversion unit, a synthesis unit, and a display processing unit. The conversion unit converts each of the plurality of images into a bird's-eye view image. The compositing unit generates a composite image in which a plurality of bird's-eye view images converted by the conversion unit are combined. The display processing unit causes the display device to display the composite image generated by the composite unit as a support image.

本開示によれば、カメラの設置の困難性を低減しつつ、合流領域を含む走行領域の撮像画像を車両のドライバに提供することができる、という効果を奏する。 According to the present disclosure, it is possible to provide the driver of the vehicle with an image of the traveling region including the confluence region while reducing the difficulty of installing the camera.

実施の形態1にかかる運転支援方法を説明するための図The figure for demonstrating the driving support method which concerns on Embodiment 1. 実施の形態1にかかる運転支援システムの構成の一例を示す図The figure which shows an example of the structure of the driving support system which concerns on Embodiment 1. 実施の形態1にかかる第1の走行路、第2の走行路、および合流領域を含む走行領域の平面図Top view of the first travel path, the second travel path, and the travel region including the confluence region according to the first embodiment. 実施の形態1にかかる複数のカメラおよび複数の表示装置の各々の配置の一例を示す図The figure which shows an example of each arrangement of a plurality of cameras and a plurality of display devices which concerns on Embodiment 1. 実施の形態1にかかるカメラの構成の一例を示す図The figure which shows an example of the structure of the camera which concerns on Embodiment 1. 実施の形態1にかかる表示装置の構成の一例を示す図The figure which shows an example of the structure of the display device which concerns on Embodiment 1. 実施の形態1にかかる合成画像に対する複数の俯瞰画像の位置関係を示す図The figure which shows the positional relationship of a plurality of bird's-eye view images with respect to the composite image which concerns on Embodiment 1. 実施の形態1にかかる表示装置に表示される合成画像の一例を示す図The figure which shows an example of the composite image displayed on the display device which concerns on Embodiment 1. 実施の形態1にかかるカメラの数および配置が異なる場合の合成画像の一例を示す図The figure which shows an example of the composite image when the number and arrangement of the cameras concerning Embodiment 1 are different. 実施の形態1にかかるカメラの数および配置がさらに異なる場合の合成画像の一例を示す図The figure which shows an example of the composite image when the number and arrangement of the cameras concerning Embodiment 1 are further different. 実施の形態1にかかる走行領域の色づけの一例を示す図The figure which shows an example of coloring of the traveling area which concerns on Embodiment 1. 図11に示す走行領域を走行する車両のドライバから前方を見た画像の一例を示す図The figure which shows an example of the image which looked forward from the driver of the vehicle traveling in the traveling area shown in FIG. 実施の形態1にかかる運転支援装置の処理部による処理の一例を示すフローチャートA flowchart showing an example of processing by the processing unit of the driving support device according to the first embodiment. 実施の形態1にかかる運転支援装置のハードウェア構成の一例を示す図The figure which shows an example of the hardware configuration of the driving support device which concerns on Embodiment 1. 実施の形態2にかかる運転支援システムを説明するための図The figure for demonstrating the driving support system which concerns on Embodiment 2. 実施の形態2にかかる車両の一部の構成の一例を示す図The figure which shows an example of the partial structure of the vehicle which concerns on Embodiment 2. 実施の形態2にかかる運転支援装置の構成の一例を示す図The figure which shows an example of the structure of the operation support device which concerns on Embodiment 2. 実施の形態2にかかる運転支援装置の処理部による処理の一例を示すフローチャートA flowchart showing an example of processing by the processing unit of the driving support device according to the second embodiment.

以下に、実施の形態にかかる運転支援システム、運転支援装置、運転支援方法、および運転支援プログラムを図面に基づいて詳細に説明する。 Hereinafter, the driving support system, the driving support device, the driving support method, and the driving support program according to the embodiment will be described in detail based on the drawings.

実施の形態1.
図1は、実施の形態1にかかる運転支援方法を説明するための図である。図1に示すように、実施の形態1にかかる運転支援方法では、第1の走行路の領域と、第2の走行路の領域と、第1の走行路と第2の走行路とが合流する領域である合流領域とを含む走行領域が複数のカメラで撮像される。走行領域が高速道路の場合、第1の走行路は、本線の一部であり、第2の走行路は、側道であり、合流領域には、加速車線の全部および本線の一部が含まれる。なお、走行領域は高速道路に限定されない。
Embodiment 1.
FIG. 1 is a diagram for explaining a driving support method according to the first embodiment. As shown in FIG. 1, in the driving support method according to the first embodiment, the region of the first travel path, the region of the second travel path, and the first travel path and the second travel path merge. The traveling area including the confluence area, which is the area to be used, is imaged by a plurality of cameras. If the driving area is a highway, the first driving road is a part of the main lane, the second driving road is a frontage road, and the merging area includes the entire acceleration lane and a part of the main lane. Is done. The traveling area is not limited to the expressway.

図1に示す例では、複数のカメラのうちの1つ目のカメラで第1の走行路の領域が撮像され、2つ目のカメラで第2の走行路の領域が撮像され、3つ目のカメラで合流領域が撮像される。各カメラで撮像された画像である撮像画像には、走行領域を走行する車両である走行車両の画像も含まれる。これらの複数のカメラから出力される撮像画像の情報は、フレームレートが30FPS(Flames Per Second)の動画像の情報であるが、フレームレートが30FPS未満の動画像の情報であってもよく、フレームレートが30FPSを超える動画像の情報であってもよい。なお、以下において、動画像を画像と記載する場合があり、画像の情報を画像と記載する場合がある。 In the example shown in FIG. 1, the first camera of the plurality of cameras images the area of the first travel path, and the second camera images the region of the second travel path, and the third camera. The confluence area is imaged by the camera of. The captured image, which is an image captured by each camera, also includes an image of a traveling vehicle, which is a vehicle traveling in the traveling region. The information of the captured images output from these plurality of cameras is the information of the moving image having a frame rate of 30 FPS (Flames Per Second), but the information of the moving image having a frame rate of less than 30 FPS may be used, and the frame may be used. It may be moving image information having a rate exceeding 30 FPS. In the following, a moving image may be described as an image, and image information may be described as an image.

本運転支援方法では、不図示の運転支援装置によって、各カメラの撮像画像を俯瞰画像へ変換する変換処理が行われる。俯瞰画像は、鉛直方向上方から見下ろすように視点変換処理を行った画像である。そして、本運転支援方法では、不図示の運転支援装置によって、変換処理によって生成された複数の俯瞰画像を合成した合成画像を生成する合成処理が行われ、生成された合成画像を、走行領域における車両の運転を支援するための支援画像として、複数の表示装置に表示する表示処理が行われる。 In this driving support method, a conversion process for converting an image captured by each camera into a bird's-eye view image is performed by a driving support device (not shown). The bird's-eye view image is an image that has undergone viewpoint conversion processing so as to look down from above in the vertical direction. Then, in this driving support method, a driving support device (not shown) performs a compositing process of synthesizing a plurality of bird's-eye views images generated by the conversion process, and the generated composite image is used in the traveling region. As a support image for supporting the driving of the vehicle, a display process for displaying on a plurality of display devices is performed.

このように、本運転支援方法では、不図示の運転支援装置によって、複数のカメラの各々で撮像された画像である撮像画像が俯瞰画像へ変換され、変換された複数の俯瞰画像を合成した合成画像が表示装置に表示される。これにより、カメラの向きを鉛直下向きにする必要がないことから、カメラの設置の困難性を低減しつつ、合流領域を含む走行領域の撮像画像を車両のドライバに提供することができる。したがって、例えば、第2の走行路を走行する車両のドライバは、実際には見えない第1の走行路の車両の状況を臨場感を持って把握することができる。 As described above, in this driving support method, the captured image, which is an image captured by each of the plurality of cameras, is converted into a bird's-eye view image by the driving support device (not shown), and the converted plurality of bird's-eye view images are combined and combined. The image is displayed on the display device. As a result, since it is not necessary to orient the camera vertically downward, it is possible to provide the driver of the vehicle with a captured image of the traveling region including the confluence region while reducing the difficulty of installing the camera. Therefore, for example, the driver of the vehicle traveling on the second traveling path can grasp the situation of the vehicle on the first traveling path, which is not actually visible, with a sense of reality.

また、走行領域が高速道路の場合、本線および側道の各々には監視用のカメラが設置されている場合が多く、本運転支援方法では、これら既設の監視用のカメラを使用することもできる。この場合、カメラを新たに設置する必要がないことから、本運転支援方法を容易に適用することができる。 In addition, when the traveling area is an expressway, surveillance cameras are often installed on each of the main road and the frontage road, and these existing surveillance cameras can also be used in this driving support method. .. In this case, since it is not necessary to newly install a camera, this driving support method can be easily applied.

以下、本運転支援方法を実行する運転支援システムの構成について具体的に説明する。図2は、実施の形態1にかかる運転支援システムの構成の一例を示す図である。図2に示すように、実施の形態1にかかる運転支援システム100は、運転支援装置1と、複数のカメラ2,2,2と、複数の表示装置3,3,3,3と、サーバ4と、端末装置5とを備える。 Hereinafter, the configuration of the driving support system that executes this driving support method will be specifically described. FIG. 2 is a diagram showing an example of the configuration of the driving support system according to the first embodiment. As shown in FIG. 2, the driving support system 100 according to the first embodiment includes a driving support device 1, a plurality of cameras 2 1 , 2 2 , 23, and a plurality of display devices 3 1 , 3 2 , 3 3. , 34 , a server 4, and a terminal device 5.

運転支援装置1は、無線または有線によって複数のカメラ2,2,2および複数の表示装置3,3,3,3の各々と互いに通信可能に接続される。運転支援装置1は、複数のカメラ2,2,2で撮像された複数の画像に基づいて、走行領域におけるドライバによる車両の運転を支援するための支援画像を表示装置3,3,3,3に表示させる。 The driving support device 1 is wirelessly or wiredly connected to each of the plurality of cameras 2 1 , 2 2 , 2 3 and the plurality of display devices 3 1 , 3 2 , 3 3 , 3 4 so as to be able to communicate with each other. Driving support device 1 includes a plurality of cameras 2 1, 2 2, 2 3, based on the plurality of images captured by the display device support image for supporting the operation of the vehicle by the driver in the running region 3 1, 3 Display on 2 , 3 3 , 3 4.

運転支援装置1は、ゲートウェイ6およびネットワーク7を介してサーバ4と互いに通信可能に接続される。図2に示す例では、サーバ4は、クラウド上に設けられるクラウドサーバである。サーバ4は、ネットワーク8を介して道路管理会社の端末装置5と互いに通信可能に接続される。 The driving support device 1 is communicably connected to the server 4 via the gateway 6 and the network 7. In the example shown in FIG. 2, the server 4 is a cloud server provided on the cloud. The server 4 is communicably connected to the terminal device 5 of the road management company via the network 8.

図3は、実施の形態1にかかる第1の走行路、第2の走行路、および合流領域を含む走行領域の平面図である。図3に示すように、実施の形態1にかかる走行領域9は、第1の走行路9と、第2の走行路9と、第1の走行路9と第2の走行路9とが合流する領域である合流領域9とを含む。走行領域9が高速道路である場合、第1の走行路9は、本線の一部であり、第2の走行路9は、側道であり、合流領域9には、加速車線の全体および本線の一部が含まれる。 FIG. 3 is a plan view of a traveling area including the first traveling path, the second traveling path, and the confluence region according to the first embodiment. As shown in FIG. 3, drive region 9 according to the first embodiment, 1 and the first travel path 9, and the second running path 9 2, first running path 9 1 and the second of the running path 9 and a confluence region 9 3 is an area 2 and are joined. If drive region 9 is the highway, the first running path 9 1 is part of the main line, the second running path 9 2 is a side road, the confluence region 9 3, the acceleration lane Includes the entire and part of the main line.

図4は、実施の形態1にかかる複数のカメラおよび複数の表示装置の各々の配置の一例を示す図である。図4に示す例では、カメラ2は、第1の走行路9をまたぐ門型支柱に取り付けられ、第1の走行路9の上方から第1の走行路9を撮像する位置に配置される。カメラ2は、第2の走行路9をまたぐ門型支柱に取り付けられ、第2の走行路9の上方から第2の走行路9を撮像する位置に配置される。 FIG. 4 is a diagram showing an example of the arrangement of each of the plurality of cameras and the plurality of display devices according to the first embodiment. In the example shown in FIG. 4, the camera 2 1 is attached to the gate-shaped struts straddling the first running path 9 1, in a position for imaging the first running path 9 1 from a first upper travel path 9 1 Be placed. Camera 2 2 is mounted on a gate-shaped struts straddling the second running path 9 2, it is arranged at a position for imaging the second running path 9 2 from above the second traveling path 9 2.

カメラ2は、合流領域9をまたぐ門型支柱に取り付けられ、合流領域9の上方から合流領域9を撮像する位置に配置される。門型支柱を用いる方式は、オーバヘッド式または門型式とも呼ばれる。以下、複数のカメラ2,2,2の各々を個別に区別せずに示す場合、カメラ2と記載する場合がある。 The camera 2 3 is attached to the gate-shaped struts straddling the confluence region 9 3, it is disposed at a position for imaging the confluence region 9 3 from above the confluence region 9 3. The method using a gantry support is also called an overhead type or a gantry type. Hereinafter, when each of the plurality of cameras 2 1 , 2 2 , and 2 3 is shown without distinction, it may be referred to as camera 2.

図5は、実施の形態1にかかるカメラの構成の一例を示す図である。図5に示すように、カメラ2は、撮像部30と、通信部31と、処理部32とを備える。撮像部30は、例えば、CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどのイメージセンサである。通信部31は、運転支援装置1と無線または有線によって情報の送受信を行う。処理部32は、撮像部30で撮像された動画像の情報を通信部31から送信させる。 FIG. 5 is a diagram showing an example of the configuration of the camera according to the first embodiment. As shown in FIG. 5, the camera 2 includes an imaging unit 30, a communication unit 31, and a processing unit 32. The imaging unit 30 is, for example, an image sensor such as a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. The communication unit 31 transmits / receives information to / from the driving support device 1 wirelessly or by wire. The processing unit 32 causes the communication unit 31 to transmit information on the moving image captured by the imaging unit 30.

図4に示す例では、表示装置3は、第1の走行路9をまたぐ門型支柱に取り付けられ、第1の走行路9を走行する車両のドライバから視認可能な位置に配置される。表示装置3は、第2の走行路9をまたぐ門型支柱に取り付けられ、第2の走行路9を走行する車両のドライバから視認可能な位置に配置される。 In the example shown in FIG. 4, the display device 3 1 is attached to the gate-shaped struts straddling the first running path 9 1, arranged in a position visible from the driver of the vehicle traveling the first travel path 9 1 NS. Display 3 2 is attached to the gate-shaped struts straddling the second running path 9 2, is arranged in a position visible from the driver of the vehicle traveling the second running path 9 2.

表示装置3は、合流領域9をまたぐ門型支柱に取り付けられ、合流領域9を走行する車両のドライバから視認可能な位置に配置される。表示装置3は、第2の走行路9の入口に設けられた門型支柱に取り付けられ、第2の走行路9の入口に進入しようとする車両のドライバまたは第2の走行路9に繋がる走行路を走行する車両のドライバなどから視認可能な位置に配置される。このように、表示装置3,3,3,3の各々は、走行領域9の上方であって走行領域9を走行する車両のドライバが視認可能な位置に設けられる。以下、複数の表示装置3,3,3,3の各々を個別に区別せずに示す場合、表示装置3と記載する場合がある。 Display device 3 3 is attached to the gate-shaped struts straddling the confluence region 9 3, it is arranged in a position visible from the driver of the vehicle traveling on the confluence region 9 3. Display device 3 4 is attached to the gate-shaped struts are provided at the inlet of the second running path 9 2, the second running path 9 of a vehicle that is about to enter the second inlet driver or the second running path 9 It is arranged at a position that can be visually recognized by a driver or the like of a vehicle traveling on the traveling road connected to 2. In this way, each of the display devices 3 1 , 3 2 , 3 3 , 3 4 is provided above the traveling region 9 at a position where the driver of the vehicle traveling in the traveling region 9 can see. Hereinafter, when each of the plurality of display devices 3 1 , 3 2 , 3 3 , 3 4 is shown without distinction, it may be referred to as display device 3.

図6は、実施の形態1にかかる表示装置の構成の一例を示す図である。図6に示すように、表示装置3は、通信部40と、表示部41と、処理部42とを備える。通信部40は、運転支援装置1と無線または有線によって情報の送受信を行う。表示部41は、大型の表示部であり、例えば、複数のLED(Light Emitting Diode)で画像を表示するLEDビジョンである。処理部42は、通信部40によって受信された運転支援装置1からの動画像の情報である支援画像の情報を表示部41に表示させる。 FIG. 6 is a diagram showing an example of the configuration of the display device according to the first embodiment. As shown in FIG. 6, the display device 3 includes a communication unit 40, a display unit 41, and a processing unit 42. The communication unit 40 transmits / receives information to / from the driving support device 1 wirelessly or by wire. The display unit 41 is a large display unit, and is, for example, an LED vision that displays an image with a plurality of LEDs (Light Emitting Diodes). The processing unit 42 causes the display unit 41 to display the information of the support image, which is the information of the moving image from the driving support device 1 received by the communication unit 40.

図2に戻って、運転支援装置1の説明を続ける。図2に示すように、運転支援装置1は、第1の通信部10と、第2の通信部11と、処理部12とを備える。第1の通信部10は、無線または有線によって複数のカメラ2,2,2および表示装置3,3,3,3の各々と互いに通信可能に接続される。第2の通信部11は、ゲートウェイ6およびネットワーク7を介してサーバ4と互いに通信可能に接続される。 Returning to FIG. 2, the description of the driving support device 1 will be continued. As shown in FIG. 2, the driving support device 1 includes a first communication unit 10, a second communication unit 11, and a processing unit 12. The first communication unit 10 is wirelessly or wiredly connected to each of a plurality of cameras 2 1 , 2 2 , 2 3 and display devices 3 1 , 3 2 , 3 3 , 3 4 so as to be able to communicate with each other. The second communication unit 11 is communicably connected to the server 4 via the gateway 6 and the network 7.

処理部12は、取得部20と、変換部21と、合成部22と、表示処理部23とを備える。取得部20は、各カメラ2から撮像画像の情報を取得する。取得部20は、取得した撮像画像の情報を監視用画像の情報として第2の通信部11からサーバ4へ送信させる。サーバ4は、運転支援装置1から取得した各カメラ2から撮像画像の情報を端末装置5へネットワーク8を介して送信する。これにより、各カメラ2の撮像画像が端末装置5における不図示の表示部に表示され、道路管理会社の従業員は、端末装置5に表示された各カメラ2の撮像画像に基づいて、走行領域9の状態を監視することができる。 The processing unit 12 includes an acquisition unit 20, a conversion unit 21, a synthesis unit 22, and a display processing unit 23. The acquisition unit 20 acquires the information of the captured image from each camera 2. The acquisition unit 20 causes the second communication unit 11 to transmit the acquired image information as monitoring image information to the server 4. The server 4 transmits the information of the captured image from each camera 2 acquired from the driving support device 1 to the terminal device 5 via the network 8. As a result, the captured image of each camera 2 is displayed on a display unit (not shown) in the terminal device 5, and the employee of the road management company can travel area based on the captured image of each camera 2 displayed on the terminal device 5. The state of 9 can be monitored.

また、取得部20は、取得した複数の撮像画像の情報を変換部21へ出力する。変換部21は、取得部20から出力された複数の撮像画像の情報に基づいて、各カメラ2の撮像画像を俯瞰画像へ変換する。俯瞰画像は、上述したように、鉛直方向上方から見下ろすように視点変換処理が行われて生成される画像である。すなわち、俯瞰画像は、視点位置を走行領域9の上方に設定し視点方向を鉛直方向下方に設定してカメラ2の画像を座標変換することによって得られる画像である。なお、第2の走行路9が坂道である場合、第2の走行路9の俯瞰画像は、第2の走行路9に対して垂直な方向から見下ろす画像であってもよい。 Further, the acquisition unit 20 outputs the information of the acquired plurality of captured images to the conversion unit 21. The conversion unit 21 converts the captured image of each camera 2 into a bird's-eye view image based on the information of the plurality of captured images output from the acquisition unit 20. As described above, the bird's-eye view image is an image generated by performing a viewpoint conversion process so as to look down from above in the vertical direction. That is, the bird's-eye view image is an image obtained by setting the viewpoint position above the traveling region 9 and setting the viewpoint direction downward in the vertical direction and transforming the coordinates of the image of the camera 2. Incidentally, when the second running path 9 2 is slope, the second running path 9 2 of the overhead image may be an image looking down from a direction perpendicular to the second running path 9 2.

合成部22は、変換部21によって変換された複数の俯瞰画像を合成した合成画像を生成する。図7は、実施の形態1にかかる合成画像に対する複数の俯瞰画像の位置関係を示す図である。図7に示す合成画像50において、第1の画像51は、カメラ2の撮像画像から変換部21で得られる俯瞰画像であり、第2の画像52は、カメラ2の撮像画像から変換部21で得られる俯瞰画像であり、第3の画像53は、カメラ2の撮像画像から変換部21で得られる俯瞰画像である。 The compositing unit 22 generates a composite image in which a plurality of bird's-eye view images converted by the conversion unit 21 are combined. FIG. 7 is a diagram showing the positional relationship of a plurality of bird's-eye view images with respect to the composite image according to the first embodiment. In the composite image 50 shown in FIG. 7, the first image 51 is a bird's-eye view image obtained by the conversion unit 21 from the camera 2 1 captured image, the second image 52, the conversion unit from the camera 2 2 captured image a bird's-eye view image obtained at 21, the third image 53 is an overhead image obtained by the conversion unit 21 from the camera 2 3 captured images.

第1の画像51、第2の画像52、および第3の画像53の各々は、走行領域9のうち互いに異なる領域の画像である。具体的には、第1の画像51は、第1の走行路9の領域の画像であり、第2の画像52は、第2の走行路9の領域の画像であり、第3の画像53は、合流領域9の画像である。 Each of the first image 51, the second image 52, and the third image 53 is an image of different regions of the traveling region 9. Specifically, the first image 51 is an image of the region of the first travel path 91, and the second image 52 is an image of the region of the second travel path 92, which is a third image. image 53 is an image of the confluence region 9 3.

カメラ2がカメラ2,2と重複する領域を撮像する場合、カメラ2の撮像画像から変換部21で得られる俯瞰画像から、カメラ2,2の撮像画像から変換部21で得られる俯瞰画像との重複部分が削除される。また、カメラ2がカメラ2と重複する領域を撮像する場合、例えば、カメラ2の撮像画像から変換部21で得られる俯瞰画像から、カメラ2の撮像画像から変換部21で得られる俯瞰画像との重複部分が削除される。かかる重複部分の削除は、例えば、変換部21または合成部22によって実行される。 When the camera 2 3 captures an image region overlapping the camera 2 1, 2 2, the overhead view image from the camera 2 3 captured images obtained by the conversion unit 21, the camera 2 1, 2 2 of the converter 21 from the captured image The overlapping part with the obtained bird's-eye view image is deleted. Also, when the camera 2 1 images the region overlapping the camera 2 2, for example, from the bird's-eye view image from the camera 2 1 of the captured image obtained by the conversion unit 21, obtained by the conversion unit 21 from the camera 2 2 captured image The overlapping part with the bird's-eye view image is deleted. The deletion of the overlapping portion is executed by, for example, the conversion unit 21 or the synthesis unit 22.

なお、合成部22は、例えば、複数の俯瞰画像を合成した合成画像を車両の走行方向で圧縮した画像を合成画像として生成することもできる。 The compositing unit 22 can also generate, for example, a composite image obtained by compressing a composite image obtained by combining a plurality of bird's-eye view images in the traveling direction of the vehicle as a composite image.

表示処理部23は、合成部22によって生成された合成画像の情報を複数の表示装置3,3,3,3へ第1の通信部10に送信させ、合成部22によって生成された合成画像を支援画像として表示装置3,3,3,3に表示させる。 The display processing unit 23 causes a plurality of display devices 3 1 , 3 2 , 3 3 , 3 4 to transmit the information of the composite image generated by the composite unit 22 to the first communication unit 10, and is generated by the composite unit 22. The composite image is displayed as a support image on the display devices 3 1 , 3 2 , 3 3 , 3 4 .

図8は、実施の形態1にかかる表示装置に表示される合成画像の一例を示す図である。図8に示す合成画像50は、走行領域9を走行する複数の車両を上方から見た画像である。かかる合成画像50は、表示装置3,3,3,3によって表示されることから、走行領域9を走行する車両のドライバは、走行領域9における他の車両の走行状態を合成画像50から容易に把握することができる。 FIG. 8 is a diagram showing an example of a composite image displayed on the display device according to the first embodiment. The composite image 50 shown in FIG. 8 is an image of a plurality of vehicles traveling in the traveling region 9 viewed from above. Such composite image 50, display device 3 1, 3 2, 3 3, 3 4 be displayed by the vehicle driver traveling on the travel area 9, the running state of other vehicles in the travel area 9 composite image It can be easily grasped from 50.

例えば、第2の走行路9に車両が走行している場合、合流領域9における加速車線のどこから合流領域9の本線に合流すればいいかのさらに合理的な判断を、第2の走行路9を走行する車両のドライバに対して促すことができる。また、第1の走行路9を走行する車両のドライバは、第2の走行路9から合流領域9に進入する車両を事前に把握することができ、第2の走行路9から合流領域9に車両が進入しやすいように第1の走行路9を走行することができる。また、表示装置3は、例えば、高速道路に繋がる側道の入り口に設置されるため、渋滞に巻き込まれる車両を減らすことができる。そのため、運転支援システム100では、渋滞の早期解消に期することができる。 For example, if the second vehicle running path 9 2 is traveling, from where confluence region 9 of what to put merge into the third main line more reasonable judgment of the acceleration lane in the combined area 9 3, the second it is possible to prompt the vehicle driver traveling on the traveling path 9 2. Further, the driver of the vehicle traveling the first travel path 9 1 can grasp a vehicle approaching from the second running path 9 2 the joining regions 9 3 in advance, from the second of the running path 9 2 vehicle confluence region 9 3 can travel first traveling path 9 1 for easy entry. The display device 3 4, for example, to be placed at the entrance to the side road leading to the highway, it is possible to reduce the vehicle is stuck in traffic. Therefore, in the driving support system 100, it is possible to expect early elimination of traffic congestion.

なお、カメラ2の数および配置は、上述した例に限定されない。図9は、実施の形態1にかかるカメラの数および配置が異なる場合の合成画像の一例を示す図である。図10は、実施の形態1にかかるカメラの数および配置がさらに異なる場合の合成画像の一例を示す図である。 The number and arrangement of the cameras 2 are not limited to the above-mentioned example. FIG. 9 is a diagram showing an example of a composite image when the number and arrangement of cameras according to the first embodiment are different. FIG. 10 is a diagram showing an example of a composite image when the number and arrangement of cameras according to the first embodiment are further different.

図9に示す例では、4つのカメラ2の撮像画像で合成画像50が生成される。具体的には、合成画像50は、第1の画像、第2の画像、第3の画像、および第4の画像とから構成される。第1の画像は、カメラ2から得られる画像であり、第2の画像は、カメラ2から得られる画像である。また、第3の画像および第4の画像の各々は、カメラ2,2とは異なる2つのカメラ2で撮像された画像から得られる。 In the example shown in FIG. 9, the composite image 50 is generated from the captured images of the four cameras 2. Specifically, the composite image 50 is composed of a first image, a second image, a third image, and a fourth image. The first image is an image obtained from the camera 2 1, second image is an image obtained from the camera 2 2. Also, each of the third image and the fourth image is obtained from an image captured by the two different camera 2 and camera 2 1, 2 2.

図10に示す例では、2つのカメラ2の撮像画像で合成画像50が生成される。具体的には、合成画像50は、第1の画像および第2の画像から構成される。第1の画像は、1つ目のカメラ2から得られる画像であり、第2の画像は、2つ目のカメラ2から得られる画像である。1つ目のカメラ2は、走行領域9のうち第1の走行路9と合流領域9の一部とを含む領域を撮像し、2つ目のカメラ2は、走行領域9のうち第2の走行路9と合流領域9の一部とを含む領域を撮像する。なお、カメラ2の数は、5つ以上であってもよく、カメラ2の配置は、上述した例に限定されない。 In the example shown in FIG. 10, the composite image 50 is generated from the captured images of the two cameras 2. Specifically, the composite image 50 is composed of a first image and a second image. The first image is an image obtained from the first camera 2, and the second image is an image obtained from the second camera 2. The first camera 2 images an area of the traveling area 9 including the first traveling path 9 1 and a part of the merging area 93 3 , and the second camera 2 is the third traveling area 9. An image is taken of a region including a traveling path 9 2 of 2 and a part of the merging region 93 3. The number of cameras 2 may be five or more, and the arrangement of the cameras 2 is not limited to the above-mentioned example.

走行領域9には、車両が走行する方向において分割される複数の領域の各々に異なる色が付けられており、これにより、走行領域9を走行する車両のドライバは、車両が走行している領域の色と表示装置3に表示された合成画像50とから、合成画像50に含まれる複数の車両のうち搭乗している車両が走行している位置を容易に把握することができる。 Each of the plurality of regions divided in the direction in which the vehicle travels is colored differently in the traveling region 9, so that the driver of the vehicle traveling in the traveling region 9 can use the region in which the vehicle is traveling. From the color of the above and the composite image 50 displayed on the display device 3, it is possible to easily grasp the position where the vehicle on board is traveling among the plurality of vehicles included in the composite image 50.

図11は、実施の形態1にかかる走行領域の色づけの一例を示す図である。図11に示す例では、走行領域9のうち互いに異なる色が付された複数の領域の各々が異なるハッチングで示される。すなわち、図11では、ハッチングによって色の違いを表現している。 FIG. 11 is a diagram showing an example of coloring the traveling region according to the first embodiment. In the example shown in FIG. 11, each of a plurality of regions of the traveling regions 9 that are colored differently from each other is indicated by different hatching. That is, in FIG. 11, the difference in color is expressed by hatching.

図11に示す例では、走行領域9の複数の領域の各々に異なる色が付されている。例えば、第1の走行路9の領域91と第2の走行路9の領域93とが黄色で塗装され、第1の走行路9の領域92と第2の走行路9の領域94とが橙色で塗装され、合流領域9が青色に塗装される。 In the example shown in FIG. 11, each of the plurality of regions of the traveling region 9 is colored differently. For example, the first running path 9 1 area 91 and the second running path 9 2 region 93 is painted in yellow, and the first running path 9 1 region 92 second running path 9 2 regions 94 and is painted with orange confluence region 9 3 are painted blue.

図12は、図11に示す走行領域を走行する車両のドライバから前方を見た画像の一例を示す図である。図12に示す例は、第1の走行路9の領域91を走行している車両から見た画像であり、第1の走行路9の領域92に他の車両が存在している。第1の走行路9の領域91を走行している車両のドライバは、車両が走行している領域の色と、表示装置3に表示された合成画像50とから、合成画像50に含まれる複数の車両のうち搭乗している車両が走行している位置を容易に把握することができる。 FIG. 12 is a diagram showing an example of an image looking forward from the driver of the vehicle traveling in the traveling region shown in FIG. Example shown in FIG. 12 is an image viewed from a vehicle traveling in the first travel path 9 1 area 91, the other vehicle is present in the first running path 9 1 area 92. First running path 9 1 of the vehicle traveling on the region 91 driver, the color of the area where the vehicle is traveling, from the displayed synthesized image 50. on the display unit 3 is included in the composite image 50 It is possible to easily grasp the position where the vehicle on board is traveling among a plurality of vehicles.

つづいて、フローチャートを用いて運転支援装置1の処理部12による処理を説明する。図13は、実施の形態1にかかる運転支援装置の処理部による処理の一例を示すフローチャートである。図13に示す処理は、運転支援装置1の処理部12によって繰り返し実行される。例えば、処理部12は、各カメラ2から1フレームの画像の情報を取得する毎に図13に示す処理を実行する。 Subsequently, the processing by the processing unit 12 of the driving support device 1 will be described with reference to the flowchart. FIG. 13 is a flowchart showing an example of processing by the processing unit of the driving support device according to the first embodiment. The process shown in FIG. 13 is repeatedly executed by the processing unit 12 of the driving support device 1. For example, the processing unit 12 executes the process shown in FIG. 13 every time the information of the image of one frame is acquired from each camera 2.

図13に示すように、運転支援装置1の処理部12は、複数のカメラ2の各々から撮像画像を取得する(ステップS10)。処理部12は、ステップS10で取得した複数の撮像画像をサーバ4へ送信すると共に(ステップS11)、ステップS10で取得した複数の撮像画像の各々を俯瞰画像へ変換する(ステップS12)。 As shown in FIG. 13, the processing unit 12 of the driving support device 1 acquires captured images from each of the plurality of cameras 2 (step S10). The processing unit 12 transmits the plurality of captured images acquired in step S10 to the server 4 (step S11), and converts each of the plurality of captured images acquired in step S10 into a bird's-eye view image (step S12).

次に、処理部12は、ステップS12で変換した複数の俯瞰画像を合成して合成画像を生成する(ステップS13)。処理部12は、ステップS13で生成した合成画像を支援画像として各表示装置3に表示すると共に(ステップS14)、ステップS13で生成した合成画像を第2の通信部11にサーバ4へ送信させ(ステップS15)、図13に示す処理を終了する。なお、処理部12は、ステップS15の処理を行わないこともできる。 Next, the processing unit 12 synthesizes a plurality of bird's-eye view images converted in step S12 to generate a composite image (step S13). The processing unit 12 displays the composite image generated in step S13 as a support image on each display device 3 (step S14), and causes the second communication unit 11 to transmit the composite image generated in step S13 to the server 4 (step S14). Step S15), the process shown in FIG. 13 is terminated. The processing unit 12 may not perform the processing of step S15.

図14は、実施の形態1にかかる運転支援装置のハードウェア構成の一例を示す図である。図14に示すように、運転支援装置1は、プロセッサ101と、メモリ102と、第1の通信装置103と、第2の通信装置104とを備えるコンピュータを含む。プロセッサ101、メモリ102、第1の通信装置103、および第2の通信装置104は、例えば、バス105によって互いにデータの送受信が可能である。第1の通信部10は、第1の通信装置103によって実現され、第2の通信部11は、第2の通信装置104によって実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、取得部20、変換部21、合成部22、および表示処理部23の機能を実行する。 FIG. 14 is a diagram showing an example of the hardware configuration of the driving support device according to the first embodiment. As shown in FIG. 14, the driving support device 1 includes a computer including a processor 101, a memory 102, a first communication device 103, and a second communication device 104. The processor 101, the memory 102, the first communication device 103, and the second communication device 104 can send and receive data to and from each other by, for example, the bus 105. The first communication unit 10 is realized by the first communication device 103, and the second communication unit 11 is realized by the second communication device 104. The processor 101 executes the functions of the acquisition unit 20, the conversion unit 21, the synthesis unit 22, and the display processing unit 23 by reading and executing the program stored in the memory 102.

プロセッサ101は、例えば、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびシステムLSI(Large Scale Integration)のうち一つ以上を含む。メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、およびEEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)のうち一つ以上を含む。また、メモリ102は、コンピュータが読み取り可能な上述したプログラムが記録された記録媒体を含む。かかる記録媒体は、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち一つ以上を含む。なお、運転支援装置1の処理部12は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)などの集積回路を含んでいてもよい。 The processor 101 is, for example, an example of a processing circuit, and includes one or more of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a system LSI (Large Scale Integration). The memory 102 includes one or more of RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). include. Further, the memory 102 includes a recording medium on which the above-mentioned program that can be read by a computer is recorded. Such recording media include one or more of non-volatile or volatile semiconductor memories, magnetic disks, flexible memories, optical disks, compact discs, and DVDs (Digital Versatile Discs). The processing unit 12 of the driving support device 1 may include integrated circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array).

以上のように、実施の形態1にかかる運転支援システム100は、複数のカメラ2と、運転支援装置1とを備える。複数のカメラ2は、第1の走行路9の領域と、第2の走行路9の領域と、第1の走行路9と第2の走行路9とが合流する領域である合流領域9とを含む走行領域9のうち各々異なる領域を撮像する。運転支援装置1は、複数のカメラ2で撮像された複数の画像に基づいて、走行領域9における車両の運転を支援するための支援画像を表示装置3に表示させる。運転支援装置1は、変換部21と、合成部22と、表示処理部23とを備える。変換部21は、複数のカメラ2で撮像された複数の画像の各々を俯瞰画像へ変換する。合成部22は、変換部21によって変換された複数の俯瞰画像を合成した合成画像を生成する。表示処理部23は、合成部22によって生成された合成画像を支援画像として表示装置3に表示させる。これにより、カメラ2の向きを鉛直下向きにする必要がないことから、カメラ2の設置の困難性を低減しつつ、合流領域9を含む走行領域9の撮像画像を車両のドライバに提供することができる。したがって、例えば、第2の走行路9を走行する車両のドライバは、実際には見えない第1の走行路9の車両の状況を臨場感を持って把握することができる。 As described above, the driving support system 100 according to the first embodiment includes a plurality of cameras 2 and a driving support device 1. A plurality of cameras 2 is the region where the first running path 9 1 region, and the second running path 9 2 regions, the first running path 9 1 and the 2 second running path 9 are merged Different regions of the traveling region 9 including the confluence region 9 3 are imaged. The driving support device 1 causes the display device 3 to display a support image for supporting the driving of the vehicle in the traveling area 9 based on a plurality of images captured by the plurality of cameras 2. The driving support device 1 includes a conversion unit 21, a synthesis unit 22, and a display processing unit 23. The conversion unit 21 converts each of the plurality of images captured by the plurality of cameras 2 into a bird's-eye view image. The compositing unit 22 generates a composite image in which a plurality of bird's-eye view images converted by the conversion unit 21 are combined. The display processing unit 23 causes the display device 3 to display the composite image generated by the composite unit 22 as a support image. Thus, it is not necessary to the orientation of the camera 2 vertically downward, while reducing the difficulty of the installation the camera 2, to provide a captured image of the travel area 9 including a confluence region 9 3 to the driver of the vehicle Can be done. Therefore, for example, the driver of the vehicle traveling on the second travel path 92 can grasp the situation of the vehicle on the first travel path 91, which is not actually visible, with a sense of reality.

また、走行領域9には、車両が走行する方向において分割される複数の領域の各々に異なる色が付けられている。これにより、走行領域9を走行する車両のドライバは、車両が走行している領域の色と表示装置3に表示された合成画像50とから、合成画像50に含まれる複数の車両のうち搭乗している車両が走行している位置を容易に把握することができる。 Further, in the traveling region 9, each of the plurality of regions divided in the traveling direction of the vehicle is colored differently. As a result, the driver of the vehicle traveling in the traveling region 9 can board the plurality of vehicles included in the composite image 50 from the color of the region in which the vehicle is traveling and the composite image 50 displayed on the display device 3. It is possible to easily grasp the position where the vehicle is traveling.

また、表示装置3は、走行領域9の上方であって走行領域9を走行する車両のドライバが視認可能な位置に設けられる。これにより、走行領域9を走行する車両のドライバは、走行領域9の状態を容易に把握することができる。 Further, the display device 3 is provided at a position above the traveling region 9 and visible to the driver of the vehicle traveling in the traveling region 9. As a result, the driver of the vehicle traveling in the traveling region 9 can easily grasp the state of the traveling region 9.

また、運転支援装置1は、複数のカメラ2の各々で撮像された画像の情報を監視用画像の情報としてサーバ4へ送信する第2の通信部11を備える。サーバ4は、外部装置の一例であり、第2の通信部11は通信部の一例である。運転支援システム100は、既設の監視用のカメラをカメラ2として使用することもでき、カメラを新たに設置する必要がないことから、システム構築が容易である。 Further, the driving support device 1 includes a second communication unit 11 that transmits the information of the image captured by each of the plurality of cameras 2 to the server 4 as the information of the monitoring image. The server 4 is an example of an external device, and the second communication unit 11 is an example of a communication unit. In the driving support system 100, the existing surveillance camera can be used as the camera 2, and it is not necessary to newly install the camera, so that the system construction is easy.

実施の形態2.
実施の形態2にかかる運転支援システムは、車両の表示装置にも合成画像が表示され、走行領域が投影装置によって着色され、かつカメラの撮像画像から道路状況が判定されて表示装置に表示される点で、実施の形態1にかかる運転支援システム100と異なる。以下においては、実施の形態1と同様の機能を有する構成要素については同一符号を付して説明を省略し、実施の形態1の運転支援システム100と異なる点を中心に説明する。
Embodiment 2.
In the driving support system according to the second embodiment, a composite image is also displayed on the display device of the vehicle, the traveling area is colored by the projection device, and the road condition is determined from the image captured by the camera and displayed on the display device. In that respect, it differs from the driving support system 100 according to the first embodiment. In the following, the components having the same functions as those of the first embodiment will be designated by the same reference numerals and the description thereof will be omitted, and the differences from the driving support system 100 of the first embodiment will be mainly described.

図15は、実施の形態2にかかる運転支援システムを説明するための図である。図15に示すように、実施の形態2にかかる運転支援システム100Aは、運転支援装置1Aと、複数のカメラ2,2,2と、複数の表示装置3,3,3,3と、投影装置70,70,70と、車両60と、を備える。なお、図15では、サーバ4および端末装置5などは図示していない。なお、図15では、車両60は、2つのみ図示されているが、運転支援システム100Aは、車両60を3つ以上備える。 FIG. 15 is a diagram for explaining the driving support system according to the second embodiment. As shown in FIG. 15, the driving support system 100A according to the second embodiment includes a driving support device 1A, a plurality of cameras 2 1 , 2 2 , 23, and a plurality of display devices 3 1 , 3 2 , 3 3 comprises a 3 4, and the projection device 70 1, 70 2, 70 3, and the vehicle 60. Note that in FIG. 15, the server 4 and the terminal device 5 and the like are not shown. Although only two vehicles 60 are shown in FIG. 15, the driving support system 100A includes three or more vehicles 60.

車両60は、運転支援装置1Aから送信される合成画像の情報に基づいて、合成画像を表示する。図16は、実施の形態2にかかる車両の一部の構成の一例を示す図である。図16に示すように、車両60は、通信部61と、表示部62と、処理部63を備える。 The vehicle 60 displays the composite image based on the information of the composite image transmitted from the driving support device 1A. FIG. 16 is a diagram showing an example of a partial configuration of the vehicle according to the second embodiment. As shown in FIG. 16, the vehicle 60 includes a communication unit 61, a display unit 62, and a processing unit 63.

通信部61は、運転支援装置1Aと無線によってネットワーク7などを介して情報の送受信を行う。表示部62は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイである。処理部63は、運転支援装置1Aから送信され通信部61で受信される合成画像の情報を表示部62に表示させる。これにより、車両60のドライバは、車両60内で表示される合成画像によっても、車両60の走行を行うことができる。 The communication unit 61 wirelessly transmits and receives information to and from the driving support device 1A via the network 7 and the like. The display unit 62 is, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display. The processing unit 63 causes the display unit 62 to display the information of the composite image transmitted from the driving support device 1A and received by the communication unit 61. As a result, the driver of the vehicle 60 can also drive the vehicle 60 by the composite image displayed in the vehicle 60.

また、投影装置70,70,70は、運転支援装置1Aから送信される制御指令に基づいて、走行領域9のうち車両60が走行する方向において分割される複数の領域の各々に異なる色を投影する。制御指令には、例えば、投影装置70,70,70に各々投影させる画像の情報が含まれる。 The projection device 70 1, 70 2, 70 3, based on a control command transmitted from the driving support device 1A, different to each of the plurality of regions divided in the direction in which the vehicle 60 travels out of the drive area 9 Project color. The control command, for example, includes information of an image to be respectively projected onto the projection device 70 1, 70 2, 70 3.

投影装置70は、例えば、図11に示す第1の走行路9の領域91に黄色の画像を投影し、第1の走行路9の領域92に橙色の画像を投影する。また、投影装置70は、図11に示す第2の走行路9の領域93に黄色の画像を投影し、第2の走行路9の領域94に橙色の画像を投影する。また、投影装置70は、図11に示す合流領域9の領域に青色の画像を投影する。以下、投影装置70,70,70の各々を個別に区別せずに示す場合、投影装置70と記載する場合がある。 Projection device 70 1, for example, by projecting the yellow image of the first traveling path 9 first region 91 shown in FIG. 11, for projecting an image of the orange first running path 9 1 area 92. The projection device 70 2, the yellow image is projected onto the second traveling path 9 second region 93 shown in FIG. 11, for projecting an image of the orange to the second running path 9 2 region 94. The projection device 70 3 projects the blue image in the region of the joining region 9 3 shown in FIG. 11. Hereinafter, the case shown each projection device 70 1, 70 2, 70 3 to not separately distinguished, may be referred to as the projection device 70.

これにより、車両60のドライバは、例えば、走行領域9を走行する時間が夜間の場合であっても、合成画像50に含まれる複数の車両60のうち搭乗している車両60が走行している位置を容易に把握することができる。 As a result, for example, the driver of the vehicle 60 is traveling on the vehicle 60 among the plurality of vehicles 60 included in the composite image 50 even when the traveling area 9 is traveled at night. The position can be easily grasped.

図17は、実施の形態2にかかる運転支援装置の構成の一例を示す図である。図17に示すように、実施の形態2にかかる運転支援装置1Aは、第1の通信部10Aと、第2の通信部11Aと、処理部12Aとを備える。 FIG. 17 is a diagram showing an example of the configuration of the driving support device according to the second embodiment. As shown in FIG. 17, the operation support device 1A according to the second embodiment includes a first communication unit 10A, a second communication unit 11A, and a processing unit 12A.

第1の通信部10Aは、複数のカメラ2,2,2および複数の表示装置3,3,3,3に加え、無線または有線によって投影装置70,70,70の各々と互いに通信可能に接続される点で、第1の通信部10と異なる。 The first communication unit 10A, a plurality of cameras 2 1, 2 2, 2 3 and a plurality of display devices 3 1, 3 2, 3 3, 3 in addition to the 4, the projection device 70 1 via wireless or wired, 70 2, 70 in each of the 3 points that are communicatively connected to each other, different from the first communication unit 10.

第2の通信部11Aは、サーバ4とゲートウェイ6およびネットワーク7を介して通信可能に接続されると共に、車両60の通信部61とゲートウェイ6およびネットワーク7を介して通信可能に接続される点で、第2の通信部11と異なる。 The second communication unit 11A is communicably connected to the server 4 via the gateway 6 and the network 7, and is communicably connected to the communication unit 61 of the vehicle 60 via the gateway 6 and the network 7. , Different from the second communication unit 11.

処理部12Aは、表示処理部23に代えて表示処理部23Aを備えると共に、解析部24と、制御処理部25とをさらに備える点で、処理部12と異なる。表示処理部23Aは、合成部22によって生成された合成画像を第1の通信部10Aに車両60へ送信させ、合成画像の情報を車両60の表示部62に表示させる機能をさらに有する点で、表示処理部23と異なる。 The processing unit 12A is different from the processing unit 12 in that the display processing unit 23A is provided in place of the display processing unit 23, and the analysis unit 24 and the control processing unit 25 are further provided. The display processing unit 23A further has a function of causing the first communication unit 10A to transmit the composite image generated by the synthesis unit 22 to the vehicle 60 and display the information of the composite image on the display unit 62 of the vehicle 60. It is different from the display processing unit 23.

解析部24は、取得部20で取得される複数の撮像画像に基づいて、走行領域9における車両60の走行状況を解析する。解析部24は、複数の撮像画像から各車両60を抽出し、抽出した各車両60に車両ID(Identifier)を付与し、各車両60の状態を車両IDで管理する。解析部24は、抽出した各車両60の速度を算出し、複数の車両60の平均速度を算出する。また、解析部24は、走行領域9における車両60の数をカウントし、カウントした結果を通行台数として算出する。解析部24は、算出した平均速度と通行台数とに基づいて、走行領域9が渋滞しているか否かを判定する。 The analysis unit 24 analyzes the traveling state of the vehicle 60 in the traveling region 9 based on the plurality of captured images acquired by the acquisition unit 20. The analysis unit 24 extracts each vehicle 60 from a plurality of captured images, assigns a vehicle ID (Identifier) to each extracted vehicle 60, and manages the state of each vehicle 60 by the vehicle ID. The analysis unit 24 calculates the speed of each of the extracted vehicles 60, and calculates the average speed of the plurality of vehicles 60. Further, the analysis unit 24 counts the number of vehicles 60 in the traveling region 9 and calculates the counting result as the number of passing vehicles. The analysis unit 24 determines whether or not the traveling area 9 is congested based on the calculated average speed and the number of passing vehicles.

また、解析部24は、取得部20で取得される複数の撮像画像に基づいて、走行領域9を逆走している車両60があるか否かを判定したり、第1の走行路9を走行している車両60が避走を行っているか否かを判定したりすることができる。解析部24は、解析した結果を示す解析情報を第2の通信部11Aにサーバ4へ送信させる。解析情報は、例えば、平均速度、渋滞、避走、逆走、および通行台数を示す情報を含む。 Further, the analysis unit 24 determines whether or not there is a vehicle 60 traveling in the reverse direction in the traveling region 9 based on the plurality of captured images acquired by the acquisition unit 20, and determines whether or not there is a vehicle 60 traveling in the reverse direction, or the first traveling path 9 1 It is possible to determine whether or not the vehicle 60 traveling in the vehicle is evading. The analysis unit 24 causes the second communication unit 11A to transmit the analysis information indicating the analysis result to the server 4. The analysis information includes, for example, information indicating average speed, congestion, escape, reverse driving, and number of vehicles passing.

表示処理部23Aは、解析部24の解析結果のうち緊急性の高い情報を第1の通信部10Aに表示装置3へ送信させ、表示装置3に緊急性の高い情報を表示させることができる。緊急性の高い情報は、例えば、逆走などの情報である。このように、表示処理部23Aは、リアルタイムに判定した解析情報のうち緊急性の高い情報を表示装置3に表示させることで、より強い臨場感を持って車両60のドライバに現状の道路状況を把握させることができる。 The display processing unit 23A can cause the first communication unit 10A to transmit the highly urgent information among the analysis results of the analysis unit 24 to the display device 3, and cause the display device 3 to display the highly urgent information. Information with high urgency is, for example, information such as reverse driving. In this way, the display processing unit 23A displays the highly urgent information among the analysis information determined in real time on the display device 3, so that the driver of the vehicle 60 can feel the current road condition with a stronger sense of presence. It can be grasped.

表示処理部23Aは、合成部22によって生成された合成画像に解析部24の解析結果のうち緊急性の高い情報を重畳した画像を支援画像として表示装置3に表示させる。なお、解析部24は、解析情報のうち緊急性の高い情報を第1の通信部10Aに車両60へ送信させ、車両60の表示部62に表示させることもできる。また、表示処理部23Aは、解析部24の解析結果の全部を第1の通信部10Aに表示装置3へ送信させ、表示装置3に解析部24の解析結果の全部を表示させることもできる。この場合も、表示処理部23Aは、合成部22によって生成された合成画像に解析部24の解析結果の全部を重畳した画像を表示装置3に表示させることができる。 The display processing unit 23A causes the display device 3 to display an image in which highly urgent information among the analysis results of the analysis unit 24 is superimposed on the composite image generated by the synthesis unit 22 as a support image. The analysis unit 24 can also cause the first communication unit 10A to transmit the highly urgent information among the analysis information to the vehicle 60 and display it on the display unit 62 of the vehicle 60. Further, the display processing unit 23A can cause the first communication unit 10A to transmit all the analysis results of the analysis unit 24 to the display device 3, and cause the display device 3 to display all the analysis results of the analysis unit 24. In this case as well, the display processing unit 23A can cause the display device 3 to display an image in which all the analysis results of the analysis unit 24 are superimposed on the composite image generated by the synthesis unit 22.

制御処理部25は、投影装置70で投影させる画像の情報を含む制御指令を第1の通信部10Aに投影装置70へ送信させ、投影装置70で投影させる画像の情報を含む制御指令を第1の通信部10Aに投影装置70へ送信させる。また、制御処理部25は、投影装置70で投影させる画像の情報を含む制御指令を第1の通信部10Aに投影装置70へ送信させる。投影装置70,70,70は、運転支援装置1Aから送信される制御指令に含まれる画像を走行領域9に投影する。 Control processing unit 25, a control instruction of the control command including information of an image to be projected by the projection device 70 1 is transmitted first to the projection device 70 1 to the communication unit 10A, including the information of an image to be projected by the projection device 70 2 It is allowed to transmit to the projection device 70 2 to the first communication unit 10A. The control processor 25 to transmit the control command including information of an image to be projected by the projection device 70 3 to the projection device 70 3 to the first communication unit 10A. Projection device 70 1, 70 2, 70 3, projects an image included in the control command transmitted from the driving support device 1A to the traveling region 9.

投影装置70,70,70によって投影させる画像は変化させてもよい。例えば、制御処理部25は、解析部24によって解析された走行領域9における車両60の走行状況に基づいて、投影装置70,70,70によって投影させる画像を変更する制御指令を生成することができる。 Image to be projected by the projection device 70 1, 70 2, 70 3 may be varied. For example, the control processor 25, based on the running condition of the vehicle 60 in the traveling region 9 analyzed by the analysis section 24 generates a control command for changing the image to be projected by the projection device 70 1, 70 2, 70 3 be able to.

例えば、制御処理部25は、解析部24によって解析された車両60の走行速度が遅いほど、車両60が走行する方向において異なる色の画像が投影される間隔を短くすることができる。また、制御処理部25は、解析部24によって解析された走行領域9における車両60の渋滞度合いが大きいほど、車両60が走行する方向において異なる色の画像が投影される間隔を短くすることができる。 For example, the control processing unit 25 can shorten the interval at which images of different colors are projected in the direction in which the vehicle 60 travels, as the traveling speed of the vehicle 60 analyzed by the analysis unit 24 is slower. Further, the control processing unit 25 can shorten the interval at which images of different colors are projected in the direction in which the vehicle 60 travels as the degree of congestion of the vehicle 60 in the traveling region 9 analyzed by the analysis unit 24 increases. ..

また、制御処理部25は、解析部24によって解析された各車両60の位置に基づいて、各車両60が存在する領域には投影を行わない画像を含む制御指令を第1の通信部10Aに投影装置70へ送信させることができる。これにより、投影装置70からの光が車両60のドライバに直接当たることを防止することができる。なお、投影装置70は、車両60のドライバの頭の高さよりも低い位置から走行領域9に向けて画像を投影することもできる。これによっても、投影装置70からの光が車両60のドライバに直接当たることを防止することができる。なお、投影装置70は、車両60の後ろ側からの投影を行うように車両60の進行方向に投影方向を向けて配置されてもよい。このように、投影装置70が車両60の後ろ側からの投影を行うことにより、投影装置70からの光が車両60のドライバの前方から当たることを防止することができる。 Further, the control processing unit 25 sends a control command including an image that does not project to the region where each vehicle 60 exists to the first communication unit 10A based on the position of each vehicle 60 analyzed by the analysis unit 24. It can be transmitted to the projection device 70. This makes it possible to prevent the light from the projection device 70 from directly hitting the driver of the vehicle 60. The projection device 70 can also project an image from a position lower than the height of the driver's head of the vehicle 60 toward the traveling region 9. This also prevents the light from the projection device 70 from directly hitting the driver of the vehicle 60. The projection device 70 may be arranged so that the projection direction is directed in the traveling direction of the vehicle 60 so as to project from the rear side of the vehicle 60. By projecting from the rear side of the vehicle 60 by the projection device 70 in this way, it is possible to prevent the light from the projection device 70 from hitting from the front of the driver of the vehicle 60.

また、制御処理部25は、例えば、走行領域9における車両60の台数が予め設定された数以上である場合に、制御指令を第1の通信部10Aに投影装置70,70,70へ送信させることができる。これにより、運転支援システム100Aは、走行領域9における車両60の台数が予め設定された数以上である場合に、投影装置70,70,70から画像を走行領域9に投影することができる。 The control processor 25, for example, in the case the number of vehicles 60 is preset number or more in the running area 9, the control command the projection apparatus to the first communication unit 10A 70 1, 70 2, 70 3 Can be sent to. Thus, the driving support system 100A, when the number of vehicles 60 is preset number or more in the running area 9, that projects an image in the drive area 9 from the projection device 70 1, 70 2, 70 3 can.

また、制御処理部25は、例えば、現時刻が予め設定された時間帯である場合に制御指令を第1の通信部10Aに投影装置70,70,70へ送信させることができる。これにより、運転支援システム100Aは、例えば、夜間などの時間帯に限定して、投影装置70,70,70から画像を走行領域9に投影することができる。 The control processor 25 may be, for example, current time to transmit the control command when a predetermined time period to the first projection device 70 1 to the communication unit 10A of, 70 2, 70 3. Accordingly, the driving support system 100A, for example, can be restricted to the time zone such as night, to project an image to the running area 9 from the projection device 70 1, 70 2, 70 3.

つづいて、フローチャートを用いて運転支援装置1Aの処理部12Aによる処理を説明する。図18は、実施の形態2にかかる運転支援装置の処理部による処理の一例を示すフローチャートである。図18に示す処理は、運転支援装置1Aの処理部12Aによって繰り返し実行される。図18に示すステップS20〜S25の処理は、図13に示すステップS10〜S15と同じであるため、説明を省略する。 Subsequently, the processing by the processing unit 12A of the driving support device 1A will be described with reference to the flowchart. FIG. 18 is a flowchart showing an example of processing by the processing unit of the driving support device according to the second embodiment. The process shown in FIG. 18 is repeatedly executed by the processing unit 12A of the driving support device 1A. Since the processing of steps S20 to S25 shown in FIG. 18 is the same as that of steps S10 to S15 shown in FIG. 13, the description thereof will be omitted.

図18に示すように、運転支援装置1Aの処理部12Aは、各カメラ2から出力される撮像画像から各車両60を抽出する(ステップS26)。処理部12Aは、ステップS26で抽出した各車両60に車両IDを付与する(ステップS27)。これにより、処理部12Aは、撮像画像に画像が含まれる複数の車両60の各々を管理することができる。 As shown in FIG. 18, the processing unit 12A of the driving support device 1A extracts each vehicle 60 from the captured images output from each camera 2 (step S26). The processing unit 12A assigns a vehicle ID to each vehicle 60 extracted in step S26 (step S27). As a result, the processing unit 12A can manage each of the plurality of vehicles 60 whose captured image includes the image.

処理部12Aは、抽出した各車両60の走行領域9における速度および位置などに基づいて、走行領域9における車両60の走行状況を解析する(ステップS28)。ステップS28の処理において、処理部12Aは、例えば、走行領域9における平均速度、渋滞、避走、逆走、および通行台数を解析する。 The processing unit 12A analyzes the traveling state of the vehicle 60 in the traveling region 9 based on the speed and position of each of the extracted vehicles 60 in the traveling region 9 (step S28). In the process of step S28, the processing unit 12A analyzes, for example, the average speed, the traffic jam, the avoidance, the reverse driving, and the number of passing vehicles in the traveling area 9.

処理部12Aは、解析した車両60の走行状況を示す情報を第1の通信部10Aに各表示装置3へ送信させ、車両60の走行状況を示す情報を各表示装置3に表示させる(ステップS29)。例えば、処理部12Aは、合成部22によって生成された合成画像によって車両60の走行状況を示す情報を重畳した画像を支援画像として各表示装置3に表示させる。また、処理部12Aは、解析した車両60の走行状況を示す情報をサーバ4へ第2の通信部11Aに送信させる(ステップS30)。 The processing unit 12A causes the first communication unit 10A to transmit the analyzed information indicating the traveling status of the vehicle 60 to each display device 3, and causes each display device 3 to display the information indicating the traveling status of the vehicle 60 (step S29). ). For example, the processing unit 12A causes each display device 3 to display an image in which information indicating the traveling status of the vehicle 60 is superimposed on the composite image generated by the synthesis unit 22 as a support image. Further, the processing unit 12A causes the server 4 to transmit the information indicating the traveling status of the analyzed vehicle 60 to the second communication unit 11A (step S30).

次に、処理部12Aは、解析した車両60の走行状況に基づいて、走行領域9を着色する(ステップS31)。処理部12Aは、ステップS31の処理が終了すると、図18に示す処理を終了する。 Next, the processing unit 12A colors the traveling region 9 based on the traveling condition of the analyzed vehicle 60 (step S31). When the process of step S31 is completed, the processing unit 12A ends the process shown in FIG.

実施の形態2にかかる運転支援装置1Aのハードウェア構成例は、図14に示す運転支援装置1のハードウェア構成と同じである。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、取得部20、変換部21、合成部22、表示処理部23A、解析部24、および制御処理部25の機能を実行することができる。 The hardware configuration example of the driving support device 1A according to the second embodiment is the same as the hardware configuration of the driving support device 1 shown in FIG. The processor 101 executes the functions of the acquisition unit 20, the conversion unit 21, the synthesis unit 22, the display processing unit 23A, the analysis unit 24, and the control processing unit 25 by reading and executing the program stored in the memory 102. be able to.

以上のように、実施の形態2にかかる運転支援装置1Aは、走行領域9のうち車両60が走行する方向において分割される複数の領域の各々に異なる色を投影する複数の投影装置70,70,70を備える。これにより、車両60のドライバは、例えば、走行領域9を走行する時間が夜間の場合であっても、合成画像50に含まれる複数の車両60のうち搭乗している車両60が走行している位置を容易に把握することができる。 As described above, the driving support device 1A according to the second embodiment, a plurality of projection device 70 1 for projecting a different color for each of a plurality of regions divided in the direction in which the vehicle 60 is traveling within the travel area 9, It includes 70 2 , 70 3 . As a result, for example, the driver of the vehicle 60 is traveling on the vehicle 60 among the plurality of vehicles 60 included in the composite image 50 even when the traveling area 9 is traveled at night. The position can be easily grasped.

また、表示部62は、車両60に設けられる。表示部62は表示装置の一例である。表示処理部23Aは、合成部22によって生成された合成画像を表示部62に表示させる。これにより、走行領域9を走行する車両60のドライバは、表示部62に表示された画像に基づいて、走行領域9の状態を容易に把握することができる。 Further, the display unit 62 is provided on the vehicle 60. The display unit 62 is an example of a display device. The display processing unit 23A causes the display unit 62 to display the composite image generated by the composite unit 22. As a result, the driver of the vehicle 60 traveling in the traveling region 9 can easily grasp the state of the traveling region 9 based on the image displayed on the display unit 62.

また、運転支援装置1Aは、複数のカメラ2で撮像された複数の画像に基づいて、走行領域9における車両60の走行状況を解析する解析部24を備える。表示処理部23Aは、解析部24によって解析された車両60の走行状況を示す情報を表示装置3,3,3,3に表示させる。これにより、走行領域9を走行する車両60のドライバは、車両60の走行状況をより容易に把握することができる。 Further, the driving support device 1A includes an analysis unit 24 that analyzes the traveling state of the vehicle 60 in the traveling region 9 based on a plurality of images captured by the plurality of cameras 2. The display processing unit 23A, the display device 3 1 the information indicating the running condition of the vehicle 60 that has been analyzed by the analyzer 24, 3 2, 3 3, 3 4 To display. As a result, the driver of the vehicle 60 traveling in the traveling region 9 can more easily grasp the traveling condition of the vehicle 60.

また、表示処理部23Aは、合成部22によって生成された合成画像に解析部24によって解析された車両60の走行状況を示す情報を重畳した画像を支援画像として表示装置3に表示させる。これにより、車両60のドライバは、表示装置3の画像から走行領域9の状態をさらに具体的に把握することができる。 Further, the display processing unit 23A causes the display device 3 to display an image obtained by superimposing the information indicating the traveling state of the vehicle 60 analyzed by the analysis unit 24 on the composite image generated by the composition unit 22 as a support image. As a result, the driver of the vehicle 60 can more specifically grasp the state of the traveling region 9 from the image of the display device 3.

以上の実施の形態に示した構成は、一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、実施の形態同士を組み合わせることも可能であるし、要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。 The configuration shown in the above embodiments is an example, and can be combined with another known technique, can be combined with each other, and does not deviate from the gist. It is also possible to omit or change a part of the configuration.

1,1A 運転支援装置、2,2,2,2 カメラ、3,3,3,3,3 表示装置、4 サーバ、5 端末装置、6 ゲートウェイ、7,8 ネットワーク、9 走行領域、9 第1の走行路、9 第2の走行路、9 合流領域、10,10A 第1の通信部、11,11A 第2の通信部、12,12A,32,42,63 処理部、20 取得部、21 変換部、22 合成部、23,23A 表示処理部、24 解析部、25 制御処理部、30 撮像部、31,40,61 通信部、41,62 表示部、50 合成画像、51 第1の画像、52 第2の画像、53 第3の画像、60 車両、70,70,70,70 投影装置、91,92,93,94 領域、100,100A 運転支援システム。 1,1A driving support device, 2,2 1, 2 2, 2 3 camera, 3,3 1, 3 2, 3 3, 3 4 display device, 4 server, 5 terminals, 6 gateways, 7,8 network, 9 Traveling area, 9 1 1st driving path, 9 2 2nd driving path, 9 3 Confluence area, 10, 10A 1st communication unit, 11, 11A 2nd communication unit, 12, 12A, 32, 42 , 63 Processing unit, 20 Acquisition unit, 21 Conversion unit, 22 Synthesis unit, 23, 23A Display processing unit, 24 Analysis unit, 25 Control processing unit, 30 Imaging unit, 31, 40, 61 Communication unit, 41, 62 Display unit , 50 the composite image, 51 the first image, 52 the second image, 53 the third image, 60 vehicle, 70, 70 1, 70 2, 70 3 projecting device, 91 to 94 regions, 100, 100A driving support system.

Claims (11)

第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する複数のカメラと、
前記複数のカメラで撮像された複数の画像に基づいて、前記走行領域における車両の運転を支援するための支援画像を表示装置に表示させる運転支援装置と、を備え、
前記運転支援装置は、
前記複数の画像の各々を俯瞰画像へ変換する変換部と、
前記変換部によって変換された複数の前記俯瞰画像を合成した合成画像を生成する合成部と、
前記合成部によって生成された前記合成画像を前記支援画像として前記表示装置に表示させる表示処理部と、を備える
ことを特徴とする運転支援システム。
A plurality of images of different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. Camera and
A driving support device for displaying a support image for supporting the driving of a vehicle in the traveling area on a display device based on a plurality of images captured by the plurality of cameras is provided.
The driving support device is
A conversion unit that converts each of the plurality of images into a bird's-eye view image,
A compositing unit that generates a composite image that combines a plurality of the bird's-eye view images converted by the conversion unit, and a compositing unit.
A driving support system including a display processing unit that displays the composite image generated by the synthesis unit on the display device as the support image.
前記走行領域には、
前記車両が走行する方向において分割される複数の領域の各々に異なる色が付けられている
ことを特徴とする請求項1に記載の運転支援システム。
In the traveling area,
The driver assistance system according to claim 1, wherein each of the plurality of regions divided in the direction in which the vehicle travels is colored differently.
前記走行領域のうち前記車両が走行する方向において分割される複数の領域の各々に異なる色を投影する複数の投影装置を備える
ことを特徴とする請求項1に記載の運転支援システム。
The driving support system according to claim 1, further comprising a plurality of projection devices that project different colors on each of the plurality of regions of the traveling region divided in the direction in which the vehicle travels.
前記表示装置は、
前記走行領域の上方であって前記走行領域を走行する前記車両のドライバが視認可能な位置に設けられる
ことを特徴とする請求項1から3のいずれか1つに記載の運転支援システム。
The display device is
The driving support system according to any one of claims 1 to 3, wherein the driver of the vehicle traveling in the traveling area is provided at a position visible above the traveling area.
前記表示装置は、
前記車両に設けられ、
前記表示処理部は、
前記合成部によって生成された前記合成画像を前記表示装置に表示させる
ことを特徴とする請求項1から3のいずれか1つに記載の運転支援システム。
The display device is
Provided on the vehicle
The display processing unit
The driver assistance system according to any one of claims 1 to 3, wherein the composite image generated by the synthesis unit is displayed on the display device.
前記複数の画像に基づいて、前記走行領域における前記車両の走行状況を解析する解析部を備え、
前記表示処理部は、
前記解析部によって解析された前記走行状況を示す情報を前記表示装置に表示させる
ことを特徴とする請求項1から5のいずれか1つに記載の運転支援システム。
An analysis unit for analyzing the traveling state of the vehicle in the traveling region based on the plurality of images is provided.
The display processing unit
The driving support system according to any one of claims 1 to 5, wherein the display device displays information indicating the traveling situation analyzed by the analysis unit.
前記表示処理部は、
前記合成部によって生成された前記合成画像に前記解析部によって解析された前記走行状況を示す情報を重畳した画像を前記支援画像として前記表示装置に表示させる
ことを特徴とする請求項6に記載の運転支援システム。
The display processing unit
The sixth aspect of claim 6, wherein an image in which information indicating the traveling situation analyzed by the analysis unit is superimposed on the composite image generated by the synthesis unit is displayed as the support image on the display device. Driving support system.
前記運転支援装置は、
前記複数のカメラの各々で撮像された画像の情報を監視用画像の情報として外部装置へ送信する通信部を備える
ことを特徴とする請求項1から7のいずれか1つに記載の運転支援システム。
The driving support device is
The driver assistance system according to any one of claims 1 to 7, further comprising a communication unit that transmits information of an image captured by each of the plurality of cameras to an external device as information of a monitoring image. ..
第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像を俯瞰画像へ変換する変換部と、
前記変換部によって変換された複数の前記俯瞰画像を合成した合成画像を生成する合成部と、
前記合成部によって生成された前記合成画像を前記走行領域における車両の運転を支援するための支援画像として表示装置に表示させる表示処理部と、を備える
ことを特徴とする運転支援装置。
A plurality of images of different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. A conversion unit that converts multiple images captured by the camera into a bird's-eye view image,
A compositing unit that generates a composite image that combines a plurality of the bird's-eye view images converted by the conversion unit, and a compositing unit.
A driving support device including a display processing unit that displays the composite image generated by the synthesis unit on a display device as a support image for supporting the driving of a vehicle in the traveling region.
コンピュータが実行する運転支援方法であって、
第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像の各々を俯瞰画像へ変換する第1のステップと、
前記第1のステップによって変換された複数の前記俯瞰画像を合成した合成画像を生成する第2のステップと、
前記第2のステップによって生成された前記合成画像を前記走行領域における車両の運転を支援するための支援画像として表示装置に表示させる第3のステップと、を含む
ことを特徴とする運転支援方法。
It is a driving support method executed by a computer.
A plurality of images of different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. The first step of converting each of the multiple images captured by the camera into a bird's-eye view image,
A second step of generating a composite image by synthesizing the plurality of the bird's-eye view images converted by the first step, and
A driving support method comprising a third step of displaying the composite image generated by the second step on a display device as a support image for supporting the driving of a vehicle in the traveling region.
第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像の各々を俯瞰画像へ変換する第1のステップと、
前記第1のステップによって変換された複数の前記俯瞰画像を合成した合成画像を生成する第2のステップと、
前記第2のステップによって生成された前記合成画像を前記走行領域における車両の運転を支援するための支援画像として表示装置に表示させる第3のステップと、をコンピュータに実行させる
ことを特徴とする運転支援プログラム。
A plurality of images of different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. The first step of converting each of the multiple images captured by the camera into a bird's-eye view image,
A second step of generating a composite image by synthesizing the plurality of the bird's-eye view images converted by the first step, and
The operation is characterized in that the computer executes the third step of displaying the composite image generated by the second step on the display device as a support image for supporting the driving of the vehicle in the traveling region. Support program.
JP2020040281A 2020-03-09 2020-03-09 Driving support system, driving support device, driving support method, and driving support program Active JP7422567B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020040281A JP7422567B2 (en) 2020-03-09 2020-03-09 Driving support system, driving support device, driving support method, and driving support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020040281A JP7422567B2 (en) 2020-03-09 2020-03-09 Driving support system, driving support device, driving support method, and driving support program

Publications (2)

Publication Number Publication Date
JP2021140689A true JP2021140689A (en) 2021-09-16
JP7422567B2 JP7422567B2 (en) 2024-01-26

Family

ID=77668813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020040281A Active JP7422567B2 (en) 2020-03-09 2020-03-09 Driving support system, driving support device, driving support method, and driving support program

Country Status (1)

Country Link
JP (1) JP7422567B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222488A (en) 2001-01-29 2002-08-09 Matsushita Electric Ind Co Ltd Traffic monitoring device
JP5053776B2 (en) 2007-09-14 2012-10-17 株式会社デンソー Vehicular visibility support system, in-vehicle device, and information distribution device
JP2015052902A (en) 2013-09-06 2015-03-19 株式会社デンソー Merging information providing device
JP6920776B2 (en) 2017-06-22 2021-08-18 西日本高速道路株式会社 Monitoring support system and monitoring support method

Also Published As

Publication number Publication date
JP7422567B2 (en) 2024-01-26

Similar Documents

Publication Publication Date Title
US11175406B2 (en) Range imaging system and solid-state imaging device
JP3876288B2 (en) State recognition system and state recognition display generation method
KR100835085B1 (en) A real time processing system and method of a traffic accident using an unmanned recording device
US20100172543A1 (en) Multiple object speed tracking system
US20050278088A1 (en) Method and apparatus for collision avoidance and enhanced visibility in vehicles
KR101079700B1 (en) passenger decentralization system for transfer station
JP3711518B2 (en) Traffic signal ignoring vehicle automatic recording apparatus and method
JP6731135B2 (en) Sensing system and driving support system
KR102336934B1 (en) A system and method for analyzing the movement situation of vehicles and personal mobility, which are risk factors for pedestrians in the school zone, and expressing them on the vms and monitoring them at the control center
JP5962898B2 (en) Driving evaluation system, driving evaluation method, and driving evaluation program
KR20200094818A (en) Vehicle search system based artificial intelligence
KR101210615B1 (en) Regulation system of u-turn violation vehicle
JPH11203590A (en) Television system for traffic monitor
KR101696730B1 (en) Method for intelligent city integrated monitoring and controlling system buildup
WO2021005659A1 (en) Information processing system, sensor system, information processing method, and program
JPH11328574A (en) Television system for monitoring traffic
JP2005234774A (en) Traffic signal ignoring vehicle warning device and traffic signal ignoring vehicle warning/recording device
WO2021131201A1 (en) Driving assistance device, driving assistance method, and program
KR101327348B1 (en) A system for ego-lane detection using defined mask in driving road image
JP2021140689A (en) Drive assistance system, drive assistance device, drive assistance method, and drive assistance program
TW202015003A (en) Traffic light controlling system based on internet of things (iot) and method thereof
CN114730492A (en) Assertion vehicle detection model generation and implementation
CN114863690B (en) Method, device, medium and electronic equipment for identifying solid line lane change
TWI626605B (en) Apparatus and method for diagnosing intelligent detection warning system
JP2018192844A (en) Monitoring device, monitoring system, monitoring program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240116

R150 Certificate of patent or registration of utility model

Ref document number: 7422567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150