JP2021140689A - Drive assistance system, drive assistance device, drive assistance method, and drive assistance program - Google Patents
Drive assistance system, drive assistance device, drive assistance method, and drive assistance program Download PDFInfo
- Publication number
- JP2021140689A JP2021140689A JP2020040281A JP2020040281A JP2021140689A JP 2021140689 A JP2021140689 A JP 2021140689A JP 2020040281 A JP2020040281 A JP 2020040281A JP 2020040281 A JP2020040281 A JP 2020040281A JP 2021140689 A JP2021140689 A JP 2021140689A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- traveling
- unit
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000012545 processing Methods 0.000 claims abstract description 83
- 238000006243 chemical reaction Methods 0.000 claims abstract description 31
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 20
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 20
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 4
- 239000002131 composite material Substances 0.000 claims description 65
- 238000004891 communication Methods 0.000 claims description 51
- 238000004458 analytical method Methods 0.000 claims description 35
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 31
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 31
- 239000003086 colorant Substances 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 3
- 238000009434 installation Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000004040 coloring Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本開示は、2つの走行路の合流領域を含む走行領域における車両の運転を支援する運転支援システム、運転支援装置、運転支援方法、および運転支援プログラムに関する。 The present disclosure relates to a driving support system, a driving support device, a driving support method, and a driving support program that support the driving of a vehicle in a driving area including a confluence area of two driving paths.
従来、複数の走行路が合流する合流領域を含む走行領域における車両の運転を支援する技術が知られている。例えば、特許文献1には、合流領域に向かって道路上を走行する各車両をカメラで撮像し、カメラの撮像画像を表示装置に表示する技術が開示されている。特許文献1に記載の技術では、各車両の未来の位置を予測し、予測した結果に基づき、推奨する走行方法を車両に実行させるための指示情報と指示情報の対象となる車両を強調する強調画像とをカメラの撮像画像上に配置した画像が表示装置に表示される。
Conventionally, there is known a technique for supporting the driving of a vehicle in a traveling area including a merging area where a plurality of traveling paths merge. For example,
しかしながら、上記特許文献1に記載の技術では、走行領域をカメラで鉛直下向きに撮影している。そのため、例えば、高速道路において、本線、側道、および本線と側道との合流地点とを含む走行領域の画像を撮像しようとすると、カメラを走行領域の上空の高い位置に配置する必要があり、カメラの設置が難しい場合がある。
However, in the technique described in
本開示は、上記に鑑みてなされたものであって、カメラの設置の困難性を低減しつつ、合流領域を含む走行領域の撮像画像を車両のドライバに提供することができる運転支援システムを得ることを目的とする。 The present disclosure has been made in view of the above, and obtains a driving support system capable of providing a captured image of a traveling region including a merging region to a vehicle driver while reducing the difficulty of installing a camera. The purpose is.
上述した課題を解決し、目的を達成するために、本開示の運転支援システムは、複数のカメラと、運転支援装置とを備える。複数のカメラは、第1の走行路の領域と、第2の走行路の領域と、第1の走行路と第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する。運転支援装置は、複数のカメラで撮像された複数の画像に基づいて、走行領域における車両の運転を支援するための支援画像を表示装置に表示させる。運転支援装置は、変換部と、合成部と、表示処理部とを備える。変換部は、複数の画像の各々を俯瞰画像へ変換する。合成部は、変換部によって変換された複数の俯瞰画像を合成した合成画像を生成する。表示処理部は、合成部によって生成された合成画像を支援画像として表示装置に表示させる。 In order to solve the above-mentioned problems and achieve the object, the driving support system of the present disclosure includes a plurality of cameras and a driving support device. The plurality of cameras cover different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. Take an image. The driving support device causes the display device to display a support image for supporting the driving of the vehicle in the traveling area based on a plurality of images captured by the plurality of cameras. The driving support device includes a conversion unit, a synthesis unit, and a display processing unit. The conversion unit converts each of the plurality of images into a bird's-eye view image. The compositing unit generates a composite image in which a plurality of bird's-eye view images converted by the conversion unit are combined. The display processing unit causes the display device to display the composite image generated by the composite unit as a support image.
本開示によれば、カメラの設置の困難性を低減しつつ、合流領域を含む走行領域の撮像画像を車両のドライバに提供することができる、という効果を奏する。 According to the present disclosure, it is possible to provide the driver of the vehicle with an image of the traveling region including the confluence region while reducing the difficulty of installing the camera.
以下に、実施の形態にかかる運転支援システム、運転支援装置、運転支援方法、および運転支援プログラムを図面に基づいて詳細に説明する。 Hereinafter, the driving support system, the driving support device, the driving support method, and the driving support program according to the embodiment will be described in detail based on the drawings.
実施の形態1.
図1は、実施の形態1にかかる運転支援方法を説明するための図である。図1に示すように、実施の形態1にかかる運転支援方法では、第1の走行路の領域と、第2の走行路の領域と、第1の走行路と第2の走行路とが合流する領域である合流領域とを含む走行領域が複数のカメラで撮像される。走行領域が高速道路の場合、第1の走行路は、本線の一部であり、第2の走行路は、側道であり、合流領域には、加速車線の全部および本線の一部が含まれる。なお、走行領域は高速道路に限定されない。
FIG. 1 is a diagram for explaining a driving support method according to the first embodiment. As shown in FIG. 1, in the driving support method according to the first embodiment, the region of the first travel path, the region of the second travel path, and the first travel path and the second travel path merge. The traveling area including the confluence area, which is the area to be used, is imaged by a plurality of cameras. If the driving area is a highway, the first driving road is a part of the main lane, the second driving road is a frontage road, and the merging area includes the entire acceleration lane and a part of the main lane. Is done. The traveling area is not limited to the expressway.
図1に示す例では、複数のカメラのうちの1つ目のカメラで第1の走行路の領域が撮像され、2つ目のカメラで第2の走行路の領域が撮像され、3つ目のカメラで合流領域が撮像される。各カメラで撮像された画像である撮像画像には、走行領域を走行する車両である走行車両の画像も含まれる。これらの複数のカメラから出力される撮像画像の情報は、フレームレートが30FPS(Flames Per Second)の動画像の情報であるが、フレームレートが30FPS未満の動画像の情報であってもよく、フレームレートが30FPSを超える動画像の情報であってもよい。なお、以下において、動画像を画像と記載する場合があり、画像の情報を画像と記載する場合がある。 In the example shown in FIG. 1, the first camera of the plurality of cameras images the area of the first travel path, and the second camera images the region of the second travel path, and the third camera. The confluence area is imaged by the camera of. The captured image, which is an image captured by each camera, also includes an image of a traveling vehicle, which is a vehicle traveling in the traveling region. The information of the captured images output from these plurality of cameras is the information of the moving image having a frame rate of 30 FPS (Flames Per Second), but the information of the moving image having a frame rate of less than 30 FPS may be used, and the frame may be used. It may be moving image information having a rate exceeding 30 FPS. In the following, a moving image may be described as an image, and image information may be described as an image.
本運転支援方法では、不図示の運転支援装置によって、各カメラの撮像画像を俯瞰画像へ変換する変換処理が行われる。俯瞰画像は、鉛直方向上方から見下ろすように視点変換処理を行った画像である。そして、本運転支援方法では、不図示の運転支援装置によって、変換処理によって生成された複数の俯瞰画像を合成した合成画像を生成する合成処理が行われ、生成された合成画像を、走行領域における車両の運転を支援するための支援画像として、複数の表示装置に表示する表示処理が行われる。 In this driving support method, a conversion process for converting an image captured by each camera into a bird's-eye view image is performed by a driving support device (not shown). The bird's-eye view image is an image that has undergone viewpoint conversion processing so as to look down from above in the vertical direction. Then, in this driving support method, a driving support device (not shown) performs a compositing process of synthesizing a plurality of bird's-eye views images generated by the conversion process, and the generated composite image is used in the traveling region. As a support image for supporting the driving of the vehicle, a display process for displaying on a plurality of display devices is performed.
このように、本運転支援方法では、不図示の運転支援装置によって、複数のカメラの各々で撮像された画像である撮像画像が俯瞰画像へ変換され、変換された複数の俯瞰画像を合成した合成画像が表示装置に表示される。これにより、カメラの向きを鉛直下向きにする必要がないことから、カメラの設置の困難性を低減しつつ、合流領域を含む走行領域の撮像画像を車両のドライバに提供することができる。したがって、例えば、第2の走行路を走行する車両のドライバは、実際には見えない第1の走行路の車両の状況を臨場感を持って把握することができる。 As described above, in this driving support method, the captured image, which is an image captured by each of the plurality of cameras, is converted into a bird's-eye view image by the driving support device (not shown), and the converted plurality of bird's-eye view images are combined and combined. The image is displayed on the display device. As a result, since it is not necessary to orient the camera vertically downward, it is possible to provide the driver of the vehicle with a captured image of the traveling region including the confluence region while reducing the difficulty of installing the camera. Therefore, for example, the driver of the vehicle traveling on the second traveling path can grasp the situation of the vehicle on the first traveling path, which is not actually visible, with a sense of reality.
また、走行領域が高速道路の場合、本線および側道の各々には監視用のカメラが設置されている場合が多く、本運転支援方法では、これら既設の監視用のカメラを使用することもできる。この場合、カメラを新たに設置する必要がないことから、本運転支援方法を容易に適用することができる。 In addition, when the traveling area is an expressway, surveillance cameras are often installed on each of the main road and the frontage road, and these existing surveillance cameras can also be used in this driving support method. .. In this case, since it is not necessary to newly install a camera, this driving support method can be easily applied.
以下、本運転支援方法を実行する運転支援システムの構成について具体的に説明する。図2は、実施の形態1にかかる運転支援システムの構成の一例を示す図である。図2に示すように、実施の形態1にかかる運転支援システム100は、運転支援装置1と、複数のカメラ21,22,23と、複数の表示装置31,32,33,34と、サーバ4と、端末装置5とを備える。
Hereinafter, the configuration of the driving support system that executes this driving support method will be specifically described. FIG. 2 is a diagram showing an example of the configuration of the driving support system according to the first embodiment. As shown in FIG. 2, the
運転支援装置1は、無線または有線によって複数のカメラ21,22,23および複数の表示装置31,32,33,34の各々と互いに通信可能に接続される。運転支援装置1は、複数のカメラ21,22,23で撮像された複数の画像に基づいて、走行領域におけるドライバによる車両の運転を支援するための支援画像を表示装置31,32,33,34に表示させる。
The driving
運転支援装置1は、ゲートウェイ6およびネットワーク7を介してサーバ4と互いに通信可能に接続される。図2に示す例では、サーバ4は、クラウド上に設けられるクラウドサーバである。サーバ4は、ネットワーク8を介して道路管理会社の端末装置5と互いに通信可能に接続される。
The driving
図3は、実施の形態1にかかる第1の走行路、第2の走行路、および合流領域を含む走行領域の平面図である。図3に示すように、実施の形態1にかかる走行領域9は、第1の走行路91と、第2の走行路92と、第1の走行路91と第2の走行路92とが合流する領域である合流領域93とを含む。走行領域9が高速道路である場合、第1の走行路91は、本線の一部であり、第2の走行路92は、側道であり、合流領域93には、加速車線の全体および本線の一部が含まれる。
FIG. 3 is a plan view of a traveling area including the first traveling path, the second traveling path, and the confluence region according to the first embodiment. As shown in FIG. 3, drive
図4は、実施の形態1にかかる複数のカメラおよび複数の表示装置の各々の配置の一例を示す図である。図4に示す例では、カメラ21は、第1の走行路91をまたぐ門型支柱に取り付けられ、第1の走行路91の上方から第1の走行路91を撮像する位置に配置される。カメラ22は、第2の走行路92をまたぐ門型支柱に取り付けられ、第2の走行路92の上方から第2の走行路92を撮像する位置に配置される。
FIG. 4 is a diagram showing an example of the arrangement of each of the plurality of cameras and the plurality of display devices according to the first embodiment. In the example shown in FIG. 4, the camera 2 1 is attached to the gate-shaped struts straddling the
カメラ23は、合流領域93をまたぐ門型支柱に取り付けられ、合流領域93の上方から合流領域93を撮像する位置に配置される。門型支柱を用いる方式は、オーバヘッド式または門型式とも呼ばれる。以下、複数のカメラ21,22,23の各々を個別に区別せずに示す場合、カメラ2と記載する場合がある。
The camera 2 3 is attached to the gate-shaped struts straddling the
図5は、実施の形態1にかかるカメラの構成の一例を示す図である。図5に示すように、カメラ2は、撮像部30と、通信部31と、処理部32とを備える。撮像部30は、例えば、CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどのイメージセンサである。通信部31は、運転支援装置1と無線または有線によって情報の送受信を行う。処理部32は、撮像部30で撮像された動画像の情報を通信部31から送信させる。
FIG. 5 is a diagram showing an example of the configuration of the camera according to the first embodiment. As shown in FIG. 5, the camera 2 includes an imaging unit 30, a
図4に示す例では、表示装置31は、第1の走行路91をまたぐ門型支柱に取り付けられ、第1の走行路91を走行する車両のドライバから視認可能な位置に配置される。表示装置32は、第2の走行路92をまたぐ門型支柱に取り付けられ、第2の走行路92を走行する車両のドライバから視認可能な位置に配置される。
In the example shown in FIG. 4, the display device 3 1 is attached to the gate-shaped struts straddling the
表示装置33は、合流領域93をまたぐ門型支柱に取り付けられ、合流領域93を走行する車両のドライバから視認可能な位置に配置される。表示装置34は、第2の走行路92の入口に設けられた門型支柱に取り付けられ、第2の走行路92の入口に進入しようとする車両のドライバまたは第2の走行路92に繋がる走行路を走行する車両のドライバなどから視認可能な位置に配置される。このように、表示装置31,32,33,34の各々は、走行領域9の上方であって走行領域9を走行する車両のドライバが視認可能な位置に設けられる。以下、複数の表示装置31,32,33,34の各々を個別に区別せずに示す場合、表示装置3と記載する場合がある。
Display device 3 3 is attached to the gate-shaped struts straddling the
図6は、実施の形態1にかかる表示装置の構成の一例を示す図である。図6に示すように、表示装置3は、通信部40と、表示部41と、処理部42とを備える。通信部40は、運転支援装置1と無線または有線によって情報の送受信を行う。表示部41は、大型の表示部であり、例えば、複数のLED(Light Emitting Diode)で画像を表示するLEDビジョンである。処理部42は、通信部40によって受信された運転支援装置1からの動画像の情報である支援画像の情報を表示部41に表示させる。
FIG. 6 is a diagram showing an example of the configuration of the display device according to the first embodiment. As shown in FIG. 6, the display device 3 includes a
図2に戻って、運転支援装置1の説明を続ける。図2に示すように、運転支援装置1は、第1の通信部10と、第2の通信部11と、処理部12とを備える。第1の通信部10は、無線または有線によって複数のカメラ21,22,23および表示装置31,32,33,34の各々と互いに通信可能に接続される。第2の通信部11は、ゲートウェイ6およびネットワーク7を介してサーバ4と互いに通信可能に接続される。
Returning to FIG. 2, the description of the driving
処理部12は、取得部20と、変換部21と、合成部22と、表示処理部23とを備える。取得部20は、各カメラ2から撮像画像の情報を取得する。取得部20は、取得した撮像画像の情報を監視用画像の情報として第2の通信部11からサーバ4へ送信させる。サーバ4は、運転支援装置1から取得した各カメラ2から撮像画像の情報を端末装置5へネットワーク8を介して送信する。これにより、各カメラ2の撮像画像が端末装置5における不図示の表示部に表示され、道路管理会社の従業員は、端末装置5に表示された各カメラ2の撮像画像に基づいて、走行領域9の状態を監視することができる。
The
また、取得部20は、取得した複数の撮像画像の情報を変換部21へ出力する。変換部21は、取得部20から出力された複数の撮像画像の情報に基づいて、各カメラ2の撮像画像を俯瞰画像へ変換する。俯瞰画像は、上述したように、鉛直方向上方から見下ろすように視点変換処理が行われて生成される画像である。すなわち、俯瞰画像は、視点位置を走行領域9の上方に設定し視点方向を鉛直方向下方に設定してカメラ2の画像を座標変換することによって得られる画像である。なお、第2の走行路92が坂道である場合、第2の走行路92の俯瞰画像は、第2の走行路92に対して垂直な方向から見下ろす画像であってもよい。
Further, the
合成部22は、変換部21によって変換された複数の俯瞰画像を合成した合成画像を生成する。図7は、実施の形態1にかかる合成画像に対する複数の俯瞰画像の位置関係を示す図である。図7に示す合成画像50において、第1の画像51は、カメラ21の撮像画像から変換部21で得られる俯瞰画像であり、第2の画像52は、カメラ22の撮像画像から変換部21で得られる俯瞰画像であり、第3の画像53は、カメラ23の撮像画像から変換部21で得られる俯瞰画像である。
The
第1の画像51、第2の画像52、および第3の画像53の各々は、走行領域9のうち互いに異なる領域の画像である。具体的には、第1の画像51は、第1の走行路91の領域の画像であり、第2の画像52は、第2の走行路92の領域の画像であり、第3の画像53は、合流領域93の画像である。
Each of the
カメラ23がカメラ21,22と重複する領域を撮像する場合、カメラ23の撮像画像から変換部21で得られる俯瞰画像から、カメラ21,22の撮像画像から変換部21で得られる俯瞰画像との重複部分が削除される。また、カメラ21がカメラ22と重複する領域を撮像する場合、例えば、カメラ21の撮像画像から変換部21で得られる俯瞰画像から、カメラ22の撮像画像から変換部21で得られる俯瞰画像との重複部分が削除される。かかる重複部分の削除は、例えば、変換部21または合成部22によって実行される。
When the camera 2 3 captures an image region overlapping the
なお、合成部22は、例えば、複数の俯瞰画像を合成した合成画像を車両の走行方向で圧縮した画像を合成画像として生成することもできる。
The
表示処理部23は、合成部22によって生成された合成画像の情報を複数の表示装置31,32,33,34へ第1の通信部10に送信させ、合成部22によって生成された合成画像を支援画像として表示装置31,32,33,34に表示させる。
The
図8は、実施の形態1にかかる表示装置に表示される合成画像の一例を示す図である。図8に示す合成画像50は、走行領域9を走行する複数の車両を上方から見た画像である。かかる合成画像50は、表示装置31,32,33,34によって表示されることから、走行領域9を走行する車両のドライバは、走行領域9における他の車両の走行状態を合成画像50から容易に把握することができる。
FIG. 8 is a diagram showing an example of a composite image displayed on the display device according to the first embodiment. The
例えば、第2の走行路92に車両が走行している場合、合流領域93における加速車線のどこから合流領域93の本線に合流すればいいかのさらに合理的な判断を、第2の走行路92を走行する車両のドライバに対して促すことができる。また、第1の走行路91を走行する車両のドライバは、第2の走行路92から合流領域93に進入する車両を事前に把握することができ、第2の走行路92から合流領域93に車両が進入しやすいように第1の走行路91を走行することができる。また、表示装置34は、例えば、高速道路に繋がる側道の入り口に設置されるため、渋滞に巻き込まれる車両を減らすことができる。そのため、運転支援システム100では、渋滞の早期解消に期することができる。
For example, if the second
なお、カメラ2の数および配置は、上述した例に限定されない。図9は、実施の形態1にかかるカメラの数および配置が異なる場合の合成画像の一例を示す図である。図10は、実施の形態1にかかるカメラの数および配置がさらに異なる場合の合成画像の一例を示す図である。 The number and arrangement of the cameras 2 are not limited to the above-mentioned example. FIG. 9 is a diagram showing an example of a composite image when the number and arrangement of cameras according to the first embodiment are different. FIG. 10 is a diagram showing an example of a composite image when the number and arrangement of cameras according to the first embodiment are further different.
図9に示す例では、4つのカメラ2の撮像画像で合成画像50が生成される。具体的には、合成画像50は、第1の画像、第2の画像、第3の画像、および第4の画像とから構成される。第1の画像は、カメラ21から得られる画像であり、第2の画像は、カメラ22から得られる画像である。また、第3の画像および第4の画像の各々は、カメラ21,22とは異なる2つのカメラ2で撮像された画像から得られる。
In the example shown in FIG. 9, the
図10に示す例では、2つのカメラ2の撮像画像で合成画像50が生成される。具体的には、合成画像50は、第1の画像および第2の画像から構成される。第1の画像は、1つ目のカメラ2から得られる画像であり、第2の画像は、2つ目のカメラ2から得られる画像である。1つ目のカメラ2は、走行領域9のうち第1の走行路91と合流領域93の一部とを含む領域を撮像し、2つ目のカメラ2は、走行領域9のうち第2の走行路92と合流領域93の一部とを含む領域を撮像する。なお、カメラ2の数は、5つ以上であってもよく、カメラ2の配置は、上述した例に限定されない。
In the example shown in FIG. 10, the
走行領域9には、車両が走行する方向において分割される複数の領域の各々に異なる色が付けられており、これにより、走行領域9を走行する車両のドライバは、車両が走行している領域の色と表示装置3に表示された合成画像50とから、合成画像50に含まれる複数の車両のうち搭乗している車両が走行している位置を容易に把握することができる。
Each of the plurality of regions divided in the direction in which the vehicle travels is colored differently in the traveling
図11は、実施の形態1にかかる走行領域の色づけの一例を示す図である。図11に示す例では、走行領域9のうち互いに異なる色が付された複数の領域の各々が異なるハッチングで示される。すなわち、図11では、ハッチングによって色の違いを表現している。
FIG. 11 is a diagram showing an example of coloring the traveling region according to the first embodiment. In the example shown in FIG. 11, each of a plurality of regions of the traveling
図11に示す例では、走行領域9の複数の領域の各々に異なる色が付されている。例えば、第1の走行路91の領域91と第2の走行路92の領域93とが黄色で塗装され、第1の走行路91の領域92と第2の走行路92の領域94とが橙色で塗装され、合流領域93が青色に塗装される。
In the example shown in FIG. 11, each of the plurality of regions of the traveling
図12は、図11に示す走行領域を走行する車両のドライバから前方を見た画像の一例を示す図である。図12に示す例は、第1の走行路91の領域91を走行している車両から見た画像であり、第1の走行路91の領域92に他の車両が存在している。第1の走行路91の領域91を走行している車両のドライバは、車両が走行している領域の色と、表示装置3に表示された合成画像50とから、合成画像50に含まれる複数の車両のうち搭乗している車両が走行している位置を容易に把握することができる。
FIG. 12 is a diagram showing an example of an image looking forward from the driver of the vehicle traveling in the traveling region shown in FIG. Example shown in FIG. 12 is an image viewed from a vehicle traveling in the
つづいて、フローチャートを用いて運転支援装置1の処理部12による処理を説明する。図13は、実施の形態1にかかる運転支援装置の処理部による処理の一例を示すフローチャートである。図13に示す処理は、運転支援装置1の処理部12によって繰り返し実行される。例えば、処理部12は、各カメラ2から1フレームの画像の情報を取得する毎に図13に示す処理を実行する。
Subsequently, the processing by the
図13に示すように、運転支援装置1の処理部12は、複数のカメラ2の各々から撮像画像を取得する(ステップS10)。処理部12は、ステップS10で取得した複数の撮像画像をサーバ4へ送信すると共に(ステップS11)、ステップS10で取得した複数の撮像画像の各々を俯瞰画像へ変換する(ステップS12)。
As shown in FIG. 13, the
次に、処理部12は、ステップS12で変換した複数の俯瞰画像を合成して合成画像を生成する(ステップS13)。処理部12は、ステップS13で生成した合成画像を支援画像として各表示装置3に表示すると共に(ステップS14)、ステップS13で生成した合成画像を第2の通信部11にサーバ4へ送信させ(ステップS15)、図13に示す処理を終了する。なお、処理部12は、ステップS15の処理を行わないこともできる。
Next, the
図14は、実施の形態1にかかる運転支援装置のハードウェア構成の一例を示す図である。図14に示すように、運転支援装置1は、プロセッサ101と、メモリ102と、第1の通信装置103と、第2の通信装置104とを備えるコンピュータを含む。プロセッサ101、メモリ102、第1の通信装置103、および第2の通信装置104は、例えば、バス105によって互いにデータの送受信が可能である。第1の通信部10は、第1の通信装置103によって実現され、第2の通信部11は、第2の通信装置104によって実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、取得部20、変換部21、合成部22、および表示処理部23の機能を実行する。
FIG. 14 is a diagram showing an example of the hardware configuration of the driving support device according to the first embodiment. As shown in FIG. 14, the driving
プロセッサ101は、例えば、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびシステムLSI(Large Scale Integration)のうち一つ以上を含む。メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、およびEEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)のうち一つ以上を含む。また、メモリ102は、コンピュータが読み取り可能な上述したプログラムが記録された記録媒体を含む。かかる記録媒体は、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち一つ以上を含む。なお、運転支援装置1の処理部12は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)などの集積回路を含んでいてもよい。
The
以上のように、実施の形態1にかかる運転支援システム100は、複数のカメラ2と、運転支援装置1とを備える。複数のカメラ2は、第1の走行路91の領域と、第2の走行路92の領域と、第1の走行路91と第2の走行路92とが合流する領域である合流領域93とを含む走行領域9のうち各々異なる領域を撮像する。運転支援装置1は、複数のカメラ2で撮像された複数の画像に基づいて、走行領域9における車両の運転を支援するための支援画像を表示装置3に表示させる。運転支援装置1は、変換部21と、合成部22と、表示処理部23とを備える。変換部21は、複数のカメラ2で撮像された複数の画像の各々を俯瞰画像へ変換する。合成部22は、変換部21によって変換された複数の俯瞰画像を合成した合成画像を生成する。表示処理部23は、合成部22によって生成された合成画像を支援画像として表示装置3に表示させる。これにより、カメラ2の向きを鉛直下向きにする必要がないことから、カメラ2の設置の困難性を低減しつつ、合流領域93を含む走行領域9の撮像画像を車両のドライバに提供することができる。したがって、例えば、第2の走行路92を走行する車両のドライバは、実際には見えない第1の走行路91の車両の状況を臨場感を持って把握することができる。
As described above, the driving
また、走行領域9には、車両が走行する方向において分割される複数の領域の各々に異なる色が付けられている。これにより、走行領域9を走行する車両のドライバは、車両が走行している領域の色と表示装置3に表示された合成画像50とから、合成画像50に含まれる複数の車両のうち搭乗している車両が走行している位置を容易に把握することができる。
Further, in the traveling
また、表示装置3は、走行領域9の上方であって走行領域9を走行する車両のドライバが視認可能な位置に設けられる。これにより、走行領域9を走行する車両のドライバは、走行領域9の状態を容易に把握することができる。
Further, the display device 3 is provided at a position above the traveling
また、運転支援装置1は、複数のカメラ2の各々で撮像された画像の情報を監視用画像の情報としてサーバ4へ送信する第2の通信部11を備える。サーバ4は、外部装置の一例であり、第2の通信部11は通信部の一例である。運転支援システム100は、既設の監視用のカメラをカメラ2として使用することもでき、カメラを新たに設置する必要がないことから、システム構築が容易である。
Further, the driving
実施の形態2.
実施の形態2にかかる運転支援システムは、車両の表示装置にも合成画像が表示され、走行領域が投影装置によって着色され、かつカメラの撮像画像から道路状況が判定されて表示装置に表示される点で、実施の形態1にかかる運転支援システム100と異なる。以下においては、実施の形態1と同様の機能を有する構成要素については同一符号を付して説明を省略し、実施の形態1の運転支援システム100と異なる点を中心に説明する。
Embodiment 2.
In the driving support system according to the second embodiment, a composite image is also displayed on the display device of the vehicle, the traveling area is colored by the projection device, and the road condition is determined from the image captured by the camera and displayed on the display device. In that respect, it differs from the driving
図15は、実施の形態2にかかる運転支援システムを説明するための図である。図15に示すように、実施の形態2にかかる運転支援システム100Aは、運転支援装置1Aと、複数のカメラ21,22,23と、複数の表示装置31,32,33,34と、投影装置701,702,703と、車両60と、を備える。なお、図15では、サーバ4および端末装置5などは図示していない。なお、図15では、車両60は、2つのみ図示されているが、運転支援システム100Aは、車両60を3つ以上備える。
FIG. 15 is a diagram for explaining the driving support system according to the second embodiment. As shown in FIG. 15, the driving
車両60は、運転支援装置1Aから送信される合成画像の情報に基づいて、合成画像を表示する。図16は、実施の形態2にかかる車両の一部の構成の一例を示す図である。図16に示すように、車両60は、通信部61と、表示部62と、処理部63を備える。
The
通信部61は、運転支援装置1Aと無線によってネットワーク7などを介して情報の送受信を行う。表示部62は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイである。処理部63は、運転支援装置1Aから送信され通信部61で受信される合成画像の情報を表示部62に表示させる。これにより、車両60のドライバは、車両60内で表示される合成画像によっても、車両60の走行を行うことができる。
The communication unit 61 wirelessly transmits and receives information to and from the driving support device 1A via the
また、投影装置701,702,703は、運転支援装置1Aから送信される制御指令に基づいて、走行領域9のうち車両60が走行する方向において分割される複数の領域の各々に異なる色を投影する。制御指令には、例えば、投影装置701,702,703に各々投影させる画像の情報が含まれる。
The projection device 70 1, 70 2, 70 3, based on a control command transmitted from the driving support device 1A, different to each of the plurality of regions divided in the direction in which the
投影装置701は、例えば、図11に示す第1の走行路91の領域91に黄色の画像を投影し、第1の走行路91の領域92に橙色の画像を投影する。また、投影装置702は、図11に示す第2の走行路92の領域93に黄色の画像を投影し、第2の走行路92の領域94に橙色の画像を投影する。また、投影装置703は、図11に示す合流領域93の領域に青色の画像を投影する。以下、投影装置701,702,703の各々を個別に区別せずに示す場合、投影装置70と記載する場合がある。
Projection device 70 1, for example, by projecting the yellow image of the first traveling
これにより、車両60のドライバは、例えば、走行領域9を走行する時間が夜間の場合であっても、合成画像50に含まれる複数の車両60のうち搭乗している車両60が走行している位置を容易に把握することができる。
As a result, for example, the driver of the
図17は、実施の形態2にかかる運転支援装置の構成の一例を示す図である。図17に示すように、実施の形態2にかかる運転支援装置1Aは、第1の通信部10Aと、第2の通信部11Aと、処理部12Aとを備える。
FIG. 17 is a diagram showing an example of the configuration of the driving support device according to the second embodiment. As shown in FIG. 17, the operation support device 1A according to the second embodiment includes a first communication unit 10A, a
第1の通信部10Aは、複数のカメラ21,22,23および複数の表示装置31,32,33,34に加え、無線または有線によって投影装置701,702,703の各々と互いに通信可能に接続される点で、第1の通信部10と異なる。
The first communication unit 10A, a plurality of cameras 2 1, 2 2, 2 3 and a plurality of display devices 3 1, 3 2, 3 3, 3 in addition to the 4, the
第2の通信部11Aは、サーバ4とゲートウェイ6およびネットワーク7を介して通信可能に接続されると共に、車両60の通信部61とゲートウェイ6およびネットワーク7を介して通信可能に接続される点で、第2の通信部11と異なる。
The
処理部12Aは、表示処理部23に代えて表示処理部23Aを備えると共に、解析部24と、制御処理部25とをさらに備える点で、処理部12と異なる。表示処理部23Aは、合成部22によって生成された合成画像を第1の通信部10Aに車両60へ送信させ、合成画像の情報を車両60の表示部62に表示させる機能をさらに有する点で、表示処理部23と異なる。
The
解析部24は、取得部20で取得される複数の撮像画像に基づいて、走行領域9における車両60の走行状況を解析する。解析部24は、複数の撮像画像から各車両60を抽出し、抽出した各車両60に車両ID(Identifier)を付与し、各車両60の状態を車両IDで管理する。解析部24は、抽出した各車両60の速度を算出し、複数の車両60の平均速度を算出する。また、解析部24は、走行領域9における車両60の数をカウントし、カウントした結果を通行台数として算出する。解析部24は、算出した平均速度と通行台数とに基づいて、走行領域9が渋滞しているか否かを判定する。
The
また、解析部24は、取得部20で取得される複数の撮像画像に基づいて、走行領域9を逆走している車両60があるか否かを判定したり、第1の走行路91を走行している車両60が避走を行っているか否かを判定したりすることができる。解析部24は、解析した結果を示す解析情報を第2の通信部11Aにサーバ4へ送信させる。解析情報は、例えば、平均速度、渋滞、避走、逆走、および通行台数を示す情報を含む。
Further, the
表示処理部23Aは、解析部24の解析結果のうち緊急性の高い情報を第1の通信部10Aに表示装置3へ送信させ、表示装置3に緊急性の高い情報を表示させることができる。緊急性の高い情報は、例えば、逆走などの情報である。このように、表示処理部23Aは、リアルタイムに判定した解析情報のうち緊急性の高い情報を表示装置3に表示させることで、より強い臨場感を持って車両60のドライバに現状の道路状況を把握させることができる。
The
表示処理部23Aは、合成部22によって生成された合成画像に解析部24の解析結果のうち緊急性の高い情報を重畳した画像を支援画像として表示装置3に表示させる。なお、解析部24は、解析情報のうち緊急性の高い情報を第1の通信部10Aに車両60へ送信させ、車両60の表示部62に表示させることもできる。また、表示処理部23Aは、解析部24の解析結果の全部を第1の通信部10Aに表示装置3へ送信させ、表示装置3に解析部24の解析結果の全部を表示させることもできる。この場合も、表示処理部23Aは、合成部22によって生成された合成画像に解析部24の解析結果の全部を重畳した画像を表示装置3に表示させることができる。
The
制御処理部25は、投影装置701で投影させる画像の情報を含む制御指令を第1の通信部10Aに投影装置701へ送信させ、投影装置702で投影させる画像の情報を含む制御指令を第1の通信部10Aに投影装置702へ送信させる。また、制御処理部25は、投影装置703で投影させる画像の情報を含む制御指令を第1の通信部10Aに投影装置703へ送信させる。投影装置701,702,703は、運転支援装置1Aから送信される制御指令に含まれる画像を走行領域9に投影する。
投影装置701,702,703によって投影させる画像は変化させてもよい。例えば、制御処理部25は、解析部24によって解析された走行領域9における車両60の走行状況に基づいて、投影装置701,702,703によって投影させる画像を変更する制御指令を生成することができる。
Image to be projected by the projection device 70 1, 70 2, 70 3 may be varied. For example, the
例えば、制御処理部25は、解析部24によって解析された車両60の走行速度が遅いほど、車両60が走行する方向において異なる色の画像が投影される間隔を短くすることができる。また、制御処理部25は、解析部24によって解析された走行領域9における車両60の渋滞度合いが大きいほど、車両60が走行する方向において異なる色の画像が投影される間隔を短くすることができる。
For example, the
また、制御処理部25は、解析部24によって解析された各車両60の位置に基づいて、各車両60が存在する領域には投影を行わない画像を含む制御指令を第1の通信部10Aに投影装置70へ送信させることができる。これにより、投影装置70からの光が車両60のドライバに直接当たることを防止することができる。なお、投影装置70は、車両60のドライバの頭の高さよりも低い位置から走行領域9に向けて画像を投影することもできる。これによっても、投影装置70からの光が車両60のドライバに直接当たることを防止することができる。なお、投影装置70は、車両60の後ろ側からの投影を行うように車両60の進行方向に投影方向を向けて配置されてもよい。このように、投影装置70が車両60の後ろ側からの投影を行うことにより、投影装置70からの光が車両60のドライバの前方から当たることを防止することができる。
Further, the
また、制御処理部25は、例えば、走行領域9における車両60の台数が予め設定された数以上である場合に、制御指令を第1の通信部10Aに投影装置701,702,703へ送信させることができる。これにより、運転支援システム100Aは、走行領域9における車両60の台数が予め設定された数以上である場合に、投影装置701,702,703から画像を走行領域9に投影することができる。
The
また、制御処理部25は、例えば、現時刻が予め設定された時間帯である場合に制御指令を第1の通信部10Aに投影装置701,702,703へ送信させることができる。これにより、運転支援システム100Aは、例えば、夜間などの時間帯に限定して、投影装置701,702,703から画像を走行領域9に投影することができる。
The
つづいて、フローチャートを用いて運転支援装置1Aの処理部12Aによる処理を説明する。図18は、実施の形態2にかかる運転支援装置の処理部による処理の一例を示すフローチャートである。図18に示す処理は、運転支援装置1Aの処理部12Aによって繰り返し実行される。図18に示すステップS20〜S25の処理は、図13に示すステップS10〜S15と同じであるため、説明を省略する。
Subsequently, the processing by the
図18に示すように、運転支援装置1Aの処理部12Aは、各カメラ2から出力される撮像画像から各車両60を抽出する(ステップS26)。処理部12Aは、ステップS26で抽出した各車両60に車両IDを付与する(ステップS27)。これにより、処理部12Aは、撮像画像に画像が含まれる複数の車両60の各々を管理することができる。
As shown in FIG. 18, the
処理部12Aは、抽出した各車両60の走行領域9における速度および位置などに基づいて、走行領域9における車両60の走行状況を解析する(ステップS28)。ステップS28の処理において、処理部12Aは、例えば、走行領域9における平均速度、渋滞、避走、逆走、および通行台数を解析する。
The
処理部12Aは、解析した車両60の走行状況を示す情報を第1の通信部10Aに各表示装置3へ送信させ、車両60の走行状況を示す情報を各表示装置3に表示させる(ステップS29)。例えば、処理部12Aは、合成部22によって生成された合成画像によって車両60の走行状況を示す情報を重畳した画像を支援画像として各表示装置3に表示させる。また、処理部12Aは、解析した車両60の走行状況を示す情報をサーバ4へ第2の通信部11Aに送信させる(ステップS30)。
The
次に、処理部12Aは、解析した車両60の走行状況に基づいて、走行領域9を着色する(ステップS31)。処理部12Aは、ステップS31の処理が終了すると、図18に示す処理を終了する。
Next, the
実施の形態2にかかる運転支援装置1Aのハードウェア構成例は、図14に示す運転支援装置1のハードウェア構成と同じである。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、取得部20、変換部21、合成部22、表示処理部23A、解析部24、および制御処理部25の機能を実行することができる。
The hardware configuration example of the driving support device 1A according to the second embodiment is the same as the hardware configuration of the driving
以上のように、実施の形態2にかかる運転支援装置1Aは、走行領域9のうち車両60が走行する方向において分割される複数の領域の各々に異なる色を投影する複数の投影装置701,702,703を備える。これにより、車両60のドライバは、例えば、走行領域9を走行する時間が夜間の場合であっても、合成画像50に含まれる複数の車両60のうち搭乗している車両60が走行している位置を容易に把握することができる。
As described above, the driving support device 1A according to the second embodiment, a plurality of projection device 70 1 for projecting a different color for each of a plurality of regions divided in the direction in which the
また、表示部62は、車両60に設けられる。表示部62は表示装置の一例である。表示処理部23Aは、合成部22によって生成された合成画像を表示部62に表示させる。これにより、走行領域9を走行する車両60のドライバは、表示部62に表示された画像に基づいて、走行領域9の状態を容易に把握することができる。
Further, the
また、運転支援装置1Aは、複数のカメラ2で撮像された複数の画像に基づいて、走行領域9における車両60の走行状況を解析する解析部24を備える。表示処理部23Aは、解析部24によって解析された車両60の走行状況を示す情報を表示装置31,32,33,34に表示させる。これにより、走行領域9を走行する車両60のドライバは、車両60の走行状況をより容易に把握することができる。
Further, the driving support device 1A includes an
また、表示処理部23Aは、合成部22によって生成された合成画像に解析部24によって解析された車両60の走行状況を示す情報を重畳した画像を支援画像として表示装置3に表示させる。これにより、車両60のドライバは、表示装置3の画像から走行領域9の状態をさらに具体的に把握することができる。
Further, the
以上の実施の形態に示した構成は、一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、実施の形態同士を組み合わせることも可能であるし、要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。 The configuration shown in the above embodiments is an example, and can be combined with another known technique, can be combined with each other, and does not deviate from the gist. It is also possible to omit or change a part of the configuration.
1,1A 運転支援装置、2,21,22,23 カメラ、3,31,32,33,34 表示装置、4 サーバ、5 端末装置、6 ゲートウェイ、7,8 ネットワーク、9 走行領域、91 第1の走行路、92 第2の走行路、93 合流領域、10,10A 第1の通信部、11,11A 第2の通信部、12,12A,32,42,63 処理部、20 取得部、21 変換部、22 合成部、23,23A 表示処理部、24 解析部、25 制御処理部、30 撮像部、31,40,61 通信部、41,62 表示部、50 合成画像、51 第1の画像、52 第2の画像、53 第3の画像、60 車両、70,701,702,703 投影装置、91,92,93,94 領域、100,100A 運転支援システム。 1,1A driving support device, 2,2 1, 2 2, 2 3 camera, 3,3 1, 3 2, 3 3, 3 4 display device, 4 server, 5 terminals, 6 gateways, 7,8 network, 9 Traveling area, 9 1 1st driving path, 9 2 2nd driving path, 9 3 Confluence area, 10, 10A 1st communication unit, 11, 11A 2nd communication unit, 12, 12A, 32, 42 , 63 Processing unit, 20 Acquisition unit, 21 Conversion unit, 22 Synthesis unit, 23, 23A Display processing unit, 24 Analysis unit, 25 Control processing unit, 30 Imaging unit, 31, 40, 61 Communication unit, 41, 62 Display unit , 50 the composite image, 51 the first image, 52 the second image, 53 the third image, 60 vehicle, 70, 70 1, 70 2, 70 3 projecting device, 91 to 94 regions, 100, 100A driving support system.
Claims (11)
前記複数のカメラで撮像された複数の画像に基づいて、前記走行領域における車両の運転を支援するための支援画像を表示装置に表示させる運転支援装置と、を備え、
前記運転支援装置は、
前記複数の画像の各々を俯瞰画像へ変換する変換部と、
前記変換部によって変換された複数の前記俯瞰画像を合成した合成画像を生成する合成部と、
前記合成部によって生成された前記合成画像を前記支援画像として前記表示装置に表示させる表示処理部と、を備える
ことを特徴とする運転支援システム。 A plurality of images of different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. Camera and
A driving support device for displaying a support image for supporting the driving of a vehicle in the traveling area on a display device based on a plurality of images captured by the plurality of cameras is provided.
The driving support device is
A conversion unit that converts each of the plurality of images into a bird's-eye view image,
A compositing unit that generates a composite image that combines a plurality of the bird's-eye view images converted by the conversion unit, and a compositing unit.
A driving support system including a display processing unit that displays the composite image generated by the synthesis unit on the display device as the support image.
前記車両が走行する方向において分割される複数の領域の各々に異なる色が付けられている
ことを特徴とする請求項1に記載の運転支援システム。 In the traveling area,
The driver assistance system according to claim 1, wherein each of the plurality of regions divided in the direction in which the vehicle travels is colored differently.
ことを特徴とする請求項1に記載の運転支援システム。 The driving support system according to claim 1, further comprising a plurality of projection devices that project different colors on each of the plurality of regions of the traveling region divided in the direction in which the vehicle travels.
前記走行領域の上方であって前記走行領域を走行する前記車両のドライバが視認可能な位置に設けられる
ことを特徴とする請求項1から3のいずれか1つに記載の運転支援システム。 The display device is
The driving support system according to any one of claims 1 to 3, wherein the driver of the vehicle traveling in the traveling area is provided at a position visible above the traveling area.
前記車両に設けられ、
前記表示処理部は、
前記合成部によって生成された前記合成画像を前記表示装置に表示させる
ことを特徴とする請求項1から3のいずれか1つに記載の運転支援システム。 The display device is
Provided on the vehicle
The display processing unit
The driver assistance system according to any one of claims 1 to 3, wherein the composite image generated by the synthesis unit is displayed on the display device.
前記表示処理部は、
前記解析部によって解析された前記走行状況を示す情報を前記表示装置に表示させる
ことを特徴とする請求項1から5のいずれか1つに記載の運転支援システム。 An analysis unit for analyzing the traveling state of the vehicle in the traveling region based on the plurality of images is provided.
The display processing unit
The driving support system according to any one of claims 1 to 5, wherein the display device displays information indicating the traveling situation analyzed by the analysis unit.
前記合成部によって生成された前記合成画像に前記解析部によって解析された前記走行状況を示す情報を重畳した画像を前記支援画像として前記表示装置に表示させる
ことを特徴とする請求項6に記載の運転支援システム。 The display processing unit
The sixth aspect of claim 6, wherein an image in which information indicating the traveling situation analyzed by the analysis unit is superimposed on the composite image generated by the synthesis unit is displayed as the support image on the display device. Driving support system.
前記複数のカメラの各々で撮像された画像の情報を監視用画像の情報として外部装置へ送信する通信部を備える
ことを特徴とする請求項1から7のいずれか1つに記載の運転支援システム。 The driving support device is
The driver assistance system according to any one of claims 1 to 7, further comprising a communication unit that transmits information of an image captured by each of the plurality of cameras to an external device as information of a monitoring image. ..
前記変換部によって変換された複数の前記俯瞰画像を合成した合成画像を生成する合成部と、
前記合成部によって生成された前記合成画像を前記走行領域における車両の運転を支援するための支援画像として表示装置に表示させる表示処理部と、を備える
ことを特徴とする運転支援装置。 A plurality of images of different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. A conversion unit that converts multiple images captured by the camera into a bird's-eye view image,
A compositing unit that generates a composite image that combines a plurality of the bird's-eye view images converted by the conversion unit, and a compositing unit.
A driving support device including a display processing unit that displays the composite image generated by the synthesis unit on a display device as a support image for supporting the driving of a vehicle in the traveling region.
第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像の各々を俯瞰画像へ変換する第1のステップと、
前記第1のステップによって変換された複数の前記俯瞰画像を合成した合成画像を生成する第2のステップと、
前記第2のステップによって生成された前記合成画像を前記走行領域における車両の運転を支援するための支援画像として表示装置に表示させる第3のステップと、を含む
ことを特徴とする運転支援方法。 It is a driving support method executed by a computer.
A plurality of images of different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. The first step of converting each of the multiple images captured by the camera into a bird's-eye view image,
A second step of generating a composite image by synthesizing the plurality of the bird's-eye view images converted by the first step, and
A driving support method comprising a third step of displaying the composite image generated by the second step on a display device as a support image for supporting the driving of a vehicle in the traveling region.
前記第1のステップによって変換された複数の前記俯瞰画像を合成した合成画像を生成する第2のステップと、
前記第2のステップによって生成された前記合成画像を前記走行領域における車両の運転を支援するための支援画像として表示装置に表示させる第3のステップと、をコンピュータに実行させる
ことを特徴とする運転支援プログラム。 A plurality of images of different regions of the travel region including the region of the first travel path, the region of the second travel path, and the region where the first travel path and the second travel path meet. The first step of converting each of the multiple images captured by the camera into a bird's-eye view image,
A second step of generating a composite image by synthesizing the plurality of the bird's-eye view images converted by the first step, and
The operation is characterized in that the computer executes the third step of displaying the composite image generated by the second step on the display device as a support image for supporting the driving of the vehicle in the traveling region. Support program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020040281A JP7422567B2 (en) | 2020-03-09 | 2020-03-09 | Driving support system, driving support device, driving support method, and driving support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020040281A JP7422567B2 (en) | 2020-03-09 | 2020-03-09 | Driving support system, driving support device, driving support method, and driving support program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021140689A true JP2021140689A (en) | 2021-09-16 |
JP7422567B2 JP7422567B2 (en) | 2024-01-26 |
Family
ID=77668813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020040281A Active JP7422567B2 (en) | 2020-03-09 | 2020-03-09 | Driving support system, driving support device, driving support method, and driving support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7422567B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002222488A (en) | 2001-01-29 | 2002-08-09 | Matsushita Electric Ind Co Ltd | Traffic monitoring device |
JP5053776B2 (en) | 2007-09-14 | 2012-10-17 | 株式会社デンソー | Vehicular visibility support system, in-vehicle device, and information distribution device |
JP2015052902A (en) | 2013-09-06 | 2015-03-19 | 株式会社デンソー | Merging information providing device |
JP6920776B2 (en) | 2017-06-22 | 2021-08-18 | 西日本高速道路株式会社 | Monitoring support system and monitoring support method |
-
2020
- 2020-03-09 JP JP2020040281A patent/JP7422567B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7422567B2 (en) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11175406B2 (en) | Range imaging system and solid-state imaging device | |
JP3876288B2 (en) | State recognition system and state recognition display generation method | |
KR100835085B1 (en) | A real time processing system and method of a traffic accident using an unmanned recording device | |
US20100172543A1 (en) | Multiple object speed tracking system | |
US20050278088A1 (en) | Method and apparatus for collision avoidance and enhanced visibility in vehicles | |
KR101079700B1 (en) | passenger decentralization system for transfer station | |
JP3711518B2 (en) | Traffic signal ignoring vehicle automatic recording apparatus and method | |
JP6731135B2 (en) | Sensing system and driving support system | |
KR102336934B1 (en) | A system and method for analyzing the movement situation of vehicles and personal mobility, which are risk factors for pedestrians in the school zone, and expressing them on the vms and monitoring them at the control center | |
JP5962898B2 (en) | Driving evaluation system, driving evaluation method, and driving evaluation program | |
KR20200094818A (en) | Vehicle search system based artificial intelligence | |
KR101210615B1 (en) | Regulation system of u-turn violation vehicle | |
JPH11203590A (en) | Television system for traffic monitor | |
KR101696730B1 (en) | Method for intelligent city integrated monitoring and controlling system buildup | |
WO2021005659A1 (en) | Information processing system, sensor system, information processing method, and program | |
JPH11328574A (en) | Television system for monitoring traffic | |
JP2005234774A (en) | Traffic signal ignoring vehicle warning device and traffic signal ignoring vehicle warning/recording device | |
WO2021131201A1 (en) | Driving assistance device, driving assistance method, and program | |
KR101327348B1 (en) | A system for ego-lane detection using defined mask in driving road image | |
JP2021140689A (en) | Drive assistance system, drive assistance device, drive assistance method, and drive assistance program | |
TW202015003A (en) | Traffic light controlling system based on internet of things (iot) and method thereof | |
CN114730492A (en) | Assertion vehicle detection model generation and implementation | |
CN114863690B (en) | Method, device, medium and electronic equipment for identifying solid line lane change | |
TWI626605B (en) | Apparatus and method for diagnosing intelligent detection warning system | |
JP2018192844A (en) | Monitoring device, monitoring system, monitoring program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7422567 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |