JP7422567B2 - 運転支援システム、運転支援装置、運転支援方法、および運転支援プログラム - Google Patents

運転支援システム、運転支援装置、運転支援方法、および運転支援プログラム Download PDF

Info

Publication number
JP7422567B2
JP7422567B2 JP2020040281A JP2020040281A JP7422567B2 JP 7422567 B2 JP7422567 B2 JP 7422567B2 JP 2020040281 A JP2020040281 A JP 2020040281A JP 2020040281 A JP2020040281 A JP 2020040281A JP 7422567 B2 JP7422567 B2 JP 7422567B2
Authority
JP
Japan
Prior art keywords
driving
image
area
vehicle
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020040281A
Other languages
English (en)
Other versions
JP2021140689A (ja
Inventor
進 矢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020040281A priority Critical patent/JP7422567B2/ja
Publication of JP2021140689A publication Critical patent/JP2021140689A/ja
Application granted granted Critical
Publication of JP7422567B2 publication Critical patent/JP7422567B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、2つの走行路の合流領域を含む走行領域における車両の運転を支援する運転支援システム、運転支援装置、運転支援方法、および運転支援プログラムに関する。
従来、複数の走行路が合流する合流領域を含む走行領域における車両の運転を支援する技術が知られている。例えば、特許文献1には、合流領域に向かって道路上を走行する各車両をカメラで撮像し、カメラの撮像画像を表示装置に表示する技術が開示されている。特許文献1に記載の技術では、各車両の未来の位置を予測し、予測した結果に基づき、推奨する走行方法を車両に実行させるための指示情報と指示情報の対象となる車両を強調する強調画像とをカメラの撮像画像上に配置した画像が表示装置に表示される。
特開2015-52902号公報
しかしながら、上記特許文献1に記載の技術では、走行領域をカメラで鉛直下向きに撮影している。そのため、例えば、高速道路において、本線、側道、および本線と側道との合流地点とを含む走行領域の画像を撮像しようとすると、カメラを走行領域の上空の高い位置に配置する必要があり、カメラの設置が難しい場合がある。
本開示は、上記に鑑みてなされたものであって、カメラの設置の困難性を低減しつつ、合流領域を含む走行領域の撮像画像を車両のドライバに提供することができる運転支援システムを得ることを目的とする。
上述した課題を解決し、目的を達成するために、本開示の運転支援システムは、複数のカメラと、運転支援装置とを備える。複数のカメラは、第1の走行路の領域と、第2の走行路の領域と、第1の走行路と第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する。運転支援装置は、複数のカメラで撮像された複数の画像に基づいて、走行領域における車両の運転を支援するための支援画像を表示装置に表示させる。運転支援装置は、変換部と、合成部と、表示処理部とを備える。変換部は、複数の画像の各々を俯瞰画像へ変換する。合成部は、変換部によって変換された複数の俯瞰画像を合成した合成画像を生成する。表示処理部は、合成部によって生成された合成画像を支援画像として表示装置に表示させる。走行領域には、車両が走行する方向において分割される複数の領域の各々に異なる色が付けられている。
本開示によれば、カメラの設置の困難性を低減しつつ、合流領域を含む走行領域の撮像画像を車両のドライバに提供することができる、という効果を奏する。
実施の形態1にかかる運転支援方法を説明するための図 実施の形態1にかかる運転支援システムの構成の一例を示す図 実施の形態1にかかる第1の走行路、第2の走行路、および合流領域を含む走行領域の平面図 実施の形態1にかかる複数のカメラおよび複数の表示装置の各々の配置の一例を示す図 実施の形態1にかかるカメラの構成の一例を示す図 実施の形態1にかかる表示装置の構成の一例を示す図 実施の形態1にかかる合成画像に対する複数の俯瞰画像の位置関係を示す図 実施の形態1にかかる表示装置に表示される合成画像の一例を示す図 実施の形態1にかかるカメラの数および配置が異なる場合の合成画像の一例を示す図 実施の形態1にかかるカメラの数および配置がさらに異なる場合の合成画像の一例を示す図 実施の形態1にかかる走行領域の色づけの一例を示す図 図11に示す走行領域を走行する車両のドライバから前方を見た画像の一例を示す図 実施の形態1にかかる運転支援装置の処理部による処理の一例を示すフローチャート 実施の形態1にかかる運転支援装置のハードウェア構成の一例を示す図 実施の形態2にかかる運転支援システムを説明するための図 実施の形態2にかかる車両の一部の構成の一例を示す図 実施の形態2にかかる運転支援装置の構成の一例を示す図 実施の形態2にかかる運転支援装置の処理部による処理の一例を示すフローチャート
以下に、実施の形態にかかる運転支援システム、運転支援装置、運転支援方法、および運転支援プログラムを図面に基づいて詳細に説明する。
実施の形態1.
図1は、実施の形態1にかかる運転支援方法を説明するための図である。図1に示すように、実施の形態1にかかる運転支援方法では、第1の走行路の領域と、第2の走行路の領域と、第1の走行路と第2の走行路とが合流する領域である合流領域とを含む走行領域が複数のカメラで撮像される。走行領域が高速道路の場合、第1の走行路は、本線の一部であり、第2の走行路は、側道であり、合流領域には、加速車線の全部および本線の一部が含まれる。なお、走行領域は高速道路に限定されない。
図1に示す例では、複数のカメラのうちの1つ目のカメラで第1の走行路の領域が撮像され、2つ目のカメラで第2の走行路の領域が撮像され、3つ目のカメラで合流領域が撮像される。各カメラで撮像された画像である撮像画像には、走行領域を走行する車両である走行車両の画像も含まれる。これらの複数のカメラから出力される撮像画像の情報は、フレームレートが30FPS(Flames Per Second)の動画像の情報であるが、フレームレートが30FPS未満の動画像の情報であってもよく、フレームレートが30FPSを超える動画像の情報であってもよい。なお、以下において、動画像を画像と記載する場合があり、画像の情報を画像と記載する場合がある。
本運転支援方法では、不図示の運転支援装置によって、各カメラの撮像画像を俯瞰画像へ変換する変換処理が行われる。俯瞰画像は、鉛直方向上方から見下ろすように視点変換処理を行った画像である。そして、本運転支援方法では、不図示の運転支援装置によって、変換処理によって生成された複数の俯瞰画像を合成した合成画像を生成する合成処理が行われ、生成された合成画像を、走行領域における車両の運転を支援するための支援画像として、複数の表示装置に表示する表示処理が行われる。
このように、本運転支援方法では、不図示の運転支援装置によって、複数のカメラの各々で撮像された画像である撮像画像が俯瞰画像へ変換され、変換された複数の俯瞰画像を合成した合成画像が表示装置に表示される。これにより、カメラの向きを鉛直下向きにする必要がないことから、カメラの設置の困難性を低減しつつ、合流領域を含む走行領域の撮像画像を車両のドライバに提供することができる。したがって、例えば、第2の走行路を走行する車両のドライバは、実際には見えない第1の走行路の車両の状況を臨場感を持って把握することができる。
また、走行領域が高速道路の場合、本線および側道の各々には監視用のカメラが設置されている場合が多く、本運転支援方法では、これら既設の監視用のカメラを使用することもできる。この場合、カメラを新たに設置する必要がないことから、本運転支援方法を容易に適用することができる。
以下、本運転支援方法を実行する運転支援システムの構成について具体的に説明する。図2は、実施の形態1にかかる運転支援システムの構成の一例を示す図である。図2に示すように、実施の形態1にかかる運転支援システム100は、運転支援装置1と、複数のカメラ2,2,2と、複数の表示装置3,3,3,3と、サーバ4と、端末装置5とを備える。
運転支援装置1は、無線または有線によって複数のカメラ2,2,2および複数の表示装置3,3,3,3の各々と互いに通信可能に接続される。運転支援装置1は、複数のカメラ2,2,2で撮像された複数の画像に基づいて、走行領域におけるドライバによる車両の運転を支援するための支援画像を表示装置3,3,3,3に表示させる。
運転支援装置1は、ゲートウェイ6およびネットワーク7を介してサーバ4と互いに通信可能に接続される。図2に示す例では、サーバ4は、クラウド上に設けられるクラウドサーバである。サーバ4は、ネットワーク8を介して道路管理会社の端末装置5と互いに通信可能に接続される。
図3は、実施の形態1にかかる第1の走行路、第2の走行路、および合流領域を含む走行領域の平面図である。図3に示すように、実施の形態1にかかる走行領域9は、第1の走行路9と、第2の走行路9と、第1の走行路9と第2の走行路9とが合流する領域である合流領域9とを含む。走行領域9が高速道路である場合、第1の走行路9は、本線の一部であり、第2の走行路9は、側道であり、合流領域9には、加速車線の全体および本線の一部が含まれる。
図4は、実施の形態1にかかる複数のカメラおよび複数の表示装置の各々の配置の一例を示す図である。図4に示す例では、カメラ2は、第1の走行路9をまたぐ門型支柱に取り付けられ、第1の走行路9の上方から第1の走行路9を撮像する位置に配置される。カメラ2は、第2の走行路9をまたぐ門型支柱に取り付けられ、第2の走行路9の上方から第2の走行路9を撮像する位置に配置される。
カメラ2は、合流領域9をまたぐ門型支柱に取り付けられ、合流領域9の上方から合流領域9を撮像する位置に配置される。門型支柱を用いる方式は、オーバヘッド式または門型式とも呼ばれる。以下、複数のカメラ2,2,2の各々を個別に区別せずに示す場合、カメラ2と記載する場合がある。
図5は、実施の形態1にかかるカメラの構成の一例を示す図である。図5に示すように、カメラ2は、撮像部30と、通信部31と、処理部32とを備える。撮像部30は、例えば、CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどのイメージセンサである。通信部31は、運転支援装置1と無線または有線によって情報の送受信を行う。処理部32は、撮像部30で撮像された動画像の情報を通信部31から送信させる。
図4に示す例では、表示装置3は、第1の走行路9をまたぐ門型支柱に取り付けられ、第1の走行路9を走行する車両のドライバから視認可能な位置に配置される。表示装置3は、第2の走行路9をまたぐ門型支柱に取り付けられ、第2の走行路9を走行する車両のドライバから視認可能な位置に配置される。
表示装置3は、合流領域9をまたぐ門型支柱に取り付けられ、合流領域9を走行する車両のドライバから視認可能な位置に配置される。表示装置3は、第2の走行路9の入口に設けられた門型支柱に取り付けられ、第2の走行路9の入口に進入しようとする車両のドライバまたは第2の走行路9に繋がる走行路を走行する車両のドライバなどから視認可能な位置に配置される。このように、表示装置3,3,3,3の各々は、走行領域9の上方であって走行領域9を走行する車両のドライバが視認可能な位置に設けられる。以下、複数の表示装置3,3,3,3の各々を個別に区別せずに示す場合、表示装置3と記載する場合がある。
図6は、実施の形態1にかかる表示装置の構成の一例を示す図である。図6に示すように、表示装置3は、通信部40と、表示部41と、処理部42とを備える。通信部40は、運転支援装置1と無線または有線によって情報の送受信を行う。表示部41は、大型の表示部であり、例えば、複数のLED(Light Emitting Diode)で画像を表示するLEDビジョンである。処理部42は、通信部40によって受信された運転支援装置1からの動画像の情報である支援画像の情報を表示部41に表示させる。
図2に戻って、運転支援装置1の説明を続ける。図2に示すように、運転支援装置1は、第1の通信部10と、第2の通信部11と、処理部12とを備える。第1の通信部10は、無線または有線によって複数のカメラ2,2,2および表示装置3,3,3,3の各々と互いに通信可能に接続される。第2の通信部11は、ゲートウェイ6およびネットワーク7を介してサーバ4と互いに通信可能に接続される。
処理部12は、取得部20と、変換部21と、合成部22と、表示処理部23とを備える。取得部20は、各カメラ2から撮像画像の情報を取得する。取得部20は、取得した撮像画像の情報を監視用画像の情報として第2の通信部11からサーバ4へ送信させる。サーバ4は、運転支援装置1から取得した各カメラ2から撮像画像の情報を端末装置5へネットワーク8を介して送信する。これにより、各カメラ2の撮像画像が端末装置5における不図示の表示部に表示され、道路管理会社の従業員は、端末装置5に表示された各カメラ2の撮像画像に基づいて、走行領域9の状態を監視することができる。
また、取得部20は、取得した複数の撮像画像の情報を変換部21へ出力する。変換部21は、取得部20から出力された複数の撮像画像の情報に基づいて、各カメラ2の撮像画像を俯瞰画像へ変換する。俯瞰画像は、上述したように、鉛直方向上方から見下ろすように視点変換処理が行われて生成される画像である。すなわち、俯瞰画像は、視点位置を走行領域9の上方に設定し視点方向を鉛直方向下方に設定してカメラ2の画像を座標変換することによって得られる画像である。なお、第2の走行路9が坂道である場合、第2の走行路9の俯瞰画像は、第2の走行路9に対して垂直な方向から見下ろす画像であってもよい。
合成部22は、変換部21によって変換された複数の俯瞰画像を合成した合成画像を生成する。図7は、実施の形態1にかかる合成画像に対する複数の俯瞰画像の位置関係を示す図である。図7に示す合成画像50において、第1の画像51は、カメラ2の撮像画像から変換部21で得られる俯瞰画像であり、第2の画像52は、カメラ2の撮像画像から変換部21で得られる俯瞰画像であり、第3の画像53は、カメラ2の撮像画像から変換部21で得られる俯瞰画像である。
第1の画像51、第2の画像52、および第3の画像53の各々は、走行領域9のうち互いに異なる領域の画像である。具体的には、第1の画像51は、第1の走行路9の領域の画像であり、第2の画像52は、第2の走行路9の領域の画像であり、第3の画像53は、合流領域9の画像である。
カメラ2がカメラ2,2と重複する領域を撮像する場合、カメラ2の撮像画像から変換部21で得られる俯瞰画像から、カメラ2,2の撮像画像から変換部21で得られる俯瞰画像との重複部分が削除される。また、カメラ2がカメラ2と重複する領域を撮像する場合、例えば、カメラ2の撮像画像から変換部21で得られる俯瞰画像から、カメラ2の撮像画像から変換部21で得られる俯瞰画像との重複部分が削除される。かかる重複部分の削除は、例えば、変換部21または合成部22によって実行される。
なお、合成部22は、例えば、複数の俯瞰画像を合成した合成画像を車両の走行方向で圧縮した画像を合成画像として生成することもできる。
表示処理部23は、合成部22によって生成された合成画像の情報を複数の表示装置3,3,3,3へ第1の通信部10に送信させ、合成部22によって生成された合成画像を支援画像として表示装置3,3,3,3に表示させる。
図8は、実施の形態1にかかる表示装置に表示される合成画像の一例を示す図である。図8に示す合成画像50は、走行領域9を走行する複数の車両を上方から見た画像である。かかる合成画像50は、表示装置3,3,3,3によって表示されることから、走行領域9を走行する車両のドライバは、走行領域9における他の車両の走行状態を合成画像50から容易に把握することができる。
例えば、第2の走行路9に車両が走行している場合、合流領域9における加速車線のどこから合流領域9の本線に合流すればいいかのさらに合理的な判断を、第2の走行路9を走行する車両のドライバに対して促すことができる。また、第1の走行路9を走行する車両のドライバは、第2の走行路9から合流領域9に進入する車両を事前に把握することができ、第2の走行路9から合流領域9に車両が進入しやすいように第1の走行路9を走行することができる。また、表示装置3は、例えば、高速道路に繋がる側道の入り口に設置されるため、渋滞に巻き込まれる車両を減らすことができる。そのため、運転支援システム100では、渋滞の早期解消に期することができる。
なお、カメラ2の数および配置は、上述した例に限定されない。図9は、実施の形態1にかかるカメラの数および配置が異なる場合の合成画像の一例を示す図である。図10は、実施の形態1にかかるカメラの数および配置がさらに異なる場合の合成画像の一例を示す図である。
図9に示す例では、4つのカメラ2の撮像画像で合成画像50が生成される。具体的には、合成画像50は、第1の画像、第2の画像、第3の画像、および第4の画像とから構成される。第1の画像は、カメラ2から得られる画像であり、第2の画像は、カメラ2から得られる画像である。また、第3の画像および第4の画像の各々は、カメラ2,2とは異なる2つのカメラ2で撮像された画像から得られる。
図10に示す例では、2つのカメラ2の撮像画像で合成画像50が生成される。具体的には、合成画像50は、第1の画像および第2の画像から構成される。第1の画像は、1つ目のカメラ2から得られる画像であり、第2の画像は、2つ目のカメラ2から得られる画像である。1つ目のカメラ2は、走行領域9のうち第1の走行路9と合流領域9の一部とを含む領域を撮像し、2つ目のカメラ2は、走行領域9のうち第2の走行路9と合流領域9の一部とを含む領域を撮像する。なお、カメラ2の数は、5つ以上であってもよく、カメラ2の配置は、上述した例に限定されない。
走行領域9には、車両が走行する方向において分割される複数の領域の各々に異なる色が付けられており、これにより、走行領域9を走行する車両のドライバは、車両が走行している領域の色と表示装置3に表示された合成画像50とから、合成画像50に含まれる複数の車両のうち搭乗している車両が走行している位置を容易に把握することができる。
図11は、実施の形態1にかかる走行領域の色づけの一例を示す図である。図11に示す例では、走行領域9のうち互いに異なる色が付された複数の領域の各々が異なるハッチングで示される。すなわち、図11では、ハッチングによって色の違いを表現している。
図11に示す例では、走行領域9の複数の領域の各々に異なる色が付されている。例えば、第1の走行路9の領域91と第2の走行路9の領域93とが黄色で塗装され、第1の走行路9の領域92と第2の走行路9の領域94とが橙色で塗装され、合流領域9が青色に塗装される。
図12は、図11に示す走行領域を走行する車両のドライバから前方を見た画像の一例を示す図である。図12に示す例は、第1の走行路9の領域91を走行している車両から見た画像であり、第1の走行路9の領域92に他の車両が存在している。第1の走行路9の領域91を走行している車両のドライバは、車両が走行している領域の色と、表示装置3に表示された合成画像50とから、合成画像50に含まれる複数の車両のうち搭乗している車両が走行している位置を容易に把握することができる。
つづいて、フローチャートを用いて運転支援装置1の処理部12による処理を説明する。図13は、実施の形態1にかかる運転支援装置の処理部による処理の一例を示すフローチャートである。図13に示す処理は、運転支援装置1の処理部12によって繰り返し実行される。例えば、処理部12は、各カメラ2から1フレームの画像の情報を取得する毎に図13に示す処理を実行する。
図13に示すように、運転支援装置1の処理部12は、複数のカメラ2の各々から撮像画像を取得する(ステップS10)。処理部12は、ステップS10で取得した複数の撮像画像をサーバ4へ送信すると共に(ステップS11)、ステップS10で取得した複数の撮像画像の各々を俯瞰画像へ変換する(ステップS12)。
次に、処理部12は、ステップS12で変換した複数の俯瞰画像を合成して合成画像を生成する(ステップS13)。処理部12は、ステップS13で生成した合成画像を支援画像として各表示装置3に表示すると共に(ステップS14)、ステップS13で生成した合成画像を第2の通信部11にサーバ4へ送信させ(ステップS15)、図13に示す処理を終了する。なお、処理部12は、ステップS15の処理を行わないこともできる。
図14は、実施の形態1にかかる運転支援装置のハードウェア構成の一例を示す図である。図14に示すように、運転支援装置1は、プロセッサ101と、メモリ102と、第1の通信装置103と、第2の通信装置104とを備えるコンピュータを含む。プロセッサ101、メモリ102、第1の通信装置103、および第2の通信装置104は、例えば、バス105によって互いにデータの送受信が可能である。第1の通信部10は、第1の通信装置103によって実現され、第2の通信部11は、第2の通信装置104によって実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、取得部20、変換部21、合成部22、および表示処理部23の機能を実行する。
プロセッサ101は、例えば、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびシステムLSI(Large Scale Integration)のうち一つ以上を含む。メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、およびEEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)のうち一つ以上を含む。また、メモリ102は、コンピュータが読み取り可能な上述したプログラムが記録された記録媒体を含む。かかる記録媒体は、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち一つ以上を含む。なお、運転支援装置1の処理部12は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)などの集積回路を含んでいてもよい。
以上のように、実施の形態1にかかる運転支援システム100は、複数のカメラ2と、運転支援装置1とを備える。複数のカメラ2は、第1の走行路9の領域と、第2の走行路9の領域と、第1の走行路9と第2の走行路9とが合流する領域である合流領域9とを含む走行領域9のうち各々異なる領域を撮像する。運転支援装置1は、複数のカメラ2で撮像された複数の画像に基づいて、走行領域9における車両の運転を支援するための支援画像を表示装置3に表示させる。運転支援装置1は、変換部21と、合成部22と、表示処理部23とを備える。変換部21は、複数のカメラ2で撮像された複数の画像の各々を俯瞰画像へ変換する。合成部22は、変換部21によって変換された複数の俯瞰画像を合成した合成画像を生成する。表示処理部23は、合成部22によって生成された合成画像を支援画像として表示装置3に表示させる。これにより、カメラ2の向きを鉛直下向きにする必要がないことから、カメラ2の設置の困難性を低減しつつ、合流領域9を含む走行領域9の撮像画像を車両のドライバに提供することができる。したがって、例えば、第2の走行路9を走行する車両のドライバは、実際には見えない第1の走行路9の車両の状況を臨場感を持って把握することができる。
また、走行領域9には、車両が走行する方向において分割される複数の領域の各々に異なる色が付けられている。これにより、走行領域9を走行する車両のドライバは、車両が走行している領域の色と表示装置3に表示された合成画像50とから、合成画像50に含まれる複数の車両のうち搭乗している車両が走行している位置を容易に把握することができる。
また、表示装置3は、走行領域9の上方であって走行領域9を走行する車両のドライバが視認可能な位置に設けられる。これにより、走行領域9を走行する車両のドライバは、走行領域9の状態を容易に把握することができる。
また、運転支援装置1は、複数のカメラ2の各々で撮像された画像の情報を監視用画像の情報としてサーバ4へ送信する第2の通信部11を備える。サーバ4は、外部装置の一例であり、第2の通信部11は通信部の一例である。運転支援システム100は、既設の監視用のカメラをカメラ2として使用することもでき、カメラを新たに設置する必要がないことから、システム構築が容易である。
実施の形態2.
実施の形態2にかかる運転支援システムは、車両の表示装置にも合成画像が表示され、走行領域が投影装置によって着色され、かつカメラの撮像画像から道路状況が判定されて表示装置に表示される点で、実施の形態1にかかる運転支援システム100と異なる。以下においては、実施の形態1と同様の機能を有する構成要素については同一符号を付して説明を省略し、実施の形態1の運転支援システム100と異なる点を中心に説明する。
図15は、実施の形態2にかかる運転支援システムを説明するための図である。図15に示すように、実施の形態2にかかる運転支援システム100Aは、運転支援装置1Aと、複数のカメラ2,2,2と、複数の表示装置3,3,3,3と、投影装置70,70,70と、車両60と、を備える。なお、図15では、サーバ4および端末装置5などは図示していない。なお、図15では、車両60は、2つのみ図示されているが、運転支援システム100Aは、車両60を3つ以上備える。
車両60は、運転支援装置1Aから送信される合成画像の情報に基づいて、合成画像を表示する。図16は、実施の形態2にかかる車両の一部の構成の一例を示す図である。図16に示すように、車両60は、通信部61と、表示部62と、処理部63を備える。
通信部61は、運転支援装置1Aと無線によってネットワーク7などを介して情報の送受信を行う。表示部62は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイである。処理部63は、運転支援装置1Aから送信され通信部61で受信される合成画像の情報を表示部62に表示させる。これにより、車両60のドライバは、車両60内で表示される合成画像によっても、車両60の走行を行うことができる。
また、投影装置70,70,70は、運転支援装置1Aから送信される制御指令に基づいて、走行領域9のうち車両60が走行する方向において分割される複数の領域の各々に異なる色を投影する。制御指令には、例えば、投影装置70,70,70に各々投影させる画像の情報が含まれる。
投影装置70は、例えば、図11に示す第1の走行路9の領域91に黄色の画像を投影し、第1の走行路9の領域92に橙色の画像を投影する。また、投影装置70は、図11に示す第2の走行路9の領域93に黄色の画像を投影し、第2の走行路9の領域94に橙色の画像を投影する。また、投影装置70は、図11に示す合流領域9の領域に青色の画像を投影する。以下、投影装置70,70,70の各々を個別に区別せずに示す場合、投影装置70と記載する場合がある。
これにより、車両60のドライバは、例えば、走行領域9を走行する時間が夜間の場合であっても、合成画像50に含まれる複数の車両60のうち搭乗している車両60が走行している位置を容易に把握することができる。
図17は、実施の形態2にかかる運転支援装置の構成の一例を示す図である。図17に示すように、実施の形態2にかかる運転支援装置1Aは、第1の通信部10Aと、第2の通信部11Aと、処理部12Aとを備える。
第1の通信部10Aは、複数のカメラ2,2,2および複数の表示装置3,3,3,3に加え、無線または有線によって投影装置70,70,70の各々と互いに通信可能に接続される点で、第1の通信部10と異なる。
第2の通信部11Aは、サーバ4とゲートウェイ6およびネットワーク7を介して通信可能に接続されると共に、車両60の通信部61とゲートウェイ6およびネットワーク7を介して通信可能に接続される点で、第2の通信部11と異なる。
処理部12Aは、表示処理部23に代えて表示処理部23Aを備えると共に、解析部24と、制御処理部25とをさらに備える点で、処理部12と異なる。表示処理部23Aは、合成部22によって生成された合成画像を第1の通信部10Aに車両60へ送信させ、合成画像の情報を車両60の表示部62に表示させる機能をさらに有する点で、表示処理部23と異なる。
解析部24は、取得部20で取得される複数の撮像画像に基づいて、走行領域9における車両60の走行状況を解析する。解析部24は、複数の撮像画像から各車両60を抽出し、抽出した各車両60に車両ID(Identifier)を付与し、各車両60の状態を車両IDで管理する。解析部24は、抽出した各車両60の速度を算出し、複数の車両60の平均速度を算出する。また、解析部24は、走行領域9における車両60の数をカウントし、カウントした結果を通行台数として算出する。解析部24は、算出した平均速度と通行台数とに基づいて、走行領域9が渋滞しているか否かを判定する。
また、解析部24は、取得部20で取得される複数の撮像画像に基づいて、走行領域9を逆走している車両60があるか否かを判定したり、第1の走行路9を走行している車両60が避走を行っているか否かを判定したりすることができる。解析部24は、解析した結果を示す解析情報を第2の通信部11Aにサーバ4へ送信させる。解析情報は、例えば、平均速度、渋滞、避走、逆走、および通行台数を示す情報を含む。
表示処理部23Aは、解析部24の解析結果のうち緊急性の高い情報を第1の通信部10Aに表示装置3へ送信させ、表示装置3に緊急性の高い情報を表示させることができる。緊急性の高い情報は、例えば、逆走などの情報である。このように、表示処理部23Aは、リアルタイムに判定した解析情報のうち緊急性の高い情報を表示装置3に表示させることで、より強い臨場感を持って車両60のドライバに現状の道路状況を把握させることができる。
表示処理部23Aは、合成部22によって生成された合成画像に解析部24の解析結果のうち緊急性の高い情報を重畳した画像を支援画像として表示装置3に表示させる。なお、解析部24は、解析情報のうち緊急性の高い情報を第1の通信部10Aに車両60へ送信させ、車両60の表示部62に表示させることもできる。また、表示処理部23Aは、解析部24の解析結果の全部を第1の通信部10Aに表示装置3へ送信させ、表示装置3に解析部24の解析結果の全部を表示させることもできる。この場合も、表示処理部23Aは、合成部22によって生成された合成画像に解析部24の解析結果の全部を重畳した画像を表示装置3に表示させることができる。
制御処理部25は、投影装置70で投影させる画像の情報を含む制御指令を第1の通信部10Aに投影装置70へ送信させ、投影装置70で投影させる画像の情報を含む制御指令を第1の通信部10Aに投影装置70へ送信させる。また、制御処理部25は、投影装置70で投影させる画像の情報を含む制御指令を第1の通信部10Aに投影装置70へ送信させる。投影装置70,70,70は、運転支援装置1Aから送信される制御指令に含まれる画像を走行領域9に投影する。
投影装置70,70,70によって投影させる画像は変化させてもよい。例えば、制御処理部25は、解析部24によって解析された走行領域9における車両60の走行状況に基づいて、投影装置70,70,70によって投影させる画像を変更する制御指令を生成することができる。
例えば、制御処理部25は、解析部24によって解析された車両60の走行速度が遅いほど、車両60が走行する方向において異なる色の画像が投影される間隔を短くすることができる。また、制御処理部25は、解析部24によって解析された走行領域9における車両60の渋滞度合いが大きいほど、車両60が走行する方向において異なる色の画像が投影される間隔を短くすることができる。
また、制御処理部25は、解析部24によって解析された各車両60の位置に基づいて、各車両60が存在する領域には投影を行わない画像を含む制御指令を第1の通信部10Aに投影装置70へ送信させることができる。これにより、投影装置70からの光が車両60のドライバに直接当たることを防止することができる。なお、投影装置70は、車両60のドライバの頭の高さよりも低い位置から走行領域9に向けて画像を投影することもできる。これによっても、投影装置70からの光が車両60のドライバに直接当たることを防止することができる。なお、投影装置70は、車両60の後ろ側からの投影を行うように車両60の進行方向に投影方向を向けて配置されてもよい。このように、投影装置70が車両60の後ろ側からの投影を行うことにより、投影装置70からの光が車両60のドライバの前方から当たることを防止することができる。
また、制御処理部25は、例えば、走行領域9における車両60の台数が予め設定された数以上である場合に、制御指令を第1の通信部10Aに投影装置70,70,70へ送信させることができる。これにより、運転支援システム100Aは、走行領域9における車両60の台数が予め設定された数以上である場合に、投影装置70,70,70から画像を走行領域9に投影することができる。
また、制御処理部25は、例えば、現時刻が予め設定された時間帯である場合に制御指令を第1の通信部10Aに投影装置70,70,70へ送信させることができる。これにより、運転支援システム100Aは、例えば、夜間などの時間帯に限定して、投影装置70,70,70から画像を走行領域9に投影することができる。
つづいて、フローチャートを用いて運転支援装置1Aの処理部12Aによる処理を説明する。図18は、実施の形態2にかかる運転支援装置の処理部による処理の一例を示すフローチャートである。図18に示す処理は、運転支援装置1Aの処理部12Aによって繰り返し実行される。図18に示すステップS20~S25の処理は、図13に示すステップS10~S15と同じであるため、説明を省略する。
図18に示すように、運転支援装置1Aの処理部12Aは、各カメラ2から出力される撮像画像から各車両60を抽出する(ステップS26)。処理部12Aは、ステップS26で抽出した各車両60に車両IDを付与する(ステップS27)。これにより、処理部12Aは、撮像画像に画像が含まれる複数の車両60の各々を管理することができる。
処理部12Aは、抽出した各車両60の走行領域9における速度および位置などに基づいて、走行領域9における車両60の走行状況を解析する(ステップS28)。ステップS28の処理において、処理部12Aは、例えば、走行領域9における平均速度、渋滞、避走、逆走、および通行台数を解析する。
処理部12Aは、解析した車両60の走行状況を示す情報を第1の通信部10Aに各表示装置3へ送信させ、車両60の走行状況を示す情報を各表示装置3に表示させる(ステップS29)。例えば、処理部12Aは、合成部22によって生成された合成画像によって車両60の走行状況を示す情報を重畳した画像を支援画像として各表示装置3に表示させる。また、処理部12Aは、解析した車両60の走行状況を示す情報をサーバ4へ第2の通信部11Aに送信させる(ステップS30)。
次に、処理部12Aは、解析した車両60の走行状況に基づいて、走行領域9を着色する(ステップS31)。処理部12Aは、ステップS31の処理が終了すると、図18に示す処理を終了する。
実施の形態2にかかる運転支援装置1Aのハードウェア構成例は、図14に示す運転支援装置1のハードウェア構成と同じである。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、取得部20、変換部21、合成部22、表示処理部23A、解析部24、および制御処理部25の機能を実行することができる。
以上のように、実施の形態2にかかる運転支援装置1Aは、走行領域9のうち車両60が走行する方向において分割される複数の領域の各々に異なる色を投影する複数の投影装置70,70,70を備える。これにより、車両60のドライバは、例えば、走行領域9を走行する時間が夜間の場合であっても、合成画像50に含まれる複数の車両60のうち搭乗している車両60が走行している位置を容易に把握することができる。
また、表示部62は、車両60に設けられる。表示部62は表示装置の一例である。表示処理部23Aは、合成部22によって生成された合成画像を表示部62に表示させる。これにより、走行領域9を走行する車両60のドライバは、表示部62に表示された画像に基づいて、走行領域9の状態を容易に把握することができる。
また、運転支援装置1Aは、複数のカメラ2で撮像された複数の画像に基づいて、走行領域9における車両60の走行状況を解析する解析部24を備える。表示処理部23Aは、解析部24によって解析された車両60の走行状況を示す情報を表示装置3,3,3,3に表示させる。これにより、走行領域9を走行する車両60のドライバは、車両60の走行状況をより容易に把握することができる。
また、表示処理部23Aは、合成部22によって生成された合成画像に解析部24によって解析された車両60の走行状況を示す情報を重畳した画像を支援画像として表示装置3に表示させる。これにより、車両60のドライバは、表示装置3の画像から走行領域9の状態をさらに具体的に把握することができる。
以上の実施の形態に示した構成は、一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、実施の形態同士を組み合わせることも可能であるし、要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
1,1A 運転支援装置、2,2,2,2 カメラ、3,3,3,3,3 表示装置、4 サーバ、5 端末装置、6 ゲートウェイ、7,8 ネットワーク、9 走行領域、9 第1の走行路、9 第2の走行路、9 合流領域、10,10A 第1の通信部、11,11A 第2の通信部、12,12A,32,42,63 処理部、20 取得部、21 変換部、22 合成部、23,23A 表示処理部、24 解析部、25 制御処理部、30 撮像部、31,40,61 通信部、41,62 表示部、50 合成画像、51 第1の画像、52 第2の画像、53 第3の画像、60 車両、70,70,70,70 投影装置、91,92,93,94 領域、100,100A 運転支援システム。

Claims (13)

  1. 第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する複数のカメラと、
    前記複数のカメラで撮像された複数の画像に基づいて、前記走行領域における車両の運転を支援するための支援画像を表示装置に表示させる運転支援装置と、を備え、
    前記運転支援装置は、
    前記複数の画像の各々を俯瞰画像へ変換する変換部と、
    前記変換部によって変換された複数の前記俯瞰画像を合成した合成画像を生成する合成部と、
    前記合成部によって生成された前記合成画像を前記支援画像として前記表示装置に表示させる表示処理部と、を備え
    前記走行領域には、
    前記車両が走行する方向において分割される複数の領域の各々に異なる色が付けられてい
    ことを特徴とする運転支援システム。
  2. 第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域のうち各々異なる領域を撮像する複数のカメラと、
    前記複数のカメラで撮像された複数の画像に基づいて、前記走行領域における車両の運転を支援するための支援画像を表示装置に表示させる運転支援装置と、を備え、
    前記運転支援装置は、
    前記複数の画像の各々を俯瞰画像へ変換する変換部と、
    前記変換部によって変換された複数の前記俯瞰画像を合成した合成画像を生成する合成部と、
    前記合成部によって生成された前記合成画像を前記支援画像として前記表示装置に表示させる表示処理部と、を備え、
    前記走行領域のうち前記車両が走行する方向において分割される複数の領域の各々に異なる色を投影する複数の投影装置を備える
    ことを特徴とする運転支援システム。
  3. 前記表示装置は、
    前記走行領域の上方であって前記走行領域を走行する前記車両のドライバが視認可能な位置に設けられる
    ことを特徴とする請求項1または2に記載の運転支援システム。
  4. 前記表示装置は、
    前記車両に設けられ、
    前記表示処理部は、
    前記合成部によって生成された前記合成画像を前記表示装置に表示させる
    ことを特徴とする請求項1または2に記載の運転支援システム。
  5. 前記複数の画像に基づいて、前記走行領域における前記車両の走行状況を解析する解析部を備え、
    前記表示処理部は、
    前記解析部によって解析された前記走行状況を示す情報を前記表示装置に表示させる
    ことを特徴とする請求項1からのいずれか1つに記載の運転支援システム。
  6. 前記表示処理部は、
    前記合成部によって生成された前記合成画像に前記解析部によって解析された前記走行状況を示す情報を重畳した画像を前記支援画像として前記表示装置に表示させる
    ことを特徴とする請求項に記載の運転支援システム。
  7. 前記運転支援装置は、
    前記複数のカメラの各々で撮像された画像の情報を監視用画像の情報として外部装置へ送信する通信部を備える
    ことを特徴とする請求項1からのいずれか1つに記載の運転支援システム。
  8. 第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域であって車両が走行する方向において分割される複数の領域の各々に異なる色が付けられている前記走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像を俯瞰画像へ変換する変換部と、
    前記変換部によって変換された複数の前記俯瞰画像を合成した合成画像を生成する合成部と、
    前記合成部によって生成された前記合成画像を前記走行領域における前記車両の運転を支援するための支援画像として表示装置に表示させる表示処理部と、を備える
    ことを特徴とする運転支援装置。
  9. 第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域であって複数の投影装置によって前記走行領域のうち車両が走行する方向において分割される複数の領域の各々に異なる色が投影される前記走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像を俯瞰画像へ変換する変換部と、
    前記変換部によって変換された複数の前記俯瞰画像を合成した合成画像を生成する合成部と、
    前記合成部によって生成された前記合成画像を前記走行領域における前記車両の運転を支援するための支援画像として表示装置に表示させる表示処理部と、を備える
    ことを特徴とする運転支援装置。
  10. コンピュータが実行する運転支援方法であって、
    第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域であって車両が走行する方向において分割される複数の領域の各々に異なる色が付けられている前記走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像の各々を俯瞰画像へ変換する第1のステップと、
    前記第1のステップによって変換された複数の前記俯瞰画像を合成した合成画像を生成する第2のステップと、
    前記第2のステップによって生成された前記合成画像を前記走行領域における前記車両の運転を支援するための支援画像として表示装置に表示させる第3のステップと、を含む
    ことを特徴とする運転支援方法。
  11. コンピュータが実行する運転支援方法であって、
    第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域であって複数の投影装置によって前記走行領域のうち車両が走行する方向において分割される複数の領域の各々に異なる色が投影される前記走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像の各々を俯瞰画像へ変換する第1のステップと、
    前記第1のステップによって変換された複数の前記俯瞰画像を合成した合成画像を生成する第2のステップと、
    前記第2のステップによって生成された前記合成画像を前記走行領域における前記車両の運転を支援するための支援画像として表示装置に表示させる第3のステップと、を含む
    ことを特徴とする運転支援方法。
  12. 第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域であって車両が走行する方向において分割される複数の領域の各々に異なる色が付けられている前記走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像の各々を俯瞰画像へ変換する第1のステップと、
    前記第1のステップによって変換された複数の前記俯瞰画像を合成した合成画像を生成する第2のステップと、
    前記第2のステップによって生成された前記合成画像を前記走行領域における前記車両の運転を支援するための支援画像として表示装置に表示させる第3のステップと、をコンピュータに実行させる
    ことを特徴とする運転支援プログラム。
  13. 第1の走行路の領域と、第2の走行路の領域と、前記第1の走行路と前記第2の走行路とが合流する領域とを含む走行領域であって複数の投影装置によって前記走行領域のうち車両が走行する方向において分割される複数の領域の各々に異なる色が投影される前記走行領域のうち各々異なる領域を撮像する複数のカメラで撮像された複数の画像の各々を俯瞰画像へ変換する第1のステップと、
    前記第1のステップによって変換された複数の前記俯瞰画像を合成した合成画像を生成する第2のステップと、
    前記第2のステップによって生成された前記合成画像を前記走行領域における前記車両の運転を支援するための支援画像として表示装置に表示させる第3のステップと、をコンピュータに実行させる
    ことを特徴とする運転支援プログラム。
JP2020040281A 2020-03-09 2020-03-09 運転支援システム、運転支援装置、運転支援方法、および運転支援プログラム Active JP7422567B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020040281A JP7422567B2 (ja) 2020-03-09 2020-03-09 運転支援システム、運転支援装置、運転支援方法、および運転支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020040281A JP7422567B2 (ja) 2020-03-09 2020-03-09 運転支援システム、運転支援装置、運転支援方法、および運転支援プログラム

Publications (2)

Publication Number Publication Date
JP2021140689A JP2021140689A (ja) 2021-09-16
JP7422567B2 true JP7422567B2 (ja) 2024-01-26

Family

ID=77668813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020040281A Active JP7422567B2 (ja) 2020-03-09 2020-03-09 運転支援システム、運転支援装置、運転支援方法、および運転支援プログラム

Country Status (1)

Country Link
JP (1) JP7422567B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222488A (ja) 2001-01-29 2002-08-09 Matsushita Electric Ind Co Ltd 交通監視装置
JP2009070243A (ja) 2007-09-14 2009-04-02 Denso Corp 車両用視界支援システム、及び、情報配信装置
JP2015052902A (ja) 2013-09-06 2015-03-19 株式会社デンソー 合流情報提供装置
JP2019008474A (ja) 2017-06-22 2019-01-17 西日本高速道路株式会社 監視支援システム及び監視支援方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222488A (ja) 2001-01-29 2002-08-09 Matsushita Electric Ind Co Ltd 交通監視装置
JP2009070243A (ja) 2007-09-14 2009-04-02 Denso Corp 車両用視界支援システム、及び、情報配信装置
JP2015052902A (ja) 2013-09-06 2015-03-19 株式会社デンソー 合流情報提供装置
JP2019008474A (ja) 2017-06-22 2019-01-17 西日本高速道路株式会社 監視支援システム及び監視支援方法

Also Published As

Publication number Publication date
JP2021140689A (ja) 2021-09-16

Similar Documents

Publication Publication Date Title
JP3876288B2 (ja) 状態認識システムおよび状態認識表示生成方法
US10302766B2 (en) Range imaging system and solid-state imaging device
JP6796798B2 (ja) イベント予測システム、イベント予測方法、プログラム、及び移動体
US20050278088A1 (en) Method and apparatus for collision avoidance and enhanced visibility in vehicles
CN107757479A (zh) 一种基于增强现实显示技术的驾驶辅助系统及方法
KR101079700B1 (ko) 지하철 환승역 기반의 승객 분산 유도 시스템
US20230102802A1 (en) Map change detection
JP2012103921A (ja) 通行車両監視システム及び車両用監視カメラ
WO2010134217A1 (ja) 広告表示システム
KR20180092781A (ko) 맞춤형 ui 제공 자율 주행 차량의 주행 정보를 표시하는 방법, 이를 위한 차량용 단말 및 관리자 단말
JP2012038089A (ja) 情報管理装置、データ解析装置、信号機、サーバ、情報管理システム、およびプログラム
CN108482374A (zh) 一种基于信号灯识别的自动刹车方法及其系统
CN104134350A (zh) 一种交通违法行为识别智能球机系统
JP2020516093A (ja) 車両の周辺領域を認識するカメラ装置および方法
US11697346B1 (en) Lane position in augmented reality head-up display system
KR101210615B1 (ko) 불법유턴 차량 단속 시스템
JP7422567B2 (ja) 運転支援システム、運転支援装置、運転支援方法、および運転支援プログラム
WO2021131201A1 (ja) 運転支援装置、運転支援方法及びプログラム
JP2004110185A (ja) 交通状況解析装置
KR20190005343A (ko) 이동식 주정차 단속시스템 및 이를 이용한 주행 여부 판별방법
JP2020106946A (ja) 車両運行記録システム、車載運転情報記録処理システム、および、ヘッドアップディスプレイ装置
JP7234650B2 (ja) 表示制御装置及び表示制御プログラム
JP2015014916A (ja) 車両監視システムおよび中央装置
KR101936004B1 (ko) 지능형 보행자 검출 방법
JPH11261990A (ja) 交通監視用テレビカメラ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240116

R150 Certificate of patent or registration of utility model

Ref document number: 7422567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150