JP6997156B2 - Driving support system, driving support method and program - Google Patents
Driving support system, driving support method and program Download PDFInfo
- Publication number
- JP6997156B2 JP6997156B2 JP2019180643A JP2019180643A JP6997156B2 JP 6997156 B2 JP6997156 B2 JP 6997156B2 JP 2019180643 A JP2019180643 A JP 2019180643A JP 2019180643 A JP2019180643 A JP 2019180643A JP 6997156 B2 JP6997156 B2 JP 6997156B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- behavior
- estimation
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
本発明は、走行を支援する走行支援システム、走行支援方法およびプログラムに関する。 The present invention relates to a driving support system, a driving support method and a program for supporting driving.
特許文献1には、自車両の前方において自車両の向きと逆向きに走行または停止している小型電動車両を撮像した撮像画像において、小型電動車両のハンドルにおける左側部分および右側部分のそれぞれの面積変化に基づいて、小型電動車両が右または左に移動を開始したか否かを判断する構成が記載されている。特許文献1では、そのような小型電動車両の挙動の認識により、小型電動車両との接触や急接近を防ぐことができると記載されている。
自車両が前方の他車両に対して縦列で走行しているケースにおいて、車間距離や周囲の環境によっては、自車両の搭乗者から他車両の前方の道路状態を認識することが困難なことがあり得る。そのようなケースでは、他車両の挙動に基づいて、進行方向の道路状態を推定することが求められる。 In the case where the own vehicle is parallel to another vehicle in front, it may be difficult for the passengers of the own vehicle to recognize the road condition in front of the other vehicle depending on the inter-vehicle distance and the surrounding environment. possible. In such a case, it is required to estimate the road condition in the traveling direction based on the behavior of other vehicles.
本発明は、他車両の挙動に基づいて、進行方向の道路状態を推定する走行支援システム、走行支援方法およびプログラムを提供することを目的とする。 An object of the present invention is to provide a travel support system, a travel support method, and a program for estimating a road condition in a traveling direction based on the behavior of another vehicle.
本発明に係る走行支援システムは、車両の走行を支援する走行支援システムであって、撮像手段により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得手段と、前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段と、前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段と、前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段と、を備え、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする。
The travel support system according to the present invention is a travel support system that supports the travel of a vehicle, and is an acquisition means for acquiring image data of a peripheral vehicle located in the traveling direction of the vehicle, which is imaged by the image pickup means, and the above-mentioned acquisition means. The traveling direction of the vehicle based on the first estimation means for estimating the behavior of the peripheral vehicle based on the imaging data acquired by the acquisition means and the behavior of the peripheral vehicle estimated by the first estimation means. The first estimation means includes a second estimation means for estimating the road condition of the vehicle and a notification means for notifying the road condition in the traveling direction of the vehicle estimated by the second estimation means . It is characterized in that the behavior of the peripheral vehicle is estimated based on the change of the image different from the vehicle image of the peripheral vehicle among the captured images .
本発明に係る走行支援方法は、車両の走行を支援する走行支援システムにおいて実行される走行支援方法であって、撮像手段により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得工程と、前記取得工程において取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定工程と、前記第1推定工程において推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定工程と、前記第2推定工程において推定された前記車両の進行方向の道路状態を通知する通知工程と、を有し、前記第1推定工程では、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする。
The travel support method according to the present invention is a travel support method executed in a travel support system that supports the travel of the vehicle, and captures image data of peripheral vehicles located in the traveling direction of the vehicle, which are imaged by the image pickup means. Based on the acquisition process to be acquired, the first estimation process for estimating the behavior of the peripheral vehicle based on the imaging data acquired in the acquisition process, and the behavior of the peripheral vehicle estimated in the first estimation process. The first estimation process includes a second estimation step of estimating the road condition in the traveling direction of the vehicle, and a notification step of notifying the road condition of the traveling direction of the vehicle estimated in the second estimation process . The estimation step is characterized in that the behavior of the peripheral vehicle is estimated based on the change of the image different from the vehicle image of the peripheral vehicle among the captured images of the captured data .
本発明に係るプログラムは、コンピュータを、撮像手段により撮像された、車両の進行方向に位置する周辺車両の撮像データを取得する取得手段、前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段、前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段、前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段、として機能させ、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定する。 The program according to the present invention is based on the acquisition means for acquiring the image pickup data of the peripheral vehicle located in the traveling direction of the vehicle, which is imaged by the image pickup means, and the image pickup data acquired by the acquisition means. The first estimation means for estimating the behavior of peripheral vehicles, the second estimation means for estimating the road condition in the traveling direction of the vehicle based on the behavior of the peripheral vehicles estimated by the first estimation means, and the second estimation. It functions as a notification means for notifying the road condition in the traveling direction of the vehicle estimated by the means, and the first estimation means changes an image of the captured image of the captured data different from the vehicle image of the peripheral vehicle. Based on, the behavior of the peripheral vehicle is estimated .
本発明によれば、他車両の挙動に基づいて、進行方向の道路状態を推定することができる。 According to the present invention, it is possible to estimate the road condition in the traveling direction based on the behavior of another vehicle.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the invention according to the claims, and not all combinations of features described in the embodiments are essential to the invention. Two or more of the plurality of features described in the embodiments may be arbitrarily combined. In addition, the same or similar configuration will be given the same reference number, and duplicated explanations will be omitted.
[第1実施形態]
図1は、本実施形態における走行支援システムの構成を示す図である。走行支援システム100は、走行支援サービスを提供するサーバ101、サーバ101とネットワーク102を介して接続された基地局103を含む。ネットワーク102は、無線通信ネットワーク、有線通信ネットワーク、若しくは両者を含むネットワークである。走行支援システム100は、車両105、107を含み、本実施形態では、車両105は四輪車両であり、車両107は鞍乗り型二輪車両である。しかしながら、車両105、107は、図1に示す車両タイプに限られない。例えば、両車両が四輪車両であっても良いし、鞍乗り型二輪車両であっても良い。もしくは、特殊用途向けの車両であっても良い。また、車両107は、二輪車両に限られず、例えば三輪の鞍乗り型車両であっても良い。携帯型端末106は、カメラなどの撮像機能を含む携帯型端末機能を備えた装置である。本実施形態では、車両107の搭乗者(運転者)が、携帯型端末106として、例えばスマートフォンを保持し、そのスマートフォンはアタッチメント等で車両107に取り付けられている。また、携帯型端末106により実現される携帯型端末機能は、車両107に含まれていても良い。車両105、107、携帯型端末106は、基地局103との間での無線通信104とネットワーク102とを介して、サーバ101と相互に通信可能である。また、車両107と携帯型端末106の間では相互に通信可能であり、例えば、車両107は、携帯型端末106を介してサーバ101と通信可能である。なお、本実施形態では、車両105、107と基地局103の間での無線通信104は必ずしも行われていなくても良い。
[First Embodiment]
FIG. 1 is a diagram showing a configuration of a traveling support system according to the present embodiment. The
本実施形態では、車両107が車両105の後方を縦列に走行しているケースを想定する。そのようなケースにおいて、携帯型端末106は、前方の車両105の撮像データを随時サーバ101に送信する。サーバ101は、受信した撮像データに基づいて、車両105の前方の道路状態を推定し、携帯型端末106にその推定結果を通知する。ここで、道路状態とは、例えば、上り坂である、路面の凹凸が激しい、といった情報である。携帯型端末106は、サーバ101からの推定結果の通知を受信すると、車両107に対して通知制御データを送信する。本実施形態の動作については後述する。
In the present embodiment, it is assumed that the
図2は、車両107のブロック構成を示す図である。上述したように、本実施形態では、車両107は、鞍乗り型二輪車両とする。ECU(Electronic Control Unit)210は、車両107の各部を統括的に制御する。車両107は、例えば、スロットルバイワイヤ(throttle by wire)方式で走行制御が行われる構成であり、ECU210は、操舵部213のアクセル開度の電気信号を受けてスロットルバルブを開閉することにより、エンジンを含む駆動部211を制御する。制動部212は、ブレーキ機構を含む。センサ群214は、速度センサ、スロットルセンサ、大気圧センサ等の各種センサを含み、ECU210は、それらの検知信号を受信する。通知部215は、ランプ、LED等を含み、例えば、本実施形態では、車両105の前方の道路の方向(左方向、右方向など)を表示する。撮像部216は、例えばカメラであり、車両107の前方を撮像する。撮像部216は、例えば、車両107の前方を走行する車両105を撮像する。また、車両107は、撮像機能を有する携帯型端末106をアタッチメント等で車両107に取り付け、撮像部216の代わりに撮像機能を実現するようにしても良い。
FIG. 2 is a diagram showing a block configuration of the
制御部200は、通信I/F205を介して携帯型端末106との間での無線通信を実行可能なブロックである。なお、通信I/F205は、基地局103との間での無線通信が可能なように構成されても良い。制御部200は、制御部200内の動作を統括的に制御するプロセッサ201、メモリ202、通知制御部203、撮像データ送信部204を含むコンピュータシステムである。本実施形態における車両107の動作は、例えば、プロセッサ201がメモリ202上でプログラムを実行することにより実現される。通知制御部203は、携帯型端末106から送信された通知制御データに基づいて、通知部215の制御をECU210に要求する。例えば、通知制御部203は、携帯型端末106から送信された通知制御データをECU210が処理可能な信号に変換し、ECU210に送信する。撮像データ送信部204は、撮像部216により撮像された撮像データを通信I/F205を介して、携帯型端末106に送信する。また、制御部200は、USB等の記憶部217と接続可能である。例えば、サーバ101により提供されるアプリケーションが記憶部217に記憶される。また、例えば、そのアプリケーションにより、制御部200の各ブロックが実現され、サーバ101への登録、携帯型端末106の制御部300とのペアリングが行われる。
The
車両107は、図2に示すブロック構成に限られず、例えば、車両107の機能に応じた機能ブロックを適宜含む。また、撮像データ送信部204、撮像部216は、設けられていなくても良い。例えば、上述したように、携帯型端末106が撮像部216の代わりに用いられる場合には、撮像データ送信部204、撮像部216は設けられていなくても良い。
The
図3は、携帯型端末106のブロック構成を示す図である。制御部300は、携帯型端末106を統括的に制御する。制御部300は、制御部300内の動作を統括的に制御するプロセッサ301、メモリ302、撮像データ送信部303、GPS情報送信部304、表示制御部305、通知制御データ送信部306を含むコンピュータシステムである。本実施形態における携帯型端末106の動作は、例えば、プロセッサ301がメモリ302上でプログラムを実行することにより実現される。撮像データ送信部303は、例えばカメラである撮像部315で撮像された撮像データ、若しくは、車両107の撮像部216で撮像された撮像データを通信I/F313を介して外部に送信する。GPS情報送信部304は、GPS314により取得されたGPS情報を通信I/F313を介して外部に送信する。表示制御部305は、表示部311での表示を制御する。通知制御データ送信部306は、サーバ101から送信された通知制御データに基づいて、車両107で用いられる通知制御データを生成し、通信I/F313を介して車両107へ送信する。
FIG. 3 is a diagram showing a block configuration of the
記憶部310は、携帯型端末106が動作するためのプログラムやデータ、および本実施形態の動作で必要なプログラムやデータを記憶する。例えば、サーバ101により提供されるアプリケーションが記憶部310に記憶される。例えば、携帯型端末106のユーザは、そのアプリケーションを起動し、設定画面上で、サーバ101への登録、車両107の制御部200とのペアリングを行う。表示部311は、例えばタッチパネルであり、携帯型端末106のユーザに対して、各種ユーザインタフェース画面を表示する。なお、本実施形態では、携帯型端末106のユーザは、車両107の搭乗者に対応する。操作部312は、ユーザからの操作を受付可能であり、ハードキー、タッチパネル上に表示されるソフトキーを含む。GPS(Global Positioning System)314は、携帯型端末106の現在位置を検出するための位置検出機構である。通信I/F313は、外部との無線通信104を可能とする。なお、通信I/F313は、通信距離が異なる複数の無線通信に対応するように構成されても良い。携帯型端末106は、図3に示すブロック構成に限られず、例えば、携帯型端末106の機能に応じた機能ブロックを適宜含む。
The
本実施形態では、車両107は鞍乗り型二輪車両であるとして説明するが、他のタイプの車両、例えば四輪車両であっても良い。その場合、図2の制御部200と図3の制御部300が四輪車両に一体的に構成されるようにしても良い。
In the present embodiment, the
図4は、サーバ101のブロック構成を示す図である。制御部400は、サーバ101を統括的に制御する。制御部400は、制御部400内の動作を統括的に制御するCPUやGPU等のプロセッサ401、メモリ402、撮像データ受信部403、画像処理部404、画像認識部405、画像分析部406、挙動推定部407、道路状態推定部408、通知制御データ送信部409を含むコンピュータシステムである。本実施形態におけるサーバ101の動作は、例えば、プロセッサ401がメモリ402上でプログラムを実行することにより実現される。撮像データ受信部403は、携帯型端末106から送信された撮像データを受信する。本実施形態では、この撮像データには、車両105が撮像されている。画像処理部404は、撮像データに対して画像認識を実行するための前処理を行い、前処理として、例えば、撮像データの揺れの補正が行われる。画像認識部405は、クラス分類等の手法を用いて、撮像データ受信部403により受信された撮像データ上でオブジェクトを認識する。画像分析部406は、画像認識部405により認識されたオブジェクトを分析する。例えば、画像分析部406は、オブジェクト間の相対位置の変化を分析する。挙動推定部407は、画像分析部406による分析結果に基づいて、車両105の挙動を推定する。道路状態推定部408は、挙動推定部407による推定結果に基づいて、車両107が走行する道路状態を推定する。通知制御データ送信部409は、道路状態推定部408による推定結果に基づいて、後述する通知制御データを生成して携帯型端末106宛てに送信する。
FIG. 4 is a diagram showing a block configuration of the
記憶部410は、サーバ101が動作するためのプログラムやデータ、および本実施形態の動作で必要なプログラムやデータを記憶する。表示部411は、例えばディスプレイであり、サーバ101のユーザに対して、各種ユーザインタフェース画面を表示する。操作部412は、ユーザからの操作を受付可能であり、例えば、キーボードやポインティングデバイスである。通信I/F413は、サーバ101とネットワーク102との間の通信を可能とする。サーバ101は、図4に示すブロック構成に限られず、例えば、サーバ101の機能に応じた機能ブロックを適宜含む。なお、図4では、サーバ101は1つの装置として示されているが、複数の装置で構成されても良い。即ち、本実施形態におけるサーバ101は、1つの装置でサーバ機能を提供する構成、複数の装置で連携してサーバ機能を提供する構成、を含む。
The
以下、図5(a)、(b)を参照しながら、本実施形態の動作について説明する。図5(a)に示すように、道路500上を、車両107が車両105の後方を走行している。ここで、車両107は位置501に位置し、車両105は、位置502に位置する。また、車両107の搭乗者は、携帯型端末106を所持している。もしくは、携帯型端末106は、車両107に取り付けられている。道路500は、一本道であり、車両105が位置503、位置504のように前方に進むに従って、左側に曲がっている。ここで、道路500の両側の樹木等により車両501の搭乗者からの見通しが良くない場合、車両501の搭乗者にとっては道路500が前方で左側に曲がるということが分からないケースがあり得る。そのようなケースにおいて、車両107の撮像部216もしくは携帯型端末106の撮像部315は、前方の車両105を所定の時間間隔で撮像し、その撮像データをサーバ101に送信する。
Hereinafter, the operation of the present embodiment will be described with reference to FIGS. 5 (a) and 5 (b). As shown in FIG. 5A, the
図5(b)は、撮像データの車両画像の変化を示しており、下段の車両画像510は、図5(a)の車両105の後部を表している。車両105が位置503まで進むと、その撮像データは、図5(b)の中段の車両画像511のように変化する。そして、さらに車両105が位置504まで進むと、その撮像データは、図5(b)の上段の車両画像512のように変化する。サーバ101は、図5(b)のような車両画像の変化に基づいて、車両105の挙動として例えば左旋回を推定し、道路500が前方で左側に曲がっていることを推定する。
FIG. 5B shows changes in the vehicle image of the captured data, and the
ここで、車両画像の変化について説明する。本実施形態では、サーバ101は、車両105の車両画像の外郭の変化に基づいて、車両105の挙動を推定する。図6は、車両画像の変化の概念を説明するための図である。
Here, changes in the vehicle image will be described. In the present embodiment, the
図6の撮像データ600には、車両画像601が含まれている。撮像データ600の取得後、撮像データ610が取得された場合に車両画像601が車両画像602のように変化したとする。これは、図5(b)の車両画像510から車両画像511もしくは512への変化に対応する。このように、車両が左旋回もしくは右旋回を行うと、車両画像の外郭形状は、基準線620に対して水平方向に引き伸ばされるように変化する。サーバ101は、その引き伸ばされる方向が左側と認識されるのであれば、車両105の挙動は左旋回であると推定し、右側と認識されるのであれば、車両105の挙動は右旋回であると推定する。
The
また、撮像データ600の取得後、撮像データ611が取得された場合に車両画像601が車両画像603のように変化したとする。これは、道路が上り坂の場合に対応する。
Further, it is assumed that the
図7(a)、(b)は、道路が上り坂の場合の車両画像の変化を説明するための図である。図7(a)は、車両107が道路700上の位置701に位置し、車両105が位置702に位置することを示している。図7(a)に示すように、道路700は、途中から上り坂となっている。図7(b)は、撮像データの車両画像の変化を表しており、下段の車両画像710は、図7(a)の車両105の後部を表している。車両105が位置703まで進むと、車両画像710は、図7(b)の上段の車両画像711のように変化する。即ち、車両105が上り坂を進行していくと、車両画像710から車両画像711への変化、つまり、図6の車両画像601から車両画像603への変化のように、車両画像の外郭形状は、基準線621に対して垂直方向に引き伸ばされるように変化する。サーバ101は、その引き伸ばされる方向が垂直方向であることに基づいて、車両105の挙動は登坂であると推定する。
7 (a) and 7 (b) are diagrams for explaining changes in the vehicle image when the road is uphill. FIG. 7A shows that the
また、撮像データ600の取得後、撮像データ612が取得された場合に図6の車両画像601が車両画像604のように変化したとする。これは、道路が下り坂の場合に対応する。図8(a)、(b)は、道路が下り坂の場合の車両画像の変化を説明するための図である。図8(a)は、車両107が道路720上の位置721に位置し、車両105が位置722に位置することを示している。図8(a)に示すように、道路720は、途中から下り坂となっている。図8(b)は、撮像データの車両画像の変化を表しており、下段の車両画像730は、図8(a)の車両105の後部を表している。車両105が位置723まで進むと、車両画像730は、図8(b)の上段の車両画像731のように変化する。即ち、道路が下り坂である場合には、車両の前部が下方向に沈み込む状態となるので、後続車両から見ると、車両画像の外郭形状が垂直方向に縮むように変化する。即ち、車両が下り坂を進行していくと、図6の車両画像601から車両画像604への変化のように、車両画像の外郭形状は、基準線622に対して垂直方向に縮むように変化する。サーバ101は、その縮む方向が垂直方向であることに基づいて、車両105の挙動は降坂であると推定する。
Further, it is assumed that the
上記のように、サーバ101は、車両105の車両画像の外郭形状の変化によって、車両105の挙動を推定することができる。また、サーバ101は、車両105の車両画像のオブジェクトの分析結果に基づいて、車両105の挙動を推定することができる。
As described above, the
サーバ101は、画像認識部405により、車両画像510に例えばオブジェクト513、516、519、522を認識する。図5(b)の場合には、オブジェクト513はタイヤを含む下部領域であり、オブジェクト516はナンバープレートであり、オブジェクト519は左ミラーであり、オブジェクト522は右ミラーである。車両105が左旋回を行った場合、図5(b)に示すように、各オブジェクトが変化する。例えば、オブジェクト513は、タイヤの上部および前輪がより見える状態になるので、垂直方向及び水平方向に形状が大きくなる。また、オブジェクト516は、長方形から、旋回方向側の辺がより長い台形状へと変化する。さらに、オブジェクト522は、車両105の車体に隠れることになるので、撮像データ上では消失する。サーバ101は、それらのような各オブジェクトの変化に基づいて、車両105の挙動(本例では左旋回もしくは右旋回)を推定する。
The
図7(b)の場合には、オブジェクト712はアンテナであり、オブジェクト713は車両105のボンネット又はルーフである。車両105が登坂状態となると、後続車両から見ると車体の前部が持ち上がる状態となるので、撮像データ上ではオブジェクト713が出現する。また、車両105が降坂状態となると、図8(b)に示すように、車体の前部が沈み込む状態となるので、撮像データ上ではアンテナであるオブジェクト732が消失する。サーバ101は、これらのような各オブジェクトの変化に基づいて、車両105の挙動(本例では登坂もしくは降坂)を推定する。
In the case of FIG. 7B, the
また、サーバ101は、オブジェクト間の相対位置の変化によって、車両105の挙動を推定しても良い。例えば、図5(b)の下段では、オブジェクト513の水平方向長さに対してオブジェクト516はほぼ中央に位置しているのに対し、図5(b)の中段から上段にかけて、オブジェクト516は、オブジェクト517、518のようにオブジェクト513の右端に寄っていく。このように、サーバ101は、オブジェクト間の相対位置に基づいて、車両105の挙動を推定するようにしても良い。もしくは、上記の方法を組み合わせて、車両105の挙動の推定の精度を向上させるようにしても良い。
Further, the
図9は、車両107において実行される処理を示すフローチャートである。図9の処理は、例えば、プロセッサ201がメモリ202上でプログラムを実行することにより実現される。
FIG. 9 is a flowchart showing the processing executed in the
S101において、プロセッサ201は、撮像データ送信部204により、撮像部216により撮像された撮像データを通信I/F205を介して携帯型端末106に送信する。なお、車両105に取り付けられた携帯型端末106が撮像部216の代わりに用いられる場合には、S101の処理は行われなくても良い。
In S101, the
S102において、プロセッサ201は、通知制御部203により、携帯型端末106から通知制御データを受信したか否かを判定する。ここで、通知制御データを受信していないと判定された場合、S101からの処理を繰り返す。一方、通知制御データを受信したと判定された場合、S103において、プロセッサ201は、通知制御部203により、通知制御データに基づいて通知部215に通知させるようECU210に要求する。例えば、携帯型端末106から送信された「左側へカーブ」を表すデータをECU210が処理可能な信号に変換し、ECU210に送信する。ここで通知される内容は、車両105の前方の道路状態の推定結果である。通知内容については後述する。S103の後、S101からの処理を繰り返す。
In S102, the
図10は、携帯型端末106において実行される処理を示すフローチャートである。図10の処理は、例えば、プロセッサ301がメモリ302上でプログラムを実行することにより実現される。
FIG. 10 is a flowchart showing a process executed by the
S201において、プロセッサ301は、撮像データ送信部303により、撮像データをサーバ101へ送信する。ここで、送信される撮像データは、車両107の撮像部216で撮像された撮像データ、若しくは携帯型端末106の撮像部315で撮像された撮像データである。
In S201, the
S202において、プロセッサ301は、通知制御データ送信部306により、サーバ101から通知制御データを受信したか否かを判定する。ここで、通知制御データを受信していないと判定された場合、S201からの処理を繰り返す。一方、通知制御データを受信したと判定された場合、S203に進む。
In S202, the
ここで、通知制御データについて説明する。上述のように、通知制御データは、車両105の前方の道路状態の推定結果であり、例えばパネル等への表示用データとして受信する。図15は、通知制御データにより表示される表示画面1400の一例を示す図である。携帯型端末106は、サーバ101から受信した通知制御データに基づいて、表示部311に表示画面1400を表示可能である。
Here, the notification control data will be described. As described above, the notification control data is an estimation result of the road condition in front of the
表示画面1400では、矢印マーク1402、1403が表示され、車両105の前方の道路が左側と右側のいずれの方向へ曲がっていくのかを車両107の搭乗者に認識させることができる。図15では、矢印マーク1402が点灯し、矢印マーク1403が点灯しておらず、車両105の前方の道路が左側へ曲がっていくことが示されている。
On the
また、表示領域1401では、道路が左側へ曲がっていくことがグラフィカルに表示される。また、サーバ101により、車両105の前方の道路が左方向へ上り坂であり、且つ、路面の凹凸が激しいと判断された場合には、表示領域1404のように、「左方向に上り坂です。凹凸に注意して下さい。」といったメッセージが表示される。その際、表示領域1401には、警告マーク1405が表示される。このように、複数の表示形態の組み合わせにより、車両107の搭乗者に対して、車両105の前方の道路状態をより容易に認識させることができる。
Further, in the
S203において、プロセッサ301は、通知制御データ送信部306により、サーバ101から受信した通知制御データから、車両107の通知部215で通知可能な通知制御データを生成し、車両107に送信する。例えば、車両107の通知部215が左方向と右方向のいずれかをLEDにより通知する構成であれば、プロセッサ301は、通知制御データ送信部306により、サーバ101から受信した通知制御データから、矢印マーク1402、1403に対応する点灯信号を通知制御データとして車両107に送信する。
In S203, the
S204において、プロセッサ301は、表示制御部305により、サーバ101から受信した通知制御データに基づいて、表示部311に表示させる。S204では、例えば、表示画面1400が表示される。S204の後、S201からの処理を繰り返す。
In S204, the
上記では、S203においてプロセッサ301が、サーバ101から受信した通知制御データから、車両107での通知制御に用いられる通知制御データを生成すると説明した。しかしながら、プロセッサ301は、サーバ101から受信した通知制御データを車両107に転送するようにしても良い。その場合、車両107の通知制御部203が、携帯型端末106から受信した通知制御データから、通知部215で通知可能な通知制御データを生成する。
In the above, it has been described that the
また、上記では、S204で表示を行うと説明したが、S204の処理を行わずに、S203の後、S201からの処理を繰り返すようにしても良い。また、S204での表示を行うか否かを車両107の搭乗者が携帯型端末106の表示部311に表示されるユーザインタフェース画面上で設定可能としても良い。そのような構成により、例えば、携帯型端末106が車両107にアタッチメントで取り付けられている場合には、S204で表示を行い、携帯型端末106が車両107の搭乗者のバッグ等に収納されている場合には、S204で表示を行わないといった表示制御を可能とする。
Further, although it has been described above that the display is performed in S204, the processing from S201 may be repeated after S203 without performing the processing in S204. Further, whether or not to display in S204 may be set by the passenger of the
図11は、サーバ101において実行される処理を示すフローチャートである。図11の処理は、例えば、プロセッサ401がメモリ402上でプログラムを実行することにより実現される。
FIG. 11 is a flowchart showing a process executed by the
S301において、プロセッサ401は、撮像データ受信部403により、携帯型端末106から撮像データを受信する。そして、S302において、プロセッサ401は、画像処理部404により、S301で受信した撮像データに対して前処理を実行する。ここでは、前処理として、撮像データの揺れの補正が行われる。プロセッサ401は、その際の補正量をメモリ402等の記憶領域に格納する。
In S301, the
S303において、プロセッサ401は、画像認識部405により、画像認識を行い、S304において、前方に車両105があるか否かを判定する。S304で前方に車両105がないと判定された場合には、S301からの処理を繰り返す。一方、前方に車両105があると判定された場合には、S305に進む。
In S303, the
S305において、プロセッサ401は、撮像データの車両画像に変化があるか否かを判定する。例えば、車両105と車両107が縦列で直進している場合には、車両画像には変化が現れないので、S305で車両画像に変化がないと判定され、S301からの処理を繰り返す。一方、車両画像に変化があると判定された場合には、S306に進む。
In S305, the
S305の判定においては、以下のような基準を設けても良い。例えば、縦列で直進している場合であっても、車両105と車両107の車間距離が長くなると車両画像は縮小され、車間距離が短くなると車両画像は拡大され、その結果、S305で車両画像に変化があると判定されてしまう。そこで、車両画像が変化した場合であっても、そのアスペクト比の変化が所定の範囲内であれば、車両画像に変化がないと判定する。そのような構成により、車間距離の変動による誤判定を防ぐことができる。
In the determination of S305, the following criteria may be set. For example, even when parallel parking is performed, the vehicle image is reduced when the distance between the
S306において、プロセッサ401は、画像分析部406により、車両画像の変化を分析する。例えば、プロセッサ401は、図6で説明したような車両画像の外郭形状の変化を分析する。また、例えば、プロセッサ401は、図5(b)、図7(b)で説明したようなオブジェクトの変形、移動を分析する。
In S306, the
S307において、プロセッサ401は、挙動推定部407により、車両105の挙動を推定する。S307の処理については後述する。S308において、プロセッサ401は、道路状態推定部408により、車両105の前方の道路状態を推定する。S308の処理については後述する。
In S307, the
S309において、プロセッサ401は、S308での推定結果に基づいて、通知制御データを生成する。S309で生成される通知制御データとは、例えば、図15の表示画面1400を表示させるための表示データである。S310において、プロセッサ401は、通知制御データ送信部409により、S309で生成された通知制御データを携帯型端末106に送信する。S310の後、図11の処理を終了する。
In S309, the
図12は、S307の挙動推定の処理を示すフローチャートである。S401において、プロセッサ401は、S306における分析結果のうち水平方向の変化量を検出し、S402において、水平方向の変化量が、左旋回と推定し得る条件を満たすか否かを判定する。例えば、車両105の車両画像の外郭形状について、図6の車両画像602のように、車両画像601の側壁に対応する基準線620に対して、左方向への変形度合いが右方向への変形度合いよりも大きい場合には、左旋回と推定し得る条件を満たすと判定する。また、例えば、車両画像510のオブジェクト516と513の相対位置について、図5(b)の上段の対応するオブジェクト518及び515に示すように、オブジェクト516がオブジェクト513の右端に寄っていく場合には、左旋回と推定し得る条件を満たすと判定する。
FIG. 12 is a flowchart showing the process of estimating the behavior of S307. In S401, the
S402で左旋回と推定し得る条件を満たすと判定された場合、S403に進み、左旋回と推定し得る条件を満たさないと判定された場合、図13のS421へ進む。 If it is determined in S402 that the condition that can be estimated to be a left turn is satisfied, the process proceeds to S403, and if it is determined that the condition that can be estimated to be a left turn is not satisfied, the process proceeds to S421 in FIG.
S403において、プロセッサ401は、S306における分析結果のうち垂直方向の変化量を検出し、S404において、垂直方向の変化量が、登坂と推定し得る条件を満たすか否かを判定する。例えば、車両105の車両画像の外郭形状について、図6の車両画像603のように、車両画像601の底辺に対応する基準線621を含んで、上方向への変形度合いが閾値よりも大きい場合には、登坂と推定し得る条件を満たすと判定する。また、例えば、図7(b)の上段に示すように、オブジェクト713が出現した場合には、登坂と推定し得る条件を満たすと判定する。
In S403, the
S404で登坂と推定し得る条件を満たすと判定された場合、S406において、プロセッサ401は、車両105は左方向に登坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図12の処理を終了する。一方、S404で登坂と推定し得る条件を満たさないと判定された場合、S405に進む。
When it is determined in S404 that the condition that can be estimated as climbing is satisfied, in S406, the
S405において、プロセッサ401は、垂直方向の変化量が、降坂と推定し得る条件を満たすか否かを判定する。例えば、車両105の車両画像の外郭形状について、図6の車両画像604のように、車両画像601の底辺に対応する基準線622を含んで、下方向への変形度合いが閾値よりも大きい場合には、降坂と推定し得る条件を満たすと判定する。また、例えば、図7(a)のオブジェクト712が消失した場合には、降坂と推定し得る条件を満たすと判定する。
In S405, the
S405で降坂と推定し得る条件を満たすと判定された場合、S407において、プロセッサ401は、車両105は左方向に降坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図12の処理を終了する。一方、S405で降坂と推定し得る条件を満たさないと判定された場合、S408において、プロセッサ401は、車両105は左旋回の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図12の処理を終了する。
When it is determined in S405 that the condition that can be estimated to be downhill is satisfied, in S407, the
S402で左旋回と推定し得る条件を満たさないと判定された場合、図13のS421において、プロセッサ401は、S306における分析結果のうち水平方向の変化量が、右旋回と推定し得る条件を満たすか否かを判定する。例えば、車両105の車両画像の外郭形状について、図6の車両画像601の側壁に対応する基準線620に対して、右方向への変形度合いが左方向への変形度合いよりも大きい場合には、右旋回と推定し得る条件を満たすと判定する。また、例えば、車両画像510のオブジェクト516と513の相対位置について、オブジェクト516がオブジェクト513の左端に寄っていく場合には、右旋回と推定し得る条件を満たすと判定する。
When it is determined in S402 that the condition that can be estimated to be a left turn is not satisfied, in S421 of FIG. 13, the
S421で右旋回と推定し得る条件を満たすと判定された場合、S422に進み、右旋回と推定し得る条件を満たさないと判定された場合、S428へ進む。 If it is determined in S421 that the condition that can be estimated to be a right turn is satisfied, the process proceeds to S422, and if it is determined that the condition that can be estimated to be a right turn is not satisfied, the process proceeds to S428.
S422において、プロセッサ401は、S306における分析結果のうち垂直方向の変化量を検出し、S423において、S405と同様に、垂直方向の変化量が、登坂と推定し得る条件を満たすか否かを判定する。
In S422, the
S423で登坂と推定し得る条件を満たすと判定された場合、S425において、プロセッサ401は、車両105は右方向に登坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。一方、S423で登坂と推定し得る条件を満たさないと判定された場合、S424において、プロセッサ401は、S406と同様に、垂直方向の変化量が、降坂と推定し得る条件を満たすか否かを判定する。
When it is determined in S423 that the condition that can be presumed to be climbing is satisfied, in S425, the
S424で降坂の条件を満たすと判定された場合、S426において、プロセッサ401は、車両105は右方向に降坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。一方、S424で降坂と推定し得る条件を満たさないと判定された場合、S427において、プロセッサ401は、車両105は右旋回の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。
When it is determined in S424 that the condition for descending a slope is satisfied, in S426, the
S421で右旋回と推定し得る条件を満たさないと判定された場合、S428において、プロセッサ401は、S306における分析結果のうち垂直方向の変化量を検出し、S429において、S405と同様に、垂直方向の変化量が、登坂と推定し得る条件を満たすか否かを判定する。
When it is determined in S421 that the condition that can be presumed to be a right turn is not satisfied, in S428, the
S429で登坂の条件を満たすと判定された場合、S430において、プロセッサ401は、車両105は登坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。一方、S429で登坂と推定し得る条件を満たさないと判定された場合、S431において、プロセッサ401は、車両105は降坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。
When it is determined in S429 that the condition for climbing a slope is satisfied, in S430, the
図14は、S308の道路状態推定の処理を示すフローチャートである。S501において、プロセッサ401は、メモリ402等の記憶領域からS307の挙動推定の結果を取得する。
FIG. 14 is a flowchart showing the process of estimating the road condition of S308. In S501, the
S502において、プロセッサ401は、挙動推定の結果に基づいて、車両105の前方の道路の方向を推定する。例えば、S406で車両105が左方向に登坂の状態であると推定された場合、車両105の前方の道路の方向を左方向に上り坂と推定する。また、S407で車両105が左方向に降坂の状態であると推定された場合、車両105の前方の道路の方向を左方向に下り坂と推定する。また、S408で車両105が左旋回の状態であると推定された場合、車両105の前方の道路の方向を左方向(登坂・降坂なし)と推定する。また、S425で車両105が右方向に登坂の状態であると推定された場合、車両105の前方の道路の方向を右方向に上り坂と推定する。また、S426で車両105が右方向に降坂の状態であると推定された場合、車両105の前方の道路の方向を右方向に下り坂と推定する。また、S427で車両105が右旋回の状態であると推定された場合、車両105の前方の道路の方向を右方向(登坂・降坂なし)と推定する。また、S430で車両105が登坂の状態であると推定された場合、車両105の前方の道路の方向を上り坂(直進)と推定する。また、S431で車両105が降坂の状態であると推定された場合、車両105の前方の道路の方向を下り坂(直進)と推定する。プロセッサ401は、S502での推定結果をメモリ402等の記憶領域に格納する。
In S502, the
S503において、プロセッサ401は、S302でメモリ402等の記憶領域に格納された撮像データの揺れの補正量を取得し、その補正量に基づいて道路の形状を推定し、その推定結果をメモリ402等の記憶領域に格納する。例えば、プロセッサ401は、補正量を複数段階に分類分けし、路面の凹凸状態のレベル分けを行うようにしても良い。その場合、図15の表示領域1404の道路の形状についてのメッセージでは、レベル分けされた路面の凹凸状態それぞれに対応するメッセージが表示されるようにしても良い。その際、警告マーク1405についても、レベル分けされた路面の凹凸状態それぞれに対応するマークが表示されるようにしても良い。
In S503, the
以上のように、本実施形態によれば、前方を走行する車両の撮像画像に基づいて、その車両の前方の道路の状態を推定することができる。そのような構成により、例えば、ナビゲーション機能が十分に機能しないような地域であっても、道路状態を通知することができ、車両107の搭乗者に対して余裕を持たせることができる。また、例えば、砂利道や自然道など道路の舗装が十分でない地域において、車両105と車両107が直進の道路を縦列で走行している場合に、車両105の前方の路上に大きな亀裂が生じているとする。そのようなケースにおいて、車両105は、亀裂を回避するため、例えば左に旋回しながら走行することが想定される。その場合、本実施形態によれば、実際の道路は直進であるものの、S103、S204では、車両105の挙動に基づいて、道路の方向が左であることが通知される。そのため、車両107は、その通知に従うことで、車両105が実際に走行可能な経路上を進むことができ、亀裂を回避することができる。
As described above, according to the present embodiment, it is possible to estimate the state of the road in front of the vehicle based on the captured image of the vehicle traveling ahead. With such a configuration, for example, even in an area where the navigation function does not function sufficiently, the road condition can be notified, and the passenger of the
上記では、車両105の旋回方向として左右のいずれかのみを推定するとして説明したが、例えば、オブジェクト513、514、515の傾きからロール角を推定し、そのロール角と、車両105の車両画像の外郭形状の水平方向の変化とに基づいて、道路のRの程度を推定して通知内容に含めるようにしても良い。また、上記では、車両105の登坂もしくは降坂のみをのみを推定するとして説明したが、例えば、オブジェクト713の出現もしくはオブジェクト712の消失とに基づいて、ピッチ角を推定し、そのピッチ角と、車両105車両画像の外郭形状の垂直方向の変化とに基づいて、道路の傾斜の程度を推定して通知内容に含めるようにしても良い。
In the above, it has been described that only one of the left and right is estimated as the turning direction of the
本実施形態では、車両107に通知制御部203および通知部215が設けられている構成を説明したが、他の構成が用いられても良い。例えば、車両107の搭乗者のヘルメットが通信モジュールとヘッドアップディスプレイを有する場合、そのヘルメットに制御部200に相当する構成が設けられても良い。その場合、携帯型端末106の通知制御データ送信部306は、通知制御データをヘルメットの通知制御部に送信し、通知部としてのヘッドアップディスプレイ上に、図15の表示画面1400に対応する情報を表示するようにしても良い。また、ヘルメットにカメラ機能が登載されている場合には、撮像部216や撮像部315の代わりに、ヘルメットのカメラ機能が用いられても良い。
In the present embodiment, the configuration in which the
[第2実施形態]
第1実施形態では、車両105の車両画像の外郭形状の変化や、車両105の車両画像のオブジェクトの変化に基づいて、車両の挙動を推定することを説明した。しかしながら、車両105の手前に障害物が重なったために、車両105の車両画像の外郭形状やオブジェクトが認識できなくなるケースがあり得る。以下、第2実施形態について、第1実施形態と異なる点について説明する。
[Second Embodiment]
In the first embodiment, it has been described that the behavior of the vehicle is estimated based on the change of the outer shape of the vehicle image of the
図17は、車両1601が樹木1602の奥側を回って左折する様子を示す図である。車両1601は、図1の車両105に対応する。図17の中段では、左ミラー、タイヤのオブジェクトが樹木1602に隠れてしまい、また、図17の中段、上段では、車両1602の車両画像の外郭形状が欠けてしまっている。即ち、図17に示すケースでは、車両画像の変化を適切に認識することができない。また、鞍乗り型二輪車両107の場合、搭乗者は、ヘルメットのために視界が狭くなり、近づいた樹木1602が見え難くなる場合がある。
FIG. 17 is a diagram showing a
本実施形態では、車両105の車両画像以外に、大きさが変化しているオブジェクトがあれば、そのオブジェクトを障害物と認識し、車両105の車両画像との重なりに基づいて、車両105の挙動を推定する。その結果、車両105が障害物の奥側に回り込んだとしても、道路の進行方向を車両107の搭乗者に通知することができる。
In the present embodiment, if there is an object whose size is changing other than the vehicle image of the
図16は、本実施形態におけるS307の挙動推定の処理を示すフローチャートである。S601において、プロセッサ401は、車両105の車両画像以外のオブジェクトを認識したか否かを判定する。ここでの車両画像以外のオブジェクトとは、撮像データ上でのサイズの変化が大きいオブジェクトであり、例えば、道路脇の樹木等が該当する。車両画像以外のオブジェクトを認識していないと判定された場合、図12のS401に進む。一方、車両画像以外のオブジェクトを認識していると判定された場合、S602に進む。
FIG. 16 is a flowchart showing the process of estimating the behavior of S307 in the present embodiment. In S601, the
S602において、プロセッサ401は、S601で認識されたオブジェクト(以下、障害物オブジェクトという)と、車両105の車両画像との重なりを検出したか否かを判定する。重なりを検出していないと判定された場合、図12のS401に進む。但し、S401に進んで図12及び図13の処理が行われている間でも、S602の判定処理は並行して実行される。
In S602, the
S602で重なりを検出したと判定された場合、S603において、プロセッサ401は、車両105の挙動を推定する。例えば、車両画像が障害物オブジェクトの上に重なっている場合には、車両画像を認識可能であるため、図12及び図13の処理によって車両105の挙動が推定される。一方、障害物オブジェクトが車両画像の上に重なっている場合には、重なりが生じた障害物オブジェクトの方向へ車両105が旋回したと推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図16の処理を終了する。
When it is determined in S602 that the overlap is detected, in S603, the
S603を介してS309で通知制御データを生成する際には、障害物オブジェクトの存在を通知するメッセージや画像を表示するようにしても良い。そのような構成により、ヘルメットを着用した鞍乗り型二輪車両107の搭乗者に対して、近づいた障害物の存在を通知することができる。また、S603より前の時点で、S430やS431で登坂状態や降坂状態が推定されていた場合には、それらの推定結果と組み合わせて通知するようにしても良い。上記のS603では車両105の登坂や降坂の状態を推定していないが、従前の推定結果と組み合わせることにより、登坂や降坂を推定することが可能となる。
When the notification control data is generated in S309 via S603, a message or an image notifying the existence of the obstacle object may be displayed. With such a configuration, it is possible to notify the passenger of the saddle-riding type two-
以上の各実施形態においては、車両107、携帯型端末106、サーバ101のシステム構成として説明したが、他の構成でも良い。例えば、四輪車両107内に一体的に構成されてリアルタイム性を向上させるようにしても良い。
In each of the above embodiments, the system configuration of the
<実施形態のまとめ>
上記実施形態の走行支援システムは、車両の走行を支援する走行支援システムであって、撮像手段(216、315)により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得手段(S301)と、前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段(S307)と、前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段(S308)と、前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段(S310)と、を備えることを特徴とする。
<Summary of embodiments>
The travel support system of the above embodiment is a travel support system that supports the travel of the vehicle, and acquires image data of peripheral vehicles located in the traveling direction of the vehicle, which are imaged by the image pickup means (216, 315). The acquisition means (S301), the first estimation means (S307) for estimating the behavior of the peripheral vehicle based on the imaging data acquired by the acquisition means, and the peripheral vehicle estimated by the first estimation means. A second estimation means (S308) that estimates the road condition in the traveling direction of the vehicle based on the behavior of the vehicle, and a notification means (S310) that notifies the road condition in the traveling direction of the vehicle estimated by the second estimation means. ) And.
そのような構成により、車両の進行方向に位置する周辺車両の挙動に基づいて、進行方向の道路状態を推定することができる。 With such a configuration, it is possible to estimate the road condition in the traveling direction based on the behavior of peripheral vehicles located in the traveling direction of the vehicle.
また、前記周辺車両の挙動は、右旋回、左旋回を含む(S402、S421)、ことを特徴とする。 Further, the behavior of the peripheral vehicle is characterized by including right turn and left turn (S402, S421).
そのような構成により、車両の挙動の旋回方向に基づいて、道路の方向を推定することができる。 With such a configuration, the direction of the road can be estimated based on the turning direction of the behavior of the vehicle.
また、前記周辺車両の挙動は、登坂、降坂を含む(S404、S405、S423、S424、S429)ことを特徴とする。 Further, the behavior of the peripheral vehicle is characterized by including uphill and downhill (S404, S405, S423, S424, S429).
そのような構成により、車両の登坂、降坂に基づいて、道路の方向を推定することができる。 With such a configuration, the direction of the road can be estimated based on the uphill and downhill of the vehicle.
また、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像のオブジェクトの変化(図5(b)、図7(b))に基づいて、前記周辺車両の挙動を推定することを特徴とする。また、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像のオブジェクトの縦横比の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする。また、前記オブジェクトは、前記周辺車両のタイヤ、ミラー、ナンバープレートのうち少なくともいずれかを含むことを特徴とする。また、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像の外郭形状の変化(図6)に基づいて、前記周辺車両の挙動を推定することを特徴とする。 Further, the first estimation means has the behavior of the peripheral vehicle based on the change of the object of the vehicle image of the peripheral vehicle in the captured image of the captured data (FIGS. 5 (b) and 7 (b)). Is characterized by estimating. Further, the first estimation means is characterized in that the behavior of the peripheral vehicle is estimated based on the change in the aspect ratio of the object of the vehicle image of the peripheral vehicle in the captured image of the captured data. Further, the object is characterized by including at least one of a tire, a mirror, and a license plate of the peripheral vehicle. Further, the first estimation means is characterized in that, among the captured images of the captured data, the behavior of the peripheral vehicle is estimated based on the change in the outer shape of the vehicle image of the peripheral vehicle (FIG. 6). ..
そのような構成により、例えば、車両画像の水平方向、垂直方向の変化に基づいて、道路の方向を推定することができる。また、例えば、縦横比の変化など簡易な画像の変化であっても、道路の方向を推定することができる。また、例えば、車両画像上のタイヤ、ミラー、ナンバープレートの変化に基づいて、道路の方向を推定することができる。 With such a configuration, the direction of the road can be estimated based on, for example, changes in the horizontal direction and the vertical direction of the vehicle image. Further, the direction of the road can be estimated even for a simple image change such as a change in aspect ratio. Further, for example, the direction of the road can be estimated based on the change of the tire, the mirror, and the license plate on the vehicle image.
また、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像(1602)の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする。 Further, the first estimation means is characterized in that the behavior of the peripheral vehicle is estimated based on the change of the image (1602) different from the vehicle image of the peripheral vehicle among the captured images of the captured data.
そのような構成により、例えば、道路の脇にある樹木の画像と車両画像との重なりに基づいて、車両の旋回方向を推定することができる。 With such a configuration, for example, the turning direction of the vehicle can be estimated based on the overlap between the image of the tree on the side of the road and the image of the vehicle.
また、前記撮像手段は、前記車両とともに移動する端末に構成されていることを特徴とする。 Further, the image pickup means is characterized in that it is configured as a terminal that moves with the vehicle.
そのような構成により、例えば、車両の搭乗者の保持する携帯型端末のカメラにより撮像された撮像データに基づいて、周辺車両の挙動を推定することができる。 With such a configuration, for example, the behavior of a peripheral vehicle can be estimated based on the image pickup data captured by the camera of the portable terminal held by the passenger of the vehicle.
また、前記車両は、鞍乗り型車両であることを特徴とする。そのような構成により、車両が鞍乗り型車両である場合にも、走行支援システムの動作を適用することができる。 Further, the vehicle is characterized by being a saddle-riding type vehicle. With such a configuration, the operation of the travel support system can be applied even when the vehicle is a saddle-riding vehicle.
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。 The invention is not limited to the above embodiment, and various modifications and changes can be made within the scope of the gist of the invention.
100 走行支援システム: 101 サーバ: 105、107 車両: 106 携帯型端末: 200、300、400 制御部: 201、301、401 プロセッサ: 202、302、402 メモリ 100 Driving support system: 101 Server: 105, 107 Vehicle: 106 Portable terminal: 200, 300, 400 Control unit: 201, 301, 401 Processor: 202, 302, 402 Memory
Claims (12)
撮像手段により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得手段と、
前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段と、
前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段と、
前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段と、を備え、
前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定する、
ことを特徴とする走行支援システム。 It is a driving support system that supports the driving of vehicles.
An acquisition means for acquiring image pickup data of a peripheral vehicle located in the traveling direction of the vehicle, which is captured by the image pickup means, and an acquisition means.
A first estimation means for estimating the behavior of the surrounding vehicle based on the imaging data acquired by the acquisition means, and a first estimation means.
A second estimation means for estimating the road condition in the traveling direction of the vehicle based on the behavior of the peripheral vehicle estimated by the first estimation means, and a second estimation means.
A notification means for notifying the road condition in the traveling direction of the vehicle estimated by the second estimation means is provided.
The first estimation means estimates the behavior of the peripheral vehicle based on the change of the image different from the vehicle image of the peripheral vehicle in the captured image of the captured data.
A driving support system characterized by this.
撮像手段により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得工程と、
前記取得工程において取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定工程と、
前記第1推定工程において推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定工程と、
前記第2推定工程において推定された前記車両の進行方向の道路状態を通知する通知工程と、を有し、
前記第1推定工程では、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定する、
を有することを特徴とする走行支援方法。 It is a driving support method executed in a driving support system that supports the driving of a vehicle.
The acquisition process of acquiring the image pickup data of the peripheral vehicle located in the traveling direction of the vehicle, which is imaged by the image pickup means, and the acquisition process.
A first estimation step of estimating the behavior of the peripheral vehicle based on the imaging data acquired in the acquisition step, and a first estimation step.
A second estimation step of estimating the road condition in the traveling direction of the vehicle based on the behavior of the peripheral vehicle estimated in the first estimation step, and a second estimation step.
It has a notification step of notifying the road condition in the traveling direction of the vehicle estimated in the second estimation step.
In the first estimation step, the behavior of the peripheral vehicle is estimated based on the change of the image different from the vehicle image of the peripheral vehicle among the captured images of the captured data.
A driving support method characterized by having.
撮像手段により撮像された、車両の進行方向に位置する周辺車両の撮像データを取得する取得手段、
前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段、
前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段、
前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段、として機能させ、
前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定する、
として機能させるためのプログラム。 Computer,
An acquisition means for acquiring image pickup data of a peripheral vehicle located in the traveling direction of the vehicle, which is captured by the image pickup means.
A first estimation means for estimating the behavior of the peripheral vehicle based on the imaging data acquired by the acquisition means,
A second estimation means for estimating the road condition in the traveling direction of the vehicle based on the behavior of the peripheral vehicle estimated by the first estimation means.
It functions as a notification means for notifying the road condition in the traveling direction of the vehicle estimated by the second estimation means.
The first estimation means estimates the behavior of the peripheral vehicle based on the change of the image different from the vehicle image of the peripheral vehicle in the captured image of the captured data.
A program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019180643A JP6997156B2 (en) | 2019-09-30 | 2019-09-30 | Driving support system, driving support method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019180643A JP6997156B2 (en) | 2019-09-30 | 2019-09-30 | Driving support system, driving support method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021056874A JP2021056874A (en) | 2021-04-08 |
JP6997156B2 true JP6997156B2 (en) | 2022-01-17 |
Family
ID=75270910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019180643A Active JP6997156B2 (en) | 2019-09-30 | 2019-09-30 | Driving support system, driving support method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6997156B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4317325A1 (en) | 2021-03-30 | 2024-02-07 | Mitsubishi Chemical Corporation | Resin composition and molded body |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008114672A (en) | 2006-11-02 | 2008-05-22 | Aisin Aw Co Ltd | Operation support device and operation support method |
JP2010019589A (en) | 2008-07-08 | 2010-01-28 | Toyota Motor Corp | Inter-vehicle distance detector, drive recorder apparatus |
US20180158334A1 (en) | 2016-12-05 | 2018-06-07 | Ford Global Technologies, Llc | Vehicle collision avoidance |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1173514A (en) * | 1997-08-29 | 1999-03-16 | Nissan Motor Co Ltd | Recognition device for vehicle |
-
2019
- 2019-09-30 JP JP2019180643A patent/JP6997156B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008114672A (en) | 2006-11-02 | 2008-05-22 | Aisin Aw Co Ltd | Operation support device and operation support method |
JP2010019589A (en) | 2008-07-08 | 2010-01-28 | Toyota Motor Corp | Inter-vehicle distance detector, drive recorder apparatus |
US20180158334A1 (en) | 2016-12-05 | 2018-06-07 | Ford Global Technologies, Llc | Vehicle collision avoidance |
Also Published As
Publication number | Publication date |
---|---|
JP2021056874A (en) | 2021-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10583829B2 (en) | Parking assistance system | |
US10363872B2 (en) | Periphery monitoring device | |
EP3324556B1 (en) | Visual communication system for autonomous driving vehicles (adv) | |
US10915100B2 (en) | Control system for vehicle | |
US9902323B2 (en) | Periphery surveillance apparatus and program | |
US9643603B2 (en) | Travel controller, server, and in-vehicle device | |
JP5172314B2 (en) | Stereo camera device | |
US20190144004A1 (en) | Display system, display method, and storage medium | |
US7688221B2 (en) | Driving support apparatus | |
US10099692B2 (en) | Control system for vehicle | |
US11287879B2 (en) | Display control device, display control method, and program for display based on travel conditions | |
JP7047824B2 (en) | Vehicle control unit | |
US11176826B2 (en) | Information providing system, server, onboard device, storage medium, and information providing method | |
JP2008070955A (en) | Display system for displaying traveling object, on-vehicle apparatus, image transmitter and display method | |
KR20190080749A (en) | Vehicle on-board communication device and vehicle | |
JP7006235B2 (en) | Display control device, display control method and vehicle | |
JP4882289B2 (en) | Map information generation system | |
JP4561338B2 (en) | Driving support device | |
JP6997156B2 (en) | Driving support system, driving support method and program | |
JP6186905B2 (en) | In-vehicle display device and program | |
US20180211527A1 (en) | Systems and methods for communicating notices within a vehicle using a mobile device | |
JP2004217188A (en) | On-vehicle display device and display method | |
JP2010262665A (en) | On-vehicle device and vehicle recognition method | |
JP2007115198A (en) | Vehicle recognition method and in-vehicle device | |
JP7044747B2 (en) | Driving support system, driving support method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200831 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6997156 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |