JP6997156B2 - Driving support system, driving support method and program - Google Patents

Driving support system, driving support method and program Download PDF

Info

Publication number
JP6997156B2
JP6997156B2 JP2019180643A JP2019180643A JP6997156B2 JP 6997156 B2 JP6997156 B2 JP 6997156B2 JP 2019180643 A JP2019180643 A JP 2019180643A JP 2019180643 A JP2019180643 A JP 2019180643A JP 6997156 B2 JP6997156 B2 JP 6997156B2
Authority
JP
Japan
Prior art keywords
vehicle
image
behavior
estimation
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019180643A
Other languages
Japanese (ja)
Other versions
JP2021056874A (en
Inventor
圭一 水村
侑史 倉澤
卓磨 野口
剛 仲本
岳史 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019180643A priority Critical patent/JP6997156B2/en
Publication of JP2021056874A publication Critical patent/JP2021056874A/en
Application granted granted Critical
Publication of JP6997156B2 publication Critical patent/JP6997156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、走行を支援する走行支援システム、走行支援方法およびプログラムに関する。 The present invention relates to a driving support system, a driving support method and a program for supporting driving.

特許文献1には、自車両の前方において自車両の向きと逆向きに走行または停止している小型電動車両を撮像した撮像画像において、小型電動車両のハンドルにおける左側部分および右側部分のそれぞれの面積変化に基づいて、小型電動車両が右または左に移動を開始したか否かを判断する構成が記載されている。特許文献1では、そのような小型電動車両の挙動の認識により、小型電動車両との接触や急接近を防ぐことができると記載されている。 Patent Document 1 describes the areas of the left side portion and the right side portion of the steering wheel of the small electric vehicle in the captured image of the small electric vehicle traveling or stopped in the direction opposite to the direction of the own vehicle in front of the own vehicle. A configuration is described that determines whether or not the small electric vehicle has started moving to the right or left based on the change. Patent Document 1 describes that by recognizing the behavior of such a small electric vehicle, contact with the small electric vehicle or sudden approach can be prevented.

特開2019-091376号公報Japanese Unexamined Patent Publication No. 2019-091376

自車両が前方の他車両に対して縦列で走行しているケースにおいて、車間距離や周囲の環境によっては、自車両の搭乗者から他車両の前方の道路状態を認識することが困難なことがあり得る。そのようなケースでは、他車両の挙動に基づいて、進行方向の道路状態を推定することが求められる。 In the case where the own vehicle is parallel to another vehicle in front, it may be difficult for the passengers of the own vehicle to recognize the road condition in front of the other vehicle depending on the inter-vehicle distance and the surrounding environment. possible. In such a case, it is required to estimate the road condition in the traveling direction based on the behavior of other vehicles.

本発明は、他車両の挙動に基づいて、進行方向の道路状態を推定する走行支援システム、走行支援方法およびプログラムを提供することを目的とする。 An object of the present invention is to provide a travel support system, a travel support method, and a program for estimating a road condition in a traveling direction based on the behavior of another vehicle.

本発明に係る走行支援システムは、車両の走行を支援する走行支援システムであって、撮像手段により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得手段と、前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段と、前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段と、前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段と、を備え、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする。
The travel support system according to the present invention is a travel support system that supports the travel of a vehicle, and is an acquisition means for acquiring image data of a peripheral vehicle located in the traveling direction of the vehicle, which is imaged by the image pickup means, and the above-mentioned acquisition means. The traveling direction of the vehicle based on the first estimation means for estimating the behavior of the peripheral vehicle based on the imaging data acquired by the acquisition means and the behavior of the peripheral vehicle estimated by the first estimation means. The first estimation means includes a second estimation means for estimating the road condition of the vehicle and a notification means for notifying the road condition in the traveling direction of the vehicle estimated by the second estimation means . It is characterized in that the behavior of the peripheral vehicle is estimated based on the change of the image different from the vehicle image of the peripheral vehicle among the captured images .

本発明に係る走行支援方法は、車両の走行を支援する走行支援システムにおいて実行される走行支援方法であって、撮像手段により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得工程と、前記取得工程において取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定工程と、前記第1推定工程において推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定工程と、前記第2推定工程において推定された前記車両の進行方向の道路状態を通知する通知工程と、を有し、前記第1推定工程では、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする。
The travel support method according to the present invention is a travel support method executed in a travel support system that supports the travel of the vehicle, and captures image data of peripheral vehicles located in the traveling direction of the vehicle, which are imaged by the image pickup means. Based on the acquisition process to be acquired, the first estimation process for estimating the behavior of the peripheral vehicle based on the imaging data acquired in the acquisition process, and the behavior of the peripheral vehicle estimated in the first estimation process. The first estimation process includes a second estimation step of estimating the road condition in the traveling direction of the vehicle, and a notification step of notifying the road condition of the traveling direction of the vehicle estimated in the second estimation process . The estimation step is characterized in that the behavior of the peripheral vehicle is estimated based on the change of the image different from the vehicle image of the peripheral vehicle among the captured images of the captured data .

本発明に係るプログラムは、コンピュータを、撮像手段により撮像された、車両の進行方向に位置する周辺車両の撮像データを取得する取得手段、前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段、前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段、前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段、として機能させ、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定するThe program according to the present invention is based on the acquisition means for acquiring the image pickup data of the peripheral vehicle located in the traveling direction of the vehicle, which is imaged by the image pickup means, and the image pickup data acquired by the acquisition means. The first estimation means for estimating the behavior of peripheral vehicles, the second estimation means for estimating the road condition in the traveling direction of the vehicle based on the behavior of the peripheral vehicles estimated by the first estimation means, and the second estimation. It functions as a notification means for notifying the road condition in the traveling direction of the vehicle estimated by the means, and the first estimation means changes an image of the captured image of the captured data different from the vehicle image of the peripheral vehicle. Based on, the behavior of the peripheral vehicle is estimated .

本発明によれば、他車両の挙動に基づいて、進行方向の道路状態を推定することができる。 According to the present invention, it is possible to estimate the road condition in the traveling direction based on the behavior of another vehicle.

走行支援システムの構成を示す図である。It is a figure which shows the structure of the driving support system. 車両の構成を示す図である。It is a figure which shows the structure of a vehicle. 携帯型端末のブロック構成を示す図である。It is a figure which shows the block composition of a portable terminal. サーバのブロック構成を示す図である。It is a figure which shows the block composition of a server. 本実施形態の動作について説明するための図である。It is a figure for demonstrating the operation of this embodiment. 車両画像の変化を説明するための図である。It is a figure for demonstrating the change of a vehicle image. 車両画像の変化を説明するための図である。It is a figure for demonstrating the change of a vehicle image. 車両画像の変化を説明するための図である。It is a figure for demonstrating the change of a vehicle image. 車両において実行される処理を示すフローチャートである。It is a flowchart which shows the process executed in a vehicle. 携帯型端末において実行される処理を示すフローチャートである。It is a flowchart which shows the process which is executed in a portable terminal. サーバにおいて実行される処理を示すフローチャートである。It is a flowchart which shows the process executed in a server. S307の挙動推定の処理を示すフローチャートである。It is a flowchart which shows the process of behavior estimation of S307. S307の挙動推定の処理を示すフローチャートである。It is a flowchart which shows the process of behavior estimation of S307. S308の道路状態推定の処理を示すフローチャートである。It is a flowchart which shows the process of road condition estimation of S308. 通知制御データにより表示される表示画面を示す図である。It is a figure which shows the display screen which is displayed by the notification control data. 本実施形態におけるS307の挙動推定の処理を示すフローチャートである。It is a flowchart which shows the process of behavior estimation of S307 in this embodiment. 車両が障害物の奥側を回って左折する様子を示す図である。It is a figure which shows a state that a vehicle goes around the back side of an obstacle and turns left.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the invention according to the claims, and not all combinations of features described in the embodiments are essential to the invention. Two or more of the plurality of features described in the embodiments may be arbitrarily combined. In addition, the same or similar configuration will be given the same reference number, and duplicated explanations will be omitted.

[第1実施形態]
図1は、本実施形態における走行支援システムの構成を示す図である。走行支援システム100は、走行支援サービスを提供するサーバ101、サーバ101とネットワーク102を介して接続された基地局103を含む。ネットワーク102は、無線通信ネットワーク、有線通信ネットワーク、若しくは両者を含むネットワークである。走行支援システム100は、車両105、107を含み、本実施形態では、車両105は四輪車両であり、車両107は鞍乗り型二輪車両である。しかしながら、車両105、107は、図1に示す車両タイプに限られない。例えば、両車両が四輪車両であっても良いし、鞍乗り型二輪車両であっても良い。もしくは、特殊用途向けの車両であっても良い。また、車両107は、二輪車両に限られず、例えば三輪の鞍乗り型車両であっても良い。携帯型端末106は、カメラなどの撮像機能を含む携帯型端末機能を備えた装置である。本実施形態では、車両107の搭乗者(運転者)が、携帯型端末106として、例えばスマートフォンを保持し、そのスマートフォンはアタッチメント等で車両107に取り付けられている。また、携帯型端末106により実現される携帯型端末機能は、車両107に含まれていても良い。車両105、107、携帯型端末106は、基地局103との間での無線通信104とネットワーク102とを介して、サーバ101と相互に通信可能である。また、車両107と携帯型端末106の間では相互に通信可能であり、例えば、車両107は、携帯型端末106を介してサーバ101と通信可能である。なお、本実施形態では、車両105、107と基地局103の間での無線通信104は必ずしも行われていなくても良い。
[First Embodiment]
FIG. 1 is a diagram showing a configuration of a traveling support system according to the present embodiment. The travel support system 100 includes a server 101 that provides a travel support service, and a base station 103 that is connected to the server 101 via a network 102. The network 102 is a wireless communication network, a wired communication network, or a network including both. The travel support system 100 includes vehicles 105 and 107. In the present embodiment, the vehicle 105 is a four-wheeled vehicle, and the vehicle 107 is a saddle-riding type two-wheeled vehicle. However, the vehicles 105 and 107 are not limited to the vehicle types shown in FIG. For example, both vehicles may be four-wheeled vehicles or saddle-riding two-wheeled vehicles. Alternatively, it may be a vehicle for special purposes. Further, the vehicle 107 is not limited to a two-wheeled vehicle, and may be, for example, a three-wheeled saddle-riding type vehicle. The portable terminal 106 is a device having a portable terminal function including an image pickup function such as a camera. In the present embodiment, the passenger (driver) of the vehicle 107 holds, for example, a smartphone as a portable terminal 106, and the smartphone is attached to the vehicle 107 by an attachment or the like. Further, the portable terminal function realized by the portable terminal 106 may be included in the vehicle 107. The vehicles 105, 107, and the portable terminal 106 can communicate with the server 101 via the wireless communication 104 with the base station 103 and the network 102. Further, the vehicle 107 and the portable terminal 106 can communicate with each other. For example, the vehicle 107 can communicate with the server 101 via the portable terminal 106. In this embodiment, the wireless communication 104 between the vehicles 105 and 107 and the base station 103 does not necessarily have to be performed.

本実施形態では、車両107が車両105の後方を縦列に走行しているケースを想定する。そのようなケースにおいて、携帯型端末106は、前方の車両105の撮像データを随時サーバ101に送信する。サーバ101は、受信した撮像データに基づいて、車両105の前方の道路状態を推定し、携帯型端末106にその推定結果を通知する。ここで、道路状態とは、例えば、上り坂である、路面の凹凸が激しい、といった情報である。携帯型端末106は、サーバ101からの推定結果の通知を受信すると、車両107に対して通知制御データを送信する。本実施形態の動作については後述する。 In the present embodiment, it is assumed that the vehicle 107 is traveling in a column behind the vehicle 105. In such a case, the portable terminal 106 transmits the image pickup data of the vehicle 105 in front to the server 101 at any time. The server 101 estimates the road condition in front of the vehicle 105 based on the received image pickup data, and notifies the portable terminal 106 of the estimation result. Here, the road condition is information such as, for example, an uphill slope or severe unevenness of the road surface. Upon receiving the notification of the estimation result from the server 101, the portable terminal 106 transmits the notification control data to the vehicle 107. The operation of this embodiment will be described later.

図2は、車両107のブロック構成を示す図である。上述したように、本実施形態では、車両107は、鞍乗り型二輪車両とする。ECU(Electronic Control Unit)210は、車両107の各部を統括的に制御する。車両107は、例えば、スロットルバイワイヤ(throttle by wire)方式で走行制御が行われる構成であり、ECU210は、操舵部213のアクセル開度の電気信号を受けてスロットルバルブを開閉することにより、エンジンを含む駆動部211を制御する。制動部212は、ブレーキ機構を含む。センサ群214は、速度センサ、スロットルセンサ、大気圧センサ等の各種センサを含み、ECU210は、それらの検知信号を受信する。通知部215は、ランプ、LED等を含み、例えば、本実施形態では、車両105の前方の道路の方向(左方向、右方向など)を表示する。撮像部216は、例えばカメラであり、車両107の前方を撮像する。撮像部216は、例えば、車両107の前方を走行する車両105を撮像する。また、車両107は、撮像機能を有する携帯型端末106をアタッチメント等で車両107に取り付け、撮像部216の代わりに撮像機能を実現するようにしても良い。 FIG. 2 is a diagram showing a block configuration of the vehicle 107. As described above, in the present embodiment, the vehicle 107 is a saddle-riding type two-wheeled vehicle. The ECU (Electronic Control Unit) 210 comprehensively controls each part of the vehicle 107. The vehicle 107 has, for example, a configuration in which traveling control is performed by a throttle-by-wire method, and the ECU 210 receives an electric signal of the accelerator opening of the steering unit 213 to open and close the throttle valve to open and close the engine. The drive unit 211 including the drive unit 211 is controlled. The braking unit 212 includes a braking mechanism. The sensor group 214 includes various sensors such as a speed sensor, a throttle sensor, and an atmospheric pressure sensor, and the ECU 210 receives the detection signals thereof. The notification unit 215 includes a lamp, an LED, and the like, and for example, in the present embodiment, the notification unit 215 displays the direction of the road in front of the vehicle 105 (left direction, right direction, etc.). The image pickup unit 216 is, for example, a camera, and images the front of the vehicle 107. The image pickup unit 216, for example, takes an image of the vehicle 105 traveling in front of the vehicle 107. Further, the vehicle 107 may attach a portable terminal 106 having an image pickup function to the vehicle 107 by an attachment or the like to realize the image pickup function instead of the image pickup unit 216.

制御部200は、通信I/F205を介して携帯型端末106との間での無線通信を実行可能なブロックである。なお、通信I/F205は、基地局103との間での無線通信が可能なように構成されても良い。制御部200は、制御部200内の動作を統括的に制御するプロセッサ201、メモリ202、通知制御部203、撮像データ送信部204を含むコンピュータシステムである。本実施形態における車両107の動作は、例えば、プロセッサ201がメモリ202上でプログラムを実行することにより実現される。通知制御部203は、携帯型端末106から送信された通知制御データに基づいて、通知部215の制御をECU210に要求する。例えば、通知制御部203は、携帯型端末106から送信された通知制御データをECU210が処理可能な信号に変換し、ECU210に送信する。撮像データ送信部204は、撮像部216により撮像された撮像データを通信I/F205を介して、携帯型端末106に送信する。また、制御部200は、USB等の記憶部217と接続可能である。例えば、サーバ101により提供されるアプリケーションが記憶部217に記憶される。また、例えば、そのアプリケーションにより、制御部200の各ブロックが実現され、サーバ101への登録、携帯型端末106の制御部300とのペアリングが行われる。 The control unit 200 is a block capable of executing wireless communication with the portable terminal 106 via the communication I / F 205. The communication I / F 205 may be configured to enable wireless communication with the base station 103. The control unit 200 is a computer system including a processor 201, a memory 202, a notification control unit 203, and an image pickup data transmission unit 204 that collectively control the operation in the control unit 200. The operation of the vehicle 107 in this embodiment is realized, for example, by the processor 201 executing a program on the memory 202. The notification control unit 203 requests the ECU 210 to control the notification unit 215 based on the notification control data transmitted from the portable terminal 106. For example, the notification control unit 203 converts the notification control data transmitted from the portable terminal 106 into a signal that can be processed by the ECU 210, and transmits the signal to the ECU 210. The image pickup data transmission unit 204 transmits the image pickup data captured by the image pickup unit 216 to the portable terminal 106 via the communication I / F 205. Further, the control unit 200 can be connected to a storage unit 217 such as USB. For example, the application provided by the server 101 is stored in the storage unit 217. Further, for example, each block of the control unit 200 is realized by the application, and registration to the server 101 and pairing with the control unit 300 of the portable terminal 106 are performed.

車両107は、図2に示すブロック構成に限られず、例えば、車両107の機能に応じた機能ブロックを適宜含む。また、撮像データ送信部204、撮像部216は、設けられていなくても良い。例えば、上述したように、携帯型端末106が撮像部216の代わりに用いられる場合には、撮像データ送信部204、撮像部216は設けられていなくても良い。 The vehicle 107 is not limited to the block configuration shown in FIG. 2, and includes, for example, functional blocks corresponding to the functions of the vehicle 107 as appropriate. Further, the image pickup data transmission unit 204 and the image pickup unit 216 may not be provided. For example, as described above, when the portable terminal 106 is used in place of the image pickup unit 216, the image pickup data transmission unit 204 and the image pickup unit 216 may not be provided.

図3は、携帯型端末106のブロック構成を示す図である。制御部300は、携帯型端末106を統括的に制御する。制御部300は、制御部300内の動作を統括的に制御するプロセッサ301、メモリ302、撮像データ送信部303、GPS情報送信部304、表示制御部305、通知制御データ送信部306を含むコンピュータシステムである。本実施形態における携帯型端末106の動作は、例えば、プロセッサ301がメモリ302上でプログラムを実行することにより実現される。撮像データ送信部303は、例えばカメラである撮像部315で撮像された撮像データ、若しくは、車両107の撮像部216で撮像された撮像データを通信I/F313を介して外部に送信する。GPS情報送信部304は、GPS314により取得されたGPS情報を通信I/F313を介して外部に送信する。表示制御部305は、表示部311での表示を制御する。通知制御データ送信部306は、サーバ101から送信された通知制御データに基づいて、車両107で用いられる通知制御データを生成し、通信I/F313を介して車両107へ送信する。 FIG. 3 is a diagram showing a block configuration of the portable terminal 106. The control unit 300 comprehensively controls the portable terminal 106. The control unit 300 is a computer system including a processor 301, a memory 302, an image pickup data transmission unit 303, a GPS information transmission unit 304, a display control unit 305, and a notification control data transmission unit 306 that collectively control the operation in the control unit 300. Is. The operation of the portable terminal 106 in this embodiment is realized, for example, by the processor 301 executing a program on the memory 302. The image pickup data transmission unit 303 transmits, for example, the image pickup data captured by the image pickup unit 315, which is a camera, or the image pickup data captured by the image pickup unit 216 of the vehicle 107 to the outside via the communication I / F 313. The GPS information transmission unit 304 transmits the GPS information acquired by the GPS 314 to the outside via the communication I / F 313. The display control unit 305 controls the display on the display unit 311. The notification control data transmission unit 306 generates notification control data used in the vehicle 107 based on the notification control data transmitted from the server 101, and transmits the notification control data to the vehicle 107 via the communication I / F 313.

記憶部310は、携帯型端末106が動作するためのプログラムやデータ、および本実施形態の動作で必要なプログラムやデータを記憶する。例えば、サーバ101により提供されるアプリケーションが記憶部310に記憶される。例えば、携帯型端末106のユーザは、そのアプリケーションを起動し、設定画面上で、サーバ101への登録、車両107の制御部200とのペアリングを行う。表示部311は、例えばタッチパネルであり、携帯型端末106のユーザに対して、各種ユーザインタフェース画面を表示する。なお、本実施形態では、携帯型端末106のユーザは、車両107の搭乗者に対応する。操作部312は、ユーザからの操作を受付可能であり、ハードキー、タッチパネル上に表示されるソフトキーを含む。GPS(Global Positioning System)314は、携帯型端末106の現在位置を検出するための位置検出機構である。通信I/F313は、外部との無線通信104を可能とする。なお、通信I/F313は、通信距離が異なる複数の無線通信に対応するように構成されても良い。携帯型端末106は、図3に示すブロック構成に限られず、例えば、携帯型端末106の機能に応じた機能ブロックを適宜含む。 The storage unit 310 stores programs and data for operating the portable terminal 106, and programs and data necessary for the operation of the present embodiment. For example, the application provided by the server 101 is stored in the storage unit 310. For example, the user of the portable terminal 106 starts the application, registers it with the server 101, and performs pairing with the control unit 200 of the vehicle 107 on the setting screen. The display unit 311 is, for example, a touch panel, and displays various user interface screens for the user of the portable terminal 106. In this embodiment, the user of the portable terminal 106 corresponds to the passenger of the vehicle 107. The operation unit 312 can accept operations from the user, and includes hard keys and soft keys displayed on the touch panel. The GPS (Global Positioning System) 314 is a position detection mechanism for detecting the current position of the portable terminal 106. The communication I / F 313 enables wireless communication 104 with the outside. The communication I / F 313 may be configured to support a plurality of wireless communications having different communication distances. The portable terminal 106 is not limited to the block configuration shown in FIG. 3, and includes, for example, functional blocks corresponding to the functions of the portable terminal 106 as appropriate.

本実施形態では、車両107は鞍乗り型二輪車両であるとして説明するが、他のタイプの車両、例えば四輪車両であっても良い。その場合、図2の制御部200と図3の制御部300が四輪車両に一体的に構成されるようにしても良い。 In the present embodiment, the vehicle 107 is described as a saddle-riding type two-wheeled vehicle, but other types of vehicles, for example, a four-wheeled vehicle may be used. In that case, the control unit 200 of FIG. 2 and the control unit 300 of FIG. 3 may be integrally configured in the four-wheeled vehicle.

図4は、サーバ101のブロック構成を示す図である。制御部400は、サーバ101を統括的に制御する。制御部400は、制御部400内の動作を統括的に制御するCPUやGPU等のプロセッサ401、メモリ402、撮像データ受信部403、画像処理部404、画像認識部405、画像分析部406、挙動推定部407、道路状態推定部408、通知制御データ送信部409を含むコンピュータシステムである。本実施形態におけるサーバ101の動作は、例えば、プロセッサ401がメモリ402上でプログラムを実行することにより実現される。撮像データ受信部403は、携帯型端末106から送信された撮像データを受信する。本実施形態では、この撮像データには、車両105が撮像されている。画像処理部404は、撮像データに対して画像認識を実行するための前処理を行い、前処理として、例えば、撮像データの揺れの補正が行われる。画像認識部405は、クラス分類等の手法を用いて、撮像データ受信部403により受信された撮像データ上でオブジェクトを認識する。画像分析部406は、画像認識部405により認識されたオブジェクトを分析する。例えば、画像分析部406は、オブジェクト間の相対位置の変化を分析する。挙動推定部407は、画像分析部406による分析結果に基づいて、車両105の挙動を推定する。道路状態推定部408は、挙動推定部407による推定結果に基づいて、車両107が走行する道路状態を推定する。通知制御データ送信部409は、道路状態推定部408による推定結果に基づいて、後述する通知制御データを生成して携帯型端末106宛てに送信する。 FIG. 4 is a diagram showing a block configuration of the server 101. The control unit 400 controls the server 101 in an integrated manner. The control unit 400 includes a processor 401 such as a CPU or GPU that comprehensively controls the operation in the control unit 400, a memory 402, an imaging data receiving unit 403, an image processing unit 404, an image recognition unit 405, an image analysis unit 406, and behavior. It is a computer system including an estimation unit 407, a road condition estimation unit 408, and a notification control data transmission unit 409. The operation of the server 101 in this embodiment is realized, for example, by the processor 401 executing a program on the memory 402. The image pickup data receiving unit 403 receives the image pickup data transmitted from the portable terminal 106. In the present embodiment, the vehicle 105 is imaged in this image pickup data. The image processing unit 404 performs preprocessing for executing image recognition on the imaged data, and as the preprocessing, for example, correction of shaking of the imaged data is performed. The image recognition unit 405 recognizes an object on the image pickup data received by the image pickup data reception unit 403 by using a technique such as classification. The image analysis unit 406 analyzes the object recognized by the image recognition unit 405. For example, the image analysis unit 406 analyzes changes in relative positions between objects. The behavior estimation unit 407 estimates the behavior of the vehicle 105 based on the analysis result by the image analysis unit 406. The road condition estimation unit 408 estimates the road condition on which the vehicle 107 travels based on the estimation result by the behavior estimation unit 407. The notification control data transmission unit 409 generates notification control data, which will be described later, based on the estimation result by the road condition estimation unit 408, and transmits it to the portable terminal 106.

記憶部410は、サーバ101が動作するためのプログラムやデータ、および本実施形態の動作で必要なプログラムやデータを記憶する。表示部411は、例えばディスプレイであり、サーバ101のユーザに対して、各種ユーザインタフェース画面を表示する。操作部412は、ユーザからの操作を受付可能であり、例えば、キーボードやポインティングデバイスである。通信I/F413は、サーバ101とネットワーク102との間の通信を可能とする。サーバ101は、図4に示すブロック構成に限られず、例えば、サーバ101の機能に応じた機能ブロックを適宜含む。なお、図4では、サーバ101は1つの装置として示されているが、複数の装置で構成されても良い。即ち、本実施形態におけるサーバ101は、1つの装置でサーバ機能を提供する構成、複数の装置で連携してサーバ機能を提供する構成、を含む。 The storage unit 410 stores programs and data for operating the server 101, and programs and data necessary for the operation of the present embodiment. The display unit 411 is, for example, a display, and displays various user interface screens to the user of the server 101. The operation unit 412 can receive an operation from the user, and is, for example, a keyboard or a pointing device. The communication I / F 413 enables communication between the server 101 and the network 102. The server 101 is not limited to the block configuration shown in FIG. 4, and includes, for example, functional blocks corresponding to the functions of the server 101 as appropriate. Although the server 101 is shown as one device in FIG. 4, it may be composed of a plurality of devices. That is, the server 101 in the present embodiment includes a configuration in which one device provides a server function, and a configuration in which a plurality of devices cooperate to provide a server function.

以下、図5(a)、(b)を参照しながら、本実施形態の動作について説明する。図5(a)に示すように、道路500上を、車両107が車両105の後方を走行している。ここで、車両107は位置501に位置し、車両105は、位置502に位置する。また、車両107の搭乗者は、携帯型端末106を所持している。もしくは、携帯型端末106は、車両107に取り付けられている。道路500は、一本道であり、車両105が位置503、位置504のように前方に進むに従って、左側に曲がっている。ここで、道路500の両側の樹木等により車両501の搭乗者からの見通しが良くない場合、車両501の搭乗者にとっては道路500が前方で左側に曲がるということが分からないケースがあり得る。そのようなケースにおいて、車両107の撮像部216もしくは携帯型端末106の撮像部315は、前方の車両105を所定の時間間隔で撮像し、その撮像データをサーバ101に送信する。 Hereinafter, the operation of the present embodiment will be described with reference to FIGS. 5 (a) and 5 (b). As shown in FIG. 5A, the vehicle 107 is traveling behind the vehicle 105 on the road 500. Here, the vehicle 107 is located at position 501 and the vehicle 105 is located at position 502. Further, the passenger of the vehicle 107 possesses the portable terminal 106. Alternatively, the portable terminal 106 is attached to the vehicle 107. The road 500 is a straight road, and the vehicle 105 turns to the left as it moves forward as in positions 503 and 504. Here, if the visibility from the passengers of the vehicle 501 is not good due to trees on both sides of the road 500, there may be a case where the passengers of the vehicle 501 do not know that the road 500 turns to the left in front. In such a case, the image pickup unit 216 of the vehicle 107 or the image pickup unit 315 of the portable terminal 106 images the vehicle 105 in front at predetermined time intervals, and transmits the image pickup data to the server 101.

図5(b)は、撮像データの車両画像の変化を示しており、下段の車両画像510は、図5(a)の車両105の後部を表している。車両105が位置503まで進むと、その撮像データは、図5(b)の中段の車両画像511のように変化する。そして、さらに車両105が位置504まで進むと、その撮像データは、図5(b)の上段の車両画像512のように変化する。サーバ101は、図5(b)のような車両画像の変化に基づいて、車両105の挙動として例えば左旋回を推定し、道路500が前方で左側に曲がっていることを推定する。 FIG. 5B shows changes in the vehicle image of the captured data, and the lower vehicle image 510 shows the rear part of the vehicle 105 in FIG. 5A. When the vehicle 105 advances to the position 503, the captured data thereof changes as shown in the vehicle image 511 in the middle of FIG. 5 (b). Then, when the vehicle 105 further advances to the position 504, the captured image data changes as shown in the vehicle image 512 in the upper part of FIG. 5B. The server 101 estimates, for example, a left turn as the behavior of the vehicle 105 based on the change in the vehicle image as shown in FIG. 5B, and estimates that the road 500 is turning to the left in front.

ここで、車両画像の変化について説明する。本実施形態では、サーバ101は、車両105の車両画像の外郭の変化に基づいて、車両105の挙動を推定する。図6は、車両画像の変化の概念を説明するための図である。 Here, changes in the vehicle image will be described. In the present embodiment, the server 101 estimates the behavior of the vehicle 105 based on the change in the outer shape of the vehicle image of the vehicle 105. FIG. 6 is a diagram for explaining the concept of change in the vehicle image.

図6の撮像データ600には、車両画像601が含まれている。撮像データ600の取得後、撮像データ610が取得された場合に車両画像601が車両画像602のように変化したとする。これは、図5(b)の車両画像510から車両画像511もしくは512への変化に対応する。このように、車両が左旋回もしくは右旋回を行うと、車両画像の外郭形状は、基準線620に対して水平方向に引き伸ばされるように変化する。サーバ101は、その引き伸ばされる方向が左側と認識されるのであれば、車両105の挙動は左旋回であると推定し、右側と認識されるのであれば、車両105の挙動は右旋回であると推定する。 The image pickup data 600 of FIG. 6 includes a vehicle image 601. After the acquisition of the imaging data 600, it is assumed that the vehicle image 601 changes like the vehicle image 602 when the imaging data 610 is acquired. This corresponds to the change from the vehicle image 510 in FIG. 5B to the vehicle image 511 or 512. In this way, when the vehicle makes a left turn or a right turn, the outer shape of the vehicle image changes so as to be stretched horizontally with respect to the reference line 620. If the server 101 recognizes that the stretched direction is on the left side, the behavior of the vehicle 105 is presumed to be a left turn, and if it is recognized as a right side, the behavior of the vehicle 105 is a right turn. I presume.

また、撮像データ600の取得後、撮像データ611が取得された場合に車両画像601が車両画像603のように変化したとする。これは、道路が上り坂の場合に対応する。 Further, it is assumed that the vehicle image 601 is changed like the vehicle image 603 when the image pickup data 611 is acquired after the acquisition of the image pickup data 600. This corresponds to the case where the road is uphill.

図7(a)、(b)は、道路が上り坂の場合の車両画像の変化を説明するための図である。図7(a)は、車両107が道路700上の位置701に位置し、車両105が位置702に位置することを示している。図7(a)に示すように、道路700は、途中から上り坂となっている。図7(b)は、撮像データの車両画像の変化を表しており、下段の車両画像710は、図7(a)の車両105の後部を表している。車両105が位置703まで進むと、車両画像710は、図7(b)の上段の車両画像711のように変化する。即ち、車両105が上り坂を進行していくと、車両画像710から車両画像711への変化、つまり、図6の車両画像601から車両画像603への変化のように、車両画像の外郭形状は、基準線621に対して垂直方向に引き伸ばされるように変化する。サーバ101は、その引き伸ばされる方向が垂直方向であることに基づいて、車両105の挙動は登坂であると推定する。 7 (a) and 7 (b) are diagrams for explaining changes in the vehicle image when the road is uphill. FIG. 7A shows that the vehicle 107 is located at position 701 on the road 700 and the vehicle 105 is located at position 702. As shown in FIG. 7A, the road 700 is an uphill from the middle. FIG. 7B shows changes in the vehicle image of the captured data, and the lower vehicle image 710 shows the rear part of the vehicle 105 in FIG. 7A. When the vehicle 105 advances to the position 703, the vehicle image 710 changes as shown in the vehicle image 711 in the upper part of FIG. 7B. That is, as the vehicle 105 travels uphill, the outer shape of the vehicle image changes from the vehicle image 710 to the vehicle image 711, that is, the change from the vehicle image 601 to the vehicle image 603 in FIG. , It changes so as to be stretched in the direction perpendicular to the reference line 621. The server 101 estimates that the behavior of the vehicle 105 is uphill, based on its stretched direction being the vertical direction.

また、撮像データ600の取得後、撮像データ612が取得された場合に図6の車両画像601が車両画像604のように変化したとする。これは、道路が下り坂の場合に対応する。図8(a)、(b)は、道路が下り坂の場合の車両画像の変化を説明するための図である。図8(a)は、車両107が道路720上の位置721に位置し、車両105が位置722に位置することを示している。図8(a)に示すように、道路720は、途中から下り坂となっている。図8(b)は、撮像データの車両画像の変化を表しており、下段の車両画像730は、図8(a)の車両105の後部を表している。車両105が位置723まで進むと、車両画像730は、図8(b)の上段の車両画像731のように変化する。即ち、道路が下り坂である場合には、車両の前部が下方向に沈み込む状態となるので、後続車両から見ると、車両画像の外郭形状が垂直方向に縮むように変化する。即ち、車両が下り坂を進行していくと、図6の車両画像601から車両画像604への変化のように、車両画像の外郭形状は、基準線622に対して垂直方向に縮むように変化する。サーバ101は、その縮む方向が垂直方向であることに基づいて、車両105の挙動は降坂であると推定する。 Further, it is assumed that the vehicle image 601 of FIG. 6 changes as shown in the vehicle image 604 when the image pickup data 612 is acquired after the acquisition of the image pickup data 600. This corresponds to the case where the road is downhill. 8 (a) and 8 (b) are diagrams for explaining changes in the vehicle image when the road is downhill. FIG. 8A shows that the vehicle 107 is located at position 721 on the road 720 and the vehicle 105 is located at position 722. As shown in FIG. 8A, the road 720 is downhill from the middle. FIG. 8B shows changes in the vehicle image of the captured data, and the lower vehicle image 730 shows the rear part of the vehicle 105 in FIG. 8A. When the vehicle 105 advances to the position 723, the vehicle image 730 changes as shown in the vehicle image 731 in the upper part of FIG. 8B. That is, when the road is a downhill, the front part of the vehicle sinks downward, so that the outer shape of the vehicle image changes so as to shrink in the vertical direction when viewed from the following vehicle. That is, as the vehicle travels downhill, the outer shape of the vehicle image changes so as to shrink in the direction perpendicular to the reference line 622, as in the change from the vehicle image 601 to the vehicle image 604 in FIG. .. The server 101 estimates that the behavior of the vehicle 105 is downhill, based on the fact that its contraction direction is vertical.

上記のように、サーバ101は、車両105の車両画像の外郭形状の変化によって、車両105の挙動を推定することができる。また、サーバ101は、車両105の車両画像のオブジェクトの分析結果に基づいて、車両105の挙動を推定することができる。 As described above, the server 101 can estimate the behavior of the vehicle 105 by changing the outer shape of the vehicle image of the vehicle 105. Further, the server 101 can estimate the behavior of the vehicle 105 based on the analysis result of the object of the vehicle image of the vehicle 105.

サーバ101は、画像認識部405により、車両画像510に例えばオブジェクト513、516、519、522を認識する。図5(b)の場合には、オブジェクト513はタイヤを含む下部領域であり、オブジェクト516はナンバープレートであり、オブジェクト519は左ミラーであり、オブジェクト522は右ミラーである。車両105が左旋回を行った場合、図5(b)に示すように、各オブジェクトが変化する。例えば、オブジェクト513は、タイヤの上部および前輪がより見える状態になるので、垂直方向及び水平方向に形状が大きくなる。また、オブジェクト516は、長方形から、旋回方向側の辺がより長い台形状へと変化する。さらに、オブジェクト522は、車両105の車体に隠れることになるので、撮像データ上では消失する。サーバ101は、それらのような各オブジェクトの変化に基づいて、車両105の挙動(本例では左旋回もしくは右旋回)を推定する。 The server 101 recognizes, for example, objects 513, 516, 516, 522 in the vehicle image 510 by the image recognition unit 405. In the case of FIG. 5B, the object 513 is the lower region including the tire, the object 516 is the license plate, the object 519 is the left mirror, and the object 522 is the right mirror. When the vehicle 105 makes a left turn, each object changes as shown in FIG. 5 (b). For example, the object 513 becomes larger in the vertical and horizontal directions because the upper part of the tire and the front wheels are more visible. Further, the object 516 changes from a rectangle to a trapezoidal shape having a longer side on the turning direction side. Further, since the object 522 is hidden behind the vehicle body of the vehicle 105, it disappears on the image pickup data. The server 101 estimates the behavior of the vehicle 105 (turning left or turning right in this example) based on changes in each such object.

図7(b)の場合には、オブジェクト712はアンテナであり、オブジェクト713は車両105のボンネット又はルーフである。車両105が登坂状態となると、後続車両から見ると車体の前部が持ち上がる状態となるので、撮像データ上ではオブジェクト713が出現する。また、車両105が降坂状態となると、図8(b)に示すように、車体の前部が沈み込む状態となるので、撮像データ上ではアンテナであるオブジェクト732が消失する。サーバ101は、これらのような各オブジェクトの変化に基づいて、車両105の挙動(本例では登坂もしくは降坂)を推定する。 In the case of FIG. 7B, the object 712 is an antenna and the object 713 is the hood or roof of the vehicle 105. When the vehicle 105 is in the climbing state, the front part of the vehicle body is lifted when viewed from the following vehicle, so that the object 713 appears on the imaging data. Further, when the vehicle 105 goes downhill, as shown in FIG. 8B, the front part of the vehicle body sinks, so that the object 732, which is an antenna, disappears on the imaging data. The server 101 estimates the behavior of the vehicle 105 (uphill or downhill in this example) based on the changes in each of these objects.

また、サーバ101は、オブジェクト間の相対位置の変化によって、車両105の挙動を推定しても良い。例えば、図5(b)の下段では、オブジェクト513の水平方向長さに対してオブジェクト516はほぼ中央に位置しているのに対し、図5(b)の中段から上段にかけて、オブジェクト516は、オブジェクト517、518のようにオブジェクト513の右端に寄っていく。このように、サーバ101は、オブジェクト間の相対位置に基づいて、車両105の挙動を推定するようにしても良い。もしくは、上記の方法を組み合わせて、車両105の挙動の推定の精度を向上させるようにしても良い。 Further, the server 101 may estimate the behavior of the vehicle 105 by changing the relative position between the objects. For example, in the lower part of FIG. 5B, the object 516 is located almost in the center with respect to the horizontal length of the object 513, whereas in the middle part to the upper part of FIG. 5B, the object 516 is located. Move toward the right end of object 513 like objects 517 and 518. In this way, the server 101 may estimate the behavior of the vehicle 105 based on the relative position between the objects. Alternatively, the above methods may be combined to improve the accuracy of estimating the behavior of the vehicle 105.

図9は、車両107において実行される処理を示すフローチャートである。図9の処理は、例えば、プロセッサ201がメモリ202上でプログラムを実行することにより実現される。 FIG. 9 is a flowchart showing the processing executed in the vehicle 107. The process of FIG. 9 is realized, for example, by the processor 201 executing a program on the memory 202.

S101において、プロセッサ201は、撮像データ送信部204により、撮像部216により撮像された撮像データを通信I/F205を介して携帯型端末106に送信する。なお、車両105に取り付けられた携帯型端末106が撮像部216の代わりに用いられる場合には、S101の処理は行われなくても良い。 In S101, the processor 201 transmits the image pickup data captured by the image pickup unit 216 to the portable terminal 106 via the communication I / F 205 by the image pickup data transmission unit 204. When the portable terminal 106 attached to the vehicle 105 is used instead of the image pickup unit 216, the processing of S101 may not be performed.

S102において、プロセッサ201は、通知制御部203により、携帯型端末106から通知制御データを受信したか否かを判定する。ここで、通知制御データを受信していないと判定された場合、S101からの処理を繰り返す。一方、通知制御データを受信したと判定された場合、S103において、プロセッサ201は、通知制御部203により、通知制御データに基づいて通知部215に通知させるようECU210に要求する。例えば、携帯型端末106から送信された「左側へカーブ」を表すデータをECU210が処理可能な信号に変換し、ECU210に送信する。ここで通知される内容は、車両105の前方の道路状態の推定結果である。通知内容については後述する。S103の後、S101からの処理を繰り返す。 In S102, the processor 201 determines whether or not the notification control data has been received from the portable terminal 106 by the notification control unit 203. Here, if it is determined that the notification control data has not been received, the process from S101 is repeated. On the other hand, when it is determined that the notification control data has been received, in S103, the processor 201 requests the ECU 210 to notify the notification unit 215 based on the notification control data by the notification control unit 203. For example, the data representing the "curve to the left" transmitted from the portable terminal 106 is converted into a signal that can be processed by the ECU 210 and transmitted to the ECU 210. The content notified here is the estimation result of the road condition in front of the vehicle 105. The content of the notification will be described later. After S103, the process from S101 is repeated.

図10は、携帯型端末106において実行される処理を示すフローチャートである。図10の処理は、例えば、プロセッサ301がメモリ302上でプログラムを実行することにより実現される。 FIG. 10 is a flowchart showing a process executed by the portable terminal 106. The process of FIG. 10 is realized, for example, by the processor 301 executing a program on the memory 302.

S201において、プロセッサ301は、撮像データ送信部303により、撮像データをサーバ101へ送信する。ここで、送信される撮像データは、車両107の撮像部216で撮像された撮像データ、若しくは携帯型端末106の撮像部315で撮像された撮像データである。 In S201, the processor 301 transmits the image pickup data to the server 101 by the image pickup data transmission unit 303. Here, the image pickup data transmitted is the image pickup data captured by the image pickup unit 216 of the vehicle 107 or the image pickup data captured by the image pickup unit 315 of the portable terminal 106.

S202において、プロセッサ301は、通知制御データ送信部306により、サーバ101から通知制御データを受信したか否かを判定する。ここで、通知制御データを受信していないと判定された場合、S201からの処理を繰り返す。一方、通知制御データを受信したと判定された場合、S203に進む。 In S202, the processor 301 determines whether or not the notification control data has been received from the server 101 by the notification control data transmission unit 306. Here, if it is determined that the notification control data has not been received, the process from S201 is repeated. On the other hand, if it is determined that the notification control data has been received, the process proceeds to S203.

ここで、通知制御データについて説明する。上述のように、通知制御データは、車両105の前方の道路状態の推定結果であり、例えばパネル等への表示用データとして受信する。図15は、通知制御データにより表示される表示画面1400の一例を示す図である。携帯型端末106は、サーバ101から受信した通知制御データに基づいて、表示部311に表示画面1400を表示可能である。 Here, the notification control data will be described. As described above, the notification control data is an estimation result of the road condition in front of the vehicle 105, and is received as display data on, for example, a panel or the like. FIG. 15 is a diagram showing an example of the display screen 1400 displayed by the notification control data. The portable terminal 106 can display the display screen 1400 on the display unit 311 based on the notification control data received from the server 101.

表示画面1400では、矢印マーク1402、1403が表示され、車両105の前方の道路が左側と右側のいずれの方向へ曲がっていくのかを車両107の搭乗者に認識させることができる。図15では、矢印マーク1402が点灯し、矢印マーク1403が点灯しておらず、車両105の前方の道路が左側へ曲がっていくことが示されている。 On the display screen 1400, the arrow marks 1402 and 1403 are displayed, and the passenger of the vehicle 107 can be made to recognize in which direction the road in front of the vehicle 105 turns on the left side or the right side. In FIG. 15, the arrow mark 1402 is lit, the arrow mark 1403 is not lit, and it is shown that the road in front of the vehicle 105 turns to the left.

また、表示領域1401では、道路が左側へ曲がっていくことがグラフィカルに表示される。また、サーバ101により、車両105の前方の道路が左方向へ上り坂であり、且つ、路面の凹凸が激しいと判断された場合には、表示領域1404のように、「左方向に上り坂です。凹凸に注意して下さい。」といったメッセージが表示される。その際、表示領域1401には、警告マーク1405が表示される。このように、複数の表示形態の組み合わせにより、車両107の搭乗者に対して、車両105の前方の道路状態をより容易に認識させることができる。 Further, in the display area 1401, it is graphically displayed that the road turns to the left. If the server 101 determines that the road in front of the vehicle 105 is uphill to the left and the road surface is extremely uneven, as in the display area 1404, "uphill to the left". A message such as "Please be careful about unevenness." Is displayed. At that time, the warning mark 1405 is displayed in the display area 1401. In this way, the combination of the plurality of display modes makes it possible for the passenger of the vehicle 107 to more easily recognize the road condition in front of the vehicle 105.

S203において、プロセッサ301は、通知制御データ送信部306により、サーバ101から受信した通知制御データから、車両107の通知部215で通知可能な通知制御データを生成し、車両107に送信する。例えば、車両107の通知部215が左方向と右方向のいずれかをLEDにより通知する構成であれば、プロセッサ301は、通知制御データ送信部306により、サーバ101から受信した通知制御データから、矢印マーク1402、1403に対応する点灯信号を通知制御データとして車両107に送信する。 In S203, the processor 301 generates notification control data that can be notified by the notification unit 215 of the vehicle 107 from the notification control data received from the server 101 by the notification control data transmission unit 306, and transmits the notification control data to the vehicle 107. For example, if the notification unit 215 of the vehicle 107 is configured to notify either the left direction or the right direction by an LED, the processor 301 uses an arrow from the notification control data received from the server 101 by the notification control data transmission unit 306. The lighting signal corresponding to the marks 1402 and 1403 is transmitted to the vehicle 107 as notification control data.

S204において、プロセッサ301は、表示制御部305により、サーバ101から受信した通知制御データに基づいて、表示部311に表示させる。S204では、例えば、表示画面1400が表示される。S204の後、S201からの処理を繰り返す。 In S204, the processor 301 causes the display unit 311 to display the notification control data received from the server 101 by the display control unit 305. In S204, for example, the display screen 1400 is displayed. After S204, the process from S201 is repeated.

上記では、S203においてプロセッサ301が、サーバ101から受信した通知制御データから、車両107での通知制御に用いられる通知制御データを生成すると説明した。しかしながら、プロセッサ301は、サーバ101から受信した通知制御データを車両107に転送するようにしても良い。その場合、車両107の通知制御部203が、携帯型端末106から受信した通知制御データから、通知部215で通知可能な通知制御データを生成する。 In the above, it has been described that the processor 301 in S203 generates the notification control data used for the notification control in the vehicle 107 from the notification control data received from the server 101. However, the processor 301 may transfer the notification control data received from the server 101 to the vehicle 107. In that case, the notification control unit 203 of the vehicle 107 generates notification control data that can be notified by the notification unit 215 from the notification control data received from the portable terminal 106.

また、上記では、S204で表示を行うと説明したが、S204の処理を行わずに、S203の後、S201からの処理を繰り返すようにしても良い。また、S204での表示を行うか否かを車両107の搭乗者が携帯型端末106の表示部311に表示されるユーザインタフェース画面上で設定可能としても良い。そのような構成により、例えば、携帯型端末106が車両107にアタッチメントで取り付けられている場合には、S204で表示を行い、携帯型端末106が車両107の搭乗者のバッグ等に収納されている場合には、S204で表示を行わないといった表示制御を可能とする。 Further, although it has been described above that the display is performed in S204, the processing from S201 may be repeated after S203 without performing the processing in S204. Further, whether or not to display in S204 may be set by the passenger of the vehicle 107 on the user interface screen displayed on the display unit 311 of the portable terminal 106. With such a configuration, for example, when the portable terminal 106 is attached to the vehicle 107 by an attachment, the display is performed by S204, and the portable terminal 106 is stored in the bag or the like of the passenger of the vehicle 107. In this case, it is possible to control the display such that the display is not performed in S204.

図11は、サーバ101において実行される処理を示すフローチャートである。図11の処理は、例えば、プロセッサ401がメモリ402上でプログラムを実行することにより実現される。 FIG. 11 is a flowchart showing a process executed by the server 101. The process of FIG. 11 is realized, for example, by the processor 401 executing a program on the memory 402.

S301において、プロセッサ401は、撮像データ受信部403により、携帯型端末106から撮像データを受信する。そして、S302において、プロセッサ401は、画像処理部404により、S301で受信した撮像データに対して前処理を実行する。ここでは、前処理として、撮像データの揺れの補正が行われる。プロセッサ401は、その際の補正量をメモリ402等の記憶領域に格納する。 In S301, the processor 401 receives the image pickup data from the portable terminal 106 by the image pickup data receiving unit 403. Then, in S302, the processor 401 executes preprocessing on the image pickup data received in S301 by the image processing unit 404. Here, as a preprocessing, the fluctuation of the imaging data is corrected. The processor 401 stores the correction amount at that time in a storage area such as the memory 402.

S303において、プロセッサ401は、画像認識部405により、画像認識を行い、S304において、前方に車両105があるか否かを判定する。S304で前方に車両105がないと判定された場合には、S301からの処理を繰り返す。一方、前方に車両105があると判定された場合には、S305に進む。 In S303, the processor 401 performs image recognition by the image recognition unit 405, and in S304, determines whether or not the vehicle 105 is in front. If it is determined in S304 that there is no vehicle 105 in front, the process from S301 is repeated. On the other hand, if it is determined that the vehicle 105 is in front, the process proceeds to S305.

S305において、プロセッサ401は、撮像データの車両画像に変化があるか否かを判定する。例えば、車両105と車両107が縦列で直進している場合には、車両画像には変化が現れないので、S305で車両画像に変化がないと判定され、S301からの処理を繰り返す。一方、車両画像に変化があると判定された場合には、S306に進む。 In S305, the processor 401 determines whether or not there is a change in the vehicle image of the captured data. For example, when the vehicle 105 and the vehicle 107 are parallel and straight, no change appears in the vehicle image, so it is determined in S305 that there is no change in the vehicle image, and the process from S301 is repeated. On the other hand, if it is determined that there is a change in the vehicle image, the process proceeds to S306.

S305の判定においては、以下のような基準を設けても良い。例えば、縦列で直進している場合であっても、車両105と車両107の車間距離が長くなると車両画像は縮小され、車間距離が短くなると車両画像は拡大され、その結果、S305で車両画像に変化があると判定されてしまう。そこで、車両画像が変化した場合であっても、そのアスペクト比の変化が所定の範囲内であれば、車両画像に変化がないと判定する。そのような構成により、車間距離の変動による誤判定を防ぐことができる。 In the determination of S305, the following criteria may be set. For example, even when parallel parking is performed, the vehicle image is reduced when the distance between the vehicles 105 and 107 is long, and the vehicle image is enlarged when the distance between the vehicles is short. As a result, the vehicle image is displayed in S305. It will be determined that there is a change. Therefore, even if the vehicle image changes, if the change in the aspect ratio is within a predetermined range, it is determined that there is no change in the vehicle image. With such a configuration, it is possible to prevent erroneous determination due to fluctuations in the inter-vehicle distance.

S306において、プロセッサ401は、画像分析部406により、車両画像の変化を分析する。例えば、プロセッサ401は、図6で説明したような車両画像の外郭形状の変化を分析する。また、例えば、プロセッサ401は、図5(b)、図7(b)で説明したようなオブジェクトの変形、移動を分析する。 In S306, the processor 401 analyzes changes in the vehicle image by the image analysis unit 406. For example, the processor 401 analyzes changes in the outer shape of the vehicle image as described in FIG. Further, for example, the processor 401 analyzes the deformation and movement of the object as described with reference to FIGS. 5 (b) and 7 (b).

S307において、プロセッサ401は、挙動推定部407により、車両105の挙動を推定する。S307の処理については後述する。S308において、プロセッサ401は、道路状態推定部408により、車両105の前方の道路状態を推定する。S308の処理については後述する。 In S307, the processor 401 estimates the behavior of the vehicle 105 by the behavior estimation unit 407. The processing of S307 will be described later. In S308, the processor 401 estimates the road condition in front of the vehicle 105 by the road condition estimation unit 408. The processing of S308 will be described later.

S309において、プロセッサ401は、S308での推定結果に基づいて、通知制御データを生成する。S309で生成される通知制御データとは、例えば、図15の表示画面1400を表示させるための表示データである。S310において、プロセッサ401は、通知制御データ送信部409により、S309で生成された通知制御データを携帯型端末106に送信する。S310の後、図11の処理を終了する。 In S309, the processor 401 generates notification control data based on the estimation result in S308. The notification control data generated in S309 is, for example, display data for displaying the display screen 1400 of FIG. In S310, the processor 401 transmits the notification control data generated in S309 to the portable terminal 106 by the notification control data transmission unit 409. After S310, the process of FIG. 11 is terminated.

図12は、S307の挙動推定の処理を示すフローチャートである。S401において、プロセッサ401は、S306における分析結果のうち水平方向の変化量を検出し、S402において、水平方向の変化量が、左旋回と推定し得る条件を満たすか否かを判定する。例えば、車両105の車両画像の外郭形状について、図6の車両画像602のように、車両画像601の側壁に対応する基準線620に対して、左方向への変形度合いが右方向への変形度合いよりも大きい場合には、左旋回と推定し得る条件を満たすと判定する。また、例えば、車両画像510のオブジェクト516と513の相対位置について、図5(b)の上段の対応するオブジェクト518及び515に示すように、オブジェクト516がオブジェクト513の右端に寄っていく場合には、左旋回と推定し得る条件を満たすと判定する。 FIG. 12 is a flowchart showing the process of estimating the behavior of S307. In S401, the processor 401 detects the amount of change in the horizontal direction from the analysis results in S306, and in S402, determines whether or not the amount of change in the horizontal direction satisfies a condition that can be presumed to be a left turn. For example, regarding the outer shape of the vehicle image of the vehicle 105, as shown in the vehicle image 602 of FIG. 6, the degree of deformation to the left is the degree of deformation to the right with respect to the reference line 620 corresponding to the side wall of the vehicle image 601. If it is larger than, it is determined that the condition that can be presumed to be a left turn is satisfied. Further, for example, when the relative positions of the objects 516 and 513 of the vehicle image 510 are moved toward the right end of the object 513 as shown in the corresponding objects 518 and 515 in the upper part of FIG. 5B. , It is determined that the condition that can be presumed to be a left turn is satisfied.

S402で左旋回と推定し得る条件を満たすと判定された場合、S403に進み、左旋回と推定し得る条件を満たさないと判定された場合、図13のS421へ進む。 If it is determined in S402 that the condition that can be estimated to be a left turn is satisfied, the process proceeds to S403, and if it is determined that the condition that can be estimated to be a left turn is not satisfied, the process proceeds to S421 in FIG.

S403において、プロセッサ401は、S306における分析結果のうち垂直方向の変化量を検出し、S404において、垂直方向の変化量が、登坂と推定し得る条件を満たすか否かを判定する。例えば、車両105の車両画像の外郭形状について、図6の車両画像603のように、車両画像601の底辺に対応する基準線621を含んで、上方向への変形度合いが閾値よりも大きい場合には、登坂と推定し得る条件を満たすと判定する。また、例えば、図7(b)の上段に示すように、オブジェクト713が出現した場合には、登坂と推定し得る条件を満たすと判定する。 In S403, the processor 401 detects the amount of change in the vertical direction from the analysis results in S306, and in S404, determines whether or not the amount of change in the vertical direction satisfies the condition that can be presumed to be climbing. For example, when the outer shape of the vehicle image of the vehicle 105 includes the reference line 621 corresponding to the bottom of the vehicle image 601 and the degree of upward deformation is larger than the threshold value, as shown in the vehicle image 603 of FIG. Determines that the condition that can be presumed to be climbing is satisfied. Further, for example, as shown in the upper part of FIG. 7B, when the object 713 appears, it is determined that the condition that can be presumed to be climbing is satisfied.

S404で登坂と推定し得る条件を満たすと判定された場合、S406において、プロセッサ401は、車両105は左方向に登坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図12の処理を終了する。一方、S404で登坂と推定し得る条件を満たさないと判定された場合、S405に進む。 When it is determined in S404 that the condition that can be estimated as climbing is satisfied, in S406, the processor 401 estimates that the vehicle 105 is in a state of climbing to the left, and stores the estimation result in a storage area such as a memory 402. do. After that, the process of FIG. 12 is terminated. On the other hand, if it is determined in S404 that the condition that can be presumed to be climbing is not satisfied, the process proceeds to S405.

S405において、プロセッサ401は、垂直方向の変化量が、降坂と推定し得る条件を満たすか否かを判定する。例えば、車両105の車両画像の外郭形状について、図6の車両画像604のように、車両画像601の底辺に対応する基準線622を含んで、下方向への変形度合いが閾値よりも大きい場合には、降坂と推定し得る条件を満たすと判定する。また、例えば、図7(a)のオブジェクト712が消失した場合には、降坂と推定し得る条件を満たすと判定する。 In S405, the processor 401 determines whether or not the amount of change in the vertical direction satisfies a condition that can be presumed to be a downhill. For example, when the outer shape of the vehicle image of the vehicle 105 includes the reference line 622 corresponding to the bottom of the vehicle image 601 and the degree of downward deformation is larger than the threshold value, as shown in the vehicle image 604 of FIG. Determines that the condition that can be presumed to be a downhill condition is satisfied. Further, for example, when the object 712 of FIG. 7A disappears, it is determined that the condition that can be presumed to be a downhill condition is satisfied.

S405で降坂と推定し得る条件を満たすと判定された場合、S407において、プロセッサ401は、車両105は左方向に降坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図12の処理を終了する。一方、S405で降坂と推定し得る条件を満たさないと判定された場合、S408において、プロセッサ401は、車両105は左旋回の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図12の処理を終了する。 When it is determined in S405 that the condition that can be estimated to be downhill is satisfied, in S407, the processor 401 estimates that the vehicle 105 is in a downhill state to the left, and the estimation result is stored in a storage area such as a memory 402. Store in. After that, the process of FIG. 12 is terminated. On the other hand, when it is determined in S405 that the condition that can be estimated as a downhill is not satisfied, in S408, the processor 401 estimates that the vehicle 105 is in a left turn state, and the estimation result is stored in a storage area such as a memory 402. Store in. After that, the process of FIG. 12 is terminated.

S402で左旋回と推定し得る条件を満たさないと判定された場合、図13のS421において、プロセッサ401は、S306における分析結果のうち水平方向の変化量が、右旋回と推定し得る条件を満たすか否かを判定する。例えば、車両105の車両画像の外郭形状について、図6の車両画像601の側壁に対応する基準線620に対して、右方向への変形度合いが左方向への変形度合いよりも大きい場合には、右旋回と推定し得る条件を満たすと判定する。また、例えば、車両画像510のオブジェクト516と513の相対位置について、オブジェクト516がオブジェクト513の左端に寄っていく場合には、右旋回と推定し得る条件を満たすと判定する。 When it is determined in S402 that the condition that can be estimated to be a left turn is not satisfied, in S421 of FIG. 13, the processor 401 sets the condition that the amount of change in the horizontal direction in the analysis result in S306 can be estimated to be a right turn. Determine if it meets or not. For example, regarding the outer shape of the vehicle image of the vehicle 105, when the degree of deformation to the right is larger than the degree of deformation to the left with respect to the reference line 620 corresponding to the side wall of the vehicle image 601 of FIG. It is determined that the condition that can be presumed to be a right turn is satisfied. Further, for example, with respect to the relative positions of the objects 516 and 513 of the vehicle image 510, when the object 516 approaches the left end of the object 513, it is determined that the condition that can be presumed to be a right turn is satisfied.

S421で右旋回と推定し得る条件を満たすと判定された場合、S422に進み、右旋回と推定し得る条件を満たさないと判定された場合、S428へ進む。 If it is determined in S421 that the condition that can be estimated to be a right turn is satisfied, the process proceeds to S422, and if it is determined that the condition that can be estimated to be a right turn is not satisfied, the process proceeds to S428.

S422において、プロセッサ401は、S306における分析結果のうち垂直方向の変化量を検出し、S423において、S405と同様に、垂直方向の変化量が、登坂と推定し得る条件を満たすか否かを判定する。 In S422, the processor 401 detects the amount of change in the vertical direction from the analysis results in S306, and in S423, as in S405, determines whether or not the amount of change in the vertical direction satisfies the condition that can be estimated to be climbing. do.

S423で登坂と推定し得る条件を満たすと判定された場合、S425において、プロセッサ401は、車両105は右方向に登坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。一方、S423で登坂と推定し得る条件を満たさないと判定された場合、S424において、プロセッサ401は、S406と同様に、垂直方向の変化量が、降坂と推定し得る条件を満たすか否かを判定する。 When it is determined in S423 that the condition that can be presumed to be climbing is satisfied, in S425, the processor 401 estimates that the vehicle 105 is climbing to the right, and stores the estimation result in a storage area such as a memory 402. do. After that, the process of FIG. 13 is terminated. On the other hand, if it is determined in S423 that the condition that can be estimated as climbing is not satisfied, in S424, whether or not the amount of change in the vertical direction satisfies the condition that can be estimated as descending, as in S406. To judge.

S424で降坂の条件を満たすと判定された場合、S426において、プロセッサ401は、車両105は右方向に降坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。一方、S424で降坂と推定し得る条件を満たさないと判定された場合、S427において、プロセッサ401は、車両105は右旋回の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。 When it is determined in S424 that the condition for descending a slope is satisfied, in S426, the processor 401 estimates that the vehicle 105 is in a state of descending to the right, and stores the estimation result in a storage area such as a memory 402. .. After that, the process of FIG. 13 is terminated. On the other hand, when it is determined in S424 that the condition that can be estimated as a downhill is not satisfied, in S427, the processor 401 estimates that the vehicle 105 is in a right-turning state, and stores the estimation result in the memory 402 or the like. Store in the area. After that, the process of FIG. 13 is terminated.

S421で右旋回と推定し得る条件を満たさないと判定された場合、S428において、プロセッサ401は、S306における分析結果のうち垂直方向の変化量を検出し、S429において、S405と同様に、垂直方向の変化量が、登坂と推定し得る条件を満たすか否かを判定する。 When it is determined in S421 that the condition that can be presumed to be a right turn is not satisfied, in S428, the processor 401 detects the amount of change in the vertical direction among the analysis results in S306, and in S429, similarly to S405, is vertical. It is determined whether or not the amount of change in direction satisfies the condition that can be presumed to be climbing.

S429で登坂の条件を満たすと判定された場合、S430において、プロセッサ401は、車両105は登坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。一方、S429で登坂と推定し得る条件を満たさないと判定された場合、S431において、プロセッサ401は、車両105は降坂の状態であると推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図13の処理を終了する。 When it is determined in S429 that the condition for climbing a slope is satisfied, in S430, the processor 401 estimates that the vehicle 105 is in a climbing state, and stores the estimation result in a storage area such as a memory 402. After that, the process of FIG. 13 is terminated. On the other hand, when it is determined in S429 that the condition that can be estimated to be uphill is not satisfied, in S431, the processor 401 estimates that the vehicle 105 is in a downhill state, and the estimation result is stored in the storage area such as the memory 402. Store. After that, the process of FIG. 13 is terminated.

図14は、S308の道路状態推定の処理を示すフローチャートである。S501において、プロセッサ401は、メモリ402等の記憶領域からS307の挙動推定の結果を取得する。 FIG. 14 is a flowchart showing the process of estimating the road condition of S308. In S501, the processor 401 acquires the result of the behavior estimation of S307 from the storage area such as the memory 402.

S502において、プロセッサ401は、挙動推定の結果に基づいて、車両105の前方の道路の方向を推定する。例えば、S406で車両105が左方向に登坂の状態であると推定された場合、車両105の前方の道路の方向を左方向に上り坂と推定する。また、S407で車両105が左方向に降坂の状態であると推定された場合、車両105の前方の道路の方向を左方向に下り坂と推定する。また、S408で車両105が左旋回の状態であると推定された場合、車両105の前方の道路の方向を左方向(登坂・降坂なし)と推定する。また、S425で車両105が右方向に登坂の状態であると推定された場合、車両105の前方の道路の方向を右方向に上り坂と推定する。また、S426で車両105が右方向に降坂の状態であると推定された場合、車両105の前方の道路の方向を右方向に下り坂と推定する。また、S427で車両105が右旋回の状態であると推定された場合、車両105の前方の道路の方向を右方向(登坂・降坂なし)と推定する。また、S430で車両105が登坂の状態であると推定された場合、車両105の前方の道路の方向を上り坂(直進)と推定する。また、S431で車両105が降坂の状態であると推定された場合、車両105の前方の道路の方向を下り坂(直進)と推定する。プロセッサ401は、S502での推定結果をメモリ402等の記憶領域に格納する。 In S502, the processor 401 estimates the direction of the road ahead of the vehicle 105 based on the result of the behavior estimation. For example, when it is estimated in S406 that the vehicle 105 is climbing to the left, the direction of the road in front of the vehicle 105 is estimated to be uphill to the left. Further, when it is estimated in S407 that the vehicle 105 is in a state of descending to the left, the direction of the road in front of the vehicle 105 is estimated to be a downward slope to the left. Further, when it is estimated in S408 that the vehicle 105 is in a state of turning left, the direction of the road in front of the vehicle 105 is estimated to be the left direction (no uphill / downhill). Further, when it is estimated in S425 that the vehicle 105 is in a state of climbing to the right, the direction of the road in front of the vehicle 105 is estimated to be an uphill to the right. Further, when it is estimated in S426 that the vehicle 105 is in a state of descending to the right, the direction of the road in front of the vehicle 105 is estimated to be descending to the right. Further, when it is estimated in S427 that the vehicle 105 is in a right-turning state, the direction of the road in front of the vehicle 105 is estimated to be the right direction (no uphill / downhill). Further, when it is estimated in S430 that the vehicle 105 is in an uphill state, the direction of the road in front of the vehicle 105 is estimated to be an uphill (straight ahead). Further, when it is estimated in S431 that the vehicle 105 is in a downhill state, the direction of the road in front of the vehicle 105 is estimated to be downhill (straight ahead). The processor 401 stores the estimation result in S502 in a storage area such as a memory 402.

S503において、プロセッサ401は、S302でメモリ402等の記憶領域に格納された撮像データの揺れの補正量を取得し、その補正量に基づいて道路の形状を推定し、その推定結果をメモリ402等の記憶領域に格納する。例えば、プロセッサ401は、補正量を複数段階に分類分けし、路面の凹凸状態のレベル分けを行うようにしても良い。その場合、図15の表示領域1404の道路の形状についてのメッセージでは、レベル分けされた路面の凹凸状態それぞれに対応するメッセージが表示されるようにしても良い。その際、警告マーク1405についても、レベル分けされた路面の凹凸状態それぞれに対応するマークが表示されるようにしても良い。 In S503, the processor 401 acquires the correction amount of the shaking of the image pickup data stored in the storage area such as the memory 402 in S302, estimates the shape of the road based on the correction amount, and uses the estimation result as the memory 402 or the like. Store in the storage area of. For example, the processor 401 may classify the correction amount into a plurality of stages and classify the uneven state of the road surface into levels. In that case, in the message about the shape of the road in the display area 1404 of FIG. 15, a message corresponding to each level-divided uneven state of the road surface may be displayed. At that time, as for the warning mark 1405, the mark corresponding to each level-divided uneven state of the road surface may be displayed.

以上のように、本実施形態によれば、前方を走行する車両の撮像画像に基づいて、その車両の前方の道路の状態を推定することができる。そのような構成により、例えば、ナビゲーション機能が十分に機能しないような地域であっても、道路状態を通知することができ、車両107の搭乗者に対して余裕を持たせることができる。また、例えば、砂利道や自然道など道路の舗装が十分でない地域において、車両105と車両107が直進の道路を縦列で走行している場合に、車両105の前方の路上に大きな亀裂が生じているとする。そのようなケースにおいて、車両105は、亀裂を回避するため、例えば左に旋回しながら走行することが想定される。その場合、本実施形態によれば、実際の道路は直進であるものの、S103、S204では、車両105の挙動に基づいて、道路の方向が左であることが通知される。そのため、車両107は、その通知に従うことで、車両105が実際に走行可能な経路上を進むことができ、亀裂を回避することができる。 As described above, according to the present embodiment, it is possible to estimate the state of the road in front of the vehicle based on the captured image of the vehicle traveling ahead. With such a configuration, for example, even in an area where the navigation function does not function sufficiently, the road condition can be notified, and the passenger of the vehicle 107 can have a margin. Further, for example, in an area where the road is not sufficiently paved, such as a gravel road or a natural road, when the vehicle 105 and the vehicle 107 are traveling in a straight line on a straight road, a large crack occurs on the road in front of the vehicle 105. Suppose you are. In such a case, the vehicle 105 is assumed to travel while turning, for example, to the left in order to avoid cracks. In that case, according to the present embodiment, although the actual road is straight, in S103 and S204, it is notified that the direction of the road is to the left based on the behavior of the vehicle 105. Therefore, by following the notification, the vehicle 107 can travel on the route where the vehicle 105 can actually travel, and can avoid cracks.

上記では、車両105の旋回方向として左右のいずれかのみを推定するとして説明したが、例えば、オブジェクト513、514、515の傾きからロール角を推定し、そのロール角と、車両105の車両画像の外郭形状の水平方向の変化とに基づいて、道路のRの程度を推定して通知内容に含めるようにしても良い。また、上記では、車両105の登坂もしくは降坂のみをのみを推定するとして説明したが、例えば、オブジェクト713の出現もしくはオブジェクト712の消失とに基づいて、ピッチ角を推定し、そのピッチ角と、車両105車両画像の外郭形状の垂直方向の変化とに基づいて、道路の傾斜の程度を推定して通知内容に含めるようにしても良い。 In the above, it has been described that only one of the left and right is estimated as the turning direction of the vehicle 105. For example, the roll angle is estimated from the inclination of the objects 513, 514, and 515, and the roll angle and the vehicle image of the vehicle 105 are estimated. The degree of R of the road may be estimated and included in the notification content based on the horizontal change in the outer shape. Further, in the above description, only the uphill or downhill of the vehicle 105 is estimated, but for example, the pitch angle is estimated based on the appearance of the object 713 or the disappearance of the object 712, and the pitch angle and the pitch angle are used. The degree of inclination of the road may be estimated and included in the notification content based on the vertical change of the outer shape of the vehicle 105 vehicle image.

本実施形態では、車両107に通知制御部203および通知部215が設けられている構成を説明したが、他の構成が用いられても良い。例えば、車両107の搭乗者のヘルメットが通信モジュールとヘッドアップディスプレイを有する場合、そのヘルメットに制御部200に相当する構成が設けられても良い。その場合、携帯型端末106の通知制御データ送信部306は、通知制御データをヘルメットの通知制御部に送信し、通知部としてのヘッドアップディスプレイ上に、図15の表示画面1400に対応する情報を表示するようにしても良い。また、ヘルメットにカメラ機能が登載されている場合には、撮像部216や撮像部315の代わりに、ヘルメットのカメラ機能が用いられても良い。 In the present embodiment, the configuration in which the notification control unit 203 and the notification unit 215 are provided in the vehicle 107 has been described, but other configurations may be used. For example, when the helmet of the passenger of the vehicle 107 has a communication module and a head-up display, the helmet may be provided with a configuration corresponding to the control unit 200. In that case, the notification control data transmission unit 306 of the portable terminal 106 transmits the notification control data to the notification control unit of the helmet, and the information corresponding to the display screen 1400 of FIG. 15 is displayed on the head-up display as the notification unit. It may be displayed. Further, when the camera function is mounted on the helmet, the camera function of the helmet may be used instead of the image pickup unit 216 and the image pickup unit 315.

[第2実施形態]
第1実施形態では、車両105の車両画像の外郭形状の変化や、車両105の車両画像のオブジェクトの変化に基づいて、車両の挙動を推定することを説明した。しかしながら、車両105の手前に障害物が重なったために、車両105の車両画像の外郭形状やオブジェクトが認識できなくなるケースがあり得る。以下、第2実施形態について、第1実施形態と異なる点について説明する。
[Second Embodiment]
In the first embodiment, it has been described that the behavior of the vehicle is estimated based on the change of the outer shape of the vehicle image of the vehicle 105 and the change of the object of the vehicle image of the vehicle 105. However, there may be a case where the outer shape or the object of the vehicle image of the vehicle 105 cannot be recognized because the obstacle overlaps in front of the vehicle 105. Hereinafter, the second embodiment will be described with respect to the differences from the first embodiment.

図17は、車両1601が樹木1602の奥側を回って左折する様子を示す図である。車両1601は、図1の車両105に対応する。図17の中段では、左ミラー、タイヤのオブジェクトが樹木1602に隠れてしまい、また、図17の中段、上段では、車両1602の車両画像の外郭形状が欠けてしまっている。即ち、図17に示すケースでは、車両画像の変化を適切に認識することができない。また、鞍乗り型二輪車両107の場合、搭乗者は、ヘルメットのために視界が狭くなり、近づいた樹木1602が見え難くなる場合がある。 FIG. 17 is a diagram showing a vehicle 1601 turning left around the back side of the tree 1602. The vehicle 1601 corresponds to the vehicle 105 in FIG. In the middle row of FIG. 17, the objects of the left mirror and the tire are hidden by the tree 1602, and in the middle row and the upper row of FIG. 17, the outer shape of the vehicle image of the vehicle 1602 is missing. That is, in the case shown in FIG. 17, changes in the vehicle image cannot be properly recognized. Further, in the case of the saddle-riding type two-wheeled vehicle 107, the passenger may have a narrow field of view due to the helmet, and it may be difficult for the passenger to see the approaching tree 1602.

本実施形態では、車両105の車両画像以外に、大きさが変化しているオブジェクトがあれば、そのオブジェクトを障害物と認識し、車両105の車両画像との重なりに基づいて、車両105の挙動を推定する。その結果、車両105が障害物の奥側に回り込んだとしても、道路の進行方向を車両107の搭乗者に通知することができる。 In the present embodiment, if there is an object whose size is changing other than the vehicle image of the vehicle 105, the object is recognized as an obstacle, and the behavior of the vehicle 105 is based on the overlap with the vehicle image of the vehicle 105. To estimate. As a result, even if the vehicle 105 goes around to the back of the obstacle, the passenger of the vehicle 107 can be notified of the traveling direction of the road.

図16は、本実施形態におけるS307の挙動推定の処理を示すフローチャートである。S601において、プロセッサ401は、車両105の車両画像以外のオブジェクトを認識したか否かを判定する。ここでの車両画像以外のオブジェクトとは、撮像データ上でのサイズの変化が大きいオブジェクトであり、例えば、道路脇の樹木等が該当する。車両画像以外のオブジェクトを認識していないと判定された場合、図12のS401に進む。一方、車両画像以外のオブジェクトを認識していると判定された場合、S602に進む。 FIG. 16 is a flowchart showing the process of estimating the behavior of S307 in the present embodiment. In S601, the processor 401 determines whether or not an object other than the vehicle image of the vehicle 105 is recognized. The object other than the vehicle image here is an object whose size changes greatly on the captured data, and corresponds to, for example, a tree on the side of a road. If it is determined that the object other than the vehicle image is not recognized, the process proceeds to S401 in FIG. On the other hand, if it is determined that the object other than the vehicle image is recognized, the process proceeds to S602.

S602において、プロセッサ401は、S601で認識されたオブジェクト(以下、障害物オブジェクトという)と、車両105の車両画像との重なりを検出したか否かを判定する。重なりを検出していないと判定された場合、図12のS401に進む。但し、S401に進んで図12及び図13の処理が行われている間でも、S602の判定処理は並行して実行される。 In S602, the processor 401 determines whether or not the overlap between the object recognized in S601 (hereinafter referred to as an obstacle object) and the vehicle image of the vehicle 105 is detected. If it is determined that no overlap has been detected, the process proceeds to S401 in FIG. However, the determination process of S602 is executed in parallel even while the process of FIGS. 12 and 13 is being performed in the process of proceeding to S401.

S602で重なりを検出したと判定された場合、S603において、プロセッサ401は、車両105の挙動を推定する。例えば、車両画像が障害物オブジェクトの上に重なっている場合には、車両画像を認識可能であるため、図12及び図13の処理によって車両105の挙動が推定される。一方、障害物オブジェクトが車両画像の上に重なっている場合には、重なりが生じた障害物オブジェクトの方向へ車両105が旋回したと推定し、その推定結果をメモリ402等の記憶領域に格納する。その後、図16の処理を終了する。 When it is determined in S602 that the overlap is detected, in S603, the processor 401 estimates the behavior of the vehicle 105. For example, when the vehicle image is superimposed on the obstacle object, the vehicle image can be recognized, so that the behavior of the vehicle 105 is estimated by the processing of FIGS. 12 and 13. On the other hand, when the obstacle object overlaps the vehicle image, it is estimated that the vehicle 105 has turned in the direction of the overlapping obstacle object, and the estimation result is stored in a storage area such as a memory 402. .. After that, the process of FIG. 16 is terminated.

S603を介してS309で通知制御データを生成する際には、障害物オブジェクトの存在を通知するメッセージや画像を表示するようにしても良い。そのような構成により、ヘルメットを着用した鞍乗り型二輪車両107の搭乗者に対して、近づいた障害物の存在を通知することができる。また、S603より前の時点で、S430やS431で登坂状態や降坂状態が推定されていた場合には、それらの推定結果と組み合わせて通知するようにしても良い。上記のS603では車両105の登坂や降坂の状態を推定していないが、従前の推定結果と組み合わせることにより、登坂や降坂を推定することが可能となる。 When the notification control data is generated in S309 via S603, a message or an image notifying the existence of the obstacle object may be displayed. With such a configuration, it is possible to notify the passenger of the saddle-riding type two-wheeled vehicle 107 wearing a helmet of the presence of an approaching obstacle. Further, if the uphill state or the downhill state is estimated in S430 or S431 before S603, the notification may be made in combination with the estimation result. In the above S603, the uphill and downhill states of the vehicle 105 are not estimated, but by combining with the previous estimation results, it is possible to estimate the uphill and downhill states.

以上の各実施形態においては、車両107、携帯型端末106、サーバ101のシステム構成として説明したが、他の構成でも良い。例えば、四輪車両107内に一体的に構成されてリアルタイム性を向上させるようにしても良い。 In each of the above embodiments, the system configuration of the vehicle 107, the portable terminal 106, and the server 101 has been described, but other configurations may be used. For example, it may be integrally configured in the four-wheeled vehicle 107 to improve real-time performance.

<実施形態のまとめ>
上記実施形態の走行支援システムは、車両の走行を支援する走行支援システムであって、撮像手段(216、315)により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得手段(S301)と、前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段(S307)と、前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段(S308)と、前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段(S310)と、を備えることを特徴とする。
<Summary of embodiments>
The travel support system of the above embodiment is a travel support system that supports the travel of the vehicle, and acquires image data of peripheral vehicles located in the traveling direction of the vehicle, which are imaged by the image pickup means (216, 315). The acquisition means (S301), the first estimation means (S307) for estimating the behavior of the peripheral vehicle based on the imaging data acquired by the acquisition means, and the peripheral vehicle estimated by the first estimation means. A second estimation means (S308) that estimates the road condition in the traveling direction of the vehicle based on the behavior of the vehicle, and a notification means (S310) that notifies the road condition in the traveling direction of the vehicle estimated by the second estimation means. ) And.

そのような構成により、車両の進行方向に位置する周辺車両の挙動に基づいて、進行方向の道路状態を推定することができる。 With such a configuration, it is possible to estimate the road condition in the traveling direction based on the behavior of peripheral vehicles located in the traveling direction of the vehicle.

また、前記周辺車両の挙動は、右旋回、左旋回を含む(S402、S421)、ことを特徴とする。 Further, the behavior of the peripheral vehicle is characterized by including right turn and left turn (S402, S421).

そのような構成により、車両の挙動の旋回方向に基づいて、道路の方向を推定することができる。 With such a configuration, the direction of the road can be estimated based on the turning direction of the behavior of the vehicle.

また、前記周辺車両の挙動は、登坂、降坂を含む(S404、S405、S423、S424、S429)ことを特徴とする。 Further, the behavior of the peripheral vehicle is characterized by including uphill and downhill (S404, S405, S423, S424, S429).

そのような構成により、車両の登坂、降坂に基づいて、道路の方向を推定することができる。 With such a configuration, the direction of the road can be estimated based on the uphill and downhill of the vehicle.

また、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像のオブジェクトの変化(図5(b)、図7(b))に基づいて、前記周辺車両の挙動を推定することを特徴とする。また、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像のオブジェクトの縦横比の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする。また、前記オブジェクトは、前記周辺車両のタイヤ、ミラー、ナンバープレートのうち少なくともいずれかを含むことを特徴とする。また、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像の外郭形状の変化(図6)に基づいて、前記周辺車両の挙動を推定することを特徴とする。 Further, the first estimation means has the behavior of the peripheral vehicle based on the change of the object of the vehicle image of the peripheral vehicle in the captured image of the captured data (FIGS. 5 (b) and 7 (b)). Is characterized by estimating. Further, the first estimation means is characterized in that the behavior of the peripheral vehicle is estimated based on the change in the aspect ratio of the object of the vehicle image of the peripheral vehicle in the captured image of the captured data. Further, the object is characterized by including at least one of a tire, a mirror, and a license plate of the peripheral vehicle. Further, the first estimation means is characterized in that, among the captured images of the captured data, the behavior of the peripheral vehicle is estimated based on the change in the outer shape of the vehicle image of the peripheral vehicle (FIG. 6). ..

そのような構成により、例えば、車両画像の水平方向、垂直方向の変化に基づいて、道路の方向を推定することができる。また、例えば、縦横比の変化など簡易な画像の変化であっても、道路の方向を推定することができる。また、例えば、車両画像上のタイヤ、ミラー、ナンバープレートの変化に基づいて、道路の方向を推定することができる。 With such a configuration, the direction of the road can be estimated based on, for example, changes in the horizontal direction and the vertical direction of the vehicle image. Further, the direction of the road can be estimated even for a simple image change such as a change in aspect ratio. Further, for example, the direction of the road can be estimated based on the change of the tire, the mirror, and the license plate on the vehicle image.

また、前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像(1602)の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする。 Further, the first estimation means is characterized in that the behavior of the peripheral vehicle is estimated based on the change of the image (1602) different from the vehicle image of the peripheral vehicle among the captured images of the captured data.

そのような構成により、例えば、道路の脇にある樹木の画像と車両画像との重なりに基づいて、車両の旋回方向を推定することができる。 With such a configuration, for example, the turning direction of the vehicle can be estimated based on the overlap between the image of the tree on the side of the road and the image of the vehicle.

また、前記撮像手段は、前記車両とともに移動する端末に構成されていることを特徴とする。 Further, the image pickup means is characterized in that it is configured as a terminal that moves with the vehicle.

そのような構成により、例えば、車両の搭乗者の保持する携帯型端末のカメラにより撮像された撮像データに基づいて、周辺車両の挙動を推定することができる。 With such a configuration, for example, the behavior of a peripheral vehicle can be estimated based on the image pickup data captured by the camera of the portable terminal held by the passenger of the vehicle.

また、前記車両は、鞍乗り型車両であることを特徴とする。そのような構成により、車両が鞍乗り型車両である場合にも、走行支援システムの動作を適用することができる。 Further, the vehicle is characterized by being a saddle-riding type vehicle. With such a configuration, the operation of the travel support system can be applied even when the vehicle is a saddle-riding vehicle.

発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。 The invention is not limited to the above embodiment, and various modifications and changes can be made within the scope of the gist of the invention.

100 走行支援システム: 101 サーバ: 105、107 車両: 106 携帯型端末: 200、300、400 制御部: 201、301、401 プロセッサ: 202、302、402 メモリ 100 Driving support system: 101 Server: 105, 107 Vehicle: 106 Portable terminal: 200, 300, 400 Control unit: 201, 301, 401 Processor: 202, 302, 402 Memory

Claims (12)

車両の走行を支援する走行支援システムであって、
撮像手段により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得手段と、
前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段と、
前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段と、
前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段と、を備え、
前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定する、
とを特徴とする走行支援システム。
It is a driving support system that supports the driving of vehicles.
An acquisition means for acquiring image pickup data of a peripheral vehicle located in the traveling direction of the vehicle, which is captured by the image pickup means, and an acquisition means.
A first estimation means for estimating the behavior of the surrounding vehicle based on the imaging data acquired by the acquisition means, and a first estimation means.
A second estimation means for estimating the road condition in the traveling direction of the vehicle based on the behavior of the peripheral vehicle estimated by the first estimation means, and a second estimation means.
A notification means for notifying the road condition in the traveling direction of the vehicle estimated by the second estimation means is provided.
The first estimation means estimates the behavior of the peripheral vehicle based on the change of the image different from the vehicle image of the peripheral vehicle in the captured image of the captured data.
A driving support system characterized by this.
前記周辺車両の車両画像と異なる画像の変化とは、前記車両画像と、前記車両画像と異なる画像との重なりであることを特徴とする請求項1に記載の走行支援システム。The traveling support system according to claim 1, wherein the change in the image different from the vehicle image of the peripheral vehicle is an overlap of the vehicle image and the image different from the vehicle image. 前記周辺車両の挙動は、右旋回、左旋回を含むことを特徴とする請求項1又は2に記載の走行支援システム。 The traveling support system according to claim 1 or 2 , wherein the behavior of the peripheral vehicle includes a right turn and a left turn. 前記周辺車両の挙動は、登坂、降坂を含むことを特徴とする請求項1乃至3のいずれか1項に記載の走行支援システム。 The traveling support system according to any one of claims 1 to 3, wherein the behavior of the peripheral vehicle includes uphill and downhill. 前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像のオブジェクトの変化に基づいて、前記周辺車両の挙動を推定することを特徴とする請求項1乃至のいずれか1項に記載の走行支援システム。 The first estimation means is any of claims 1 to 4 , wherein the first estimation means estimates the behavior of the peripheral vehicle based on the change of the object of the vehicle image of the peripheral vehicle in the captured image of the captured data. The driving support system described in item 1. 前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像のオブジェクトの縦横比の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする請求項に記載の走行支援システム。 The first estimation means is characterized in that, among the captured images of the captured data, the behavior of the peripheral vehicle is estimated based on the change in the aspect ratio of the object of the vehicle image of the peripheral vehicle. The described driving support system. 前記オブジェクトは、前記周辺車両のタイヤ、ミラー、ナンバープレートのうち少なくともいずれかを含むことを特徴とする請求項5又は6に記載の走行支援システム。 The travel support system according to claim 5 or 6 , wherein the object includes at least one of a tire, a mirror, and a license plate of the peripheral vehicle. 前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像の外郭形状の変化に基づいて、前記周辺車両の挙動を推定することを特徴とする請求項1乃至のいずれか1項に記載の走行支援システム。 The first estimation means is characterized in that, among the captured images of the captured data, the behavior of the peripheral vehicle is estimated based on the change in the outer shape of the vehicle image of the peripheral vehicle. The driving support system according to any one of the items. 前記撮像手段は、前記車両とともに移動する端末に構成されていることを特徴とする請求項1乃至8のいずれか1項に記載の走行支援システム。 The traveling support system according to any one of claims 1 to 8, wherein the image pickup means is configured in a terminal that moves with the vehicle. 前記車両は、鞍乗り型車両であることを特徴とする請求項1乃至9のいずれか1項に記載の走行支援システム。 The traveling support system according to any one of claims 1 to 9, wherein the vehicle is a saddle-riding type vehicle. 車両の走行を支援する走行支援システムにおいて実行される走行支援方法であって、
撮像手段により撮像された、前記車両の進行方向に位置する周辺車両の撮像データを取得する取得工程と、
前記取得工程において取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定工程と、
前記第1推定工程において推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定工程と、
前記第2推定工程において推定された前記車両の進行方向の道路状態を通知する通知工程と、を有し、
前記第1推定工程では、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定する、
を有することを特徴とする走行支援方法。
It is a driving support method executed in a driving support system that supports the driving of a vehicle.
The acquisition process of acquiring the image pickup data of the peripheral vehicle located in the traveling direction of the vehicle, which is imaged by the image pickup means, and the acquisition process.
A first estimation step of estimating the behavior of the peripheral vehicle based on the imaging data acquired in the acquisition step, and a first estimation step.
A second estimation step of estimating the road condition in the traveling direction of the vehicle based on the behavior of the peripheral vehicle estimated in the first estimation step, and a second estimation step.
It has a notification step of notifying the road condition in the traveling direction of the vehicle estimated in the second estimation step.
In the first estimation step, the behavior of the peripheral vehicle is estimated based on the change of the image different from the vehicle image of the peripheral vehicle among the captured images of the captured data.
A driving support method characterized by having.
コンピュータを、
撮像手段により撮像された、車両の進行方向に位置する周辺車両の撮像データを取得する取得手段、
前記取得手段により取得された前記撮像データに基づいて、前記周辺車両の挙動を推定する第1推定手段、
前記第1推定手段により推定された前記周辺車両の挙動に基づいて、前記車両の進行方向の道路状態を推定する第2推定手段、
前記第2推定手段により推定された前記車両の進行方向の道路状態を通知する通知手段、として機能させ、
前記第1推定手段は、前記撮像データの撮像画像のうち、前記周辺車両の車両画像と異なる画像の変化に基づいて、前記周辺車両の挙動を推定する、
として機能させるためのプログラム。
Computer,
An acquisition means for acquiring image pickup data of a peripheral vehicle located in the traveling direction of the vehicle, which is captured by the image pickup means.
A first estimation means for estimating the behavior of the peripheral vehicle based on the imaging data acquired by the acquisition means,
A second estimation means for estimating the road condition in the traveling direction of the vehicle based on the behavior of the peripheral vehicle estimated by the first estimation means.
It functions as a notification means for notifying the road condition in the traveling direction of the vehicle estimated by the second estimation means.
The first estimation means estimates the behavior of the peripheral vehicle based on the change of the image different from the vehicle image of the peripheral vehicle in the captured image of the captured data.
A program to function as.
JP2019180643A 2019-09-30 2019-09-30 Driving support system, driving support method and program Active JP6997156B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019180643A JP6997156B2 (en) 2019-09-30 2019-09-30 Driving support system, driving support method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019180643A JP6997156B2 (en) 2019-09-30 2019-09-30 Driving support system, driving support method and program

Publications (2)

Publication Number Publication Date
JP2021056874A JP2021056874A (en) 2021-04-08
JP6997156B2 true JP6997156B2 (en) 2022-01-17

Family

ID=75270910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019180643A Active JP6997156B2 (en) 2019-09-30 2019-09-30 Driving support system, driving support method and program

Country Status (1)

Country Link
JP (1) JP6997156B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4317325A1 (en) 2021-03-30 2024-02-07 Mitsubishi Chemical Corporation Resin composition and molded body

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008114672A (en) 2006-11-02 2008-05-22 Aisin Aw Co Ltd Operation support device and operation support method
JP2010019589A (en) 2008-07-08 2010-01-28 Toyota Motor Corp Inter-vehicle distance detector, drive recorder apparatus
US20180158334A1 (en) 2016-12-05 2018-06-07 Ford Global Technologies, Llc Vehicle collision avoidance

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173514A (en) * 1997-08-29 1999-03-16 Nissan Motor Co Ltd Recognition device for vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008114672A (en) 2006-11-02 2008-05-22 Aisin Aw Co Ltd Operation support device and operation support method
JP2010019589A (en) 2008-07-08 2010-01-28 Toyota Motor Corp Inter-vehicle distance detector, drive recorder apparatus
US20180158334A1 (en) 2016-12-05 2018-06-07 Ford Global Technologies, Llc Vehicle collision avoidance

Also Published As

Publication number Publication date
JP2021056874A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
US10583829B2 (en) Parking assistance system
US10363872B2 (en) Periphery monitoring device
EP3324556B1 (en) Visual communication system for autonomous driving vehicles (adv)
US10915100B2 (en) Control system for vehicle
US9902323B2 (en) Periphery surveillance apparatus and program
US9643603B2 (en) Travel controller, server, and in-vehicle device
JP5172314B2 (en) Stereo camera device
US20190144004A1 (en) Display system, display method, and storage medium
US7688221B2 (en) Driving support apparatus
US10099692B2 (en) Control system for vehicle
US11287879B2 (en) Display control device, display control method, and program for display based on travel conditions
JP7047824B2 (en) Vehicle control unit
US11176826B2 (en) Information providing system, server, onboard device, storage medium, and information providing method
JP2008070955A (en) Display system for displaying traveling object, on-vehicle apparatus, image transmitter and display method
KR20190080749A (en) Vehicle on-board communication device and vehicle
JP7006235B2 (en) Display control device, display control method and vehicle
JP4882289B2 (en) Map information generation system
JP4561338B2 (en) Driving support device
JP6997156B2 (en) Driving support system, driving support method and program
JP6186905B2 (en) In-vehicle display device and program
US20180211527A1 (en) Systems and methods for communicating notices within a vehicle using a mobile device
JP2004217188A (en) On-vehicle display device and display method
JP2010262665A (en) On-vehicle device and vehicle recognition method
JP2007115198A (en) Vehicle recognition method and in-vehicle device
JP7044747B2 (en) Driving support system, driving support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211216

R150 Certificate of patent or registration of utility model

Ref document number: 6997156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150