JP2013024709A - Navigation device and navigation method - Google Patents

Navigation device and navigation method Download PDF

Info

Publication number
JP2013024709A
JP2013024709A JP2011159306A JP2011159306A JP2013024709A JP 2013024709 A JP2013024709 A JP 2013024709A JP 2011159306 A JP2011159306 A JP 2011159306A JP 2011159306 A JP2011159306 A JP 2011159306A JP 2013024709 A JP2013024709 A JP 2013024709A
Authority
JP
Japan
Prior art keywords
vehicle
video
presentation
unit
presentation data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011159306A
Other languages
Japanese (ja)
Inventor
Masayasu Suzuki
政康 鈴木
Hiroyoshi Yanagi
柳  拓良
Toshiyuki Ando
敏之 安藤
Masao Yamane
雅夫 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2011159306A priority Critical patent/JP2013024709A/en
Priority to PCT/JP2012/003753 priority patent/WO2013011622A1/en
Publication of JP2013024709A publication Critical patent/JP2013024709A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide information for a user to easily determine a direction of a traveling road which the user has already traveled in the past when the user travels the road in the opposite direction.SOLUTION: A navigation device stores a rear image in which the rear of a traveling direction of a vehicle is imaged in association with vehicle location information acquired when the rear image is taken, as presentation data in a storage part. Then, on the basis of the stored presentation data, according to timing when the vehicle reaches the vehicle position of the presentation data, the navigation device presents the rear image in the presentation data corresponding to the vehicle location to an occupant of the vehicle.

Description

本発明は、車両の走行の案内を行うナビゲーションの技術に関する。   The present invention relates to a navigation technique that provides guidance for traveling of a vehicle.

特許文献1記載の発明は、予め細街路に関する地図情報を備えている。そして、特許文献1記載の発明は、ナビゲーション装置が表示する道路の数等が予め設定した数より少なくなると、細街路に関する地図情報を表示する。これによって、道路の少ない地域においては、できるだけ細街路を表示して自車位置の確認等に活用出来ると記載されている。   The invention described in Patent Document 1 includes map information related to narrow streets in advance. And invention of patent document 1 displays the map information regarding a narrow street, when the number etc. of the road which a navigation apparatus displays becomes less than the preset number. As a result, it is described that in areas with few roads, narrow streets can be displayed as much as possible to check the position of the vehicle.

特開2005−181251号公報JP 2005-181251 A

運転者が知らない細街路を通って目的地に向かう場合に、同乗者が目的地まで道案内することがある。このような場合、同乗者が目的地で降車すると、運転者は同乗者の案内なしで復路を走行しなければならない。このとき、運転者は、同乗者の案内によって走行した実績がある道路を通って主要な道路(県道など)に戻ろうとするが、運転者は往路として走行した道路を復路として実際に走行しているか分からずに不安になることがある。   When heading to a destination through a narrow street that the driver does not know, the passenger may guide the destination to the destination. In such a case, when the passenger gets off at the destination, the driver must travel on the return route without the passenger's guidance. At this time, the driver tries to return to the main road (prefectural road, etc.) through the road that has been driven by the passenger's guidance, but the driver actually travels as the return road on the road that has traveled as the outward path. You may become anxious without knowing.

しかし、特許文献1に記載の技術では、細街路の地図情報を表示することはできるものの、走行した往路を復路として走行しているかどうかを判断し難いという問題がある。
本発明は、上記のような点に着目したもので、過去に走行した道路を逆方向に走行する際に、走行する道路の方向を判断し易くするための情報を提供することを目的とする。
However, although the technique described in Patent Document 1 can display map information of narrow streets, there is a problem that it is difficult to determine whether or not the vehicle travels with the traveled path as a return path.
The present invention focuses on the above points, and an object of the present invention is to provide information for facilitating determination of the direction of a traveling road when traveling in the reverse direction on a road that has traveled in the past. .

以上の課題を解決するため、本発明の一態様は、自車両の進行方向後方を撮像した後方映像を、後方映像を撮像したときの車両位置情報と対応付けて提示データとして記憶部に格納する。そして、本発明の一態様は、その格納した提示データに基づき、上記提示データの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示する。   In order to solve the above-described problems, according to one aspect of the present invention, a rear image obtained by capturing the rearward direction of the host vehicle is stored in the storage unit as presentation data in association with vehicle position information when the rear image is captured. . Then, according to one aspect of the present invention, based on the stored presentation data, a rear image in the presentation data corresponding to the vehicle position is displayed to the vehicle occupant in accordance with the timing at which the host vehicle reaches the vehicle position of the presentation data. Present.

本発明によれば、自車両が例えば往路で走行した道路を復路で走行する際に、往路で通行した道路位置に自車両が達するタイミングで、往路で撮像した後方映像を乗員に提示する。ここで、往路と復路では自車両の進行方向が逆方向となるので、乗員に提示する後方映像は、復路においては車両前方を映した映像に相当する。このため、運転者は、提示された後方映像(復路では前方映像相当の映像)によって、走行する道路の方向をより判断し易くするための情報を得ることになる。この結果、運転者は、往路として走行した道路を復路として実際に走行しているか判断することが可能となる。   According to the present invention, for example, when the host vehicle travels on a return road on a road on which the host vehicle has traveled, the rear image captured on the outbound route is presented to the occupant at the timing when the host vehicle reaches the position of the road that has traveled on the outbound route. Here, since the traveling direction of the host vehicle is opposite in the forward path and the backward path, the rear image presented to the occupant is equivalent to an image showing the front of the vehicle in the backward path. For this reason, the driver obtains information for making it easier to determine the direction of the road on which the vehicle travels based on the presented rear image (image corresponding to the front image on the return route). As a result, it becomes possible for the driver to determine whether he / she actually travels using the road that has traveled as the forward path as the return path.

本発明の第1実施形態のナビゲーション装置を説明するためのブロック図である。It is a block diagram for demonstrating the navigation apparatus of 1st Embodiment of this invention. 図1に示した車両情報取得部が車両情報を取得することを具体的に説明するための図である。It is a figure for demonstrating concretely that the vehicle information acquisition part shown in FIG. 1 acquires vehicle information. 図1に示した提示映像作成部を説明するための図である。It is a figure for demonstrating the presentation image | video preparation part shown in FIG. 図3に示した映像加工部が作成した映像を例示した図である。It is the figure which illustrated the image | video produced by the image | video process part shown in FIG. 第1実施形態のナビゲーション装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the navigation apparatus of 1st Embodiment. 本発明の第2実施形態のナビゲーション装置を説明するための図である。It is a figure for demonstrating the navigation apparatus of 2nd Embodiment of this invention. 図6に示した音声認識部を説明するための図である。It is a figure for demonstrating the speech recognition part shown in FIG.

以下、図を参照して本発明に係る本発明の実施形態に係るナビゲーション装置を説明する。
[第1実施形態]
図1は、第1実施形態のナビゲーション装置を説明するためのブロック図である。第1実施形態のナビゲーション装置101は、自車両に搭載するナビゲーション装置である。ナビゲーション装置101は、通信部109を含み、通信部109によってデータセンタ113のサーバ装置111と通信可能な構成となっている。データセンタ113は、プローブDB(データベース)112を備えている。プローブDB112は、複数の車両c1、c2、c3から、各車両で撮像した映像を、撮像位置を含む提供データとして受信して蓄積している。このような車両c1〜c3を、以降、プローブカーとも記す。サーバ装置111は、プローブカーが提供した映像を含む提供データを、プローブDB112に蓄積すると共に、要求に応じて、提供データを他の車両(例えば車両c4)に提供する。
Hereinafter, a navigation device according to an embodiment of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram for explaining the navigation device of the first embodiment. The navigation device 101 of the first embodiment is a navigation device mounted on the host vehicle. The navigation device 101 includes a communication unit 109 and is configured to be able to communicate with the server device 111 of the data center 113 through the communication unit 109. The data center 113 includes a probe DB (database) 112. The probe DB 112 receives and accumulates video images captured by each vehicle from a plurality of vehicles c1, c2, and c3 as provided data including an imaging position. Such vehicles c1 to c3 are hereinafter also referred to as probe cars. The server device 111 accumulates the provision data including the video provided by the probe car in the probe DB 112 and provides the provision data to another vehicle (for example, the vehicle c4) in response to a request.

なお、データセンタ113は、例えば車両に取り付けた発信機からの電波を受信して、走行中の車両の位置や状況を管理するシステムで構成される。
ここで、本発明は、上記データセンタ113との通信機能は必ずしも必要ではない。
ナビゲーション装置101は、自車両に搭載されて自車両の進行方向に対する反対方向(後方)の映像(以降、後方映像と記す)を撮像するリアカメラ102と、自車両の位置を検出する自車位置取得部103と、車両情報取得部104と、車両変化検出部110と、後方映像を、この後方映像を撮像したときに自車位置取得部103が検出した自車両の位置(以降、車両位置と記す)と対応付けて提示データとして記録する情報格納処理部105と、情報格納処理部105が記録した提示データの後方映像に基づき提示する映像を作成する提示映像作成部106と、提示映像を自車両の乗員に対して表示する表示部108と、を備える。
Note that the data center 113 is configured by a system that receives radio waves from, for example, a transmitter attached to the vehicle and manages the position and status of the traveling vehicle.
Here, the present invention does not necessarily require a communication function with the data center 113.
The navigation device 101 is mounted on the host vehicle, and a rear camera 102 that captures an image in the opposite direction (rear) to the traveling direction of the host vehicle (hereinafter referred to as a rear image), and a host vehicle position that detects the position of the host vehicle. The acquisition unit 103, the vehicle information acquisition unit 104, the vehicle change detection unit 110, and the rear image, the position of the own vehicle detected by the own vehicle position acquisition unit 103 when the rear image is captured (hereinafter referred to as vehicle position and Information storage processing unit 105 that records as presentation data in association with the recording data, presentation video creation unit 106 that creates a video to be presented based on the rear video of the presentation data recorded by information storage processing unit 105, and the presentation video. And a display unit 108 for displaying to a vehicle occupant.

さらに、ナビゲーション装置101は、提示映像(後方映像)を含む提示データを蓄積する記憶部である地図DB107を備える。
このような第1実施形態では、目的地を出発して走行する場合、目的地に到達するまでの走行路(以下、往路と記す)で後方映像を撮像して順次記録する。また、目的地を出発して帰る走行路(以下、復路と記す)では、往路で撮像し記録した映像を、順次、車両前方への走行案内の情報映像として、自車両の乗員に提示する。
Furthermore, the navigation apparatus 101 includes a map DB 107 that is a storage unit that accumulates presentation data including a presentation video (back video).
In such a first embodiment, when traveling from the destination, the rear video is captured and sequentially recorded on the travel route (hereinafter referred to as the forward route) until the destination is reached. In addition, on a travel route that departs from the destination and returns (hereinafter referred to as a return route), the images captured and recorded on the outbound route are sequentially presented to the passengers of the host vehicle as information images for traveling guidance ahead of the vehicle.

(構成)
次に本実施形態の構成について説明する。
図2は、車両情報取得部104が車両情報を取得することを具体的に説明するための図である。なお、図2に示す自車両は、前輪操舵の車両である。
自車両は、図2に示すように、リアカメラ102、車速センサ2、ヨーレートセンサ3、加速度センサ4、操舵角センサ5及び方向指示器に対する操作を検出する方向指示器センサ7を有している。これらセンサ類は、検出信号を車両情報取得部104に出力する。
(Constitution)
Next, the configuration of the present embodiment will be described.
FIG. 2 is a diagram for specifically explaining that the vehicle information acquisition unit 104 acquires vehicle information. The host vehicle shown in FIG. 2 is a front wheel steering vehicle.
As shown in FIG. 2, the host vehicle has a rear camera 102, a vehicle speed sensor 2, a yaw rate sensor 3, an acceleration sensor 4, a steering angle sensor 5, and a direction indicator sensor 7 that detects an operation on the direction indicator. . These sensors output detection signals to the vehicle information acquisition unit 104.

リアカメラ102は、撮像軸を自車両の後方に向けた状態で車両に搭載されて、自車両後方の風景(走行環境)を撮像する。そして撮像した映像を、後方映像として情報格納処理部105に出力する。上記映像は例えば静止画像である。
車速センサ2は、車輪の回転数を検出する。例えば、車輪に取り付けたロータリーエンコーダ等が利用可能である。そして、車輪の回転に比例して発生するパルス信号を検出することで車速を計測する。
The rear camera 102 is mounted on the vehicle in a state where the imaging axis is directed to the rear of the host vehicle, and images a landscape (traveling environment) behind the host vehicle. Then, the captured video is output to the information storage processing unit 105 as a rear video. The video is a still image, for example.
The vehicle speed sensor 2 detects the rotational speed of the wheel. For example, a rotary encoder attached to a wheel can be used. The vehicle speed is measured by detecting a pulse signal generated in proportion to the rotation of the wheel.

ヨーレートセンサ3は、自車両に発生するヨーレートを検出する。例えば、水晶振動子や半導体を用いて構成したデバイスを利用する。加速度センサ4は、自車両に発生する特定の方向の加速度を検出する。例えば、圧電素子等を用いて構成したデバイスを利用する。操舵角センサ5は、操舵の回転角度を検出する。例えば、操舵角センサ5をステアリングコラム内に設けて、ステアリングホイール8の操舵角を検出する。方向指示器センサ7は、図示しない方向指示器を操作する方向指示器スイッチの操作が右折を示すものか左折を示すものかを検出する。これによって、車両挙動変化のうちの進行方向の変更を検出することが出来る。   The yaw rate sensor 3 detects the yaw rate generated in the host vehicle. For example, a device configured using a crystal resonator or a semiconductor is used. The acceleration sensor 4 detects acceleration in a specific direction generated in the host vehicle. For example, a device configured using a piezoelectric element or the like is used. The steering angle sensor 5 detects the rotation angle of steering. For example, the steering angle sensor 5 is provided in the steering column, and the steering angle of the steering wheel 8 is detected. The direction indicator sensor 7 detects whether an operation of a direction indicator switch for operating a direction indicator (not shown) indicates a right turn or a left turn. Thereby, the change of the advancing direction among the vehicle behavior changes can be detected.

また、加速度センサ4によって、予め設定した時間よりも短い時間で自車両を停止させたブレーキ操作(急ブレーキ)を検出することができる。ブレーキ操作量自体でも急ブレーキを検出することが出来る。すなわち、これによって、制駆動力の予め設定した以上の変化を検出することが出来る。また、車速センサ2によって自車両が予め設定した速度よりも低速度で走行したことを検出することができる。   The acceleration sensor 4 can detect a brake operation (rapid braking) that stops the host vehicle in a time shorter than a preset time. Sudden braking can be detected by the brake operation amount itself. In other words, this makes it possible to detect a change in braking / driving force that exceeds a preset value. The vehicle speed sensor 2 can detect that the host vehicle has traveled at a speed lower than a preset speed.

また、図1に戻って、自車位置取得部103は、GPS(Global Positioning System)を利用して自車両の位置情報(緯度経度情報)を取得する。自車位置取得部103は、予め設定した時間サイクルで連続的に位置情報を取得し、検出した位置情報を順次、情報格納処理部105及び提示映像作成部106に渡している。
車両情報取得部104は、車速センサ2、ヨーレートセンサ3、加速度センサ4、操舵角センサ5及び方向指示器センサ7から自車両の操作の状態を示す情報である車両情報を取得する。
Returning to FIG. 1, the own vehicle position acquisition unit 103 acquires position information (latitude and longitude information) of the own vehicle using GPS (Global Positioning System). The own vehicle position acquisition unit 103 continuously acquires position information in a preset time cycle, and sequentially passes the detected position information to the information storage processing unit 105 and the presentation video creation unit 106.
The vehicle information acquisition unit 104 acquires vehicle information that is information indicating the operation state of the host vehicle from the vehicle speed sensor 2, the yaw rate sensor 3, the acceleration sensor 4, the steering angle sensor 5, and the direction indicator sensor 7.

車両変化検出部110は、上記自車両の車両挙動変化のうち予め設定した設定挙動変化を検出する。自車両の進行方向の変更、制駆動力の予め設定した以上の変化、及び車速が予め設定した車速以下に変化の少なくとも1つの変化に関する情報に基づき検出する。自車両の進行方向の変更は、経てば操舵角の情報によって検出可能である。制駆動力の予め設定した以上の変化は、前後加速度や、ブレーキ操作量によって検出可能である。車速が予め設定した車速以下に変化は、車速センサによって検出可能である。   The vehicle change detection unit 110 detects a preset behavior change among the vehicle behavior changes of the host vehicle. Detection is based on information related to a change in the traveling direction of the host vehicle, a change greater than or equal to a preset change in braking / driving force, and a change in vehicle speed below a preset vehicle speed. The change in the traveling direction of the host vehicle can be detected based on the steering angle information. The change more than the preset braking / driving force can be detected by the longitudinal acceleration and the brake operation amount. A change in the vehicle speed below a preset vehicle speed can be detected by a vehicle speed sensor.

情報格納処理部105は、リアカメラ102から後方映像を受け取る。また、自車位置取得部103から自車両の位置情報を受け取る。そして、後方映像とその後方映像を撮像したときの車両位置情報と対応付けた提示データを、地図DB107に蓄積する。
このとき、情報格納処理部105は、車両変化検出部110が上記設定挙動変化を検出したときだけ上記提示データを地図DB107に格納する。または情報格納処理部105は、地図DB107に格納する提示データに対し、上記設定挙動変化を検出した事を示す情報として提示位置情報を付加して提示データの蓄積処理を行う。以下の例では、車両変化検出部110が上記設定挙動変化を検出したときだけ上記提示データを地図DB107に格納する場合で説明する。
The information storage processing unit 105 receives a rear video from the rear camera 102. In addition, position information of the own vehicle is received from the own vehicle position acquisition unit 103. And the presentation data matched with the vehicle position information at the time of imaging a back image | video and the back image | video are accumulate | stored in map DB107.
At this time, the information storage processing unit 105 stores the presentation data in the map DB 107 only when the vehicle change detection unit 110 detects the set behavior change. Alternatively, the information storage processing unit 105 adds presentation position information to the presentation data stored in the map DB 107 as information indicating that the set behavior change has been detected, and performs presentation data accumulation processing. In the following example, a case will be described where the presentation data is stored in the map DB 107 only when the vehicle change detection unit 110 detects the set behavior change.

提示映像作成部106は、例えば運転者の操作によって情報提示要求がある場合に作動する。すなわち、提示映像作成部106は、自車両の乗員が操作信号を入力することによって復路の走行開始を検出して、映像提示の処理を開始する構成とする。
そして、提示映像作成部106は、自車位置取得部103から自車両の現在位置にかかる位置情報を取得する。そして提示映像作成部106は、取得した自車両の現在の車両位置よりも予め設定した距離だけ進行方向前方の位置の提示データを地図DB107から抽出し、抽出した提示データ中の後方映像を提示映像として表示部108に表示する。この表示によって、提示データ中の後方映像を車両の乗員に提示する。このとき、提示データに提示位置情報の設定がある場合には、その提示位置情報の設定がある提示データの後方映像のみを車両の乗員に提示するようにすることが好ましい。提示位置情報の設定がある提示データの後方映像は、設定挙動変化が車両に発生したときの映像である。すなわち、例えば、右折すべき位置に自車両が達する以前に右折すべき位置を自車両の乗員に知らせることができる。このため、運転者は落ち着いて自車両を操作することができる。
The presentation video creation unit 106 operates when there is an information presentation request, for example, by a driver's operation. In other words, the presentation video creation unit 106 is configured to start the video presentation process by detecting the start of the return path when an occupant of the host vehicle inputs an operation signal.
Then, the presentation video creation unit 106 acquires position information related to the current position of the host vehicle from the host vehicle position acquisition unit 103. Then, the presentation video creation unit 106 extracts the presentation data of the position ahead of the traveling direction by a predetermined distance from the current vehicle position of the acquired own vehicle from the map DB 107, and displays the rear video in the extracted presentation data as the presentation video. Is displayed on the display unit. With this display, the rear video in the presentation data is presented to the vehicle occupant. At this time, when the presentation position information is set in the presentation data, it is preferable that only the rear video of the presentation data with the presentation position information is presented to the vehicle occupant. The rear video of the presentation data in which the presentation position information is set is a video when the setting behavior change occurs in the vehicle. That is, for example, it is possible to notify the passenger of the host vehicle of the position to turn right before the host vehicle reaches the position to turn right. For this reason, the driver can calm down and operate the host vehicle.

さらに、提示映像作成部106は、提示映像の作成時、情報格納処理部105から受け取った後方映像が提示映像に採用できるか否か判断する。そして、後方映像が提示映像として不適切と判定した場合には、通信部109を介してプローブDB112中の映像提示位置の車両位置で撮影した映像を含む提供データを取得する。そして、取得した提供データ中の映像を表示部を介して乗員に提示する。   Furthermore, the presentation video creation unit 106 determines whether or not the rear video received from the information storage processing unit 105 can be adopted as the presentation video when creating the presentation video. And when it determines with a back image | video being inappropriate as a presentation image | video, the provision data containing the image | video image | photographed in the vehicle position of the image | video presentation position in probe DB112 via the communication part 109 are acquired. And the image | video in the acquired provision data is shown to a passenger | crew via a display part.

後方映像の適、不適の判断は、例えば、以下のようにして行われる。
図3は、第1実施形態の提示映像作成部106を説明するための図である。図3に示すように、提示映像作成部106は、コントラスト判定部301、提示映像判定部302、後方映像取得部303、映像加工部304を備える。
コントラスト判定部301は、地図DBから受け取った後方映像のコントラストを判定する。すなわち、コントラスト判定部301は、後方映像を、例えば複数の比較的小さい領域に分割する。そして、この領域に含まれる画素のうち隣り合うものの輝度の差を算出し、この平均値を算出する。そして、輝度の差が予め設定した閾値より小さい領域全体の大きさを提示映像判定部302に出力する。
The determination of whether or not the rear image is appropriate is performed, for example, as follows.
FIG. 3 is a diagram for explaining the presentation video creation unit 106 according to the first embodiment. As shown in FIG. 3, the presentation video creation unit 106 includes a contrast determination unit 301, a presentation video determination unit 302, a rear video acquisition unit 303, and a video processing unit 304.
The contrast determination unit 301 determines the contrast of the rear video received from the map DB. That is, the contrast determination unit 301 divides the rear video into a plurality of relatively small areas, for example. Then, a difference in luminance between adjacent pixels among the pixels included in this region is calculated, and this average value is calculated. Then, the size of the entire area in which the difference in luminance is smaller than a preset threshold is output to the presentation video determination unit 302.

提示映像判定部302は、コントラスト判定部301の判定結果に基づいて後方映像が提示映像として適切であるか否かを判定する。すなわち、提示映像判定部302は、コントラスト判定部301から受け取った大きさが後方映像に占める割合を、予め設定した閾値と比較する。そして、この割合が閾値よりも大きい場合、この後方映像が提示映像に不適当であると判定する。   The presentation video determination unit 302 determines whether or not the rear video is appropriate as the presentation video based on the determination result of the contrast determination unit 301. That is, the presented video determination unit 302 compares the ratio of the size received from the contrast determination unit 301 in the rear video with a preset threshold value. And when this ratio is larger than a threshold value, it determines with this back image | video being unsuitable for a presentation image | video.

ここで、輝度の差が閾値より小さい領域が後方映像に占める割合が大きいとき、後方映像を提示映像に不適当であると判断する理由は、以下のとおりである。すなわち、後方映像の広い範囲で輝度の差が小さい場合、後方映像に後続車等が映って風景が視認し難い可能性がある。また、後方映像の広い範囲で輝度の差が小さい場合、雨や霧等によって後方映像から風景が視認し難い可能性がある。   Here, the reason why it is determined that the rear video is inappropriate for the presentation video when the area where the luminance difference is smaller than the threshold is large in the rear video is as follows. That is, when the difference in brightness is small in the wide range of the rear image, there is a possibility that the following vehicle is reflected in the rear image and it is difficult to visually recognize the scenery. In addition, when the difference in luminance is small over a wide range of the rear image, it may be difficult to visually recognize the landscape from the rear image due to rain, fog, or the like.

または映像不適切の判定は、例えば映像の画面に対して予め設定した以上の割合で他車両などの障害物が映し出されている場合に、映像不適切と判定する。
後方映像取得部303は、提示映像判定部302が後方映像を不適当であると判定した場合、図1に示したプローブDB112から、不適当な後方映像と車両位置情報が一致する後方映像を取得する。すなわち、後方映像取得部303は、サーバ装置111と通信し、不適当な後方映像と位置情報が一致する他の映像をプローブDB112から抽出する。
Alternatively, the video improper determination is made as video improper when, for example, an obstacle such as another vehicle is projected at a rate higher than that set in advance with respect to the video screen.
When the presentation video determination unit 302 determines that the rear video is inappropriate, the rear video acquisition unit 303 acquires the rear video whose vehicle position information matches the inappropriate rear video from the probe DB 112 illustrated in FIG. To do. That is, the rear video acquisition unit 303 communicates with the server device 111 and extracts from the probe DB 112 another video whose position information matches the inappropriate rear video.

ここで、プローブDB112の提供データは、映像、位置情報と共に、映像を撮像した車両の車種情報を有する。提示映像作成部106は、プローブDB112から後方映像を取得する場合、車両情報取得部104から自車両の車種情報を取得する。そして、自車両の車種等と一致又は近似する車両が撮像した後方映像を優先的に取得する。この場合、自車両の復路において実際に見える風景にイメージが似た後方映像を提示映像に使用することが可能になる。この処理は、例えば車両情報をサーバ装置に送信して、サーバ装置側で車両情報に対応する提供データを検索する構成とする。   Here, the provided data of the probe DB 112 includes the vehicle type information of the vehicle that captured the video, together with the video and position information. The presentation video creation unit 106 acquires the vehicle type information of the host vehicle from the vehicle information acquisition unit 104 when acquiring the rear video from the probe DB 112. Then, a rear image captured by a vehicle that matches or approximates the vehicle type of the host vehicle is preferentially acquired. In this case, it is possible to use a rear video image similar to the scenery actually seen on the return path of the host vehicle as the presentation video. For example, this processing is configured such that vehicle information is transmitted to the server device, and provided data corresponding to the vehicle information is searched on the server device side.

映像加工部304は、提示する後方映像を必要に応じて加工する処理を行う。加工処理は、例えば車両情報に基づく映像(矢印等)を後方映像に重ねた映像を作成する処理を行う。この場合、後方映像が撮像された往路の位置でした操作を運転者が思い出すことができる。このため、運転者が復路をより理解しやすくなる。あるいは、往路において運転が困難であったことに気付くため、運転が難しい地点であることを運転者に注意喚起することが期待できる。   The video processing unit 304 performs processing for processing the presented rear video as necessary. In the processing, for example, a process of creating a video in which a video (such as an arrow) based on vehicle information is superimposed on the rear video is performed. In this case, the driver can remember the operation that was the position of the forward path where the rear image was captured. This makes it easier for the driver to understand the return path. Alternatively, in order to realize that it was difficult to drive on the outbound route, it can be expected to alert the driver that the point is difficult to drive.

また上記加工処理は、例えば後方映像の明るさを、自車両が復路を走行する時間帯に合わせて変更する処理を行う。明るさを変更するとは、後方映像の明度を低下させる、あるいは画素のRGBのうちのBを強めるように補正することによって実現できる。この場合、往路を明るいとき走行し、より暗くなってから復路を走行する場合、往路で撮像した後方映像を復路の風景に近づけ、運転者が復路を直感的に認識しやすくすることができる。   Moreover, the said process process performs the process which changes the brightness of a back image according to the time slot | zone when the own vehicle drive | works a return path, for example. Changing the brightness can be realized by reducing the brightness of the rear image or by correcting so that B of RGB of the pixel is increased. In this case, when driving on the forward path when the road is bright and driving on the return path after darker, the rear image captured on the forward path can be brought close to the scenery of the return path, and the driver can easily recognize the return path intuitively.

また上記加工処理は、例えば、提示する後方映像の位置を車両前方の映像としての位置にずらす加工処理を行う。例えば、往路(すなわち復路)に車線がある場合、往路で撮像した後方映像の中心を、復路において車両が走行する車線に合わせてずらすように変更することをいう。このような構成によれば、往路で撮像した後方映像を復路の実際の風景に近づけ、運転者が復路を直感的に認識しやすくすることができる。   Moreover, the said process process performs the process process which shifts the position of the back image to show to the position as an image ahead of a vehicle, for example. For example, when there is a lane on the forward path (that is, the return path), the center of the rear image captured on the forward path is changed to be shifted in accordance with the lane in which the vehicle travels on the return path. According to such a configuration, it is possible to make the rear image captured on the forward path close to the actual scenery of the return path, and to make it easier for the driver to intuitively recognize the return path.

図4(a)、(b)、(c)は、映像加工部304の後方映像の加工を例示した図である。図4(a)は、車両情報に基づく映像を後方映像に重ねた映像を例示した図である。図4(a)に例示した映像では、右折を示す車両情報を矢印401の映像によって表し、矢印401の映像を後方映像に重ねている。図4(b)は、復路が夕方などの場合に、図4(a)に示した後方映像の明るさを低くするように加工した例を示す図である。図4(c)は、図4(a)に示した後方映像の中心を図中の左側にずらすように加工した例を示す図である。   FIGS. 4A, 4 </ b> B, and 4 </ b> C are diagrams illustrating the processing of the rear video by the video processing unit 304. FIG. 4A is a diagram illustrating a video in which a video based on vehicle information is superimposed on a rear video. In the video illustrated in FIG. 4A, vehicle information indicating a right turn is represented by a video indicated by an arrow 401, and the video indicated by the arrow 401 is superimposed on the rear video. FIG. 4B is a diagram illustrating an example in which the brightness of the rear image shown in FIG. 4A is reduced when the return path is in the evening or the like. FIG. 4C is a diagram illustrating an example in which the center of the rear image shown in FIG. 4A is processed to be shifted to the left side in the drawing.

表示部108は、提示映像作成部106から受け取った提示映像を表示するディスプレイである。ディスプレイは、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(electroluminescence display)等、後方映像を視認している風景と比較し得る映像品質が得られるディスプレイであれば、どのような構成を用いるものであってもよい。   The display unit 108 is a display that displays the presentation video received from the presentation video creation unit 106. As long as the display is a display that can obtain a video quality comparable to the scenery where the rear image is viewed, such as an LCD (Liquid Crystal Display), PDP (Plasma Display Panel), EL (electroluminescence display), etc. May be used.

(動作その他)
次に、第1実施形態のナビゲーション装置の動作を説明する。
図5は、第1実施形態のナビゲーション装置の動作を説明するためのフローチャートである。情報格納処理部105は、往路においてイベント(特定の車両挙動)が発生するタイミングで撮像した後方映像に自車両の位置情報を対応付けてなる提示データを地図DBに記録する(ステップS501)。
次に、提示映像作成部106は、乗員の操作等によって復路の走行を開始するか否か判断する(ステップS502)。復路の走行が開始していない場合(ステップS502:No)、提示映像作成部106は待機状態となる。
(Operation other)
Next, the operation of the navigation device of the first embodiment will be described.
FIG. 5 is a flowchart for explaining the operation of the navigation device of the first embodiment. The information storage processing unit 105 records, in the map DB, presentation data in which position information of the host vehicle is associated with a rear image captured at the timing when an event (specific vehicle behavior) occurs on the forward path (step S501).
Next, the presentation video creation unit 106 determines whether or not to start traveling on the return path by an occupant's operation or the like (step S502). When traveling on the return path has not started (step S502: No), the presentation video creation unit 106 enters a standby state.

一方、復路の走行を開始すると判断すると(ステップS502:Yes)、提示映像作成部106は、自車位置より進行方向に予め設定した距離だけ離れた位置に対応する提示データを地図DB107から取得する。そして、取得した提示データの映像を表示部に表示する。提示映像作成部106は、この処理を復路走行中に順次実施することで、往路で撮像した後方映像を、逆再生するかように運転者に提示する(ステップS503)。
ここで、往路での後方映像は、復路では前方映像に相当する映像となるので、復路走行時においては、車両前方の走行すべき方向を示す映像として表示部に提示される。従って、運転者は、提示された映像と同じ方向を走行するように案内されることで、往路で走行した道を安心して走行することが可能となる。
On the other hand, if it is determined to start traveling on the return path (step S502: Yes), the presentation video creation unit 106 acquires presentation data corresponding to a position away from the own vehicle position by a preset distance in the traveling direction from the map DB 107. . And the image | video of the acquired presentation data is displayed on a display part. The presentation video creation unit 106 performs this process sequentially during the backward travel, thereby presenting the rear video captured on the forward path to the driver so as to reversely play back (step S503).
Here, the rear image on the forward path becomes an image corresponding to the front image on the return path, and thus is displayed on the display unit as an image indicating the direction in which the vehicle should travel in the forward path. Therefore, the driver can travel with peace of mind on the road traveled on the forward path by being guided to travel in the same direction as the presented image.

また、上記実施形態では、予め設定した車両挙動変化(イベント)が発生したときの後方映像だけを、提示映像とする場合を例示している。これに代えて、車両挙動変化の有無に関係なく、予め設定した時間間隔で後方映像とその車両位置からなる提示データを記録しておき、その提示データを往路で提示するように構成しても良い。
ここで自車位置取得部103は、車両位置取得部に対応する。リアカメラ102は後方撮像部に対応する。地図DB107は記憶部に対応する。提示映像作成部106及び表示部108は映像提示部に対応する。プローブDBは外部のデータベースに対応する。
Moreover, in the said embodiment, the case where only a back image | video when the preset vehicle behavior change (event) generate | occur | produces is made into a presentation image | video. Instead of this, it is possible to record the presentation data consisting of the rear image and the vehicle position at a preset time interval regardless of whether or not the vehicle behavior has changed, and to present the presentation data on the forward path. good.
Here, the host vehicle position acquisition unit 103 corresponds to the vehicle position acquisition unit. The rear camera 102 corresponds to the rear imaging unit. The map DB 107 corresponds to a storage unit. The presentation video creation unit 106 and the display unit 108 correspond to a video presentation unit. The probe DB corresponds to an external database.

(第1実施形態の効果)
本実施形態は、次の効果を奏する。
(1)情報格納処理部105は、自車位置取得部103が取得した車両の位置情報に基づき、上記リアカメラ102が撮像した後方映像を、後方映像を撮像したときの車両位置情報と対応付けてなる提示データとして地図DBに格納する。そして、提示映像作成部106は、提示データに基づき、上記地図DBに格納した提示データの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示する。
(Effect of 1st Embodiment)
This embodiment has the following effects.
(1) The information storage processing unit 105 associates the rear image captured by the rear camera 102 with the vehicle position information when the rear image is captured based on the vehicle position information acquired by the host vehicle position acquisition unit 103. Is stored in the map DB as presentation data. Then, the presentation video creation unit 106 displays a rear video in the presentation data corresponding to the vehicle position based on the presentation data in accordance with the timing when the host vehicle reaches the vehicle position of the presentation data stored in the map DB. Present it to the crew.

この構成によれば、自車両が例えば往路で走行した道路を復路で走行する際に、往路で通行した道路位置に自車両が達するタイミングで、往路で撮像した後方映像を乗員に提示する。ここで、往路と復路では自車両の進行方向が逆方向となるので、乗員に提示する後方映像は、復路においては車両前方の映像に相当する。このため、運転者は、提示された後方映像(復路では前方映像相当の映像)によって、走行する道路の方向を判断するための情報を得ることになる。この結果、運転者は、往路として走行した道路を復路として実際に走行しているか判断することが可能となる。   According to this configuration, when the host vehicle travels on a return road, for example, when the host vehicle travels on the return path, the rear image captured on the forward path is presented to the occupant at the timing when the host vehicle reaches a road position that has passed on the forward path. Here, since the traveling direction of the host vehicle is opposite in the forward path and the backward path, the rear image presented to the occupant corresponds to the image in front of the vehicle in the backward path. For this reason, the driver obtains information for determining the direction of the road on which the vehicle travels based on the presented rear image (image corresponding to the front image on the return route). As a result, it becomes possible for the driver to determine whether he / she actually travels using the road that has traveled as the forward path as the return path.

(2)提示映像作成部106は、上記自車両の現在の車両位置よりも予め設定した距離だけ進行方向前方の位置に対応する提示データ中の後方映像を提示する。
この構成によれば、自車両が将来位置する位置の映像を提示することで、運転者は、予め走行方向を判断することが可能となる。この結果、より目的の道路に沿って走行し易くなる。
例えば、自車両が交差点に入ってから運転者に右折、左折等の指示がなされることを防ぐことができる。
(2) The presentation video creation unit 106 presents a rear video in the presentation data corresponding to a position ahead of the traveling direction by a preset distance from the current vehicle position of the host vehicle.
According to this configuration, the driver can determine the traveling direction in advance by presenting an image of the position where the host vehicle will be located in the future. As a result, it becomes easier to travel along the target road.
For example, it is possible to prevent the driver from being instructed to turn right or left after entering the intersection.

(3)情報格納処理部105は、予め設定した設定挙動変化を検出したときに上記提示データを記憶部に格納するか、記憶部に格納する提示データに上記設定挙動変化を検出した情報として提示位置情報を付加する処理を行う。そして、上記提示映像作成部106は、上記提示データに基づき、上記設定挙動変化を検出したときの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示する。   (3) The information storage processing unit 105 stores the presentation data in the storage unit when detecting a preset setting behavior change, or presents the presentation data stored in the storage unit as information indicating the setting behavior change. Processing to add position information is performed. Based on the presentation data, the presentation video creation unit 106 displays a rear video in the presentation data corresponding to the vehicle position in accordance with the timing at which the host vehicle reaches the vehicle position when the set behavior change is detected. Present to vehicle occupants.

この構成によれば、車両の挙動変化として設定挙動変化が発生したときの映像を提示することになる。車両の挙動変化が発生するタイミングは、道路を確認すべきイベントであるので、そのようなイベントの発生したときの映像を提示することで、走行道路の確認が容易となる。
尚、車両の挙動変化が発生するようなイベントが発生したときの映像だけを提示するようにすると、運転者に対して、案内情報が必要なときと推定されるときだけ映像を提示する結果、運転者の負担が軽減する。
According to this configuration, an image when the set behavior change occurs as the behavior change of the vehicle is presented. Since the timing at which the behavior change of the vehicle occurs is an event for which a road should be confirmed, the traveling road can be easily confirmed by presenting a video when such an event occurs.
As a result of presenting the video only when it is presumed that guidance information is necessary for the driver, if only the video when the event that causes the behavior change of the vehicle occurs is presented, The burden on the driver is reduced.

(4)上記設定挙動変化の検出は、自車両の進行方向の変更、制駆動力の予め設定した以上の変化、及び車速が予め設定した車速以下に変化の少なくとも1つの変化に関する情報に基づき検出する。自車両の進行方向の変更は、操舵角の変化や方向指示器の操作情報で判定出来る。制駆動力の予め設定した以上の変化は、ブレーキ操作量、制動力などによって判定出来る。車速が予め設定した車速以下に変化は、車速によって判定出来る。
このような車両の挙動変化は、運転者による運転状況の変更であって、運転者にとって道路を確認すべきイベントであるので、そのようなイベントの発生したときの映像を提示することで、走行道路の確認が容易となる。
(4) The detection of the change in the set behavior is detected based on information related to at least one change in change in the traveling direction of the host vehicle, a change in braking / driving force more than a preset value, and a change in vehicle speed below a preset vehicle speed. To do. The change of the traveling direction of the host vehicle can be determined by the change of the steering angle or the operation information of the direction indicator. The change beyond the preset braking / driving force can be determined by the brake operation amount, the braking force, and the like. The change of the vehicle speed below the preset vehicle speed can be determined by the vehicle speed.
Such a change in vehicle behavior is a change in the driving situation by the driver, and is an event for the driver to check the road. Confirmation of road becomes easy.

(5)提示映像作成部106は、提示データ中の車両挙動に関する情報を提示する後方映像に重ねて提示する。車両挙動に関する情報とは、進路方向とか速度、ブレーキ操作などである。
この構成によれば、後方映像が撮像された往路の位置でした操作を運転者が思い出すことができるので、運転者が復路をより理解しやすくなる。
また場合によっては、運転者に対し、操作すべき内容を喚起することにも繋がる。
(5) The presentation video creation unit 106 presents information on the vehicle behavior in the presentation data in a superimposed manner on the rear video. The information on the vehicle behavior includes the course direction, speed, brake operation, and the like.
According to this configuration, since the driver can remember the operation that was the position of the forward path where the rear image was captured, the driver can more easily understand the return path.
In some cases, it also leads to alerting the driver of the contents to be operated.

(6)提示映像作成部106は、提示する後方映像を、提示する時間帯に応じた明るさに加工した後に乗員に提示する。
この構成によれば、提示する映像が、復路の時間帯での映像に近い映像となり、運転者は提示映像と実際の風景とを比較しやすくなる。
(7)提示映像作成部106は、提示する後方映像の位置を車両前方の映像としての位置にずらす加工をした後に乗員に提示する。
この構成によれば、提示する映像が、復路における車両前方の風景に近い映像となり、運転者は提示映像と実際の風景とを比較しやすくなる。
(6) The presentation video creation unit 106 presents the rear video to be presented to the occupant after processing the brightness according to the time zone to be presented.
According to this configuration, the video to be presented is a video close to the video in the time zone of the return trip, and the driver can easily compare the presented video with the actual landscape.
(7) The presentation video creation unit 106 presents to the occupant after processing to shift the position of the rear video to be presented to the position as the video ahead of the vehicle.
According to this configuration, the video to be presented becomes a video close to the scenery in front of the vehicle on the return path, and the driver can easily compare the presented video with the actual scenery.

(8)ナビゲーション装置は、複数の車両から提供された位置データと映像とを含む提供データを格納した外部のデータベースと通信して、当該データベース中の上記提供データを取得する通信機能を有する。そして、提示映像作成部106は、上記地図DBに格納した提示データの後方映像が提示不適切と判定すると、上記外部のデータベースと通信して上記提示データの車両位置と同一の車両位置の映像を含む提供データを取得して乗員に提示する。
この構成によれば、往路で撮像した後方映像が提示映像として不適当である場合、あるいは往路で後方映像を撮像できない道路を復路に選択した場合にも、映像に基づくナビゲーションを行うことができる。
(8) The navigation device has a communication function of communicating with an external database storing provision data including position data and images provided from a plurality of vehicles, and acquiring the provision data in the database. When the presentation video creation unit 106 determines that the rear video of the presentation data stored in the map DB is inappropriate for presentation, the presentation video creation unit 106 communicates with the external database to display a video at the same vehicle position as the vehicle position of the presentation data. Obtain provided data and present it to the crew.
According to this configuration, it is possible to perform navigation based on the video even when the rear video captured on the forward path is inappropriate as the presentation video, or when a road that cannot capture the rear video on the forward path is selected as the return path.

(変形例)
なお、第1実施形態は、以上説明した構成に限定されるものではない。例えば、以上説明した構成では、リアカメラの映像を静止映像としている。しかし、リアカメラは動画を撮像するものであってもよい。このような場合には、リアカメラが撮像した動画を情報格納処理部が順次位置情報と対応付けて記録し、提示映像作成部106がイベント発生のタイミングに合わせて映像から後方映像を切り出すようにしてもよい。さらに、リアカメラが動画を撮像する場合、第1実施形態は、動画をそのまま提示映像に利用することもできる。このような構成の合、動画と復路における自車両の位置との同期をとるため処理を実施する。
(Modification)
The first embodiment is not limited to the configuration described above. For example, in the configuration described above, the video from the rear camera is a still video. However, the rear camera may capture a moving image. In such a case, the information storage processing unit sequentially records the moving image captured by the rear camera in association with the position information, and the presentation video creation unit 106 cuts out the rear video from the video in accordance with the timing of the event occurrence. May be. Furthermore, when the rear camera captures a moving image, the first embodiment can also use the moving image as it is for the presented video. In such a configuration, processing is performed to synchronize the moving image and the position of the vehicle on the return path.

[第2実施形態]
次に、本発明の第2実施形態を説明する。なお、上記第1実施形態と同様な構成については同一の符号を付して説明する。
この第2実施形態は、第1実施形態が車両の操作を映像提示位置のイベントとしているのに対し、自車両の乗員が発話した音声を映像提示位置のイベントとしている。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected and demonstrated about the structure similar to the said 1st Embodiment.
In the second embodiment, the operation of the vehicle is an event at the video presentation position in the first embodiment, whereas the voice spoken by the passenger of the host vehicle is the event at the video presentation position.

(構成)
図6は、第2実施形態のナビゲーション装置101を説明するための図である。図6に示した構成のうち、図1に示した構成と同様の構成については同様の符号を付して説明を一部略すものとする。第2実施形態のナビゲーション装置101は、音声認識部604を備えた点が第1実施形態と相違する。
(Constitution)
FIG. 6 is a diagram for explaining the navigation device 101 according to the second embodiment. Among the configurations shown in FIG. 6, configurations similar to those shown in FIG. 1 are denoted by the same reference numerals, and description thereof is partially omitted. The navigation device 101 according to the second embodiment is different from the first embodiment in that a voice recognition unit 604 is provided.

図7は、図6に示した音声認識部604を説明するための図である。
音声認識部604は、音声を入力し、音声を音素に分解して認識する音素解析部701と、音素解析部701が認識した音声から、予め設定したキーワードを抽出するキーワード抽出部702とを備えている。そしてキーワード抽出部702が、予め設定したキーワードを抽出すると、その抽出情報を情報格納処理部に出力する。なお、音声抽出処理は、音声認識システムとして公知の技術を採用すればよい。
FIG. 7 is a diagram for explaining the speech recognition unit 604 shown in FIG.
The speech recognition unit 604 includes a phoneme analysis unit 701 that inputs speech, recognizes the speech by breaking it into phonemes, and a keyword extraction unit 702 that extracts a preset keyword from the speech recognized by the phoneme analysis unit 701. ing. When the keyword extracting unit 702 extracts a preset keyword, the extracted information is output to the information storage processing unit. In addition, what is necessary is just to employ | adopt a well-known technique as a speech recognition system for an audio | voice extraction process.

情報格納処理部は、音声認識部604から予め設定したキーワードを抽出したとするイベント情報を入力すると、そのときの後方映像を車両位置情報を付加した提示データとして地図DBに記憶する。情報格納処理部は、第1実施形態で説明した車両変化検出部110から、設定挙動変化を検出したときを示すイベント情報を入力したときもそのときの後方映像を車両位置情報を付加した提示データとして地図DBに記憶する。
その他の構成は、上記第1実施形態で説明した構成と同様の構成である。
When the event information indicating that a preset keyword is extracted from the voice recognition unit 604 is input from the voice recognition unit 604, the information storage processing unit stores the rear video at that time in the map DB as presentation data to which vehicle position information is added. The information storage processing unit also provides the presentation data with the vehicle position information added to the rear image at the time when the event information indicating that the setting behavior change is detected is input from the vehicle change detection unit 110 described in the first embodiment. Is stored in the map DB.
Other configurations are the same as the configurations described in the first embodiment.

(動作)
音素解析部701は、入力した音声を音素に分解する。音素は発生した順序でキーワード抽出部702に入力する。キーワード抽出部702に入力する音素は、例えば、「コ」、「コ」、「ヲ」、「ウ」、「セ」、「ツ」といった各々が1つの音を表すデータである。
キーワード抽出部702は、入力した音素を予め設定しているキーワードと比較する。そして、順次入力してくる音素がキーワードに一致した場合、イベントが発生したことを通知するイベント発生通知を情報格納処理部に出力する。
情報格納処理部105は、イベント発生のタイミングに合わせて後方映像を含む提示データを地図DBに格納する。
(Operation)
The phoneme analysis unit 701 decomposes the input speech into phonemes. Phonemes are input to the keyword extraction unit 702 in the order in which they are generated. The phonemes input to the keyword extraction unit 702 are, for example, data each representing one sound, such as “ko”, “ko”, “wo”, “u”, “se”, and “tsu”.
The keyword extraction unit 702 compares the input phoneme with a preset keyword. When the phonemes that are sequentially input match the keyword, an event occurrence notification for notifying that an event has occurred is output to the information storage processing unit.
The information storage processing unit 105 stores the presentation data including the rear video in the map DB in accordance with the event occurrence timing.

そして、復路において、往路で上記イベントが発生した位置に自車両が近づくと、地図DBから上記後方映像を抽出して表示部108に表示することで、運転者に提示する。
ここで、第2実施形態のイベントは、乗員が予め設定されているキーワードを発話したことによって発生する。キーワードとしては、乗員が意図して発話するものに設定することと、乗員が意図せずに発話するものに設定することができる。
Then, when the host vehicle approaches the position where the event occurs on the outbound route, the rear image is extracted from the map DB and displayed on the display unit 108 to be presented to the driver.
Here, the event of the second embodiment occurs when an occupant speaks a preset keyword. The keyword can be set so that the occupant speaks intentionally, or the keyword is uttered unintentionally by the occupant.

乗員が意図して発話する言葉をキーワードとする場合、例えば、「カメラ」、「撮像」、「チェック」といった言葉をキーワードとすることができる。このような場合、乗員は往路を走行しながら復路で参照したいポイントに達したときにキーワードを発話する。情報格納処理部は、乗員が発話するタイミングで後方映像を提示データとして地図DBに格納する。   In the case of using words intended by the occupant as keywords, for example, words such as “camera”, “imaging”, and “check” can be used as keywords. In such a case, the occupant speaks a keyword when he / she travels on the forward path and reaches a point to be referred to on the return path. The information storage processing unit stores the rear video as presentation data in the map DB at the timing when the occupant speaks.

このように、運転者が復路で映像提示をして貰いたい地点で特定のキーワードを発話することで、後方映像を記録して、その後復路において、その地点に自車両が近づいたときに映像を提示する。このため、運転者が、復路で確認したい地点に近づいたときに提示映像を作成することができる。
乗員が意図せずに発話する言葉をキーワードとする場合、例えば、「一回じゃ切り返せないよ」、「狭い」、「危ない」といった言葉をキーワードとすることができる。このような場合、乗員は往路を走行しながら無意識のうちに注意すべきポイントに達したときにキーワードを発話する。情報格納処理部は、乗員が発話するタイミングで後方映像を地図DBに記録して、提示可能とする。
In this way, the driver can present the video on the return route and speak a specific keyword at the point where he / she wants to go, so that the rear video is recorded and then the video is displayed when the vehicle approaches that point on the return route. Present. For this reason, a presentation image can be created when the driver approaches a point to be confirmed on the return path.
In the case of using words that are spoken unintentionally by the occupant as keywords, for example, words such as “cannot turn back once”, “narrow”, and “dangerous” can be used as keywords. In such a case, the occupant utters a keyword when he / she reaches a point to be aware of while traveling on the forward path. The information storage processing unit records the rear video in the map DB at the timing when the occupant speaks, and enables presentation.

この場合には、運転者が意識していなくても、注意すべき地点の映像を復路で提示可能となる。
さらに、第2実施形態では、運転者ばかりでなく、同乗者が発話した言葉をキーワードにマッチングすることができる。同乗者が発話した言葉をキーワードにマッチングする場合、例えば、「ここ」、「右に曲がって」、「次の信号」といった言葉をキーワードに設定する。
In this case, even if the driver is not conscious, it is possible to present a video of a point to be noted on the return path.
Furthermore, in the second embodiment, words spoken by not only the driver but also the passenger can be matched with the keyword. When matching a keyword spoken by a passenger with a keyword, for example, words such as “here”, “turn right”, and “next signal” are set as keywords.

「ここ」、「右に曲がって」、「次の信号」といった言葉は、同乗者が往路において運転者を案内する際に使用されると可能性が高い。このため、上記構成によれば、往路において同乗者が運転者に道を指示したタイミングで後方映像を撮像する。そして、後方映像を使って提示映像を作成することができる。運転者は、往路で指示を受けた位置の後方映像を参照しながら復路を走行することができるので、復路を容易に認識することができる。
以上説明した第2実施形態では、音素解析部701は音声認識部に対応する。
The terms “here”, “turn right”, and “next signal” are likely to be used when the passenger guides the driver on the way out. For this reason, according to the said structure, a back image | video is imaged at the timing when the passenger instruct | indicated the road to the driver in the outward path. Then, the presentation video can be created using the rear video. Since the driver can travel on the return path while referring to the rear image of the position where the instruction is received on the outward path, the driver can easily recognize the return path.
In the second embodiment described above, the phoneme analysis unit 701 corresponds to a speech recognition unit.

(第2実施形態の効果)
第2実施形態は、上記第1実施形態の効果に加えて、以下の効果を奏する。
(1)ナビゲーション装置は、予め設定したキーワードを含む音声を検出すると、そのときの後方映像を車両位置と共に提示データとして記録する。そして、提示映像作成部106は、自車両が上記提示位置に対応する車両位置に達するタイミングに応じて上記後方映像を提示する。
この構成によれば、予め設定したキーワードを含む音声を検出した地点に近づいたときに、走行案内のための映像を提示可能となる。
例えば、乗員が意識的に発話した場合には、乗員が復路において参照したい映像を提示可能となる。また、乗員が意識することなく発話した言葉をキーワードにすることができる。
(Effect of 2nd Embodiment)
In addition to the effects of the first embodiment, the second embodiment has the following effects.
(1) When the navigation device detects a voice including a preset keyword, the navigation device records the rear video at that time together with the vehicle position as presentation data. And the presentation image | video preparation part 106 presents the said back image | video according to the timing which the own vehicle arrives at the vehicle position corresponding to the said presentation position.
According to this configuration, it is possible to present a video for driving guidance when approaching a point where a voice including a preset keyword is detected.
For example, when the occupant consciously speaks, it is possible to present a video that the occupant wants to refer to on the return path. In addition, words spoken without the consciousness of the occupant can be used as keywords.

101 ナビゲーション装置
102 リアカメラ
103 自車位置取得部
104 車両情報取得部
105 情報格納処理部
106 提示映像作成部
108 表示部
109 通信部
110 車両変化検出部
111 サーバ装置
113 データセンタ
301 コントラスト判定部
302 提示映像判定部
303 後方映像取得部
304 映像加工部
604 音声認識部
701 音素解析部
702 キーワード抽出部
107 地図DB
112 プローブDB
DESCRIPTION OF SYMBOLS 101 Navigation apparatus 102 Rear camera 103 Own vehicle position acquisition part 104 Vehicle information acquisition part 105 Information storage process part 106 Presentation image creation part 108 Display part 109 Communication part 110 Vehicle change detection part 111 Server apparatus 113 Data center 301 Contrast determination part 302 Presentation Video determination unit 303 Rear video acquisition unit 304 Video processing unit 604 Voice recognition unit 701 Phoneme analysis unit 702 Keyword extraction unit 107 Map DB
112 Probe DB

Claims (10)

自車両の位置情報を取得する車両位置取得部と、
自車両の進行方向後方を撮像する後方撮像部と、
上記車両位置取得部が取得した車両の位置情報に基づき、上記後方撮像部が撮像した後方映像を、後方映像を撮像したときの車両位置情報と対応付けて提示データとして記憶部に格納する情報格納処理部と、
上記提示データに基づき、上記記憶部に格納した提示データの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示する映像提示部と、を備えることを特徴とするナビゲーション装置。
A vehicle position acquisition unit for acquiring position information of the own vehicle;
A rear imaging unit that images rearward of the traveling direction of the host vehicle;
Based on the vehicle position information acquired by the vehicle position acquisition unit, information storage for storing the rear image captured by the rear imaging unit in the storage unit as presentation data in association with the vehicle position information when the rear image is captured A processing unit;
A video presentation unit for presenting a rear video in the presentation data corresponding to the vehicle position to a vehicle occupant in accordance with the timing at which the host vehicle reaches the vehicle position of the presentation data stored in the storage unit based on the presentation data; A navigation device comprising:
上記映像提示部は、上記自車両の現在の車両位置よりも予め設定した距離だけ進行方向前方の位置に対応する提示データ中の後方映像を提示することを特徴とする請求項1に記載のナビゲーション装置。   The navigation according to claim 1, wherein the video presentation unit presents a rear video in the presentation data corresponding to a position ahead of the traveling direction by a preset distance from the current vehicle position of the host vehicle. apparatus. 上記自車両の車両挙動変化のうち予め設定した設定挙動変化を検出する車両変化検出部を更に備え、
上記情報格納処理部は、上記車両変化検出部が上記設定挙動変化を検出したときに上記提示データを記憶部に格納するか、上記設定挙動変化を検出した情報を示す提示位置情報を、記憶部に格納する提示データに付加する処理を行い、
上記映像提示部は、上記提示データに基づき、上記設定挙動変化を検出したときの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示することを特徴とする請求項1又は請求項2に記載のナビゲーション装置。
A vehicle change detector for detecting a preset behavior change among the vehicle behavior changes of the host vehicle;
The information storage processing unit stores the presentation data in a storage unit when the vehicle change detection unit detects the set behavior change, or provides presentation position information indicating information on which the set behavior change is detected. Process to add to the presentation data stored in
Based on the presentation data, the video presentation unit displays a rear video in the presentation data corresponding to the vehicle position to the vehicle occupant in accordance with the timing when the host vehicle reaches the vehicle position when the set behavior change is detected. The navigation device according to claim 1 or 2, wherein the navigation device is presented.
上記設定挙動変化の検出は、自車両の進行方向の変更、制駆動力の予め設定した以上の変化、及び車速が予め設定した車速以下に変化の少なくとも1つの変化に関する情報に基づき検出することを特徴とする請求項3に記載のナビゲーション装置。   The detection of the set behavior change is detected based on information on a change in the traveling direction of the host vehicle, a change in braking / driving force more than a preset value, and a change in vehicle speed below a preset vehicle speed. The navigation device according to claim 3. 上記提示データは、車両挙動に関する情報も含み、
上記映像提示部は、提示データ中の車両挙動に関する情報を後方映像に重ねて提示することを特徴とする請求項1〜請求項4のいずれか1項に記載のナビゲーション装置。
The presentation data includes information on vehicle behavior,
The navigation device according to any one of claims 1 to 4, wherein the video presentation unit presents information related to vehicle behavior in the presentation data in a superimposed manner on a rear video.
自車両の乗員が発話した音声を認識する音声認識部と、
上記音声認識部が認識した音声が、予め設定したキーワードを含むか否か判定するキーワード判定部と、をさらに含み、
上記情報格納処理部は、上記キーワード判定部が上記キーワードを含むと判定したときの上記車両位置を上記後方映像の提示位置として記録し、
上記映像提示部は、自車両が上記提示位置に対応する車両位置に達するタイミングに応じて上記後方映像を提示することを特徴とする請求項1〜請求項5のいずれか1項に記載のナビゲーション装置。
A voice recognition unit for recognizing voice spoken by a passenger of the vehicle,
A keyword determination unit that determines whether or not the voice recognized by the voice recognition unit includes a preset keyword;
The information storage processing unit records the vehicle position when the keyword determination unit determines that the keyword is included, as a presentation position of the rear video,
The navigation according to any one of claims 1 to 5, wherein the video presentation unit presents the rear video according to a timing at which the host vehicle reaches a vehicle position corresponding to the presentation position. apparatus.
上記映像提示部は、提示する後方映像を、提示する時間帯に応じた明るさに加工した後に乗員に提示することを特徴とする請求項1〜請求項6のいずれか1項に記載のナビゲーション装置。   The navigation according to any one of claims 1 to 6, wherein the video presentation unit presents the rear video to be presented to an occupant after processing the brightness according to the time zone to be presented. apparatus. 上記映像提示部は、提示する後方映像の位置を車両前方の映像としての位置にずらす加工をした後に乗員に提示することを特徴とする請求項1〜請求項7のいずれか1項に記載のナビゲーション装置。   The said image | video presentation part presents to a passenger | crew, after processing to which the position of the back image to show is shifted to the position as an image ahead of vehicles, The occupant of any one of Claims 1-7 characterized by the above-mentioned. Navigation device. 複数の車両から提供された位置データと映像とを含む提供データを格納した外部のデータベースと通信して当該データベース中の上記提供データを取得する通信機能を有し、
上記映像提示部は、上記記憶部に格納した提示データの後方映像が提示不適切と判定すると、上記外部のデータベースと通信して上記提示データの車両位置と同一の車両位置の映像を含む提供データを取得して乗員に提示することを特徴とする請求項1〜請求項8のいずれか1項に記載のナビゲーション装置。
Having a communication function of communicating with an external database storing provision data including position data and images provided from a plurality of vehicles to obtain the provision data in the database;
If the video presentation unit determines that the rear video of the presentation data stored in the storage unit is inappropriate for presentation, the provided data includes a video of the same vehicle position as the vehicle position of the presentation data by communicating with the external database. The navigation apparatus according to claim 1, wherein the navigation apparatus is acquired and presented to the occupant.
自車両が目的地に向かって走行する往路において、上記車両進行方向後方の映像である後方映像を撮像し、その後方映像を撮像時の車両位置を対応付けてなる提示データを記録し、
自車両が上記目的地から走行する復路において、上記記録した提示データに基づき、自車両の現在位置に対応する提示データ中の後方映像を自車両の乗員に提示することを特徴とするナビゲーション方法。
In the outward path where the host vehicle travels toward the destination, the rear image that is the image behind the vehicle traveling direction is imaged, and the presentation data that associates the vehicle position at the time of imaging the rear image is recorded.
A navigation method comprising presenting a rear image in presentation data corresponding to a current position of a host vehicle to a passenger of the host vehicle based on the recorded presentation data on a return path in which the host vehicle travels from the destination.
JP2011159306A 2011-07-20 2011-07-20 Navigation device and navigation method Withdrawn JP2013024709A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011159306A JP2013024709A (en) 2011-07-20 2011-07-20 Navigation device and navigation method
PCT/JP2012/003753 WO2013011622A1 (en) 2011-07-20 2012-06-08 Navigation device, and navigation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011159306A JP2013024709A (en) 2011-07-20 2011-07-20 Navigation device and navigation method

Publications (1)

Publication Number Publication Date
JP2013024709A true JP2013024709A (en) 2013-02-04

Family

ID=47557826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011159306A Withdrawn JP2013024709A (en) 2011-07-20 2011-07-20 Navigation device and navigation method

Country Status (2)

Country Link
JP (1) JP2013024709A (en)
WO (1) WO2013011622A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003603A1 (en) * 2017-06-29 2019-01-03 株式会社デンソー Collision prediction device and collision prediction method
JP2019109706A (en) * 2017-12-18 2019-07-04 トヨタ自動車株式会社 Server device, information processing method, data structure and risk information provision method
WO2022163496A1 (en) * 2021-01-29 2022-08-04 三菱電機株式会社 Driving support information distribution device, traffic system, traffic control system, vehicle, vehicle control device, and computer program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4004798B2 (en) * 2002-01-09 2007-11-07 三菱電機株式会社 Distribution device, display device, distribution method, and information distribution / display method
JP2005214693A (en) * 2004-01-28 2005-08-11 Alpine Electronics Inc Navigation system for mounting in vehicle and its screen displaying method
JP4858212B2 (en) * 2007-02-16 2012-01-18 トヨタ自動車株式会社 Car navigation system
JP2008249654A (en) * 2007-03-30 2008-10-16 Pioneer Electronic Corp Record reproducing device, method, program, and recording medium
KR20110079782A (en) * 2007-07-31 2011-07-07 산요덴키가부시키가이샤 Navigation device and image management method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003603A1 (en) * 2017-06-29 2019-01-03 株式会社デンソー Collision prediction device and collision prediction method
JP2019012314A (en) * 2017-06-29 2019-01-24 株式会社デンソー Collision estimation device and collision estimation method
US11351997B2 (en) 2017-06-29 2022-06-07 Denso Corporation Collision prediction apparatus and collision prediction method
JP2019109706A (en) * 2017-12-18 2019-07-04 トヨタ自動車株式会社 Server device, information processing method, data structure and risk information provision method
JP7077602B2 (en) 2017-12-18 2022-05-31 トヨタ自動車株式会社 Server equipment, information processing method and danger information provision method
WO2022163496A1 (en) * 2021-01-29 2022-08-04 三菱電機株式会社 Driving support information distribution device, traffic system, traffic control system, vehicle, vehicle control device, and computer program

Also Published As

Publication number Publication date
WO2013011622A1 (en) 2013-01-24

Similar Documents

Publication Publication Date Title
JP5106540B2 (en) In-vehicle information provider
US7642931B2 (en) Driving support image-display apparatus and program therefor
JP4981566B2 (en) Driving support device and driving support method
US20130124083A1 (en) Method for position determination
JP2006284458A (en) System for displaying drive support information
JP2008280026A (en) Driving assistance device
JP2007249364A (en) Safe driving support system and device
JP5898539B2 (en) Vehicle driving support system
WO2021024798A1 (en) Travel assistance method, road captured image collection method, and roadside device
JP2009193135A (en) Onboard monitor device
JP2010026618A (en) On-vehicle navigation device and intersection entry guidance method
JP2008276642A (en) Traveling lane recognition device and traveling lane recognition method
JP2011117842A (en) Vehicle travel guide apparatus, vehicle travel guide method, and computer program
JP2007028363A (en) Top view image generating apparatus and top view image display method
WO2013011622A1 (en) Navigation device, and navigation method
JP6136238B2 (en) Driving support system, driving support method, and computer program
JP2010008162A (en) Surrounding information displaying device and surrounding information displaying method
WO2014076841A1 (en) Display apparatus, control method, program, and recording medium
JP6473936B2 (en) Self-driving car
JP2008090683A (en) Onboard navigation device
JP2014044458A (en) On-vehicle device and danger notification method
JP2006273190A (en) On-vehicle navigation device
JP2017208056A5 (en)
JP7215184B2 (en) ROUTE GUIDANCE CONTROL DEVICE, ROUTE GUIDANCE CONTROL METHOD, AND PROGRAM
WO2020008876A1 (en) Information processing device, information processing method, program, and mobile body

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007