JP2013024709A - Navigation device and navigation method - Google Patents
Navigation device and navigation method Download PDFInfo
- Publication number
- JP2013024709A JP2013024709A JP2011159306A JP2011159306A JP2013024709A JP 2013024709 A JP2013024709 A JP 2013024709A JP 2011159306 A JP2011159306 A JP 2011159306A JP 2011159306 A JP2011159306 A JP 2011159306A JP 2013024709 A JP2013024709 A JP 2013024709A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- video
- presentation
- unit
- presentation data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 18
- 238000012545 processing Methods 0.000 claims description 38
- 238000001514 detection method Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 7
- 239000000523 sample Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両の走行の案内を行うナビゲーションの技術に関する。 The present invention relates to a navigation technique that provides guidance for traveling of a vehicle.
特許文献1記載の発明は、予め細街路に関する地図情報を備えている。そして、特許文献1記載の発明は、ナビゲーション装置が表示する道路の数等が予め設定した数より少なくなると、細街路に関する地図情報を表示する。これによって、道路の少ない地域においては、できるだけ細街路を表示して自車位置の確認等に活用出来ると記載されている。 The invention described in Patent Document 1 includes map information related to narrow streets in advance. And invention of patent document 1 displays the map information regarding a narrow street, when the number etc. of the road which a navigation apparatus displays becomes less than the preset number. As a result, it is described that in areas with few roads, narrow streets can be displayed as much as possible to check the position of the vehicle.
運転者が知らない細街路を通って目的地に向かう場合に、同乗者が目的地まで道案内することがある。このような場合、同乗者が目的地で降車すると、運転者は同乗者の案内なしで復路を走行しなければならない。このとき、運転者は、同乗者の案内によって走行した実績がある道路を通って主要な道路(県道など)に戻ろうとするが、運転者は往路として走行した道路を復路として実際に走行しているか分からずに不安になることがある。 When heading to a destination through a narrow street that the driver does not know, the passenger may guide the destination to the destination. In such a case, when the passenger gets off at the destination, the driver must travel on the return route without the passenger's guidance. At this time, the driver tries to return to the main road (prefectural road, etc.) through the road that has been driven by the passenger's guidance, but the driver actually travels as the return road on the road that has traveled as the outward path. You may become anxious without knowing.
しかし、特許文献1に記載の技術では、細街路の地図情報を表示することはできるものの、走行した往路を復路として走行しているかどうかを判断し難いという問題がある。
本発明は、上記のような点に着目したもので、過去に走行した道路を逆方向に走行する際に、走行する道路の方向を判断し易くするための情報を提供することを目的とする。
However, although the technique described in Patent Document 1 can display map information of narrow streets, there is a problem that it is difficult to determine whether or not the vehicle travels with the traveled path as a return path.
The present invention focuses on the above points, and an object of the present invention is to provide information for facilitating determination of the direction of a traveling road when traveling in the reverse direction on a road that has traveled in the past. .
以上の課題を解決するため、本発明の一態様は、自車両の進行方向後方を撮像した後方映像を、後方映像を撮像したときの車両位置情報と対応付けて提示データとして記憶部に格納する。そして、本発明の一態様は、その格納した提示データに基づき、上記提示データの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示する。 In order to solve the above-described problems, according to one aspect of the present invention, a rear image obtained by capturing the rearward direction of the host vehicle is stored in the storage unit as presentation data in association with vehicle position information when the rear image is captured. . Then, according to one aspect of the present invention, based on the stored presentation data, a rear image in the presentation data corresponding to the vehicle position is displayed to the vehicle occupant in accordance with the timing at which the host vehicle reaches the vehicle position of the presentation data. Present.
本発明によれば、自車両が例えば往路で走行した道路を復路で走行する際に、往路で通行した道路位置に自車両が達するタイミングで、往路で撮像した後方映像を乗員に提示する。ここで、往路と復路では自車両の進行方向が逆方向となるので、乗員に提示する後方映像は、復路においては車両前方を映した映像に相当する。このため、運転者は、提示された後方映像(復路では前方映像相当の映像)によって、走行する道路の方向をより判断し易くするための情報を得ることになる。この結果、運転者は、往路として走行した道路を復路として実際に走行しているか判断することが可能となる。 According to the present invention, for example, when the host vehicle travels on a return road on a road on which the host vehicle has traveled, the rear image captured on the outbound route is presented to the occupant at the timing when the host vehicle reaches the position of the road that has traveled on the outbound route. Here, since the traveling direction of the host vehicle is opposite in the forward path and the backward path, the rear image presented to the occupant is equivalent to an image showing the front of the vehicle in the backward path. For this reason, the driver obtains information for making it easier to determine the direction of the road on which the vehicle travels based on the presented rear image (image corresponding to the front image on the return route). As a result, it becomes possible for the driver to determine whether he / she actually travels using the road that has traveled as the forward path as the return path.
以下、図を参照して本発明に係る本発明の実施形態に係るナビゲーション装置を説明する。
[第1実施形態]
図1は、第1実施形態のナビゲーション装置を説明するためのブロック図である。第1実施形態のナビゲーション装置101は、自車両に搭載するナビゲーション装置である。ナビゲーション装置101は、通信部109を含み、通信部109によってデータセンタ113のサーバ装置111と通信可能な構成となっている。データセンタ113は、プローブDB(データベース)112を備えている。プローブDB112は、複数の車両c1、c2、c3から、各車両で撮像した映像を、撮像位置を含む提供データとして受信して蓄積している。このような車両c1〜c3を、以降、プローブカーとも記す。サーバ装置111は、プローブカーが提供した映像を含む提供データを、プローブDB112に蓄積すると共に、要求に応じて、提供データを他の車両(例えば車両c4)に提供する。
Hereinafter, a navigation device according to an embodiment of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram for explaining the navigation device of the first embodiment. The
なお、データセンタ113は、例えば車両に取り付けた発信機からの電波を受信して、走行中の車両の位置や状況を管理するシステムで構成される。
ここで、本発明は、上記データセンタ113との通信機能は必ずしも必要ではない。
ナビゲーション装置101は、自車両に搭載されて自車両の進行方向に対する反対方向(後方)の映像(以降、後方映像と記す)を撮像するリアカメラ102と、自車両の位置を検出する自車位置取得部103と、車両情報取得部104と、車両変化検出部110と、後方映像を、この後方映像を撮像したときに自車位置取得部103が検出した自車両の位置(以降、車両位置と記す)と対応付けて提示データとして記録する情報格納処理部105と、情報格納処理部105が記録した提示データの後方映像に基づき提示する映像を作成する提示映像作成部106と、提示映像を自車両の乗員に対して表示する表示部108と、を備える。
Note that the
Here, the present invention does not necessarily require a communication function with the
The
さらに、ナビゲーション装置101は、提示映像(後方映像)を含む提示データを蓄積する記憶部である地図DB107を備える。
このような第1実施形態では、目的地を出発して走行する場合、目的地に到達するまでの走行路(以下、往路と記す)で後方映像を撮像して順次記録する。また、目的地を出発して帰る走行路(以下、復路と記す)では、往路で撮像し記録した映像を、順次、車両前方への走行案内の情報映像として、自車両の乗員に提示する。
Furthermore, the
In such a first embodiment, when traveling from the destination, the rear video is captured and sequentially recorded on the travel route (hereinafter referred to as the forward route) until the destination is reached. In addition, on a travel route that departs from the destination and returns (hereinafter referred to as a return route), the images captured and recorded on the outbound route are sequentially presented to the passengers of the host vehicle as information images for traveling guidance ahead of the vehicle.
(構成)
次に本実施形態の構成について説明する。
図2は、車両情報取得部104が車両情報を取得することを具体的に説明するための図である。なお、図2に示す自車両は、前輪操舵の車両である。
自車両は、図2に示すように、リアカメラ102、車速センサ2、ヨーレートセンサ3、加速度センサ4、操舵角センサ5及び方向指示器に対する操作を検出する方向指示器センサ7を有している。これらセンサ類は、検出信号を車両情報取得部104に出力する。
(Constitution)
Next, the configuration of the present embodiment will be described.
FIG. 2 is a diagram for specifically explaining that the vehicle
As shown in FIG. 2, the host vehicle has a
リアカメラ102は、撮像軸を自車両の後方に向けた状態で車両に搭載されて、自車両後方の風景(走行環境)を撮像する。そして撮像した映像を、後方映像として情報格納処理部105に出力する。上記映像は例えば静止画像である。
車速センサ2は、車輪の回転数を検出する。例えば、車輪に取り付けたロータリーエンコーダ等が利用可能である。そして、車輪の回転に比例して発生するパルス信号を検出することで車速を計測する。
The
The
ヨーレートセンサ3は、自車両に発生するヨーレートを検出する。例えば、水晶振動子や半導体を用いて構成したデバイスを利用する。加速度センサ4は、自車両に発生する特定の方向の加速度を検出する。例えば、圧電素子等を用いて構成したデバイスを利用する。操舵角センサ5は、操舵の回転角度を検出する。例えば、操舵角センサ5をステアリングコラム内に設けて、ステアリングホイール8の操舵角を検出する。方向指示器センサ7は、図示しない方向指示器を操作する方向指示器スイッチの操作が右折を示すものか左折を示すものかを検出する。これによって、車両挙動変化のうちの進行方向の変更を検出することが出来る。 The yaw rate sensor 3 detects the yaw rate generated in the host vehicle. For example, a device configured using a crystal resonator or a semiconductor is used. The acceleration sensor 4 detects acceleration in a specific direction generated in the host vehicle. For example, a device configured using a piezoelectric element or the like is used. The steering angle sensor 5 detects the rotation angle of steering. For example, the steering angle sensor 5 is provided in the steering column, and the steering angle of the steering wheel 8 is detected. The direction indicator sensor 7 detects whether an operation of a direction indicator switch for operating a direction indicator (not shown) indicates a right turn or a left turn. Thereby, the change of the advancing direction among the vehicle behavior changes can be detected.
また、加速度センサ4によって、予め設定した時間よりも短い時間で自車両を停止させたブレーキ操作(急ブレーキ)を検出することができる。ブレーキ操作量自体でも急ブレーキを検出することが出来る。すなわち、これによって、制駆動力の予め設定した以上の変化を検出することが出来る。また、車速センサ2によって自車両が予め設定した速度よりも低速度で走行したことを検出することができる。
The acceleration sensor 4 can detect a brake operation (rapid braking) that stops the host vehicle in a time shorter than a preset time. Sudden braking can be detected by the brake operation amount itself. In other words, this makes it possible to detect a change in braking / driving force that exceeds a preset value. The
また、図1に戻って、自車位置取得部103は、GPS(Global Positioning System)を利用して自車両の位置情報(緯度経度情報)を取得する。自車位置取得部103は、予め設定した時間サイクルで連続的に位置情報を取得し、検出した位置情報を順次、情報格納処理部105及び提示映像作成部106に渡している。
車両情報取得部104は、車速センサ2、ヨーレートセンサ3、加速度センサ4、操舵角センサ5及び方向指示器センサ7から自車両の操作の状態を示す情報である車両情報を取得する。
Returning to FIG. 1, the own vehicle
The vehicle
車両変化検出部110は、上記自車両の車両挙動変化のうち予め設定した設定挙動変化を検出する。自車両の進行方向の変更、制駆動力の予め設定した以上の変化、及び車速が予め設定した車速以下に変化の少なくとも1つの変化に関する情報に基づき検出する。自車両の進行方向の変更は、経てば操舵角の情報によって検出可能である。制駆動力の予め設定した以上の変化は、前後加速度や、ブレーキ操作量によって検出可能である。車速が予め設定した車速以下に変化は、車速センサによって検出可能である。
The vehicle
情報格納処理部105は、リアカメラ102から後方映像を受け取る。また、自車位置取得部103から自車両の位置情報を受け取る。そして、後方映像とその後方映像を撮像したときの車両位置情報と対応付けた提示データを、地図DB107に蓄積する。
このとき、情報格納処理部105は、車両変化検出部110が上記設定挙動変化を検出したときだけ上記提示データを地図DB107に格納する。または情報格納処理部105は、地図DB107に格納する提示データに対し、上記設定挙動変化を検出した事を示す情報として提示位置情報を付加して提示データの蓄積処理を行う。以下の例では、車両変化検出部110が上記設定挙動変化を検出したときだけ上記提示データを地図DB107に格納する場合で説明する。
The information
At this time, the information
提示映像作成部106は、例えば運転者の操作によって情報提示要求がある場合に作動する。すなわち、提示映像作成部106は、自車両の乗員が操作信号を入力することによって復路の走行開始を検出して、映像提示の処理を開始する構成とする。
そして、提示映像作成部106は、自車位置取得部103から自車両の現在位置にかかる位置情報を取得する。そして提示映像作成部106は、取得した自車両の現在の車両位置よりも予め設定した距離だけ進行方向前方の位置の提示データを地図DB107から抽出し、抽出した提示データ中の後方映像を提示映像として表示部108に表示する。この表示によって、提示データ中の後方映像を車両の乗員に提示する。このとき、提示データに提示位置情報の設定がある場合には、その提示位置情報の設定がある提示データの後方映像のみを車両の乗員に提示するようにすることが好ましい。提示位置情報の設定がある提示データの後方映像は、設定挙動変化が車両に発生したときの映像である。すなわち、例えば、右折すべき位置に自車両が達する以前に右折すべき位置を自車両の乗員に知らせることができる。このため、運転者は落ち着いて自車両を操作することができる。
The presentation
Then, the presentation
さらに、提示映像作成部106は、提示映像の作成時、情報格納処理部105から受け取った後方映像が提示映像に採用できるか否か判断する。そして、後方映像が提示映像として不適切と判定した場合には、通信部109を介してプローブDB112中の映像提示位置の車両位置で撮影した映像を含む提供データを取得する。そして、取得した提供データ中の映像を表示部を介して乗員に提示する。
Furthermore, the presentation
後方映像の適、不適の判断は、例えば、以下のようにして行われる。
図3は、第1実施形態の提示映像作成部106を説明するための図である。図3に示すように、提示映像作成部106は、コントラスト判定部301、提示映像判定部302、後方映像取得部303、映像加工部304を備える。
コントラスト判定部301は、地図DBから受け取った後方映像のコントラストを判定する。すなわち、コントラスト判定部301は、後方映像を、例えば複数の比較的小さい領域に分割する。そして、この領域に含まれる画素のうち隣り合うものの輝度の差を算出し、この平均値を算出する。そして、輝度の差が予め設定した閾値より小さい領域全体の大きさを提示映像判定部302に出力する。
The determination of whether or not the rear image is appropriate is performed, for example, as follows.
FIG. 3 is a diagram for explaining the presentation
The
提示映像判定部302は、コントラスト判定部301の判定結果に基づいて後方映像が提示映像として適切であるか否かを判定する。すなわち、提示映像判定部302は、コントラスト判定部301から受け取った大きさが後方映像に占める割合を、予め設定した閾値と比較する。そして、この割合が閾値よりも大きい場合、この後方映像が提示映像に不適当であると判定する。
The presentation
ここで、輝度の差が閾値より小さい領域が後方映像に占める割合が大きいとき、後方映像を提示映像に不適当であると判断する理由は、以下のとおりである。すなわち、後方映像の広い範囲で輝度の差が小さい場合、後方映像に後続車等が映って風景が視認し難い可能性がある。また、後方映像の広い範囲で輝度の差が小さい場合、雨や霧等によって後方映像から風景が視認し難い可能性がある。 Here, the reason why it is determined that the rear video is inappropriate for the presentation video when the area where the luminance difference is smaller than the threshold is large in the rear video is as follows. That is, when the difference in brightness is small in the wide range of the rear image, there is a possibility that the following vehicle is reflected in the rear image and it is difficult to visually recognize the scenery. In addition, when the difference in luminance is small over a wide range of the rear image, it may be difficult to visually recognize the landscape from the rear image due to rain, fog, or the like.
または映像不適切の判定は、例えば映像の画面に対して予め設定した以上の割合で他車両などの障害物が映し出されている場合に、映像不適切と判定する。
後方映像取得部303は、提示映像判定部302が後方映像を不適当であると判定した場合、図1に示したプローブDB112から、不適当な後方映像と車両位置情報が一致する後方映像を取得する。すなわち、後方映像取得部303は、サーバ装置111と通信し、不適当な後方映像と位置情報が一致する他の映像をプローブDB112から抽出する。
Alternatively, the video improper determination is made as video improper when, for example, an obstacle such as another vehicle is projected at a rate higher than that set in advance with respect to the video screen.
When the presentation
ここで、プローブDB112の提供データは、映像、位置情報と共に、映像を撮像した車両の車種情報を有する。提示映像作成部106は、プローブDB112から後方映像を取得する場合、車両情報取得部104から自車両の車種情報を取得する。そして、自車両の車種等と一致又は近似する車両が撮像した後方映像を優先的に取得する。この場合、自車両の復路において実際に見える風景にイメージが似た後方映像を提示映像に使用することが可能になる。この処理は、例えば車両情報をサーバ装置に送信して、サーバ装置側で車両情報に対応する提供データを検索する構成とする。
Here, the provided data of the
映像加工部304は、提示する後方映像を必要に応じて加工する処理を行う。加工処理は、例えば車両情報に基づく映像(矢印等)を後方映像に重ねた映像を作成する処理を行う。この場合、後方映像が撮像された往路の位置でした操作を運転者が思い出すことができる。このため、運転者が復路をより理解しやすくなる。あるいは、往路において運転が困難であったことに気付くため、運転が難しい地点であることを運転者に注意喚起することが期待できる。
The
また上記加工処理は、例えば後方映像の明るさを、自車両が復路を走行する時間帯に合わせて変更する処理を行う。明るさを変更するとは、後方映像の明度を低下させる、あるいは画素のRGBのうちのBを強めるように補正することによって実現できる。この場合、往路を明るいとき走行し、より暗くなってから復路を走行する場合、往路で撮像した後方映像を復路の風景に近づけ、運転者が復路を直感的に認識しやすくすることができる。 Moreover, the said process process performs the process which changes the brightness of a back image according to the time slot | zone when the own vehicle drive | works a return path, for example. Changing the brightness can be realized by reducing the brightness of the rear image or by correcting so that B of RGB of the pixel is increased. In this case, when driving on the forward path when the road is bright and driving on the return path after darker, the rear image captured on the forward path can be brought close to the scenery of the return path, and the driver can easily recognize the return path intuitively.
また上記加工処理は、例えば、提示する後方映像の位置を車両前方の映像としての位置にずらす加工処理を行う。例えば、往路(すなわち復路)に車線がある場合、往路で撮像した後方映像の中心を、復路において車両が走行する車線に合わせてずらすように変更することをいう。このような構成によれば、往路で撮像した後方映像を復路の実際の風景に近づけ、運転者が復路を直感的に認識しやすくすることができる。 Moreover, the said process process performs the process process which shifts the position of the back image to show to the position as an image ahead of a vehicle, for example. For example, when there is a lane on the forward path (that is, the return path), the center of the rear image captured on the forward path is changed to be shifted in accordance with the lane in which the vehicle travels on the return path. According to such a configuration, it is possible to make the rear image captured on the forward path close to the actual scenery of the return path, and to make it easier for the driver to intuitively recognize the return path.
図4(a)、(b)、(c)は、映像加工部304の後方映像の加工を例示した図である。図4(a)は、車両情報に基づく映像を後方映像に重ねた映像を例示した図である。図4(a)に例示した映像では、右折を示す車両情報を矢印401の映像によって表し、矢印401の映像を後方映像に重ねている。図4(b)は、復路が夕方などの場合に、図4(a)に示した後方映像の明るさを低くするように加工した例を示す図である。図4(c)は、図4(a)に示した後方映像の中心を図中の左側にずらすように加工した例を示す図である。
FIGS. 4A, 4 </ b> B, and 4 </ b> C are diagrams illustrating the processing of the rear video by the
表示部108は、提示映像作成部106から受け取った提示映像を表示するディスプレイである。ディスプレイは、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(electroluminescence display)等、後方映像を視認している風景と比較し得る映像品質が得られるディスプレイであれば、どのような構成を用いるものであってもよい。
The
(動作その他)
次に、第1実施形態のナビゲーション装置の動作を説明する。
図5は、第1実施形態のナビゲーション装置の動作を説明するためのフローチャートである。情報格納処理部105は、往路においてイベント(特定の車両挙動)が発生するタイミングで撮像した後方映像に自車両の位置情報を対応付けてなる提示データを地図DBに記録する(ステップS501)。
次に、提示映像作成部106は、乗員の操作等によって復路の走行を開始するか否か判断する(ステップS502)。復路の走行が開始していない場合(ステップS502:No)、提示映像作成部106は待機状態となる。
(Operation other)
Next, the operation of the navigation device of the first embodiment will be described.
FIG. 5 is a flowchart for explaining the operation of the navigation device of the first embodiment. The information
Next, the presentation
一方、復路の走行を開始すると判断すると(ステップS502:Yes)、提示映像作成部106は、自車位置より進行方向に予め設定した距離だけ離れた位置に対応する提示データを地図DB107から取得する。そして、取得した提示データの映像を表示部に表示する。提示映像作成部106は、この処理を復路走行中に順次実施することで、往路で撮像した後方映像を、逆再生するかように運転者に提示する(ステップS503)。
ここで、往路での後方映像は、復路では前方映像に相当する映像となるので、復路走行時においては、車両前方の走行すべき方向を示す映像として表示部に提示される。従って、運転者は、提示された映像と同じ方向を走行するように案内されることで、往路で走行した道を安心して走行することが可能となる。
On the other hand, if it is determined to start traveling on the return path (step S502: Yes), the presentation
Here, the rear image on the forward path becomes an image corresponding to the front image on the return path, and thus is displayed on the display unit as an image indicating the direction in which the vehicle should travel in the forward path. Therefore, the driver can travel with peace of mind on the road traveled on the forward path by being guided to travel in the same direction as the presented image.
また、上記実施形態では、予め設定した車両挙動変化(イベント)が発生したときの後方映像だけを、提示映像とする場合を例示している。これに代えて、車両挙動変化の有無に関係なく、予め設定した時間間隔で後方映像とその車両位置からなる提示データを記録しておき、その提示データを往路で提示するように構成しても良い。
ここで自車位置取得部103は、車両位置取得部に対応する。リアカメラ102は後方撮像部に対応する。地図DB107は記憶部に対応する。提示映像作成部106及び表示部108は映像提示部に対応する。プローブDBは外部のデータベースに対応する。
Moreover, in the said embodiment, the case where only a back image | video when the preset vehicle behavior change (event) generate | occur | produces is made into a presentation image | video. Instead of this, it is possible to record the presentation data consisting of the rear image and the vehicle position at a preset time interval regardless of whether or not the vehicle behavior has changed, and to present the presentation data on the forward path. good.
Here, the host vehicle
(第1実施形態の効果)
本実施形態は、次の効果を奏する。
(1)情報格納処理部105は、自車位置取得部103が取得した車両の位置情報に基づき、上記リアカメラ102が撮像した後方映像を、後方映像を撮像したときの車両位置情報と対応付けてなる提示データとして地図DBに格納する。そして、提示映像作成部106は、提示データに基づき、上記地図DBに格納した提示データの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示する。
(Effect of 1st Embodiment)
This embodiment has the following effects.
(1) The information
この構成によれば、自車両が例えば往路で走行した道路を復路で走行する際に、往路で通行した道路位置に自車両が達するタイミングで、往路で撮像した後方映像を乗員に提示する。ここで、往路と復路では自車両の進行方向が逆方向となるので、乗員に提示する後方映像は、復路においては車両前方の映像に相当する。このため、運転者は、提示された後方映像(復路では前方映像相当の映像)によって、走行する道路の方向を判断するための情報を得ることになる。この結果、運転者は、往路として走行した道路を復路として実際に走行しているか判断することが可能となる。 According to this configuration, when the host vehicle travels on a return road, for example, when the host vehicle travels on the return path, the rear image captured on the forward path is presented to the occupant at the timing when the host vehicle reaches a road position that has passed on the forward path. Here, since the traveling direction of the host vehicle is opposite in the forward path and the backward path, the rear image presented to the occupant corresponds to the image in front of the vehicle in the backward path. For this reason, the driver obtains information for determining the direction of the road on which the vehicle travels based on the presented rear image (image corresponding to the front image on the return route). As a result, it becomes possible for the driver to determine whether he / she actually travels using the road that has traveled as the forward path as the return path.
(2)提示映像作成部106は、上記自車両の現在の車両位置よりも予め設定した距離だけ進行方向前方の位置に対応する提示データ中の後方映像を提示する。
この構成によれば、自車両が将来位置する位置の映像を提示することで、運転者は、予め走行方向を判断することが可能となる。この結果、より目的の道路に沿って走行し易くなる。
例えば、自車両が交差点に入ってから運転者に右折、左折等の指示がなされることを防ぐことができる。
(2) The presentation
According to this configuration, the driver can determine the traveling direction in advance by presenting an image of the position where the host vehicle will be located in the future. As a result, it becomes easier to travel along the target road.
For example, it is possible to prevent the driver from being instructed to turn right or left after entering the intersection.
(3)情報格納処理部105は、予め設定した設定挙動変化を検出したときに上記提示データを記憶部に格納するか、記憶部に格納する提示データに上記設定挙動変化を検出した情報として提示位置情報を付加する処理を行う。そして、上記提示映像作成部106は、上記提示データに基づき、上記設定挙動変化を検出したときの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示する。
(3) The information
この構成によれば、車両の挙動変化として設定挙動変化が発生したときの映像を提示することになる。車両の挙動変化が発生するタイミングは、道路を確認すべきイベントであるので、そのようなイベントの発生したときの映像を提示することで、走行道路の確認が容易となる。
尚、車両の挙動変化が発生するようなイベントが発生したときの映像だけを提示するようにすると、運転者に対して、案内情報が必要なときと推定されるときだけ映像を提示する結果、運転者の負担が軽減する。
According to this configuration, an image when the set behavior change occurs as the behavior change of the vehicle is presented. Since the timing at which the behavior change of the vehicle occurs is an event for which a road should be confirmed, the traveling road can be easily confirmed by presenting a video when such an event occurs.
As a result of presenting the video only when it is presumed that guidance information is necessary for the driver, if only the video when the event that causes the behavior change of the vehicle occurs is presented, The burden on the driver is reduced.
(4)上記設定挙動変化の検出は、自車両の進行方向の変更、制駆動力の予め設定した以上の変化、及び車速が予め設定した車速以下に変化の少なくとも1つの変化に関する情報に基づき検出する。自車両の進行方向の変更は、操舵角の変化や方向指示器の操作情報で判定出来る。制駆動力の予め設定した以上の変化は、ブレーキ操作量、制動力などによって判定出来る。車速が予め設定した車速以下に変化は、車速によって判定出来る。
このような車両の挙動変化は、運転者による運転状況の変更であって、運転者にとって道路を確認すべきイベントであるので、そのようなイベントの発生したときの映像を提示することで、走行道路の確認が容易となる。
(4) The detection of the change in the set behavior is detected based on information related to at least one change in change in the traveling direction of the host vehicle, a change in braking / driving force more than a preset value, and a change in vehicle speed below a preset vehicle speed. To do. The change of the traveling direction of the host vehicle can be determined by the change of the steering angle or the operation information of the direction indicator. The change beyond the preset braking / driving force can be determined by the brake operation amount, the braking force, and the like. The change of the vehicle speed below the preset vehicle speed can be determined by the vehicle speed.
Such a change in vehicle behavior is a change in the driving situation by the driver, and is an event for the driver to check the road. Confirmation of road becomes easy.
(5)提示映像作成部106は、提示データ中の車両挙動に関する情報を提示する後方映像に重ねて提示する。車両挙動に関する情報とは、進路方向とか速度、ブレーキ操作などである。
この構成によれば、後方映像が撮像された往路の位置でした操作を運転者が思い出すことができるので、運転者が復路をより理解しやすくなる。
また場合によっては、運転者に対し、操作すべき内容を喚起することにも繋がる。
(5) The presentation
According to this configuration, since the driver can remember the operation that was the position of the forward path where the rear image was captured, the driver can more easily understand the return path.
In some cases, it also leads to alerting the driver of the contents to be operated.
(6)提示映像作成部106は、提示する後方映像を、提示する時間帯に応じた明るさに加工した後に乗員に提示する。
この構成によれば、提示する映像が、復路の時間帯での映像に近い映像となり、運転者は提示映像と実際の風景とを比較しやすくなる。
(7)提示映像作成部106は、提示する後方映像の位置を車両前方の映像としての位置にずらす加工をした後に乗員に提示する。
この構成によれば、提示する映像が、復路における車両前方の風景に近い映像となり、運転者は提示映像と実際の風景とを比較しやすくなる。
(6) The presentation
According to this configuration, the video to be presented is a video close to the video in the time zone of the return trip, and the driver can easily compare the presented video with the actual landscape.
(7) The presentation
According to this configuration, the video to be presented becomes a video close to the scenery in front of the vehicle on the return path, and the driver can easily compare the presented video with the actual scenery.
(8)ナビゲーション装置は、複数の車両から提供された位置データと映像とを含む提供データを格納した外部のデータベースと通信して、当該データベース中の上記提供データを取得する通信機能を有する。そして、提示映像作成部106は、上記地図DBに格納した提示データの後方映像が提示不適切と判定すると、上記外部のデータベースと通信して上記提示データの車両位置と同一の車両位置の映像を含む提供データを取得して乗員に提示する。
この構成によれば、往路で撮像した後方映像が提示映像として不適当である場合、あるいは往路で後方映像を撮像できない道路を復路に選択した場合にも、映像に基づくナビゲーションを行うことができる。
(8) The navigation device has a communication function of communicating with an external database storing provision data including position data and images provided from a plurality of vehicles, and acquiring the provision data in the database. When the presentation
According to this configuration, it is possible to perform navigation based on the video even when the rear video captured on the forward path is inappropriate as the presentation video, or when a road that cannot capture the rear video on the forward path is selected as the return path.
(変形例)
なお、第1実施形態は、以上説明した構成に限定されるものではない。例えば、以上説明した構成では、リアカメラの映像を静止映像としている。しかし、リアカメラは動画を撮像するものであってもよい。このような場合には、リアカメラが撮像した動画を情報格納処理部が順次位置情報と対応付けて記録し、提示映像作成部106がイベント発生のタイミングに合わせて映像から後方映像を切り出すようにしてもよい。さらに、リアカメラが動画を撮像する場合、第1実施形態は、動画をそのまま提示映像に利用することもできる。このような構成の合、動画と復路における自車両の位置との同期をとるため処理を実施する。
(Modification)
The first embodiment is not limited to the configuration described above. For example, in the configuration described above, the video from the rear camera is a still video. However, the rear camera may capture a moving image. In such a case, the information storage processing unit sequentially records the moving image captured by the rear camera in association with the position information, and the presentation
[第2実施形態]
次に、本発明の第2実施形態を説明する。なお、上記第1実施形態と同様な構成については同一の符号を付して説明する。
この第2実施形態は、第1実施形態が車両の操作を映像提示位置のイベントとしているのに対し、自車両の乗員が発話した音声を映像提示位置のイベントとしている。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected and demonstrated about the structure similar to the said 1st Embodiment.
In the second embodiment, the operation of the vehicle is an event at the video presentation position in the first embodiment, whereas the voice spoken by the passenger of the host vehicle is the event at the video presentation position.
(構成)
図6は、第2実施形態のナビゲーション装置101を説明するための図である。図6に示した構成のうち、図1に示した構成と同様の構成については同様の符号を付して説明を一部略すものとする。第2実施形態のナビゲーション装置101は、音声認識部604を備えた点が第1実施形態と相違する。
(Constitution)
FIG. 6 is a diagram for explaining the
図7は、図6に示した音声認識部604を説明するための図である。
音声認識部604は、音声を入力し、音声を音素に分解して認識する音素解析部701と、音素解析部701が認識した音声から、予め設定したキーワードを抽出するキーワード抽出部702とを備えている。そしてキーワード抽出部702が、予め設定したキーワードを抽出すると、その抽出情報を情報格納処理部に出力する。なお、音声抽出処理は、音声認識システムとして公知の技術を採用すればよい。
FIG. 7 is a diagram for explaining the
The
情報格納処理部は、音声認識部604から予め設定したキーワードを抽出したとするイベント情報を入力すると、そのときの後方映像を車両位置情報を付加した提示データとして地図DBに記憶する。情報格納処理部は、第1実施形態で説明した車両変化検出部110から、設定挙動変化を検出したときを示すイベント情報を入力したときもそのときの後方映像を車両位置情報を付加した提示データとして地図DBに記憶する。
その他の構成は、上記第1実施形態で説明した構成と同様の構成である。
When the event information indicating that a preset keyword is extracted from the
Other configurations are the same as the configurations described in the first embodiment.
(動作)
音素解析部701は、入力した音声を音素に分解する。音素は発生した順序でキーワード抽出部702に入力する。キーワード抽出部702に入力する音素は、例えば、「コ」、「コ」、「ヲ」、「ウ」、「セ」、「ツ」といった各々が1つの音を表すデータである。
キーワード抽出部702は、入力した音素を予め設定しているキーワードと比較する。そして、順次入力してくる音素がキーワードに一致した場合、イベントが発生したことを通知するイベント発生通知を情報格納処理部に出力する。
情報格納処理部105は、イベント発生のタイミングに合わせて後方映像を含む提示データを地図DBに格納する。
(Operation)
The phoneme analysis unit 701 decomposes the input speech into phonemes. Phonemes are input to the
The
The information
そして、復路において、往路で上記イベントが発生した位置に自車両が近づくと、地図DBから上記後方映像を抽出して表示部108に表示することで、運転者に提示する。
ここで、第2実施形態のイベントは、乗員が予め設定されているキーワードを発話したことによって発生する。キーワードとしては、乗員が意図して発話するものに設定することと、乗員が意図せずに発話するものに設定することができる。
Then, when the host vehicle approaches the position where the event occurs on the outbound route, the rear image is extracted from the map DB and displayed on the
Here, the event of the second embodiment occurs when an occupant speaks a preset keyword. The keyword can be set so that the occupant speaks intentionally, or the keyword is uttered unintentionally by the occupant.
乗員が意図して発話する言葉をキーワードとする場合、例えば、「カメラ」、「撮像」、「チェック」といった言葉をキーワードとすることができる。このような場合、乗員は往路を走行しながら復路で参照したいポイントに達したときにキーワードを発話する。情報格納処理部は、乗員が発話するタイミングで後方映像を提示データとして地図DBに格納する。 In the case of using words intended by the occupant as keywords, for example, words such as “camera”, “imaging”, and “check” can be used as keywords. In such a case, the occupant speaks a keyword when he / she travels on the forward path and reaches a point to be referred to on the return path. The information storage processing unit stores the rear video as presentation data in the map DB at the timing when the occupant speaks.
このように、運転者が復路で映像提示をして貰いたい地点で特定のキーワードを発話することで、後方映像を記録して、その後復路において、その地点に自車両が近づいたときに映像を提示する。このため、運転者が、復路で確認したい地点に近づいたときに提示映像を作成することができる。
乗員が意図せずに発話する言葉をキーワードとする場合、例えば、「一回じゃ切り返せないよ」、「狭い」、「危ない」といった言葉をキーワードとすることができる。このような場合、乗員は往路を走行しながら無意識のうちに注意すべきポイントに達したときにキーワードを発話する。情報格納処理部は、乗員が発話するタイミングで後方映像を地図DBに記録して、提示可能とする。
In this way, the driver can present the video on the return route and speak a specific keyword at the point where he / she wants to go, so that the rear video is recorded and then the video is displayed when the vehicle approaches that point on the return route. Present. For this reason, a presentation image can be created when the driver approaches a point to be confirmed on the return path.
In the case of using words that are spoken unintentionally by the occupant as keywords, for example, words such as “cannot turn back once”, “narrow”, and “dangerous” can be used as keywords. In such a case, the occupant utters a keyword when he / she reaches a point to be aware of while traveling on the forward path. The information storage processing unit records the rear video in the map DB at the timing when the occupant speaks, and enables presentation.
この場合には、運転者が意識していなくても、注意すべき地点の映像を復路で提示可能となる。
さらに、第2実施形態では、運転者ばかりでなく、同乗者が発話した言葉をキーワードにマッチングすることができる。同乗者が発話した言葉をキーワードにマッチングする場合、例えば、「ここ」、「右に曲がって」、「次の信号」といった言葉をキーワードに設定する。
In this case, even if the driver is not conscious, it is possible to present a video of a point to be noted on the return path.
Furthermore, in the second embodiment, words spoken by not only the driver but also the passenger can be matched with the keyword. When matching a keyword spoken by a passenger with a keyword, for example, words such as “here”, “turn right”, and “next signal” are set as keywords.
「ここ」、「右に曲がって」、「次の信号」といった言葉は、同乗者が往路において運転者を案内する際に使用されると可能性が高い。このため、上記構成によれば、往路において同乗者が運転者に道を指示したタイミングで後方映像を撮像する。そして、後方映像を使って提示映像を作成することができる。運転者は、往路で指示を受けた位置の後方映像を参照しながら復路を走行することができるので、復路を容易に認識することができる。
以上説明した第2実施形態では、音素解析部701は音声認識部に対応する。
The terms “here”, “turn right”, and “next signal” are likely to be used when the passenger guides the driver on the way out. For this reason, according to the said structure, a back image | video is imaged at the timing when the passenger instruct | indicated the road to the driver in the outward path. Then, the presentation video can be created using the rear video. Since the driver can travel on the return path while referring to the rear image of the position where the instruction is received on the outward path, the driver can easily recognize the return path.
In the second embodiment described above, the phoneme analysis unit 701 corresponds to a speech recognition unit.
(第2実施形態の効果)
第2実施形態は、上記第1実施形態の効果に加えて、以下の効果を奏する。
(1)ナビゲーション装置は、予め設定したキーワードを含む音声を検出すると、そのときの後方映像を車両位置と共に提示データとして記録する。そして、提示映像作成部106は、自車両が上記提示位置に対応する車両位置に達するタイミングに応じて上記後方映像を提示する。
この構成によれば、予め設定したキーワードを含む音声を検出した地点に近づいたときに、走行案内のための映像を提示可能となる。
例えば、乗員が意識的に発話した場合には、乗員が復路において参照したい映像を提示可能となる。また、乗員が意識することなく発話した言葉をキーワードにすることができる。
(Effect of 2nd Embodiment)
In addition to the effects of the first embodiment, the second embodiment has the following effects.
(1) When the navigation device detects a voice including a preset keyword, the navigation device records the rear video at that time together with the vehicle position as presentation data. And the presentation image |
According to this configuration, it is possible to present a video for driving guidance when approaching a point where a voice including a preset keyword is detected.
For example, when the occupant consciously speaks, it is possible to present a video that the occupant wants to refer to on the return path. In addition, words spoken without the consciousness of the occupant can be used as keywords.
101 ナビゲーション装置
102 リアカメラ
103 自車位置取得部
104 車両情報取得部
105 情報格納処理部
106 提示映像作成部
108 表示部
109 通信部
110 車両変化検出部
111 サーバ装置
113 データセンタ
301 コントラスト判定部
302 提示映像判定部
303 後方映像取得部
304 映像加工部
604 音声認識部
701 音素解析部
702 キーワード抽出部
107 地図DB
112 プローブDB
DESCRIPTION OF
112 Probe DB
Claims (10)
自車両の進行方向後方を撮像する後方撮像部と、
上記車両位置取得部が取得した車両の位置情報に基づき、上記後方撮像部が撮像した後方映像を、後方映像を撮像したときの車両位置情報と対応付けて提示データとして記憶部に格納する情報格納処理部と、
上記提示データに基づき、上記記憶部に格納した提示データの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示する映像提示部と、を備えることを特徴とするナビゲーション装置。 A vehicle position acquisition unit for acquiring position information of the own vehicle;
A rear imaging unit that images rearward of the traveling direction of the host vehicle;
Based on the vehicle position information acquired by the vehicle position acquisition unit, information storage for storing the rear image captured by the rear imaging unit in the storage unit as presentation data in association with the vehicle position information when the rear image is captured A processing unit;
A video presentation unit for presenting a rear video in the presentation data corresponding to the vehicle position to a vehicle occupant in accordance with the timing at which the host vehicle reaches the vehicle position of the presentation data stored in the storage unit based on the presentation data; A navigation device comprising:
上記情報格納処理部は、上記車両変化検出部が上記設定挙動変化を検出したときに上記提示データを記憶部に格納するか、上記設定挙動変化を検出した情報を示す提示位置情報を、記憶部に格納する提示データに付加する処理を行い、
上記映像提示部は、上記提示データに基づき、上記設定挙動変化を検出したときの車両位置に自車両が達するタイミングに合わせて、当該車両位置に対応する提示データ中の後方映像を車両の乗員に提示することを特徴とする請求項1又は請求項2に記載のナビゲーション装置。 A vehicle change detector for detecting a preset behavior change among the vehicle behavior changes of the host vehicle;
The information storage processing unit stores the presentation data in a storage unit when the vehicle change detection unit detects the set behavior change, or provides presentation position information indicating information on which the set behavior change is detected. Process to add to the presentation data stored in
Based on the presentation data, the video presentation unit displays a rear video in the presentation data corresponding to the vehicle position to the vehicle occupant in accordance with the timing when the host vehicle reaches the vehicle position when the set behavior change is detected. The navigation device according to claim 1 or 2, wherein the navigation device is presented.
上記映像提示部は、提示データ中の車両挙動に関する情報を後方映像に重ねて提示することを特徴とする請求項1〜請求項4のいずれか1項に記載のナビゲーション装置。 The presentation data includes information on vehicle behavior,
The navigation device according to any one of claims 1 to 4, wherein the video presentation unit presents information related to vehicle behavior in the presentation data in a superimposed manner on a rear video.
上記音声認識部が認識した音声が、予め設定したキーワードを含むか否か判定するキーワード判定部と、をさらに含み、
上記情報格納処理部は、上記キーワード判定部が上記キーワードを含むと判定したときの上記車両位置を上記後方映像の提示位置として記録し、
上記映像提示部は、自車両が上記提示位置に対応する車両位置に達するタイミングに応じて上記後方映像を提示することを特徴とする請求項1〜請求項5のいずれか1項に記載のナビゲーション装置。 A voice recognition unit for recognizing voice spoken by a passenger of the vehicle,
A keyword determination unit that determines whether or not the voice recognized by the voice recognition unit includes a preset keyword;
The information storage processing unit records the vehicle position when the keyword determination unit determines that the keyword is included, as a presentation position of the rear video,
The navigation according to any one of claims 1 to 5, wherein the video presentation unit presents the rear video according to a timing at which the host vehicle reaches a vehicle position corresponding to the presentation position. apparatus.
上記映像提示部は、上記記憶部に格納した提示データの後方映像が提示不適切と判定すると、上記外部のデータベースと通信して上記提示データの車両位置と同一の車両位置の映像を含む提供データを取得して乗員に提示することを特徴とする請求項1〜請求項8のいずれか1項に記載のナビゲーション装置。 Having a communication function of communicating with an external database storing provision data including position data and images provided from a plurality of vehicles to obtain the provision data in the database;
If the video presentation unit determines that the rear video of the presentation data stored in the storage unit is inappropriate for presentation, the provided data includes a video of the same vehicle position as the vehicle position of the presentation data by communicating with the external database. The navigation apparatus according to claim 1, wherein the navigation apparatus is acquired and presented to the occupant.
自車両が上記目的地から走行する復路において、上記記録した提示データに基づき、自車両の現在位置に対応する提示データ中の後方映像を自車両の乗員に提示することを特徴とするナビゲーション方法。 In the outward path where the host vehicle travels toward the destination, the rear image that is the image behind the vehicle traveling direction is imaged, and the presentation data that associates the vehicle position at the time of imaging the rear image is recorded.
A navigation method comprising presenting a rear image in presentation data corresponding to a current position of a host vehicle to a passenger of the host vehicle based on the recorded presentation data on a return path in which the host vehicle travels from the destination.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011159306A JP2013024709A (en) | 2011-07-20 | 2011-07-20 | Navigation device and navigation method |
PCT/JP2012/003753 WO2013011622A1 (en) | 2011-07-20 | 2012-06-08 | Navigation device, and navigation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011159306A JP2013024709A (en) | 2011-07-20 | 2011-07-20 | Navigation device and navigation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013024709A true JP2013024709A (en) | 2013-02-04 |
Family
ID=47557826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011159306A Withdrawn JP2013024709A (en) | 2011-07-20 | 2011-07-20 | Navigation device and navigation method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013024709A (en) |
WO (1) | WO2013011622A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019003603A1 (en) * | 2017-06-29 | 2019-01-03 | 株式会社デンソー | Collision prediction device and collision prediction method |
JP2019109706A (en) * | 2017-12-18 | 2019-07-04 | トヨタ自動車株式会社 | Server device, information processing method, data structure and risk information provision method |
WO2022163496A1 (en) * | 2021-01-29 | 2022-08-04 | 三菱電機株式会社 | Driving support information distribution device, traffic system, traffic control system, vehicle, vehicle control device, and computer program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4004798B2 (en) * | 2002-01-09 | 2007-11-07 | 三菱電機株式会社 | Distribution device, display device, distribution method, and information distribution / display method |
JP2005214693A (en) * | 2004-01-28 | 2005-08-11 | Alpine Electronics Inc | Navigation system for mounting in vehicle and its screen displaying method |
JP4858212B2 (en) * | 2007-02-16 | 2012-01-18 | トヨタ自動車株式会社 | Car navigation system |
JP2008249654A (en) * | 2007-03-30 | 2008-10-16 | Pioneer Electronic Corp | Record reproducing device, method, program, and recording medium |
KR20110079782A (en) * | 2007-07-31 | 2011-07-07 | 산요덴키가부시키가이샤 | Navigation device and image management method |
-
2011
- 2011-07-20 JP JP2011159306A patent/JP2013024709A/en not_active Withdrawn
-
2012
- 2012-06-08 WO PCT/JP2012/003753 patent/WO2013011622A1/en active Application Filing
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019003603A1 (en) * | 2017-06-29 | 2019-01-03 | 株式会社デンソー | Collision prediction device and collision prediction method |
JP2019012314A (en) * | 2017-06-29 | 2019-01-24 | 株式会社デンソー | Collision estimation device and collision estimation method |
US11351997B2 (en) | 2017-06-29 | 2022-06-07 | Denso Corporation | Collision prediction apparatus and collision prediction method |
JP2019109706A (en) * | 2017-12-18 | 2019-07-04 | トヨタ自動車株式会社 | Server device, information processing method, data structure and risk information provision method |
JP7077602B2 (en) | 2017-12-18 | 2022-05-31 | トヨタ自動車株式会社 | Server equipment, information processing method and danger information provision method |
WO2022163496A1 (en) * | 2021-01-29 | 2022-08-04 | 三菱電機株式会社 | Driving support information distribution device, traffic system, traffic control system, vehicle, vehicle control device, and computer program |
Also Published As
Publication number | Publication date |
---|---|
WO2013011622A1 (en) | 2013-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5106540B2 (en) | In-vehicle information provider | |
US7642931B2 (en) | Driving support image-display apparatus and program therefor | |
JP4981566B2 (en) | Driving support device and driving support method | |
US20130124083A1 (en) | Method for position determination | |
JP2006284458A (en) | System for displaying drive support information | |
JP2008280026A (en) | Driving assistance device | |
JP2007249364A (en) | Safe driving support system and device | |
JP5898539B2 (en) | Vehicle driving support system | |
WO2021024798A1 (en) | Travel assistance method, road captured image collection method, and roadside device | |
JP2009193135A (en) | Onboard monitor device | |
JP2010026618A (en) | On-vehicle navigation device and intersection entry guidance method | |
JP2008276642A (en) | Traveling lane recognition device and traveling lane recognition method | |
JP2011117842A (en) | Vehicle travel guide apparatus, vehicle travel guide method, and computer program | |
JP2007028363A (en) | Top view image generating apparatus and top view image display method | |
WO2013011622A1 (en) | Navigation device, and navigation method | |
JP6136238B2 (en) | Driving support system, driving support method, and computer program | |
JP2010008162A (en) | Surrounding information displaying device and surrounding information displaying method | |
WO2014076841A1 (en) | Display apparatus, control method, program, and recording medium | |
JP6473936B2 (en) | Self-driving car | |
JP2008090683A (en) | Onboard navigation device | |
JP2014044458A (en) | On-vehicle device and danger notification method | |
JP2006273190A (en) | On-vehicle navigation device | |
JP2017208056A5 (en) | ||
JP7215184B2 (en) | ROUTE GUIDANCE CONTROL DEVICE, ROUTE GUIDANCE CONTROL METHOD, AND PROGRAM | |
WO2020008876A1 (en) | Information processing device, information processing method, program, and mobile body |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141007 |