JP4665838B2 - Vehicle navigation device, image data processing device, and computer program - Google Patents

Vehicle navigation device, image data processing device, and computer program Download PDF

Info

Publication number
JP4665838B2
JP4665838B2 JP2006153496A JP2006153496A JP4665838B2 JP 4665838 B2 JP4665838 B2 JP 4665838B2 JP 2006153496 A JP2006153496 A JP 2006153496A JP 2006153496 A JP2006153496 A JP 2006153496A JP 4665838 B2 JP4665838 B2 JP 4665838B2
Authority
JP
Japan
Prior art keywords
image data
time
information
date
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006153496A
Other languages
Japanese (ja)
Other versions
JP2007324986A (en
Inventor
英勉 戸苅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2006153496A priority Critical patent/JP4665838B2/en
Publication of JP2007324986A publication Critical patent/JP2007324986A/en
Application granted granted Critical
Publication of JP4665838B2 publication Critical patent/JP4665838B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Navigation (AREA)

Description

本発明は、デジタルカメラによって撮影された画像データが記憶されているメモリとの間でデータ転送が可能に構成される車両用ナビゲーション装置、また、デジタルカメラによって撮影された画像データに補助情報を付加する処理を行う画像データ処理装置、及び前記画像データ処理装置を構成するコンピュータによって実行されるプログラムに関する。   The present invention relates to a vehicle navigation apparatus configured to be able to transfer data to and from a memory in which image data taken by a digital camera is stored, and to add auxiliary information to the image data taken by the digital camera. The present invention relates to an image data processing apparatus that performs the processing, and a program that is executed by a computer that constitutes the image data processing apparatus.

近年、デジタルカメラのメモリ容量は増大しており、撮影した画像データを記憶できる枚数は増加している。そのため、メモリが一杯になるまで撮影を継続した後に画像データを整理しようとすると、最初に撮影を行ってから長い期間が経過している場合があり、夫々の写真が何処で撮影したものであるのかを忘れて整理に時間を要することがある。
上記の問題に対処する技術の1つに特許文献1がある。この技術は、デジタルカメラに使用される記録媒体をカーナビゲーション装置に接続して、各写真データについて、撮影日時以前の最も近い日時に通過している地点の情報を当該写真データに関連させて記録媒体に書き込むようにしたものである。従って、ドライブの途中でデジタルカメラにより撮影を行った場合には、後から写真を整理する際に各写真がドライブ中のどの地点で撮影されたものかを把握することができる。
特開2005−20511号公報
In recent years, the memory capacity of digital cameras has increased, and the number of images that can be captured has increased. Therefore, if you try to organize the image data after continuing to shoot until the memory is full, a long period may have elapsed since the first shoot, and where each photo was taken It may take some time to organize.
One technique for dealing with the above problem is Patent Document 1. In this technology, a recording medium used for a digital camera is connected to a car navigation device, and for each piece of photo data, information on a point passing through the nearest date before the shooting date is recorded in association with the photo data. It is written on the medium. Therefore, when taking a picture with a digital camera in the middle of the drive, when organizing the pictures later, it is possible to grasp at which point in the drive each picture was taken.
Japanese Patent Laying-Open No. 2005-20511

しかしながら、特許文献1のように、単に写真データの撮影日時以前の最も近い日時に通過している地点の情報を当該写真データに対応させると、実際には、ドライブと無関係なタイミングで撮影された写真が一部にあった場合でも、全てがドライブ中の場所と関連付けられてしまう。従って、写真を撮影した地点との対応に誤りが生じる可能性が排除できないという問題がある。
本発明は上記事情に鑑みてなされたものであり、その目的は、デジタルカメラによって撮影された写真データと、走行履歴との対応をより確実に行うことができる車両用ナビゲーション装置、及び画像データ処理装置並びに前記装置を構成するコンピュータによって実行されるプログラムを提供することにある。
However, as disclosed in Patent Document 1, if information on a point passing through the nearest date and time before the shooting date of the photo data is associated with the photo data, the image was actually shot at a timing unrelated to the drive. Even if a photo is part of it, everything is associated with the location on the drive. Therefore, there is a problem that the possibility of an error in correspondence with the point where the photograph was taken cannot be excluded.
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a vehicle navigation apparatus and image data processing capable of more reliably performing correspondence between photographic data photographed by a digital camera and travel history. The present invention provides an apparatus and a program executed by a computer constituting the apparatus.

請求項1記載の車両用ナビゲーション装置によれば、デジタルカメラの本体に着脱可能に構成されるメモリに記憶されている画像データに付随する撮影日時データと、自身が記憶している走行履歴中の各地点に付随する通過日時データとを比較し、撮影日時以前の最も近い通過日時に対応する地点の情報(地点情報)と、前記通過日時から前記撮影日時までの経過時間データとを、前記画像データに付加して前記メモリに記憶させる。
また、請求項6記載の画像データ処理装置によれば、デジタルカメラによって撮影され、撮影日時データと共にデジタルカメラの本体に着脱可能に構成されるメモリに記憶されている画像データと、車両用ナビゲーション装置に記憶されている車両の走行履歴データとを読み出して、前記画像データに付随する撮影日時データと、前記走行履歴中の各地点に付随する通過日時データとを比較する。そして、前記撮影日時以前の最も近い通過日時に対応する地点の情報(地点情報)と、前記通過日時から前記撮影日時までの経過時間データとを、前記画像データに付加するように処理する。
従って、ユーザが画像データの整理を行なう場合には、その画像データに付加されている走行履歴の通過地点と、撮影日時までの経過時間データとを比較することで、当該画像が実際にその通過地点付近で撮影されたものかどうかを、適切に判断することが可能となる。
According to the vehicle navigation device of the first aspect, the shooting date / time data attached to the image data stored in the memory configured to be detachable from the main body of the digital camera and the running history stored in the vehicle itself are stored. The passage date and time data associated with each point is compared, and information on the point corresponding to the closest passage date and time before the shooting date and time (point information) and elapsed time data from the passage date and time to the shooting date and time are used as the image. It is added to the data and stored in the memory.
According to the image data processing device of the sixth aspect, the image data captured by the digital camera and stored in the memory configured to be detachably attached to the main body of the digital camera together with the shooting date / time data, and the vehicle navigation device And the travel date and time data associated with the image data and the passage date and time data associated with each point in the travel history are compared. Then, processing is performed so as to add the information (point information) of the point corresponding to the nearest passage date and time before the photographing date and time and the elapsed time data from the passage date and time to the photographing date and time.
Therefore, when the user organizes image data, the passage of the travel history added to the image data is compared with the elapsed time data up to the shooting date and time, so that the image is actually passed. It is possible to appropriately determine whether the image was taken near the point.

請求項2記載の車両用ナビゲーション装置によれば、地点情報が同一である画像データを同一グループに分類すると、各グループ毎にグループ情報を、各画像データに付加してメモリに記憶させる。
また、請求項記載の画像データ処理装置によれば、地点情報が同一となる画像データを同一グループに分類すると、各グループ毎にグループ情報を、各画像データに付加する。斯様に構成すれば、画像データの分類処理をグループ情報に基づいてより詳細に行うことができる。
According to the vehicle navigation system of claim 2, wherein, when the location information is to classify the same der Ru image data to the same group, the group information for each group, to be stored in the memory is added to each image data.
According to the image data processing device of the seventh aspect , when image data having the same point information is classified into the same group , group information is added to each image data for each group. If comprised in this way, the classification | category process of image data can be performed in detail based on group information.

請求項3記載の車両用ナビゲーション装置によれば、グループ情報が同一となる画像データについて、撮影日時の日付が異なるものをサブグループに分類すると、各サブグループ毎にサブグループ情報を、画像データに付加してメモリに記憶させる。
また、請求項記載の画像データ処理装置によれば、グループ情報が同一となる画像データについて、撮影日時の日付が異なるものをサブグループに分類すると、各サブグループ毎にサブグループ情報を、画像データに付加する。従って、例えば、移動先で宿泊したような場合には、同一の通過地点:グループに属する画像データを、異なるサブグループに分類することができる。
According to the vehicle navigation device of claim 3, when image data having the same group information and having different shooting dates / times are classified into subgroups, the subgroup information is converted into image data for each subgroup. And is stored in the memory.
According to the image data processing device of claim 8, when the image data having the same group information is classified into subgroups having different shooting dates and times, the subgroup information for each subgroup , Append to image data. Therefore, for example, when staying at a destination, image data belonging to the same passing point: group can be classified into different subgroups.

請求項4記載の車両用ナビゲーション装置によれば、グループ情報及びサブグループ情報が同一である画像データ群について、当該グループの通過地点と、経過時間が最長となるものとから、車両の移動可能範囲内に位置する地点を地図データベースより検索する。そして、検索した地点情報を前記同一グループの画像データに付加してメモリに記憶させる。
また、請求項9記載の画像データ処理装置によれば、グループ情報及びサブグループ情報が同一である画像データ群について、当該グループの通過地点と、経過時間が最長となるものとから、車両の移動可能範囲内に位置する地点を地図データベースより検索する。そして、検索した地点情報を前記同一グループの画像データに付加する。従って、ユーザが画像データの整理を行なう場合には、その画像データに付加されている、その日に立ち寄った可能性がある特定地点の情報を参照すれば、当該画像が実際に撮影された地点をより確実に特定することができる。
According to the vehicle navigation device according to claim 4, for the image data group having the same group information and sub-group information , the moving range of the vehicle is determined from the passing point of the group and the longest elapsed time. Search the map database for points located inside. Then, the searched point information is added to the image data of the same group and stored in the memory.
Further, according to the image data processing device of the ninth aspect, with respect to the image data group having the same group information and sub-group information , the movement of the vehicle is determined from the passing point of the group and the one having the longest elapsed time. Search the map database for points located within the possible range. Then, the information of the searched point is added to the image data of the same group. Therefore, when the user organizes image data, referring to the information on a specific spot that may have been visited on that day, which is added to the image data, the spot where the image was actually shot is selected. It can be identified more reliably.

請求項5記載の車両用ナビゲーション装置によれば、画像データに付加された地点情報が、自車両以外の手段を利用する可能性がある特定地点を示す場合、同一グループに属する画像データに付与されている撮影日時データの内、最も古い日時と最新の日時とに基づいて移動行程時間を算出し、その時間情報を同一グループの画像データに付加してメモリに記憶する。
また、請求項10記載の画像データ処理装置によれば、画像データに付加された地点情報が、自車両以外の手段を利用する可能性がある特定地点を示す場合、同一グループに属する画像データに付与されて
いる撮影日時データの内、最も古い日時と最新の日時とに基づいて移動行程時間を算出し、その時間情報を同一グループの画像データに付加する。尚、ここで言う「自車両以外の手段」とは、徒歩を除く、例えばバス,電車,旅客機である。また、デジタルカメラで撮影を行った際に利用した車両を「自車両」として、その他の車両(自動車,バイク,自転車)も含む。
According to the vehicle navigation device of the fifth aspect, when the point information added to the image data indicates a specific point where there is a possibility of using means other than the own vehicle, the point information is given to the image data belonging to the same group. The travel process time is calculated based on the oldest date and the latest date among the shooting date and time data, and the time information is added to the image data of the same group and stored in the memory.
According to the image data processing device of claim 10, when the point information added to the image data indicates a specific point where there is a possibility of using means other than the own vehicle, the image data belonging to the same group The travel process time is calculated based on the oldest date and the latest date among the given shooting date and time data, and the time information is added to the image data of the same group. The “means other than the own vehicle” here refers to, for example, a bus, a train, and a passenger plane except for walking. In addition, the vehicle used when photographing with the digital camera is referred to as “own vehicle”, and includes other vehicles (automobile, motorcycle, bicycle).

即ち、ユーザが上記のような移動手段を利用して、例えば出発した駅や空港にまた戻ってきたとすれば、その間に相当の日数が経過している場合がある。従って、ユーザが画像データの整理を行なう場合には、その画像データに付加されている移動行程時間を参照すれば、同じ通過地点で撮影された画像の間が何日間程度の旅程であったのかを明確に把握することができる。   That is, if the user returns to the departure station or airport, for example, by using the moving means as described above, a considerable number of days may have elapsed during that time. Therefore, when the user organizes the image data, referring to the travel process time added to the image data, how many days it took to travel between the images taken at the same passage point. Can be clearly understood.

(第1実施例)
以下、本発明の第1実施例について図1乃至図10を参照して説明する。図1は、本発明のシステム構成を示すものである。デジタルカメラ21は一般的な構成のもので、撮影された写真データを、その撮影日時を示すデータと共に、本体に着脱可能なメモリ媒体22に書き込んで記憶させるようになっている。一方、車両用ナビゲーション装置1もソフトエア的な処理を除くハードウエアについては一般的な構成であるが、少なくとも上記メモリ媒体22との間でデータ転送を行うためのインターフェイスを備えている。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 shows a system configuration of the present invention. The digital camera 21 has a general configuration, and the photographed photograph data is written and stored in a memory medium 22 that can be attached to and detached from the main body together with data indicating the photographing date and time. On the other hand, the vehicle navigation apparatus 1 has a general configuration with respect to hardware excluding software processing, but includes at least an interface for data transfer with the memory medium 22.

図2は、車両用ナビゲーション装置1の電気的構成を示すブロック図である。車両用ナビゲーション装置1は、マイコンを主体として構成された制御回路2、車両の現在位置を検出するための位置検出器3、地図データ入力器(地図データベース)4、操作スイッチ群5、外部メモリインターフェイス(I/F)6、カラー液晶ディスプレイ等からなる表示装置7、スピーカ8が接続された音声コントローラ9、マイク10から入力された音声を認識する音声認識装置11、リモコン12との間でコマンド等の送受信を行うリモコンセンサ13、及び外部、例えばVICS(登録商標)センター15や種々の情報センターとの間で無線通信によりデータの送受信を行う外部情報入出力装置14から構成されている。   FIG. 2 is a block diagram showing an electrical configuration of the vehicle navigation apparatus 1. The vehicle navigation apparatus 1 includes a control circuit 2 mainly composed of a microcomputer, a position detector 3 for detecting the current position of the vehicle, a map data input device (map database) 4, an operation switch group 5, an external memory interface. (I / F) 6, a display device 7 including a color liquid crystal display, a voice controller 9 to which a speaker 8 is connected, a voice recognition device 11 for recognizing voice input from a microphone 10, a command, etc. Remote control sensor 13 that transmits / receives data, and external information input / output device 14 that transmits / receives data to / from outside, for example, VICS (registered trademark) center 15 and various information centers by wireless communication.

位置検出器3(位置検出手段に相当)は、車両の回転角速度を検出するジャイロスコープ16、車両の走行距離を検出する距離センサ17、人工衛星からの送信電波に基づいて車両の現在位置を検出(測位)するGPS(Global Positioning System)のためのGPS受信機18を有している。各センサ16〜18は、それぞれ性質の異なる誤差を有している。このため、制御回路2は、各センサ16〜18の検出値を補間しながら用いることにより、車両の現在位置、進行方向、速度、走行距離、現在時刻等を高精度で検出するようになっている。なお、精度によっては、位置検出器3を上述したセンサ16〜18の一部のみで構成してもよい。また、ステアリングの回転センサや各転動輪の車輪センサ等を用いてもよい。   The position detector 3 (corresponding to position detecting means) detects the current position of the vehicle based on the gyroscope 16 that detects the rotational angular velocity of the vehicle, the distance sensor 17 that detects the travel distance of the vehicle, and the transmission radio wave from the artificial satellite. It has a GPS receiver 18 for GPS (Global Positioning System). Each sensor 16-18 has an error with a different property. Therefore, the control circuit 2 detects the current position, traveling direction, speed, travel distance, current time, etc. of the vehicle with high accuracy by interpolating the detection values of the sensors 16-18. Yes. Depending on the accuracy, the position detector 3 may be constituted by only a part of the sensors 16 to 18 described above. Further, a steering rotation sensor, a wheel sensor of each rolling wheel, or the like may be used.

地図データ入力器4は、道路地図データ、目印データ、マップマッチング用データ、目的地データ(施設データベース)、交通情報を道路データに変換するためのテーブルデータなどの各種データを記録した地図データ記録メディアからデータを読み出すためのドライブ装置により構成されている。地図データ記録メディアには、DVD等の大容量記憶媒体を用いるのが一般的であるが、メモリカード、ハードディスク装置等の媒体を用いてもよい。
上記道路地図データは、道路形状、道路幅、道路名、信号、踏切、建造物、各種施設、地名、地形等のデータを含むとともに、その道路地図を表示装置7の画面上に表示するためのデータを含んでいる。また、目的地データは、駅等の交通機関、レジャー施設、宿泊施設、公共施設等の施設や、小売店、デパート、レストラン等の各種の店舗、住居やマンション、地名などに関する情報からなり、このデータにはそれらの電話番号や住所、緯度および経度等のデータが含まれるとともに、施設を示すランドマーク等を、表示装置7の画面上に道路地図に重ね合せて表示するためのデータを含んで構成されている。
The map data input device 4 is a map data recording medium that records various data such as road map data, landmark data, map matching data, destination data (facility database), and table data for converting traffic information into road data. It is comprised by the drive device for reading data from. As the map data recording medium, a large-capacity storage medium such as a DVD is generally used, but a medium such as a memory card or a hard disk device may be used.
The road map data includes data such as road shape, road width, road name, signal, railroad crossing, building, various facilities, place name, terrain, etc., and for displaying the road map on the screen of the display device 7. Contains data. Destination data consists of information about transportation facilities such as stations, leisure facilities, accommodation facilities, public facilities, various stores such as retail stores, department stores, restaurants, residences, condominiums, and place names. The data includes data such as the telephone number, address, latitude and longitude, and data for displaying landmarks indicating facilities on the screen of the display device 7 on the road map. It is configured.

入力手段である操作スイッチ群5は、表示装置7の画面の近傍に設けられたメカニカルスイッチや、表示装置7の画面上に設けられるタッチパネルを含んで構成されている。ユーザ(ドライバ)は、この操作スイッチ群5を用いて、目的地、目的地の検索に必要な情報(目的地検索条件)、通過点などの入力、後述する有効化経路および有効化地点および表示装置7の画面や表示態様の切り替え(地図縮尺変更、メニュー表示選択、経路探索、経路案内開始、現在位置修正、音量調整等)を行う各種のコマンドの入力を行う。また、リモコン12には複数の操作スイッチが設けられており、スイッチ操作によりリモコン12からリモコンセンサ13を介して各種の指令信号が制御回路2に送信される。なお、操作スイッチ群5とリモコン12は、何れの操作によっても制御回路2に同様の機能を実行させることができる。   The operation switch group 5 as input means is configured to include a mechanical switch provided in the vicinity of the screen of the display device 7 and a touch panel provided on the screen of the display device 7. The user (driver) uses this operation switch group 5 to input a destination, information necessary for searching for the destination (destination search condition), a passing point, and the like, an activation route, an activation point, and a display to be described later. Various commands for switching the screen and display mode of the apparatus 7 (map scale change, menu display selection, route search, route guidance start, current position correction, volume adjustment, etc.) are input. The remote controller 12 is provided with a plurality of operation switches, and various command signals are transmitted from the remote controller 12 to the control circuit 2 via the remote controller sensor 13 by the switch operation. Note that the operation switch group 5 and the remote controller 12 can cause the control circuit 2 to execute the same function by any operation.

外部メモリI/F6は、例えばフラッシュメモリカード等のメモリ媒体に対応するものであり、ナビゲーションに関するものとしては、例えば経路案内時に制御回路2が設定した目的地までの経路のデータ、車両が通過した経路のデータ等を、例えばメモリカードのような記録媒体に書き込んで記憶するために使用される。また、上述したように、デジタルカメラ21によって撮影された写真データが記録されるメモリ媒体22との間で、データ転送を行うインターフェイスとしても使用される。   The external memory I / F 6 corresponds to a memory medium such as a flash memory card, for example. As for navigation, for example, the route data set by the control circuit 2 at the time of route guidance, the vehicle passed It is used for writing and storing route data and the like in a recording medium such as a memory card. Further, as described above, it is also used as an interface for performing data transfer with the memory medium 22 on which photographic data taken by the digital camera 21 is recorded.

表示装置7(表示手段)の画面には、車両の位置周辺の地図が各種縮尺で表示されるとともに、その表示に重ね合わせて、車両の現在位置と進行方向とを示す現在地マーク(ポインタ)が表示される。また、目的地までの経路案内の実行時には経路案内用の画面が表示される。さらに、ユーザが目的地の検索に必要な情報等を入力したり、目的地の検索や設定を行うための入力用の画面や、各種のメッセージ等も表示される。   On the screen of the display device 7 (display means), a map around the position of the vehicle is displayed at various scales, and a current location mark (pointer) indicating the current position and the traveling direction of the vehicle is superimposed on the display. Is displayed. In addition, a route guidance screen is displayed when route guidance to the destination is executed. Furthermore, an input screen for inputting information necessary for the user to search for the destination, searching for the destination, and setting, various messages, and the like are also displayed.

音声認識装置11は、マイク10を介して入力される音声と内部に記憶する認識用の辞書データとを照合し、入力された音声を認識する。音声コントローラ9は、音声認識装置11を制御して音声認識結果を制御回路2に出力するとともに、認識された音声をスピーカ8を介してトークバック出力する。また、制御回路2からの音声出力指令に基づいて音声出力信号をスピーカ8に出力する。スピーカ8から出力される音声は、案内に関する音声、操作説明に関する音声、上記のトークバック音声などである。   The voice recognition device 11 collates the voice inputted through the microphone 10 with the dictionary data for recognition stored therein, and recognizes the inputted voice. The voice controller 9 controls the voice recognition device 11 to output a voice recognition result to the control circuit 2 and outputs the recognized voice as a talkback via the speaker 8. Further, an audio output signal is output to the speaker 8 based on the audio output command from the control circuit 2. The sound output from the speaker 8 is a sound related to guidance, a sound related to operation explanation, the above talkback sound, or the like.

制御回路2を構成するマイコンは、CPU、メモリ(RAM、ROM、EEPROM、フラッシュメモリ等)19、I/Oなどを備えている。CPUがROM(またはフラッシュメモリ)に記憶されたプログラムを実行することにより、制御回路2は、目的地設定手段、経路探索手段、表示制御手段、経路案内手段、通過経路特定手段、機能制御手段、現在位置修正手段として機能する。経路探索手段としての機能は、車両の出発地(現在位置)から目的地までの推奨する走行経路を自動計算するものであり、その手法としては例えばダイクストラ法が用いられている。
経路案内手段としての機能は、走行経路に沿って移動可能なように、表示装置7の画面に現在地周辺の道路地図を表示するとともに、車両の現在位置と進行方向を示す現在地マークを道路地図に重ね合わせて表示する機能である。この場合、車両の走行に伴って現在地の表示は地図上を移動し、地図は車両の位置に応じてスクロール表示される。このとき、車両の現在地を道路上にのせるマップマッチングが行われる。
The microcomputer constituting the control circuit 2 includes a CPU, a memory (RAM, ROM, EEPROM, flash memory, etc.) 19, an I / O, and the like. When the CPU executes a program stored in the ROM (or flash memory), the control circuit 2 can perform destination setting means, route search means, display control means, route guidance means, passage route specification means, function control means, Functions as current position correction means. The function as the route search means is to automatically calculate a recommended travel route from the starting point (current position) of the vehicle to the destination. For example, the Dijkstra method is used.
The function as the route guidance means is to display a road map around the current location on the screen of the display device 7 so that it can move along the travel route, and to display a current location mark indicating the current position and traveling direction of the vehicle on the road map. This is a function for displaying images in a superimposed manner. In this case, the display of the current location moves on the map as the vehicle travels, and the map is scrolled according to the position of the vehicle. At this time, map matching is performed in which the current location of the vehicle is placed on the road.

そして、制御回路2のメモリ19には、図3に示すような車両の走行履歴データが記憶されている。そのデータ内容は、例えば、走行経路毎に、ルート番号(リンクID)、走行日、出発時刻、到着時刻、目的地、出発地、経由地、燃費、平均時速、軌跡ポインタなどであり、軌跡ポインタにより、走行軌跡データの保存領域が示されている。走行軌跡データは、地点番号、地点通過日時、地点位置情報(経度/緯度)で構成され、地点とは、例えば交差点や停車点などである。   The memory 19 of the control circuit 2 stores vehicle travel history data as shown in FIG. The data contents include, for example, a route number (link ID), a travel date, a departure time, an arrival time, a destination, a departure place, a waypoint, fuel consumption, an average speed, a trajectory pointer, and the like for each travel route. Thus, the storage area of the travel locus data is shown. The travel locus data includes a point number, a point passage date and time, and point position information (longitude / latitude). Examples of the point include an intersection and a stop point.

次に、本実施例の作用について図4乃至図9も参照して説明する。図4は、ドライバが車両を運転して各地点に立ち寄り、デジタルカメラ21により写真を撮りながら移動した場合の行程例を示すものである。ドライバが、スタート地点STより車両に乗り込み移動を開始し、地点A’で停車すると、当該地点A’の近傍の地点Aにおいてデジタルカメラ21により撮影を行う。続いて、ドライバは車両で宿B’まで移動して停車し、当該地点B’の近傍の地点Bで撮影を行う。
その翌日、ドライバは宿B’の周辺を徒歩で散策し、地点B2でデジタルカメラ21により撮影を行うと、更にその翌日、宿B’から車両で出発する。そして、地点C’で停車すると、当該地点C’の近傍の地点Cにおいてデジタルカメラ21により撮影を行った後、車両で移動してストップ地点SPに戻る。以上の行程中に撮影された写真のデータが、撮影日時のデータと共にデジタルカメラ21に収容されたメモリ媒体22に記憶されている。
Next, the operation of the present embodiment will be described with reference to FIGS. FIG. 4 shows an example of a stroke when the driver drives the vehicle, stops at each point, and moves while taking a picture with the digital camera 21. When the driver gets into the vehicle from the start point ST and starts moving and stops at the point A ′, the digital camera 21 takes a picture at the point A near the point A ′. Subsequently, the driver moves to the inn B ′ by the vehicle, stops, and takes a picture at a point B near the point B ′.
The next day, the driver strolls around the inn B 'on foot and takes a picture with the digital camera 21 at the point B2, and then departs from the inn B' by vehicle the next day. When the vehicle stops at the point C ′, the digital camera 21 captures an image at the point C in the vicinity of the point C ′, and then the vehicle moves by the vehicle and returns to the stop point SP. The data of the photograph taken during the above process is stored in the memory medium 22 accommodated in the digital camera 21 together with the shooting date and time data.

図5は、車両用ナビゲーション装置1の外部メモリI/F6にメモリ媒体22が接続された場合に、制御回路2を中心として行われる処理内容を示すフローチャートである。先ず、ユーザが操作スイッチ群5を操作することで制御回路2に対して撮影関連情報の書き込みを要求すると(ステップS1)、制御回路2は、以降の処理に使用する各変数「i,J,k」を「1」に初期化する(ステップS2)。それから、i番目の画像のデータに付与されている撮影日時データを、メモリ媒体22から取得する(ステップS3)。   FIG. 5 is a flowchart showing the processing contents performed mainly by the control circuit 2 when the memory medium 22 is connected to the external memory I / F 6 of the vehicle navigation apparatus 1. First, when the user operates the operation switch group 5 to request the control circuit 2 to write shooting-related information (step S1), the control circuit 2 sets each variable “i, J, k ”is initialized to“ 1 ”(step S2). Then, the shooting date / time data attached to the i-th image data is acquired from the memory medium 22 (step S3).

続いて、制御回路2は、自車両の走行履歴データを参照し、ステップS3で取得した撮影日時以前において最も近い日時に通過した地点を求めると(ステップS4)、その通過地点の位置情報を取得する(ステップS5)。ここで、図6には、ステップS5における処理内容を示す。制御回路2は、前記通過地点が、例えば、自宅や駅または空港等の駐車場のように、自車両以外の手段によって移動を行う可能性がある特定地点か否かを判断する(ステップS21)。   Subsequently, when the control circuit 2 refers to the travel history data of the own vehicle and finds a point that has passed the closest date and time before the shooting date and time acquired in step S3 (step S4), the control circuit 2 acquires position information of the passing point. (Step S5). Here, FIG. 6 shows the processing contents in step S5. The control circuit 2 determines whether or not the passing point is a specific point that may be moved by means other than the own vehicle, such as a parking lot at home, a station, or an airport (step S21). .

ここで、ステップS21における「自車両以外の手段」とは、徒歩を除く、例えばバス,電車,旅客機である。また、デジタルカメラ21で撮影を行った際に利用した車両を「自車両」として、その他の車両(自動車,バイク,自転車)も含む(例えば、特定地点が自宅の場合)。そして、通過地点がそれらの何れかに該当する場合は(「YES」)、その地点情報を、上記の特定地点であることを示すフラグなどと共に記憶する(ステップS22)。一方、通過地点が特定地点以外である場合は(「NO」)、その他の地点についての情報をそのまま記憶する(ステップS22a)。   Here, “means other than the host vehicle” in step S21 is, for example, a bus, a train, or a passenger plane excluding walking. In addition, the vehicle used when taking a picture with the digital camera 21 is referred to as “own vehicle”, and includes other vehicles (automobiles, motorcycles, bicycles) (for example, when the specific point is at home). And when a passage point corresponds to either of them ("YES"), the point information is memorize | stored with the flag etc. which show that it is said specific point (step S22). On the other hand, when the passing point is other than the specific point (“NO”), the information about the other points is stored as it is (step S22a).

再び、図5を参照する。ステップS5で通過地点の位置情報を取得すると、制御回路2は、i番目の画像情報と(i−1)番目の画像情報とを比較する(ステップS6)。ここで、図7には、ステップS6における処理内容を示す。制御回路2は、先ず変数iが「1」より大か否かを判断し(ステップS23)、「1」より大であれば(「YES」)i番目,(i−1)番目の画像データに付加されている位置情報を比較する(ステップS24)。両者の位置情報が「違う」場合は、撮影地点をグルーピングするための変数jをインクリメントする(ステップS25)。また、変数kはここでも「1」に初期化する。   Again referring to FIG. When the position information of the passing point is acquired in step S5, the control circuit 2 compares the i-th image information with the (i-1) -th image information (step S6). Here, FIG. 7 shows the processing contents in step S6. First, the control circuit 2 determines whether or not the variable i is greater than “1” (step S23). If the variable i is greater than “1” (“YES”), the i-th and (i−1) -th image data are determined. The position information added to is compared (step S24). If the position information of the two is “different”, the variable j for grouping the shooting points is incremented (step S25). The variable k is also initialized to “1” here.

一方、ステップS24において、両者の位置情報が「同じ」である場合は、更に両者の撮影日時を比較する(ステップS26)。撮影日が「同じ」であればそのままメインルーチンに戻り、撮影日が「違う」場合は、同一地点の画像データを更に異なる日付でサブグループ化するための変数kをインクリメントする(ステップS27)。   On the other hand, if the position information of both is “same” in step S24, the shooting date and time of both are further compared (step S26). If the shooting date is “same”, the process returns to the main routine as it is, and if the shooting date is “different”, the variable k for sub-grouping image data at the same point with a different date is incremented (step S27).

再び、図5を参照する。ステップS6においてi番目,(i−1)番目の画像情報を比較すると、制御回路2は、i番目の画像データの撮影日時と、当該データに付加された通過地点の通過日時との差,経過時間情報を求める(ステップS7)。そして、i番目の画像データに、直近の通過地点の位置情報、ステップS7で求めた経過時間、地点グループ番号,サブグループ番号kを付加して、メモリ19のワークエリアに書き込んで記憶させる(ステップS8)。それから、メモリ媒体22の全ての画像データについて上記の処理を行なったか否かを判断し(ステップS9)、残りの画像データがあれば(「NO」)変数iをインクリメントしてから(ステップS10)ステップS3に戻る。 Again referring to FIG. When the i-th and (i-1) -th image information is compared in step S6, the control circuit 2 determines that the difference between the shooting date and time of the i-th image data and the passage date and time of the passing point added to the data is elapsed. Time information is obtained (step S7). Then, the position information of the most recent passing point, the elapsed time obtained in step S7, the point group number j , and the subgroup number k are added to the i-th image data, and are written and stored in the work area of the memory 19 ( Step S8). Then, it is determined whether or not the above processing has been performed on all image data in the memory medium 22 (step S9). If there is remaining image data ("NO"), the variable i is incremented (step S10). Return to step S3.

一方、ステップS9において全ての画像データを処理した場合は(「YES」)、各画像データに該当する関連情報を読出してメモリ媒体22に書き込む処理を行う(ステップS11)。図8には、ステップS11における処理の詳細を示す。制御回路2は、グループ変数iを「1」に初期化すると(ステップS31)、i番目の画像データについて地点グループ番号j,サブグループ番号kを読み出す(ステップS32)。そして、変数iが「2」以上であれば(ステップS33,「YES」)、i番目の画像データとその1つ前の画像データのグループ番号j,kが何れも同じか否かを判断する(ステップS34)。   On the other hand, if all the image data has been processed in step S9 ("YES"), the related information corresponding to each image data is read and written to the memory medium 22 (step S11). FIG. 8 shows details of the processing in step S11. When the control circuit 2 initializes the group variable i to “1” (step S31), it reads the point group number j and the subgroup number k for the i-th image data (step S32). If the variable i is “2” or more (step S33, “YES”), it is determined whether the group numbers j and k of the i-th image data and the previous image data are the same. (Step S34).

ステップS34において、i番目,(i−1)番目の画像データのグループ番号j,kが何れも同じであれば(「YES」)、制御回路2は、当該グループの通過地点と、当該グループに属する画像データの内、最長となる経過時間とに基づいて、地図データ入力器4より立ち寄り可能性がある地点を検索する。そして、その地点情報を関連情報としてメモリ媒体22に記憶させる(ステップS35)。尚、上記最長経過時間については、ステップS35の処理で求めても良いし、例えば、ステップS9で「YES」と判断した後、ステップS11の実行前に一括して求めておいても良い。   In step S34, if the group numbers j and k of the i-th and (i-1) -th image data are both the same ("YES"), the control circuit 2 determines the passing point of the group and the group. Based on the longest elapsed time among the image data to which it belongs, the map data input device 4 is searched for a potential drop-in point. And the point information is memorize | stored in the memory medium 22 as related information (step S35). The longest elapsed time may be obtained in the process of step S35 or, for example, after the determination of “YES” in step S9, it may be obtained all at once before the execution of step S11.

ここで、ステップS35における処理の具体例について図9を参照して説明する。例えば、同一グループの通過地点が「○○パーキングエリア」であり、最長経過時間が5分である場合の移動可能範囲が図9に示す円周内であるとする。この場合、移動可能範囲に位置する立ち寄り可能性がある地点としては、例えば「○○公園」、「○○寺」、「○○神社」などとなる。従って、ステップS35では、これらのような地点情報を画像データに付与する。また、ステップS34において、地点グループ番号j,サブグループ番号kの何れかが異なる場合は(「NO」)ステップS38に移行する。   Here, a specific example of the process in step S35 will be described with reference to FIG. For example, it is assumed that the movable range when the passing point of the same group is “XX parking area” and the longest elapsed time is 5 minutes is within the circumference shown in FIG. In this case, for example, “XX park”, “XX temple”, “XX shrine” and the like are points that are likely to drop in and are located in the movable range. Therefore, in step S35, such point information is added to the image data. In step S34, if either the spot group number j or the subgroup number k is different ("NO"), the process proceeds to step S38.

続くステップS36では、画像データに付加されている通過地点が、図6のステップS21で判断したような特定地点か否かを判断し、特定地点であれば(「YES」)同一の地点グループ番号内で最も古い撮影日時と最新の撮影日時との差となる移動行程日数を求め、その行程日数情報を同一地点グループ番号の画像データに付加してメモリ媒体22に記憶させる。即ち、ユーザが上記のような移動手段を利用して、例えば、出発した駅や空港にまた戻ってきた場合には、その間に相当の日数が経過している場合があるため、移動行程に要したと推定される日数の情報を付加する。
それから、ステップS38ではステップS9と同様の判断を行い、残りの画像データがあれば(「NO」)変数iをインクリメントしてから(ステップS19)ステップS32に戻り、全ての画像データについて上記の処理を行えば(「YES」)、図5のメインルーチンに戻って全ての処理が終了となる。
In subsequent step S36, it is determined whether or not the passing point added to the image data is a specific point as determined in step S21 of FIG. 6, and if it is a specific point ("YES"), the same point group number The travel process days that are the difference between the oldest shooting date and time and the latest shooting date and time are obtained, and the travel day information is added to the image data of the same spot group number and stored in the memory medium 22. That is, when the user returns to the departure station or airport using the above-mentioned transportation means, for example, a considerable number of days may have elapsed during that time. Add information about the estimated number of days.
Then, in step S38, the same determination as in step S9 is performed. If there is remaining image data ("NO"), the variable i is incremented (step S19), and the process returns to step S32. ("YES"), the process returns to the main routine in FIG.

そして、図10には、以上の処理が行われた結果、メモリ媒体22に記憶される画像データに付加される関連情報のフォーマット例を示す。各画像データについては、様々な関連情報を記憶するための領域が確保されており、デジタルカメラ21において撮影が行われた時点では、画像番号や、撮影画像記録時のカメラデータ(ISO感度、シャッタースピード、絞り、色補正、撮影日時などが記憶される。そして、未使用となっている領域が若干存在するため、その未使用領域に関連情報を記憶させる。即ち、通過地点の位置情報(緯度,経度)、地点グループ情報,サブグループ情報,立ち寄り地点情報,移動行程日数時間情報などを記憶させる。   FIG. 10 shows a format example of related information added to the image data stored in the memory medium 22 as a result of the above processing. For each image data, an area for storing various related information is secured, and when the digital camera 21 captures an image, the image number and camera data (ISO sensitivity, shutter when recording the captured image) are recorded. The speed, aperture, color correction, shooting date and time, etc. are stored, and since there are some unused areas, related information is stored in the unused areas, that is, position information (latitude) of passing points. , Longitude), point group information, subgroup information, drop-in point information, travel process days / hours information, and the like.

以上のように本実施例によれば、車両用ナビゲーション装置1の制御回路2は、メモリ媒体22に記憶されている、デジタルカメラ21により撮影された画像データに付随する撮影日時データと、自身がメモリ19に記憶している走行履歴中の各地点に付随する通過日時データとを比較して、撮影日時以前の最も近い通過日時に対応する通過地点情報と、前記通過日時から前記撮影日時までの経過時間データとを、前記画像データに付加してメモリ媒体22に記憶させるようにした。
従って、ユーザが、例えば、メモリ媒体22のデータをパソコン等に取り込んで画像データの整理を行なう場合には、その画像データに付加されている通過地点と、撮影日時までの経過時間データとを比較することで、当該画像が実際にその通過地点付近で撮影されたものかどうかを、適切に判断することが可能となる。
As described above, according to the present embodiment, the control circuit 2 of the vehicular navigation apparatus 1 includes the shooting date / time data accompanying the image data shot by the digital camera 21 stored in the memory medium 22 and the control circuit 2 itself. By comparing the passage date and time data associated with each point in the travel history stored in the memory 19, the passage point information corresponding to the nearest passage date and time before the photographing date and time, and from the passage date and time to the photographing date and time. The elapsed time data is added to the image data and stored in the memory medium 22.
Therefore, for example, when the user takes the data of the memory medium 22 into a personal computer or the like and organizes the image data, the passage point added to the image data is compared with the elapsed time data up to the shooting date and time. This makes it possible to appropriately determine whether or not the image is actually taken in the vicinity of the passing point.

そして、制御回路2は、地点情報が同一となる画像データを同一グループに分類する地点のグループ情報を各画像データに付加してメモリ媒体22に記憶させるので、画像データの分類処理を地点グループ情報に基づいてより詳細に行うことができる。また、制御回路2は、地点グループ情報が同一となる画像データについて、撮影日時の日付が異なるものをサブグループに分類するサブグループ情報も、画像データに付加するので、例えば、移動先で宿泊したような場合には、同一の地点グループに属する画像データを異なるサブグループに分類して、それらの整理を容易にするために資することができる。

Then, the control circuit 2 adds the group information of the points for classifying the image data having the same point information to the same group to each image data and stores them in the memory medium 22, so that the classification processing of the image data is performed on the point group information. Can be done in more detail based on. The control circuit 2 also adds subgroup information that classifies image data with the same point group information with different shooting dates into subgroups, so that, for example, the user stayed at the destination In such a case, it is possible to classify the image data belonging to the same point group into different subgroups and to facilitate their arrangement.

更に、制御回路2は、地点グループ情報及びサブグループ情報が同一である画像データ群について、当該グループの通過地点と最長経過時間とから移動可能範囲内に位置する地点を地図データ入力器4より検索し、検索した地点情報を前記同一グループの画像データに付加してメモリ媒体22に記憶させる。従って、ユーザが画像データの整理を行なう場合には、その画像データに付加されている立ち寄り地点情報を参照すれば、当該画像が実際に撮影された地点をより確実に特定することができる。   Furthermore, the control circuit 2 searches the map data input unit 4 for a point located within the movable range from the passing point of the group and the longest elapsed time for the image data group having the same point group information and subgroup information. Then, the searched point information is added to the image data of the same group and stored in the memory medium 22. Therefore, when the user organizes the image data, the point where the image is actually captured can be more reliably specified by referring to the stop point information added to the image data.

加えて、制御回路2は、画像データに付加された地点情報が、自車両以外の手段を利用する可能性がある特定地点を示す場合、同一グループに属する画像データに付与されている日時データの内、最も古い日時と最新の日時とに基づいて移動行程時間を算出し、その時間情報を同一グループの画像データに付加してメモリ媒体22に記憶する。従って、ユーザが画像データの整理を行なう場合には、その画像データに付加されている移動行程時間を参照すれば、同じ特定地点で撮影された画像の間が何日間程度の旅程であったのかを明確に把握できる。   In addition, when the point information added to the image data indicates a specific point where there is a possibility of using a means other than the own vehicle, the control circuit 2 displays the date / time data attached to the image data belonging to the same group. Among them, the travel process time is calculated based on the oldest date and the latest date, and the time information is added to the image data of the same group and stored in the memory medium 22. Therefore, when the user organizes the image data, referring to the travel process time attached to the image data, how many days it took to travel between images taken at the same specific point. Can be clearly understood.

(第2実施例)
図11及び図12は本発明の第2実施例を示すものであり、第1実施例と同一部分には同一符号を付して説明を省略し、以下異なる部分についてのみ説明する。第2実施例は、第1実施例ではナビゲーション装置1上で行っていた画像データ処理を、パーソナルコンピュータ(パソコン,画像データ処理装置)23上で行う。
(Second embodiment)
11 and 12 show a second embodiment of the present invention. The same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted. Only the different parts will be described below. In the second embodiment, the image data processing performed on the navigation device 1 in the first embodiment is performed on a personal computer (personal computer, image data processing device) 23.

即ち、パソコン23に内蔵されているハードディスク(図示せず)には、第1実施例において図5〜図8で示したフローチャートと同様の処理を行うコンピュータプログラム24がインストールされている。また、パソコン23には、ナビゲーション装置1の地図データ入力器4が有している地図データと同様のデータが記録されているDVD−ROM(地図データベース)25より、前記データを読み出すためのDVDドライブ(図示せず)も内蔵している。更に、パソコン23は、ナビゲーション装置1の外部メモリI/F6と同様に、メモリ媒体22との間でデータ転送を行うためのインターフェイス(図示せず)も備えている。   That is, the hard disk (not shown) built in the personal computer 23 is installed with a computer program 24 that performs the same processing as the flowcharts shown in FIGS. 5 to 8 in the first embodiment. Further, the personal computer 23 is a DVD drive for reading the data from a DVD-ROM (map database) 25 in which data similar to the map data included in the map data input device 4 of the navigation device 1 is recorded. (Not shown) is also built-in. Further, the personal computer 23 includes an interface (not shown) for transferring data to and from the memory medium 22, similarly to the external memory I / F 6 of the navigation device 1.

また、ナビゲーション装置1は、制御回路2内部のメモリ19に記憶されている走行履歴データを、外部メモリI/F6を介してメモリ媒体22と同様のメモリ媒体26に書込むことができるようになっている。そして、パソコン23は、内蔵されているCPU(コンピュータ,図示せず)がコンピュータプログラム24を読み出して実行することで、図12に示す処理を行う。尚、DVD−ROM25は、DVDドライブにセットされた状態にある。   In addition, the navigation device 1 can write the travel history data stored in the memory 19 inside the control circuit 2 to the memory medium 26 similar to the memory medium 22 via the external memory I / F 6. ing. The personal computer 23 performs the processing shown in FIG. 12 by reading and executing the computer program 24 by a built-in CPU (computer, not shown). Note that the DVD-ROM 25 is set in the DVD drive.

図12において、先ず、パソコン23は、メモリ媒体26よりナビゲーション装置1の走行履歴データを読み込む(ステップS41)。この場合、デジタルカメラ21により撮影を行った間に走行したと思われる範囲の履歴を読み込めば良い。続いて、メモリ媒体22より、デジタルカメラ21によって撮影された画像データを読み込む(ステップS42)。尚、ここで読み込むメモリ媒体22の数は2つ以上であっても良いことは言うまでもない。例えば、ユーザがメモリ媒体22(a,b,c,・・・)を順次パソコン23に接続した場合は、それらに記憶されているデータを順次読み込めば良い。   In FIG. 12, first, the personal computer 23 reads the travel history data of the navigation device 1 from the memory medium 26 (step S41). In this case, it is only necessary to read a history of a range that is considered to have been traveled while the digital camera 21 took a picture. Subsequently, image data photographed by the digital camera 21 is read from the memory medium 22 (step S42). It goes without saying that the number of memory media 22 read here may be two or more. For example, when the user sequentially connects the memory media 22 (a, b, c,...) To the personal computer 23, the data stored therein may be read sequentially.

それから、パソコン23は図5〜図8と同様の処理を行う。但し、第1実施例では処理したデータをメモリ媒体22に記憶させたが、パソコン23上で処理する場合はそれに限ることはない。例えば、暫定的にハードディスク上に記憶させても良いし、CD−ROMやDVD−ROM(書込み可能なもの)/RAM等の別の記録媒体に記憶させて保存するようにしても良い。また、特許請求の範囲における「メモリ」とは、上記のハードディスクやCD−ROM,DVD−ROM等を含むものとする。   Then, the personal computer 23 performs the same processing as in FIGS. However, in the first embodiment, the processed data is stored in the memory medium 22. However, the processing is not limited to this when the data is processed on the personal computer 23. For example, it may be temporarily stored on a hard disk, or may be stored and stored in another recording medium such as a CD-ROM or DVD-ROM (writable) / RAM. The “memory” in the claims includes the hard disk, the CD-ROM, the DVD-ROM, and the like.

以上のように第2実施例によれば、パソコン23にコンピュータプログラム24をインストールして動作させ、メモリ媒体26よりナビゲーション装置1の走行履歴データを読み込むと共に、メモリ媒体22よりデジタルカメラ21によって撮影された画像データを読み込んで、第1実施例と同様の処理を行うようにした。従って、より多くの画像データを整理するような場合に、ユーザは、その整理をパソコン23上で容易に行うことができる。   As described above, according to the second embodiment, the computer program 24 is installed and operated in the personal computer 23, the travel history data of the navigation device 1 is read from the memory medium 26, and taken by the digital camera 21 from the memory medium 22. The same image data is read and the same processing as in the first embodiment is performed. Therefore, when organizing more image data, the user can easily organize the image data on the personal computer 23.

本発明は上記し又は図面に記載した実施例にのみ限定されるものではなく、以下のような変形が可能である。
メモリ媒体は、例えば、メモリスティック,SDカード,USBメモリなどを用いれば良い。
また、デジタルカメラ21によって撮影された画像データを読み込む場合、必ずしもメモリ媒体22を介して行う必要はない。例えば、デジタルカメラ21とナビゲーション装置1またはパソコン23との双方がUSBインターフェイスやBluetooth(登録商標)等の通信手段を備えている場合は、デジタルカメラ21の本体に内蔵されているメモリ上に記憶されている画像データを、上記インターフェイスを介して直接読み出すようにしても良い。
The present invention is not limited to the embodiments described above or shown in the drawings, and the following modifications are possible.
As the memory medium, for example, a memory stick, an SD card, a USB memory, or the like may be used.
In addition, when reading image data captured by the digital camera 21, it is not always necessary to read through the memory medium 22. For example, when both the digital camera 21 and the navigation device 1 or the personal computer 23 have communication means such as a USB interface or Bluetooth (registered trademark), the digital camera 21 is stored in a memory built in the main body of the digital camera 21. The image data may be read directly through the interface.

ステップS11の処理は、その全て又は一部を必要に応じて実行すれば良い。
第2実施例において、ステップS41,S42の実行順序は逆でも良い。
また、第2実施例における車両用ナビゲーション装置は、少なくとも自身が記憶している走行履歴データをメモリ媒体に書込む機能を備えていれば良く、その他の機能については従来構成と同様であっても良い。
The processing in step S11 may be executed entirely or partially as necessary.
In the second embodiment, the execution order of steps S41 and S42 may be reversed.
The vehicle navigation apparatus in the second embodiment only needs to have a function of writing at least the travel history data stored in the vehicle storage medium into the memory medium. Other functions may be the same as those of the conventional configuration. good.

本発明の第1実施例についてシステム構成を示す図The figure which shows a system configuration | structure about 1st Example of this invention. 車両用ナビゲーション装置の電気的構成を示すブロック図Block diagram showing the electrical configuration of the vehicle navigation device 車両の走行履歴データの一例を示す図The figure which shows an example of the driving history data of a vehicle ドライバが車両を運転して各地点に立ち寄り、デジタルカメラにより撮影しながら移動した場合の行程例を示す図The figure which shows the example of a stroke when a driver drives a vehicle, stops at each point, and moves while photographing with a digital camera 車両用ナビゲーション装置の制御回路を中心として行われる処理内容を示すフローチャートThe flowchart which shows the processing content performed centering on the control circuit of the navigation apparatus for vehicles 図5のステップS5における処理内容を示すフローチャートThe flowchart which shows the processing content in FIG.5 S5 同ステップS6における図6相当図FIG. 6 equivalent diagram in step S6 同ステップS11における図6相当図FIG. 6 equivalent view in step S11. 図8のステップS35における処理の具体例を示す図The figure which shows the specific example of the process in step S35 of FIG. メモリ媒体に記憶される画像データに付加される関連情報のフォーマット例を示す図The figure which shows the example of a format of the relevant information added to the image data memorize | stored in a memory medium. 本発明の第2実施例を示す図1相当図FIG. 1 equivalent view showing a second embodiment of the present invention. パソコンによる処理内容を示すフローチャートFlow chart showing processing contents by PC

符号の説明Explanation of symbols

図面中、1は車両用ナビゲーション装置、4は地図データ入力器(地図データベース)、21はデジタルカメラ、22はメモリ媒体、23はパーソナルコンピュータ(画像データ処理装置)、24はコンピュータプログラム、25はDVD−ROM(地図データベース)、26はメモリ媒体を示す。   In the drawings, 1 is a vehicle navigation device, 4 is a map data input device (map database), 21 is a digital camera, 22 is a memory medium, 23 is a personal computer (image data processing device), 24 is a computer program, and 25 is a DVD. -ROM (map database), 26 indicates a memory medium.

Claims (15)

デジタルカメラの本体に着脱可能に構成され、前記デジタルカメラによって撮影された画像データが撮影日時データと共に記憶されているメモリとの間で、データ転送が可能に構成される車両用ナビゲーション装置において、
前記メモリに記憶されている画像データに付随する撮影日時データと、自身が記憶している走行履歴中の各地点に付随する通過日時データとを比較し、
前記撮影日時以前の最も近い通過日時に対応する地点の情報(以下、地点情報と称す)と、前記通過日時から前記撮影日時までの経過時間データとを、前記画像データに付加して前記メモリに記憶させることを特徴とする車両用ナビゲーション装置。
In the vehicle navigation apparatus configured to be detachable from the main body of the digital camera and configured to be able to transfer data to and from a memory in which image data captured by the digital camera is stored together with shooting date / time data,
Compare the shooting date and time data associated with the image data stored in the memory and the passage date and time data associated with each point in the travel history stored by itself,
Information on a point corresponding to the nearest passage date and time before the photographing date and time (hereinafter referred to as point information) and elapsed time data from the passage date and time to the photographing date and time are added to the image data in the memory. A vehicular navigation device characterized in that it is stored.
前記撮影日時データと前記通過日時データとを比較した結果、前記地点情報が同一である画像データを同一グループに分類すると、各グループ毎にグループ情報を、各画像データに付加して前記メモリに記憶させることを特徴とする請求項1記載の車両用ナビゲーション装置。 The photographing date and time data and the passage date data and the results of comparison, if the location information to classify the same der Ru image data to the same group, said group information for each group, is added to each image data memory The vehicle navigation device according to claim 1, wherein the navigation device is stored in the vehicle. 前記グループ情報が同一となる画像データについて、前記撮影日時の日付が異なるものをサブグループに分類すると、各サブグループ毎にサブグループ情報を、画像データに付加して前記メモリに記憶させることを特徴とする請求項2記載の車両用ナビゲーション装置。 When the image data having the same group information is classified into subgroups having different shooting dates and times, subgroup information is added to the image data and stored in the memory for each subgroup. The vehicle navigation apparatus according to claim 2, wherein 前記グループ情報及び前記サブグループ情報が同一である画像データ群について、当該グループの通過地点と、前記経過時間が最長となるものとから、車両の移動可能範囲内に位置する地点を地図データベースより検索し、前記検索した地点情報を前記同一グループの画像データに付加して前記メモリに記憶させることを特徴とする請求項3記載の車両用ナビゲーション装置。 For the image data group in which the group information and the sub group information are the same, a map database is searched for a point located within the movable range of the vehicle from the passing point of the group and the one having the longest elapsed time . 4. The vehicle navigation apparatus according to claim 3, wherein the information on the searched point is added to the image data of the same group and stored in the memory. 前記地点情報が、自車両以外の手段を利用する可能性がある特定地点を示す場合、
前記同一グループに属する画像データに付与されている撮影日時データの内、最も古い日時と最新の日時とに基づいて、前記地点における移動行程時間を算出し、当該行程時間情報を前記同一グループの画像データに付加することを特徴とする請求項2乃至4の何れかに記載の車両用ナビゲーション装置。
When the point information indicates a specific point that may use a means other than the vehicle,
Based on the oldest date and time and the latest date and time among the shooting date and time data assigned to the image data belonging to the same group, the travel time at the point is calculated, and the process time information is used as the image of the same group. The vehicle navigation apparatus according to claim 2, wherein the navigation apparatus is added to data.
デジタルカメラによって撮影され、撮影日時データと共に前記デジタルカメラの本体に着脱可能に構成されるメモリに記憶されている画像データと、車両用ナビゲーション装置に記憶されている車両の走行履歴データとを読み出して、前記画像データに、前記走行履歴データとの関連に基づく情報を付加する処理を行う画像データ処理装置において、
前記画像データに付随する撮影日時データと、前記走行履歴中の各地点に付随する通過日時データとを比較し、
前記撮影日時以前の最も近い通過日時に対応する地点の情報(以下、地点情報と称す)と、前記通過日時から前記撮影日時までの経過時間データとを、前記画像データに付加することを特徴とする画像データ処理装置。
Read image data taken by a digital camera and stored in a memory configured to be detachable from the digital camera body together with shooting date and time data, and vehicle travel history data stored in a vehicle navigation device In the image data processing apparatus for performing processing for adding information based on the association with the travel history data to the image data,
Compare the shooting date and time data associated with the image data and the passage date and time data associated with each point in the travel history,
Information on a point corresponding to the nearest passage date and time before the photographing date and time (hereinafter referred to as point information) and elapsed time data from the passage date and time to the photographing date and time are added to the image data. An image data processing apparatus.
前記撮影日時データと前記通過日時データとを比較した結果、前記地点情報が同一である画像データを同一グループに分類すると、各グループ毎にグループ情報を、各画像データに付加することを特徴とする請求項6記載の画像データ処理装置。 As a result of comparing the passage time data and the photographic date data, if the point information to classify the same der Ru image data to the same group, characterized in that the group information for each group, is added to each image data The image data processing apparatus according to claim 6. 前記グループ情報が同一となる画像データについて、前記撮影日時の日付が異なるものをサブグループに分類すると、各サブグループ毎にサブグループ情報を、画像データに付加することを特徴とする請求項7記載の画像データ処理装置。 8. The image data having the same group information is classified into subgroups having different shooting dates and times, and subgroup information is added to the image data for each subgroup. The image data processing apparatus described. 地図データベースを備え、
前記グループ情報及び前記サブグループ情報が同一である画像データ群について、当該グループの通過地点と、前記経過時間が最長となるものとから、車両の移動可能範囲内に位置する地点を前記地図データベースより検索し、前記検索した地点情報を前記同一グループの画像データに付加することを特徴とする請求項8記載の画像データ処理装置。
With a map database,
For the image data group in which the group information and the sub group information are the same, a point located within the movable range of the vehicle from the passing point of the group and the one having the longest elapsed time is determined from the map database. 9. The image data processing apparatus according to claim 8, wherein the image data processing apparatus searches and adds the information of the searched points to the image data of the same group.
前記地点情報が、自車両以外の手段を利用する可能性がある特定地点を示す場合、
前記同一グループに属する画像データに付与されている撮影日時データの内、最も古い日時と最新の日時とに基づいて、前記地点における移動行程時間を算出し、当該行程時間情報を前記同一グループの画像データに付加することを特徴とする請求項7乃至9の何れかに記載の画像データ処理装置。
When the point information indicates a specific point that may use a means other than the vehicle,
Based on the oldest date and time and the latest date and time among the shooting date and time data assigned to the image data belonging to the same group, the travel time at the point is calculated, and the process time information is used as the image of the same group. The image data processing apparatus according to claim 7, wherein the image data processing apparatus is added to data.
デジタルカメラによって撮影され、撮影日時データと共に記憶されている画像データと、車両用ナビゲーション装置に記憶されている車両の走行履歴データとを読み出して、前記画像データに、前記走行履歴データとの関連に基づく情報を付加する画像データ処理装置を構成するコンピュータにより実行されるプログラムにおいて、
前記コンピュータに、前記画像データに付随する撮影日時データと、前記走行履歴中の各地点に付随する通過日時データとを比較させ、
前記撮影日時以前の最も近い通過日時に対応する地点の情報(以下、地点情報と称す)と、前記通過日時から前記撮影日時までの経過時間データとを、前記画像データに付加させることを特徴とするコンピュータプログラム。
The image data captured by the digital camera and stored together with the shooting date / time data and the vehicle travel history data stored in the vehicle navigation device are read out, and the image data is related to the travel history data. In a program executed by a computer constituting an image data processing apparatus for adding information based on
The computer to compare the photographic date data associated with said image data, and a passage time data associated with each point in the travel history,
Information on a point corresponding to the nearest passage date and time before the photographing date and time (hereinafter referred to as point information) and elapsed time data from the passage date and time to the photographing date and time are added to the image data. Computer program.
前記撮影日時データと前記通過日時データとを比較した結果、前記地点情報が同一となる画像データを同一グループに分類すると、各グループ毎にグループ情報を各画像データに付加させることを特徴とする請求項11記載のコンピュータプログラム。 As a result of comparing the shooting date and time data and the passage date and time data, when image data having the same spot information is classified into the same group , group information is added to each image data for each group. The computer program according to claim 11. 前記グループ情報が同一となる画像データについて、前記通過日時の日付が異なるものをサブグループに分類すると、各サブグループ毎にサブグループ情報を、画像データに付加させることを特徴とする請求項12記載のコンピュータプログラム。 13. The image data with the same group information is classified into subgroups having different passage dates and dates, and the subgroup information is added to the image data for each subgroup. The computer program described. 前記グループ情報及び前記サブグループ情報が同一である画像データ群について、当該グループの通過地点と、前記経過時間が最長となるものとから、車両の移動可能範囲内に位置する地点を前記地図データベースより検索させ、前記検索した地点情報を前記同一グループの画像データに付加させることを特徴とする請求項13記載のコンピュータプログラム。 For the image data group in which the group information and the sub group information are the same, a point located within the movable range of the vehicle from the passing point of the group and the one having the longest elapsed time is determined from the map database. 14. The computer program according to claim 13, wherein the computer program is made to search and the information of the searched point is added to the image data of the same group. 前記地点情報が、自車両以外の手段を利用する可能性がある特定地点を示す場合、
前記同一グループに属する画像データに付与されている撮影日時データの内、最も古い日時と最新の日時とに基づいて、前記地点における移動行程時間を算出させ、当該行程時間情報を前記同一グループの画像データに付加させることを特徴とする請求項12乃至14の何れかに記載のコンピュータプログラム。
When the point information indicates a specific point that may use a means other than the vehicle,
Based on the oldest date and time and the latest date and time among the shooting date and time data assigned to the image data belonging to the same group, the travel time at the point is calculated, and the time information is used as the image of the same group. The computer program according to claim 12, wherein the computer program is added to data.
JP2006153496A 2006-06-01 2006-06-01 Vehicle navigation device, image data processing device, and computer program Expired - Fee Related JP4665838B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006153496A JP4665838B2 (en) 2006-06-01 2006-06-01 Vehicle navigation device, image data processing device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006153496A JP4665838B2 (en) 2006-06-01 2006-06-01 Vehicle navigation device, image data processing device, and computer program

Publications (2)

Publication Number Publication Date
JP2007324986A JP2007324986A (en) 2007-12-13
JP4665838B2 true JP4665838B2 (en) 2011-04-06

Family

ID=38857378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006153496A Expired - Fee Related JP4665838B2 (en) 2006-06-01 2006-06-01 Vehicle navigation device, image data processing device, and computer program

Country Status (1)

Country Link
JP (1) JP4665838B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9664527B2 (en) 2011-02-25 2017-05-30 Nokia Technologies Oy Method and apparatus for providing route information in image media

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292389A (en) * 2000-04-07 2001-10-19 Kenwood Corp Contents processing, apparatus contents processing method and recording medium
JP2004172849A (en) * 2002-11-19 2004-06-17 Canon Inc Image information processing method and its apparatus
JP2005300489A (en) * 2004-04-16 2005-10-27 Matsushita Electric Ind Co Ltd Car navigation system
JP2005338905A (en) * 2004-05-24 2005-12-08 Matsushita Electric Ind Co Ltd Image reproduction device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292389A (en) * 2000-04-07 2001-10-19 Kenwood Corp Contents processing, apparatus contents processing method and recording medium
JP2004172849A (en) * 2002-11-19 2004-06-17 Canon Inc Image information processing method and its apparatus
JP2005300489A (en) * 2004-04-16 2005-10-27 Matsushita Electric Ind Co Ltd Car navigation system
JP2005338905A (en) * 2004-05-24 2005-12-08 Matsushita Electric Ind Co Ltd Image reproduction device

Also Published As

Publication number Publication date
JP2007324986A (en) 2007-12-13

Similar Documents

Publication Publication Date Title
CN102213597B (en) Navigation device for vehicle and peripheral facility retrieval display method
JP3814992B2 (en) Vehicle navigation device
JP2008026118A (en) Driving supporting system and vehicle-use navigation apparatus
JP3750323B2 (en) Vehicle navigation device and storage medium storing program thereof
JP2006038558A (en) Car navigation system
JP3969373B2 (en) Navigation device
JP2013032949A (en) Display processing system for vehicle, display processing method for vehicle, and program
JP5151243B2 (en) Information processing device
JP4619442B2 (en) Image display device, display control method, display control program, and recording medium
JP4394426B2 (en) Navigation device and history information display method
JP4665838B2 (en) Vehicle navigation device, image data processing device, and computer program
JP2000283772A (en) Running position indication apparatus
JP4499586B2 (en) Image correction system and image correction method
JP4210869B2 (en) NAVIGATION DEVICE, PROGRAM FOR THE DEVICE, AND RECORDING MEDIUM
JP4207317B2 (en) Destination identification support device and navigation system provided with the device
JP2002039779A (en) Navigation system
JPH06323862A (en) Mobile navigation system
JP2013054770A (en) Information processing apparatus, information processing method, and program
JP2001165674A (en) Navigation device
JP4899602B2 (en) Navigation device
JP5092809B2 (en) Map display device
JP2007093291A (en) Navigation device, method, and program
JP2885665B2 (en) Navigation device
JP4254473B2 (en) Car navigation system
JP4180471B2 (en) Navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees