JP2009174970A - Image output device, data generating device, navigation system, and data structure of point data - Google Patents

Image output device, data generating device, navigation system, and data structure of point data Download PDF

Info

Publication number
JP2009174970A
JP2009174970A JP2008013206A JP2008013206A JP2009174970A JP 2009174970 A JP2009174970 A JP 2009174970A JP 2008013206 A JP2008013206 A JP 2008013206A JP 2008013206 A JP2008013206 A JP 2008013206A JP 2009174970 A JP2009174970 A JP 2009174970A
Authority
JP
Japan
Prior art keywords
image
point data
map
unit
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2008013206A
Other languages
Japanese (ja)
Inventor
Shigeru Sawada
茂 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008013206A priority Critical patent/JP2009174970A/en
Publication of JP2009174970A publication Critical patent/JP2009174970A/en
Ceased legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To mutually link a plurality of picked up images. <P>SOLUTION: A navigation device includes: an EEPROM for storing point data by associating with an image, the point data containing an image, the position and direction on a map, a storage position showing the position storing the stored image, and a replay position, showing, in the case of a dynamic image, the position in the dynamic image; position acquisition parts (S21, S24) for accepting the position on the map; direction acquisition parts (S22, S27) for accepting the direction on the map; and output control part (S23, S37, S39, S41) for extracting point data containing a position on the map within a predetermined range from the acquired position on the map and the acquired direction from the stored point data, reading out and outputting the image specified by the storage position contained in the point data extracted from images stored in the EEPROM. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、画像出力装置、データ生成装置、ナビゲーションシステムおよびポイントデータのデータ構造に関し、特に、撮像された複数の画像のうちから1つを出力する画像出力装置、撮像された複数の画像のうちから1つを選択することが可能なポイントデータを生成するデータ生成装置、それらを含むナビゲーションシステムおよびポイントデータのデータ構造に関する。   The present invention relates to an image output device, a data generation device, a navigation system, and a data structure of point data, and in particular, an image output device that outputs one of a plurality of captured images, and a plurality of captured images. The present invention relates to a data generation device that generates point data capable of selecting one from the above, a navigation system including them, and a data structure of point data.

近年、車両に搭載されるナビゲーション装置は、現在地から目的地までの経路を探索し、地図に重畳して経路を表示する経路探索機能を備えたものがある。しかしながら、地図上に経路を表示させただけでは、運転者は実際に走行して見る景色を知ることができない。過去に走行した経験があり、地図上の位置の景色を記憶していれば、景色を頭に思い浮かべることができるが、未経験の経路では景色を思い出すことができない。   In recent years, some navigation devices mounted on vehicles have a route search function for searching for a route from a current location to a destination and displaying the route superimposed on a map. However, the driver cannot know the scenery that he / she actually sees by simply displaying the route on the map. If you have traveled in the past and remember the scenery of the location on the map, you can think of the scenery with your head, but you can't remember the scenery with inexperienced routes.

特開平10−115529号公報(特許文献1)には、道路の屈曲点又は交差点を表わすノードと、ノード間を結ぶ方向付きベクトルであるリンクとのデータを含む道路地図データを、予め用意された道路地図記憶手段から読出し、この読み出された道路地図データに基づいて、最適経路に沿った道路データを作成し、前記道路データに基づいて、3次元コンピュータグラフィックス技術を利用して走行する車両の中から見た道路の動画像を作成する道路の動画像作成手段と、前記道路の動画像作成手段によって作成された動画像を表示する表示手段と、を備えた車載ナビゲーション装置が記載されている。   In Japanese Patent Laid-Open No. 10-115529 (Patent Document 1), road map data including data of nodes representing road inflection points or intersections and links as directional vectors connecting the nodes is prepared in advance. A vehicle that reads from the road map storage means, creates road data along the optimum route based on the read road map data, and travels using three-dimensional computer graphics technology based on the road data An in-vehicle navigation device comprising a road moving image creating means for creating a moving image of a road viewed from the above and a display means for displaying a moving image created by the road moving image creating means is described. Yes.

しかしながら、従来の車載ナビゲーション装置においては、3次元コンピュータグラフィックス技術を利用して走行する車両の中から見た道路の動画像を表示するため、実際に運転者が見る景色とは異なる画像が表示される。このため、表示された画像と、実際の景色とを合わせる作業が運転者に要求されるといった問題がある。   However, in the conventional in-vehicle navigation device, since the moving image of the road viewed from the vehicle traveling using the three-dimensional computer graphics technology is displayed, an image different from the scenery actually seen by the driver is displayed. Is done. For this reason, there is a problem that the driver is required to work to match the displayed image with the actual scenery.

車両が走行中に実際にカメラで撮影した画像を記録しておき、それを表示することによって現実に近い画像を表示することができる。しかしながら、撮影した画像は位置情報を含まないために、画像を表示する時の位置に合わせて画像を表示するのができない。このため、断片的に撮像して得られる複数の画像のうちから次に表示する画像を選択し、画像を継続して表示することが困難であるといった問題がある。
特開平10−115529号公報
It is possible to display an image close to reality by recording an image actually captured by the camera while the vehicle is running and displaying the image. However, since the captured image does not include position information, the image cannot be displayed in accordance with the position at which the image is displayed. For this reason, there is a problem that it is difficult to select an image to be displayed next from among a plurality of images obtained by fragmentary imaging and to display the image continuously.
JP-A-10-115529

この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、撮像された複数の画像を相互にリンクすることが可能な画像出力装置およびナビゲーションシステムを提供することである。   The present invention has been made to solve the above-described problems, and one object of the present invention is to provide an image output apparatus and a navigation system capable of linking a plurality of captured images to each other. That is.

この発明の他の目的は、撮像された画像を他の画像とリンクするためのデータを生成することが可能なデータ生成装置を提供することである。   Another object of the present invention is to provide a data generation apparatus capable of generating data for linking a captured image with another image.

この発明のさらに他の目的は、撮像された複数の画像をリンクすることが可能なポイントデータのデータ構造を提供することである。   Still another object of the present invention is to provide a data structure of point data capable of linking a plurality of captured images.

上述した目的を達成するためにこの発明のある局面によれば、画像出力装置は、画像を記憶する画像記憶手段と、地図上の位置および方位と、記憶された画像が記憶された位置を示す記憶位置と、画像が動画像の場合には該動画像中の位置を示す再生位置とを含むポイントデータを記憶された画像と関連付けて記憶するポイントデータ記憶手段と、地図上の位置を取得する位置取得手段と、地図上の方位を取得する方位取得手段と、記憶されたポイントデータのうちから取得された地図上の位置から所定の範囲内の地図上の位置を含み、かつ、取得された方位を含むポイントデータを抽出するポイントデータ抽出手段と、画像記憶手段に記憶されている画像のうちから抽出されたポイントデータに含まれる記憶位置により特定される画像を読出し、出力する出力手段と、を備える。   In order to achieve the above object, according to one aspect of the present invention, an image output device indicates image storage means for storing an image, a position and orientation on a map, and a position at which the stored image is stored. Point data storage means for storing point data including a storage position and a reproduction position indicating a position in the moving image when the image is a moving image in association with the stored image, and a position on the map The position acquisition means, the direction acquisition means for acquiring the direction on the map, and the position on the map within a predetermined range from the position on the map acquired from the stored point data, and acquired A point data extraction unit that extracts point data including a direction and an image specified by a storage position included in the point data extracted from the images stored in the image storage unit are read. And, and an output means for outputting.

この局面に従えば、地図上の位置と方位とが取得されると、ポイントデータのうちから地図上の位置から所定の範囲内の地図上の位置を含み、かつ、方位を含むポイントデータが抽出され、記憶されている画像のうちから抽出されたポイントデータに含まれる記憶位置により特定される画像が読み出され、出力される。このため、地図上の位置および方位と同じ位置および方位で撮像された画像を表示することができる。また、地図上の位置と方位とが変化するに伴って、位置と方位とで特定される画像が複数の画像のうちから順に抽出されるので、画像を継続的に出力することができる。その結果、複数の画像を相互にリンクすることが可能な画像出力装置を提供することができる。   According to this aspect, when the position and orientation on the map are acquired, the point data including the position on the map within the predetermined range from the position on the map is extracted from the point data. Then, an image specified by the storage position included in the point data extracted from the stored images is read and output. For this reason, an image captured at the same position and orientation as the position and orientation on the map can be displayed. Further, as the position and orientation on the map change, the image specified by the position and orientation is extracted sequentially from the plurality of images, so that the image can be output continuously. As a result, an image output device capable of linking a plurality of images to each other can be provided.

好ましくは、道路地図を記憶する地図記憶手段をさらに備え、ポイントデータ抽出手段は、出力手段が画像を出力中に、方位取得手段により取得される方位が変化する場合、新たなポイントデータを抽出し、出力手段は、ポイント抽出手段により新たに抽出されたポイントデータに含まれる記憶位置により特定される画像を画像記憶手段から読出し、出力する。   Preferably, a map storage unit that stores a road map is further provided, and the point data extraction unit extracts new point data when the direction acquired by the direction acquisition unit changes while the output unit outputs an image. The output means reads an image specified by the storage position included in the point data newly extracted by the point extraction means from the image storage means and outputs the image.

この局面に従えば、画像を出力中に、方位が変化する場合、新たなポイントデータが抽出され、新たに抽出されたポイントデータに含まれる記憶位置により特定される画像が読み出され、出力される。例えば、交差点で方位が変化した場合、変化後の方位で撮影された画像が出力される。このため、それまで出力されていた画像と、方位の変化に応じて次に出力するべき画像とをリンクするので、出力される画像が途切れることがないように2つの画像をリンクすることができる。また、ポイントデータが交差点の位置を示す記憶位置を含んでいれば、新たなポイントデータを容易に抽出することができる。   According to this aspect, when the azimuth changes while outputting the image, new point data is extracted, and the image specified by the storage position included in the newly extracted point data is read and output. The For example, when the azimuth changes at an intersection, an image taken in the changed azimuth is output. For this reason, since the image output until then is linked to the image to be output next in accordance with the change in direction, it is possible to link the two images so that the output image is not interrupted. . Further, if the point data includes a storage position indicating the position of the intersection, new point data can be easily extracted.

好ましくは、ポイントデータ抽出手段は、位置取得手段により新たに取得された地図上の位置から所定の範囲内の地図上の位置を含み、かつ、方位取得手段によりより新たに取得された方位を含む新たなポイントデータを記憶されたポイントデータのうちから抽出し、出力手段は、画像を出力中にポイントデータ抽出手段により新たなポイントデータが抽出された場合、該新たに抽出されたポイントデータに含まれる記憶位置により特定される画像を画像記憶手段から読出し、出力する。   Preferably, the point data extraction unit includes a position on the map within a predetermined range from a position on the map newly acquired by the position acquisition unit, and includes a direction newly acquired by the direction acquisition unit. New point data is extracted from the stored point data, and the output means is included in the newly extracted point data when new point data is extracted by the point data extraction means while outputting the image. An image specified by the storage position is read from the image storage means and output.

この局面に従えば、新たに取得された地図上の位置から所定の範囲内の地図上の位置を含み、かつ、新たに取得された方位を含む新たなポイントデータがポイントデータのうちから抽出された場合に、新たに抽出されたポイントデータに含まれる記憶位置により特定される画像が読みだされ、出力される。出力される画像と、位置が変化した後に存在する新たなポイントデータにより特定される画像とをリンクするので、出力される画像が途切れることがないように2つの画像をリンクすることができる。   According to this aspect, new point data including the position on the map within a predetermined range from the position on the newly acquired map and including the newly acquired direction is extracted from the point data. In this case, an image specified by the storage position included in the newly extracted point data is read and output. Since the output image and the image specified by the new point data existing after the position change are linked, the two images can be linked so that the output image is not interrupted.

好ましくは、ユーザの操作を受け付ける操作受付手段を含み、ポイントデータ抽出手段は、操作受付手段により予め定められた操作が受け付けられる時に、新たなポイントデータを抽出し、出力手段は、ポイント抽出手段により新たに抽出されたポイントデータに含まれる記憶位置により特定される動画像または静止画像を画像記憶手段から読出し、出力する。   Preferably, the apparatus includes an operation receiving unit that receives a user operation, the point data extracting unit extracts new point data when a predetermined operation is received by the operation receiving unit, and the output unit is operated by the point extracting unit. A moving image or a still image specified by the storage position included in the newly extracted point data is read from the image storage means and output.

この局面に従えば、予め定められた操作が受け付けられる時に、新たなポイントデータが抽出され、新たに抽出されたポイントデータに含まれる記憶位置により特定される画像が読みだされ、出力される。ユーザの操作で次に出力する画像が特定されるので、任意のタイミングで2つの画像をリンクすることができる。   According to this aspect, when a predetermined operation is accepted, new point data is extracted, and an image specified by the storage position included in the newly extracted point data is read and output. Since an image to be output next is specified by a user operation, two images can be linked at an arbitrary timing.

好ましくは、出力手段は、抽出されたポイントデータに含まれる記憶位置に動画像が記憶されている場合、該動画像を読み出し、抽出されたポイントデータに含まれる再生位置から再生する再生手段と、抽出されたポイントデータに含まれる記憶位置に静止画像が記憶されている場合、該静止画像を読み出し表示する表示手段と、を含む。   Preferably, when the moving image is stored in the storage position included in the extracted point data, the output unit reads out the moving image and reproduces it from the reproduction position included in the extracted point data; Display means for reading and displaying the still image when the still image is stored at the storage position included in the extracted point data.

この局面に従えば、抽出されたポイントデータに含まれる記憶位置に動画像が記憶されている場合、抽出されたポイントデータに含まれる再生位置から該動画像が再生される。このため、動画像が撮影された位置を取得された位置に合わせて動画像が再生されるので、取得された位置で撮影された動画像を出力することができる。   According to this aspect, when a moving image is stored in the storage position included in the extracted point data, the moving image is reproduced from the reproduction position included in the extracted point data. For this reason, since the moving image is reproduced by matching the position where the moving image was captured with the acquired position, the moving image captured at the acquired position can be output.

好ましくは、ポイントデータ抽出手段は、再生手段により再生されている動画像が終了した時に、新たなポイントデータを抽出し、出力手段は、ポイント抽出手段により新たに抽出されたポイントデータに含まれる記憶位置により特定される画像を画像記憶手段から読出し、出力する。   Preferably, the point data extraction unit extracts new point data when the moving image reproduced by the reproduction unit is completed, and the output unit stores the memory included in the point data newly extracted by the point extraction unit. An image specified by the position is read from the image storage means and output.

この局面に従えば、再生されている動画像が終了した時に、新たなポイントデータが抽出され、新たに抽出されたポイントデータに含まれる記憶位置により特定される画像が読みだされ、出力される。このため、再生されている動画像が終了した後の位置で撮影された画像が出力されるので、出力される画像が途切れることがないように、出力していた画像と次に出力する画像とをリンクすることができる。   According to this aspect, when the reproduced moving image ends, new point data is extracted, and an image specified by the storage position included in the newly extracted point data is read and output. . For this reason, since the image shot at the position after the reproduced moving image ends is output, the output image and the next output image are output so that the output image is not interrupted. Can be linked.

好ましくは、現在の地図上の位置を検出する位置検出手段をさらに備え、位置取得手段は、検出された位置を取得する。   Preferably, the apparatus further includes position detection means for detecting a current position on the map, and the position acquisition means acquires the detected position.

この局面に従えば、現在の地図上の位置が検出され、取得されるので、現実の位置の変化に同期して画像を出力することができる。   According to this aspect, since the current position on the map is detected and acquired, an image can be output in synchronization with a change in the actual position.

好ましくは、道路地図を記憶する地図記憶手段と、道路地図上の第1の位置と第2の位置とを受け付ける経路受付手段と、受け付けられた第1の位置から第2の位置までの経路を探索する探索手段と、を備え、位置取得手段は、探索された経路上の位置を取得する。   Preferably, the map storage means for storing the road map, the route reception means for receiving the first position and the second position on the road map, and the route from the received first position to the second position Search means for searching, and the position acquisition means acquires a position on the searched route.

この局面に従えば、第1の位置から第2の位置までの経路が探索され、探索された経路上の位置が受け付けられるので、仮想的な位置の変化に同期して画像を出力することができる。   According to this aspect, a route from the first position to the second position is searched, and a position on the searched route is accepted, so that an image can be output in synchronization with a virtual position change. it can.

この発明の他の局面によれば、データ生成装置は、車両に搭載されるデータ生成装置であって、道路地図を記憶する地図記憶手段と、画像を撮像する撮像手段と、撮像された画像を記憶する画像記憶手段と、現在の地図上の位置を取得する位置取得手段と、車両が進行する方位を取得する方位取得手段と、ポイントデータを生成するタイミングを決定するタイミング決定手段と、決定されたタイミングに従って、位置取得手段および方位取得手段によりそれぞれ取得された地図上の位置および方位と、撮像手段により撮像された画像が記憶される記憶位置と、該画像が動画像の場合には該動画像中の位置を示す再生位置とを含むポイントデータを生成するポイントデータ生成手段と、生成されたポイントデータを記憶するポイントデータ記憶手段と、を備え、タイミング決定手段は、撮像手段による撮像が開始された時、位置取得手段により取得された位置が記憶された道路地図において交差点として示される時、検出された方位が変更した時および所定の時間が経過した時のうちから選ばれた少なくとも1つを、ポイントデータを生成するタイミングに決定する。   According to another aspect of the present invention, a data generation device is a data generation device mounted on a vehicle, and includes a map storage unit that stores a road map, an imaging unit that captures an image, and a captured image. An image storage means for storing, a position acquisition means for acquiring the current position on the map, an orientation acquisition means for acquiring the direction in which the vehicle travels, and a timing determination means for determining the timing for generating point data The position and orientation on the map respectively acquired by the position acquisition means and the orientation acquisition means according to the determined timing, the storage position where the image captured by the imaging means is stored, and the moving image if the image is a moving image Point data generation means for generating point data including a reproduction position indicating a position in the image, and point data storage for storing the generated point data The timing determining means, when imaging by the imaging means is started, when the position acquired by the position acquisition means is indicated as an intersection in the stored road map, and when the detected orientation has changed And at least one selected from when the predetermined time has elapsed is determined as the timing for generating the point data.

この局面によれば、撮像が開始された時、取得された位置が道路地図において交差点として示される時、取得された方位が変更した時および所定の時間が経過した時のうちから選ばれた少なくとも1つで、取得された地図上の位置および方位と、撮像された画像が記憶される記憶位置と、画像が動画像の場合には動画像中の位置を示す再生位置とを含むポイントデータが生成され、記憶される。ポイントデータは、画像が撮像された時点における地図上の位置および方位と、撮像された画像が記憶される記憶位置と、画像が動画像の場合には動画像中の位置を示す再生位置とを含むので、地図上の位置と方位とから撮像されて記憶される画像を、他の画像とリンクすることができる。その結果、撮像された画像を他の画像とリンクするためのデータを生成することが可能なデータ生成装置を提供することができる。   According to this aspect, at least selected from when imaging is started, when the acquired position is shown as an intersection on the road map, when the acquired orientation is changed, and when a predetermined time has elapsed One is point data including a position and orientation on the acquired map, a storage position where the captured image is stored, and a reproduction position indicating a position in the moving image when the image is a moving image. Generated and stored. The point data includes the position and orientation on the map at the time when the image was captured, the storage position where the captured image is stored, and the playback position indicating the position in the moving image if the image is a moving image. Therefore, the image captured and stored from the position and orientation on the map can be linked to another image. As a result, it is possible to provide a data generation device capable of generating data for linking a captured image with another image.

この発明のさらに他の局面に従えば、ポイントデータのデータ構造は、地図上の位置と、方位と、地図上の位置および方位で撮像された画像が記憶された位置を示す記憶位置と、記憶位置で特定される位置に記憶された画像が動画像の場合、該動画像中における地図上の位置に対応する再生位置と、を含む。   According to still another aspect of the present invention, the data structure of the point data includes a position on the map, an orientation, a storage position indicating a position where an image captured at the position and orientation on the map is stored, and a storage When the image stored at the position specified by the position is a moving image, it includes a reproduction position corresponding to the position on the map in the moving image.

この局面に従えば、ポイントデータが地図上の位置と、方位と、地図上の位置および方位で撮像された画像が記憶された位置を示す記憶位置と、を含むので、ポイントデータから撮像された複数の画像のうちから地図上の位置および方位で撮像された画像を特定することができる。また、読み出した画像が動画像の場合、ポイントデータは、その動画像中における地図上の位置に対応する再生位置を含むので、動画像のうち地図上の位置で撮像された位置を特定することができる。その結果、撮像された複数の画像をリンクすることが可能なポイントデータのデータ構造を提供することができる。   According to this aspect, since the point data includes a position on the map, an azimuth, and a storage position indicating a position where an image captured at the position and azimuth on the map is stored, the point data is captured from the point data. An image captured at a position and orientation on the map can be specified from among a plurality of images. In addition, when the read image is a moving image, the point data includes a reproduction position corresponding to the position on the map in the moving image, so that the position of the moving image captured at the position on the map is specified. Can do. As a result, it is possible to provide a data structure of point data that can link a plurality of captured images.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一部品には同一の符号を付してある。それらの名称および機能も同じである。しがたってそれらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本実施の形態におけるナビゲーションシステムの全体概要を示す図である。図1を参照して、ナビゲーションシステム1は、複数のナビゲーション装置10,10A,10Bと、サーバ200と、を含む。サーバ200は、一般的なコンピュータであり、インターネット100に接続される。   FIG. 1 is a diagram showing an overall outline of a navigation system in the present embodiment. Referring to FIG. 1, navigation system 1 includes a plurality of navigation devices 10, 10 </ b> A, 10 </ b> B and a server 200. The server 200 is a general computer and is connected to the Internet 100.

ナビゲーション装置10,10A,10Bそれぞれは、インターネット100に接続されたアクセスポイント101,101A,101Bのいずれかと無線通信することが可能であり、アクセスポイント101,101A,101Bのいずれかと無線通信してインターネット100に接続することが可能である。したがって、ナビゲーション装置10,10A,10Bそれぞれは、サーバ200と通信することが可能である。   Each of the navigation devices 10, 10A, 10B can wirelessly communicate with any of the access points 101, 101A, 101B connected to the Internet 100, and wirelessly communicate with any of the access points 101, 101A, 101B. 100 can be connected. Therefore, each of the navigation devices 10, 10 </ b> A, and 10 </ b> B can communicate with the server 200.

ナビゲーション装置10,10A,10Bそれぞれは、データ生成装置および画像出力装置として機能する。また、ナビゲーション装置10,10A,10Bは、その構成および機能は同じなので、ここではナビゲーション装置10について説明する。   Each of the navigation devices 10, 10A, 10B functions as a data generation device and an image output device. Further, since the navigation devices 10, 10A, and 10B have the same configuration and function, the navigation device 10 will be described here.

図2は、ナビゲーション装置のハードウェア構成の一例を示すブロック図である。図2を参照して、ナビゲーション装置10は、ナビゲーション装置10の全体を制御するための中央演算装置(CPU)11と、GPS受信機13と、方位センサ14と、無線回路15と、メモリインターフェース(I/F)17と、シリアル通信I/F19と、CPU11が実行するプログラム等を記憶するROM(Read Only Memory)21と、CPU11の作業領域として用いられるRAM(Random Access Memory)23と、EEPROM25と、液晶表示装置(LCD)27と、タッチスクリーン29と、操作キー31と、オーディオコーデック33と、オーディオコーデック33に接続された増幅器35と、増幅器35と接続されたスピーカ37と、ビデオデコーダ39と、カメラ41と、を含む。   FIG. 2 is a block diagram illustrating an example of a hardware configuration of the navigation device. Referring to FIG. 2, the navigation device 10 includes a central processing unit (CPU) 11 for controlling the entire navigation device 10, a GPS receiver 13, a direction sensor 14, a radio circuit 15, and a memory interface ( I / F) 17, serial communication I / F 19, ROM (Read Only Memory) 21 for storing programs executed by the CPU 11, RAM (Random Access Memory) 23 used as a work area of the CPU 11, EEPROM 25, A liquid crystal display (LCD) 27, a touch screen 29, operation keys 31, an audio codec 33, an amplifier 35 connected to the audio codec 33, a speaker 37 connected to the amplifier 35, and a video decoder 39. , Including camera 41

GPS受信機13は、全地球測位システム(GPS)におけるGPS衛星から送信される電波を受信し、現在の地図上の位置を計測する。そして、計測した位置をCPU11に出力する。CPU11は、EEPROM25に記憶された地図データを読み出し、GPS受信機13から入力される現在位置を地図上に記した画像をLCD27に表示する。   The GPS receiver 13 receives radio waves transmitted from GPS satellites in the global positioning system (GPS), and measures the current position on the map. Then, the measured position is output to the CPU 11. The CPU 11 reads the map data stored in the EEPROM 25 and displays an image on the LCD 27 where the current position input from the GPS receiver 13 is recorded on the map.

方位センサ14は、ナビゲーション装置10が搭載される車両が進行方向を向く方位を検出し、検出した方位をCPU11に出力する。   The direction sensor 14 detects the direction in which the vehicle on which the navigation device 10 is mounted faces in the traveling direction, and outputs the detected direction to the CPU 11.

無線回路15は、CPU11により制御され、WiMAX(Worldwide Interoperability for Microwave Access)の通信方式のネットワークに接続する。WiMAXの通信方式は、Wireless MAN(Wireless Metropolitan Area Network)とも呼ばれ、IEEE802.16という都市規模のエリアを対象として高速無線通信を提供する規格である。無線回路15は、具体的には、WiMAXのネットワークに接続されたアクセスポイント101,101A,101Bのいずれかと無線通信する。アクセスポイント101,101A,101Bのいずれかが送信する無線信号は、アンテナにより受信される。無線回路15は、アンテナにより受信された無線信号が入力され、無線信号を復調した信号をCPU11に出力する。無線回路15は、CPU11から送信信号が入力されると、その送信信号を変調した無線信号をアンテナに出力する。アンテナから送信される無線信号は、アクセスポイント101,101A,101Bのいずれかで受信される。このため、CPU11は、無線回路15を介して、サーバ200と通信することが可能である。   The radio circuit 15 is controlled by the CPU 11 and is connected to a network of a communication system of WiMAX (Worldwide Interoperability for Microwave Access). The WiMAX communication method is also called Wireless MAN (Wireless Metropolitan Area Network), and is a standard that provides high-speed wireless communication for an urban area called IEEE 802.16. Specifically, the wireless circuit 15 wirelessly communicates with any of the access points 101, 101A, and 101B connected to the WiMAX network. A radio signal transmitted from any of the access points 101, 101A, 101B is received by the antenna. The radio circuit 15 receives a radio signal received by the antenna and outputs a signal obtained by demodulating the radio signal to the CPU 11. When the transmission signal is input from the CPU 11, the wireless circuit 15 outputs a wireless signal obtained by modulating the transmission signal to the antenna. A radio signal transmitted from the antenna is received by any of the access points 101, 101A, and 101B. For this reason, the CPU 11 can communicate with the server 200 via the wireless circuit 15.

なお、ここでは無線回路15が、WiMAXのネットワークに接続する例を示すが、無線LANであれば、WiMAXのネットワークに限定されるものではなく、例えば、BLUETOOTH(登録商標)、WiFi(登録商標)等のネットワークであってもよい。   Here, an example is shown in which the wireless circuit 15 is connected to a WiMAX network. However, the wireless circuit 15 is not limited to a WiMAX network as long as it is a wireless LAN. For example, BLUETOOTH (registered trademark), WiFi (registered trademark) Or the like.

LCD27は、CPU11により制御され、画像を表示する。なお、LCD27に代えて、有機EL(Electro Luminescence)ディスプレイ等を用いるようにしてもよい。   The LCD 27 is controlled by the CPU 11 and displays an image. Instead of the LCD 27, an organic EL (Electro Luminescence) display or the like may be used.

タッチスクリーン29は、透明な部材からなり、LCD27の表示面上に設けられる。タッチスクリーン29は、ユーザが指等で指示したLCD27の表示面における位置を検出し、CPU11に出力する。CPU11は、LCD27に各種ボタンを表示することにより、タッチスクリーンにより検出される指示された位置と組み合わせて、各種の操作指示を受け付ける。CPU11がLCD27に表示する操作画面は、ナビゲーション装置10を操作するための操作画面を含む。   The touch screen 29 is made of a transparent member and is provided on the display surface of the LCD 27. The touch screen 29 detects the position on the display surface of the LCD 27 designated by the user with a finger or the like, and outputs it to the CPU 11. The CPU 11 displays various buttons on the LCD 27 and receives various operation instructions in combination with the instructed position detected by the touch screen. The operation screen displayed on the LCD 27 by the CPU 11 includes an operation screen for operating the navigation device 10.

ビデオデコーダ39は、入力されるデジタルデータをアナログの映像信号に変換する復号回路を含む。ビデオデコーダ39は、CPU11により制御され、圧縮符号化された映像データが入力されると、それをアナログのビデオ信号に変換し、LCD27に出力する。   The video decoder 39 includes a decoding circuit that converts input digital data into an analog video signal. The video decoder 39, which is controlled by the CPU 11 and receives video data compressed and encoded, converts it into an analog video signal and outputs it to the LCD 27.

オーディオコーデック33は、アナログの音声信号をデジタルデータに変換する回路と、デジタルデータをアナログの音声信号に変換する回路とを含み、音声データを処理する。オーディオコーデック33は、圧縮符号化されたデジタルのデータが入力されると、アナログの音声信号に変換し、増幅器35に出力する。増幅器35は、オーディオコーデック33から入力される音声信号を増幅し、スピーカ37に出力する。これにより、スピーカ37から音が出力される。   The audio codec 33 includes a circuit that converts analog audio signals into digital data and a circuit that converts digital data into analog audio signals, and processes the audio data. When the compression-coded digital data is input, the audio codec 33 converts the digital data into an analog audio signal and outputs the analog audio signal to the amplifier 35. The amplifier 35 amplifies the audio signal input from the audio codec 33 and outputs it to the speaker 37. Thereby, a sound is output from the speaker 37.

カメラ41は、レンズおよびCMOS(Complementary Metal Oxide Semiconductor)センサ等の光電変換素子を備え、レンズで集光した光をCMOSセンサに結像し、CMOSセンサは受光した光を光電変換して画像をCPU11に出力する。カメラ41は、CPU11により制御され、CPU11からの指示により撮像を開始して、得られる画像をCPU11に出力する。画像は、静止画像または動画を含む。カメラ41は、画質を向上させるための画像処理を実行する画像処理回路、画像をアナログからデジタルに変換するA/D変換回路を備えている。CPU11は、カメラ41が出力する静止画像または動画像をLCD16に表示させる、または、圧縮符号化方式で静止画像または動画像を符号化して、EEPROM25またはメモリI/F17に装着されたメモリカード17Aに記憶する。   The camera 41 includes a lens and a photoelectric conversion element such as a CMOS (Complementary Metal Oxide Semiconductor) sensor. The light focused by the lens is imaged on the CMOS sensor, and the CMOS sensor photoelectrically converts the received light to convert the image to the CPU 11. Output to. The camera 41 is controlled by the CPU 11, starts imaging in response to an instruction from the CPU 11, and outputs an obtained image to the CPU 11. The image includes a still image or a moving image. The camera 41 includes an image processing circuit that performs image processing for improving image quality, and an A / D conversion circuit that converts an image from analog to digital. The CPU 11 displays the still image or moving image output from the camera 41 on the LCD 16 or encodes the still image or moving image by the compression encoding method, and stores the image on the memory card 17A mounted on the EEPROM 25 or the memory I / F 17. Remember.

カメラ41は、ナビゲーション装置10が車両に搭載される場合、運転者が見る視野が撮像範囲となるように設置されるのが好ましい。これにより、カメラ41は、運転者が見るのと同じ風景を撮像することができ、撮像して得られる画像がEEPROM25またはメモリI/F17に装着されたメモリカード17Aに記録される。   When the navigation apparatus 10 is mounted on a vehicle, the camera 41 is preferably installed so that the field of view seen by the driver is within the imaging range. Thereby, the camera 41 can image the same scenery as the driver sees, and an image obtained by imaging is recorded in the EEPROM 25 or the memory card 17A mounted on the memory I / F 17.

メモリI/F17には、着脱可能なメモリカード17Aが装着される。CPU11は、メモリカード17Aに、例えば、MPEG(Moving Picture Experts Group)などの規格で圧縮符号化された映像データが記憶されている場合、その映像データを読み出し、ビデオデコーダ39およびオーディオコーデック33に出力する。   A removable memory card 17A is mounted on the memory I / F 17. When the video data compressed and encoded in accordance with a standard such as MPEG (Moving Picture Experts Group) is stored in the memory card 17A, the CPU 11 reads the video data and outputs it to the video decoder 39 and the audio codec 33. To do.

図3は、サーバのハードウェア構成の一例を示すブロック図である。図3を参照して、サーバ200は、サーバ200の全体を制御するためのCPU201と、CPU201が実行するプログラム等を記憶するためのROM202と、CPU201の作業領域として用いられるRAM203と、サーバ200をインターネット100に接続するためのネットワークI/F204と、大容量記憶装置としてのHDD205と、表示部206と、ユーザの操作の入力を受付ける操作部207とを含む。   FIG. 3 is a block diagram illustrating an example of the hardware configuration of the server. Referring to FIG. 3, server 200 includes a CPU 201 for controlling the entire server 200, a ROM 202 for storing a program executed by CPU 201, a RAM 203 used as a work area for CPU 201, and server 200. A network I / F 204 for connecting to the Internet 100, an HDD 205 as a large-capacity storage device, a display unit 206, and an operation unit 207 that receives an input of a user operation are included.

本実施の形態におけるナビゲーション装置10は、データ生成装置または画像再生装置として機能する。ナビゲーション装置10がデータ生成装置として機能する場合、ナビゲーション装置10は、車両に搭載され、CPU11はROM21に記憶されているデータ生成プログラムを実行する。ナビゲーション装置10が画像再生装置として機能する場合、CPU11はROM21に記憶されている画像再生プログラムを実行する。したがって、ナビゲーション装置10は、実行するプログラムを切り換えることにより、データ生成装置または画像再生装置として機能する。   The navigation device 10 in the present embodiment functions as a data generation device or an image playback device. When the navigation device 10 functions as a data generation device, the navigation device 10 is mounted on a vehicle, and the CPU 11 executes a data generation program stored in the ROM 21. When the navigation device 10 functions as an image playback device, the CPU 11 executes an image playback program stored in the ROM 21. Therefore, the navigation apparatus 10 functions as a data generation apparatus or an image reproduction apparatus by switching the program to be executed.

図4は、データ生成装置として機能するナビゲーション装置が備えるCPUが有する機能の一例をEEPROM25に記憶するデータともに示す機能ブロック図である。図4を参照して、CPU11は、画像を受け付ける画像受付部51と、画像をEEPROM25に記憶する画像記憶部53と、方位を取得する方位取得部55と、地図上の位置を取得する位置取得部59と、方位と位置とに基づいてポイントデータを生成するタイミングを決定するタイミング決定部61と、決定されたタイミングでポイントデータを生成するポイントデータ生成部57と、ユーザの操作を受け付けるための操作受付部71と、を含む。   FIG. 4 is a functional block diagram showing an example of functions of the CPU included in the navigation device functioning as a data generation device, together with data stored in the EEPROM 25. With reference to FIG. 4, the CPU 11 receives an image, receives an image 51, stores an image in the EEPROM 25, stores an image 53, acquires an azimuth acquisition unit 55, and acquires a position on the map. Unit 59, timing determination unit 61 that determines the timing for generating point data based on the azimuth and position, point data generation unit 57 that generates point data at the determined timing, and for accepting user operations An operation receiving unit 71.

画像受付部51は、カメラ41を制御し、カメラ41が撮像して出力する画像を受け付ける。カメラ41が出力する画像は、静止画像と動画像とを含む。また、画像受付部51は、メモリカード17Aに記憶された画像を、メモリI/F17を介して読み出す。画像受付部51は、カメラ41またはメモリI/F17から受け付けた画像を画像記憶部53に出力するとともに、画像を受け付けたことを示す信号をタイミング決定部61に出力する。   The image receiving unit 51 controls the camera 41 and receives an image captured and output by the camera 41. The image output by the camera 41 includes a still image and a moving image. Further, the image receiving unit 51 reads the image stored in the memory card 17A via the memory I / F 17. The image reception unit 51 outputs an image received from the camera 41 or the memory I / F 17 to the image storage unit 53 and outputs a signal indicating that the image has been received to the timing determination unit 61.

画像記憶部53は、画像受付部51から受け付けられる画像を、EEPROM25に記憶するとともに、EEPROM25に記憶された画像のEEPROM25における位置を示す記憶位置をポイントデータ生成部57に出力する。記憶位置は、例えば画像のファイル名を含む。また、画像記憶部53は、動画像を受け付ける場合、ポイントデータ生成部57からの要求により、要求を受け付けた時点で画像受付部51から受け付けられる動画像中の位置を示す再生位置を、ポイントデータ生成部57に出力する。   The image storage unit 53 stores the image received from the image reception unit 51 in the EEPROM 25 and outputs a storage position indicating the position in the EEPROM 25 of the image stored in the EEPROM 25 to the point data generation unit 57. The storage location includes, for example, an image file name. Further, when accepting a moving image, the image storage unit 53 uses a request from the point data generation unit 57 to display a reproduction position indicating a position in the moving image accepted from the image accepting unit 51 when the request is accepted, as point data. The data is output to the generation unit 57.

方位取得部55は、方位センサ14が出力する車両が向く方位を受け付ける。方位取得部55は、受け付けた方位をポイントデータ生成部57およびタイミング決定部61に出力する。位置取得部59は、GPS受信機13が出力する現在の地図上の位置を受け付ける。位置取得部59は、受け付けた位置をポイントデータ生成部57およびタイミング決定部61に出力する。なお、ナビゲーション装置10が方位センサ14を備えない場合には、時間を異ならせて位置取得部59が出力する2つの位置から方位を検出するようにしてもよい。   The bearing acquisition unit 55 receives the bearing of the vehicle output by the bearing sensor 14. The direction acquisition unit 55 outputs the received direction to the point data generation unit 57 and the timing determination unit 61. The position acquisition unit 59 receives the current position on the map output by the GPS receiver 13. The position acquisition unit 59 outputs the received position to the point data generation unit 57 and the timing determination unit 61. When the navigation device 10 does not include the azimuth sensor 14, the azimuth may be detected from two positions output by the position acquisition unit 59 at different times.

タイミング決定部61は、ポイントデータ生成部57がポイントデータを生成するタイミングを決定する。具体的には、(1)カメラ41で画像が撮像された時、(2)車両が交差点に位置する時、(3)車両の進行方向が変化した時、(4)所定時間が経過する時を、ポイントデータを生成するタイミングに決定する。タイミング決定部61は、画像受付部51がカメラ41から画像を受け付けると、ポイントデータ生成部57に生成指示を出力する。また、タイミング決定部61は、位置取得部59より入力される位置がEEPROM25に記憶された地図データにおいて交差点を示す場合、ポイントデータ生成部57に生成指示を出力する。さらに、タイミング決定部61は、方位取得部55より入力される方位が先に入力された方位から変化すると、ポイントデータ生成部57に生成指示を出力する。方位の変化は、車両が交差点を曲がる程度の変化であればよく、例えば30度程度である。さらに、タイミング決定部61は、所定時間間隔でポイントデータ生成部57に生成指示を出力する。   The timing determination unit 61 determines the timing at which the point data generation unit 57 generates point data. Specifically, (1) when an image is captured by the camera 41, (2) when the vehicle is located at an intersection, (3) when the traveling direction of the vehicle changes, (4) when a predetermined time elapses Is determined at the timing of generating the point data. The timing determination unit 61 outputs a generation instruction to the point data generation unit 57 when the image reception unit 51 receives an image from the camera 41. When the position input from the position acquisition unit 59 indicates an intersection in the map data stored in the EEPROM 25, the timing determination unit 61 outputs a generation instruction to the point data generation unit 57. Further, the timing determination unit 61 outputs a generation instruction to the point data generation unit 57 when the direction input from the direction acquisition unit 55 changes from the previously input direction. The azimuth change may be any change as long as the vehicle bends the intersection, for example, about 30 degrees. Further, the timing determination unit 61 outputs a generation instruction to the point data generation unit 57 at predetermined time intervals.

ここでは、ポイントデータ生成部57がポイントデータを生成するタイミングを、(1)〜(4)の時と、したが、これらのタイミングのうちから選ばれた少なくとも1つのタイミングとしてもよい。ポイントデータは、その数が多いほど後述するポイントデータ抽出部77において抽出されるポイントデータの数が多くなるので、ポイントデータは多いほど好ましい。また、ポイントデータ抽出部77が交差点においてポイントデータを抽出する場合には、ポイントデータ生成部57がポイントデータを生成するタイミングは、(2)車両が交差点に位置する時、および(3)車両の進行方向が変化した時を少なくとも含むのが好ましい。抽出するタイミングにおける方位および位置と、ポイントデータが生成される方位および位置とが一致するため、再生が容易になるからである。   Here, the timing at which the point data generation unit 57 generates the point data is the time of (1) to (4), but may be at least one timing selected from these timings. As the number of point data increases, the number of point data extracted by the point data extraction unit 77 to be described later increases. When the point data extraction unit 77 extracts point data at the intersection, the timing at which the point data generation unit 57 generates the point data is (2) when the vehicle is located at the intersection, and (3) the vehicle. It is preferable to include at least the time when the traveling direction changes. This is because the azimuth and position at the extraction timing coincide with the azimuth and position where the point data is generated, so that reproduction becomes easy.

操作受付部71は、カメラ41により画像が撮像される際に、ユーザがタッチスクリーン29または操作キー31に入力する画像の属性を受け付ける。属性は、例えば、画像が属するジャンルを含む。ジャンルは、たとえば、ナビゲーション用と、広告用と、観光用と、を含む。ジャンルがナビゲーション用の画像は、ナビゲーションのためにカメラ41により撮像された画像である。広告用および観光用の画像は、メモリカード17Aに記憶された画像であり、例えば、位置の周辺に位置する店舗、宿泊施設などの広告のために制作された画像、位置の周辺に位置する名勝を紹介するために制作された画像である。操作受付部71は、画像受付部51がカメラ41またはメモリカード17Aから画像を受け付けるごとに、ユーザがタッチスクリーン29または操作キー31に入力するジャンルを受け付け、受け付けたジャンルをポイントデータ生成部57に出力する。   The operation receiving unit 71 receives image attributes input by the user to the touch screen 29 or the operation keys 31 when an image is captured by the camera 41. The attribute includes, for example, the genre to which the image belongs. The genre includes, for example, navigation, advertisement, and tourism. An image whose genre is navigation is an image captured by the camera 41 for navigation. The advertisement image and the tourist image are images stored in the memory card 17A. For example, an image produced for an advertisement of a store or an accommodation facility located around the location, or a scenic spot located around the location. This image was created to introduce The operation accepting unit 71 accepts a genre that the user inputs to the touch screen 29 or the operation key 31 every time the image accepting unit 51 accepts an image from the camera 41 or the memory card 17A. Output.

ポイントデータ生成部57は、タイミング決定部61から生成指示が入力されると、ポイントデータを生成し、EEPROM25に記憶する。これによりEEPROM25にポイントデータ303が記憶される。ポイントデータは、画像記憶部53から入力される記憶位置と、位置取得部59から入力される位置と、方位取得部55から入力される方位と、その時の時刻と、動画像または静止画像の別を示すカテゴリと、を含む。また、ポイントデータ生成部57は、画像記憶部53が動画像を記憶する場合、画像記憶部53に再生位置を要求し、画像記憶部53が画像受付部51から受け付けられる動画像中の位置を示す再生位置をさらに含むポイントデータを生成し、EEPROM25に記憶する。   When the generation instruction is input from the timing determination unit 61, the point data generation unit 57 generates point data and stores it in the EEPROM 25. As a result, the point data 303 is stored in the EEPROM 25. The point data includes the storage position input from the image storage unit 53, the position input from the position acquisition unit 59, the direction input from the direction acquisition unit 55, the time at that time, and a moving image or a still image. And a category indicating. In addition, when the image storage unit 53 stores a moving image, the point data generation unit 57 requests a reproduction position from the image storage unit 53, and determines the position in the moving image that the image storage unit 53 receives from the image reception unit 51. Point data further including the reproduction position shown is generated and stored in the EEPROM 25.

送信部63は、画像受付部51による画像の受け付けが終了すると、EEPROM25に新たに記憶された画像301と新たに記憶されたポイントデータ303をサーバ200に無線回路15を介して送信する。これにより、ナビゲーション装置10に記憶された画像301とポイントデータ303とが、サーバ200が備えるHDD205に記憶される。   When the reception of the image by the image reception unit 51 is completed, the transmission unit 63 transmits the image 301 newly stored in the EEPROM 25 and the newly stored point data 303 to the server 200 via the wireless circuit 15. As a result, the image 301 and the point data 303 stored in the navigation device 10 are stored in the HDD 205 provided in the server 200.

サーバ200は、ナビゲーション装置10とは別のナビゲーション装置10A,10Bから画像301とポイントデータ303とが送信されてくると、それらをHDD205に記憶する。   When the image 301 and the point data 303 are transmitted from the navigation devices 10A and 10B different from the navigation device 10, the server 200 stores them in the HDD 205.

図5は、ポイントデータのフォーマットの一例を示す図である。図5を参照して、ポイントデータ303は、ポイント名の項目と、記憶位置の項目と、再生位置の項目と、地図上位置の項目と、方位の項目と、道路名の項目と、交差点名の項目と、属性の項目と、を含む。ポイント名の項目は、ポイントデータ303を識別するための識別情報が設定される。記憶位置の項目は、ポイントデータ303に対応する画像301がEEPROM25に記憶されている位置が設定される。ここでは、記憶位置の項目は、画像に付されたファイル名としている。なお、URL(Uniform Resource Locator)としてもよい。   FIG. 5 is a diagram illustrating an example of a format of point data. Referring to FIG. 5, point data 303 includes a point name item, a storage position item, a reproduction position item, a map position item, a direction item, a road name item, and an intersection name. Items and attribute items. In the item of point name, identification information for identifying the point data 303 is set. In the storage position item, a position where the image 301 corresponding to the point data 303 is stored in the EEPROM 25 is set. Here, the item of the storage position is a file name attached to the image. It may be a URL (Uniform Resource Locator).

再生位置の項目は、画像301が動画像の場合に設定され、動画像のうちでポイントデータが生成されたときに記録された動画像中の位置が設定される。再生位置は、たとえば、動画像の再生を開始してからの時間であってもよいし、動画像のアドレスであってもよい。   The item of the reproduction position is set when the image 301 is a moving image, and the position in the moving image recorded when the point data is generated among the moving images is set. The playback position may be, for example, a time after starting playback of a moving image, or may be an address of a moving image.

地図上位置の項目は、ポイントデータが生成された時点における地図上の位置が設定される。方位の項目は、ポイントデータが生成された時点における車両が向く方位が設定される。道路名の項目は、ポイントデータが生成された時点における地図上の位置が地図データで示す道路の名称が設定される。交差点名の項目は、ポイントデータが生成された時点における地図上の位置が地図データで示す交差点の名称が設定される。   In the item on the map position, the position on the map at the time point data is generated is set. In the direction item, the direction in which the vehicle faces when the point data is generated is set. In the item of road name, the name of the road indicated by the map data at the position on the map when the point data is generated is set. In the item of intersection name, the name of the intersection indicated by the map data at the position on the map when the point data is generated is set.

属性の項目は、ポイントデータに対応する画像の属性が設定され、時刻の項目と、カテゴリの項目と、ジャンルの項目と、データプロパティURLの項目と、を含む。時刻の項目は、画像が撮像された日時が設定される。対応する画像が動画像の場合には、再生を開始した日時が設定される。カテゴリの項目は、対応する画像について動画像と静止画像との別が設定される。ジャンルの項目は、対応する画像についてナビゲーション用と、広告用と、観光用との別が設定される。データプロパティURLの項目は、対応する画像に関する情報(プロパティ)に割り当てられたURLが設定される。   The attribute item is an attribute of an image corresponding to the point data, and includes a time item, a category item, a genre item, and a data property URL item. In the time item, the date and time when the image is captured is set. When the corresponding image is a moving image, the date and time when reproduction is started is set. The category item is set to be a moving image or a still image for the corresponding image. The item of genre is set for navigation, advertisement, and sightseeing for the corresponding image. In the data property URL item, a URL assigned to information (property) related to the corresponding image is set.

図6は、画像のプロパティの一例を示す図である。画像のプロパティは、画像が記憶されるインターネット100における位置を示すURLまたはファイル名(file URL/name)と、ファイルタイプ(file tye)と、ファイルサイズ(file size)と、再生時間(play time)と、解像度(resolution)と、ビットレート(bit rate)と、リードカウント(read count)と、生成時刻(created time)とを含む。生成時刻は、ポイントデータの時刻に設定される値と同じである。   FIG. 6 is a diagram illustrating an example of image properties. The properties of the image include a URL or file name (file URL / name) indicating the position in the Internet 100 where the image is stored, a file type (file type), a file size (file size), and a playback time (play time). A resolution, a bit rate, a read count, and a created time. The generation time is the same as the value set for the time of the point data.

図7は、画像再生装置として機能するナビゲーション装置が備えるCPUが有する機能の一例をEEPROMに記憶するデータともに示す機能ブロック図である。図7を参照して、CPU11は、画像およびポイントデータを取得するデータ取得部73と、方位取得部55と、位置取得部59と、操作受付部71と、地図上の2点間の経路を探索する経路探索部91と、探索された経路の走行をシミュレートするシミュレート部93と、方位と位置とに基づいてポイントデータを抽出するポイントデータ抽出部77と、画像を出力する出力制御部89と、を含む。   FIG. 7 is a functional block diagram showing an example of functions of a CPU included in a navigation device functioning as an image playback device, together with data stored in the EEPROM. Referring to FIG. 7, the CPU 11 obtains a route between two points on the map, a data acquisition unit 73 that acquires images and point data, an orientation acquisition unit 55, a position acquisition unit 59, an operation reception unit 71. A route search unit 91 for searching, a simulation unit 93 for simulating traveling of the searched route, a point data extraction unit 77 for extracting point data based on the direction and position, and an output control unit for outputting an image 89.

データ取得部73は、無線回路15を介してサーバ200と通信し、サーバ200に送信要求を送信し、サーバ200がそれが備えるHDD205に記憶されている画像301とポイントデータ303とを送信すると、サーバ200からそれらを受信する。サーバ200から受信する画像301とポイントデータ303とは、他のナビゲーション装置10A,10Bによりサーバ200に送信された画像301とポイントデータ303とを含む。このため、データ取得部73は、他のナビゲーション装置10により記憶された画像301と、生成されたポイントデータ303とをサーバ200から取得する。データ取得部73は、サーバ200から取得した画像301とポイントデータ303とをEEPROM25に追加して記憶する。   When the data acquisition unit 73 communicates with the server 200 via the wireless circuit 15, transmits a transmission request to the server 200, and the server 200 transmits the image 301 and the point data 303 stored in the HDD 205 included in the server 200, Receive them from the server 200. The image 301 and the point data 303 received from the server 200 include the image 301 and the point data 303 transmitted to the server 200 by the other navigation devices 10A and 10B. For this reason, the data acquisition unit 73 acquires the image 301 stored by the other navigation device 10 and the generated point data 303 from the server 200. The data acquisition unit 73 adds the image 301 and point data 303 acquired from the server 200 to the EEPROM 25 and stores them.

経路探索部91は、EEPROM25から地図データ305を読出し、LCD27に地図を表示する。そして、経路探索部91は、ユーザがタッチスクリーン29に入力する2つの地図上の位置を取得する。2つの地図上の位置を、ここでは開始位置と終了位置という。経路探索部91か開始位置から終了位置までの経路を、地図データ305を参照しながら探索する。そして、探索された経路をシミュレート部93に出力する。   The route search unit 91 reads the map data 305 from the EEPROM 25 and displays the map on the LCD 27. Then, the route search unit 91 acquires two map positions that the user inputs to the touch screen 29. The two positions on the map are referred to here as a start position and an end position. The route search unit 91 searches for a route from the start position to the end position with reference to the map data 305. Then, the searched route is output to the simulation unit 93.

シミュレート部93は、経路探索部91から入力される経路を、開始位置から終了位置まで順に地図に表示する。シミュレート部93は、開始位置から終了位置まで順に地図に表示する際に、地図に表示しようとしている経路上の位置と方位とをポイントデータ抽出部77に出力する。   The simulation unit 93 displays the route input from the route search unit 91 in order from the start position to the end position. When the simulation unit 93 sequentially displays the map from the start position to the end position, the simulation unit 93 outputs the position and orientation on the route to be displayed on the map to the point data extraction unit 77.

ポイントデータ抽出部77は、走行時再生モードとシミュレート時再生モードとの2つの動作モードで動作する。ポイントデータ抽出部77は、走行時再生モードで動作する場合、位置取得部59が出力する位置と、方位取得部55が出力する方位とに基づいて、EEPROM25に記憶されたポイントデータ303のうちから1つを抽出する。また、ポイントデータ抽出部77は、シミュレート時再生モードで動作する場合、シミュレート部93が出力する位置と方位とに基づいて、EEPROM25に記憶されたポイントデータ303のうちから1つを抽出する。ポイントデータ抽出部77の動作は、走行時再生モードとシミュレート時再生モード再生とで、処理対象とする位置と方位とが異なるのみである。   The point data extraction unit 77 operates in two operation modes: a reproduction mode during running and a reproduction mode during simulation. The point data extraction unit 77 operates from the point data 303 stored in the EEPROM 25 based on the position output by the position acquisition unit 59 and the direction output by the direction acquisition unit 55 when operating in the playback mode during travel. Extract one. In addition, when operating in the simulation playback mode, the point data extraction unit 77 extracts one of the point data 303 stored in the EEPROM 25 based on the position and orientation output from the simulation unit 93. . The operation of the point data extraction unit 77 differs only in the position and direction to be processed in the reproduction mode during running and the reproduction mode during simulation.

ポイントデータ抽出部77は、ポイントリスト生成部79と、動画終了時抽出部81と、指示受付時抽出部83と、新ポイント存在時抽出部85と、交差点時抽出部87と、を含む。   The point data extraction unit 77 includes a point list generation unit 79, a moving image end extraction unit 81, an instruction reception extraction unit 83, a new point presence extraction unit 85, and an intersection extraction unit 87.

ポイントリスト生成部79は、EEPROM25に記憶されているポイントデータ303のうちから位置取得部59またはシミュレート部93から入力される位置から第1の範囲内の位置が、地図上位置の項目に設定されたポイントデータを抽出し、抽出されたポイントデータを含むポイントリストを生成する。第1の範囲は、予め定めた距離の範囲とすればよい。ポイントリスト生成部79がポイントリストを生成するタイミングは、所定時間間隔とすればよい。所定時間は予め定めておけばよいが、走行時再生モードにおいては、車両の速度が速いほど短い時間とするのが好ましい。   The point list generation unit 79 sets the position within the first range from the position input from the position acquisition unit 59 or the simulation unit 93 out of the point data 303 stored in the EEPROM 25 as the item on the map. The extracted point data is extracted, and a point list including the extracted point data is generated. The first range may be a predetermined distance range. The timing at which the point list generation unit 79 generates the point list may be a predetermined time interval. The predetermined time may be determined in advance, but in the driving regeneration mode, it is preferable to set the time shorter as the vehicle speed increases.

ポイントリスト生成部79は、生成されたポイントリストを、動画終了時抽出部81と、指示受付時抽出部83と、新ポイント存在時抽出部85と、交差点時抽出部87と、にそれぞれ出力する。動画終了時抽出部81と、指示受付時抽出部83と、新ポイント存在時抽出部85と、交差点時抽出部87と、はポイントデータ303からではなく、ポイントリストのうちから1つのポイントデータを抽出すればよいので、検索の対象となるデータ量が少なくなり、処理速度を速くすることができる。   The point list generation unit 79 outputs the generated point list to the moving image end extraction unit 81, the instruction reception extraction unit 83, the new point presence extraction unit 85, and the intersection extraction unit 87, respectively. . The video end time extraction unit 81, the instruction reception time extraction unit 83, the new point presence time extraction unit 85, and the intersection time extraction unit 87 receive one point data from the point list instead of the point data 303. Since it only has to be extracted, the amount of data to be searched is reduced and the processing speed can be increased.

なお、ポイントリスト生成部79の機能をサーバ200に持たせ、ポイントデータ抽出部77は、位置取得部59またはシミュレート部93から入力される位置を、サーバ200に送信し、サーバ200においてポイントリストを生成するようにしてもよい。この場合、CPU11は、サーバ200から受信したポイントリストを、動画終了時抽出部81と、指示受付時抽出部83と、新ポイント存在時抽出部85と、交差点時抽出部87と、に出力する。   The server 200 has the function of the point list generation unit 79, and the point data extraction unit 77 transmits the position input from the position acquisition unit 59 or the simulation unit 93 to the server 200. May be generated. In this case, the CPU 11 outputs the point list received from the server 200 to the moving image end time extraction unit 81, the instruction reception time extraction unit 83, the new point presence time extraction unit 85, and the intersection time extraction unit 87. .

動画終了時抽出部81と、指示受付時抽出部83と、新ポイント存在時抽出部85と、交差点時抽出部87とは、それぞれ所定のタイミングで、ポイントリストに含まれるポイントデータのうち、位置取得部59またはシミュレート部93から入力される位置から第2の範囲内の位置が地図上位置の項目に設定されており、かつ、方位取得部55またはシミュレート部93から入力される方位に近似する方位が方位の項目に設定されているポイントデータを抽出し、抽出されたポイントデータを出力制御部89に出力する。第2の範囲は、第1の範囲よりも狭い。なお、地図上における現在の位置が示す道路の名称と同じ名称が道路名の項目に設定されているポイントデータであることを、抽出の条件とすれば、より正確にポイントデータを抽出することができる。抽出されるポイントデータが複数の場合、ユーザにより予め定められた設定条件に従って、1つのポイントデータになるまで絞り込む。ユーザにより予め定められたユーザ設定条件の一例を以下に示す。
(1) カテゴリの項目に動画像が設定されているポイントデータに絞り込む。
動画像の方が静止画像よりも情報量が多いので、多くの情報を表示することができる。
(2) ジャンルの項目で絞り込む。例えば、広告用が設定されているポイントデータに絞り込む。周辺施設の情報を得たい場合に有効である。
(3) 日時の項目に設定されている時刻が現在時刻に近いポイントデータに絞り込む。時刻により風景の明るさ等がことなるので、できるだけ実際に見る風景と同じ画像を表示することができる。
(4) 画像のプロパティでビットレートまたは解像度の項目が高いポイントデータに絞り込む。より高画質の画像を表示することができる。
(5) 残りの再生時間の長い画像に対応するポイントデータに絞り込む。
画像のプロパティの再生時間と、ポイントデータの再生位置とから画像の再生が終了するまでの時間を算出することにより、残りの再生時間が求まる。残りの再生時間が長ければ、次に画像を切り換えるまでの時間を長くすることが可能になる。
The moving image end time extraction unit 81, the instruction reception time extraction unit 83, the new point presence time extraction unit 85, and the intersection time extraction unit 87 are each of the positions of the point data included in the point list at predetermined timings. A position within the second range from the position input from the acquisition unit 59 or the simulation unit 93 is set as the item on the map, and the direction input from the direction acquisition unit 55 or the simulation unit 93 Point data whose approximate direction is set in the direction item is extracted, and the extracted point data is output to the output control unit 89. The second range is narrower than the first range. In addition, if the extraction condition is that the same name as the road name indicated by the current position on the map is the point data set in the road name item, the point data can be extracted more accurately. it can. When there are a plurality of pieces of point data to be extracted, the data is narrowed down to one point data in accordance with setting conditions predetermined by the user. An example of user setting conditions predetermined by the user is shown below.
(1) Narrow down to point data in which moving images are set in the category item.
Since the moving image has a larger amount of information than the still image, a large amount of information can be displayed.
(2) Filter by genre item. For example, the data is narrowed down to point data set for advertisement. This is useful when you want to obtain information about nearby facilities.
(3) The time set in the date / time item is narrowed down to point data close to the current time. Since the brightness of the scenery varies depending on the time, it is possible to display the same image as the scenery actually seen as much as possible.
(4) Filter to point data with a high bit rate or resolution item in the image properties. A higher quality image can be displayed.
(5) Narrow down to point data corresponding to the remaining images with long playback times.
The remaining playback time can be obtained by calculating the time from the playback time of the image property and the playback position of the point data to the end of the playback of the image. If the remaining reproduction time is long, it is possible to lengthen the time until the next image switching.

動画終了時抽出部81は、後述する出力制御部89が動画像の再生を終了するときに、位置取得部59またはシミュレート部93から入力される位置および方位取得部55またはシミュレート部93から入力される方位と、に基づいて、ポイントリストに含まれるポイントデータのうちから1つのポイントデータを抽出し、抽出されたポイントデータを出力制御部89に出力する。このため、動画像を途切れることなく再生することができる。   The moving image end extraction unit 81 receives a position and orientation acquisition unit 55 or a simulation unit 93 input from the position acquisition unit 59 or the simulation unit 93 when an output control unit 89 (to be described later) finishes reproducing the moving image. Based on the input azimuth, one point data is extracted from the point data included in the point list, and the extracted point data is output to the output control unit 89. For this reason, a moving image can be reproduced without interruption.

なお、ポイントリストに含まれるポイントデータのうちに、出力制御部89が動画像の再生を終了するときに、位置取得部59またはシミュレート部93から入力される位置が地図上位置の項目に設定されているポイントデータが存在しない場合がある。この場合には、ポイントリストに含まれるポイントデータのうちから、方位取得部55またはシミュレート部93から入力される方位に近似する方位が方位の項目に設定されているポイントデータを抽出し、さらに位置取得部59またはシミュレート部93から入力される位置を再生位置に含みうるポイントデータを特定する。そして、特定されたポイントデータの再生位置の項目に設定されていた位置から位置取得部59またはシミュレート部93から入力される位置までの距離を算出し、さらに算出した距離と移動速度とから経過時間を算出する。移動速度は、位置取得部59またはシミュレート部93から異なる時間に入力される2つの位置から算出する。そして、特定されたポイントデータの再生位置の項目に設定されている再生位置と、画像のプロパティの情報とに基づいて新たな再生位置とを算出する。そして、特定されたポイントデータの地図上位置の項目に設定されている位置を位置取得部59またはシミュレート部93から入力される位置に変更し、再生位置の項目に設定されている再生位置を、算出された新たな再生位置に変更することにより、一時的なポイントデータを生成する。この一時的なポイントデータは、EEPROM25に追加して記憶するようにしてもよいし、後述する出力制御部89が画像を出力した後に廃棄するようにしてもよい。   Of the point data included in the point list, the position input from the position acquisition unit 59 or the simulation unit 93 when the output control unit 89 finishes playing the moving image is set as the item of the map position. There may be no point data. In this case, from the point data included in the point list, point data in which the azimuth approximated to the azimuth input from the azimuth acquisition unit 55 or the simulation unit 93 is set in the azimuth item is extracted. Point data that can include the position input from the position acquisition unit 59 or the simulation unit 93 as the reproduction position is specified. Then, the distance from the position set in the reproduction position item of the specified point data to the position input from the position acquisition unit 59 or the simulation unit 93 is calculated, and further, the elapsed time is calculated from the calculated distance and the moving speed. Calculate time. The moving speed is calculated from two positions input from the position acquisition unit 59 or the simulation unit 93 at different times. Then, a new reproduction position is calculated based on the reproduction position set in the item of the reproduction position of the specified point data and the image property information. Then, the position set in the map position item of the specified point data is changed to the position input from the position acquisition unit 59 or the simulation unit 93, and the playback position set in the playback position item is changed. Temporary point data is generated by changing to the calculated new reproduction position. The temporary point data may be added to the EEPROM 25 and stored, or may be discarded after the output control unit 89 described later outputs an image.

指示受付時抽出部83は、ユーザにより切換を指示する操作が入力されるときに、位置取得部59またはシミュレート部93から入力される位置および方位取得部55またはシミュレート部93から入力される方位とに基づいて、ポイントリストに含まれるポイントデータのうちから1つのポイントデータを抽出し、抽出されたポイントデータを出力制御部89に出力する。操作キー31のうち予め定められたキーがユーザにより押下されると、切換を指示する操作を受け付ける。このため、ユーザの操作で次に出力する画像が特定されるので、任意のタイミングで2つの画像をリンクすることができる。   The instruction receiving time extraction unit 83 is input from the position and orientation acquisition unit 55 or the simulation unit 93 input from the position acquisition unit 59 or the simulation unit 93 when an operation for instructing switching is input by the user. Based on the azimuth, one point data is extracted from the point data included in the point list, and the extracted point data is output to the output control unit 89. When a predetermined key of the operation keys 31 is pressed by the user, an operation for instructing switching is accepted. For this reason, since the image to be output next is specified by the user's operation, the two images can be linked at an arbitrary timing.

なお、ポイントリストに含まれるポイントデータのうちに、ユーザにより切換を指示する操作が入力されたときに、位置取得部59またはシミュレート部93から入力される位置が地図上位置の項目に設定されているポイントデータが存在しない場合がある。この場合には、動画終了時抽出部81と同様に、新たなポイントデータを生成する。   It should be noted that the position input from the position acquisition unit 59 or the simulation unit 93 is set in the item of the map position when an operation for instructing switching is input from the point data included in the point list. Point data may not exist. In this case, similar to the moving image end extraction unit 81, new point data is generated.

新ポイント存在時抽出部85は、ポイントリストに含まれるポイントデータのうちに、位置取得部59またはシミュレート部93から入力される位置から第2の範囲内の位置が地図上位置の項目に設定されており、かつ、方位取得部55またはシミュレート部93から入力される方位に近似する方位が方位の項目に設定されている新たなポイントデータが存在するとき、その新たなポイントデータを抽出し、抽出された新たなポイントデータを出力制御部89に出力する。このため、位置が変化した後に存在する新たなポイントデータにより特定される画像が次に表示される画像として決定されるので、画像が途切れることがないように次の画像を表示することができる。   The new point presence extraction unit 85 sets the position within the second range from the position input from the position acquisition unit 59 or the simulation unit 93 to the item of the map position in the point data included in the point list. And when there is new point data in which the azimuth approximated to the azimuth input from the azimuth acquisition unit 55 or the simulation unit 93 is set in the azimuth item, the new point data is extracted. The extracted new point data is output to the output control unit 89. For this reason, since the image specified by the new point data existing after the position change is determined as the next image to be displayed, the next image can be displayed so that the image is not interrupted.

交差点時抽出部87は、位置取得部59またはシミュレート部93から入力される位置が、地図上で交差点を示し、その後方位取得部55またはシミュレート部93から入力される方位が変化するときに、位置取得部59またはシミュレート部93から入力される位置および方位取得部55またはシミュレート部93から入力される方位とに基づいて、ポイントリストに含まれるポイントデータのうちから1つのポイントデータを抽出し、抽出されたポイントデータを出力制御部89に出力する。このため、交差点で方位が変化した場合、変化後の方位で撮影された画像が表示される。その結果、表示されている画像と、方位の変換に応じて次に表示される画像とをリンクするので、出力される画像が途切れることがないように2つの画像をリンクすることができる。また、ポイントデータは、交差点の位置で作成されるのもがあるので、ポイントデータを容易に抽出することができる。   The intersection time extraction unit 87 indicates that the position input from the position acquisition unit 59 or the simulation unit 93 indicates an intersection on the map, and then the direction input from the direction acquisition unit 55 or the simulation unit 93 changes. Based on the position input from the position acquisition unit 59 or the simulation unit 93 and the azimuth input from the direction acquisition unit 55 or the simulation unit 93, one point data is selected from the point data included in the point list. The extracted point data is output to the output control unit 89. For this reason, when the azimuth changes at the intersection, an image taken in the changed azimuth is displayed. As a result, since the displayed image is linked to the image to be displayed next in accordance with the orientation change, the two images can be linked so that the output image is not interrupted. In addition, since the point data is sometimes created at the position of the intersection, the point data can be easily extracted.

出力制御部89は、ポイントデータ抽出部77の動画終了時抽出部81、指示受付時抽出部83、新ポイント存在時抽出部85および交差点時抽出部87からポイントデータ303が入力されると、該ポイントデータ303の記憶位置の項目に設定されている記憶位置の画像をEEPROM25から読出し、カテゴリの項目が動画像に設定されているならば、再生位置の項目に設定されている再生位置から読み出した動画像を再生し、LCD27に表示し、カテゴリの項目が静止画像に設定されているならば、読み出した静止画像をLCD27に表示する。   When the point data 303 is input from the moving image end time extraction unit 81, the instruction reception time extraction unit 83, the new point presence time extraction unit 85, and the intersection time extraction unit 87 of the point data extraction unit 77, the output control unit 89 receives the point data 303. The image at the storage position set in the storage position item of the point data 303 is read out from the EEPROM 25. If the category item is set as a moving image, it is read out from the playback position set in the playback position item. A moving image is reproduced and displayed on the LCD 27. If the category item is set to a still image, the read still image is displayed on the LCD 27.

図8は、ポイントデータ生成処理の流れの一例を示すフローチャートである。ポイントデータ生成処理は、データ生成装置として機能するナビゲーション装置が備えるCPU11がポイントデータ生成プログラムを実行することにより、CPU11により実行される処理である。ナビゲーション装置10がデータ生成装置として機能する場合、ナビゲーション装置10は、車両に搭載される。このため、ポイントデータ生成処理は、車両が走行中に実行される。   FIG. 8 is a flowchart illustrating an example of the flow of point data generation processing. The point data generation process is a process executed by the CPU 11 when the CPU 11 included in the navigation device functioning as a data generation device executes a point data generation program. When the navigation device 10 functions as a data generation device, the navigation device 10 is mounted on a vehicle. For this reason, the point data generation process is executed while the vehicle is traveling.

図8を参照して、CPU11は、属性設定を受け付けたか否かを判断する(ステップS01)。ユーザがタッチスクリーン29または操作キー31に入力する画像の属性を受け付ける。属性は、画像が属するジャンルを含む。ジャンルは、たとえば、ナビゲーション用と、広告用と、観光用と、を含む。ステップS02においては、受け付けられた属性を設定する。具体的には、RAM23に一時記憶する。次のステップS03においては、撮像を開始する指示を受け付けたか否かを判断する。ユーザがタッチスクリーン29または操作キー31にカメラ41に画像を撮像させる指示を入力すると、撮像を開始する指示を受け付ける。撮像を開始する指示を受け付けたならば撮像を開始し、処理をステップS04に進めるが、そうでなければ処理をステップS01に戻す。カメラ41が撮像を開始すると、カメラ41が出力する画像をEEPROM25に記憶する。   Referring to FIG. 8, CPU 11 determines whether an attribute setting has been accepted (step S01). An image attribute input by the user to the touch screen 29 or the operation key 31 is received. The attribute includes the genre to which the image belongs. The genre includes, for example, navigation, advertisement, and tourism. In step S02, the accepted attribute is set. Specifically, it is temporarily stored in the RAM 23. In the next step S03, it is determined whether an instruction to start imaging is accepted. When the user inputs an instruction to cause the camera 41 to capture an image on the touch screen 29 or the operation key 31, an instruction to start imaging is accepted. If an instruction to start imaging is accepted, imaging is started and the process proceeds to step S04. If not, the process returns to step S01. When the camera 41 starts imaging, the image output by the camera 41 is stored in the EEPROM 25.

次に、GPS受信機13が出力する車両の現在の位置を取得し(ステップS04)、方位センサ14が出力する車両の進行方向の方位を取得する(ステップS05)。そして、撮像時のポイントデータを生成し(ステップS06)、生成されたポイントデータをEEPROM25に記憶する(ステップS07)。カメラ41により撮像が開始された時点でポイントデータが生成され、記憶される。ここで生成されるポイントデータは、カメラ41により撮像が開始された時点における車両の位置と、車両の進行方向の位置と、動画像中における位置(再生位置)、ここでは動画像の先頭の位置を少なくとも含む。   Next, the current position of the vehicle output from the GPS receiver 13 is acquired (step S04), and the direction of the traveling direction of the vehicle output from the direction sensor 14 is acquired (step S05). Then, point data at the time of imaging is generated (step S06), and the generated point data is stored in the EEPROM 25 (step S07). Point data is generated and stored at the time when imaging is started by the camera 41. The point data generated here is the position of the vehicle at the time when imaging is started by the camera 41, the position in the traveling direction of the vehicle, the position in the moving image (reproduction position), and here the position of the head of the moving image. At least.

次のステップS08においては、GPS受信機13が出力する車両の現在の位置を取得する。ステップS04においては、カメラ41により撮像が開始された時点における位置が取得されたのに対し、ステップS08においては、ステップS04が実行された後に車両が進行した時点において取得される位置である。そして、EEPROM25に記憶されている地図データ305を読み出す(ステップS09)。次のステップS10においては、ステップS08において取得された位置が地図上で交差点を示すか否かを判断する。交差点を示すならば処理をステップS11に進めるが、そうでなければ処理をステップS13に進める。   In the next step S08, the current position of the vehicle output by the GPS receiver 13 is acquired. In step S04, the position at the time when the imaging is started by the camera 41 is acquired, whereas in step S08, the position is acquired when the vehicle travels after step S04 is executed. Then, the map data 305 stored in the EEPROM 25 is read (step S09). In the next step S10, it is determined whether or not the position acquired in step S08 indicates an intersection on the map. If it indicates an intersection, the process proceeds to step S11; otherwise, the process proceeds to step S13.

ステップS11においては、交差点時のポイントデータを生成し、生成されたポイントデータをEEPROM25に記憶する(ステップS12)。ここで生成されるポイントデータは、車両が交差点に位置するので、交差点の位置と、車両の進行方向の方位と、動画像中における位置(再生位置)を少なくとも含む。   In step S11, point data at the intersection is generated, and the generated point data is stored in the EEPROM 25 (step S12). The point data generated here includes at least the position of the intersection, the direction of travel of the vehicle, and the position (playback position) in the moving image because the vehicle is located at the intersection.

ステップS13においては、方位センサ14が出力する車両の進行方向の方位を取得する。ステップS05において、カメラ41により撮像が開始された時点における方位が取得されたのに対し、ステップS13においては、ステップS04が実行された後に車両が進行した時点において取得される方位である。ステップS14においては、取得された方位が前に取得された方位から変更したか否かを判断する。方位の変更は、例えば車両が交差点で進路を変更することが検出する程度の変更であればよく、例えば、角度が30度程度変化した場合に方位が変更したと判断するようにすればよい。方位が変更したならば処理をステップS15に進め、そうでなければ処理をステップS17に進める。   In step S13, the azimuth in the traveling direction of the vehicle output by the azimuth sensor 14 is acquired. In step S05, the azimuth at the time when imaging was started by the camera 41 is acquired, whereas in step S13, the azimuth is acquired when the vehicle travels after step S04 is executed. In step S14, it is determined whether the acquired orientation has changed from the previously acquired orientation. The direction change may be a change that detects that the vehicle changes its course at an intersection. For example, when the angle changes about 30 degrees, it may be determined that the direction has changed. If the orientation has changed, the process proceeds to step S15; otherwise, the process proceeds to step S17.

ステップS15においては、方位変更時のポイントデータを生成し、生成されたポイントデータをEEPROM25に記憶する(ステップS16)。ここで生成されるポイントデータは、車両が進路を変更した時の位置と、車両の進路を変更した後の進行方向の方位と、動画像中における位置(再生位置)を少なくとも含む。このため、車両が交差点で右折または左折した場合は、交差点で進路を変更する前に生成されたポイントデータがステップS12においてEEPROM25に記憶され、右折または左折し、進路を変更した後に生成されたポイントデータがステップS16においてEEPROM25に記憶される。   In step S15, point data at the time of changing the direction is generated, and the generated point data is stored in the EEPROM 25 (step S16). The point data generated here includes at least the position when the vehicle changes the course, the azimuth in the traveling direction after changing the course of the vehicle, and the position (reproduction position) in the moving image. Therefore, when the vehicle turns right or left at the intersection, the point data generated before changing the course at the intersection is stored in the EEPROM 25 in step S12, and the points generated after changing the course after turning right or left Data is stored in the EEPROM 25 in step S16.

ステップS17においては、所定時間が経過したか否かを判断する。所定時間は、先に次のステップS17Aが先に実行されてからの経過時間である。所定時間が経過したならば処理をステップS17Aに進め、そうでなければ処理をステップS18に進める。ステップS17Aにおいては、所定間隔のポイントデータを生成し、生成されたポイントデータをEEPROM25に記憶する(ステップS17B)。   In step S17, it is determined whether a predetermined time has elapsed. The predetermined time is an elapsed time since the next step S17A was first executed. If the predetermined time has elapsed, the process proceeds to step S17A; otherwise, the process proceeds to step S18. In step S17A, point data at a predetermined interval is generated, and the generated point data is stored in the EEPROM 25 (step S17B).

ステップS18においては、カメラ41による撮像が終了したか否かを判断する。ユーザがタッチスクリーン29または操作キー31にカメラ41に画像の撮像を終了させる指示を入力すると、撮像を終了する指示を受け付け、撮像が終了したと判断する。撮像が終了したならば処理をステップS19に進め、そうでなければ処理をステップS08に戻す。したがって、撮像が開始されてから撮像が終了するまでの間に、撮像が開始された時、車両が交差点に位置する時、車両が進路を変更した時に、それぞれポイントデータが生成され、EEPROM25に記憶される。   In step S18, it is determined whether or not imaging by the camera 41 is completed. When the user inputs an instruction to end image capturing to the camera 41 on the touch screen 29 or the operation key 31, an instruction to end image capturing is received and it is determined that the image capturing has ended. If imaging has ended, the process proceeds to step S19; otherwise, the process returns to step S08. Therefore, point data is generated and stored in the EEPROM 25 when the imaging starts, when the imaging is started, when the vehicle is located at the intersection, and when the vehicle changes the course. Is done.

ステップS19においては、EEPROM25に記憶された画像301とポイントデータ303とをサーバ200に送信する。これにより、サーバ200のHDD205に画像301とポイントデータ303とが記憶され、他のナビゲーション装置10A,10Bにおいて、取得可能な状態となる。   In step S19, the image 301 and point data 303 stored in the EEPROM 25 are transmitted to the server 200. As a result, the image 301 and the point data 303 are stored in the HDD 205 of the server 200, and the other navigation devices 10A and 10B are ready for acquisition.

図9は、走行時画像出力処理の流れの一例を示すフローチャートである。走行時画像出力処理は、画像再生装置として機能するナビゲーション装置10が備えるCPU11が走行時画像出力プログラムを実行することにより、CPU11により実行される処理である。走行時画像出力処理は、ナビゲーション装置10が搭載された車両が走行中に実行される。   FIG. 9 is a flowchart illustrating an example of a flow of image output processing during travel. The running image output process is a process executed by the CPU 11 when the CPU 11 included in the navigation device 10 functioning as an image reproducing device executes the running image output program. The running image output process is executed while the vehicle on which the navigation device 10 is mounted is running.

図9を参照して、CPU11は、まず、GPS受信機13が出力する車両の現在の位置を取得し(ステップS21)、方位センサ14が出力する車両の進行方向の方位を取得する(ステップS22)。そして、ポイントリストを生成する(ステップS22A)。EEPROM25に記憶されているポイントデータ303のうちからステップS21において取得された位置から第1の範囲内の位置が、地図上位置の項目に設定されたポイントデータを抽出し、抽出されたポイントデータを含むポイントリストを生成する。第1の範囲は、予め定めた距離の範囲である。次のステップS23においては、画像決定出力処理を実行する。   Referring to FIG. 9, CPU 11 first acquires the current position of the vehicle output from GPS receiver 13 (step S21), and acquires the azimuth of the traveling direction of the vehicle output from azimuth sensor 14 (step S22). ). Then, a point list is generated (step S22A). From the point data 303 stored in the EEPROM 25, the point data in which the position within the first range is set as the item on the map is extracted from the position acquired in step S21, and the extracted point data is Generate a list of points to include. The first range is a predetermined distance range. In the next step S23, an image determination output process is executed.

図10は、画像決定出力処理の流れの一例を示すフローチャートである。画像決定出力処理は、図9のステップS23、ステップS37、ステップS39およびステップS41において、それぞれ実行される処理である。図10を参照して、CPU11は、ポイントリストに含まれるポイントデータのうちから方位の項目に図9のステップS23またはステップS27において取得された方位に近似する方位が設定されているポイントデータを抽出する(ステップS51)。   FIG. 10 is a flowchart illustrating an example of the flow of the image determination output process. The image determination output process is a process executed in steps S23, S37, S39, and S41 in FIG. Referring to FIG. 10, CPU 11 extracts point data in which the azimuth approximated to the azimuth obtained in step S <b> 23 or step S <b> 27 in FIG. 9 is set in the azimuth item from the point data included in the point list. (Step S51).

次のステップS52においては、抽出されたポイントデータが複数か否かを判断する。複数のポイントデータが抽出されたならば処理をステップS53に進め、そうでなければ処理をステップS54に進める。ステップS53においては、上述したユーザ設定条件で複数のポイントデータを1つに絞り込み、処理をステップS54に進める。   In the next step S52, it is determined whether or not there are a plurality of extracted point data. If a plurality of point data has been extracted, the process proceeds to step S53, and if not, the process proceeds to step S54. In step S53, the plurality of point data is narrowed down to one under the user setting conditions described above, and the process proceeds to step S54.

ステップS54においては、処理対象とするポイントデータを決定する。ステップS51においてポイントリストから抽出されたポイントデータが複数ならばステップS53において絞り込まれた1つのポイントデータを処理対象に決定し、ステップS51においてポイントリストから抽出されたポイントデータが1つならばそのポイントデータを処理対象に決定する。   In step S54, point data to be processed is determined. If there are a plurality of point data extracted from the point list in step S51, one point data narrowed down in step S53 is determined as a processing target. If there is one point data extracted from the point list in step S51, the point data is determined. Determine the data to be processed.

次のステップS55においては、処理対象に決定されたポイントデータのカテゴリの項目に動画像が設定されているか否かを判断する。動画像が設定されていれば処理をステップS55に進め、そうでなければ処理をステップS56に進める。   In the next step S55, it is determined whether or not a moving image is set in the item of the category of the point data determined to be processed. If a moving image has been set, the process proceeds to step S55; otherwise, the process proceeds to step S56.

ステップS55においては、処理対象に決定されたポイントデータの記憶位置の項目に設定されている記憶位置に記憶されている動画像をEEPROM25から読出し、読み出した動画像の再生を開始し、処理を走行時画像出力処理に戻す。これにより、動画像がLCD27に表示される。一方、ステップS56においては、処理対象に決定されたポイントデータの記憶位置の項目に設定されている記憶位置に記憶されている静止画像をEEPROM25から読出し、読み出した静止画像をLCD27に表示し、処理を走行時画像出力処理に戻す。   In step S55, the moving image stored in the storage position set in the item of the storage position of the point data determined to be processed is read from the EEPROM 25, the reproduction of the read moving image is started, and the process is performed. Return to the time image output process. As a result, the moving image is displayed on the LCD 27. On the other hand, in step S56, the still image stored in the storage position set in the item of the storage position of the point data determined to be processed is read from the EEPROM 25, the read still image is displayed on the LCD 27, and the processing is performed. Is returned to the image output processing during driving.

図9に戻って、ステップS24においては、GPS受信機13が出力する車両の現在の位置を取得し、次のステップS25において方位センサ14が出力する車両の進行方向の方位を取得する。そして、ポイントリストを生成する(ステップS26)。   Returning to FIG. 9, in step S24, the current position of the vehicle output by the GPS receiver 13 is acquired, and in the next step S25, the direction of travel of the vehicle output by the direction sensor 14 is acquired. Then, a point list is generated (step S26).

次のステップS27においては、方位センサ14が出力する車両の進行方向の方位を取得する。そして、ステップS26において生成されたポイントリストに含まれるポイントデータ303のうちから、方位の項目がステップS27において取得された方位に近似するポイントデータ303を抽出する。次のステップS29においては、抽出されたポイントリストが複数のポイントデータを含むか否かを判断する。複数のポイントデータが抽出されたならば処理をステップS30に進め、そうでなければ処理をステップS31に進める。ステップS30においては、上述したユーザ設定条件で複数のポイントデータを1つに絞り込み、処理をステップS31に進める。ステップS31においては、処理対象とするポイントデータを決定する。ポイントリストから複数のポイントデータが抽出された場合にはステップS30において絞り込まれた1つのポイントデータを処理対象に決定し、ポイントリストから1つのポイントデータが抽出されたならば抽出されたポイントデータを処理対象に決定する。   In the next step S27, the direction of the traveling direction of the vehicle output from the direction sensor 14 is acquired. Then, from the point data 303 included in the point list generated in step S26, the point data 303 whose azimuth item approximates the azimuth acquired in step S27 is extracted. In the next step S29, it is determined whether or not the extracted point list includes a plurality of point data. If a plurality of point data has been extracted, the process proceeds to step S30; otherwise, the process proceeds to step S31. In step S30, a plurality of point data is narrowed down to one under the user setting conditions described above, and the process proceeds to step S31. In step S31, point data to be processed is determined. When a plurality of point data is extracted from the point list, one point data narrowed down in step S30 is determined as a processing target, and if one point data is extracted from the point list, the extracted point data is Determine to be processed.

次のステップS32においては、処理対象に決定されたポイントデータが、現在出力している画像に対応するポイントデータと異なる新たなポイントデータか否かを判断する。現在再生されている動画像が、処理対象に決定されたポイントデータの記憶位置の項目に設定されている記憶位置に記憶されたものであるか否かを判断する。新たなポイントデータならば処理をステップS33に進め、そうでなければ処理をステップS36に進める。   In the next step S32, it is determined whether or not the point data determined to be processed is new point data different from the point data corresponding to the currently output image. It is determined whether or not the currently reproduced moving image is stored in the storage position set in the item of the storage position of the point data determined to be processed. If it is new point data, the process proceeds to step S33; otherwise, the process proceeds to step S36.

ステップS33においては、処理対象に決定されたポイントデータのカテゴリの項目に動画像が設定されているか否かを判断する。動画像が設定されていれば処理をステップS34に進め、そうでなければ処理をステップS35に進める。   In step S33, it is determined whether or not a moving image is set in the item of the category of point data determined to be processed. If a moving image has been set, the process proceeds to step S34; otherwise, the process proceeds to step S35.

ステップS34においては、処理対象に決定されたポイントデータの記憶位置の項目に設定されている記憶位置に記憶されている動画像をEEPROM25から読出し、処理対象に決定されたポイントデータの再生位置の項目の設定されている再生位置から読み出した動画像の再生を開始し、処理をステップS36に進める。これにより、動画像がLCD27に表示される。一方、ステップS35においては、処理対象に決定されたポイントデータの記憶位置の項目に設定されている記憶位置に記憶されている静止画像をEEPROM25から読出し、読み出した静止画像をLCD27に表示し、処理をステップS36に進める。これにより、現在表示している画像とは異なる画像の記憶位置が記憶位置に項目に設定されている新たなポイントデータが抽出されると、そのポイントデータで特定される画像が表示される。このため、画像を途切れることなく表示することができる。   In step S34, the moving image stored in the storage position set in the item of the point data storage position determined as the processing target is read from the EEPROM 25, and the item of the playback position of the point data determined as the processing target is read. Playback of the moving image read out from the playback position set in step S36 is started, and the process proceeds to step S36. As a result, the moving image is displayed on the LCD 27. On the other hand, in step S35, the still image stored in the storage position set in the item of the storage position of the point data determined to be processed is read from the EEPROM 25, the read still image is displayed on the LCD 27, and the processing is performed. Advances to step S36. As a result, when new point data in which the storage position of an image different from the currently displayed image is set as the storage position is extracted, the image specified by the point data is displayed. For this reason, an image can be displayed without interruption.

次のステップS36においては、ステップS27において取得された方位が前に取得された方位から変更したか否かを判断する。方位が変更されていれば処理をステップS37に進め、そうでなければ処理をステップS38に進める。ステップS37においては、画像決定出力処理を実行し、処理をステップS38に進める。車両が交差点で進路を変更した場合に、画像決定出力処理が実行されるので、進路を変更した後の方位を撮像した画像を表示させることができる。   In the next step S36, it is determined whether or not the orientation acquired in step S27 has been changed from the previously acquired orientation. If the orientation has been changed, the process proceeds to step S37; otherwise, the process proceeds to step S38. In step S37, an image determination output process is executed, and the process proceeds to step S38. Since the image determination output process is executed when the vehicle changes its course at the intersection, it is possible to display an image obtained by imaging the azimuth after changing the course.

次のステップS38においては、ユーザにより切換を指示する操作が入力されたか否かを判断する。切換を指示する操作が入力されたならば処理をステップS39に進め、そうでなければ処理をステップS40に進める。ステップS39においては、画像決定出力処理を実行し、処理をステップS40に進める。ユーザが切換を指示する操作を入力すれば画像決定出力処理が実行されるので、任意のタイミングで表示する画像を切り換えることができる。   In the next step S38, it is determined whether or not an operation for instructing switching has been input by the user. If an operation to instruct switching is input, the process proceeds to step S39; otherwise, the process proceeds to step S40. In step S39, an image determination output process is executed, and the process proceeds to step S40. Since the image determination output process is executed when the user inputs an operation for instructing switching, the image to be displayed can be switched at an arbitrary timing.

ステップS40においては、再生している動画像の再生が終了したか否かを判断する。動画像の再生を終了したならば処理をステップS41に進め、そうでなければ処理をステップS42に進める。ステップS41においては、画像決定出力処理を実行し、処理をステップS42に進める。動画像の再生が終了すると画像決定出力処理が実行されるので、動画像を途切れることなく再生することができる。   In step S40, it is determined whether or not the reproduction of the moving image being reproduced has ended. If the reproduction of the moving image is finished, the process proceeds to step S41; otherwise, the process proceeds to step S42. In step S41, an image determination output process is executed, and the process proceeds to step S42. When the reproduction of the moving image is finished, the image determination output process is executed, so that the moving image can be reproduced without interruption.

ステップS42においては、終了指示を受け付けたか否かを判断する。ユーザにより処理を終了させる操作が入力されたか否かを判断する。終了指示がユーザにより入力されたならば処理を修了し、そうでなければ処理をステップS24に戻す。   In step S42, it is determined whether an end instruction has been accepted. It is determined whether an operation for ending the process is input by the user. If an end instruction is input by the user, the process is completed; otherwise, the process returns to step S24.

図11は、シミュレート時画像出力処理の流れの一例を示すフローチャートである。シミュレート時画像出力処理は、画像再生装置として機能するナビゲーション装置10が備えるCPU11シミュレート時画像出力プログラムを実行することにより、CPU11により実行される処理である。   FIG. 11 is a flowchart illustrating an example of the flow of image output processing during simulation. The simulation image output process is a process executed by the CPU 11 by executing the CPU 11 simulation image output program provided in the navigation device 10 functioning as an image playback device.

図11を参照して、CPU11は、開始位置を受け付け(ステップS61)、終了位置を受け付ける(ステップS62)。EEPROM21に記憶されている地図データ305を読出し、LCD27に地図を表示し、ユーザがタッチスクリーン29に指示する地図上の2つの位置を、開始位置および終了位置としてそれぞれ受け付ける。そして、地図データ305を参照して、開始位置から終了位置までの経路を探索する(ステップS63)。   Referring to FIG. 11, CPU 11 receives a start position (step S61) and receives an end position (step S62). The map data 305 stored in the EEPROM 21 is read out, the map is displayed on the LCD 27, and two positions on the map that the user instructs on the touch screen 29 are accepted as a start position and an end position, respectively. Then, a route from the start position to the end position is searched with reference to the map data 305 (step S63).

次に、開始位置における位置を取得し(ステップS64)、開始位置における方位を取得する(ステップS65)。そして、ポイントリストを生成する(ステップS65A)。EEPROM25に記憶されているポイントデータ303のうちからステップS64において取得された位置から第1の範囲内の位置が、地図上位置の項目に設定されたポイントデータを抽出し、抽出されたポイントデータを含むポイントリストを生成する。次のステップS66においては、図10に示した画像決定出力処理を実行し、処理をステップS67に進める。これにより、開始位置において方位の方向を撮像した画像がLCD27に表示される。   Next, a position at the start position is acquired (step S64), and an orientation at the start position is acquired (step S65). Then, a point list is generated (step S65A). From the point data 303 stored in the EEPROM 25, the point data in which the position in the first range is set as the item on the map is extracted from the position acquired in step S64, and the extracted point data is Generate a list of points to include. In the next step S66, the image determination output process shown in FIG. 10 is executed, and the process proceeds to step S67. Thereby, an image obtained by capturing the direction of the azimuth at the start position is displayed on the LCD 27.

ステップS67においては、ステップS63において探索された経路上の位置を移動させる。ステップS68〜ステップS85の処理は、図9に示した走行時画像出力処理のステップS24〜ステップS41の処理と、ステップS68およびステップS79を除いてそれぞれ同じである。したがって、ここでは説明を繰り返さない、ステップS68においては、ステップS67において、経路上で位置を移動した後の経路上の位置を取得する点で、GPS受信機13が出力する位置を取得するステップS24と異なる。また、ステップS79においては、ステップS67において経路上で位置を移動した後の経路上の位置における方位を取得する点で、方位センサ14が出力する方位を取得するステップS35と異なる。   In step S67, the position on the route searched in step S63 is moved. The processes in steps S68 to S85 are the same as those in steps S24 to S41 of the running image output process shown in FIG. 9 except for steps S68 and S79. Therefore, the description will not be repeated here. In step S68, in step S67, the position output by the GPS receiver 13 is acquired in that the position on the path after the position is moved on the path is acquired. And different. Further, step S79 is different from step S35 in which the azimuth output from the azimuth sensor 14 is acquired in that the azimuth at the position on the route after the position is moved on the route in step S67 is acquired.

図12は、データ取得処理の流れの一例を示すフローチャートである。データ取得処理は、画像再生装置として機能するナビゲーション装置10において、上述した走行時画像出力処理またはシミュレーション時画像出力処理が実行される前に実行される処理である。図12を参照して、CPU11は、送信要求をサーバ200に送信し(ステップS91)、サーバ200から送信される画像とポイントデータとを受信する(ステップS92)。そして、受信された画像とポイントデータとをEEPROM25に追加して記憶する(ステップS93)。これにより、他のナビゲーション装置10A,10Bにおいて記憶された画像とそれらによりそれぞれ生成されたポイントデータとがEEPROM25に記憶される。   FIG. 12 is a flowchart illustrating an example of the flow of data acquisition processing. The data acquisition process is a process executed in the navigation device 10 functioning as an image reproduction device before the above-described travel time image output process or simulation time image output process is executed. Referring to FIG. 12, CPU 11 transmits a transmission request to server 200 (step S91), and receives an image and point data transmitted from server 200 (step S92). Then, the received image and point data are added to the EEPROM 25 and stored (step S93). As a result, the images stored in the other navigation devices 10A and 10B and the point data generated by them are stored in the EEPROM 25.

図13は、データ管理処理の流れの一例を示すフローチャートである。データ管理処理は、サーバ200が備えるCPU201が、データ管理プログラムを実行することにより、サーバ200において実行される処理である。図13を参照して、サーバ200が備えるCPU201は、画像とポイントデータとを受信したか否かを判断する(ステップS101)。ナビゲーション装置10,10A,10Bのいずれかから送信される、画像とポイントデータとを受信したならば処理をステップS102に進め、そうでなければ処理をステップS103に進める。ステップS102においては、受信された画像とポイントデータとをHDD205に記憶する。これにより、ナビゲーション装置10,10A,10Bそれぞれにおいて記憶された画像とそれらによりそれぞれ生成されたポイントデータとがHDD205に記憶される。   FIG. 13 is a flowchart illustrating an example of the flow of data management processing. The data management process is a process executed in the server 200 when the CPU 201 included in the server 200 executes a data management program. Referring to FIG. 13, CPU 201 provided in server 200 determines whether an image and point data have been received (step S101). If an image and point data transmitted from any one of navigation devices 10, 10A, and 10B are received, the process proceeds to step S102; otherwise, the process proceeds to step S103. In step S102, the received image and point data are stored in HDD 205. Thereby, the images stored in each of the navigation devices 10, 10 </ b> A, and 10 </ b> B and the point data generated by them are stored in the HDD 205.

次のステップS103においては、ナビゲーション装置10,10A,10Bのいずれかから送信要求を受信したか否かを判断する。送信要求を受信したならば処理をステップS104に進めるが、そうでなければ処理をステップS101に戻す。ステップS104においては、ステップS102においてHDD205に記憶されたポイントデータと画像とを、ナビゲーション装置10,10A,10Bのうち送信要求を送信してきたものに送信する。   In the next step S103, it is determined whether or not a transmission request is received from any one of the navigation devices 10, 10A, and 10B. If a transmission request is received, the process proceeds to step S104. If not, the process returns to step S101. In step S104, the point data and image stored in HDD 205 in step S102 are transmitted to the navigation apparatus 10, 10A, 10B that has transmitted the transmission request.

以上説明したように本実施の形態におけるナビゲーション装置は、画像再生装置として機能する場合、自装置で撮像された画像およびサーバ200から受信された画像をEEPROM25に記憶するとともに、自装置で生成されたポイントデータおよびサーバ200から受信したポイントされた撮像された画像またはサーバ200から受信されたポイントデータをEEPROM25に記憶する。そして、地図上の位置と方位とが受け付けられると、ポイントデータのうちから地図上の位置から所定の範囲内の地図上の位置を含み、かつ、方位を含むポイントデータを抽出し、記憶されている画像のうちから抽出されたポイントデータに含まれる記憶位置により特定される画像を出力する。このため、地図上の位置および方位で撮像された画像を表示することができる。また、地図上の位置と方位とが変化するに伴って、位置と方位とで特定される画像が複数の画像のうちから順に抽出されるので、画像を継続的に出力することができ、複数の画像を相互にリンクすることができる。   As described above, when the navigation apparatus according to the present embodiment functions as an image reproduction apparatus, the navigation apparatus stores an image captured by the own apparatus and an image received from the server 200 in the EEPROM 25 and is generated by the own apparatus. The point data and the pointed captured image received from the server 200 or the point data received from the server 200 are stored in the EEPROM 25. Then, when the position and orientation on the map are accepted, the point data including the position on the map within the predetermined range from the position on the map is extracted from the point data, and the point data including the orientation is extracted and stored. An image specified by the storage position included in the point data extracted from the existing images is output. For this reason, the image imaged at the position and orientation on the map can be displayed. In addition, as the position and orientation on the map change, the images specified by the position and orientation are extracted in order from the plurality of images, so that the images can be output continuously, Images can be linked to each other.

また、画像を表示中に、地図上の位置が道路地図において交差点として示され、その後方位が変化する場合、新たなポイントデータを抽出し、新たに抽出されたポイントデータに含まれる記憶位置により特定される画像を表示する。交差点で方位が変化した場合、変化後の方位で撮影された画像が出力されるので、出力される画像と、方位の変換に応じて次に出力する画像とをリンクすることができる。また、ポイントデータは、交差点の位置を示す記憶位置を含んでいるので、新たなポイントデータを容易に抽出することができる。   In addition, when an image is displayed, the position on the map is shown as an intersection on the road map, and the direction changes thereafter, new point data is extracted and specified by the storage position included in the newly extracted point data Display the image to be displayed. When the azimuth changes at the intersection, an image shot in the changed azimuth is output, so that the output image can be linked to the next output image according to the conversion of the azimuth. Further, since the point data includes a storage position indicating the position of the intersection, new point data can be easily extracted.

また、位置が変化すると、変化後の位置を含み、かつ、変化後の位置における方位を含む新たなポイントデータが存在する場合、新たなポイントデータに含まれる記憶位置により特定される画像を表示する。出力される画像と、位置および方位が変化した後に存在する新たなポイントデータにより特定される画像とをリンクするので、出力される画像が途切れることがないように画像を表示することができる。   Further, when the position changes, when there is new point data including the position after the change and including the orientation at the position after the change, an image specified by the storage position included in the new point data is displayed. . Since the output image is linked to the image specified by the new point data existing after the position and orientation change, it is possible to display the image so that the output image is not interrupted.

また、ユーザにより操作が受け付けられる時に、新たなポイントデータを抽出し、新たに抽出されたポイントデータに含まれる記憶位置により特定される画像を表示する。このため、任意のタイミングで2つの画像をリンクすることができる。   Further, when an operation is accepted by the user, new point data is extracted, and an image specified by the storage position included in the newly extracted point data is displayed. For this reason, two images can be linked at an arbitrary timing.

また、ポイントデータに含まれる再生位置から動画像を再生するので、受け付けられた位置で撮影された動画像が表示される。   Further, since the moving image is reproduced from the reproduction position included in the point data, the moving image captured at the accepted position is displayed.

また、再生されている動画像の再生が終了した時に、新たなポイントデータが抽出され、新たに抽出されたポイントデータに含まれる記憶位置により特定される画像が表示される。このため、再生されている動画像が終了した後の位置で撮影された画像が表示されるので、途切れることがないように画像を表示することができる。   Further, when the reproduction of the moving image being reproduced is completed, new point data is extracted, and an image specified by the storage position included in the newly extracted point data is displayed. For this reason, since the image captured at the position after the reproduced moving image ends is displayed, the image can be displayed so as not to be interrupted.

さらに、ナビゲーション装置10は、データ生成装置として機能する場合、カメラ41による撮像が開始された時、GPS受信機13から取得された位置が道路地図において交差点として示される時、または方位センサ14から取得された方位が変更した時に、取得された地図上の位置および方位と、撮像された画像が記憶される記憶位置と、画像が動画像の場合には動画像中の位置を示す再生位置とを含むポイントデータを生成し、EEPROM25に記憶する。ポイントデータは、画像が撮像された時点における地図上の位置および方位と、撮像された画像が記憶される記憶位置と、画像が動画像の場合には動画像中の位置を示す再生位置とを含むので、地図上の位置と方位とから撮像されて記憶される画像を、他の画像とリンクすることが可能なポイントデータ303を生成することができる。   Further, when the navigation apparatus 10 functions as a data generation apparatus, the image is acquired by the camera 41, the position acquired from the GPS receiver 13 is indicated as an intersection on the road map, or acquired from the direction sensor 14. When the obtained orientation is changed, the acquired position and orientation on the map, the storage position where the captured image is stored, and the reproduction position indicating the position in the moving image when the image is a moving image The included point data is generated and stored in the EEPROM 25. The point data includes the position and orientation on the map at the time when the image was captured, the storage position where the captured image is stored, and the playback position indicating the position in the moving image if the image is a moving image. Therefore, it is possible to generate point data 303 that can link an image captured and stored from a position and orientation on a map with another image.

なお、本実施の形態においては、ナビゲーション装置10が画像再生装置として機能する場合、位置取得部59またはシミュレート部93から入力される位置が交差点を示し、方位取得部55またはシミュレート部93から入力される方位が変更した時、ユーザによる指示を受け付けた時、再生している動画像が終了した時に、新たなポイントデータを決定するようにしたが、それらの時より前に位置および方位を予測して、予測した位置および方位に基づいてポイントリストを生成し、ポイントデータを決定しておくようにしてもよい。これにより、画像を出力するまでの時間を短くすることができる。   In the present embodiment, when the navigation device 10 functions as an image playback device, the position input from the position acquisition unit 59 or the simulation unit 93 indicates an intersection, and the direction acquisition unit 55 or the simulation unit 93 New point data is determined when the input direction is changed, when an instruction from the user is accepted, or when a moving image being played back is finished, but the position and direction are changed before those times. Prediction may be performed, a point list may be generated based on the predicted position and orientation, and point data may be determined. Thereby, the time until the image is output can be shortened.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

<付記>
(1) 前記画像およびポイントデータを外部から取得し、前記画像記憶手段および前記ポイントデータ記憶手段にそれぞれ記憶するデータ取得手段をさらに備えた、請求項1に記載の画像出力装置。
(2) 前記ポイントデータは、関連する画像の属性を示す属性情報を含み、
前記ポイントデータ抽出手段は、前記条件を満たすポイントデータが複数存在する場合、前記属性情報に基づいて複数のポイントデータのうちから1つを抽出する、請求項1〜6のいずれかに記載の画像出力装置。
(3) 前記記憶された画像および前記生成されたポイントデータを外部に送信する送信手段を、さらに備えた請求項9に記載のデータ生成装置。
(4) 前記データ再生装置は、移動体に搭載される、請求項9に記載の画像出力装置。
(5) 請求項9に記載のデータ生成装置と、請求項1に記載の画像出力装置と、サーバとからなるナビゲーションシステムであって、
前記サーバは、前記データ生成装置により記憶された前記画像および生成された前記ポイントデータを前記データ生成装置から受信し、記憶する収集データ記憶手段と、
前記画像出力装置からの要求に応じて、前記収集データ記憶手段に記憶された画像およびポイントデータを送信するデータ送信手段と、を備えたナビゲーションシステム。
<Appendix>
(1) The image output device according to claim 1, further comprising data acquisition means for acquiring the image and point data from the outside and storing them in the image storage means and the point data storage means, respectively.
(2) The point data includes attribute information indicating attributes of related images,
The image according to claim 1, wherein the point data extraction unit extracts one of the plurality of point data based on the attribute information when there are a plurality of point data satisfying the condition. Output device.
(3) The data generation device according to claim 9, further comprising transmission means for transmitting the stored image and the generated point data to the outside.
(4) The image output device according to claim 9, wherein the data reproduction device is mounted on a moving body.
(5) A navigation system including the data generation device according to claim 9, the image output device according to claim 1, and a server,
The server receives the image stored by the data generation device and the generated point data from the data generation device, and collects data storage means for storing,
A navigation system comprising: data transmission means for transmitting an image and point data stored in the collected data storage means in response to a request from the image output device.

本実施の形態におけるナビゲーションシステムの全体概要を示す図である。It is a figure which shows the whole outline | summary of the navigation system in this Embodiment. ナビゲーション装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of a navigation apparatus. サーバのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of a server. データ生成装置として機能するナビゲーション装置が備えるCPUが有する機能の一例をEEPROM25に記憶するデータともに示す機能ブロック図である。3 is a functional block diagram illustrating an example of functions of a CPU included in a navigation device functioning as a data generation device, together with data stored in an EEPROM 25. FIG. ポイントデータの一例を示す図である。It is a figure which shows an example of point data. 画像のプロパティの一例を示す図である。It is a figure which shows an example of the property of an image. 画像再生装置として機能するナビゲーション装置が備えるCPUが有する機能の一例をEEPROMに記憶するデータともに示す機能ブロック図である。It is a functional block diagram which shows with a data memorize | stored in EEPROM an example of the function which CPU with which the navigation apparatus which functions as an image reproduction apparatus has has. ポイントデータ生成処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a point data generation process. 走行時画像出力処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image output process at the time of driving | running | working. 画像決定出力処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an image determination output process. シミュレート時画像出力処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image output process at the time of simulation. データ取得処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a data acquisition process. データ管理処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a data management process.

符号の説明Explanation of symbols

1 ナビゲーションシステム、10,10A,10B ナビゲーション装置、11 CPU、13 受信機、14 方位センサ、15 無線回路、17 メモリI/F、17A メモリカード、19 シリアル通信I/F、21 ROM、23 RAM、25 EEPROM、27 LCD、29 タッチスクリーン、31 操作キー、33 オーディオコーデック、35 増幅器、37 スピーカ、39 ビデオデコーダ、41 カメラ、51 画像受付部、53 画像記憶部、55 方位取得部、57 ポイントデータ生成部、59 位置取得部、61 タイミング決定部、63 送信部、71 操作受付部、73 データ取得部、77 ポイントデータ抽出部、79 ポイントリスト生成部、81 動画終了時抽出部、83 指示受付時抽出部、85 新ポイント存在時抽出部、87 交差点時抽出部、89 出力制御部、91 経路探索部、93 シミュレート部、100 インターネット、101,101A,101B アクセスポイント、200 サーバ、201 CPU、202 ROM、203 RAM、204 ネットワークI/F、205 HDD、206 表示部、207 操作部、301 画像、303 ポイントデータ、305 地図データ。   DESCRIPTION OF SYMBOLS 1 Navigation system 10, 10A, 10B Navigation apparatus, 11 CPU, 13 Receiver, 14 Direction sensor, 15 Wireless circuit, 17 Memory I / F, 17A Memory card, 19 Serial communication I / F, 21 ROM, 23 RAM, 25 EEPROM, 27 LCD, 29 touch screen, 31 operation keys, 33 audio codec, 35 amplifier, 37 speaker, 39 video decoder, 41 camera, 51 image reception unit, 53 image storage unit, 55 orientation acquisition unit, 57 point data generation Unit, 59 position acquisition unit, 61 timing determination unit, 63 transmission unit, 71 operation reception unit, 73 data acquisition unit, 77 point data extraction unit, 79 point list generation unit, 81 moving image end extraction unit, 83 instruction reception extraction Part, 85 new poi Extraction unit, 87 intersection extraction unit, 89 output control unit, 91 route search unit, 93 simulation unit, 100 Internet, 101, 101A, 101B access point, 200 server, 201 CPU, 202 ROM, 203 RAM, 204 network I / F, 205 HDD, 206 display unit, 207 operation unit, 301 image, 303 point data, 305 map data.

Claims (10)

画像を記憶する画像記憶手段と、
地図上の位置および方位と、前記記憶された画像が記憶された位置を示す記憶位置と、前記画像が動画像の場合には該動画像中の位置を示す再生位置とを含むポイントデータを前記記憶された画像と関連付けて記憶するポイントデータ記憶手段と、
地図上の位置を取得する位置取得手段と、
方位を取得する方位取得手段と、
前記記憶されたポイントデータのうちから前記取得された地図上の位置から所定の範囲内の地図上の位置を含み、かつ、前記取得された方位を含むポイントデータを抽出するポイントデータ抽出手段と、
前記画像記憶手段に記憶されている画像のうちから前記抽出されたポイントデータに含まれる前記記憶位置により特定される画像を読出し、出力する出力手段と、を備えた画像出力装置。
Image storage means for storing images;
Point data including a position and orientation on a map, a storage position indicating a position where the stored image is stored, and a reproduction position indicating a position in the moving image when the image is a moving image, Point data storage means for storing in association with the stored image;
Position acquisition means for acquiring a position on a map;
Bearing acquisition means for acquiring bearing,
Point data extraction means for extracting point data including a position on a map within a predetermined range from a position on the acquired map from the stored point data and including the acquired orientation;
An image output apparatus comprising: output means for reading out and outputting an image specified by the storage position included in the extracted point data from among images stored in the image storage means.
道路地図を記憶する地図記憶手段をさらに備え、
前記ポイントデータ抽出手段は、前記出力手段が前記画像を出力中に、前記方位取得手段により取得された方位が変化する場合、新たなポイントデータを抽出し、
前記出力手段は、前記ポイント抽出手段により新たに抽出されたポイントデータに含まれる前記記憶位置により特定される画像を前記画像記憶手段から読出し、出力する、請求項2に記載の画像出力装置。
Map storage means for storing the road map,
The point data extraction unit extracts new point data when the direction acquired by the direction acquisition unit changes while the output unit outputs the image,
The image output device according to claim 2, wherein the output unit reads and outputs an image specified by the storage position included in the point data newly extracted by the point extraction unit from the image storage unit.
前記ポイントデータ抽出手段は、前記位置取得手段により新たに取得された地図上の位置から所定の範囲内の地図上の位置を含み、かつ、前記方位受付手段により新たに取得された方位を含む新たなポイントデータを前記記憶されたポイントデータのうちから抽出し、
前記出力手段は、画像を出力中に前記ポイントデータ抽出手段により新たなポイントデータが抽出された場合、該新たに抽出されたポイントデータに含まれる前記記憶位置により特定される画像を前記画像記憶手段から読出し、出力する、請求項1または2に記載の画像出力装置。
The point data extraction unit includes a position on the map within a predetermined range from a position on the map newly acquired by the position acquisition unit, and a new one including the direction newly acquired by the direction reception unit To extract point data from the stored point data,
In the case where new point data is extracted by the point data extraction unit while outputting an image, the output unit outputs an image specified by the storage position included in the newly extracted point data. The image output device according to claim 1, wherein the image output device reads out and outputs from the image.
ユーザの操作を受け付ける操作受付手段を含み、
前記ポイントデータ抽出手段は、前記操作受付手段により予め定められた操作が受け付けられる時に、新たなポイントデータを抽出し、
前記出力手段は、前記ポイント抽出手段により新たに抽出されたポイントデータに含まれる前記記憶位置により特定される動画像または静止画像を前記画像記憶手段から読出し、出力する、請求項1〜3のいずれかに記載の画像出力装置。
Including an operation accepting means for accepting a user operation,
The point data extracting means extracts new point data when a predetermined operation is accepted by the operation accepting means,
The output means reads out and outputs a moving image or a still image specified by the storage position included in the point data newly extracted by the point extraction means from the image storage means. An image output apparatus according to claim 1.
前記出力手段は、前記抽出されたポイントデータに含まれる前記記憶位置に動画像が記憶されている場合、該動画像を読み出し、前記抽出されたポイントデータに含まれる前記再生位置から再生する再生手段と、
前記抽出されたポイントデータに含まれる前記記憶位置に静止画像が記憶されている場合、該静止画像を読み出し表示する表示手段と、を含む請求項1〜4のいずれかに記載の画像出力装置。
When the moving image is stored in the storage position included in the extracted point data, the output unit reads out the moving image and reproduces it from the reproduction position included in the extracted point data. When,
The image output apparatus according to claim 1, further comprising: a display unit that reads and displays the still image when a still image is stored at the storage position included in the extracted point data.
前記ポイントデータ抽出手段は、前記再生手段により再生されている前記動画像が終了した時に、新たなポイントデータを抽出し、
前記出力手段は、前記ポイント抽出手段により新たに抽出されたポイントデータに含まれる前記記憶位置により特定される画像を前記画像記憶手段から読出し、出力する、請求項5に記載の画像出力装置。
The point data extracting means extracts new point data when the moving image being reproduced by the reproducing means is completed,
The image output device according to claim 5, wherein the output unit reads and outputs an image specified by the storage position included in the point data newly extracted by the point extraction unit from the image storage unit.
現在の地図上の位置を検出する位置検出手段をさらに備え、
前記位置取得手段は、前記検出された位置を取得する、請求項1〜6のいずれかに記載の画像出力装置。
It further comprises position detecting means for detecting the current position on the map,
The image output apparatus according to claim 1, wherein the position acquisition unit acquires the detected position.
道路地図を記憶する地図記憶手段と、
前記道路地図上の第1の位置と第2の位置とを受け付ける経路受付手段と、
前記受け付けられた第1の位置から前記第2の位置までの経路を探索する探索手段と、を備え、
前記位置取得手段は、前記探索された経路上の位置を取得する、請求項1〜6のいずれかに記載の画像出力装置。
Map storage means for storing a road map;
Route receiving means for receiving the first position and the second position on the road map;
Search means for searching for a route from the accepted first position to the second position;
The image output apparatus according to claim 1, wherein the position acquisition unit acquires a position on the searched route.
車両に搭載されるデータ生成装置であって、
道路地図を記憶する地図記憶手段と、
画像を撮像する撮像手段と、
前記撮像された画像を記憶する画像記憶手段と、
現在の地図上の位置を取得する位置取得手段と、
車両が進行する方位を取得する方位取得手段と、
ポイントデータを生成するタイミングを決定するタイミング決定手段と、
前記決定されたタイミングに従って、前記位置取得手段および前記方位取得手段によりそれぞれ取得された地図上の位置および方位と、前記撮像手段により撮像された画像が記憶される記憶位置と、該画像が動画像の場合には該動画像中の位置を示す再生位置とを含むポイントデータを生成するポイントデータ生成手段と、
前記生成されたポイントデータを記憶するポイントデータ記憶手段と、を備え、
前記タイミング決定手段は、前記撮像手段による撮像が開始された時、前記位置取得手段により取得された位置が前記記憶された道路地図において交差点として示される時、前記取得された方位が変更した時および所定の時間が経過した時のうちから選ばれた少なくとも1つを、前記ポイントデータを生成するタイミングに決定する、データ生成装置。
A data generation device mounted on a vehicle,
Map storage means for storing a road map;
An imaging means for capturing an image;
Image storage means for storing the captured image;
Position acquisition means for acquiring the current position on the map;
Direction acquisition means for acquiring the direction in which the vehicle travels;
Timing determining means for determining timing for generating point data;
According to the determined timing, the position and direction on the map acquired by the position acquisition unit and the direction acquisition unit, the storage position where the image captured by the imaging unit is stored, and the image is a moving image Point data generating means for generating point data including a reproduction position indicating a position in the moving image in the case of
Point data storage means for storing the generated point data,
The timing determination unit is configured such that when imaging by the imaging unit is started, when the position acquired by the position acquisition unit is indicated as an intersection in the stored road map, when the acquired orientation is changed, and A data generation device that determines at least one selected from when a predetermined time has elapsed as a timing for generating the point data.
地図上の位置と、
方位と、
前記地図上の位置および前記方位で撮像された画像が記憶された位置を示す記憶位置と、
前記記憶位置で特定される位置に記憶された前記画像が動画像の場合、該動画像中における前記地図上の位置に対応する再生位置と、を含むポイントデータのデータ構造。
On the map,
Direction,
A storage position indicating a position on the map and a position where an image captured in the direction is stored;
When the image stored at the position specified by the storage position is a moving image, a data structure of point data including a reproduction position corresponding to the position on the map in the moving image.
JP2008013206A 2008-01-23 2008-01-23 Image output device, data generating device, navigation system, and data structure of point data Ceased JP2009174970A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008013206A JP2009174970A (en) 2008-01-23 2008-01-23 Image output device, data generating device, navigation system, and data structure of point data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008013206A JP2009174970A (en) 2008-01-23 2008-01-23 Image output device, data generating device, navigation system, and data structure of point data

Publications (1)

Publication Number Publication Date
JP2009174970A true JP2009174970A (en) 2009-08-06

Family

ID=41030217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008013206A Ceased JP2009174970A (en) 2008-01-23 2008-01-23 Image output device, data generating device, navigation system, and data structure of point data

Country Status (1)

Country Link
JP (1) JP2009174970A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014070933A (en) * 2012-09-28 2014-04-21 Jvc Kenwood Corp Image generation device, and route image generation method
JP2014235021A (en) * 2013-05-31 2014-12-15 株式会社Jvcケンウッド Route determination device, route determination method, and route determination program
JP6121060B1 (en) * 2016-01-06 2017-04-26 三菱電機株式会社 Root video transmission device and root video transmission program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001165678A (en) * 2000-10-18 2001-06-22 Toshiba Corp Navigation device
JP2003202235A (en) * 2002-01-09 2003-07-18 Mitsubishi Electric Corp Delivery device, display device, delivery method, and information delivery and display system
JP2003240586A (en) * 2002-02-21 2003-08-27 Alpine Electronics Inc On-vehicle navigation system
JP2004069353A (en) * 2002-08-02 2004-03-04 Matsushita Electric Ind Co Ltd Map information storage reproducing apparatus
JP2004325240A (en) * 2003-04-24 2004-11-18 Alpine Electronics Inc Navigation system
JP2008500561A (en) * 2004-06-03 2008-01-10 シャープ株式会社 MAP DATA CREATION DEVICE, MOBILE BODY HAVING THE SAME, AND MAP DATA CREATION METHOD

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001165678A (en) * 2000-10-18 2001-06-22 Toshiba Corp Navigation device
JP2003202235A (en) * 2002-01-09 2003-07-18 Mitsubishi Electric Corp Delivery device, display device, delivery method, and information delivery and display system
JP2003240586A (en) * 2002-02-21 2003-08-27 Alpine Electronics Inc On-vehicle navigation system
JP2004069353A (en) * 2002-08-02 2004-03-04 Matsushita Electric Ind Co Ltd Map information storage reproducing apparatus
JP2004325240A (en) * 2003-04-24 2004-11-18 Alpine Electronics Inc Navigation system
JP2008500561A (en) * 2004-06-03 2008-01-10 シャープ株式会社 MAP DATA CREATION DEVICE, MOBILE BODY HAVING THE SAME, AND MAP DATA CREATION METHOD

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014070933A (en) * 2012-09-28 2014-04-21 Jvc Kenwood Corp Image generation device, and route image generation method
JP2014235021A (en) * 2013-05-31 2014-12-15 株式会社Jvcケンウッド Route determination device, route determination method, and route determination program
JP6121060B1 (en) * 2016-01-06 2017-04-26 三菱電機株式会社 Root video transmission device and root video transmission program

Similar Documents

Publication Publication Date Title
US7609901B2 (en) Recording/reproducing system
CN108139227B (en) Location-based service tool for video illustration, selection and synchronization
CN101610376B (en) The method and apparatus for record and reproduction with the moving image of positional information
WO2012011226A1 (en) Information processing apparatus, information processing method, and recording medium
JP2009150839A (en) Electronic device and navigation method
JP4965475B2 (en) Virtual moving display device
WO2012011345A1 (en) Information processing apparatus, information processing method, program, and recording medium
JP4937592B2 (en) Electronics
KR20160087284A (en) Image processing apparatus, the image processing apparatus for performing image storage method and image search method
WO2012011244A1 (en) Information processing apparatus, information processing method, program, and recording medium
JP2009174970A (en) Image output device, data generating device, navigation system, and data structure of point data
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP6179315B2 (en) Information processing apparatus, image processing system, image processing method and program in information processing apparatus
JP6539999B2 (en) INFORMATION PROCESSING APPARATUS, SYSTEM, CONTROL METHOD, AND PROGRAM
JP2006112981A (en) Information processing apparatus
JP2006064671A (en) Information-providing device and portable information terminal
JP2006047147A (en) Information providing system
JP4363272B2 (en) Navigation album system
JP2010021885A (en) Imaging device, and imaging support method
JP6394729B2 (en) Information processing apparatus, music data extraction method in information processing apparatus, program, and information processing system
JP4798215B2 (en) Electronics
JP2006064654A (en) Navigation apparatus and method
JP2009258014A (en) Route guidance system, route guidance device, route guidance method, and route guidance program
JP2006013619A (en) Data processor, method thereof, program thereof, and recording medium with the program recorded
JP6436191B2 (en) Server apparatus, information processing method and program using server apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121009

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20130226