JP2008279929A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2008279929A
JP2008279929A JP2007126786A JP2007126786A JP2008279929A JP 2008279929 A JP2008279929 A JP 2008279929A JP 2007126786 A JP2007126786 A JP 2007126786A JP 2007126786 A JP2007126786 A JP 2007126786A JP 2008279929 A JP2008279929 A JP 2008279929A
Authority
JP
Japan
Prior art keywords
music
information
image
playback
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007126786A
Other languages
Japanese (ja)
Other versions
JP5151243B2 (en
Inventor
Satoshi Hiranuma
聡 平沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2007126786A priority Critical patent/JP5151243B2/en
Publication of JP2008279929A publication Critical patent/JP2008279929A/en
Application granted granted Critical
Publication of JP5151243B2 publication Critical patent/JP5151243B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reproduce contents desired by a user so that the same content is reproduced again at a place where the content has been actually reproduced in the past by associating position information with contents of a musical composition or the like. <P>SOLUTION: This in-vehicle information processor 10 stores the musical component information of a reproduced musical component; position information detected by a present place detection part 18 at the reproduction of the musical component; reproduction time information for reproducing the musical component; and image information having photographing time information in a memory 19 in association with one another. Further, in the reproduction of the image, the position information associated with the image information of the image is displayed on a display part 14, and the musical component of the musical component information associated with the image information is reproduced. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報処理装置に関する。   The present invention relates to an information processing apparatus.

従来、DAP(Digital Audio Player)等において扱われる楽曲データ、カーナビゲーション装置等において扱われる位置情報、デジタルカメラ等において扱われる画像データはそれぞれ関連付けられておらず、各機器は単独で動作していた。   Conventionally, music data handled in DAP (Digital Audio Player), position information handled in car navigation devices, and image data handled in digital cameras are not associated with each other, and each device operates independently. .

しかし、近年、位置情報と画像データとを関連付ける技術が開示されている。具体的には、画像の撮影場所としての位置情報と画像とを関連付け、画像を表示するときに、撮影場所に関連する楽曲を再生する技術が開示されている(特許文献1参照)。
特開2006−135895号公報
However, in recent years, techniques for associating position information with image data have been disclosed. Specifically, a technique is disclosed in which position information as an image shooting location is associated with an image and a music piece related to the shooting location is played when the image is displayed (see Patent Document 1).
JP 2006-135895 A

しかし、特許文献1の技術は、画像表示時に、当該画像の撮影場所に関連する楽曲(例えば、その土地(撮影場所)にちなんだ曲名を持つ楽曲)を再生する技術であり、当該画像の撮影を行った場所で実際に再生していた楽曲が再生されるとは限らない。   However, the technique of Patent Document 1 is a technique for playing back music related to the shooting location of the image (for example, a song having a song name associated with the land (shooting location)) when the image is displayed. The music that was actually played at the place where you performed is not always played.

また、例えばドライブ中に、過去に通過した地点を再び通過した際、過去にその地点で再生していた楽曲と同じ楽曲を自動で再生する技術はない。   In addition, for example, when driving a point that has passed in the past again during driving, there is no technology for automatically playing the same song as the song that was played at that point in the past.

本発明は、上述したような課題に鑑みて為されたものであり、その目的とするところは、位置情報と楽曲等のコンテンツとの関連付けを行い、実際に過去にコンテンツを再生していた場所で、再び同じコンテンツを再生する等の、ユーザの望むコンテンツを再生する情報処理装置を提供することである。   The present invention has been made in view of the above-described problems, and the object of the present invention is to associate a location information with a content such as a song and actually reproduce the content in the past Thus, it is to provide an information processing apparatus that reproduces content desired by a user, such as reproducing the same content again.

上記の課題を解決するために、請求項1に記載の情報処理装置は、
自機の現在地を検出して位置情報を出力する現在地検出手段と、
楽曲を再生する楽曲再生手段と、
記憶手段と、
前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、を関連付けて前記記憶手段に記憶させ、
前記現在地検出手段により検出された現在地の位置情報と前記記憶手段に記憶された位置情報とを照合し一致した位置情報がある場合、当該一致した位置情報に関連付けられた楽曲情報の楽曲を前記楽曲再生手段に再生させる制御手段と、
を備える。
In order to solve the above problem, an information processing apparatus according to claim 1 is provided:
Current location detection means for detecting the current location of the aircraft and outputting position information;
Music playback means for playing back music;
Storage means;
The music information of the music reproduced by the music reproduction means and the position information output by the current location detection means at the time of reproduction of the music are stored in the storage means in association with each other,
If there is position information that matches the position information of the current position detected by the current position detection means and the position information stored in the storage means, the music of the music information associated with the matched position information is the music Control means for causing the reproduction means to reproduce,
Is provided.

請求項2に記載の情報処理装置は、
自機の現在地を検出して位置情報を出力する現在地検出手段と、
楽曲を再生する楽曲再生手段と、
画像を再生する画像再生手段と、
記憶手段と、
前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、当該楽曲が再生された再生日時情報と、当該再生日時情報と一致する撮影日時情報を有した画像情報と、を関連付けて前記記憶手段に記憶させ、
前記画像再生手段による画像再生時、当該画像の画像情報に関連付けられた位置情報を前記画像再生手段に再生させ、且つ/又は、当該画像情報に関連付けられた楽曲情報の楽曲を前記楽曲再生手段に再生させる制御手段と、
を備える。
The information processing apparatus according to claim 2
Current location detection means for detecting the current location of the aircraft and outputting position information;
Music playback means for playing back music;
Image reproduction means for reproducing an image;
Storage means;
The music information of the music played by the music playback means, the position information output by the current location detection means when the music is played back, the playback date information when the music is played back, and the shooting date and time that matches the playback date information The image information having information is associated with and stored in the storage means,
At the time of image reproduction by the image reproduction means, the position information associated with the image information of the image is reproduced by the image reproduction means, and / or the music of the music information associated with the image information is transmitted to the music reproduction means. Control means for regenerating,
Is provided.

請求項3に記載の情報処理装置は、
自機の現在地を検出する現在地検出手段と、
楽曲を再生する楽曲再生手段と、
画像を再生する画像再生手段と、
記憶手段と、
前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、当該楽曲が再生された再生日時情報と、当該再生日時情報と一致する撮影日時情報を有した画像情報と、を関連付けて前記記憶手段に記憶させ、
前記楽曲再生手段による楽曲再生時、当該楽曲の楽曲情報に関連付けられた位置情報を前記画像再生手段に再生させ、且つ/又は、当該楽曲情報に関連付けられた画像情報の画像を前記画像再生手段に再生させる制御手段と、
を備える。
An information processing apparatus according to claim 3 is provided.
Current location detection means for detecting the current location of the aircraft,
Music playback means for playing back music;
Image reproduction means for reproducing an image;
Storage means;
The music information of the music played by the music playback means, the position information output by the current location detection means when the music is played back, the playback date information when the music is played back, and the shooting date and time that matches the playback date information The image information having information is associated with and stored in the storage means,
At the time of music playback by the music playback means, the image playback means plays back the position information associated with the music information of the music and / or the image of the image information associated with the music information is sent to the image playback means. Control means for regenerating,
Is provided.

請求項4に記載の発明は、請求項2又は3に記載の発明において、
外部記憶媒体から撮影日時情報を有した画像情報を取得する取得手段を更に備え、
前記制御手段は、
前記取得手段により画像情報が取得された際、当該取得された画像情報に対して、前記関連付けの処理を行い、当該画像情報を前記記憶手段に記憶させる。
The invention according to claim 4 is the invention according to claim 2 or 3,
Further comprising an acquisition means for acquiring image information having shooting date and time information from an external storage medium;
The control means includes
When image information is acquired by the acquisition means, the association processing is performed on the acquired image information, and the image information is stored in the storage means.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の発明において、
前記楽曲再生手段は、前記情報処理装置に接続される外部の楽曲再生機器である。
The invention according to claim 5 is the invention according to any one of claims 1 to 4,
The music playback means is an external music playback device connected to the information processing apparatus.

請求項6に記載の発明は、請求項1に記載の発明において、
前記楽曲再生手段及び前記記憶手段は、前記情報処理装置に接続される外部の機器であり、
前記機器は、
画像を再生する画像再生手段と、
外部記憶媒体から撮影日時情報を有した画像情報を取得する取得手段と、
前記取得手段により画像情報が取得された際、前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、当該楽曲が再生された再生日時情報と、当該再生日時情報と一致する撮影日時情報を有した前記取得手段により取得された画像情報と、を関連付けて前記記憶手段に記憶させ、
前記画像再生手段による画像再生時、当該画像の画像情報に関連付けられた位置情報を前記画像再生手段に再生させ、且つ/又は、当該画像情報に関連付けられた楽曲情報の楽曲を前記楽曲再生手段に再生させる第2制御手段と、
を有する。
The invention according to claim 6 is the invention according to claim 1,
The music playback means and the storage means are external devices connected to the information processing apparatus,
The equipment is
Image reproduction means for reproducing an image;
Obtaining means for obtaining image information having shooting date and time information from an external storage medium;
When the image information is acquired by the acquisition means, the music information of the music played by the music playback means, the position information output by the current location detection means when the music is played back, and the playback date and time when the music is played back Information and the image information acquired by the acquisition unit having the shooting date and time information matching the reproduction date and time information are associated with each other and stored in the storage unit,
At the time of image reproduction by the image reproduction means, the position information associated with the image information of the image is reproduced by the image reproduction means, and / or the music of the music information associated with the image information is transmitted to the music reproduction means. Second control means for reproducing;
Have

請求項7に記載の発明は、請求項1に記載の発明において、
前記楽曲再生手段及び前記記憶手段は、前記情報処理装置に接続される外部の機器であり、
前記機器は、
画像を再生する画像再生手段と、
外部記憶媒体から撮影日時情報を有した画像情報を取得する取得手段と、
前記取得手段により画像情報が取得された際、前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、当該楽曲が再生された再生日時情報と、当該再生日時情報と一致する撮影日時情報を有した前記取得手段により取得された画像情報と、を関連付けて前記記憶手段に記憶させ、
前記楽曲再生手段による楽曲再生時、当該楽曲の楽曲情報に関連付けられた位置情報を前記画像再生手段に再生させ、且つ/又は、当該楽曲情報に関連付けられた画像情報の画像を前記画像再生手段に再生させる第2制御手段と、
を有する。
The invention according to claim 7 is the invention according to claim 1,
The music playback means and the storage means are external devices connected to the information processing apparatus,
The equipment is
Image reproduction means for reproducing an image;
Obtaining means for obtaining image information having shooting date and time information from an external storage medium;
When the image information is acquired by the acquisition means, the music information of the music played by the music playback means, the position information output by the current location detection means when the music is played back, and the playback date and time when the music is played back Information and the image information acquired by the acquisition unit having the shooting date and time information matching the reproduction date and time information are associated with each other and stored in the storage unit,
At the time of music playback by the music playback means, the image playback means plays back the position information associated with the music information of the music and / or the image of the image information associated with the music information is sent to the image playback means. Second control means for reproducing;
Have

本発明によれば、位置情報と楽曲等のコンテンツとの関連付けを行い、実際に過去にコンテンツを再生していた場所で、再び同じコンテンツを再生する等の、ユーザの望むコンテンツを再生する情報処理装置を提供することができる。   According to the present invention, information processing for reproducing content desired by a user, such as associating position information with content such as music and reproducing the same content again at a place where the content was actually reproduced in the past. An apparatus can be provided.

以下、図面を参照して、本発明に係る情報処理装置の一実施形態について説明する。本実施形態において、情報処理装置を車両に搭載される車載情報処理装置として適用した場合について説明する。   Hereinafter, an embodiment of an information processing apparatus according to the present invention will be described with reference to the drawings. In this embodiment, a case where the information processing apparatus is applied as an in-vehicle information processing apparatus mounted on a vehicle will be described.

[車載情報処理装置の構成]
図1に、車載情報処理装置10の機能構成を示す。車載情報処理装置10は、車両に搭載されて当該車両の走行案内のための各処理を行う。また、車載情報処理装置10は、楽曲や画像の再生を行う。
[Configuration of in-vehicle information processing equipment]
FIG. 1 shows a functional configuration of the in-vehicle information processing apparatus 10. The in-vehicle information processing apparatus 10 is mounted on a vehicle and performs each process for traveling guidance of the vehicle. The on-vehicle information processing apparatus 10 reproduces music and images.

図1に示すように、車載情報処理装置10は、制御部11、ROM12、操作部13、表示部14、音声出力部15、通信部16、I/F部17、現在地検出部18、記憶部19を備えて構成されている。   As shown in FIG. 1, the in-vehicle information processing apparatus 10 includes a control unit 11, a ROM 12, an operation unit 13, a display unit 14, a voice output unit 15, a communication unit 16, an I / F unit 17, a current location detection unit 18, and a storage unit. 19.

制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)等から構成されている。制御部11は、ROM(Read Only Memory)12に記憶されている各種制御プログラムを読み出し、当該制御プログラムとの協働により演算、制御を行う。   The control unit 11 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. The control unit 11 reads various control programs stored in a ROM (Read Only Memory) 12 and performs calculation and control in cooperation with the control program.

例えば、制御部11は経路探索用のプログラムとの協働により、現在地検出部18から取得した現在地の情報及び記憶部19に記憶された地図情報等に基づいて自車の現在地から目的地までの案内経路を算出する。また、その案内経路への誘導を行うため、表示部14による案内画面の表示制御や音声出力部15等によるガイド音声の出力制御を行う。   For example, the control unit 11 cooperates with the route search program based on the current location information acquired from the current location detection unit 18 and the map information stored in the storage unit 19 from the current location of the vehicle to the destination. A guide route is calculated. Further, in order to guide to the guidance route, display control of the guidance screen by the display unit 14 and output control of the guide voice by the voice output unit 15 or the like are performed.

また、制御部11は楽曲再生用のプログラムとの協働により、音声出力部15による記憶部19に記憶された楽曲データの再生制御を行う。尚、当該楽曲データの再生制御として、楽曲通常再生処理、楽曲自動再生処理等がある。これらの処理についての詳細は後述する。   In addition, the control unit 11 performs reproduction control of the music data stored in the storage unit 19 by the audio output unit 15 in cooperation with the music reproduction program. Note that the reproduction control of the music data includes normal music reproduction processing, automatic music reproduction processing, and the like. Details of these processes will be described later.

また、制御部11は画像再生用のプログラムとの協働により、表示部14による記憶部19に記憶された画像データの再生制御を行う。   In addition, the control unit 11 performs reproduction control of the image data stored in the storage unit 19 by the display unit 14 in cooperation with an image reproduction program.

また、制御部11は画像楽曲再生用のプログラムとの協働により、表示部14による記憶部19に記憶された画像データの再生と、音声出力部15による記憶部19に記憶された楽曲データの再生との連動制御を行う。尚、当該連動制御として、画像連動表示処理、楽曲連動再生処理等がある。これらの処理についての詳細は後述する。   In addition, the control unit 11 cooperates with the image music reproduction program to reproduce the image data stored in the storage unit 19 by the display unit 14 and the music data stored in the storage unit 19 by the audio output unit 15. Perform linked control with playback. The linked control includes image linked display processing, music linked playback processing, and the like. Details of these processes will be described later.

また、制御部11は外部情報取得用のプログラムとの協働により、外部記憶媒体20からI/F部17を介した各種データの取得制御を行う。尚、当該取得制御として、画像取得処理等がある。画像取得処理についての詳細は後述する。   Further, the control unit 11 performs acquisition control of various data from the external storage medium 20 via the I / F unit 17 in cooperation with an external information acquisition program. The acquisition control includes image acquisition processing. Details of the image acquisition process will be described later.

通信部16は、携帯電話等の通信端末を接続して外部と通信を行う。例えば、通信部16は制御部11の通信制御に従って外部からガイド情報を受信する。ガイド情報とは、案内経路の誘導に際してユーザに提供する情報であり、例えば道路規制情報、渋滞情報、レーン情報(車線の数や右左折の規制等の情報)等をいう。通信部16は、VICS(Vehicle Information and Communication System)センターや他車との通信によりこれら道路規制情報等を受信する。   The communication unit 16 communicates with the outside by connecting a communication terminal such as a mobile phone. For example, the communication unit 16 receives guide information from the outside according to the communication control of the control unit 11. The guide information is information provided to the user when guiding the guide route, and includes, for example, road regulation information, traffic jam information, lane information (information such as the number of lanes and right / left turn regulation), and the like. The communication unit 16 receives the road regulation information and the like by communication with a VICS (Vehicle Information and Communication System) center and other vehicles.

操作部13は、操作キーの他、リモートコントローラ、表示部14と一体に構成されるタッチパネル等を備え、これらの操作に応じた操作信号を生成して制御部11に出力する。   In addition to the operation keys, the operation unit 13 includes a remote controller, a touch panel configured integrally with the display unit 14, and the like, and generates operation signals corresponding to these operations and outputs them to the control unit 11.

現在地検出部18は、GPS(Global Positioning System)アンテナ、角度センサ、方位センサ、距離センサ等の各種センサを備え、これらセンサによる検出結果に基づいて自車の現在地を検出する。GPSアンテナは、GPS衛星から送信されるGPS信号を検出する。また、角度センサは移動方向の変化量を示す車の角速度(単位時間当たりの水平方向への回転速度)を検出し、方位センサは地磁気の検出を行い、車両の絶対方位を検出する。距離センサは、車輪の回転に応じた単位走行距離毎のパルス信号を検出する。現在地検出部18は、これらセンサから取得した各検出結果に基づいて車両の現在地を示す位置情報(緯度、経度の情報等)を生成し、制御部11に出力する。   The current location detection unit 18 includes various sensors such as a GPS (Global Positioning System) antenna, an angle sensor, an orientation sensor, and a distance sensor, and detects the current location of the host vehicle based on detection results of these sensors. The GPS antenna detects a GPS signal transmitted from a GPS satellite. The angle sensor detects the angular velocity of the vehicle (rotation speed in the horizontal direction per unit time) indicating the amount of change in the moving direction, and the azimuth sensor detects the geomagnetism and detects the absolute azimuth of the vehicle. The distance sensor detects a pulse signal for each unit travel distance according to the rotation of the wheel. The current location detection unit 18 generates position information (latitude, longitude information, etc.) indicating the current location of the vehicle based on each detection result acquired from these sensors, and outputs it to the control unit 11.

ROM12は、不揮発性の半導体メモリ等により構成され、制御部11により実行される制御プログラム、プログラムの実行に必要なデータ等を記憶する。   The ROM 12 is configured by a nonvolatile semiconductor memory or the like, and stores a control program executed by the control unit 11, data necessary for executing the program, and the like.

表示部14は、LCD(Liquid Crystal Display)により構成され、制御部11から入力される表示信号の指示に従って、記憶部19に記憶されている画像データに基づいた画像の表示、自車の現在地から目的地までの誘導を行うための案内画面の表示等を行う。   The display unit 14 is configured by an LCD (Liquid Crystal Display), and displays an image based on image data stored in the storage unit 19 in accordance with an instruction of a display signal input from the control unit 11, from the current location of the host vehicle. Displays a guidance screen for guidance to the destination.

音声出力部15は、制御部11から入力される出力信号の指示に従って、記憶部19に記憶されている楽曲データに基づく楽曲や自車の現在地から目的地までの誘導を行うためのガイド音声等をD/A変換した後、出力する。   The audio output unit 15 is a music based on the music data stored in the storage unit 19 according to the instruction of the output signal input from the control unit 11, a guide voice for guiding from the current location of the vehicle to the destination, etc. Is output after D / A conversion.

I/F部17は、外部機器とのデータの送受信を行うためのインターフェース部である。I/F部17は、USB(Universal Serial Bus)等の有線の通信規格を用いた構成としてもよいし、ブルートゥース(Bluetooth)(登録商標)等の無線の通信規格を用いた構成としてもよい。   The I / F unit 17 is an interface unit for transmitting / receiving data to / from an external device. The I / F unit 17 may be configured using a wired communication standard such as USB (Universal Serial Bus), or may be configured using a wireless communication standard such as Bluetooth (registered trademark).

記憶部19は、ハードディスク等の記憶装置であり、地図情報、位置時間情報テーブル191、楽曲ファイルデータベース192、楽曲情報テーブル193、画像ファイルデータベース194、画像情報テーブル195等を記憶する。   The storage unit 19 is a storage device such as a hard disk, and stores map information, a position time information table 191, a music file database 192, a music information table 193, an image file database 194, an image information table 195, and the like.

位置時間情報テーブル191は、現在地検出部18により検出された位置情報に、当該位置を通過した日時(以下、通過日時と称す)を対応させたデータテーブルである。図2に位置時間情報テーブル191のデータ構成を示す。ここで、位置情報とは、緯度と経度から成る情報である。尚、位置情報は、緯度と経度から成る情報に限定されるものではなく、例えば、住所等の情報にしてもよい。制御部11は、当該位置時間情報テーブル191に位置情報と通過日時とを蓄積記憶させる。   The position time information table 191 is a data table in which the position information detected by the current location detection unit 18 is associated with the date and time (hereinafter referred to as “passing date and time”) that has passed the position. FIG. 2 shows the data structure of the position time information table 191. Here, the position information is information composed of latitude and longitude. Note that the position information is not limited to information including latitude and longitude, and may be information such as an address, for example. The control unit 11 stores and stores position information and passage date / time in the position time information table 191.

楽曲ファイルデータベース192は、楽曲データに当該楽曲データのファイル名である楽曲ファイル名を対応させたデータベースである。図3に楽曲ファイルデータベース192のデータ構成を示す。制御部11は、当該楽曲ファイルデータベース192に記憶されている楽曲データを読み出し、音声出力部15に楽曲を出力させる。   The music file database 192 is a database in which music data is associated with a music file name that is the file name of the music data. FIG. 3 shows the data structure of the music file database 192. The control unit 11 reads the music data stored in the music file database 192 and causes the audio output unit 15 to output the music.

制御部11は、図示しないCDメカ部に格納されたCDメディアから楽曲ファイル名と楽曲データとを取得し、楽曲ファイルデータベース192に各情報を記憶させる。尚、制御部11は、I/F部17を介して外部記憶媒体20に記憶された楽曲ファイル名と楽曲データを取得し、楽曲ファイルデータベース192に各情報を記憶させるとしてもよい。   The control unit 11 acquires a music file name and music data from a CD medium stored in a CD mechanism unit (not shown), and stores each information in the music file database 192. The control unit 11 may acquire the music file name and music data stored in the external storage medium 20 via the I / F unit 17 and store each information in the music file database 192.

制御部11は、当該楽曲ファイルデータベース192に記憶されている楽曲ファイル名を再生リストとして表示部14に表示させる。ユーザは、当該再生リストを参照して、聞きたい楽曲を選択したり、現在の再生している曲のファイル名を認識したりする。   The control unit 11 causes the display unit 14 to display the music file names stored in the music file database 192 as a reproduction list. The user refers to the reproduction list, selects a music piece to be listened to, and recognizes the file name of the currently reproduced music piece.

楽曲情報テーブル193は、位置情報と再生日時と楽曲ファイル名とを関連付けたデータテーブルである。図4に楽曲情報テーブル193のデータ構成を示す。制御部11は、再生した楽曲と、当該楽曲が再生された再生日時と、当該楽曲の再生時に現在地検出部18により検出された位置情報とを関連付けて、当該楽曲情報テーブル193にこの関連付けた各データを蓄積記憶させる。尚、「再生日時」とは、楽曲の再生開始時刻でもよいし、楽曲の再生終了時刻でもよい。   The music information table 193 is a data table in which position information, reproduction date / time, and music file name are associated with each other. FIG. 4 shows the data structure of the music information table 193. The control unit 11 associates the reproduced music, the reproduction date and time when the music is reproduced, and the position information detected by the current location detecting unit 18 at the time of reproduction of the music, and associates each of the associated music information tables 193 with each other. Accumulate and store data. The “playback date / time” may be a music playback start time or a music playback end time.

画像ファイルデータベース194は、画像データに当該画像データのファイル名である画像ファイル名を対応させたデータベースである。図5に画像ファイルデータベース194のデータ構成を示す。制御部11は、当該画像ファイルデータベース194に記憶されている画像データを読み出し、表示部14に画像を表示させる。   The image file database 194 is a database in which an image file name that is a file name of the image data is associated with the image data. FIG. 5 shows the data structure of the image file database 194. The control unit 11 reads the image data stored in the image file database 194 and causes the display unit 14 to display an image.

画像情報テーブル195は、位置情報と撮影日時と画像ファイル名とを関連付けたテーブルである。図6に画像情報テーブル195のデータ構成を示す。撮影日時とは、関連付けられた画像ファイル名の画像が撮影された日時である。   The image information table 195 is a table in which position information, shooting date and time, and an image file name are associated with each other. FIG. 6 shows the data structure of the image information table 195. The shooting date and time is the date and time when the image with the associated image file name was shot.

制御部11は、車載情報処理装置10の起動時、位置時間情報テーブル191、楽曲ファイルデータベース192の楽曲ファイル名一覧、楽曲情報テーブル193、画像情報テーブル195をRAMに読み込む。   When the in-vehicle information processing apparatus 10 is activated, the control unit 11 reads the position time information table 191, the music file name list of the music file database 192, the music information table 193, and the image information table 195 into the RAM.

そして、制御部11は、RAM内に読み込んだ各テーブルや楽曲ファイル名一覧と、記憶部19内に記憶されている各テーブルや楽曲ファイル名一覧と、の間で整合性をとる。具体的に、制御部11は、RAM内に読み込んだ各テーブルや楽曲ファイル名一覧のデータの更新を行うと、それに対応する記憶部19内に記憶されている各テーブルや楽曲ファイル名一覧のデータの更新も同時に行う。   Then, the control unit 11 establishes consistency between each table and music file name list read into the RAM and each table and music file name list stored in the storage unit 19. Specifically, when the control unit 11 updates the data of each table or music file name list read into the RAM, the data of each table or music file name list stored in the corresponding storage unit 19 is updated. Is also updated at the same time.

[外部記憶媒体の構成]
外部記憶媒体20は、車載情報処理装置10のI/F部17と接続される。当該外部記憶媒体20はUSBメモリであってもよいし、デジタルカメラ(以下、デジカメと称す)内の記憶部であってもよい。外部記憶媒体20は、デジカメ内画像ファイルデータベース201、デジカメ内画像情報テーブル202等を記憶する。
[Configuration of external storage medium]
The external storage medium 20 is connected to the I / F unit 17 of the in-vehicle information processing apparatus 10. The external storage medium 20 may be a USB memory or a storage unit in a digital camera (hereinafter referred to as a digital camera). The external storage medium 20 stores a digital camera image file database 201, a digital camera image information table 202, and the like.

デジカメ内画像ファイルデータベース201は、画像データに当該画像データのファイル名である画像ファイル名を対応させたデータベースである。図7にデジカメ内画像ファイルデータベース201のデータ構成を示す。このデジカメ内画像ファイルデータベース201は、デジカメにおいて作成され、当該外部記憶媒体20に記憶される。   The digital camera image file database 201 is a database in which image data is associated with an image file name that is a file name of the image data. FIG. 7 shows the data structure of the digital camera image file database 201. The digital camera image file database 201 is created in the digital camera and stored in the external storage medium 20.

デジカメ内画像情報テーブル202は、撮影日時と画像ファイル名とを関連付けたデータテーブルである。図8にデジカメ内画像情報テーブル202のデータ構成を示す。このデジカメ内画像情報テーブル202は、デジカメにおいて作成され、当該外部記憶媒体20に記憶される。   The digital camera image information table 202 is a data table in which the shooting date and time and the image file name are associated with each other. FIG. 8 shows the data structure of the digital camera image information table 202. The digital camera image information table 202 is created in the digital camera and stored in the external storage medium 20.

当該デジカメ内画像情報テーブル202の撮影日時は、当該撮影日時に対応する画像ファイル名の画像が撮影された日時である。尚、デジカメ内画像ファイルデータベース201内の画像ファイル名と、デジカメ内画像情報テーブル202内の画像ファイル名とは、1対1に対応している。   The shooting date and time of the digital camera image information table 202 is the date and time when the image of the image file name corresponding to the shooting date and time was shot. The image file names in the digital camera image file database 201 and the image file names in the digital camera image information table 202 have a one-to-one correspondence.

制御部11は、I/F部17を介して外部記憶媒体20に記憶されたデジカメ内画像ファイルデータベース201を取得して、当該データベース内のデータを画像ファイルデータベース194に保存する。   The control unit 11 acquires the digital camera image file database 201 stored in the external storage medium 20 via the I / F unit 17 and stores the data in the database in the image file database 194.

また、制御部11は、I/F部17を介して外部記憶媒体20に記憶されたデジカメ内画像情報テーブル202を取得して、当該テーブル内のデータを画像情報テーブル195に保存する。この際、デジカメ内画像情報テーブル202から画像情報テーブル195に新たに追加された画像ファイル名に対応する位置情報の値は「Unknown」となる。   Further, the control unit 11 acquires the digital camera image information table 202 stored in the external storage medium 20 via the I / F unit 17 and stores the data in the table in the image information table 195. At this time, the value of the position information corresponding to the image file name newly added from the digital camera image information table 202 to the image information table 195 is “Unknown”.

[車載情報処理装置の具体的な動作]
次に、車載情報処理装置10の動作について説明する。
[Specific operation of in-vehicle information processor]
Next, the operation of the in-vehicle information processing apparatus 10 will be described.

[楽曲通常再生処理]
図9は、車載情報処理装置10において制御部11が実行する楽曲通常再生処理を示すフローチャートである。楽曲通常再生処理は、ユーザ操作による操作部13からの操作信号に基づいて開始される。
[Normal music playback process]
FIG. 9 is a flowchart showing normal music playback processing executed by the control unit 11 in the in-vehicle information processing apparatus 10. The normal music reproduction process is started based on an operation signal from the operation unit 13 by a user operation.

図9に示すように、制御部11は再生する楽曲データ(1曲分)を記憶部19に記憶されている楽曲ファイルデータベース192から読み出す(ステップS1)。そして、制御部11は、読み出した楽曲データに基づいて、音声出力部15に楽曲を再生させる(ステップS2、ステップS3;No)。   As shown in FIG. 9, the control unit 11 reads the music data to be reproduced (for one music) from the music file database 192 stored in the storage unit 19 (step S1). And the control part 11 makes the audio | voice output part 15 reproduce | regenerate a music based on the read music data (step S2, step S3; No).

制御部11は、1曲分の楽曲の再生が終了したと判定すると(ステップS3;Yes)、再生した楽曲の楽曲ファイル名と、当該楽曲を再生した再生日時と、当該楽曲の再生時に現在地検出部18により検出された位置情報とを関連付けた楽曲関連付け情報を生成する関連付け処理を行う(ステップS4)。   When the control unit 11 determines that the reproduction of the music for one song has been completed (step S3; Yes), the music file name of the reproduced music, the reproduction date and time when the music is reproduced, and the current position detection when the music is reproduced. An association process for generating music association information in association with the position information detected by the unit 18 is performed (step S4).

そして、制御部11は、当該楽曲関連付け情報を楽曲情報テーブル193に追加する(ステップS5)。そして、制御部11は、次に再生する楽曲データがあるか判定する(ステップS6)。制御部11は、操作部13からの楽曲通常再生処理の終了を示す操作信号に基づいて、次に再生する楽曲データの有無を判定してもよいし、RAMに読み込まれている楽曲ファイル名の一覧を参照して、次に再生する楽曲データの有無を判定してもよい。   Then, the control unit 11 adds the music association information to the music information table 193 (step S5). Then, the control unit 11 determines whether there is music data to be reproduced next (step S6). The control unit 11 may determine the presence / absence of music data to be reproduced next based on the operation signal indicating the end of the normal music reproduction process from the operation unit 13, or the music file name read into the RAM. With reference to the list, the presence or absence of music data to be reproduced next may be determined.

次に再生する楽曲データがない場合(ステップS6;No)、制御部11は、楽曲通常再生処理を終了する。また、次に再生する楽曲データがある場合(ステップS6;Yes)、制御部11は、次に再生する楽曲データ(1曲分)を記憶部19に記憶されている楽曲ファイルデータベース192から読み出す(ステップS1)。   If there is no music data to be played next (step S6; No), the control unit 11 ends the music normal playback process. If there is music data to be reproduced next (step S6; Yes), the control unit 11 reads the music data (one music) to be reproduced next from the music file database 192 stored in the storage unit 19 ( Step S1).

このようにして、制御部11は、楽曲情報テーブル193に、再生した楽曲の楽曲ファイル名と、当該楽曲を再生した再生日時と、当該楽曲の再生時に現在地検出部18により検出された位置情報と、を蓄積していく。   In this way, the control unit 11 stores in the music information table 193 the music file name of the reproduced music, the reproduction date and time when the music is reproduced, and the position information detected by the current location detection unit 18 when the music is reproduced. , Will accumulate.

[楽曲自動再生処理]
図10は、車載情報処理装置10において制御部11が実行する楽曲自動再生処理を示すフローチャートである。楽曲自動再生処理は、ユーザ操作による操作部13からの操作信号に基づいて開始される。
[Music automatic playback processing]
FIG. 10 is a flowchart showing a music automatic reproduction process executed by the control unit 11 in the in-vehicle information processing apparatus 10. The music automatic reproduction process is started based on an operation signal from the operation unit 13 by a user operation.

図10に示すように、制御部11は、現在地検出部18により検出された現在の位置情報と楽曲情報テーブル193内の位置情報とを照合し(ステップS101)、一致する位置情報があるか否かを判定する(ステップS102)。尚、ここでの「一致する位置情報」とは、完全一致に限らず、例えば、距離の差が1km以内であれば「一致する」としてもよい。   As illustrated in FIG. 10, the control unit 11 collates the current position information detected by the current position detection unit 18 with the position information in the music information table 193 (step S <b> 101), and whether there is matching position information. Is determined (step S102). The “matching position information” here is not limited to perfect matching, and may be “matching” if the difference in distance is within 1 km, for example.

判定の結果、一致する位置情報がない場合(ステップS102;No)、制御部11は、再び、現在地検出部18により検出された現在の位置情報と楽曲情報テーブル193内の位置情報とを照合する(ステップS101)。   If there is no matching position information as a result of the determination (step S102; No), the control unit 11 checks again the current position information detected by the current position detection unit 18 and the position information in the music information table 193. (Step S101).

照合の結果、一致する位置情報がある場合(ステップS102;Yes)、制御部11は、一致する位置情報に対応する楽曲ファイル名の楽曲データ(1曲分)を、記憶部19に記憶されている楽曲ファイルデータベース192から読み出す(ステップS103)。   As a result of the collation, when there is matching position information (step S102; Yes), the control unit 11 stores the music data (one music piece) of the music file name corresponding to the matching position information in the storage unit 19. Is read from the existing music file database 192 (step S103).

そして、制御部11は、読み出した楽曲データに基づいて、音声出力部15に楽曲を再生させる(ステップS104、ステップS105;No)。   And the control part 11 makes the audio | voice output part 15 reproduce | regenerate a music based on the read music data (step S104, step S105; No).

制御部11は、1曲分の楽曲の再生が終了したと判定すると(ステップS105;Yes)、楽曲自動再生処理を終了するか否かを判定する(ステップS106)。制御部11は、操作部13からの楽曲自動再生処理の終了を示す操作信号に基づいて終了の判定を行ってもよいし、操作部13からの操作信号に基づいて、楽曲自動再生処理の再生時間を設定し、当該設定された再生時間と実際の再生時間との比較によって終了の判定を行ってもよい。   When the control unit 11 determines that the reproduction of the music for one song has been completed (step S105; Yes), the control unit 11 determines whether or not to end the automatic music reproduction process (step S106). The control unit 11 may determine the end based on the operation signal indicating the end of the automatic music reproduction process from the operation unit 13, or the reproduction of the automatic music reproduction process based on the operation signal from the operation unit 13. Time may be set, and the end may be determined by comparing the set reproduction time with the actual reproduction time.

判定の結果、楽曲自動再生処理を終了する場合(ステップS106;Yes)、制御部11は、楽曲自動再生処理を終了する。また、楽曲自動再生処理を終了しない場合(ステップS106;No)、制御部11は、再び、現在地検出部18により検出された現在の位置情報と楽曲情報テーブル193内の位置情報とを照合する(ステップS101)。   As a result of the determination, when the music automatic reproduction process is terminated (step S106; Yes), the control unit 11 ends the music automatic reproduction process. If the automatic music reproduction process is not terminated (step S106; No), the control unit 11 again collates the current position information detected by the current position detection unit 18 with the position information in the music information table 193 ( Step S101).

この自動楽曲再生処理によって、ドライブ中に、過去に通過した地点を再び通過した際、過去にその地点で再生していた楽曲と同じ楽曲を自動で再生する事ができる。そのため、車両の運転者等のユーザは、旅行先等で大変懐かしく感じる楽曲を聴くことができる。   By this automatic music reproduction process, when the vehicle passes again through a point that has passed in the past, the same music as the music that has been reproduced at that point in the past can be automatically reproduced. Therefore, a user such as a vehicle driver can listen to music that feels very nostalgic at a travel destination or the like.

[画像取得処理]
図11は、車載情報処理装置10において制御部11が実行する画像取得処理を示すフローチャートである。画像取得処理は、外部記憶媒体20がI/F部17に接続されたときに開始される。
[Image acquisition processing]
FIG. 11 is a flowchart illustrating image acquisition processing executed by the control unit 11 in the in-vehicle information processing apparatus 10. The image acquisition process is started when the external storage medium 20 is connected to the I / F unit 17.

図11に示すように、外部記憶媒体20がI/F部17に接続されると、制御部11は、外部記憶媒体20からデジカメ内画像ファイルデータベース201を取得し(ステップS201)、当該データベース内のデータを記憶部19に記憶されている画像ファイルデータベース194に保存する(ステップS202)。   As shown in FIG. 11, when the external storage medium 20 is connected to the I / F unit 17, the control unit 11 acquires the digital camera image file database 201 from the external storage medium 20 (step S201). Is stored in the image file database 194 stored in the storage unit 19 (step S202).

そして、制御部11は、外部記憶媒体20からデジカメ内画像情報テーブル202を取得し(ステップS203)、当該テーブル内のデータを画像情報テーブル195に保存する(ステップS204)。この際、デジカメ内画像情報テーブル202から画像情報テーブル195に新たに追加された画像ファイル名に対応する位置情報の値は「Unknown」となる。   Then, the control unit 11 acquires the digital camera image information table 202 from the external storage medium 20 (step S203), and stores the data in the table in the image information table 195 (step S204). At this time, the value of the position information corresponding to the image file name newly added from the digital camera image information table 202 to the image information table 195 is “Unknown”.

そして、制御部11は、画像情報テーブル195内の新たに追加された1つの画像ファイル名に対応する撮影日時と位置時間情報テーブル191内の全ての通過日時とを照合し(ステップS205)、一致する日時情報(通過日時)があるか否かを判定する(ステップS206)。尚、ここでの「一致する日時情報」とは、完全一致に限らず、例えば、時間差が一時間以内であれば「一致する」としてもよい。   Then, the control unit 11 collates the shooting date and time corresponding to one newly added image file name in the image information table 195 with all the passing dates and times in the position time information table 191 (Step S205). It is determined whether there is date / time information (pass date / time) to be performed (step S206). The “matching date and time information” here is not limited to perfect matching, and may be “matching” if the time difference is within one hour, for example.

照合の結果、位置時間情報テーブル191内に、一致する日時情報(通過日時)がない場合(ステップS206;No)、画像情報テーブル195内の新たに追加された全ての画像ファイル名に対応する撮影日時の照合が済んだか判定する(ステップS208)。   If there is no matching date / time information (pass date / time) in the position / time information table 191 as a result of the collation (step S206; No), shooting corresponding to all newly added image file names in the image information table 195 is performed. It is determined whether the date and time have been collated (step S208).

ステップS205における照合の結果、位置時間情報テーブル191内に、一致する日時情報(通過日時)がある場合(ステップS206;Yes)、制御部11は、画像情報テーブル195内の照合対象となっている日時情報(撮影日時)に対応する位置情報の値を、位置時間情報テーブル191内の当該一致する日時情報(通過日時)に対応する位置情報の値に上書きする(ステップS207)。つまり、画像情報テーブル195内の位置情報の値が「Unknown」から位置時間情報テーブル191内の対応する位置情報の値に上書きされる。   As a result of the collation in step S205, when there is matching date and time information (passing date and time) in the position time information table 191 (step S206; Yes), the control unit 11 is a collation target in the image information table 195. The position information value corresponding to the date / time information (shooting date / time) is overwritten with the position information value corresponding to the matching date / time information (passing date / time) in the position / time information table 191 (step S207). That is, the position information value in the image information table 195 is overwritten from “Unknown” to the corresponding position information value in the position time information table 191.

そして、制御部11は、画像情報テーブル195内の新たに追加された全ての画像ファイル名に対応する撮影日時の照合が済んだか判定する(ステップS208)。   Then, the control unit 11 determines whether or not the shooting date and time corresponding to all the newly added image file names in the image information table 195 have been collated (step S208).

制御部11は、全撮影日時の照合が済んだと判定すると(ステップS208;Yes)、画像取得処理を終了する。また、全撮影日時の照合が済んでいないと判定すると(ステップS208;No)、制御部11は、再び、画像情報テーブル195内の新たに追加された1つの画像ファイル名に対応する撮影日時と位置時間情報テーブル191内の全ての通過日時とを照合する(ステップS205)。この際、前回照合対象となった画像の撮影日時とは別の画像の撮影日時が照合対象となる。   When the control unit 11 determines that all the shooting dates and times have been collated (step S208; Yes), the image acquisition process ends. If it is determined that the comparison of all shooting dates / times has not been completed (step S208; No), the control unit 11 again sets the shooting date / time corresponding to one newly added image file name in the image information table 195. All passage dates and times in the position time information table 191 are collated (step S205). At this time, the shooting date and time of an image different from the shooting date and time of the image that is the previous verification target is the verification target.

[画像連動表示処理]
図12は、車載情報処理装置10において制御部11が実行する画像連動表示処理を示すフローチャートである。画像連動表示処理は、ユーザ操作による操作部13からの操作信号に基づいて開始される。
[Image linked display processing]
FIG. 12 is a flowchart illustrating an image-linked display process executed by the control unit 11 in the in-vehicle information processing apparatus 10. The image-linked display process is started based on an operation signal from the operation unit 13 by a user operation.

図12に示すように、制御部11は、再生する画像データ(1枚分)を記憶部19に記憶されている画像ファイルデータベース194から読み出す(ステップS301)。そして、制御部11は、読み出した画像データに基づいて、表示部14に画像を表示させる。同時に、制御部11は、画像情報テーブル195内の、読み出した画像データの画像ファイル名に対応する位置情報と撮影日時とを表示部14に表示させる(ステップS302)。   As shown in FIG. 12, the control unit 11 reads image data to be reproduced (for one sheet) from the image file database 194 stored in the storage unit 19 (step S301). Then, the control unit 11 causes the display unit 14 to display an image based on the read image data. At the same time, the control unit 11 causes the display unit 14 to display position information and shooting date / time corresponding to the image file name of the read image data in the image information table 195 (step S302).

次に、制御部11は、表示部14に表示されている位置情報と、楽曲情報テーブル193内の位置情報とを照合する(ステップS303)。   Next, the control unit 11 collates the position information displayed on the display unit 14 with the position information in the music information table 193 (step S303).

照合の結果、一致する位置情報がない場合(ステップS304;No)、制御部11は、次の画像を再生するか否かの判定を行う(ステップS307)。ステップS307についての詳細は後述する。   If there is no matching position information as a result of the collation (step S304; No), the control unit 11 determines whether or not to reproduce the next image (step S307). Details of step S307 will be described later.

照合の結果、一致する位置情報がある場合(ステップS304;Yes)、制御部11は、一致する位置情報に対応する楽曲ファイル名の楽曲データ(1曲分)を、記憶部19に記憶されている楽曲ファイルデータベース192から読み出す(ステップS305)。   If there is matching position information as a result of the collation (step S304; Yes), the control unit 11 stores the music data (one music piece) of the music file name corresponding to the matching position information in the storage unit 19. Is read from the existing music file database 192 (step S305).

そして、制御部11は、読み出した楽曲データに基づいて、音声出力部15に楽曲を再生させる(ステップS306)。   And the control part 11 makes the audio | voice output part 15 reproduce | regenerate a music based on the read music data (step S306).

そして、制御部11は、次の画像を再生するか否かの判定を行う(ステップS307)。制御部11は、操作部13からの次の画像の再生の可否を示す操作信号に基づいて次の写真の再生の可否を判定する。   Then, the control unit 11 determines whether or not to reproduce the next image (step S307). The control unit 11 determines whether or not the next photo can be reproduced based on an operation signal indicating whether or not the next image can be reproduced from the operation unit 13.

次の写真の再生を行わないと判定した場合(ステップS307;No)、制御部11は、画像連動表示処理を終了する。また、次の写真の再生を行うと判定した場合(ステップS307;Yes)、次に再生する画像データ(一枚分)を記憶部19に記憶されている画像ファイルデータベース194から読み出す(ステップS301)。   When it determines with not reproducing the next photograph (step S307; No), the control part 11 complete | finishes an image interlocking | linkage display process. If it is determined that the next picture is to be played back (step S307; Yes), the image data (one piece) to be played next is read from the image file database 194 stored in the storage unit 19 (step S301). .

この画像連動表示処理によって、画像を再生中に、撮影位置と撮影日時が同時に表示される。そして、当時聴いていた楽曲が自動的に流れる。そのため、画像を閲覧するユーザは、画像閲覧の際に、より一層の感動を得ることができる。   By this image interlocking display processing, the shooting position and the shooting date and time are displayed simultaneously during the playback of the image. And the music you listened to at that time automatically played. Therefore, the user who browses an image can obtain a further impression when browsing the image.

尚、この画像連動表示処理において、表示部14に表示されている位置情報と、楽曲情報テーブル193内の位置情報とを照合する(ステップS303)としたが、表示部14に表されている撮影日時と、楽曲情報テーブル193内の再生日時とを照合するとしてもよい。   In this image-linked display process, the position information displayed on the display unit 14 is collated with the position information in the music information table 193 (step S303). The date and time may be collated with the reproduction date and time in the music information table 193.

[楽曲連動再生処理]
図13は、車載情報処理装置10において制御部11が実行する楽曲連動再生処理を示すフローチャートである。楽曲連動再生処理は、ユーザ操作による操作部13からの操作信号に基づいて開始される。
[Music linked playback processing]
FIG. 13 is a flowchart showing the music-linked playback process executed by the control unit 11 in the in-vehicle information processing apparatus 10. The music-linked playback process is started based on an operation signal from the operation unit 13 by a user operation.

図13に示すように、制御部11は、再生する楽曲データ(1曲分)を記憶部19に記憶されている楽曲ファイルデータベース192から読み出す(ステップS401)。そして、制御部11は、読み出した楽曲データに基づいて、音声出力部15に楽曲を再生させる(ステップS402)。   As shown in FIG. 13, the control unit 11 reads the music data to be reproduced (one music) from the music file database 192 stored in the storage unit 19 (step S <b> 401). And the control part 11 makes the audio | voice output part 15 reproduce | regenerate a music based on the read music data (step S402).

次に、制御部11は、再生される楽曲に対応する位置情報と、画像情報テーブル195内の位置情報とを照合する(ステップS403)。   Next, the control unit 11 collates the position information corresponding to the music to be reproduced with the position information in the image information table 195 (step S403).

照合の結果、一致する位置情報がない場合(ステップS404;No)、制御部11は、次の楽曲を再生するか否かの判定を行う(ステップS407)。ステップS407についての詳細は後述する。   As a result of the collation, when there is no matching position information (step S404; No), the control unit 11 determines whether or not to play the next music piece (step S407). Details of step S407 will be described later.

ステップS403における照合の結果、一致する位置情報がある場合(ステップS404;Yes)、制御部11は、一致する位置情報に対応する画像ファイル名の画像データ(1枚分)を、記憶部19に記憶されている画像ファイルデータベース194から読み出す(ステップS405)。   If there is matching position information as a result of the collation in step S403 (step S404; Yes), the control unit 11 stores image data (one sheet) of the image file name corresponding to the matching position information in the storage unit 19. Read from the stored image file database 194 (step S405).

そして、制御部11は、読み出した画像データに基づいて、表示部14に画像を表示させる。同時に、制御部11は、画像情報テーブル195内の、読み出した画像データの画像ファイル名に対応する位置情報と撮影日時とを表示部14に表示させる(ステップS406)。   Then, the control unit 11 causes the display unit 14 to display an image based on the read image data. At the same time, the control unit 11 causes the display unit 14 to display the position information corresponding to the image file name of the read image data and the shooting date and time in the image information table 195 (step S406).

そして、制御部11は、次の楽曲を再生するか否かの判定を行う(ステップS407)。制御部11は、操作部13からの次の楽曲の再生の可否を示す操作信号に基づいて次の楽曲の再生の可否を判定する。   Then, the control unit 11 determines whether or not to reproduce the next music piece (step S407). The control unit 11 determines whether or not the next music piece can be reproduced based on an operation signal indicating whether or not the next music piece can be reproduced from the operation unit 13.

次の楽曲の再生を行わないと判定した場合(ステップS407;No)、制御部11は、楽曲連動再生処理を終了する。また、次の楽曲の再生を行うと判定した場合(ステップS407;Yes)、次に再生する楽曲データ(1曲分)を記憶部19に記憶されている楽曲ファイルデータベース192から読み出す(ステップS401)。   When it determines with not reproducing the next music (step S407; No), the control part 11 complete | finishes a music interlocking | linkage reproduction | regeneration process. If it is determined that the next music is to be played (step S407; Yes), the music data (one music) to be played next is read from the music file database 192 stored in the storage unit 19 (step S401). .

この楽曲連動再生処理によって、楽曲を再生中に、過去に当該楽曲を再生した際に撮影した画像が自動的に表示される。更に、当該画像の位置情報と撮影日時も同時に表示される。そのため、ユーザは、楽曲を聴く際に、より一層の感動を得ることができる。   With this music-linked playback process, during playback of a music, an image captured when the music was played in the past is automatically displayed. Furthermore, the position information of the image and the shooting date and time are also displayed. Therefore, the user can obtain even more excitement when listening to music.

尚、この楽曲連動再生処理において、再生される楽曲に対応する位置情報と、画像情報テーブル195内の位置情報とを照合する(ステップS403)としたが、再生される楽曲に対応する再生日時と、画像情報テーブル195内の撮影日時とを照合するとしてもよい。   In this music-linked playback process, the position information corresponding to the music to be played is collated with the position information in the image information table 195 (step S403). The shooting date and time in the image information table 195 may be collated.

尚、本実施形態において、情報処理装置を車載情報処理装置として適用した場合について説明したが、情報処理装置は車載情報処理装置に限定されるものではない。例えば、情報処理装置における記憶部19を、情報処理装置に接続して用いるDAPとしても良く、さらにGPS付きDAPを情報処理装置として適用しても良い。   In this embodiment, the case where the information processing apparatus is applied as an in-vehicle information processing apparatus has been described, but the information processing apparatus is not limited to the in-vehicle information processing apparatus. For example, the storage unit 19 in the information processing apparatus may be a DAP used by being connected to the information processing apparatus, and a DAP with GPS may be applied as the information processing apparatus.

さらに、情報処理装置における、楽曲再生手段及び外部記憶媒体20が各々DAPやデジカメなど、情報処理装置に接続される外部の装置である構成も考えられる。この場合、図14に示すように、DAP22が情報処理装置に接続され、再生した楽曲に関連する位置情報をDAP22に記憶した場合、前記情報処理装置への接続を解除後、DAP22にデジカメ21を接続することによって、楽曲情報と画像情報を対応付け、これら関連付けられた楽曲及び画像をDAP22により再生しても良い。   Further, a configuration in which the music reproducing means and the external storage medium 20 in the information processing apparatus are external devices connected to the information processing apparatus, such as DAP and digital camera, can be considered. In this case, as shown in FIG. 14, when the DAP 22 is connected to the information processing apparatus and the positional information related to the reproduced music is stored in the DAP 22, the digital camera 21 is connected to the DAP 22 after the connection to the information processing apparatus is released. By connecting, music information and image information may be associated with each other, and the associated music and images may be reproduced by the DAP 22.

尚、本実施形態において、画像データは、静止画像、動画像、いずれにも適用可能である。   In the present embodiment, the image data can be applied to both still images and moving images.

車載情報処理装置のブロック図である。It is a block diagram of a vehicle-mounted information processing apparatus. 位置時間情報テーブルのデータ構成図である。It is a data block diagram of a position time information table. 楽曲ファイルデータベースのデータ構成図である。It is a data block diagram of a music file database. 楽曲情報テーブルのデータ構成図である。It is a data block diagram of a music information table. 画像ファイルデータベースのデータ構成図である。It is a data block diagram of an image file database. 画像情報テーブルのデータ構成図である。It is a data block diagram of an image information table. デジカメ内画像ファイルデータベースのデータ構成図である。It is a data block diagram of the image file database in a digital camera. デジカメ内画像情報テーブルのデータ構成図である。It is a data block diagram of the digital camera image information table. 楽曲通常再生処理のフローチャート図である。It is a flowchart figure of music normal reproduction processing. 楽曲自動再生処理のフローチャート図である。It is a flowchart figure of a music automatic reproduction process. 画像取得処理のフローチャート図である。It is a flowchart figure of an image acquisition process. 画像連動表示処理のフローチャート図である。It is a flowchart figure of an image interlocking | linkage display process. 楽曲連動再生処理のフローチャート図である。It is a flowchart figure of music linked reproduction processing. DAPを外部接続する車載情報処理装置のブロック図である。It is a block diagram of the vehicle-mounted information processing apparatus which connects DAP externally.

符号の説明Explanation of symbols

10 車載情報処理装置
11 制御部
12 ROM
13 操作部
14 表示部
15 音声出力部
16 通信部
17 I/F部
18 現在地検出部
19 記憶部
20 外部記憶媒体
21 デジカメ
22 DAP
191 位置時間情報テーブル
192 楽曲ファイルデータベース
193 楽曲情報テーブル
194 画像ファイルデータベース
195 画像情報テーブル
201 デジカメ内画像ファイルデータベース
202 デジカメ内画像情報テーブル
10 On-vehicle information processing device 11 Control unit 12 ROM
13 Operation unit 14 Display unit 15 Audio output unit 16 Communication unit 17 I / F unit 18 Current location detection unit 19 Storage unit 20 External storage medium 21 Digital camera 22 DAP
191 Position time information table 192 Music file database 193 Music information table 194 Image file database 195 Image information table 201 Digital camera image file database 202 Digital camera image information table

Claims (7)

自機の現在地を検出して位置情報を出力する現在地検出手段と、
楽曲を再生する楽曲再生手段と、
記憶手段と、
前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、を関連付けて前記記憶手段に記憶させ、
前記現在地検出手段により検出された現在地の位置情報と前記記憶手段に記憶された位置情報とを照合し一致した位置情報がある場合、当該一致した位置情報に関連付けられた楽曲情報の楽曲を前記楽曲再生手段に再生させる制御手段と、
を備える情報処理装置。
Current location detection means for detecting the current location of the aircraft and outputting position information;
Music playback means for playing back music;
Storage means;
The music information of the music reproduced by the music reproduction means and the position information output by the current location detection means at the time of reproduction of the music are stored in the storage means in association with each other,
If there is position information that matches the position information of the current position detected by the current position detection means and the position information stored in the storage means, the music of the music information associated with the matched position information is the music Control means for causing the reproduction means to reproduce,
An information processing apparatus comprising:
自機の現在地を検出して位置情報を出力する現在地検出手段と、
楽曲を再生する楽曲再生手段と、
画像を再生する画像再生手段と、
記憶手段と、
前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、当該楽曲が再生された再生日時情報と、当該再生日時情報と一致する撮影日時情報を有した画像情報と、を関連付けて前記記憶手段に記憶させ、
前記画像再生手段による画像再生時、当該画像の画像情報に関連付けられた位置情報を前記画像再生手段に再生させ、且つ/又は、当該画像情報に関連付けられた楽曲情報の楽曲を前記楽曲再生手段に再生させる制御手段と、
を備える情報処理装置。
Current location detection means for detecting the current location of the aircraft and outputting position information;
Music playback means for playing back music;
Image reproduction means for reproducing an image;
Storage means;
The music information of the music played by the music playback means, the position information output by the current location detection means when the music is played back, the playback date information when the music is played back, and the shooting date and time that matches the playback date information The image information having information is associated with and stored in the storage means,
At the time of image reproduction by the image reproduction means, the position information associated with the image information of the image is reproduced by the image reproduction means, and / or the music of the music information associated with the image information is transmitted to the music reproduction means. Control means for regenerating,
An information processing apparatus comprising:
自機の現在地を検出する現在地検出手段と、
楽曲を再生する楽曲再生手段と、
画像を再生する画像再生手段と、
記憶手段と、
前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、当該楽曲が再生された再生日時情報と、当該再生日時情報と一致する撮影日時情報を有した画像情報と、を関連付けて前記記憶手段に記憶させ、
前記楽曲再生手段による楽曲再生時、当該楽曲の楽曲情報に関連付けられた位置情報を前記画像再生手段に再生させ、且つ/又は、当該楽曲情報に関連付けられた画像情報の画像を前記画像再生手段に再生させる制御手段と、
を備える情報処理装置。
Current location detection means for detecting the current location of the aircraft,
Music playback means for playing back music;
Image reproduction means for reproducing an image;
Storage means;
The music information of the music played by the music playback means, the position information output by the current location detection means when the music is played back, the playback date information when the music is played back, and the shooting date and time that matches the playback date information The image information having information is associated with and stored in the storage means,
At the time of music playback by the music playback means, the image playback means plays back the position information associated with the music information of the music and / or the image of the image information associated with the music information is sent to the image playback means. Control means for regenerating,
An information processing apparatus comprising:
外部記憶媒体から撮影日時情報を有した画像情報を取得する取得手段を更に備え、
前記制御手段は、
前記取得手段により画像情報が取得された際、当該取得された画像情報に対して、前記関連付けの処理を行い、当該画像情報を前記記憶手段に記憶させる、
請求項2又は3に記載の情報処理装置。
Further comprising an acquisition means for acquiring image information having shooting date and time information from an external storage medium;
The control means includes
When image information is acquired by the acquisition unit, the association processing is performed on the acquired image information, and the image information is stored in the storage unit.
The information processing apparatus according to claim 2 or 3.
前記楽曲再生手段は、前記情報処理装置に接続される外部の楽曲再生機器である、
請求項1〜4の何れか一項に記載の情報処理装置。
The music playback means is an external music playback device connected to the information processing apparatus.
The information processing apparatus according to any one of claims 1 to 4.
前記楽曲再生手段及び前記記憶手段は、前記情報処理装置に接続される外部の機器であり、
前記機器は、
画像を再生する画像再生手段と、
外部記憶媒体から撮影日時情報を有した画像情報を取得する取得手段と、
前記取得手段により画像情報が取得された際、前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、当該楽曲が再生された再生日時情報と、当該再生日時情報と一致する撮影日時情報を有した前記取得手段により取得された画像情報と、を関連付けて前記記憶手段に記憶させ、
前記画像再生手段による画像再生時、当該画像の画像情報に関連付けられた位置情報を前記画像再生手段に再生させ、且つ/又は、当該画像情報に関連付けられた楽曲情報の楽曲を前記楽曲再生手段に再生させる第2制御手段と、
を有する、
請求項1に記載の情報処理装置。
The music playback means and the storage means are external devices connected to the information processing apparatus,
The equipment is
Image reproduction means for reproducing an image;
Obtaining means for obtaining image information having shooting date and time information from an external storage medium;
When the image information is acquired by the acquisition means, the music information of the music played by the music playback means, the position information output by the current location detection means when the music is played back, and the playback date and time when the music is played back Information and the image information acquired by the acquisition unit having the shooting date and time information matching the reproduction date and time information are associated with each other and stored in the storage unit,
At the time of image reproduction by the image reproduction means, the position information associated with the image information of the image is reproduced by the image reproduction means, and / or the music of the music information associated with the image information is transmitted to the music reproduction means. Second control means for reproducing;
Having
The information processing apparatus according to claim 1.
前記楽曲再生手段及び前記記憶手段は、前記情報処理装置に接続される外部の機器であり、
前記機器は、
画像を再生する画像再生手段と、
外部記憶媒体から撮影日時情報を有した画像情報を取得する取得手段と、
前記取得手段により画像情報が取得された際、前記楽曲再生手段が再生した楽曲の楽曲情報と、当該楽曲の再生時に前記現在地検出手段により出力される位置情報と、当該楽曲が再生された再生日時情報と、当該再生日時情報と一致する撮影日時情報を有した前記取得手段により取得された画像情報と、を関連付けて前記記憶手段に記憶させ、
前記楽曲再生手段による楽曲再生時、当該楽曲の楽曲情報に関連付けられた位置情報を前記画像再生手段に再生させ、且つ/又は、当該楽曲情報に関連付けられた画像情報の画像を前記画像再生手段に再生させる第2制御手段と、
を有する、
請求項1に記載の情報処理装置。
The music playback means and the storage means are external devices connected to the information processing apparatus,
The equipment is
Image reproduction means for reproducing an image;
Obtaining means for obtaining image information having shooting date and time information from an external storage medium;
When the image information is acquired by the acquisition means, the music information of the music played by the music playback means, the position information output by the current location detection means when the music is played back, and the playback date and time when the music is played back Information and the image information acquired by the acquisition unit having the shooting date and time information matching the reproduction date and time information are associated with each other and stored in the storage unit,
At the time of music playback by the music playback means, the image playback means plays back the position information associated with the music information of the music and / or the image of the image information associated with the music information is sent to the image playback means. Second control means for reproducing;
Having
The information processing apparatus according to claim 1.
JP2007126786A 2007-05-11 2007-05-11 Information processing device Active JP5151243B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007126786A JP5151243B2 (en) 2007-05-11 2007-05-11 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007126786A JP5151243B2 (en) 2007-05-11 2007-05-11 Information processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012254009A Division JP2013054770A (en) 2012-11-20 2012-11-20 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2008279929A true JP2008279929A (en) 2008-11-20
JP5151243B2 JP5151243B2 (en) 2013-02-27

Family

ID=40141110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007126786A Active JP5151243B2 (en) 2007-05-11 2007-05-11 Information processing device

Country Status (1)

Country Link
JP (1) JP5151243B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119125A (en) * 2010-04-26 2011-11-02 엘지전자 주식회사 Mobile terminal and operation method thereof
JP2014048831A (en) * 2012-08-30 2014-03-17 Toyota Motor Corp Portable terminal device, on-vehicle device, and information processing system
WO2014155766A1 (en) * 2013-03-27 2014-10-02 富士ゼロックス株式会社 Information processing device and information processing program
JP2015007882A (en) * 2013-06-25 2015-01-15 株式会社バッファロー Information processing apparatus, music data extraction method for information processing, program, and information processing system
JP2015225368A (en) * 2014-05-26 2015-12-14 日産自動車株式会社 Shared vehicle management device and shared vehicle management method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038352A (en) * 2003-07-18 2005-02-10 Sony Corp Reproduction device, reproduction system and reproduction control method
JP2005236829A (en) * 2004-02-23 2005-09-02 Sanyo Electric Co Ltd Content reproducing apparatus
JP2006135895A (en) * 2004-11-09 2006-05-25 Olympus Corp Image recording/reproducing system and electronic album creation system
JP2006338553A (en) * 2005-06-03 2006-12-14 Sharp Corp Content reproducing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038352A (en) * 2003-07-18 2005-02-10 Sony Corp Reproduction device, reproduction system and reproduction control method
JP2005236829A (en) * 2004-02-23 2005-09-02 Sanyo Electric Co Ltd Content reproducing apparatus
JP2006135895A (en) * 2004-11-09 2006-05-25 Olympus Corp Image recording/reproducing system and electronic album creation system
JP2006338553A (en) * 2005-06-03 2006-12-14 Sharp Corp Content reproducing device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119125A (en) * 2010-04-26 2011-11-02 엘지전자 주식회사 Mobile terminal and operation method thereof
KR101645185B1 (en) 2010-04-26 2016-08-03 엘지전자 주식회사 Mobile terminal and operation method thereof
JP2014048831A (en) * 2012-08-30 2014-03-17 Toyota Motor Corp Portable terminal device, on-vehicle device, and information processing system
WO2014155766A1 (en) * 2013-03-27 2014-10-02 富士ゼロックス株式会社 Information processing device and information processing program
JP2014192718A (en) * 2013-03-27 2014-10-06 Fuji Xerox Co Ltd Information processing device and information processing program
AU2013383808B2 (en) * 2013-03-27 2016-05-12 Fujifilm Business Innovation Corp. Information processing device and information processing program
US9904691B2 (en) 2013-03-27 2018-02-27 Fuji Xerox Co., Ltd. Information processing device and non-transitory computer readable medium
JP2015007882A (en) * 2013-06-25 2015-01-15 株式会社バッファロー Information processing apparatus, music data extraction method for information processing, program, and information processing system
JP2015225368A (en) * 2014-05-26 2015-12-14 日産自動車株式会社 Shared vehicle management device and shared vehicle management method

Also Published As

Publication number Publication date
JP5151243B2 (en) 2013-02-27

Similar Documents

Publication Publication Date Title
JP4562471B2 (en) Navigation device and traveling direction guide method
US20090125235A1 (en) Method of updating navigation map data
US8315803B2 (en) Vehicle navigation system including movable display device
JPH09114489A (en) Device and method for speech recognition, device and method for navigation, and automobile
JP6324196B2 (en) Information processing apparatus, information processing method, and information processing system
JP5151243B2 (en) Information processing device
WO2006101012A1 (en) Map information update device, map information update method, map information update program, and computer-readable recording medium
JP2013054770A (en) Information processing apparatus, information processing method, and program
JP2010210339A (en) On-vehicle navigation device, and method and program of controlling the on-vehicle navigation device
JP2006078357A (en) Navigation system and navigation method
JP4499586B2 (en) Image correction system and image correction method
JP2009098756A (en) Information provision device, information provision method, and program
JP2008226331A (en) Navigation system
WO2006109469A1 (en) Music composition support device, music composition support method, music composition support program, and recording medium
JP2006170753A (en) Vehicle-mounted multimedia system, vehicle-mounted multimedia device and portable player
JP2006064654A (en) Navigation apparatus and method
JP2000310543A (en) Car navigation system
JP2006234638A (en) Information recording device for vehicle
JP4665838B2 (en) Vehicle navigation device, image data processing device, and computer program
JP6925175B2 (en) Vehicle equipment and information processing method
JP2004117176A (en) Navigation device
JP4900599B2 (en) Navigation device
JP2007218642A (en) Car navigation system and method and program used in the same for overwriting map
JP2006047444A (en) Navigation system and map data updating method
JP2003187523A (en) On-vehicle information processor and program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110415

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5151243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150