JP2007013286A - Data processing apparatus, data processing method, and program - Google Patents

Data processing apparatus, data processing method, and program Download PDF

Info

Publication number
JP2007013286A
JP2007013286A JP2005188059A JP2005188059A JP2007013286A JP 2007013286 A JP2007013286 A JP 2007013286A JP 2005188059 A JP2005188059 A JP 2005188059A JP 2005188059 A JP2005188059 A JP 2005188059A JP 2007013286 A JP2007013286 A JP 2007013286A
Authority
JP
Japan
Prior art keywords
data
imaging
audio
processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005188059A
Other languages
Japanese (ja)
Other versions
JP4517957B2 (en
Inventor
Koichi Matsuda
晃一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005188059A priority Critical patent/JP4517957B2/en
Publication of JP2007013286A publication Critical patent/JP2007013286A/en
Application granted granted Critical
Publication of JP4517957B2 publication Critical patent/JP4517957B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a data processing apparatus capable of attaching information associated with music or the like having been heard by a user in imaging to imaging data. <P>SOLUTION: The data processing apparatus includes: imaging data capturing means (22, 21a) for capturing imaging data; an attachment processing means (21d) for attaching audio related data with respect to audio data having been reproduced at a date and time of the imaging data to the imaging data; and a recording control means (21c) for recording the image data to which the audio related data are attached by the attachment processing means to a recording medium (25). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明はデータ処理装置、データ処理方法、及びプログラムに関し、例えばデジタルスチルカメラ装置やパーソナルコンピュータなどの装置や、それらの動作プログラムとして適用できるものである。   The present invention relates to a data processing apparatus, a data processing method, and a program, and can be applied as an apparatus such as a digital still camera apparatus or a personal computer, or an operation program thereof.

特開2004−32129号公報JP 2004-32129 A

一般に普及しているデジタルスチルカメラでは、CCDセンサ或いはCMOSセンサなどの固体撮像素子を用いて被写体の画像信号を得、これを撮像した画像データとして記録媒体に記録する。撮像データ(静止画データ)を記録する記録媒体としては、フラッシュメモリを内蔵するメモリカードが用いられたり、或いは光ディスク、光磁気ディスク、HDD(Hard Disc Drive)などのディスクメディアが用いられる。
これらの記録媒体に記録された撮像データは、ユーザの操作に応じて表示部に表示させたり、パーソナルコンピュータ等に転送して閲覧することなどができる。
In a digital still camera that is widely used, an image signal of a subject is obtained using a solid-state imaging device such as a CCD sensor or a CMOS sensor, and is recorded on a recording medium as captured image data. As a recording medium for recording imaging data (still image data), a memory card incorporating a flash memory is used, or a disk medium such as an optical disk, a magneto-optical disk, or an HDD (Hard Disc Drive) is used.
The imaging data recorded on these recording media can be displayed on a display unit or transferred to a personal computer or the like according to a user operation.

また、CD(Compact Disc)、MD(Mini Disc)、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-Ray Disc)などのディスクメディアを用いた携帯用音楽プレーヤや、或いはHDDやメモリカードを用いた携帯用音楽プレーヤも広く利用されている。
さらには、メディアの大容量化、機器の複合機能化などの状況により、より多様な電子機器が開発されている。例えばディスクメディアを用いた携帯用音楽プレーヤに画像表示機能やデジタルカメラ機能を持たせたものも開発されている。
Also, portable music players using disc media such as CD (Compact Disc), MD (Mini Disc), DVD (Digital Versatile Disc), Blu-ray Disc (Blu-Ray Disc), or HDD or memory card were used. Portable music players are also widely used.
In addition, a variety of electronic devices have been developed in accordance with situations such as an increase in media capacity and a combination of devices. For example, a portable music player using a disk medium having an image display function and a digital camera function has been developed.

このように多様な機器が普及する中、ユーザーが携帯型音楽プレーヤで音楽を聴きながらデジタルスチルカメラで写真撮影を行うという状況がみられるようになってきた。さらに、カメラ機能を備えた音楽プレーヤによれば、一台の機器で、音楽再生を楽しみつつ写真撮影を行うといったことも容易となっている。   As such various devices become widespread, it has become possible for users to take pictures with a digital still camera while listening to music with a portable music player. Furthermore, according to a music player having a camera function, it is easy to take a picture while enjoying music playback with a single device.

写真は、ユーザーにとって記念になるものであるが、音楽もユーザーにとって、その時々の状況、環境、感情などを反映することも多い。例えば後の時点で、音楽により当時の気持ちを思い起こすといったこともある。つまり写真としての画像だけでなく、その時々にユーザーが聞いていた音楽も、記念や思い出として重要な要素となる。
そして、特に音楽を聴きながら写真を撮るという機会が多くなると、写真(撮像データ)と合わせて、その聞いていた音楽についても何らかの形で記録しておけるとユーザーにとって好ましい。
そこで本発明はユーザーが撮像を行ったときに聴いていた音楽等に関連する情報を撮像データに貼付できるようにすることを目的とする。
Pictures are a memorial to the user, but music often reflects the situation, environment, and emotions of the user. For example, at a later point in time, music sometimes reminds me of my feelings. In other words, not only images as photos, but also the music that users listened to at that time is an important element for commemoration and memories.
In particular, when there are many opportunities to take a picture while listening to music, it is preferable for the user to record the music that has been heard together with the picture (imaging data) in some form.
Accordingly, an object of the present invention is to enable information related to music or the like that was being listened to when a user took an image to be pasted on the image data.

本発明のデータ処理装置は、撮像データを取り込む撮像データ取込手段と、上記撮像データに対して、その撮像データの撮像日時に再生されていたオーディオデータに関するオーディオ関連データを貼付する貼付処理手段と、上記貼付処理手段でオーディオ関連データが貼付された撮像データを記録媒体に記録させる記録制御手段とを備える。   The data processing apparatus of the present invention includes imaging data capturing means for capturing imaging data, and pasting processing means for pasting audio-related data related to audio data reproduced at the imaging date and time of the imaging data to the imaging data. And recording control means for recording on the recording medium the imaging data to which the audio-related data is pasted by the pasting processing means.

上記撮像データ取込手段は、被写体画像を撮像する撮像部として構成されたり、或いは外部機器とのデータ通信により、外部機器から送信されてくる撮像データを取り込むことができる構成とされる。
即ち例えばカメラ装置、或いは外部のカメラ装置から送信されてくる撮像データを取り込む装置において、本発明のデータ処理装置を実現できる。
The imaging data capturing unit is configured as an imaging unit that captures a subject image, or configured to capture imaging data transmitted from an external device through data communication with the external device.
That is, for example, the data processing apparatus of the present invention can be realized in an apparatus that captures imaging data transmitted from a camera apparatus or an external camera apparatus.

また上記撮像データ取込手段が撮像部として構成される場合において、オーディオデータを再生するオーディオ再生手段をさらに備え、上記貼付処理手段は、上記撮像部で撮像を実行した時点に上記オーディオ再生手段で再生されていたオーディオデータに関するオーディオ関連データを取得し、上記撮像部で撮像された撮像データに貼付する。
つまり、カメラ装置とオーディオ再生装置が一体化した機器として本発明のデータ処理装置を実現する場合には、撮像時に聴いていた音楽等についてのオーディオ関連データを、装置内で取得できるため、撮像時に、オーディオ関連データを取得し、これを撮像データに貼付する。
In the case where the imaging data capturing unit is configured as an imaging unit, the imaging data capturing unit further includes an audio reproducing unit that reproduces audio data, and the pasting processing unit is the audio reproducing unit when the imaging unit executes imaging. Audio-related data related to the audio data that has been reproduced is acquired and pasted to the image data captured by the image capturing unit.
That is, when the data processing device of the present invention is realized as an apparatus in which the camera device and the audio playback device are integrated, audio-related data regarding music or the like that was being listened to at the time of imaging can be acquired within the device, Audio-related data is acquired, and this is attached to the imaging data.

また上記撮像データ取込手段が撮像部として構成される場合において、外部のオーディオ再生装置から、そのオーディオ再生装置で再生されたオーディオデータについての再生日時情報とオーディオ関連データを含む聴取データを取得する聴取データ取得手段をさらに備え、上記貼付処理手段は、上記撮像部で撮像された撮像データに含まれる撮像日時情報と、上記聴取データ取得手段によって取得された上記聴取データにおける再生日時情報を用いて、撮像データに、上記聴取データに含まれるオーディオ関連データを貼付する処理を行う。
例えばカメラ装置として本発明のデータ処理装置を実現する場合に、他のオーディオ再生装置で聴いていた音楽等に関連するオーディオ関連データを貼付するには、外部のオーディオ再生装置から上記聴取データを取得するようにすればよい。すると、日時情報の照合により、撮像データとオーディオ関連データを対応させることができ、それによって撮像データにオーディオ関連データを貼付できる。
When the imaging data capturing means is configured as an imaging unit, listening data including playback date / time information and audio related data for audio data played back by the audio playback device is acquired from an external audio playback device. Further comprising listening data acquisition means, wherein the pasting processing means uses imaging date / time information included in the imaging data imaged by the imaging unit and reproduction date / time information in the listening data acquired by the listening data acquisition means. Then, the audio data included in the listening data is attached to the image data.
For example, when the data processing device of the present invention is realized as a camera device, in order to attach audio-related data related to music or the like that was being listened to by another audio playback device, the above listening data is obtained from an external audio playback device You just have to do it. Then, by comparing the date and time information, the imaging data and the audio-related data can be associated with each other, and thereby the audio-related data can be attached to the imaging data.

また上記撮像データ取込手段が、外部機器から送信されてくる撮像データを取り込む構成とされる場合、外部のオーディオ再生装置から、そのオーディオ再生装置で再生されたオーディオデータについての再生日時情報とオーディオ関連データを含む聴取データを取得する聴取データ取得手段をさらに備え、上記貼付処理手段は、上記撮像データ取込手段で取り込んだ撮像データに含まれる撮像日時情報と、上記聴取データ取得手段によって取得された上記聴取データにおける再生日時情報を用いて、撮像データに、上記聴取データに含まれるオーディオ関連データを貼付する処理を行う。
つまり本発明のデータ処理装置が、外部のカメラ装置等での撮像データに、外部のオーディオ再生装置で再生された音楽等のオーディオ関連データを貼付する装置とする場合、外部のオーディオ再生装置から上記聴取データを取得し、また外部のカメラ装置等から取得する。そして日時情報の照合により、撮像データとオーディオ関連データを対応させ、撮像データにオーディオ関連データを貼付する。
Further, when the imaging data capturing means is configured to capture imaging data transmitted from an external device, reproduction date and time information and audio information about audio data reproduced by the audio reproducing device from an external audio reproducing device. It further includes listening data acquisition means for acquiring listening data including related data, and the pasting processing means is acquired by the imaging date and time information included in the imaging data acquired by the imaging data acquisition means and the listening data acquisition means. Using the reproduction date and time information in the listening data, a process of attaching audio-related data included in the listening data to the imaging data is performed.
That is, when the data processing apparatus of the present invention is an apparatus for attaching audio-related data such as music reproduced by an external audio reproducing apparatus to image data captured by an external camera apparatus or the like, the external audio reproducing apparatus can Listening data is acquired and acquired from an external camera device or the like. Then, by comparing the date and time information, the imaging data and the audio-related data are associated with each other, and the audio-related data is attached to the imaging data.

本発明のデータ処理方法は、撮像データを取り込む撮像データ取込ステップと、上記撮像データに対して、その撮像データの撮像日時に再生されていたオーディオデータに関するオーディオ関連データを貼付する貼付処理ステップと、上記貼付処理ステップでオーディオ関連データが貼付された撮像データを記録媒体に記録させる記録制御ステップとを備える。
また本発明のプログラムは、上記データ処理方法をデータ処理装置に実行させるプログラムである。
The data processing method of the present invention includes an imaging data capturing step for capturing imaging data, and a pasting processing step for pasting audio-related data relating to audio data reproduced at the imaging date and time of the imaging data to the imaging data, And a recording control step of recording the imaging data to which the audio-related data is pasted in the pasting step in a recording medium.
The program of the present invention is a program for causing a data processing apparatus to execute the data processing method.

なお、オーディオ関連データとは、例えば音楽等のオーディオデータの曲名、曲が収められているアルバムのタイトル、演奏者名、作詞作曲者名、楽曲のファイル名、楽曲のID情報等、聴いていた音楽をユーザーが後の時点で認識したりシステムで楽曲等を同定できるデータである。このオーディオ関連データとしては、オーディオデータ自体、例えば曲の一部などでもよい。
撮像データに対するオーディオ関連データの貼付とは、撮像データにオーディオ関連データを関連づけて記録することを言い、その記録の形式、ファイルフォーマット、管理形態などが問われるものではない。
The audio-related data refers to, for example, the title of audio data such as music, the title of the album in which the song is stored, the name of the performer, the name of the song composer, the name of the song, the ID information of the song, etc. This is data that allows the user to recognize music at a later point in time and identify music etc. with the system. The audio related data may be audio data itself, for example, a part of a song.
The attachment of audio-related data to imaging data refers to recording audio-related data in association with imaging data, and the recording format, file format, management form, etc. are not questioned.

本発明によれば、ユーザーが撮像した撮像データに対して、ユーザーが撮像時に聴いていた音楽等についてのオーディオ関連データが貼付して記録される。これによって撮像データを閲覧するときに曲名等のオーディオ関連データも共に提示したり、或いはオーディオ関連データで示される曲を再生装置に再生させたりして、ユーザーに写真撮影時に聴いていた音楽等を思い起こさせることができ、写真撮影の付加価値を高めることができる。   According to the present invention, audio-related data about music or the like that the user listened to at the time of imaging is pasted and recorded on the imaging data captured by the user. As a result, when browsing the image data, audio-related data such as song titles are presented together, or the music indicated by the audio-related data is played back on the playback device, so that the user can listen to the music, etc. that was being listened to when taking the photo It can remind you and can increase the added value of photography.

以下、本発明の実施の形態を次の順序で説明する。
[1.第1の実施の形態:オーディオ再生機能付きのカメラ装置]
[2.第2の実施の形態:コンピュータ装置]
[3.第3の実施の形態:カメラ装置]
[4.変形例及びプログラム]
Hereinafter, embodiments of the present invention will be described in the following order.
[1. First Embodiment: Camera Device with Audio Playback Function]
[2. Second Embodiment: Computer Device]
[3. Third Embodiment: Camera Device]
[4. Modifications and Program]

[1.第1の実施の形態:オーディオ再生機能付きのカメラ装置]

オーディオ再生機能付きのデジタルスチルカメラにおいて本発明のデータ処理装置を実現する例を第1の実施の形態として説明する。
図1はオーディオ再生機能付きのカメラ装置20の要部の構成を示している。なお、オーディオ再生機能付きのカメラ装置としての具体的な構成例は図4〜図7で後述する。
[1. First Embodiment: Camera Device with Audio Playback Function]

An example of realizing the data processing apparatus of the present invention in a digital still camera with an audio playback function will be described as a first embodiment.
FIG. 1 shows a configuration of a main part of a camera device 20 with an audio playback function. A specific configuration example as a camera device with an audio playback function will be described later with reference to FIGS.

図1のカメラ装置20においては、制御部21、撮像部22、オーディオ再生処理部23、記録再生部24、撮像レンズ機構26が設けられる。
撮像部22は、撮像レンズ機構26から入射される被写体光を受光し、電気信号に変換して各種処理を行い、撮像データを得る。
記録再生部24は、記録メディア25に対してデータの記録再生を行う。記録メディア25としては、光ディスクや不揮発性メモリを内蔵したメモリカードなど、装置に着脱可能な可搬性のメディアでもよいし、ハードディスク(磁気ディスク)、或いは固体メモリなどとして装置に着脱不能に内蔵されるものでもよい。記録再生部24は、これらの記録メディア25に応じて、データの変復調、エラー訂正コード処理、メディアアクセス処理を行って各種データの記録再生を行う。
記録再生部24は、撮像部22で得られた撮像データ(静止画データ)を記録メディア25に記録する処理を行う。また、記録再生部24は、記録メディア25に記録された撮像データを図1には示していない表示部に表示させるために読み出す処理を行う。
また記録メディア25にオーディオデータが記録されている場合、記録再生部24は記録メディア25からオーディオデータを再生する処理も行う。
In the camera device 20 of FIG. 1, a control unit 21, an imaging unit 22, an audio reproduction processing unit 23, a recording / reproducing unit 24, and an imaging lens mechanism 26 are provided.
The imaging unit 22 receives subject light incident from the imaging lens mechanism 26, converts it into an electrical signal, performs various processes, and obtains imaging data.
The recording / reproducing unit 24 records and reproduces data on the recording medium 25. The recording medium 25 may be a portable medium that can be attached to and detached from the apparatus, such as an optical disk or a memory card with a built-in nonvolatile memory, or a hard disk (magnetic disk) or a solid memory that is detachably incorporated into the apparatus. It may be a thing. The recording / reproducing unit 24 performs data modulation / demodulation, error correction code processing, and media access processing in accordance with these recording media 25 to record / reproduce various data.
The recording / reproducing unit 24 performs processing for recording the imaging data (still image data) obtained by the imaging unit 22 on the recording medium 25. In addition, the recording / reproducing unit 24 performs a process of reading the captured image data recorded on the recording medium 25 so as to be displayed on a display unit not shown in FIG.
When audio data is recorded on the recording medium 25, the recording / reproducing unit 24 also performs processing for reproducing audio data from the recording medium 25.

例えば記録メディア25には、図3(a)に模式的に示すように撮像データやオーディオデータが記録できる。撮像データファイルPH1,PH2,PH3・・・として、撮像部22で得られた撮像データが記録される。各撮像データファイルは、撮像ファイル管理データによる管理された状態で格納される。
またオーディオコンテンツファイルM1,M2,M3・・・として楽曲等のオーディオデータが記録される。各オーディオコンテンツファイルM1,M2,M3・・・はオーディオ管理データによって管理された状態で格納される。
撮像データファイルPHは、例えばExif(Exchangeable Image File Format)規格のファイルとされる。データ内容としては、図3(b)に示すように、ファイルヘッダと、例えばJPEG(Joint Photographic Experts Group)方式の圧縮データなどとしての撮像データが含まれる。ファイルヘッダには、ファイル名、データサイズ、ファイル形式、撮像日時などの情報が含まれる。
For example, image data and audio data can be recorded on the recording medium 25 as schematically shown in FIG. Imaging data obtained by the imaging unit 22 is recorded as imaging data files PH1, PH2, PH3. Each imaging data file is stored in a state managed by imaging file management data.
Audio data such as music is recorded as audio content files M1, M2, M3. Each audio content file M1, M2, M3... Is stored in a state managed by audio management data.
The imaging data file PH is, for example, an Exif (Exchangeable Image File Format) standard file. As shown in FIG. 3B, the data content includes a file header and image data as, for example, JPEG (Joint Photographic Experts Group) compressed data. The file header includes information such as a file name, data size, file format, imaging date and time.

オーディオ再生処理部23は、記録再生部24によって読み出されたオーディオコンテンツファイルについてのオーディオデータ処理を行う。即ちデータデコード、デジタルオーディオ処理、D/A変換、アナログオーディオ処理等を行い、アナログオーディオ信号としての再生音声信号を得る。再生音声信号は、例えば接続されたヘッドホン90によって再生出力される。   The audio playback processing unit 23 performs audio data processing on the audio content file read by the recording / playback unit 24. That is, data decoding, digital audio processing, D / A conversion, analog audio processing, and the like are performed to obtain a reproduced audio signal as an analog audio signal. The reproduced audio signal is reproduced and output by the connected headphones 90, for example.

制御部21は、カメラ装置20の各部の動作をコントロールするCPU(Central Processing Unit)によって成る。そして動作プログラムによって形成されるソフトウエア機能として、撮像部22の撮像動作を制御する撮像制御部21a、オーディオ再生処理部23のオーディオ処理動作を制御するオーディオ処理制御部21b、記録再生部24の記録再生動作を制御する記録再生制御部21c、後述する音楽関連データの撮像データへの貼付処理を実行する貼付処理部21d、日時を計数する時計部21eを備える。   The control unit 21 includes a CPU (Central Processing Unit) that controls the operation of each unit of the camera device 20. As software functions formed by the operation program, an imaging control unit 21 a that controls the imaging operation of the imaging unit 22, an audio processing control unit 21 b that controls the audio processing operation of the audio playback processing unit 23, and a recording of the recording and playback unit 24 A recording / playback control unit 21c for controlling the playback operation, a pasting processing unit 21d for performing processing for pasting music-related data to imaging data, which will be described later, and a clock unit 21e for counting date and time are provided.

なお、この図1の構成では本発明請求項の構成要件が以下のように相当する。
撮像データ取込手段:撮像部22、撮像制御部21a。
貼付処理手段:貼付処理部21d。
記録制御手段:記録再生制御部21c。
オーディオ再生手段:オーディオ再生処理部23、オーディオ処理制御部21b、及び記録再生部24の再生系。
In the configuration of FIG. 1, the constituent features of the claims of the present invention correspond to the following.
Imaging data capturing means: imaging unit 22, imaging control unit 21a.
Pasting processing means: pasting processing unit 21d.
Recording control means: a recording / reproducing control unit 21c.
Audio reproduction means: a reproduction system of the audio reproduction processing unit 23, the audio processing control unit 21b, and the recording / reproduction unit 24.

このようなカメラ装置20による撮像時の処理について図2で説明する。
図示しないシャッタボタンをユーザーが操作すると、それに応じて撮像部26で被写体画像を取り込む撮像処理が行われる。制御部21(撮像制御部21a)はステップF101として、シャッタ操作に応じて撮像部22を制御し、撮像処理、つまり静止画データの取込処理を実行させる。
このときステップF102で制御部21は、そのシャッタ操作時点(撮像時点)でオーディオ再生中であるか否かを判断し、処理を分岐する。
オーディオ再生中でなければ、ステップF106で、制御部21(撮像制御部21a)は、撮像部22で取り込んだ撮像データのファイル化を実行させる。即ち、ファイル名、時計部21eで得られる日時情報(年月日時分秒)、ファイル形式等のヘッダ情報を撮像部22に与え、また撮像データについての圧縮エンコードを実行させ、例えば図3(b)のような撮像データファイルとしてのデータを生成させる。
そして制御部21(撮像制御部21a及び記録再生制御部21c)は、ステップF105で、撮像データファイルを記録メディア25に記録させる。即ち撮像部22で生成させた撮像データファイルとしてのデータを記録再生部24に転送させ、メディア種別に応じた記録用のエンコード処理等を実行させて記録メディア25に記録させる。
The processing at the time of imaging by such a camera device 20 will be described with reference to FIG.
When the user operates a shutter button (not shown), an imaging process for capturing a subject image is performed by the imaging unit 26 accordingly. In step F101, the control unit 21 (imaging control unit 21a) controls the imaging unit 22 according to the shutter operation, and executes an imaging process, that is, a still image data capturing process.
At this time, in step F102, the control unit 21 determines whether or not the audio is being played back at the shutter operation time point (image pickup time point), and branches the processing.
If the audio is not being reproduced, the control unit 21 (imaging control unit 21a) causes the imaging data captured by the imaging unit 22 to be filed in step F106. That is, the file name, date / time information (year / month / day / hour / minute / second) obtained by the clock unit 21e, header information such as a file format, etc. are given to the imaging unit 22, and compression encoding is performed on the imaging data. ) Is generated as an imaging data file.
Then, the control unit 21 (the imaging control unit 21a and the recording / playback control unit 21c) records the imaging data file on the recording medium 25 in step F105. That is, data as an imaging data file generated by the imaging unit 22 is transferred to the recording / reproducing unit 24 and recorded on the recording medium 25 by performing a recording encoding process or the like according to the media type.

一方、ステップF102でオーディオ再生中であると判断されたら、ステップF103に進む。オーディオ再生中とは、記録再生制御部21c及びオーディオ処理制御部21bの制御に基づいて、記録再生部24が記録メディア25からオーディオコンテンツファイルを読み出し、オーディオ再生処理部23がオーディオ処理を行って再生音声を出力している場合、つまりユーザーが音楽等を聴いている場合である。
この場合は、制御部21(貼付処理部21d)はステップF103で、再生中の楽曲等の音楽関連データを取得する。例えば図3に示したオーディオ管理データ、或いはオーディオコンテンツファイルのヘッダ情報等に記述されている曲名、アルバム名、アーティスト名などの情報やオーディオコンテンツファイルとしてのファイル名やコンテンツIDなどの情報を取得する。制御部21は、オーディオ管理データやファイルヘッダは、オーディオ再生に先だって記録メディア25から読み出しているため、それらの管理データ内容から、音楽関連データを取得することができる。
ステップF104では、制御部21(撮像制御部21a及び貼付処理部21d)は、撮像データファイルを生成させるが、このときに音楽関連データを貼付する。
即ち、撮像データのファイル名、時計部21eで得られる日時情報(年月日時分秒)、ファイル形式等のヘッダ情報を撮像部22に与え、また撮像データについての圧縮エンコードを実行させる。さらにステップF103で取得した音楽関連データを撮像部22に与え、撮像データファイルに貼付させる。これにより例えば図3(c)のような内容の撮像データファイルを生成させる。つまり撮像データに、そのとき聴いていた音楽についての音楽関連データを付加したものである。
そして制御部21(撮像制御部21a及び記録再生制御部21c)は、ステップF105で、撮像データファイルを記録メディア25に記録させる。即ち撮像部22で生成させた撮像データファイルとしてのデータを記録再生部24に転送させ、メディア種別に応じた記録用のエンコード処理等を実行させて記録メディア25に記録させる。これによって図3(c)のような撮像データファイルが記録されることになる。
On the other hand, if it is determined in step F102 that audio is being reproduced, the process proceeds to step F103. During the audio playback, the recording / playback unit 24 reads the audio content file from the recording medium 25 based on the control of the recording / playback control unit 21c and the audio processing control unit 21b, and the audio playback processing unit 23 performs the audio processing and playback. This is the case where sound is output, that is, the user is listening to music or the like.
In this case, the control unit 21 (the pasting processing unit 21d) acquires music-related data such as the music being played back in step F103. For example, information such as a song name, album name, artist name, etc. described in the audio management data shown in FIG. 3 or the header information of the audio content file, information such as the file name and content ID as an audio content file is acquired. . Since the audio management data and the file header are read from the recording medium 25 prior to audio reproduction, the control unit 21 can acquire music related data from the contents of the management data.
In step F104, the control unit 21 (the imaging control unit 21a and the pasting processing unit 21d) generates an imaging data file. At this time, the music-related data is pasted.
That is, header information such as the file name of the imaging data, date / time information (year / month / day / hour / minute / second) obtained by the clock unit 21e, and the file format is given to the imaging unit 22, and compression encoding of the imaging data is executed. Further, the music-related data acquired in step F103 is given to the imaging unit 22 and pasted to the imaging data file. Thereby, for example, an imaging data file having the contents as shown in FIG. That is, music-related data about the music that was being listened to at that time is added to the imaging data.
Then, the control unit 21 (the imaging control unit 21a and the recording / playback control unit 21c) records the imaging data file on the recording medium 25 in step F105. That is, data as an imaging data file generated by the imaging unit 22 is transferred to the recording / reproducing unit 24 and recorded on the recording medium 25 by performing a recording encoding process or the like according to the media type. As a result, an imaging data file as shown in FIG. 3C is recorded.

以上のように、ユーザーが音楽等を聴きながら写真撮影操作を行った場合、取り込まれた撮像データに対して聴いていた音楽等についての音楽関連データが貼付されて記録メディア25に保存される。
このように音楽関連データが貼付された撮像データファイルを記録メディア25から読み出して表示させる場合、音楽関連データの内容(曲名、アーティスト名等)を共に表示したり、或いは、音楽関連データに含まれるファイル名のオーディオコンテンツファイルの再生を実行させることで、ユーザーは写真閲覧を行いながら、撮像時に聴いていた音楽を思い起こしたり、或いはその音楽を聴きながら写真を見るといったことが可能となる。
As described above, when the user performs a photography operation while listening to music or the like, music-related data regarding the music or the like that has been listened to the captured image data is pasted and stored in the recording medium 25.
When the imaging data file with the music-related data attached is read from the recording medium 25 and displayed, the contents of the music-related data (song name, artist name, etc.) are displayed together or included in the music-related data. By executing the reproduction of the audio content file having the file name, the user can recall the music that he / she listened to at the time of imaging while viewing the photograph, or can view the photograph while listening to the music.

このような動作を行う図1のカメラ装置20の具体的な構成を図4〜図7で説明する。
図4(a)(b)(c)(d)(e)(f)に、本例のカメラ装置20に相当するオーディオ・カメラ複合装置1の正面図、平面図、左側面図、右側面図、底面図、背面図を示す。
このオーディオ・カメラ複合装置1の筐体は、上部筐体2と下部筐体3から成り、上部筐体2は下部筐体3に対して開閉される構造を採っている。詳細な機構の説明は省略するが図4(e)に示す開閉操作子16を操作することで、上部筐体2が開かれた状態となり、いわゆるミニディスク方式のディスクの装填機構が表出する。そしてディスクが装填された状態で上部筐体2を閉じることで、筐体内部でディスクに対する情報の記録又は再生が実行される。
このオーディオ・カメラ複合装置1は、ディスクを装填することにより、そのディスクに記録されているオーディオデータ(楽曲等)の再生を行うことができ、携帯用のオーディオプレーヤとして機能する。またディスクに対して撮像データの記録再生を行うことができ、デジタルスチルカメラとしても機能することになる。
A specific configuration of the camera apparatus 20 of FIG. 1 performing such an operation will be described with reference to FIGS.
4 (a), (b), (c), (d), (e), and (f), a front view, a plan view, a left side view, and a right side view of an audio / camera composite device 1 corresponding to the camera device 20 of this example. A figure, a bottom view, and a rear view are shown.
The audio camera / camera combined device 1 has an upper case 2 and a lower case 3, and the upper case 2 is configured to be opened and closed with respect to the lower case 3. Although a detailed description of the mechanism is omitted, by operating the opening / closing operator 16 shown in FIG. 4E, the upper housing 2 is opened, and a so-called mini-disc type disk loading mechanism appears. . Then, by closing the upper housing 2 with the disc loaded, information is recorded or reproduced on the disc inside the housing.
The audio / camera combined apparatus 1 can play back audio data (music, etc.) recorded on the disc by loading the disc, and functions as a portable audio player. In addition, the image data can be recorded and reproduced with respect to the disc, and it functions as a digital still camera.

図4(a)のように筐体正面には、例えば液晶パネル等による表示部4が設けられている。この表示部4には、オーディオ再生時には、光ディスクに記録されたオーディオデータの選択のための一覧や操作メニュー、再生中のトラックナンバ、進行時間や総演奏時間などの時間情報、操作ガイド、或いはアルバムジャケット画像やトラックに関連づけられた画像などが表示される。
またカメラ動作時は、撮像スタンバイ状態にあるときは、その際に撮像素子で取り込まれている被写体画像(実動画)や、シャッタ操作した時点で撮像された静止画像(写真画像)が表示され、また写真閲覧状態にあるときは、過去に撮像した写真(光ディスクに記録された撮像データ)の再生画像やサムネイル画像が表示される。
As shown in FIG. 4A, a display unit 4 such as a liquid crystal panel is provided on the front surface of the housing. The display unit 4 includes a list and an operation menu for selecting audio data recorded on the optical disc, a track number being played, time information such as a progress time and a total performance time, an operation guide, or an album during audio playback. A jacket image or an image associated with the track is displayed.
Also, when the camera is in operation, when it is in the imaging standby state, the subject image (actual moving image) captured by the image sensor at that time and the still image (photo image) captured when the shutter is operated are displayed. In the photo browsing state, a playback image or a thumbnail image of a photograph taken in the past (imaging data recorded on the optical disk) is displayed.

また筐体上の所定位置には各種の操作子が設けられている。
図4(a)に示すように筐体正面には操作子として、集中コントローラ5,サーチキー6,ストップ/キャンセルキー7、スライドショウ/ディスプレイキー8、メニューキー9が設けられる。また図4(b)に示すように筐体上面にはカメラオン/オフキー10、シャッタボタン11が設けられる。また図4(d)に示すように筐体側面にはボリュームキー12,ダウンロードキー13,ホールドスイッチ14が設けられる。
Various operators are provided at predetermined positions on the housing.
As shown in FIG. 4A, a central controller 5, a search key 6, a stop / cancel key 7, a slide show / display key 8, and a menu key 9 are provided as controls on the front of the casing. As shown in FIG. 4B, a camera on / off key 10 and a shutter button 11 are provided on the top surface of the housing. As shown in FIG. 4D, a volume key 12, a download key 13, and a hold switch 14 are provided on the side of the casing.

集中コントローラ5は、オーディオ再生動作、撮像データの閲覧動作について主たる操作を行う操作子とされる。集中コントローラ5は、まずその中央部としての突起を押圧するプッシュ操作が可能とされている。また中央部の突起を上下左右に傾ける操作も可能とされ、その上下左右への操作が、アップ操作、ダウン操作、レフト操作、ライト操作とされる。さらに集中コントローラ5の外周部分はいわゆるジョグダイヤルとして回転可能に形成されており、右回り或いは左回りのジョグ操作が可能とされている。
これらのプッシュ操作、アップ操作、ダウン操作、レフト操作、ライト操作、ジョグ操作は、それぞれモード状態に応じて所定の機能が割り当てられており、例えば再生、一時停止、停止、メニューや一覧表示上でのカーソル移動、決定、モード切換、トラック送り/戻し、早送り/早戻し等、ユーザーが実行する主たる操作機能の操作子となる。
The centralized controller 5 is an operator that performs main operations regarding the audio reproduction operation and the imaging data browsing operation. The centralized controller 5 is capable of a push operation that first presses the projection as the central portion. In addition, an operation of tilting the projection at the center portion up, down, left and right is possible, and the up, down, left and right operations are an up operation, a down operation, a left operation, and a right operation. Further, the outer peripheral portion of the centralized controller 5 is formed so as to be rotatable as a so-called jog dial so that a clockwise or counterclockwise jog operation is possible.
Each of these push operations, up operations, down operations, left operations, right operations, and jog operations is assigned a predetermined function according to the mode state. For example, playback, pause, stop, menu or list display This is a controller for the main operation functions executed by the user, such as cursor movement, determination, mode switching, track forward / reverse, fast forward / rewind.

サーチキー6は、サーチ操作のためのキーとされる。
ストップ/キャンセルキー7は、再生動作の停止や各種キャンセル操作のためのキーとされる。
スライドショウ/ディスプレイキー8は、スライドショウとして、例えば撮像データのスライドショウの指示や、各種表示モード、表示内容等を選択するキーとされる。
メニューキー9は、表示部4における操作メニュー表示のオン/オフ操作のためのキーとされる。
カメラオン/オフキー10はカメラ動作の起動及び終了を指示するキーとされる。
シャッタボタン11は、カメラモードにおいて撮像タイミングを指示するキーである。シャッタボタン11により写真画像の撮像が行われる。
ボリュームキー12は、オーディオ再生時の音量調整キーである。
ダウンロードキー13は、例えば当該オーディオ・カメラ複合装置1をパーソナルコンピュータに接続した場合などにおいて、データのダウンロードを実行させるためのキーである。
ホールドスイッチ14は、携帯時等の誤操作をなくすために、各操作子のキーの無効化(ホールド状態)を設定するスライド操作子である。
The search key 6 is a key for a search operation.
The stop / cancel key 7 is a key for stopping the reproduction operation and various cancel operations.
The slide show / display key 8 is, for example, a key for selecting a slide show instruction of image data, various display modes, display contents, and the like as a slide show.
The menu key 9 is a key for turning on / off the operation menu display on the display unit 4.
The camera on / off key 10 is a key for instructing activation and termination of camera operation.
The shutter button 11 is a key for instructing imaging timing in the camera mode. The shutter button 11 captures a photographic image.
The volume key 12 is a volume adjustment key for audio reproduction.
The download key 13 is a key for executing data download when the audio / camera combined apparatus 1 is connected to a personal computer, for example.
The hold switch 14 is a slide operation element for setting the key invalidation (hold state) of each operation element in order to eliminate an erroneous operation such as when carrying.

図4(e)のように筐体前面には、USB端子3が設けられ、USB方式のインターフェースで例えばパーソナルコンピュータ等と接続することが可能とされている。
図4(c)のように筐体側面にはヘッドホン/リモコン端子18が形成され、リモートコントローラ付きのヘッドホンが接続される。
図4(d)のように筐体側面にはバッテリーボックス開閉部3aが設けられ、このバッテリーボックス開閉部3aを開くことで、バッテリーの挿入/取り出しが可能となる。
As shown in FIG. 4E, a USB terminal 3 is provided on the front surface of the housing, and can be connected to, for example, a personal computer through a USB interface.
As shown in FIG. 4C, a headphone / remote control terminal 18 is formed on the side of the housing, and a headphone with a remote controller is connected.
As shown in FIG. 4 (d), a battery box opening / closing part 3a is provided on the side of the housing. By opening the battery box opening / closing part 3a, the battery can be inserted / removed.

図4(f)のように筐体背面側には、スライド操作可能なレンズカバー15が設けられている。レンズカバー15は、撮像レンズの保護のために設けられる。
図5(a)(b)に、レンズカバー15のスライドによる開閉状態を示す。
レンズカバー15は、図5(a)のような閉状態と、図5(b)のような開状態とにスライド可能とされている。図5(b)の開状態とすることで、撮像レンズ19aやフラッシュ発光部19bが表出され、カメラ撮像が可能な状態となる。また図5(a)の閉状態では、撮像レンズ19aやフラッシュ発光部19bが遮蔽され、レンズが保護される状態となる。
As shown in FIG. 4F, a lens cover 15 that can be slid is provided on the rear side of the housing. The lens cover 15 is provided for protecting the imaging lens.
5A and 5B show the open / closed state of the lens cover 15 by sliding.
The lens cover 15 is slidable between a closed state as shown in FIG. 5A and an open state as shown in FIG. By setting the opened state in FIG. 5B, the imaging lens 19a and the flash light emitting unit 19b are exposed, and the camera can be imaged. In the closed state of FIG. 5A, the imaging lens 19a and the flash light emitting unit 19b are shielded, and the lens is protected.

図6によりオーディオ・カメラ複合装置1の内部構成を説明する。
CPU30は装置全体の制御部として機能し、オーディオ再生動作、撮像動作や画像再生動作、表示部4の表示動作などのための制御、ユーザー操作の検知、外部機器との通信制御などを行う。CPU30はバス50を介して各部とデータや制御情報のやりとりを行う。
RAM(Random Access Memory)31は、CPU30が演算のワーク領域として用いたり、動作中の情報の記憶に用いる。
ROM(Read Only Memory)32は、CPU30が実行するプログラムや各種処理係数などが記憶される。
不揮発性メモリ33(NV−RAM(Non Volatile RAM)やフラッシュROM)は、各種係数、設定情報、リジュームポイント(再生停止時のアドレス)、その他、電源オフ時にも保持しておくべき情報の記憶に用いられる。
The internal configuration of the audio / camera combined apparatus 1 will be described with reference to FIG.
The CPU 30 functions as a control unit for the entire apparatus, and performs control for audio reproduction operation, imaging operation and image reproduction operation, display operation of the display unit 4, detection of user operation, communication control with external devices, and the like. The CPU 30 exchanges data and control information with each unit via the bus 50.
A RAM (Random Access Memory) 31 is used by the CPU 30 as a work area for computation, or for storing information during operation.
A ROM (Read Only Memory) 32 stores programs executed by the CPU 30, various processing coefficients, and the like.
The nonvolatile memory 33 (NV-RAM (Non Volatile RAM) or flash ROM) stores various coefficients, setting information, resume point (address when playback is stopped), and other information that should be retained even when the power is turned off. Used.

メディアドライブ部34は、CPU30の制御に基づいて、ディスク90、例えばミニディスク方式の光ディスク(又は光磁気ディスク)に対する記録再生を行う。このため、ディスク90に記録すべきデータについての記録フォーマットへのエンコード部、ディスク90からの再生データのデコード部、記録再生ヘッド、サーボ機構、スピンドルモータ機構などを備える。
バッファメモリ35は例えばSD−RAMにより構成され、このバッファメモリ35では、メディアドライブ部34に転送してディスク90に記録させるデータのバッファリングや、メディアドライブ部34でディスク90から読み出されたデータのバッファリングが行われる。オーディオ再生時には、ディスク90から読み出されたオーディオデータがバッファリングされる。
また、ディスク90に記録された管理情報、即ちデータの記録再生動作のために必要なディスク90の物理情報、エリア情報、記録されたデータファイル情報などは、ディスク90が装填された際に、CPU30の指示によってメディアドライブ部34によって読み出される(システムリード)が、これらの管理情報はバッファメモリ35の一部領域に格納され、CPU30が参照できるようにされる。なおCPU30は、バッファメモリ35に格納した管理情報をRAM31に取り込んで参照するようにしてもよい。
メモリインターフェース36は、バッファメモリ35に格納されるデータの転送処理やバッファメモリ内の書込/読出アドレスの制御処理を行う。
Under the control of the CPU 30, the media drive unit 34 performs recording / reproduction with respect to a disk 90, for example, a mini-disc type optical disk (or magneto-optical disk). For this reason, an encoding unit for recording format for data to be recorded on the disk 90, a decoding unit for reproducing data from the disk 90, a recording / reproducing head, a servo mechanism, a spindle motor mechanism, and the like are provided.
The buffer memory 35 is constituted by, for example, an SD-RAM. In the buffer memory 35, data that is transferred to the media drive unit 34 and recorded on the disk 90 is buffered, and data that is read from the disk 90 by the media drive unit 34. Buffering is performed. At the time of audio reproduction, audio data read from the disk 90 is buffered.
Also, management information recorded on the disk 90, that is, physical information of the disk 90 necessary for data recording / reproducing operation, area information, recorded data file information, and the like are stored in the CPU 30 when the disk 90 is loaded. However, the management information is stored in a partial area of the buffer memory 35 so that the CPU 30 can refer to the management information. Note that the CPU 30 may reference the management information stored in the buffer memory 35 by fetching it into the RAM 31.
The memory interface 36 performs transfer processing of data stored in the buffer memory 35 and control processing of write / read addresses in the buffer memory.

圧縮エンコード/デコード部37は、例えばATRAC(Adaptive Transform Acoustic Coding)などの圧縮方式でオーディオデータの圧縮エンコードや圧縮に対するデコードを行う。
圧縮エンコード/デコード部37でデコード処理されることで例えばリニアPCMデータとされたオーディオデータは、D/A変換器47でアナログオーディオ信号に変換され、ヘッドホンアンプ48に供給される。ヘッドホンアンプ48では、増幅処理、インピーダンス調整処理などを行い、オーディオ信号をヘッドホン端子49に供給する。
ヘッドホン端子49は、図4(c)のヘッドホン/リモコン端子18におけるヘッドホン端子部分であり、接続されたリモートコントローラ付きのヘッドホンにおいて再生音声が出力されることになる。
The compression encoding / decoding unit 37 performs compression encoding and decoding of audio data by a compression method such as ATRAC (Adaptive Transform Acoustic Coding).
Audio data converted into, for example, linear PCM data by being decoded by the compression encoding / decoding unit 37 is converted into an analog audio signal by the D / A converter 47 and supplied to the headphone amplifier 48. The headphone amplifier 48 performs amplification processing, impedance adjustment processing, and the like, and supplies an audio signal to the headphone terminal 49.
The headphone terminal 49 is a headphone terminal portion of the headphone / remote control terminal 18 in FIG. 4C, and reproduced sound is output from the connected headphone with a remote controller.

なお、図示していないが、例えばライン入力、マイクロホン入力、デジタルオーディオ入力などの入力系が設けられてアナログオーディオ信号又はデジタルオーディオデータが入力される場合、入力されたオーディオ信号は例えばデジタルオーディオデータ形態で圧縮エンコード/デコード部37に供給され、圧縮エンコードされるようにする。そして圧縮エンコードされたデータがバッファメモリ35を介してメディアドライブ部34に転送され、ディスク90に記録されるようにすることで、オーディオ録音機能を実現することができる。
また、例えばパーソナルコンピュータ等と接続され、オーディオデータがダウンロードされる場合に、該データを圧縮エンコード/デコード部37で圧縮エンコード処理を行う場合もある。
Although not shown, for example, when an analog audio signal or digital audio data is input by providing an input system such as a line input, a microphone input, or a digital audio input, the input audio signal is in a digital audio data form, for example. Is supplied to the compression encoding / decoding unit 37 so as to be compressed and encoded. The compressed and encoded data is transferred to the media drive unit 34 via the buffer memory 35 and recorded on the disk 90, thereby realizing an audio recording function.
For example, when audio data is downloaded by being connected to a personal computer or the like, the data may be subjected to compression encoding processing by the compression encoding / decoding unit 37.

USBインターフェース39は、USB端子17を介して接続されるパーソナルコンピュータ等の機器との間のデータ転送処理を行う。
シリアルインターフェース40は、後述するカメラ/LCDブロック38との間のデータ入出力処理を行う。
A/Dポート41は、各種ユーザー操作を検出し、A/D変換値を操作情報としてCPU30に供給する。操作キー44とは、上述した集中コントローラ5,サーチキー6,ストップ/キャンセルキー7、スライドショウ/ディスプレイキー8、メニューキー9、カメラオン/オフキー10、シャッタボタン11、ボリュームキー12,ダウンロードキー13を指し、A/Dポート41はこれらの操作子の操作情報を所定の値でCPU30に伝える。
また、リモコン端子46は、図1(c)のヘッドホン/リモコン端子18におけるリモコン端子部分であり、接続されたヘッドホンに設けられたリモートコントローラからの操作情報がA/Dポート41によって検出され、所定の値としてCPU30に伝えられる。
シリアルインターフェース42は、CPU30が指示する表示データをリモコン端子46からリモートコントローラに供給する。ヘッドホンに設けられたリモートコントローラには表示部が形成されており、その表示部においては、シリアルインターフェース42を介してCPU30から供給された表示制御情報に基づく表示動作が行われる。
The USB interface 39 performs data transfer processing with a device such as a personal computer connected via the USB terminal 17.
The serial interface 40 performs data input / output processing with a camera / LCD block 38 to be described later.
The A / D port 41 detects various user operations and supplies A / D conversion values to the CPU 30 as operation information. The operation key 44 includes the above-described centralized controller 5, search key 6, stop / cancel key 7, slide show / display key 8, menu key 9, camera on / off key 10, shutter button 11, volume key 12, and download key 13. The A / D port 41 transmits the operation information of these operators to the CPU 30 with a predetermined value.
Further, the remote control terminal 46 is a remote control terminal portion of the headphone / remote control terminal 18 in FIG. 1C, and operation information from a remote controller provided in the connected headphones is detected by the A / D port 41, and is predetermined. Is transmitted to the CPU 30 as a value of.
The serial interface 42 supplies display data instructed by the CPU 30 from the remote control terminal 46 to the remote controller. A display unit is formed in the remote controller provided in the headphones. In the display unit, a display operation based on display control information supplied from the CPU 30 via the serial interface 42 is performed.

DSPインターフェース43は、CPU30、USBインターフェース39等のバス50上の各部と圧縮エンコード/デコード部37でのデータや制御情報の転送を行う。
ホールドキー14の操作は、CPU30によって検出される。CPU30はホールドキー14によってキーの無効化操作がなされている場合、A/Dポート41を介して供給される操作キー44による操作情報を無効なものとして扱う。
The DSP interface 43 transfers data and control information between each unit on the bus 50 such as the CPU 30 and the USB interface 39 and the compression encoding / decoding unit 37.
The operation of the hold key 14 is detected by the CPU 30. When the hold key 14 is used to invalidate the key, the CPU 30 treats the operation information from the operation key 44 supplied via the A / D port 41 as invalid.

カバー連動スイッチ45は、レンズカバー15の開閉に応じてオン/オフが切り換えられるスイッチであり、レンズカバー15の開閉の検出部として機能する。CPU30はカバー連動スイッチ45のオン/オフ状態を検知することで、レンズカバー15が開状態にあるか閉状態にあるかを知ることができる。   The cover interlocking switch 45 is a switch that is turned on / off in accordance with the opening / closing of the lens cover 15 and functions as a detection unit for opening / closing the lens cover 15. The CPU 30 can detect whether the lens cover 15 is open or closed by detecting the on / off state of the cover interlock switch 45.

カメラ/LCDブロック38は、撮像処理系及び表示部4を含む表示処理系としての部位である。
撮像処理系としては、上述した撮像レンズ部19によって入射される被写体光を検出するCCDセンサ或いはCMOSセンサ等の固体撮像素子部、固体撮像素子から画素信号を転送し、ゲイン調整やA/D変換を行う撮像信号転送回路、撮像信号転送回路によって得られた撮像画像データに対するホワイトバランス、Y/C処理等を行うデジタル処理系、撮像画像データに対して圧縮処理やフォーマット処理等を行うエンコード系などが設けられる。
また表示処理系としては、表示部4としてのLCDに表示すべき画像、文字、キャラクタ等を形成する表示画像処理部、表示画像に基づいてLCDを駆動する表示駆動回路などが設けられる。
The camera / LCD block 38 is a part as a display processing system including the imaging processing system and the display unit 4.
As an imaging processing system, a pixel signal is transferred from a solid-state imaging device unit such as a CCD sensor or a CMOS sensor that detects the subject light incident by the imaging lens unit 19 described above, or a solid-state imaging device, and gain adjustment or A / D conversion is performed. Imaging signal transfer circuit that performs image processing, white balance for captured image data obtained by the imaging signal transfer circuit, digital processing system that performs Y / C processing, etc., encoding system that performs compression processing, format processing, etc. on captured image data, etc. Is provided.
The display processing system includes a display image processing unit that forms an image, characters, characters, and the like to be displayed on the LCD serving as the display unit 4, a display drive circuit that drives the LCD based on the display image, and the like.

このようなオーディオ・カメラ複合装置1では、ディスク90に記録されたオーディオデータの再生が行われる。ユーザーが操作キー44又はリモートコントローラを用いて再生操作を行った場合、CPU30はメディアドライブ部34を制御して、ディスク90のオーディオコンテンツファイル(オーディオトラック)の再生を実行させる。
メディアドライブ部34で再生されたオーディオデータは、バッファメモリ35に蓄積された後、順次読み出されて圧縮エンコード/デコード部37に転送され、デコードされる。そしてD/A変換器47でアナログオーディオ信号とされ、ヘッドホンアンプ48の処理を介して接続されたヘッドホンから音声出力される。
このオーディオ再生の際には、カメラ/LCDブロック38における表示部4及び表示処理系では、CPU30の制御に基づいて、再生メニュー(曲名等の一覧表示)、再生中の曲名、アーティスト名、時間情報、ジャケット画像、スライドショウ画像などの表示動作を実行する。
In such an audio / camera combined apparatus 1, the audio data recorded on the disk 90 is reproduced. When the user performs a playback operation using the operation key 44 or the remote controller, the CPU 30 controls the media drive unit 34 to play back the audio content file (audio track) on the disc 90.
The audio data reproduced by the media drive unit 34 is stored in the buffer memory 35, and then sequentially read out, transferred to the compression encoding / decoding unit 37, and decoded. Then, the analog audio signal is converted by the D / A converter 47 and output from the headphones connected through the processing of the headphone amplifier 48.
During this audio reproduction, the display unit 4 and display processing system in the camera / LCD block 38, under the control of the CPU 30, reproduces a menu (displaying a list of song names etc.), the name of the song being played, artist name, and time information. Display operations such as jacket images and slide show images are performed.

またカメラ動作として、撮像スタンバイ状態にあるときは、CPU30はカメラ/LCDブロック38を制御して、被写体画像の取り込み、画像信号処理や、表示部4での被写体画像(実動画)の表示を実行させる。
その状態でユーザーがシャッタボタン11を押したら、CPU30は、その時点の被写体画像(静止画)を撮像データとして記録する制御を行う。つまり、そのシャッタ操作時の1フレームの画像データを、バッファメモリ35を介してメディアドライブ部34に記録データとして供給する。
メディアドライブ部34はディスク90に対して、1つの写真画像ファイルとして撮像データを記録する。
カメラモードにおいて写真閲覧状態にあるときは、CPU30はメディアドライブ部34にディスク90に記録されている写真画像ファイルのデータの読出を行う。読み出された画像データはバッファメモリ35を介して、カメラ/LCDブロック38に転送され、表示部4に表示される。
なお、写真画像データは1枚ずつ表示部4に表示される場合と、サムネイル画像として多数の画像が一覧表示される場合がある。CPU30はユーザーの操作に応じて1枚表示とサムネイル表示を切り換えるように制御する。
When the camera is in the imaging standby state as a camera operation, the CPU 30 controls the camera / LCD block 38 to execute capturing of the subject image, image signal processing, and display of the subject image (actual moving image) on the display unit 4. Let
When the user presses the shutter button 11 in this state, the CPU 30 performs control to record the subject image (still image) at that time as imaging data. That is, one frame of image data at the time of the shutter operation is supplied as recording data to the media drive unit 34 via the buffer memory 35.
The media drive unit 34 records imaging data as one photographic image file on the disc 90.
When the camera mode is in the photo browsing state, the CPU 30 reads the data of the photo image file recorded on the disk 90 in the media drive unit 34. The read image data is transferred to the camera / LCD block 38 via the buffer memory 35 and displayed on the display unit 4.
Note that the photo image data may be displayed on the display unit 4 one by one, or a large number of images may be displayed as a list of thumbnail images. The CPU 30 controls to switch between single-image display and thumbnail display in accordance with the user's operation.

図7にカメラ/LCDブロック38の構成を示す。
上述したようにカメラ/LCDブロック38は、撮像処理系と表示処理系が設けられる。
撮像処理系は、上述した撮像レンズ19aを含むレンズ系61、イメージセンサとしての固体撮像素子部62、撮像信号転送部63、デジタル信号処理部64、エンコーダ65、レンズ駆動部66、発光駆動部67、フラッシュ発光部19b、カメラコントローラ68、カメラインターフェース69を有する。
FIG. 7 shows the configuration of the camera / LCD block 38.
As described above, the camera / LCD block 38 is provided with an imaging processing system and a display processing system.
The imaging processing system includes a lens system 61 including the imaging lens 19a described above, a solid-state imaging device unit 62 as an image sensor, an imaging signal transfer unit 63, a digital signal processing unit 64, an encoder 65, a lens driving unit 66, and a light emission driving unit 67. A flash light emitting unit 19b, a camera controller 68, and a camera interface 69.

レンズ系61は、撮像レンズ19aやフォーカスレンズ、ズームレンズを備えたレンズ光学系とされ、被写体の撮像光を固体撮像素子部62に入射する。
固体撮像素子部62は例えばCCDセンサアレイや、CMOSセンサアレイとして構成される。
撮像信号転送部63は、固体撮像素子部62の各撮像素子によって得られる信号の転送、サンプリング、ゲイン調整等を行い、さらにA/D変換を行って撮像によるデジタル画像データを生成し、デジタル信号処理部64に転送する。
デジタル信号処理部64は、撮像信号転送部63から得られた撮像画像データに対するホワイトバランス、Y/C処理等を行う。
エンコーダ65は、デジタル信号処理部64で処理された撮像画像データについて圧縮処理やフォーマット処理等を行う。例えばJPEG(Joint Photographic Experts Group)方式の静止画撮像データを生成する。
カメラインターフェース69は、シリアルインターフェース40を介した撮像データの転送出力や、CPU30からの制御信号の入力処理を行う。
レンズ駆動部66は、レンズ系61におけるフォーカスレンズやズームレンズの駆動を行う。
発光駆動部67は、フラッシュ発光部19bからのフラッシュ発光駆動を行う。
カメラコントローラ68は、CPU30からの指示に基づいて、当該撮像処理系の動作を制御する。
The lens system 61 is a lens optical system including an imaging lens 19a, a focus lens, and a zoom lens, and makes an imaging light of a subject incident on the solid-state imaging device unit 62.
The solid-state image sensor unit 62 is configured as, for example, a CCD sensor array or a CMOS sensor array.
The imaging signal transfer unit 63 performs transfer, sampling, gain adjustment, and the like of signals obtained by the respective imaging elements of the solid-state imaging element unit 62, and further performs A / D conversion to generate digital image data by imaging, thereby generating digital signals. Transfer to the processing unit 64.
The digital signal processing unit 64 performs white balance, Y / C processing, and the like on the captured image data obtained from the imaging signal transfer unit 63.
The encoder 65 performs compression processing, format processing, and the like on the captured image data processed by the digital signal processing unit 64. For example, JPEG (Joint Photographic Experts Group) still image imaging data is generated.
The camera interface 69 performs transfer output of imaging data via the serial interface 40 and input processing of control signals from the CPU 30.
The lens driving unit 66 drives the focus lens and zoom lens in the lens system 61.
The light emission drive unit 67 performs flash light emission drive from the flash light emission unit 19b.
The camera controller 68 controls the operation of the imaging processing system based on an instruction from the CPU 30.

カメラ/LCDブロック38における表示処理系としては、上述した表示部としてのLCD4、表示駆動回路71、表示データ処理部72、表示コントローラ73、表示インターフェース74が設けられる。
表示インターフェースは、シリアルインターフェース40を介した表示データの入力処理や、CPU30からの制御信号の入力処理を行う。
表示データ処理部72は、表示インターフェース74もしくは上述した撮像処理系から供給された表示データを格納する。また表示出力のための所要のデコード処理、RGB処理等を行う。
表示駆動回路71は、表示データ処理部72に格納され、必要な信号処理がされてR、G、B信号形態とされた表示データを取り込み、表示データに基づいてLCD4を駆動して表示を実行させる。
表示コントローラ4は当該表示処理系の動作を制御する。
As the display processing system in the camera / LCD block 38, the LCD 4 as the display unit, the display drive circuit 71, the display data processing unit 72, the display controller 73, and the display interface 74 are provided.
The display interface performs display data input processing via the serial interface 40 and control signal input processing from the CPU 30.
The display data processing unit 72 stores display data supplied from the display interface 74 or the imaging processing system described above. Further, necessary decoding processing for display output, RGB processing, and the like are performed.
The display drive circuit 71 captures display data stored in the display data processing unit 72 and subjected to necessary signal processing in the form of R, G, B signals, and drives the LCD 4 based on the display data to execute display. Let
The display controller 4 controls the operation of the display processing system.

このようなカメラ/LCDブロック38において、カメラコントローラ68、表示コントローラ73は、それぞれ以下のように制御を行って、必要な動作を実行させる。
まずカメラ動作がCPU30から指示されている際には、カメラコントローラ68は、信号転送回路63、デジタル信号処理部64、エンコーダ65を制御して、被写体画像の取り込み、画像信号処理を実行させる。この場合において、ユーザーがシャッタボタン11を押すまでの期間は、エンコーダ65から出力される画像(動画像)を表示データ処理部72に転送し、表示駆動回路71によってLCD4に表示させる。即ちユーザーが被写体を確認できるようにしている。
ユーザーがシャッタボタン11を押したら、CPU30は、その時点の被写体画像(静止画)を撮像データとして記録する制御を行うが、このときカメラコントローラ68に、シャッタ操作時の1フレームの画像データを、カメラインターフェース69、シリアルインターフェース40を介して出力させる。この撮像データはCPU30の制御に基づいて、バッファメモリ35を介してメディアドライブ部34に記録データとして供給され、ディスク90に記録される。
また、その撮像データは表示データ処理部72にも供給され、表示駆動回路71によってLCD4に表示されることで、ユーザーが撮像した画像を確認できるようにしている。
In such a camera / LCD block 38, the camera controller 68 and the display controller 73 control as follows to execute necessary operations.
First, when the camera operation is instructed by the CPU 30, the camera controller 68 controls the signal transfer circuit 63, the digital signal processing unit 64, and the encoder 65 to capture a subject image and execute image signal processing. In this case, during a period until the user presses the shutter button 11, an image (moving image) output from the encoder 65 is transferred to the display data processing unit 72 and displayed on the LCD 4 by the display driving circuit 71. That is, the user can check the subject.
When the user presses the shutter button 11, the CPU 30 performs control to record the subject image (still image) at that time as imaging data. At this time, the camera controller 68 receives one frame of image data at the time of shutter operation. The data is output via the camera interface 69 and the serial interface 40. This imaging data is supplied as recording data to the media drive unit 34 via the buffer memory 35 under the control of the CPU 30 and recorded on the disk 90.
The captured image data is also supplied to the display data processing unit 72 and displayed on the LCD 4 by the display driving circuit 71 so that the image captured by the user can be confirmed.

また、カメラコントローラ68は、ユーザーの操作に基づくCPU30からの指示や、自動制御によりレンズ駆動部66を制御して、オートフォーカス、ズーム動作を実行させる。レンズ駆動に関しては、CPU30からの指示により接写モードと通常モードを切り換える。
またカメラコントローラ68は、固体撮像素子部62での電荷蓄積時間調整やデジタル信号処理部64での信号処理を制御して、露出調整を行ったり、デジタル信号処理部64やエンコーダ65を制御して撮像データの画サイズ設定なども行う。
また、カメラコントローラ68は発光駆動部67を制御してシャッタタイミングでのフラッシュ発光制御も行う。シャッタタイミングでフラッシュ発光させるか否かはフラッシュ設定のモードとしてCPU30から指示される。
In addition, the camera controller 68 controls the lens driving unit 66 by an instruction from the CPU 30 based on a user operation or automatic control, and executes autofocus and zoom operations. As for lens driving, the close-up mode and the normal mode are switched by an instruction from the CPU 30.
The camera controller 68 controls the charge accumulation time adjustment in the solid-state image sensor unit 62 and the signal processing in the digital signal processing unit 64 to adjust the exposure, and controls the digital signal processing unit 64 and the encoder 65. Also sets the image size of the image data.
The camera controller 68 also controls the light emission drive unit 67 to perform flash light emission control at the shutter timing. Whether the flash is emitted at the shutter timing is instructed by the CPU 30 as a flash setting mode.

表示コントローラ73は、カメラモードにおいて、上述のように撮像処理系から供給される被写体動画や撮像時の静止画像の表示を実行させるように表示データ処理部72及び表示駆動回路71を制御する。
また、CPU30の指示に応じて、シリアルインターフェース40を介してバッファメモリ35から転送されてくる画像データや、さらにはCPU30から供給される操作メニュー画像、アイコン、一覧画像などの表示が実行されるように制御を行う。
In the camera mode, the display controller 73 controls the display data processing unit 72 and the display drive circuit 71 so as to display the subject moving image supplied from the imaging processing system and the still image at the time of imaging as described above.
Further, in response to an instruction from the CPU 30, display of image data transferred from the buffer memory 35 via the serial interface 40 and operation menu images, icons, list images, and the like supplied from the CPU 30 are executed. To control.

以上のようなオーディオ・カメラ複合装置1として、図1の実施の形態のカメラ装置1が実現でき、上述したように撮像データファイルに音楽関連データを付加した記録が実行できる。
なお、カメラ/LCDブロック38における撮像処理系が図1の撮像部22に相当する。またメディアドライブ部34が図1の記録再生部24に相当する。また、圧縮エンコード/デコード部37、D/A変換器47、ヘッドホンアンプ48が図1のオーディオ再生処理部23に相当する。またCPU30が図1の制御部21に相当する。
As the audio / camera combined apparatus 1 as described above, the camera apparatus 1 according to the embodiment of FIG. 1 can be realized, and recording with music-related data added to an imaging data file can be executed as described above.
The imaging processing system in the camera / LCD block 38 corresponds to the imaging unit 22 in FIG. The media drive unit 34 corresponds to the recording / playback unit 24 of FIG. Further, the compression encoding / decoding unit 37, the D / A converter 47, and the headphone amplifier 48 correspond to the audio reproduction processing unit 23 of FIG. The CPU 30 corresponds to the control unit 21 in FIG.

[2.第2の実施の形態:コンピュータ装置]

続いて、本発明のデータ処理装置をコンピュータ装置で実現する例を第2の実施の形態として説明する。
図8はパーソナルコンピュータシステムとしての構成と、パーソナルコンピュータシステムに接続される外部機器としてのカメラ装置20A、オーディオプレーヤ80を示している。
[2. Second Embodiment: Computer Device]

Next, an example in which the data processing apparatus of the present invention is realized by a computer apparatus will be described as a second embodiment.
FIG. 8 shows a configuration as a personal computer system, and a camera device 20A and an audio player 80 as external devices connected to the personal computer system.

パーソナルコンピュータシステムは、パーソナルコンピュータ本体100(以下、PC本体という)、マウス101、キーボード102、モニタ装置103から成る。もちろんこれ以外に、プリンタ装置、スキャナ装置、通信装置等の各種外部デバイスが接続される場合もある。
PC本体100は、ハードウエア構成として、CPU、ROM、RAM、各種インターフェースユニット等を備えるものであるが、ソフトウエア構成として、図示するようにOS(Operating System)111が稼動し、その上で各種アプリケーションが稼働する。例えば文書作成、表計算、描画/作図、会計、ブラウザ、ゲーム、音楽/映像再生などの機能を備えた各種アプリケーションが稼動する。各種のアプリケーションは、OS111を介して、キーボード102やマウス101からのユーザーの操作を受け付け、処理し、その結果をモニタ装置103に表示する。
本例の動作で稼働するアプリケーションとしては、図示する音楽データ同期アプリケーション112,撮像データコピーアプリケーション113がある。
音楽データ同期アプリケーション112は、オーディオプレーヤ80との通信時に稼働する。
撮像データコピーアプリケーション113は、カメラ装置20Aとの通信時に稼働する。
The personal computer system includes a personal computer main body 100 (hereinafter referred to as a PC main body), a mouse 101, a keyboard 102, and a monitor device 103. Of course, in addition to this, various external devices such as a printer device, a scanner device, and a communication device may be connected.
The PC main body 100 includes a CPU, a ROM, a RAM, various interface units, and the like as a hardware configuration, but as a software configuration, an OS (Operating System) 111 operates as shown in FIG. The application is running. For example, various applications having functions such as document creation, spreadsheet, drawing / drawing, accounting, browser, game, music / video playback, and the like operate. Various applications receive and process user operations from the keyboard 102 and the mouse 101 via the OS 111, and display the results on the monitor device 103.
As applications that operate in the operation of this example, there are a music data synchronization application 112 and an imaging data copy application 113 shown in the figure.
The music data synchronization application 112 operates when communicating with the audio player 80.
The imaging data copy application 113 operates during communication with the camera device 20A.

またPC本体100内の記憶デバイスとして、記録メディア121に対して各種データの記録再生を行う記録再生部120が設けられる。例えば記録再生部120は、HDD(Hard Disc Drive)とされる。なお、もちろんHDD以外の、光ディスクドライブや固体メモリ記録再生部などとされてもよい。
またPC本体100内の通信インターフェースとして外部機器とのデータ通信を行う通信部114が設けられる。通信部114は、例えばUSB(Universal Serial Bus)方式の通信インターフェース部として形成される。もちろんUSBに限らず、IEEE(Institute of Electrical and Electronics Engineers)1394方式、イーサネット(登録商標)、ワイヤレスLAN(Local Area Network)、ブルートゥース(Bluetooth)通信などの他の通信インターフェース方式が採用されても良い。
As a storage device in the PC main body 100, a recording / reproducing unit 120 for recording / reproducing various data on the recording medium 121 is provided. For example, the recording / reproducing unit 120 is an HDD (Hard Disc Drive). Of course, an optical disk drive or a solid-state memory recording / reproducing unit other than the HDD may be used.
A communication unit 114 that performs data communication with an external device is provided as a communication interface in the PC main body 100. The communication unit 114 is formed as a USB (Universal Serial Bus) communication interface unit, for example. Of course, other communication interface methods such as IEEE (Institute of Electrical and Electronics Engineers) 1394 method, Ethernet (registered trademark), wireless LAN (Local Area Network), and Bluetooth communication may be adopted. .

この図8に示すカメラ装置20Aは、オーディオ再生機能を備えないカメラ装置、つまり通常のデジタルスチルカメラ等のカメラ装置として示している。
このカメラ装置20Aは、図1のカメラ装置20の構成と同様に、レンズ機構26、撮像部22、記録メディア25に対する記録再生部24、及び制御部21を備える。但し制御部21における機能として図1のオーディオ処理制御部21bは設けられず、撮像データの取込動作や記録メディア25への撮像データファイルの記録動作を制御するために、撮像制御部21a、記録再生制御部21c、時計部21eが設けられる。
さらにこのカメラ装置20Aは、パーソナルコンピュータシステムとのデータ通信を行う通信部27が設けられ、またデータ通信制御を行うために制御部21には通信制御部21fとしての機能が設けられる。
通信部27は、例えばUSB方式の通信インターフェース部として形成される。もちろんUSBに限らず、IEEE1394方式、イーサネット、ワイヤレスLAN、ブルートゥース通信などの他の通信インターフェース方式が採用されても良い。
The camera device 20A shown in FIG. 8 is shown as a camera device that does not have an audio playback function, that is, a camera device such as a normal digital still camera.
The camera device 20A includes a lens mechanism 26, an imaging unit 22, a recording / reproducing unit 24 for the recording medium 25, and a control unit 21, similar to the configuration of the camera device 20 of FIG. However, the audio processing control unit 21b of FIG. 1 is not provided as a function in the control unit 21, and the imaging control unit 21a and recording are performed in order to control the capturing operation of the imaging data and the recording operation of the imaging data file to the recording medium 25. A reproduction control unit 21c and a clock unit 21e are provided.
Further, the camera device 20A is provided with a communication unit 27 for performing data communication with a personal computer system, and the control unit 21 is provided with a function as a communication control unit 21f for performing data communication control.
The communication unit 27 is formed as a USB communication interface unit, for example. Of course, other communication interface methods such as IEEE 1394 method, Ethernet, wireless LAN, Bluetooth communication, etc., may be adopted.

このカメラ装置20Aは、ユーザのシャッタボタン操作に応じて、撮像部22で撮像データを得、例えば図3(b)の形式で撮像データファイルを記録メディア25に記録していく。つまり通常のデジタルスチルカメラとしての動作である。   In response to the user's shutter button operation, the camera device 20A obtains imaging data by the imaging unit 22, and records an imaging data file in the recording medium 25 in the format of FIG. That is, it is an operation as a normal digital still camera.

オーディオプレーヤ80は、例えば携帯用の再生装置であり、記録メディア83に対する記録再生部82,オーディオ再生処理部84、通信部85、制御部81が設けられる。
記録再生部82は、音楽等のオーディオコンテンツファイルを記録メディア83から読み出す動作を行う。また記録再生部82は、後述する聴取データの記録再生を行う。
この記録再生部82はHDDとして実現できるし、光ディスクを記録メディア83としたディスクドライブ装置としても実現できる。さらにはメモリカードを記録メディア83としたメモリカード再生部としてもよい。
The audio player 80 is, for example, a portable playback device, and includes a recording / playback unit 82, an audio playback processing unit 84, a communication unit 85, and a control unit 81 for the recording medium 83.
The recording / playback unit 82 performs an operation of reading an audio content file such as music from the recording medium 83. The recording / reproducing unit 82 records and reproduces listening data, which will be described later.
The recording / reproducing unit 82 can be realized as an HDD, and can also be realized as a disk drive device using an optical disk as a recording medium 83. Furthermore, a memory card playback unit using a memory card as the recording medium 83 may be used.

オーディオ再生処理部84は、記録再生部82によって読み出されたオーディオコンテンツファイルについてのオーディオデータ処理を行う。即ちデータデコード、デジタルオーディオ処理、D/A変換、アナログオーディオ処理等を行い、アナログオーディオ信号としての再生音声信号を得る。再生音声信号は、例えば接続されたヘッドホン90によって再生出力される。
通信部85は、パーソナルコンピュータシステムとのデータ通信を行う。この通信部85は、例えばUSB方式の通信インターフェース部として形成される。もちろんUSBに限らず、IEEE1394方式、イーサネット、ワイヤレスLAN、ブルートゥース通信などの他の通信インターフェース方式が採用されても良い。
The audio reproduction processing unit 84 performs audio data processing on the audio content file read by the recording / reproducing unit 82. That is, data decoding, digital audio processing, D / A conversion, analog audio processing, and the like are performed to obtain a reproduced audio signal as an analog audio signal. The reproduced audio signal is reproduced and output by the connected headphones 90, for example.
The communication unit 85 performs data communication with the personal computer system. The communication unit 85 is formed as a USB communication interface unit, for example. Of course, other communication interface methods such as IEEE 1394 method, Ethernet, wireless LAN, Bluetooth communication, etc., may be adopted.

制御部81は、オーディオプレーヤ80の各部の動作をコントロールするCPU(Central Processing Unit)によって成る。そして動作プログラムによって形成されるソフトウエア機能として、オーディオ再生処理部84のオーディオ処理動作を制御するオーディオ処理制御部81a、記録再生部82の記録再生動作を制御する記録再生制御部81b、後述する聴取データの生成処理を実行する聴取データ処理部81c、日時を計数する時計部81d、通信部27によるデータ通信の制御を行う通信制御部81eを備える。   The control unit 81 includes a CPU (Central Processing Unit) that controls the operation of each unit of the audio player 80. As software functions formed by the operation program, an audio processing control unit 81a that controls the audio processing operation of the audio playback processing unit 84, a recording / playback control unit 81b that controls the recording / playback operation of the recording / playback unit 82, and a listening process to be described later A listening data processing unit 81c that executes data generation processing, a clock unit 81d that counts the date and time, and a communication control unit 81e that controls data communication by the communication unit 27 are provided.

なお、この図8においては、パーソナルコンピュータシステムのPC本体100が本発明のデータ処理装置としての実施の形態となるが、この場合、本発明請求項の構成要件が以下のように相当する。
撮像データ取込手段:通信部114及び撮像データコピーアプリケーション113による撮像データ受信処理。
貼付処理手段:撮像データコピーアプリケーション113による音楽関連データの貼付処理。
記録制御手段:撮像データコピーアプリケーション113及びOS111による記録再生制御。
聴取データ取得手段:通信部114及び音楽データ同期アプリケーション112による聴取データ受信処理。
In FIG. 8, the PC main body 100 of the personal computer system is an embodiment as the data processing apparatus of the present invention. In this case, the constituent elements of the claims of the present invention correspond to the following.
Imaging data capture means: imaging data reception processing by the communication unit 114 and the imaging data copy application 113.
Pasting processing means: Pasting processing of music related data by the imaging data copy application 113.
Recording control means: recording / reproduction control by the imaging data copy application 113 and the OS 111.
Listening data acquisition means: Listening data reception processing by the communication unit 114 and the music data synchronization application 112.

この図8のシステムでは次のような使用形態を想定する。
ユーザーは、携帯用音楽プレーヤであるオーディオプレーヤ80で音楽を再生させることができる。そしてオーディオプレーヤ80の再生音楽を聴きながら、カメラ装置20Aで写真撮影(撮像データ記録)を行う。
またユーザーは、カメラ装置20Aで撮像した撮像データファイルを、任意の時点でPC本体100に転送し、記録メディア121に格納させる。
PC本体100は、本発明のデータ処理装置の実施の形態としての処理として、カメラ装置20Aから取り込んだ撮像データファイルについて、音楽関連データを貼付する処理を行う。この音楽関連データ及びその貼付のために必要な情報として、オーディオプレーヤ80では音楽再生に応じて聴取データを生成する。そして任意の時点でオーディオプレーヤ80とPC本体100のデータ通信が行われ、聴取データがPC本体100に転送される。PC本体100内では、聴取データを用いて、撮像データファイルに対する音楽関連データの貼付処理を行う。
The following usage pattern is assumed in the system of FIG.
The user can play music with the audio player 80 which is a portable music player. Then, while listening to the music reproduced by the audio player 80, the camera device 20A takes a picture (records image data).
Further, the user transfers the image data file imaged by the camera device 20 </ b> A to the PC main body 100 at an arbitrary time point and stores it in the recording medium 121.
The PC main body 100 performs processing for attaching music-related data to the imaging data file taken from the camera device 20A as processing as an embodiment of the data processing device of the present invention. As the music-related data and information necessary for pasting the data, the audio player 80 generates listening data in accordance with the music reproduction. At any time, data communication between the audio player 80 and the PC main body 100 is performed, and the listening data is transferred to the PC main body 100. In the PC main body 100, music-related data pasting processing is performed on the imaging data file using the listening data.

まずオーディオプレーヤ80で生成される聴取データについて説明する。
図9(a)は、オーディオプレーヤ80における記録メディア83に格納される情報の例を示している。
例えば記録メディア83には、図9(a)に模式的に示すようにオーディオコンテンツファイルM1,M2,M3・・・として楽曲等のオーディオデータが記録される。各オーディオコンテンツファイルM1,M2,M3・・・はオーディオ管理データによって管理された状態で格納される。
そしてさらに、オーディオコンテンツファイルの再生に応じて制御部83が逐次生成・更新する聴取データが格納される。
First, listening data generated by the audio player 80 will be described.
FIG. 9A shows an example of information stored in the recording medium 83 in the audio player 80.
For example, audio data such as music is recorded on the recording medium 83 as audio content files M1, M2, M3... As schematically shown in FIG. Each audio content file M1, M2, M3... Is stored in a state managed by audio management data.
Further, listening data that is sequentially generated and updated by the control unit 83 in accordance with the reproduction of the audio content file is stored.

聴取データの内容の例を図9(b)に示す。聴取データは、或るオーディオコンテンツファイルの再生が行われるたびに、その日時と、そのオーディオコンテンツファイルについての音楽関連データを追加していく情報とされる。
即ち日時情報として、或るオーディオコンテンツファイルの再生を開始した年月日時分秒を聴取開始日時として記憶し、またそのオーディオコンテンツファイルの再生を終了した年月日時分秒を聴取終了日時として記憶する。そして音楽関連データとして、再生したオーディオコンテンツファイルの曲名、アルバム名、演奏者名、ファイル名、コンテンツIDその他の情報を付加する。
An example of the contents of the listening data is shown in FIG. The listening data is information that adds the date and time and music-related data about the audio content file each time a certain audio content file is played back.
That is, as date / time information, the year / month / day / hour / minute / second at which playback of a certain audio content file is started is stored as the listening start date / time, and the year / month / day / hour / minute / second at which playback of the audio content file is ended is stored as the listening end date / time. . Then, as the music-related data, the music title, album name, performer name, file name, content ID, and other information of the reproduced audio content file are added.

このような聴取データの生成・更新処理を含む、オーディオプレーヤ80の制御部81の処理を図10に示す。
ユーザーが或るオーディオコンテンツファイルの再生を指示する操作を行うと、制御部81の処理はステップF201からF202に進む。このとき時計部81dで計数されている現在日時を聴取開始日時として保存する。そしてステップF203で、オーディオコンテンツファイルの再生を開始させる。つまり記録再生部に、指定されたオーディオコンテンツファイルの再生を指示すると共に、オーディオ再生処理部84でのオーディオ処理を指示し、再生音声出力を開始させる。
ステップF204では、オーディオコンテンツファイルの再生の終了を監視する。再生の終了とは、再生中のオーディオコンテンツファイルの再生演奏が完了した場合か、或いは曲の再生演奏の途中であってもユーザーが再生を停止させたり、頭出し操作などにより他の曲(他のオーディオコンテンツファイル)を指示した場合などで、当該再生中のオーディオコンテンツファイルについての再生が終了される場合を言う。
そして現在のオーディオコンテンツファイルの再生が終了と判断されたら、ステップF205に進み、制御部81はその時点で時計部81dで計数されている現在日時を聴取終了日時として保存する。
FIG. 10 shows processing of the control unit 81 of the audio player 80 including such listening data generation / update processing.
When the user performs an operation to instruct playback of an audio content file, the process of the control unit 81 proceeds from step F201 to F202. At this time, the current date and time counted by the clock unit 81d is stored as the listening start date and time. In step F203, playback of the audio content file is started. That is, the recording / playback unit is instructed to reproduce the designated audio content file, and is also instructed to perform audio processing in the audio reproduction processing unit 84 to start reproduction audio output.
In step F204, the end of reproduction of the audio content file is monitored. The end of playback is when the playback performance of the audio content file being played back is completed, or even when the playback performance of the song is in progress, the user stops playback or finds another song ( The audio content file) is instructed, and the reproduction of the audio content file being reproduced is terminated.
When it is determined that the reproduction of the current audio content file is finished, the process proceeds to step F205, and the control unit 81 stores the current date and time counted by the clock unit 81d at that time as the listening end date and time.

そしてステップF206では、制御部81はそれまで再生していたオーディオコンテンツファイルに関しての聴取データ内容を生成する。即ちステップF202で保存した聴取開始日時、ステップF205で保存した聴取終了日時と、音楽関連データを対応させて、聴取データ内容を生成する。音楽関連データは、例えばオーディオ管理データやオーディオコンテンツファイルのヘッダ情報等から取得する。
このステップF206の処理で、再生された1つのオーディオコンテンツファイル、つまり1曲に関しての聴取データ内容が生成される。
In step F206, the control unit 81 generates the contents of the listening data regarding the audio content file that has been reproduced. That is, the listening data contents are generated by associating the listening start date and time saved in step F202, the listening end date and time saved in step F205 with the music-related data. The music related data is acquired from, for example, audio management data, header information of an audio content file, or the like.
In the process of step F206, one reproduced audio content file, that is, the listening data content for one song is generated.

制御部81は、ステップF207で次の曲の再生が引き続き行われるか否かを判断する。例えば或る楽曲の再生完了で次の曲の再生が継続される場合、或いはユーザーの頭出し操作などに応じて他の曲の再生に移る場合などは、次の曲の再生が引き続き行われるとして、ステップF202に戻る。そしてその場合は、次に再生されるオーディオコンテンツファイルについて、ステップF202〜F206の処理が同様に行われる。   In step F207, the control unit 81 determines whether or not playback of the next song is continued. For example, when the playback of the next song is continued after the completion of the playback of a certain song, or when another song is played in response to the user's cueing operation, etc., the playback of the next song is continued. Return to step F202. In that case, the processes of steps F202 to F206 are similarly performed for the audio content file to be reproduced next.

ステップF207で次の曲の再生が行われないと判断された場合、例えばユーザーが停止操作等で再生自体を終了させた場合や、全曲或いは指定された一部の曲の再生が完了された場合などであって、再生動作自体が終了されたときは、ステップF208に進み、記録メディア83における聴取データの更新を行う。
即ちステップF207で生成した聴取データ内容を、それまで記録メディア83に記憶されていた聴取データに追加する更新を行う。なお、もちろん記録メディア83に聴取データ自体が記録されていなければ、新規に聴取データを書き込むことになる。
When it is determined in step F207 that the next song is not played, for example, when the user ends the playback itself by a stop operation or the like, or when the playback of all or a part of the designated song is completed When the reproduction operation itself is terminated, the process proceeds to step F208, and the listening data in the recording medium 83 is updated.
That is, the update is performed by adding the contents of the listening data generated in step F207 to the listening data stored in the recording medium 83 until then. Of course, if the listening data itself is not recorded on the recording medium 83, the listening data is newly written.

なお、ステップF202,F205,F207の処理は、制御部81の聴取データ処理部81cの機能によって実行され、ステップF208の処理は、聴取データ処理部81cと記録再生制御部81bの機能によって行われる。
そしてオーディオコンテンツファイルの再生時にこの図10の処理が行われることにより、オーディオコンテンツファイルとしての1曲の再生毎に、聴取データが、その内容が追加的に更新されていくことになるため、聴取データは常に、過去の再生履歴として再生日時と音楽関連データを保存したものとなる。
Note that the processing of steps F202, F205, and F207 is executed by the function of the listening data processing unit 81c of the control unit 81, and the processing of step F208 is performed by the functions of the listening data processing unit 81c and the recording / playback control unit 81b.
Since the processing of FIG. 10 is performed at the time of reproduction of the audio content file, the content of the listening data is additionally updated each time one piece of music as the audio content file is reproduced. The data is always stored in the past reproduction history as reproduction date and music related data.

このオーディオプレーヤ80がPC本体100と通信接続されることで、聴取データがPC本体100に転送される。
図11に、オーディオプレーヤ80とPC本体100が通信可能に接続された際の処理を示す。PC本体100側では音楽データ同期アプリケーション112による処理となり、オーディオプレーヤ80側では制御部81による処理となる。
When the audio player 80 is connected to the PC main body 100 for communication, the listening data is transferred to the PC main body 100.
FIG. 11 shows processing when the audio player 80 and the PC main body 100 are connected to be communicable. Processing is performed by the music data synchronization application 112 on the PC main body 100 side, and processing by the control unit 81 is performed on the audio player 80 side.

PC本体100に対してオーディオプレーヤ80が接続され、PC本体100の通信部114と、オーディオプレーヤ80の通信部85との間の相互の通信が確立されたら、音楽データ同期アプリケーション112はステップF301において、オーディオプレーヤ80に対して聴取データを要求する送信を行う。
オーディオプレーヤ80の制御部81は、ステップF311で聴取データ要求を受信したら、ステップF312で記録再生部82に指示して記録メディア83から聴取データを読み出させる。そして制御部81はステップF313で、記録メディア83から読み出した聴取データを通信部85からPC本体100に対して送信させる。
音楽データ同期アプリケーション112は、ステップF302でオーディオプレーヤ80から送信されてきた聴取データを受信したら、ステップF303で、受信した聴取データを記録再生部120に転送し、記録メディア121に格納させる。
図13(b)に、記録メディア121に聴取データが保存された状態を模式的に示している。
When the audio player 80 is connected to the PC main body 100 and mutual communication is established between the communication unit 114 of the PC main body 100 and the communication unit 85 of the audio player 80, the music data synchronization application 112 is executed in step F301. Then, the audio player 80 is transmitted to request listening data.
When receiving the listening data request at step F311, the control unit 81 of the audio player 80 instructs the recording / playback unit 82 to read the listening data from the recording medium 83 at step F311. In step F313, the control unit 81 causes the communication unit 85 to transmit the listening data read from the recording medium 83 to the PC main body 100.
When the music data synchronization application 112 receives the listening data transmitted from the audio player 80 in step F302, the music data synchronization application 112 transfers the received listening data to the recording / playback unit 120 and stores it in the recording medium 121 in step F303.
FIG. 13B schematically shows a state in which the listening data is stored in the recording medium 121.

この図11の処理が行われ、聴取データがPC本体100にコピーされることで、PC本体100において、オーディオプレーヤ80でユーザーが再生させた音楽等(オーディオコンテンツファイル)についての再生日時や音楽関連データを得ることができる。
なお、このような聴取データの転送はPC本体100とオーディオプレーヤ80が通信可能に接続された際に、自動的に行われればよい。
The processing of FIG. 11 is performed, and the listening data is copied to the PC main body 100, so that the reproduction date and time and music related to music (audio content file) played by the user with the audio player 80 in the PC main body 100 are reproduced. Data can be obtained.
Such listening data transfer may be automatically performed when the PC main body 100 and the audio player 80 are communicably connected.

続いて、カメラ装置20Aで撮像された撮像データに対して、音楽関連データを貼付する処理を説明する。
ここでは、カメラ装置20AとPC本体100が通信可能に接続され、カメラ装置20Aから撮像データがPC本体100に転送されたときに、音楽関連データの貼付処理が行われる例として説明する。
図12に、カメラ装置20AとPC本体100が通信可能に接続された際の処理を示す。PC本体100側では撮像データコピーアプリケーション113による処理となり、カメラ装置20A側では制御部21による処理となる。
Next, a process for attaching music-related data to image data captured by the camera device 20A will be described.
Here, an example in which music-related data pasting processing is performed when the camera device 20A and the PC main body 100 are communicably connected and image data is transferred from the camera device 20A to the PC main body 100 will be described.
FIG. 12 shows processing when the camera device 20A and the PC main body 100 are connected to be communicable. Processing is performed by the imaging data copy application 113 on the PC main body 100 side, and processing by the control unit 21 is performed on the camera device 20A side.

PC本体100に対してカメラ装置20Aが接続され、PC本体100の通信部114と、カメラ装置20Aの通信部27との間の相互の通信が確立されたら、撮像データコピーアプリケーション113はステップF401において、カメラ装置20Aに対して撮像データを要求する送信を行う。   When the camera device 20A is connected to the PC main body 100 and mutual communication is established between the communication unit 114 of the PC main body 100 and the communication unit 27 of the camera device 20A, the imaging data copy application 113 executes in step F401. Then, the camera device 20A is transmitted to request imaging data.

カメラ装置20Aの制御部21は、ステップF421で撮像データ要求を受信したら、ステップF422で記録再生部24に指示して記録メディア25から撮像データを順次読み出させ、読み出した撮像データを通信部27からPC本体100に対して送信させる。カメラ装置20Aの記録メディア25に、図13(a)のように撮像データファイルPH1,PH2,PH3・・・が格納されていれば、これらの撮像データファイルPH1,PH2,PH3・・・を順次読み出してPC本体100に転送することになる。   When receiving the imaging data request in step F421, the control unit 21 of the camera device 20A instructs the recording / reproducing unit 24 to sequentially read the imaging data from the recording medium 25 in step F422, and the readout imaging data is transmitted to the communication unit 27. To the PC main body 100. If imaging data files PH1, PH2, PH3,... Are stored in the recording medium 25 of the camera device 20A as shown in FIG. 13A, these imaging data files PH1, PH2, PH3,. The data is read out and transferred to the PC main body 100.

PC本体100の撮像データコピーアプリケーション113は、ステップF402で、カメラ装置20Aから順次送信されてくる撮像データについて、記録再生部120に転送し、記録メディア121に格納させていく。
撮像データコピーアプリケーション113は、ステップF403でカメラ装置20Aから転送されてきた撮像データの受信及び記録メディア121に保存する処理が全て完了したか否かを確認する。
完了時点において、カメラ装置20Aで撮像され記録メディア83に格納されていた撮像データが、全てPC本体100(記録メディア121)にコピーされたことになる。
In step F <b> 402, the imaging data copy application 113 of the PC main body 100 transfers the imaging data sequentially transmitted from the camera device 20 </ b> A to the recording / playback unit 120 and stores it in the recording medium 121.
The imaging data copy application 113 confirms whether or not the processing of receiving the imaging data transferred from the camera device 20A in step F403 and storing it in the recording medium 121 has been completed.
At the time of completion, all of the image data captured by the camera device 20A and stored in the recording medium 83 are copied to the PC main body 100 (recording medium 121).

記録メディア121への撮像データの保存が完了したら、撮像データコピーアプリケーション113の処理はステップF404に進み、音楽データ同期アプリケーション112に対して聴取データを要求する。
音楽データ同期アプリケーション112は、上述した図11の処理で記録メディア121に格納した聴取データを読み出し、聴取データが存在すれば、撮像データコピーアプリケーション113に受け渡す。つまり撮像データコピーアプリケーション113は、ステップF405→F406と進み、聴取データを取得する。
なお、この処理は、必ずしも音楽データ同期アプリケーション112を介する必要はなく、撮像データコピーアプリケーション113が記録再生部120に聴取データの読み出しを指示して聴取データを取り込むようにしてもよい。
When the storage of the imaging data on the recording medium 121 is completed, the processing of the imaging data copy application 113 proceeds to step F404, and requests listening data from the music data synchronization application 112.
The music data synchronization application 112 reads the listening data stored in the recording medium 121 by the processing of FIG. 11 described above, and if the listening data exists, transfers it to the imaging data copy application 113. That is, the imaging data copy application 113 proceeds from step F405 to F406, and acquires listening data.
Note that this processing does not necessarily have to be performed via the music data synchronization application 112, and the imaging data copy application 113 may instruct the recording / playback unit 120 to read out the listening data and take in the listening data.

既に上記図11の処理が行われていれば、ステップF404の時点で、記録メディア121には図13(c)のように、オーディオプレーヤ80から転送された聴取データと、カメラ装置20から転送された撮像データファイルPH1,PH2,PH3・・・が格納された状態になっている。この場合、聴取データが存在するため、撮像データコピーアプリケーション113はステップF406で聴取データを取得できる。
一方、以前に図11の処理が行われていなければ、記録メディア121に聴取データは保存されておらず、その場合はステップF405から処理を終える。
If the processing of FIG. 11 has already been performed, the listening data transferred from the audio player 80 and the camera device 20 are transferred to the recording medium 121 as shown in FIG. The captured data files PH1, PH2, PH3,... Are stored. In this case, since the listening data exists, the imaging data copy application 113 can acquire the listening data in step F406.
On the other hand, if the process of FIG. 11 has not been performed before, the listening data is not stored in the recording medium 121, and in this case, the process ends from step F405.

聴取データを取得できた場合は。撮像データコピーアプリケーション113の処理はステップF407に進み、撮像データファイルを取り出す。即ち図13(c)のように記録メディア121に格納した撮像データファイルのうち、1つの撮像データファイル(例えばPH1)を読み出す。
そしてステップF408で、その撮像データファイルPH1がカメラ装置20Aで撮像された日時に、オーディオプレーヤ80で再生していた音楽等が存在するか否かを確認する。上述した第1の実施の形態において説明したように、撮像データファイルのヘッダには、撮像日時の情報が含まれる。また聴取データには、図9で説明したようにオーディオコンテンツファイルの聴取開始日時と聴取終了日時の情報が含まれる。
従ってステップF408では、例えば撮像データファイルPH1のヘッダ情報から撮像日時を確認し、その撮像日時と、聴取データにおける聴取開始日時と聴取終了日時を比較していくことで、撮像時点にユーザーが聴いていたオーディオコンテンツファイルが存在するか否かを確認できる。
If listening data can be obtained. The process of the imaging data copy application 113 proceeds to step F407, and an imaging data file is extracted. That is, one imaging data file (for example, PH1) is read out from the imaging data files stored in the recording medium 121 as shown in FIG.
In step F408, it is confirmed whether there is music or the like played back by the audio player 80 at the date and time when the captured image file PH1 was captured by the camera device 20A. As described in the first embodiment, the header of the imaging data file includes imaging date / time information. Also, the listening data includes information on the start date / time and the end date / time of the audio content file as described with reference to FIG.
Accordingly, in step F408, for example, the imaging date / time is confirmed from the header information of the imaging data file PH1, and the user is listening at the time of imaging by comparing the imaging date / time with the listening start date / time and listening end date / time in the listening data. Whether or not an audio content file exists.

もし、その撮像日時に該当する時点で再生されていたオーディオコンテンツファイルが存在しなければ、その撮像データファイルPH1に貼付すべき音楽関連データは存在しないため、ステップF408からF412に進む。
一方、撮像日時に再生されていたオーディオコンテンツファイルが存在する場合は、ステップF408からF409に進み、既にその撮像データファイルPH1に音楽関連データが貼付されているか否かを確認する。ステップF407で取り出した撮像データファイルPH1に対して過去に音楽関連データの貼付処理が行われていた場合、今回の処理は必要ないため、ステップF409からF412に進む。
ステップF409で、撮像データファイルPH1に音楽関連データが貼付されていないと判断されたら、ステップF410に進み、音楽関連データを貼付する処理を行う。
即ち聴取データにおいて、撮像時点が含まれる聴取開始日時、聴取終了日時に対応して記録されている音楽関連データを読み出し、これを撮像データファイルPH1に貼付する。つまり撮像時点で聴いていたオーディオコンテンツファイルの音楽関連データである。
そして貼付処理を行ったら、ステップF411で、当該撮像データファイルPH1を、記録メディア121に上書き記録させる。つまりそれまで音楽関連データが貼付されていない撮像データファイルPH1が保存された状態であったのを、音楽関連データが貼付された撮像データファイルPH1に書き換える。
そしてステップF412に進む。
If there is no audio content file that has been played back at the time corresponding to the imaging date and time, there is no music-related data to be attached to the imaging data file PH1, and the process advances from step F408 to F412.
On the other hand, if there is an audio content file that has been played back at the imaging date and time, the process proceeds from step F408 to F409 to check whether or not music-related data has already been attached to the imaging data file PH1. If pasting processing of music related data has been performed on the imaging data file PH1 extracted in step F407 in the past, the current processing is not necessary, and the process advances from step F409 to F412.
If it is determined in step F409 that music-related data is not attached to the imaging data file PH1, the process proceeds to step F410, and processing for attaching music-related data is performed.
That is, in the listening data, music-related data recorded corresponding to the listening start date and time and the listening end date and time including the imaging time point is read out and pasted to the imaging data file PH1. That is, the music-related data of the audio content file that was being listened to at the time of imaging.
After performing the pasting process, the imaging data file PH1 is overwritten and recorded on the recording medium 121 in step F411. That is, the imaging data file PH1 to which the music-related data is not pasted is rewritten to the imaging data file PH1 to which the music-related data is pasted.
Then, the process proceeds to Step F412.

ステップF412では、まだステップF407〜F411までの処理について未処理の撮像データファイルの有無を確認する。未処理の撮像データファイルが存在すれば、ステップF407に戻り、未処理の撮像データファイル(例えば撮像データファイルPH2)を読み出して、同様にステップF408〜F411の処理を行う。
その後、撮像データファイルPH3以降の撮像データファイルについても同様に処理を行っていく。そしてステップF412で、未処理の撮像データファイルがないと判断された時点で撮像データコピーアプリケーション113による音楽関連データの貼付処理を終える。
以上の処理により、例えば図13(d)のように、撮像データファイルPH1,PH2,PH3・・・に音楽関連データが付加されて記録メディア121に保存されることになる。
In step F412, it is confirmed whether or not there is an unprocessed imaging data file for the processes in steps F407 to F411. If there is an unprocessed image data file, the process returns to step F407, an unprocessed image data file (for example, image data file PH2) is read, and the processes of steps F408 to F411 are performed in the same manner.
Thereafter, the same processing is performed for the imaging data files after the imaging data file PH3. In step F412, when it is determined that there is no unprocessed imaging data file, the music-related data pasting process by the imaging data copy application 113 is finished.
Through the above processing, for example, as shown in FIG. 13D, music-related data is added to the captured data files PH1, PH2, PH3.

以上のように、ユーザーがオーディオプレーヤ80で音楽等を聴きながらカメラ装置20Aで写真撮影操作を行った場合、その後PC本体100に撮像データファイルを転送した段階で、各撮像データファイルに対して聴いていた音楽等についての音楽関連データが貼付されて記録メディア121に保存される。
このように音楽関連データが貼付された撮像データファイルを記録メディア121から読み出して、例えばモニタ装置103で表示させる場合、音楽関連データの内容(曲名、アーティスト名等)を共に表示することで、ユーザーは写真閲覧を行いながら、撮像時に聴いていた音楽を思い起こすことができる。
また、音楽関連データにオーディオコンテンツファイルのファイル名やコンテンツIDなどが存在し、かつ記録メディア121にそのオーディオコンテンツファイルが格納されているのであれば、撮像データファイルを記録メディア121から読み出してモニタ装置103で表示させる場合、音楽関連データからオーディオコンテンツファイルを特定し、PC本体100にインストールされているオーディオ再生アプリケーション等を起動して再生出力されることもでき、ユーザーは、撮像時に聴いていた音楽を聴きながら、写真閲覧を行うといったことも可能となる。
As described above, when the user performs a photography operation with the camera device 20A while listening to music or the like with the audio player 80, the user listens to each imaging data file when the imaging data file is transferred to the PC body 100 thereafter. Music-related data about the music that has been stored is pasted and stored in the recording medium 121.
When the imaging data file with the music-related data attached is read from the recording medium 121 and displayed on the monitor device 103, for example, the contents of the music-related data (song name, artist name, etc.) are displayed together, so that the user Can recall the music he was listening to while taking photos while browsing.
Further, if the music-related data includes the file name or content ID of the audio content file and the audio content file is stored in the recording medium 121, the imaging data file is read from the recording medium 121 and monitored. 103, the audio content file can be identified from the music-related data, and the audio playback application installed in the PC main body 100 can be started and played back. You can also browse photos while listening.

なお、図11、図12の処理は一例にすぎない。
例えば図12のステップF401〜F403と、ステップF404〜F412は別の処理とされて実行されてもよい。つまりステップF401〜F403は、カメラ装置20とPC本体100との通信によって実行する処理であり、一方、ステップF404〜F412はPC本体100側のみで行う処理である。従って、通信確立時にステップF401〜F403を実行し、非通信時にステップF404〜F412を実行してもよい。
また、ステップF401〜F403は、カメラ装置20Aで撮像された撮像データファイルをPC本体100に取り込む処理であるが、必ずしもデータ通信によって実行する必要はない。例えばカメラ装置20Aの記録メディア25が光ディスクやメモリカードなどの可搬性メディアである場合、その記録メディア25をPC本体100側に設けられたディスクドライブやメモリカードスロットに装填して再生し、撮像データファイルを取り込むようにしてもよい。
Note that the processing in FIGS. 11 and 12 is merely an example.
For example, steps F401 to F403 and steps F404 to F412 in FIG. 12 may be executed as separate processes. That is, steps F401 to F403 are processes executed by communication between the camera device 20 and the PC main body 100, while steps F404 to F412 are processes performed only on the PC main body 100 side. Therefore, steps F401 to F403 may be executed when communication is established, and steps F404 to F412 may be executed when communication is not established.
Steps F401 to F403 are processes for taking an image data file captured by the camera device 20A into the PC main body 100, but are not necessarily executed by data communication. For example, when the recording medium 25 of the camera device 20A is a portable medium such as an optical disk or a memory card, the recording medium 25 is loaded into a disk drive or a memory card slot provided on the PC main body 100 side for reproduction, and image data You may make it take in a file.

また図11の処理として、PC本体100がオーディオプレーヤ80から聴取データを取得したら、ステップF303に続いて図12のステップF404〜F412の処理を実行するようにしてもよい。つまり、カメラ装置20Aから転送された撮像データファイルに対する音楽関連データの貼付が、聴取データ取得時に実行されるようにする例である。
もちろん図12のステップF404〜F412の処理が、ユーザーの操作により、或いは撮像データファイルの格納状況などに応じて自動的に、任意の時点で実行されるようにしてもよい。
Further, as the processing in FIG. 11, when the PC main body 100 acquires the listening data from the audio player 80, the processing in steps F404 to F412 in FIG. 12 may be executed following step F303. That is, in this example, the pasting of the music related data to the imaging data file transferred from the camera device 20A is executed when the listening data is acquired.
Of course, the processing in steps F404 to F412 in FIG. 12 may be executed at an arbitrary time point by a user operation or automatically according to the storage state of the imaging data file.

[3.第3の実施の形態:カメラ装置]

続いて、本発明のデータ処理装置を、オーディオ再生機能のないカメラ装置で実現する例を第3の実施の形態として説明する。
図14はオーディオ再生機能のないカメラ装置20Bと、そのカメラ装置20Bとの間でデータ通信を行う外部機器としてのオーディオプレーヤ80Aを示している。
[3. Third Embodiment: Camera Device]

Next, an example in which the data processing device of the present invention is realized by a camera device without an audio playback function will be described as a third embodiment.
FIG. 14 shows a camera device 20B having no audio playback function and an audio player 80A as an external device for performing data communication with the camera device 20B.

この図14に示すカメラ装置20Bは、図8に示したカメラ装置20Aと同様に、レンズ機構26、撮像部22、記録メディア25に対する記録再生部24、通信部27、及び制御部21を備える。但し制御部21における機能として、撮像データの取込動作や記録メディア25への撮像データファイルの記録動作を制御するために、撮像制御部21a、記録再生制御部21c、時計部21eが設けられ、また撮像データに対する音楽関連データの貼付処理を行う貼付処理部21dが設けられる。
さらにこのカメラ装置20Bの通信部27は、オーディオプレーヤ80Aとのデータ通信を行う通信部とされ、またデータ通信制御を行うために制御部21には通信制御部21fとしての機能が設けられる。
通信部27は、例えばUSB方式の通信インターフェース部として形成される。もちろんUSBに限らず、IEEE1394方式、イーサネット、ワイヤレスLAN、ブルートゥース通信などの他の通信インターフェース方式が採用されても良い。
A camera device 20B shown in FIG. 14 includes a lens mechanism 26, an imaging unit 22, a recording / reproducing unit 24 for a recording medium 25, a communication unit 27, and a control unit 21 in the same manner as the camera device 20A shown in FIG. However, as a function of the control unit 21, an imaging control unit 21a, a recording / playback control unit 21c, and a clock unit 21e are provided in order to control the capturing operation of the imaging data and the recording operation of the imaging data file to the recording medium 25. A pasting processing unit 21d that performs pasting processing of music-related data with respect to the imaging data is provided.
Further, the communication unit 27 of the camera device 20B is a communication unit that performs data communication with the audio player 80A, and the control unit 21 is provided with a function as a communication control unit 21f in order to perform data communication control.
The communication unit 27 is formed as a USB communication interface unit, for example. Of course, other communication interface methods such as IEEE 1394 method, Ethernet, wireless LAN, Bluetooth communication, etc., may be adopted.

このカメラ装置20Bは、ユーザーのシャッタボタン操作に応じて、操作部22で撮像データを得、例えば図3(b)の形式で撮像データファイルを記録メディア25に記録していく。つまり通常のデジタルスチルカメラの動作である。その後、後述する図15の処理で、記録メディア25に格納された撮像データファイルに対して、音楽関連データを貼付する処理を行うものとなる。   In response to the user's shutter button operation, the camera device 20B obtains image data with the operation unit 22, and records the image data file on the recording medium 25 in the format of FIG. That is, it is an operation of a normal digital still camera. Thereafter, in the process of FIG. 15 described later, a process of attaching music-related data to the imaging data file stored in the recording medium 25 is performed.

オーディオプレーヤ80Aは、例えば携帯用の再生装置であり、図8のオーディオプレーヤ80と同様に、記録メディア83に対する記録再生部82,オーディオ再生処理部84、通信部85、制御部81が設けられる。制御部81の機能としても同様に、オーディオ処理制御部81a、記録再生制御部81b、聴取データ処理部81c、時計部81d、通信制御部81eを備える。
この場合、通信部85は、カメラ装置20Bとのデータ通信を行う。この通信部85は、例えばUSB方式の通信インターフェース部として形成される。もちろんUSBに限らず、IEEE1394方式、イーサネット、ワイヤレスLAN、ブルートゥース通信などの他の通信インターフェース方式が採用されても良い。
The audio player 80A is, for example, a portable playback device, and is provided with a recording / playback unit 82, an audio playback processing unit 84, a communication unit 85, and a control unit 81 for the recording medium 83, similarly to the audio player 80 of FIG. Similarly, the control unit 81 includes an audio processing control unit 81a, a recording / playback control unit 81b, a listening data processing unit 81c, a clock unit 81d, and a communication control unit 81e.
In this case, the communication unit 85 performs data communication with the camera device 20B. The communication unit 85 is formed as a USB communication interface unit, for example. Of course, other communication interface methods such as IEEE 1394 method, Ethernet, wireless LAN, Bluetooth communication, etc., may be adopted.

なお、この図14においては、カメラ装置20Bが本発明のデータ処理装置としての実施の形態となるが、この場合、本発明請求項の構成要件が以下のように相当する。
撮像データ取込手段:撮像部22、撮像制御部21a。
貼付処理手段:貼付処理部21d。
記録制御手段:記録再生制御部21c。
聴取データ取得手段:通信部27。
In FIG. 14, the camera device 20B is an embodiment as a data processing device of the present invention. In this case, the constituent features of the claims of the present invention correspond to the following.
Imaging data capturing means: imaging unit 22, imaging control unit 21a.
Pasting processing means: pasting processing unit 21d.
Recording control means: a recording / reproducing control unit 21c.
Listening data acquisition means: communication unit 27.

この図14のシステムでは次のような使用形態を想定する。
ユーザーは、携帯用音楽プレーヤであるオーディオプレーヤ80Aで音楽を再生させながら、カメラ装置20Bで写真撮影(撮像データ記録)を行う。
オーディオプレーヤ80Aは、上記第2の実施の形態のオーディオプレーヤ80と同様に、図10の処理でオーディオコンテンツファイルの再生に応じて聴取データを追加更新していく。そしてオーディオプレーヤ80Aとカメラ装置20Bは任意の時点でデータ通信を行い、聴取データがカメラ装置20Bに提供される。
カメラ装置20Bは、撮像して記録メディア25に格納した撮像データファイルについて、聴取データを用いて音楽関連データを貼付する処理を行う。
The following usage pattern is assumed in the system of FIG.
The user takes a picture (records image data) with the camera device 20B while reproducing the music with the audio player 80A, which is a portable music player.
Similar to the audio player 80 of the second embodiment, the audio player 80A additionally updates the listening data in accordance with the reproduction of the audio content file in the process of FIG. The audio player 80A and the camera device 20B perform data communication at an arbitrary time, and listening data is provided to the camera device 20B.
The camera device 20B performs processing for pasting music-related data using the listening data for the captured data file that has been captured and stored in the recording medium 25.

聴取データの転送と、それに伴って行われる撮像データファイルへの音楽関連データ貼付処理を図15で説明する。
図15は、オーディオプレーヤ80Aとカメラ装置20Bが通信可能に接続された際の処理を示している。カメラ装置20B側では制御部21による処理となり、オーディオプレーヤ80A側では制御部81による処理となる。
The transfer of the listening data and the music-related data pasting process to the imaging data file performed in accordance therewith will be described with reference to FIG.
FIG. 15 shows processing when the audio player 80A and the camera device 20B are connected to be communicable. The processing is performed by the control unit 21 on the camera device 20B side, and the processing by the control unit 81 is performed on the audio player 80A side.

オーディオプレーヤ80Aの通信部85とカメラ装置20Bの通信部27との間の相互の通信が確立されたら、カメラ装置20Bの制御部21はステップF501において、オーディオプレーヤ80に対して聴取データを要求する送信を行う。
オーディオプレーヤ80の制御部81は、ステップF511で聴取データ要求を受信したら、ステップF512で記録再生部82に指示して記録メディア83から聴取データを読み出させる。そして制御部81はステップF513で、記録メディア83から読み出した聴取データを通信部85からカメラ装置20Bに対して送信させる。
カメラ装置20Bの制御部21は、ステップF502でオーディオプレーヤ80から送信されてきた聴取データを受信し、その受信した聴取データを記録再生部24に転送して記録メディア25に格納させる。
When the mutual communication between the communication unit 85 of the audio player 80A and the communication unit 27 of the camera device 20B is established, the control unit 21 of the camera device 20B requests the audio player 80 for listening data in step F501. Send.
When receiving the listening data request in step F511, the control unit 81 of the audio player 80 instructs the recording / playback unit 82 to read the listening data from the recording medium 83 in step F512. In step F513, the control unit 81 causes the communication unit 85 to transmit the listening data read from the recording medium 83 to the camera device 20B.
The control unit 21 of the camera device 20B receives the listening data transmitted from the audio player 80 in step F502, transfers the received listening data to the recording / playback unit 24, and stores it in the recording medium 25.

このようにしてオーディオプレーヤ80Aから聴取データを取得したら、カメラ装置20Bの制御部21は、処理をステップF503に進め、撮像データファイルを取り出す。即ちそれまでの撮像動作によって記録メディア25に記録してあった撮像データファイルのうち、1つの撮像データファイルを読み出す。
そしてステップF504で、その撮像データファイルを撮像した日時に、オーディオプレーヤ80Aで再生していた音楽等が存在するか否かを確認する。上述した第2の実施の形態において説明したように、聴取データにおける聴取開始日時と聴取終了日時と、撮像データファイルのヘッダ情報に含まれる撮像日時を比較照合していくことで、撮像時点にユーザーが聴いていたオーディオコンテンツファイルが存在するか否かが確認できる。
When the listening data is acquired from the audio player 80A in this way, the control unit 21 of the camera device 20B advances the process to Step F503, and extracts an imaging data file. That is, one imaging data file is read out from the imaging data files recorded on the recording medium 25 by the imaging operation so far.
In step F504, it is confirmed whether or not there is music or the like reproduced by the audio player 80A at the date and time when the imaged data file was imaged. As described in the second embodiment described above, the user at the time of imaging is compared by comparing the listening start date / time and listening end date / time in the listening data with the imaging date / time included in the header information of the imaging data file. It is possible to confirm whether or not there is an audio content file that has been listened to.

もし、その撮像日時に該当する時点で再生されていたオーディオコンテンツファイルが存在しなければ、現在処理対象としている撮像データファイルに貼付する音楽関連データは存在しないため、ステップF504からF508に進む。
一方、撮像日時に再生されていたオーディオコンテンツファイルが存在する場合は、ステップF504からF505に進み、既にその撮像データファイルに音楽関連データが貼付されているか否かを確認する。ステップF503で取り出した撮像データファイルに対して過去に音楽関連データの貼付処理が行われていた場合、今回の処理は必要ないため、ステップF505からF508に進む。
ステップF505で、処理対象としている撮像データファイルに音楽関連データが貼付されていないと判断されたら、ステップF506に進み、音楽関連データを貼付する処理を行う。
即ち聴取データにおいて、撮像時点が含まれる聴取開始日時、聴取終了日時に対応して記録されている音楽関連データ、つまり撮像時点で聴いていたオーディオコンテンツファイルの音楽関連データを読み出し、これを撮像データファイルに貼付する。
そして貼付処理を行ったら、ステップF507で、記録再生部24によって当該音楽関連データを貼付した撮像データファイルを、記録メディア25に上書き記録させる。そしてステップF508に進む。
If there is no audio content file being played back at the time corresponding to the imaging date and time, there is no music-related data to be attached to the imaging data file currently being processed, and the process advances from step F504 to F508.
On the other hand, if there is an audio content file that has been played back at the imaging date and time, the process proceeds from step F504 to F505 to check whether music-related data has already been attached to the imaging data file. If pasting processing of music-related data has been performed on the imaging data file extracted in step F503, the current processing is not necessary, and the process advances from step F505 to F508.
If it is determined in step F505 that music-related data is not attached to the imaging data file to be processed, the process proceeds to step F506 to perform processing for attaching music-related data.
That is, in the listening data, the music related data recorded corresponding to the listening start date and time and the listening end date and time including the imaging time point, that is, the music related data of the audio content file that was being listened to at the imaging time point is read out, and this data is read out Affix to file.
After performing the pasting process, in step F507, the recording / playback unit 24 causes the recording data 25 to be overwritten and recorded on the recording medium 25 by pasting the music related data. Then, the process proceeds to Step F508.

ステップF508では、まだステップF504〜F507までの処理について未処理の撮像データファイルの有無を確認する。未処理の撮像データファイルが記録メディア25に存在すれば、ステップF503に戻り、未処理の撮像データファイルを読み出して、同様にステップF504〜F507の処理を行う。
制御部21は、ステップF508で、未処理の撮像データファイルがないと判断された時点で音楽関連データの貼付処理を終える。
以上の処理により、撮像データファイルに音楽関連データが付加されて記録メディア25に保存された状態となる。
In step F508, it is confirmed whether or not there is an unprocessed imaging data file for the processes in steps F504 to F507. If an unprocessed imaging data file exists in the recording medium 25, the process returns to step F503, the unprocessed imaging data file is read, and the processes of steps F504 to F507 are performed in the same manner.
The control unit 21 ends the music-related data pasting process when it is determined in step F508 that there is no unprocessed imaging data file.
Through the above processing, the music-related data is added to the imaging data file and stored in the recording medium 25.

このように、ユーザーがオーディオプレーヤ80で音楽等を聴きながらカメラ装置20Bで写真撮影操作を行った場合、その後カメラ装置20Bがオーディオプレーヤ80Aから聴取データを取得した段階で、各撮像データファイルに対して聴いていた音楽等についての音楽関連データが貼付されて記録メディア25に保存される。
このように音楽関連データが貼付された撮像データファイルを記録メディア25から読み出して表示させる場合、音楽関連データの内容(曲名、アーティスト名等)を共に表示することで、ユーザーは写真閲覧を行いながら、撮像時に聴いていた音楽を思い起こすことができる。
また、このようにカメラ装置20B内で音楽関連データが貼付された撮像データファイルを、その後にパーソナルコンピュータ等に転送することもできる。すると、パーソナルコンピュータ等で撮像データファイルを閲覧する際に、音楽関連データを共に表示させたり、音楽関連データに基づいて該当曲を再生させたりすることもできる。
As described above, when the user performs a photo shooting operation with the camera device 20B while listening to music or the like with the audio player 80, the camera device 20B then acquires the listening data from the audio player 80A with respect to each imaging data file. Music-related data about the music that was being listened to is pasted and stored in the recording medium 25.
When the imaging data file with the music-related data attached is read out from the recording medium 25 and displayed in this manner, the contents of the music-related data (song title, artist name, etc.) are displayed together so that the user can browse the photo. , I can recall the music I was listening to at the time of imaging.
In addition, the imaging data file to which the music-related data is pasted in the camera device 20B can be transferred to a personal computer or the like thereafter. Then, when browsing the imaging data file with a personal computer or the like, the music related data can be displayed together or the corresponding music can be reproduced based on the music related data.

なお、図15の処理は一例にすぎない。
例えば図15のステップF501〜F502と、ステップF503〜F508は、別の処理として制御部21が実行してもよい。つまりステップF501〜F502は、オーディオプレーヤ80Aとの通信によって実行する処理であり、一方、ステップF503〜F508はカメラ装置20B側のみで行う処理である。従って、通信確立時にステップF501〜F502を実行し、非通信時にステップF503〜F508を実行してもよい。
もちろんステップF503〜F508の処理が、ユーザーの操作により、或いは撮像データファイルの格納状況などに応じて自動的に、任意の時点で実行されるようにしてもよい。
Note that the process of FIG. 15 is merely an example.
For example, the control unit 21 may execute steps F501 to F502 and steps F503 to F508 in FIG. 15 as separate processes. That is, steps F501 to F502 are processes performed by communication with the audio player 80A, while steps F503 to F508 are processes performed only on the camera device 20B side. Therefore, steps F501 to F502 may be executed when communication is established, and steps F503 to F508 may be executed when communication is not established.
Of course, the processing of steps F503 to F508 may be executed at an arbitrary time point by a user operation or automatically according to the storage status of the imaging data file.

[4.変形例及びプログラム]

以上、実施の形態を説明してきたが、本発明としては多様な変形例が考えられる。
実施の形態では、カメラ装置やパーソナルコンピュータにおいて本発明のデータ処理装置が実現される例を説明したが、撮像データファイルを扱う多様な機器で本発明は実現可能である。例えば携帯用のパーソナルコンピュータ、PDA(Personal Digital Assistant)、携帯電話機などであっても本発明は実施可能である。
[4. Modifications and Program]

Although the embodiments have been described above, various modifications can be considered as the present invention.
In the embodiment, an example in which the data processing apparatus of the present invention is realized in a camera device or a personal computer has been described. However, the present invention can be realized by various devices that handle imaging data files. For example, the present invention can be implemented even with a portable personal computer, a PDA (Personal Digital Assistant), a mobile phone, and the like.

音楽関連データとしては、曲名、アルバム名、アーティスト名、作詞作曲者名、歌詞の一部テキスト、オーディオデータ自体、オーディオデータの一部などが考えられるが、これ以外も多様に想定できる。再生される楽曲に関連するデータであれば、どのようなものでも良い。
また音楽関連データとして説明し、オーディオコンテンツファイルは楽曲であるとした例で説明したが、もちろん楽曲に限られない。例えば、小説等の朗読音声、講演音声、落語等の芸能音声、風の音、波の音などの自然音などがオーディオコンテンツファイルとして記録されており、撮像時にユーザーが再生させていた場合、それらに関連するデータが撮像データファイルに貼付されればよい。
As music-related data, a song name, album name, artist name, songwriter name, partial text of lyrics, audio data itself, a part of audio data, and the like can be considered. Any data may be used as long as it is related to the music to be reproduced.
In addition, the explanation has been given by taking the example in which the audio content file is a music piece as the music related data, but it is of course not limited to the music piece. For example, reading audio such as novels, speech audio, entertainment audio such as rakugo, natural sounds such as wind sounds and wave sounds are recorded as audio content files, and related to those played by the user at the time of imaging It is only necessary that the data to be attached is attached to the imaging data file.

本発明のプログラムは、撮像データファイルへのオーディオ関連データを貼付する処理を実行させるプログラムである。例えば図2,図11と図12、図15で説明した処理を実行させるプログラムである。
このような本発明のプログラムは、カメラ装置やコンピュータシステムにおける記録媒体としてのシステムHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
あるいはまた、プログラムは、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。例えばCD−ROM、DVD−ROM等により提供されることで、コンピュータシステムにインストールできる。またプログラムは、リムーバブル記録媒体からインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
The program of the present invention is a program for executing processing for attaching audio-related data to an imaging data file. For example, it is a program for executing the processing described with reference to FIG. 2, FIG. 11, FIG. 12, and FIG.
Such a program of the present invention can be recorded in advance in a system HDD as a recording medium in a camera device or a computer system, a ROM in a microcomputer having a CPU, or the like.
Alternatively, the program is temporarily or permanently stored on a removable recording medium such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magnet optical) disk, DVD (Digital Versatile Disc), magnetic disk, and semiconductor memory. Can be stored (recorded). Such a removable recording medium can be provided as so-called package software. For example, it can be installed in a computer system by being provided by a CD-ROM, a DVD-ROM, or the like. In addition to installing from a removable recording medium, the program can be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.

本発明の第1の実施の形態のカメラ装置の構成のブロック図である。It is a block diagram of the structure of the camera apparatus of the 1st Embodiment of this invention. 第1の実施の形態の音楽関連データ貼付処理のフローチャートである。It is a flowchart of the music related data sticking process of 1st Embodiment. 第1の実施の形態の撮像データファイルの説明図である。It is explanatory drawing of the imaging data file of 1st Embodiment. 第1の実施の形態のカメラ装置となるオーディオ・カメラ複合装置の正面図、平面図、左側面図、右側面図、底面図、背面図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a front view, a plan view, a left side view, a right side view, a bottom view, and a rear view of an audio / camera combined apparatus that is a camera apparatus according to a first embodiment; 第1の実施の形態のカメラ装置となるオーディオ・カメラ複合装置のレンズカバーの開閉状態の説明図である。It is explanatory drawing of the opening / closing state of the lens cover of the audio camera composite apparatus used as the camera apparatus of 1st Embodiment. 第1の実施の形態のカメラ装置となるオーディオ・カメラ複合装置のブロック図である。1 is a block diagram of an audio / camera combined apparatus as a camera apparatus according to a first embodiment. FIG. 第1の実施の形態のカメラ装置となるオーディオ・カメラ複合装置のカメラ/LCDブロックのブロック図である。1 is a block diagram of a camera / LCD block of an audio / camera combined apparatus as a camera apparatus according to a first embodiment; FIG. 第2の実施の形態の構成の説明図である。It is explanatory drawing of the structure of 2nd Embodiment. 第2,第3の実施の形態で用いる聴取データの説明図である。It is explanatory drawing of the listening data used in 2nd, 3rd embodiment. 第2,第3の実施の形態のオーディオプレーヤの処理のフローチャートである。It is a flowchart of the process of the audio player of 2nd, 3rd embodiment. 第2の実施の形態のオーディオプレーヤとPC本体の通信時の処理のフローチャートである。It is a flowchart of the process at the time of communication of the audio player and PC main body of 2nd Embodiment. 第2の実施の形態のカメラ装置とPC本体の通信時の処理のフローチャートである。It is a flowchart of the process at the time of communication of the camera apparatus and PC main body of 2nd Embodiment. 第2の実施の音楽関連データの貼付までの記録状態の説明図である。It is explanatory drawing of the recording state until sticking of the music related data of 2nd implementation. 第3の実施の形態の構成の説明図である。It is explanatory drawing of a structure of 3rd Embodiment. 第3の実施の形態のカメラ装置とオーディオプレーヤの通信時の処理のフローチャートである。It is a flowchart of the process at the time of communication of the camera apparatus of 3rd Embodiment and an audio player.

符号の説明Explanation of symbols

20,20A,20B カメラ装置、21 制御部、21a 撮像制御部、21b オーディオ処理制御部、21c 記録再生制御部、21d 貼付処理部、21e 時計部、21f通信制御部、22 撮像部、23 オーディオ再生処理部、24 記録再生部、25 記録メディア、100 PC本体、111 OS、112 音楽データ同期アプリケーション、113 撮像データコピーアプリケーション、120 記録再生部、121 記録メディア   20, 20A, 20B Camera device, 21 control unit, 21a imaging control unit, 21b audio processing control unit, 21c recording / playback control unit, 21d pasting processing unit, 21e clock unit, 21f communication control unit, 22 imaging unit, 23 audio playback Processing unit, 24 recording / playback unit, 25 recording medium, 100 PC main body, 111 OS, 112 music data synchronization application, 113 imaging data copy application, 120 recording / playback unit, 121 recording medium

Claims (8)

撮像データを取り込む撮像データ取込手段と、
上記撮像データに対して、その撮像データの撮像日時に再生されていたオーディオデータに関するオーディオ関連データを貼付する貼付処理手段と、
上記貼付処理手段でオーディオ関連データが貼付された撮像データを記録媒体に記録させる記録制御手段と、
を備えたことを特徴とするデータ処理装置。
Imaging data capturing means for capturing imaging data;
Affixing processing means for affixing audio-related data related to audio data reproduced at the imaging date and time of the imaging data to the imaging data;
Recording control means for recording on the recording medium the imaging data to which the audio-related data is pasted by the pasting processing means;
A data processing apparatus comprising:
上記撮像データ取込手段は、被写体画像を撮像する撮像部として構成されることを特徴とする請求項1に記載のデータ処理装置。   The data processing apparatus according to claim 1, wherein the imaging data capturing unit is configured as an imaging unit that captures a subject image. オーディオデータを再生するオーディオ再生手段をさらに備え、
上記貼付処理手段は、上記撮像部で撮像を実行した時点に上記オーディオ再生手段で再生されていたオーディオデータに関するオーディオ関連データを取得し、上記撮像部で撮像された撮像データに貼付することを特徴とする請求項2に記載のデータ処理装置。
It further comprises audio playback means for playing back audio data,
The pasting processing means acquires audio-related data related to audio data reproduced by the audio reproduction means at the time when imaging is performed by the imaging section, and pastes the data to the imaging data captured by the imaging section. The data processing apparatus according to claim 2.
外部のオーディオ再生装置から、そのオーディオ再生装置で再生されたオーディオデータについての再生日時情報とオーディオ関連データを含む聴取データを取得する聴取データ取得手段をさらに備え、
上記貼付処理手段は、上記撮像部で撮像された撮像データに含まれる撮像日時情報と、上記聴取データ取得手段によって取得された上記聴取データにおける再生日時情報を用いて、撮像データに、上記聴取データに含まれるオーディオ関連データを貼付する処理を行うことを特徴とする請求項2に記載のデータ処理装置。
It further comprises listening data acquisition means for acquiring listening data including playback date and time information and audio related data for audio data played back by the audio playback device from an external audio playback device,
The pasting processing means uses the imaging date and time information included in the imaging data imaged by the imaging unit and the reproduction date and time information in the listening data acquired by the listening data acquisition means, and uses the listening data as imaging data. The data processing apparatus according to claim 2, wherein processing for pasting audio-related data included in the data is performed.
上記撮像データ取込手段は、外部機器とのデータ通信により、外部機器から送信されてくる撮像データを取り込むことを特徴とする請求項1に記載のデータ処理装置。   The data processing apparatus according to claim 1, wherein the imaging data capturing unit captures imaging data transmitted from an external device through data communication with the external device. 外部のオーディオ再生装置から、そのオーディオ再生装置で再生されたオーディオデータについての再生日時情報とオーディオ関連データを含む聴取データを取得する聴取データ取得手段をさらに備え、
上記貼付処理手段は、上記撮像データ取込手段で取り込んだ撮像データに含まれる撮像日時情報と、上記聴取データ取得手段によって取得された上記聴取データにおける再生日時情報を用いて、撮像データに、上記聴取データに含まれるオーディオ関連データを貼付する処理を行うことを特徴とする請求項5に記載のデータ処理装置。
It further comprises listening data acquisition means for acquiring listening data including playback date and time information and audio related data for audio data played back by the audio playback device from an external audio playback device,
The pasting processing means uses the imaging date / time information included in the imaging data captured by the imaging data capturing means and the reproduction date / time information in the listening data acquired by the listening data acquisition means, to the imaging data, 6. The data processing apparatus according to claim 5, wherein processing for attaching audio-related data included in the listening data is performed.
撮像データを取り込む撮像データ取込ステップと、
上記撮像データに対して、その撮像データの撮像日時に再生されていたオーディオデータに関するオーディオ関連データを貼付する貼付処理ステップと、
上記貼付処理ステップでオーディオ関連データが貼付された撮像データを記録媒体に記録させる記録制御ステップと、
を備えたことを特徴とするデータ処理方法。
An imaging data capturing step for capturing imaging data;
Affixing processing step of affixing audio-related data related to audio data reproduced at the imaging date and time of the imaging data to the imaging data;
A recording control step for recording the imaging data to which the audio-related data is pasted in the pasting step on a recording medium;
A data processing method comprising:
撮像データを取り込む撮像データ取込ステップと、
上記撮像データに対して、その撮像データの撮像日時に再生されていたオーディオデータに関するオーディオ関連データを貼付する貼付処理ステップと、
上記貼付処理ステップでオーディオ関連データが貼付された撮像データを記録媒体に記録させる記録制御ステップと、
をデータ処理装置に実行させるプログラム。
An imaging data capturing step for capturing imaging data;
Affixing processing step of affixing audio-related data related to audio data reproduced at the imaging date and time of the imaging data to the imaging data;
A recording control step for recording the imaging data to which the audio-related data is pasted in the pasting step on a recording medium;
That causes a data processing device to execute
JP2005188059A 2005-06-28 2005-06-28 Data processing apparatus, data processing method, and program Expired - Fee Related JP4517957B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005188059A JP4517957B2 (en) 2005-06-28 2005-06-28 Data processing apparatus, data processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005188059A JP4517957B2 (en) 2005-06-28 2005-06-28 Data processing apparatus, data processing method, and program

Publications (2)

Publication Number Publication Date
JP2007013286A true JP2007013286A (en) 2007-01-18
JP4517957B2 JP4517957B2 (en) 2010-08-04

Family

ID=37751250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005188059A Expired - Fee Related JP4517957B2 (en) 2005-06-28 2005-06-28 Data processing apparatus, data processing method, and program

Country Status (1)

Country Link
JP (1) JP4517957B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202025A (en) * 2006-01-30 2007-08-09 Olympus Imaging Corp Music image transmission device, camera, and transmission control method
WO2014155766A1 (en) * 2013-03-27 2014-10-02 富士ゼロックス株式会社 Information processing device and information processing program
JP2018032408A (en) * 2017-09-20 2018-03-01 Pioneer DJ株式会社 Transmission device, distribution server, method of controlling transmission device, method of controlling distribution server, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020090A (en) * 2004-07-01 2006-01-19 Olympus Corp Information reproducing device
JP2006109151A (en) * 2004-10-06 2006-04-20 Olympus Corp Image recording device and electronic album creation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020090A (en) * 2004-07-01 2006-01-19 Olympus Corp Information reproducing device
JP2006109151A (en) * 2004-10-06 2006-04-20 Olympus Corp Image recording device and electronic album creation system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202025A (en) * 2006-01-30 2007-08-09 Olympus Imaging Corp Music image transmission device, camera, and transmission control method
WO2014155766A1 (en) * 2013-03-27 2014-10-02 富士ゼロックス株式会社 Information processing device and information processing program
JP2014192718A (en) * 2013-03-27 2014-10-06 Fuji Xerox Co Ltd Information processing device and information processing program
AU2013383808B2 (en) * 2013-03-27 2016-05-12 Fujifilm Business Innovation Corp. Information processing device and information processing program
US9904691B2 (en) 2013-03-27 2018-02-27 Fuji Xerox Co., Ltd. Information processing device and non-transitory computer readable medium
JP2018032408A (en) * 2017-09-20 2018-03-01 Pioneer DJ株式会社 Transmission device, distribution server, method of controlling transmission device, method of controlling distribution server, and program

Also Published As

Publication number Publication date
JP4517957B2 (en) 2010-08-04

Similar Documents

Publication Publication Date Title
CN1801918B (en) Reproduction apparatus and display control method
JP4232746B2 (en) Playback device and display control method
JP3614120B2 (en) Imaging device
JP2002374447A (en) Cradle for information equipment, cradle for digital camera, and camera system
JP2002182957A (en) Recorder and method
JP4517957B2 (en) Data processing apparatus, data processing method, and program
US7986349B2 (en) Recording device, reproducing device, image file generating method, and display controlling method
KR20100065577A (en) Terminal executing function of voice recording and method for processing image thereof
WO2004095451A1 (en) Input data recorder and input data recording method
TWI323547B (en) Method for eliminating a sound of motor and digital image capture device using the method
JP4893062B2 (en) Imaging apparatus and program
JP2007011452A (en) Program, data processing method, data processor, audio reproducing apparatus
JP2006238011A (en) Recorder/reproducer and imaging method
JP2007067949A (en) Image reproducing system image reproducing apparatus, imaging device and information processor
JP4066378B2 (en) Recording / reproducing apparatus and control method thereof
JP4470698B2 (en) Digital still camera and display control method of digital still camera
JP4407470B2 (en) Recording / playback device
JP2005012369A (en) Data transfer apparatus
JP2003046935A (en) Data editing method, information processor, server, data editing program and recording medium
JP4296501B2 (en) Recording / reproducing apparatus and method
JP4836273B2 (en) Video imaging device
JPWO2005055066A1 (en) Information recording apparatus, control program, and recording medium
JP2021057762A (en) Imaging apparatus, information processing method, and program
JP2004242104A (en) Recorder
JP2006157384A (en) Reproducing device and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100427

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees