JP2008154183A - Device, method and program for processing content data - Google Patents

Device, method and program for processing content data Download PDF

Info

Publication number
JP2008154183A
JP2008154183A JP2006342876A JP2006342876A JP2008154183A JP 2008154183 A JP2008154183 A JP 2008154183A JP 2006342876 A JP2006342876 A JP 2006342876A JP 2006342876 A JP2006342876 A JP 2006342876A JP 2008154183 A JP2008154183 A JP 2008154183A
Authority
JP
Japan
Prior art keywords
data
content
track
display
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006342876A
Other languages
Japanese (ja)
Inventor
Hiroyuki Sasaki
博幸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2006342876A priority Critical patent/JP2008154183A/en
Publication of JP2008154183A publication Critical patent/JP2008154183A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate audio data capable of enabling a user to easily reproduce sound data from a part in the middle of track from audio data of existing format. <P>SOLUTION: Audio data 100 have sound data 120 of one track and content text data 114 corresponding to words of the sound data 120 of the track. The content text data 114 are displayed in synchronism with reproduction of the sound data 120. A multifunction machine 20 creates display data 148 from the content text data 114. The display data 148 are constituted by associating text data 178 and 198 of words and hyper link data 172 and 192 with timing attribute data 176 and 196 corresponding to reproduction time axis of the sound data 120 respectively. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、コンテンツデータを処理する技術に関する。本明細書における「コンテンツデータ」は、音データ及び/又は映像データと、その音データ及び/又は映像データの内容に関するテキストデータとを有するデータを意味する。   The present invention relates to a technique for processing content data. The “content data” in this specification means data having sound data and / or video data and text data regarding the contents of the sound data and / or video data.

例えば、インターネット上のサーバからパーソナルコンピュータ(以下では「PC」と呼ぶ)にコンテンツデータをダウンロードすることが広く行なわれている。コンテンツオデータは、音データ及び/又は映像データを有する。PCは、音データや映像データを再生することができる。また、PCは、ダウンロードされた音データや映像データをコンテンツ再生装置(例えばポータブルオーディオ再生装置)に出力することができる。この場合、コンテンツ再生装置において音データや映像データが再生される。
通常、音データや映像データは、トラック単位で管理される。トラックは、音データや映像データの作成者によって決められる任意の単位である。例えば、楽曲の音データの場合、1曲が1つのトラックになることが多い。
For example, content data is widely downloaded from a server on the Internet to a personal computer (hereinafter referred to as “PC”). The content data includes sound data and / or video data. The PC can reproduce sound data and video data. Further, the PC can output the downloaded sound data and video data to a content reproduction device (for example, a portable audio reproduction device). In this case, sound data and video data are reproduced in the content reproduction apparatus.
Normally, sound data and video data are managed in units of tracks. A track is an arbitrary unit determined by a creator of sound data and video data. For example, in the case of music sound data, one song often becomes one track.

音データとテキストデータとを有するコンテンツデータが知られている。例えば、MP3形式(MPEG Audio Layer−3)のコンテンツデータは、少なくとも1つのトラックの音データとID3データとを有する。ID3データに関しては、下記の非特許文献1に詳しく開示されている。ID3データは、PCやコンテンツ再生装置において表示される様々な表示用データを有する。
例えば、ID3データは、トラックのタイトルに関するタイトルテキストデータを有する。PCやコンテンツ再生装置は、ID3データに含まれるタイトルテキストデータに基づいて、トラックのタイトルを表示することができる。
また、ID3データは、音データの内容(例えば歌詞)に関する内容テキストデータを含むことがある。一つの形態の内容テキストデータは、音データの再生時間軸に対応する複数のタイミングデータのそれぞれに、そのタイミングデータに対応する部分の歌詞(テキストデータ)が対応づけられたものである。タイミングデータと歌詞が対応づけられている内容テキストデータを利用すると、PCやコンテンツ再生装置は、音データの再生に同期して歌詞を表示することができる。下記の特許文献1には、音データの再生に同期して内容テキストデータを表示することが開示されている。
Content data having sound data and text data is known. For example, content data in MP3 format (MPEG Audio Layer-3) has sound data and ID3 data of at least one track. The ID3 data is disclosed in detail in Non-Patent Document 1 below. The ID3 data includes various display data displayed on a PC or content reproduction device.
For example, the ID3 data includes title text data related to the track title. The PC and the content reproduction apparatus can display the track title based on the title text data included in the ID3 data.
Further, the ID3 data may include content text data related to the content (for example, lyrics) of the sound data. The content text data in one form is obtained by associating each of a plurality of timing data corresponding to the reproduction time axis of the sound data with a part of lyrics (text data) corresponding to the timing data. If content text data in which timing data and lyrics are associated with each other is used, the PC or the content reproduction apparatus can display the lyrics in synchronization with the reproduction of the sound data. Patent Document 1 below discloses displaying content text data in synchronization with reproduction of sound data.

‘‘ID3 tag’’、[online]、S.S Planning、[平成18年12月4日検索]、インターネット<URL:http://www.e−ssp.net/id3.html>'ID3 tag', [online], S. S Planning, [Search December 4, 2006], Internet <URL: http: // www. e-ssp. net / id3. html> 特開2003−157091号公報JP 2003-157091 A

PCやコンテンツ再生装置において1つのトラックの途中の箇所から音データや映像データを再生したいという要望がある。従来のコンテンツデータの形式では、再生されている音データや映像データをユーザが早送り又は巻き戻しすることによって、トラックの途中の箇所から音データや映像データが再生される。しかしながら、この手法では、ユーザが所望する箇所を越えて早送り又は巻き戻しされてしまうことがある。この場合、ユーザは、所望する箇所から再生されるように、早送り又は巻き戻しを再び実行しなければならない。   There is a demand for reproducing sound data and video data from a position in the middle of one track in a PC or content reproduction apparatus. In the conventional content data format, sound data and video data are reproduced from a position in the middle of a track when a user fast-forwards or rewinds the reproduced sound data and video data. However, with this method, the user may fast forward or rewind beyond the point desired by the user. In this case, the user must perform fast forward or rewind again so that it can be played from the desired location.

本発明は、上記した実情に鑑みて創作されたものである。本発明は、既存の形式のコンテンツデータから、ユーザがトラックの途中の箇所から音データや映像データを簡単に再生させることができるコンテンツデータを作成する技術を提供する。   The present invention has been created in view of the above circumstances. The present invention provides a technique for creating content data that allows a user to easily reproduce sound data and video data from an intermediate position of a track from content data in an existing format.

通常、コンテンツデータには、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの表示用データ(上記の例ではID3タグデータ)が含まれている。一般的には、この表示用データには、トラックのタイトル等のテキストデータが含まれている。また、一般的なコンテンツ再生装置は、ハイパーリンク構造に対応したテキスト閲覧機能を有する。このタイプのコンテンツ再生装置では、トラックのタイトルを表示することができるとともに、表示画面の中からユーザによってタイトルが選択されるとそのトラックを頭から再生させることができる。本発明では、このハイパーリンク構造のデータ形式を利用し、表示用データに含まれる内容テキストデータ(例えば歌詞)の各部にハイパーリンク構造を付加する。即ち、本発明では、トラックより小さい単位でハイパーリンク構造を付加する。   In general, the content data includes sound data and / or video data of at least one track and display data for the track (ID3 tag data in the above example). In general, the display data includes text data such as a track title. Moreover, a general content reproduction apparatus has a text browsing function corresponding to a hyperlink structure. In this type of content playback apparatus, the title of a track can be displayed, and when the title is selected by the user from the display screen, the track can be played back from the beginning. In the present invention, this hyperlink structure data format is used to add a hyperlink structure to each part of content text data (for example, lyrics) included in display data. That is, in the present invention, the hyperlink structure is added in units smaller than the track.

本発明の一つの形態は、外部機器に接続されて利用されるコンテンツデータ処理装置である。このコンテンツデータ処理装置は、外部機器から出力されたコンテンツデータを入力する入力装置と、入力装置に入力されたコンテンツデータから別のデータを作成するデータ作成装置とを備える。
上記の「外部機器」は、コンテンツデータ処理装置にコンテンツデータを出力することができる様々なデバイスを含む概念である。例えば、外部機器は、通信ネットワーク上のコンテンツデータ配信サーバであってもよい。また、例えば、外部機器は、コンテンツデータ処理装置に直接的に接続されるデバイス(メモリ)であってもよい。
One aspect of the present invention is a content data processing apparatus that is used by being connected to an external device. The content data processing device includes an input device that inputs content data output from an external device, and a data creation device that generates other data from the content data input to the input device.
The “external device” is a concept including various devices that can output content data to a content data processing apparatus. For example, the external device may be a content data distribution server on a communication network. Further, for example, the external device may be a device (memory) directly connected to the content data processing apparatus.

上記のコンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有する。前記のトラックの第1表示用データは、そのトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものである。
上記の「音データ及び/又は映像データの内容」は、音データの歌詞、楽譜、コード等を含む。例えば、音データが楽曲である場合、テキストデータは、その楽曲の歌詞、楽譜、コード等であってもよい。また、例えば、音データが楽曲ではない音声(例えば外国語会話講座)である場合、テキストデータは、その音声に対応する文字であってもよい。また、例えば、映像データが映画の場合、テキストデータは、その映画の字幕であってもよい。
なお、第1表示用データは、第1タイミングデータにテキストデータのみが対応づけられたものであってもよいし、第1タイミングデータにテキストデータと別のデータとが対応づけられたものであってもよい。
また、タイミングデータ(第1タイミングデータ又は後述する第2タイミングデータ)は、時間の単位で表現されるものであってもよいし、他の単位で表現されるものであってもよい。前者の場合、タイミングデータは、トラックの音データの頭からの再生時間であってもよい。また、後者の場合、タイミングデータは、トラックの音データの頭からのフレーム数であってもよい。
The content data includes sound data and / or video data of at least one track and first display data of the track. The first display data of the track includes a portion of sound data corresponding to the first timing data in each of the plurality of first timing data corresponding to the reproduction time axis of the sound data and / or video data of the track. And / or text data related to the contents of the video data.
The above “contents of sound data and / or video data” includes lyrics of the sound data, a score, a code, and the like. For example, when the sound data is a song, the text data may be the lyrics of the song, a score, a chord, or the like. Further, for example, when the sound data is a sound that is not a song (for example, a foreign language conversation course), the text data may be a character corresponding to the sound. For example, when the video data is a movie, the text data may be a caption of the movie.
The first display data may be data in which only text data is associated with the first timing data, or text data and other data are associated with the first timing data. May be.
Further, the timing data (first timing data or second timing data described later) may be expressed in units of time or may be expressed in other units. In the former case, the timing data may be the playback time from the beginning of the sound data of the track. In the latter case, the timing data may be the number of frames from the head of the sound data of the track.

データ作成装置は、前記のトラックの第1表示用データから第2表示用データを作成する。その第2表示用データは、前記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものである。
上述したように、上記のトラックの第1表示用データには、そのトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータが含まれている。データ作成装置は、これらの第1タイミングデータに基づいて第2タイミングデータを設定することができる。「複数の第2タイミングデータ」は、上記の「複数の第1タイミングデータ」に一致してもよいし、一致しなくてもよい。
第2表示用データでは、複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられている。このために、コンテンツデータ処理装置及び/又は別のコンテンツ再生装置は、上記のトラックの音データ及び/又は映像データの再生に同期してテキストデータを表示することができる。なお、コンテンツデータ処理装置及び/又は別のコンテンツ再生装置は、上記のトラックの音データ及び/又は映像データを再生しないでテキストデータを表示してもよい。即ち、テキストデータを非同期的に表示してもよい。第2タイミングデータとテキストデータの対応づけは、ハイパーリンク構造になっている。この第2表示用データを利用すると、コンテンツデータ処理装置及び/又は別のコンテンツ再生装置は、音データ及び/又は映像データの再生に同期(又は非同期)して表示されるテキストデータの一部がユーザによって選択された場合に、その選択された箇所から音データ及び/又は映像データを再生することができる。
本発明のコンテンツデータ処理装置は、既存の形式のコンテンツデータから新規な第2表示用データを作成する。この第2表示用データは、トラックより小さい単位でハイパーリンク構造が付加されている。表示画面においてユーザによって選択された箇所(トラックの途中の箇所)から音データ及び/又は映像データを再生することができるコンテンツデータが実現されている。ユーザは、トラックの途中の箇所から音データ及び/又は映像データを簡単に再生させることができる。
The data creation device creates second display data from the first display data of the track. The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or Alternatively, text data relating to the contents of video data is associated with a hyperlink structure.
As described above, the first display data of the track includes a plurality of first timing data corresponding to the reproduction time axis of the sound data and / or video data of the track. The data creation device can set the second timing data based on the first timing data. The “plurality of second timing data” may or may not match the above “plurality of first timing data”.
In the second display data, each of the plurality of second timing data is associated with text data relating to the contents of the sound data and / or video data corresponding to the second timing data. Therefore, the content data processing device and / or another content reproduction device can display the text data in synchronization with the reproduction of the sound data and / or video data of the track. The content data processing device and / or another content reproduction device may display the text data without reproducing the sound data and / or video data of the track. That is, text data may be displayed asynchronously. The association between the second timing data and the text data has a hyperlink structure. When the second display data is used, the content data processing device and / or another content playback device can display a part of the text data displayed in synchronization (or asynchronously) with the playback of the sound data and / or video data. When selected by the user, sound data and / or video data can be reproduced from the selected location.
The content data processing apparatus of the present invention creates new second display data from content data in an existing format. The second display data has a hyperlink structure added in units smaller than the track. Content data capable of reproducing sound data and / or video data from a portion (a portion in the middle of a track) selected by the user on the display screen is realized. The user can easily reproduce the sound data and / or video data from a position in the middle of the track.

データ作成装置は、第2表示用データに含まれる第2タイミングデータの総数が上記のトラックの第1表示用データに含まれる第1タイミングデータの総数より少なくなるように、第2表示用データを作成することが好ましい。
例えば、上記のトラックの第1表示用データに含まれる複数の第1タイミングデータのそれぞれは、音節を単位として設定されたものであってもよい。この場合、上記のデータ作成装置は、第2表示用データに含まれる複数の第2タイミングデータのそれぞれを、単語以上を単位として設定することが好ましい。
このようにすると、第2表示用データに含まれるタイミングデータの総数を少なくすることができ、第2表示用データのデータ量を少なくすることができる。
The data creation device sets the second display data so that the total number of second timing data included in the second display data is smaller than the total number of first timing data included in the first display data of the track. It is preferable to create.
For example, each of the plurality of first timing data included in the first display data of the track may be set in units of syllables. In this case, it is preferable that the data creation device sets each of the plurality of second timing data included in the second display data in units of words or more.
In this way, the total number of timing data included in the second display data can be reduced, and the data amount of the second display data can be reduced.

上記のコンテンツデータ処理装置は、第2表示用データを記憶する記憶装置をさらに備えていてもよい。第1表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に沿った数値を含む第1タイミングデータと、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータとが対応づけられている複数の組合せデータから構成されてもよい。この場合、データ作成装置は、以下の(1)又は(2)の処理によって第2表示用データを作成してもよい。   The content data processing device may further include a storage device that stores second display data. The first display data includes first timing data including numerical values along the reproduction time axis of the sound data and / or video data of the track, and sound data and / or video of a portion corresponding to the first timing data. You may comprise from several combination data with which the text data regarding the content of data are matched. In this case, the data creation device may create the second display data by the following processing (1) or (2).

(1)データ作成装置は、第1表示用データに含まれる複数の組合せデータを読み込むとともに、それぞれの組合せデータについて、その組合せデータの第1タイミングデータの第1タイミングデータに含まれる数値とその組合せデータのテキストデータとをハイパーリンク構造により対応づけたデータを記憶装置に書き込む。
この場合、第1表示用データに含まれる各第1タイミングデータの数値が、第2タイミングデータとして利用されることになる。
(1) The data creation device reads a plurality of combination data included in the first display data, and for each combination data, a numerical value included in the first timing data of the first timing data of the combination data and the combination thereof Data associated with the text data of the data by the hyperlink structure is written in the storage device.
In this case, the numerical value of each first timing data included in the first display data is used as the second timing data.

(2)上記の複数の組合せデータは、各組合せデータの第1タイミングデータに含まれる数値の順に並んでいてもよい。この場合、データ作成装置は、第1表示用データに含まれる複数の組合せデータを順に読み込むとともに、少なくとも2つの連続する組合せデータについて、それらの組合せデータの中の最初の組合せデータの第1タイミングデータに含まれる数値とそれらの組合せデータの各テキストデータとをハイパーリンク構造により対応づけたデータを記憶装置に書き込む。
この場合、少なくとも2つの連続する組合せデータの中の最初の組合せデータに含まれる第1タイミングデータの数値が第2タイミングデータとして利用されることになる。
(2) The plurality of combination data may be arranged in the order of numerical values included in the first timing data of each combination data. In this case, the data creation device sequentially reads a plurality of combination data included in the first display data, and for at least two consecutive combination data, the first timing data of the first combination data in the combination data Is stored in the storage device by associating the numerical values included in the data and the text data of the combination data with the hyperlink structure.
In this case, the numerical value of the first timing data included in the first combination data of at least two consecutive combination data is used as the second timing data.

コンテンツデータ処理装置は、上記の外部機器に接続されて利用されるとともに、表示画面を有するコンテンツ再生装置に接続されて利用されてもよい。この場合、コンテンツデータ処理装置は、上記のトラックの音データ及び/又は映像データと、データ作成装置によって作成された第2表示用データとをコンテンツ再生装置に出力する出力装置をさらに備えていてもよい。
このようにすると、コンテンツ再生装置は、音データ及び/又は映像データを再生させることができるとともに、その再生に同期(又は非同期)して表示画面に第2表示用データに含まれるテキストデータ(歌詞等)を表示させることができる。コンテンツ再生装置は、表示画面に表示されている歌詞等の一部がユーザによって選択されると、その選択された箇所から音データ及び/又は映像データを再生することができる。
The content data processing apparatus may be used by being connected to the above external device, and may be used by being connected to a content reproduction apparatus having a display screen. In this case, the content data processing device may further include an output device that outputs the sound data and / or video data of the track and the second display data created by the data creation device to the content reproduction device. Good.
In this way, the content reproduction apparatus can reproduce sound data and / or video data, and text data (lyrics) included in the second display data on the display screen in synchronization (or asynchronously) with the reproduction. Etc.) can be displayed. When a part of lyrics or the like displayed on the display screen is selected by the user, the content reproduction apparatus can reproduce sound data and / or video data from the selected portion.

コンテンツ再生装置は、第1表示用データがなくても、第2表示用データを利用して表示画面に歌詞等を表示することができる。このために、上記の出力装置は、上記のトラックの第1表示用データをコンテンツ再生装置に出力しなくてもよい。   The content reproduction apparatus can display lyrics and the like on the display screen using the second display data without the first display data. Therefore, the output device does not have to output the first display data of the track to the content reproduction device.

なお、本発明の技術は、次のコンテンツデータ処理装置として定義することもできる。このコンテンツデータ処理装置は、外部機器から出力されたコンテンツデータを入力する入力装置と、入力装置に入力されたコンテンツデータから別のデータを作成するデータ作成装置とを備える。
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの音データ及び/又は映像データの内容に関する内容テキストデータとを有する。
上記のトラックの内容テキストデータは、上記のトラックの音データ及び/又は映像データの再生に同期してコンテンツデータ処理装置及び/又は別のコンテンツ再生装置において表示されることが可能である。
データ作成装置は、上記のトラックの内容テキストデータに含まれる複数の小テキストデータのそれぞれにハイパーリンク構造が付加されているリンク付内容テキストデータを作成する。このリンク付内容テキストデータを利用すると、コンテンツデータ処理装置及び/又は別のコンテンツ再生装置は、音データ及び/又は映像データの再生に同期(又は)して表示される内容テキストデータの一部(小テキストデータ)がユーザによって選択されると、その選択された箇所から音データ及び/又は映像データを再生することができる。
本発明のコンテンツデータ処理装置によると、既存の形式のコンテンツデータから新規なリンク付内容テキストデータを作成する。表示画面においてユーザによって選択された箇所(トラックの途中の箇所)から音データ及び/又は映像データを再生することができるコンテンツデータが実現されている。ユーザは、トラックの途中の箇所から音データ及び/又は映像データを簡単に再生させることができる。
The technique of the present invention can also be defined as the following content data processing apparatus. The content data processing device includes an input device that inputs content data output from an external device, and a data creation device that generates other data from the content data input to the input device.
The content data includes sound data and / or video data of at least one track and content text data relating to the contents of the sound data and / or video data of the track.
The content text data of the track can be displayed on the content data processing device and / or another content playback device in synchronization with the playback of the sound data and / or video data of the track.
The data creation device creates linked content text data in which a hyperlink structure is added to each of a plurality of small text data included in the track content text data. When this linked content text data is used, the content data processing device and / or another content playback device can display a part of the content text data displayed in synchronization (or) with the playback of the sound data and / or video data ( When (small text data) is selected by the user, sound data and / or video data can be reproduced from the selected portion.
According to the content data processing apparatus of the present invention, new linked content text data is created from content data in an existing format. Content data capable of reproducing sound data and / or video data from a portion (a portion in the middle of a track) selected by the user on the display screen is realized. The user can easily reproduce the sound data and / or video data from a position in the middle of the track.

本発明の技術は、次の方法として表現することもできる。この方法は、外部機器に接続されて利用されるデータ処理装置によってコンテンツデータを処理する方法である。この方法は、外部機器から出力されたコンテンツデータを入力する入力工程と、入力工程で入力されたコンテンツデータから別のデータを作成するデータ作成工程とを備える。
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有する。
上記のトラックの第1表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものである。
データ作成工程では、上記のトラックの第1表示用データから第2表示用データを作成する。その第2表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものである。
このデータ処理方法によると、表示画面においてユーザによって選択された箇所(トラックの途中の箇所)から音データ及び/又は映像データを再生することができるコンテンツデータを作成することができる。
The technique of the present invention can also be expressed as the following method. This method is a method of processing content data by a data processing apparatus that is connected to an external device and used. This method includes an input process of inputting content data output from an external device, and a data generation process of generating other data from the content data input in the input process.
The content data includes sound data and / or video data of at least one track and first display data of the track.
The first display data of the track includes a plurality of first timing data corresponding to the reproduction time axis of the sound data and / or video data of the track, and a portion of the sound corresponding to the first timing data. Text data relating to the contents of data and / or video data is associated with the data.
In the data creation step, second display data is created from the first display data of the track. The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the above-described track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or Alternatively, text data relating to the contents of video data is associated with a hyperlink structure.
According to this data processing method, it is possible to create content data that can reproduce sound data and / or video data from a location selected by the user on the display screen (a location in the middle of the track).

本発明の技術は、次のコンピュータプログラムとして表現することもできる。このプログラムは、外部機器に接続されて利用されるデータ処理装置に搭載されるコンピュータによって実行されるものである。このプログラムは、外部機器から出力されてデータ処理装置に入力されたコンテンツデータから別のデータを作成するデータ作成処理をコンピュータに実行させる。
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有する。
上記のトラックの第1表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものである。
データ作成処理では、上記のトラックの第1表示用データから第2表示用データを作成する。その第2表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものである。
このコンピュータプログラムによると、表示画面においてユーザによって選択された箇所(トラックの途中の箇所)から音データ及び/又は映像データを再生することができるコンテンツデータを作成するデータ処理装置を実現することができる。
The technique of the present invention can also be expressed as the following computer program. This program is executed by a computer mounted on a data processing apparatus that is connected to an external device and used. This program causes a computer to execute data creation processing for creating other data from content data output from an external device and input to a data processing device.
The content data includes sound data and / or video data of at least one track and first display data of the track.
The first display data of the track includes a plurality of first timing data corresponding to the reproduction time axis of the sound data and / or video data of the track, and a portion of the sound corresponding to the first timing data. Text data relating to the contents of data and / or video data is associated with the data.
In the data creation process, second display data is created from the first display data of the track. The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the above-described track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or Alternatively, text data relating to the contents of video data is associated with a hyperlink structure.
According to this computer program, it is possible to realize a data processing apparatus that creates content data capable of reproducing sound data and / or video data from a location selected by the user (a location in the middle of a track) on the display screen. .

ここでは、以下の実施例に記載の技術の主要な特徴をまとめておく。
(形態1)コンテンツデータ処理装置は、多機能機に内蔵されている。多機能機は、少なくとも印刷機能を有する。
(形態2)多機能機は、インターネットに接続されている。多機能機には、ポータブルオーディオ再生装置が接続される。多機能機は、インターネット上のサーバからオーディオデータをダウンロードする。多機能機は、ダウンロードされたオーディオデータに含まれる第1表示用データから第2表示用データを作成し、オーディオデータに含まれる音データと第2表示用データをポータブルオーディオ再生装置に出力する。
(形態3)多機能機は、ユーザによって予め選択された単位で第2タイミングデータを設定する。この単位は、音節、ワード(単語)、センテンス(文章)、及びパラグラフ(段落)の中から選択される。
(形態4)多機能機は、ダウンロードされたオーディオデータに含まれる第1表示用データから印刷用データを作成する。多機能機は、印刷用データに基づいて印刷する。
Here, the main features of the techniques described in the following examples are summarized.
(Mode 1) The content data processing apparatus is built in the multi-function device. The multi-function device has at least a printing function.
(Mode 2) The multi-function device is connected to the Internet. A portable audio playback device is connected to the multi-function device. The multi-function device downloads audio data from a server on the Internet. The multi-function device creates second display data from the first display data included in the downloaded audio data, and outputs the sound data and second display data included in the audio data to the portable audio playback device.
(Mode 3) The multi-function device sets the second timing data in units previously selected by the user. This unit is selected from syllables, words (words), sentences (sentences), and paragraphs (paragraphs).
(Mode 4) The multi-function device creates print data from the first display data included in the downloaded audio data. The multi-function device prints based on the print data.

図面を参照して本発明の実施例を説明する。図1は、本実施例の多機能機システム10を示す。多機能機システム10は、多機能機20とPSTN50とインターネット52とポータブルオーディオ再生装置56とPC58等を有する。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a multi-function device system 10 of this embodiment. The multi-function device system 10 includes a multi-function device 20, a PSTN 50, the Internet 52, a portable audio playback device 56, a PC 58, and the like.

(システムの構成)
多機能機20は、スキャナ22と印刷装置24とFAX装置26と制御装置28と操作装置30と表示装置32と電話回線インターフェイス34とLANインターフェイス36とUSBホストコントローラ38等を有する。各装置22,24,26,28,30,32,34,36,38は、バス線40によって相互に通信可能に接続されている。
スキャナ22は、原稿をスキャンして画像データを生成する。印刷装置24は、画像データを印刷する。画像データは、多機能機20の外部(インターネット52やPC58)から送られてくるものであってもよいし、スキャナ22によって生成されたものであってもよい。FAX装置26は、スキャナ22によって生成された画像データをファクシミリデータとして外部に出力する。また、FAX装置26は、外部から送られてきたファクシミリデータを印刷装置24に印刷させる。制御装置28は、多機能機20に搭載されている各装置22,24,26,30,32,38等を統括的に制御する。制御装置28の構成は、後で詳しく説明する。操作装置30は、ユーザによって操作されるものである。ユーザは、操作装置30を操作することによって様々な指示を多機能機20に入力することができる。表示装置32は、各種の情報を表示することができる。
(System configuration)
The multi-function device 20 includes a scanner 22, a printing device 24, a FAX device 26, a control device 28, an operation device 30, a display device 32, a telephone line interface 34, a LAN interface 36, a USB host controller 38, and the like. The devices 22, 24, 26, 28, 30, 32, 34, 36, and 38 are connected to each other via a bus line 40 so as to communicate with each other.
The scanner 22 scans a document and generates image data. The printing device 24 prints image data. The image data may be sent from the outside of the multi-function device 20 (Internet 52 or PC 58), or may be generated by the scanner 22. The FAX device 26 outputs the image data generated by the scanner 22 to the outside as facsimile data. Further, the FAX apparatus 26 causes the printing apparatus 24 to print facsimile data sent from the outside. The control device 28 comprehensively controls each device 22, 24, 26, 30, 32, 38, etc. mounted on the multi-function device 20. The configuration of the control device 28 will be described in detail later. The operating device 30 is operated by a user. The user can input various instructions to the multi-function device 20 by operating the operation device 30. The display device 32 can display various information.

電話回線インターフェイス34は、PSTN(一般電話回線網)50に接続されている。電話回線インターフェイス34は、多機能機20で生成されたファクシミリデータをPSTN50に出力することができる。また、電話回線インターフェイス34は、外部から送られてきたファクシミリデータを入力することができる。
LANインターフェイス36は、インターネット52に接続されている。LANインターフェイス36は、インターネット52上の様々なデバイス(サーバ等)からデータを取得することができる。本実施例では、インターネット52にオーディオデータ配信サーバ54が接続されている。LANインターフェイス36は、オーディオデータ配信サーバ54からオーディオデータを取得することができる。なお、以下では、オーディオデータ配信サーバ54のことを単に「サーバ」と呼ぶことがある。また、LANインターフェイス36は、PC58に接続されている。LANインターフェイス36は、PC58から送られてくる様々なデータを入力することができる。
USBホストコントローラ38は、ポータブルオーディオ再生装置56に接続されている。USBホストコントローラ38は、後述するオーディオデータをポータブルオーディオ再生装置56に出力する。ポータブルオーディオ再生装置56は、音データ再生装置56aと表示画面56bと操作装置56c等を有する。なお、以下では、ポータブルオーディオ再生装置56のことを単に「再生装置」と呼ぶことがある。
The telephone line interface 34 is connected to a PSTN (general telephone line network) 50. The telephone line interface 34 can output the facsimile data generated by the multi-function device 20 to the PSTN 50. The telephone line interface 34 can input facsimile data sent from the outside.
The LAN interface 36 is connected to the Internet 52. The LAN interface 36 can acquire data from various devices (such as a server) on the Internet 52. In this embodiment, an audio data distribution server 54 is connected to the Internet 52. The LAN interface 36 can acquire audio data from the audio data distribution server 54. Hereinafter, the audio data distribution server 54 may be simply referred to as a “server”. The LAN interface 36 is connected to the PC 58. The LAN interface 36 can input various data sent from the PC 58.
The USB host controller 38 is connected to the portable audio playback device 56. The USB host controller 38 outputs audio data to be described later to the portable audio playback device 56. The portable audio playback device 56 includes a sound data playback device 56a, a display screen 56b, an operation device 56c, and the like. Hereinafter, the portable audio playback device 56 may be simply referred to as a “playback device”.

(制御装置の構成)
続いて、多機能機20の制御装置28の構成を説明する。図2は、制御装置28のブロック図を示す。
制御装置28は、CPU60とROM62とNVRAM64とRAM68を有する。
CPU60は、ROM62に記憶されている様々なプログラムに従って、各種の処理を実行する。
ROM62は、多機能機20が動作するための様々なプログラムを記憶している。ROM62によって記憶されているプログラムの一例を以下に列挙する。(1)サーバ54からオーディオデータをダウンロードする処理を実行するためのプログラム。(2)ダウンロードされたオーディオデータに含まれるID3データ(詳しくは後述する)から別の表示用データを作成する処理を実行するためのプログラム。(3)ダウンロードされたオーディオデータに含まれる音データと作成された表示用データとを再生装置56に出力する処理を実行するためのプログラム。(4)ダウンロードされたオーディオデータに含まれる表示用データから印刷用データを作成する処理を実行するためのプログラム。
(Configuration of control device)
Next, the configuration of the control device 28 of the multi-function device 20 will be described. FIG. 2 shows a block diagram of the control device 28.
The control device 28 includes a CPU 60, a ROM 62, an NVRAM 64 and a RAM 68.
The CPU 60 executes various processes according to various programs stored in the ROM 62.
The ROM 62 stores various programs for the multi-function device 20 to operate. An example of programs stored in the ROM 62 is listed below. (1) A program for executing a process of downloading audio data from the server 54. (2) A program for executing processing for creating another display data from ID3 data (details will be described later) included in the downloaded audio data. (3) A program for executing a process of outputting the sound data included in the downloaded audio data and the generated display data to the playback device 56. (4) A program for executing processing for creating print data from display data included in downloaded audio data.

NVRAM64は、コンテンツ更新テーブル66を記憶している。図3は、コンテンツ更新テーブル66の一例を示す。
コンテンツ更新テーブル66は、インデックス番号とデバイスIDとURLと最終更新時刻と次回更新時刻と同期単位とが対応づけられたテーブルである。
インデックス番号は、それに対応づけられている一群のデータを特定する番号である。図3の例では、ゼロからMまでの番号が利用されている。デバイスIDは、再生装置56を特定するIDである。URL(RSS URL)は、オーディオデータが保存されているインターネット52上のアドレスである。例えば、図1のサーバ54のアドレスである。最終更新時刻は、その時刻に対応づけられているURLに保存されているオーディオデータが多機能機20に最後にダウンロードされた時刻を意味する。次回更新時刻は、その時刻に対応づけられているURLに保存されているオーディオデータが多機能機20にダウンロードされるべき時刻を意味する。同期単位は、後述するハイパーリンクデータを付加する単位を意味する。この点については、後で詳しく説明する。
ユーザは、多機能機20の操作装置30又はPC58を操作することによって、コンテンツ更新テーブル66を作成することができる。ただし、最終更新時刻は、多機能機20によって自動的に更新される。この点は後で詳しく説明する。
The NVRAM 64 stores a content update table 66. FIG. 3 shows an example of the content update table 66.
The content update table 66 is a table in which the index number, device ID, URL, last update time, next update time, and synchronization unit are associated with each other.
The index number is a number that identifies a group of data associated with the index number. In the example of FIG. 3, numbers from zero to M are used. The device ID is an ID that identifies the playback device 56. URL (RSS URL) is an address on the Internet 52 where audio data is stored. For example, the address of the server 54 in FIG. The last update time means the time when the audio data stored in the URL associated with the time is last downloaded to the multi-function device 20. The next update time means a time at which the audio data stored in the URL associated with the time is to be downloaded to the multi-function device 20. The synchronization unit means a unit for adding hyperlink data described later. This point will be described in detail later.
The user can create the content update table 66 by operating the operation device 30 or the PC 58 of the multi-function device 20. However, the last update time is automatically updated by the multi-function device 20. This point will be described in detail later.

図2に示されるRAM68は、オーディオデータ記憶領域70と表示用データ記憶領域72と印刷用データ記憶領域74とその他のワーク領域76等を有する。これらの各記憶領域70,72,74,76に記憶されるデータの内容は、後で詳しく説明する。   The RAM 68 shown in FIG. 2 includes an audio data storage area 70, a display data storage area 72, a print data storage area 74, other work areas 76, and the like. The contents of the data stored in each of the storage areas 70, 72, 74, 76 will be described in detail later.

(コンテンツ更新処理)
続いて、CPU60によって実行される処理の内容を説明する。CPU60は、再生装置56が多機能機20に接続されると、コンテンツ更新処理を実行する。図4は、コンテンツ更新処理のフローチャートを示す。
CPU60は、上記したコンテンツ更新テーブル66(図3参照)に基づいて、コンテンツ更新処理を実行する。まず、CPU60は、インデックス番号(k)を初期化し、「k=0」を記憶する(S10)。この「k」は、これから処理すべきインデックス番号である。CPU60は、コンテンツ更新テーブル66に含まれる最初のインデックス番号(即ちゼロ)から処理を開始する。
次いで、CPU60は、kがMより大きいのか否かを判断する(S12)。Mは、コンテンツ更新テーブル66に記憶されているインデックス番号の最大値である。ここでYESの場合、全てのインデックス番号について後述するS14からS26の処理が実行されたことを意味する。この場合、CPU60は、コンテンツ更新処理を終了する。一方において、S12でNOの場合、S14に進む。
(Content update process)
Next, the contents of processing executed by the CPU 60 will be described. When the playback device 56 is connected to the multi-function device 20, the CPU 60 executes content update processing. FIG. 4 shows a flowchart of the content update process.
The CPU 60 executes content update processing based on the content update table 66 (see FIG. 3). First, the CPU 60 initializes an index number (k) and stores “k = 0” (S10). This “k” is an index number to be processed. The CPU 60 starts processing from the first index number (that is, zero) included in the content update table 66.
Next, the CPU 60 determines whether k is larger than M (S12). M is the maximum index number stored in the content update table 66. If YES here, it means that the processing of S14 to S26 described later has been executed for all index numbers. In this case, the CPU 60 ends the content update process. On the other hand, if NO in S12, the process proceeds to S14.

S14では、CPU60は、現在処理が行なわれているインデックス番号のコンテンツ更新情報を読み込む。例えば、現在処理が行なわれているインデックス番号が「0」の場合(k=0の場合)、CPU60は、図3のインデックス番号「0」に対応する情報(デバイスID、URL、最終更新時刻、次回更新時刻、及び同期単位)を読み込む。
次いで、CPU60は、S14で読み込まれた次回更新時刻が現在の時刻を経過しているのか否かを判断する(S16)。ここでNOの場合、S18からS24の処理をスキップし、S26に進む。一方において、S16でYESの場合、S18に進む。
S18では、CPU60は、多機能機20に接続されている再生装置56からIDを取得する。次いで、CPU60は、取得したIDとS14で読み込まれたデバイスIDとが一致するのか否かを判断する。ここでNOの場合、S20からS24の処理をスキップし、S26に進む。一方において、S18でYESの場合、S20に進む。
In S14, the CPU 60 reads the content update information of the index number currently being processed. For example, when the index number currently being processed is “0” (when k = 0), the CPU 60 determines the information (device ID, URL, last update time, Next update time and synchronization unit) are read.
Next, the CPU 60 determines whether or not the next update time read in S14 has passed the current time (S16). If NO here, the process from S18 to S24 is skipped, and the process proceeds to S26. On the other hand, if YES in S16, the process proceeds to S18.
In S <b> 18, the CPU 60 acquires the ID from the playback device 56 connected to the multi-function device 20. Next, the CPU 60 determines whether or not the acquired ID matches the device ID read in S14. If NO here, the process from S20 to S24 is skipped and the process proceeds to S26. On the other hand, if YES in S18, the process proceeds to S20.

S20では、CPU60は、S14で読み込まれたURLからコンテンツ(オーディオデータ)をダウンロードする。これにより、多機能機20のLANインターフェイス36(図1参照)が、オーディオデータを入力することになる。入力されたオーディオデータは、RAM68のオーディオデータ記憶領域70(図2参照)に記憶される。
次いで、CPU60は、ダウンロードされたオーディオデータを加工する処理を実行する(S22)。この加工処理については後で詳しく説明する。
CPU60は、加工処理(S22)を実行すると、コンテンツ更新情報を更新する(S24)。具体的には、CPU60は、現在処理しているインデックス番号に対応する最終更新時刻(図3参照)を現在の時刻に更新するとともに、次回更新時刻を所定の時刻に更新する。次回更新時刻は、オーディオデータの出力先のサーバ(例えば図1のサーバ54)によって指示される時刻でもよいし、ユーザによって設定された時刻でもよい。
CPU60は、コンテンツ更新情報を更新すると(S24)、現在処理しているインデックス番号(k)に1を加算する(S26)。これにより、次のインデックス番号について、S12以降の処理が実行されることになる。コンテンツ更新テーブル66に含まれる全てのインデックス番号について処理が実行されると、S12でYESと判断され、コンテンツ更新処理が終了する。
In S20, the CPU 60 downloads content (audio data) from the URL read in S14. As a result, the LAN interface 36 (see FIG. 1) of the multi-function device 20 inputs audio data. The input audio data is stored in the audio data storage area 70 (see FIG. 2) of the RAM 68.
Next, the CPU 60 executes processing for processing the downloaded audio data (S22). This processing will be described in detail later.
When executing the processing (S22), the CPU 60 updates the content update information (S24). Specifically, the CPU 60 updates the last update time (see FIG. 3) corresponding to the currently processed index number to the current time, and updates the next update time to a predetermined time. The next update time may be a time indicated by a server (for example, the server 54 in FIG. 1) to which audio data is output, or may be a time set by the user.
When the content update information is updated (S24), the CPU 60 adds 1 to the currently processed index number (k) (S26). Thereby, the process after S12 is performed about the next index number. When the process is executed for all index numbers included in the content update table 66, YES is determined in S12, and the content update process ends.

(オーディオデータの構造)
S22のコンテンツ加工処理の内容を説明する前に、S20でダウンロードされたオーディオデータの構造を説明しておく。図5は、オーディオデータの構造を模式的に示す。
オーディオデータ100は、MP3形式のデータである。オーディオデータ100は、ID3データ(ID3タグ)102と音データ120を有する。音データ120は、少なくとも1つのトラックの音データを有する。本実施例の音データ120は、1つのトラックのみの音データを有するものとする。
(Audio data structure)
Before describing the content processing process in S22, the structure of the audio data downloaded in S20 will be described. FIG. 5 schematically shows the structure of audio data.
The audio data 100 is MP3 format data. The audio data 100 includes ID3 data (ID3 tag) 102 and sound data 120. The sound data 120 includes sound data of at least one track. The sound data 120 of this embodiment is assumed to have sound data for only one track.

ID3データ102は、再生装置56において表示されることが可能であるデータを有しており、表示用データと呼ぶこともできる。ID3データ102は、タイトルテキストデータ106と内容データ110等を有する。
このオーディオデータ100が再生装置56に記憶された場合、再生装置56は、タイトルテキストデータ106に対応するタイトルを表示画面56b(図1参照)に表示することができる。なお、ユーザは、再生装置56の操作装置56c(図1参照)を操作することによって、表示画面56bに表示されているタイトルを選択することができる。この場合、再生装置56は、音データ120に含まれるトラックを頭から再生することができる。
The ID3 data 102 includes data that can be displayed on the playback device 56, and can also be referred to as display data. The ID3 data 102 includes title text data 106, content data 110, and the like.
When the audio data 100 is stored in the playback device 56, the playback device 56 can display a title corresponding to the title text data 106 on the display screen 56b (see FIG. 1). Note that the user can select the title displayed on the display screen 56b by operating the operation device 56c (see FIG. 1) of the playback device 56. In this case, the playback device 56 can play back the tracks included in the sound data 120 from the beginning.

内容データ110は、SYLTマーカ112と内容テキストデータ114を有する。SYLTマーカ112は、内容テキストデータ114が、音データ120の再生に同期して表示されることができるものであることを示すマーカである。SYLTマーカ112の代わりにUSLTマーカが内容データ110に付加されることがある。この場合、内容テキストデータが、音データ120の再生に同期して表示されることができないものであることを意味する。本実施例の内容テキストデータ114は、音データ120の再生に同期して表示されることができるものである。   The content data 110 includes a SYLT marker 112 and content text data 114. The SYLT marker 112 is a marker indicating that the content text data 114 can be displayed in synchronization with the reproduction of the sound data 120. A USLT marker may be added to the content data 110 instead of the SYLT marker 112. In this case, it means that the content text data cannot be displayed in synchronization with the reproduction of the sound data 120. The content text data 114 of this embodiment can be displayed in synchronization with the reproduction of the sound data 120.

内容テキストデータ114は、音データ120の内容に関するテキストデータである。
例えば、音データ120が楽曲である場合、内容テキストデータ114は、その楽曲の歌詞、楽譜、コード等である。また、音データ120が楽曲以外の音声データである場合(例えば英会話講座の音声データである場合)、内容テキストデータ114は、その音声に対応する文字列である。本実施例では、音データ120が1つのトラックの楽曲であり、内容テキストデータ114がその楽曲の歌詞であるものとする。
The content text data 114 is text data relating to the content of the sound data 120.
For example, if the sound data 120 is a song, the content text data 114 is the lyrics, score, code, etc. of the song. If the sound data 120 is sound data other than music (for example, sound data of an English conversation course), the content text data 114 is a character string corresponding to the sound. In this embodiment, it is assumed that the sound data 120 is a song of one track and the content text data 114 is the lyrics of the song.

図6は、内容テキストデータ114のデータ構造を示す。上述したように、本実施例の内容テキストデータ114は、音データ120の再生に同期して表示されることができるものである。
内容テキストデータ114は、複数の組合せデータ128を有する。図6では、最初の組合せデータ128のみに符号を付しており、他の組合せデータについては符号を省略している。
1つの組合せデータ128は、文字データ130と同期コード132とタイミングデータ134を有する。文字データ130は、音データ120の歌詞の一部に対応するものである。同期コード132は、この後の4文字がタイミングデータ134であることを示すコードである。タイミングデータ134は、音データ120の頭からの時間である。本実施例では、各組合せデータ128のタイミングデータ134が、音データ120の歌詞の音節単位で設定されている。例えば、「Information」という歌詞が存在する場合、「In」と「for」と「ma」と「tion」のそれぞれについて、タイミングデータ134が設定されている。即ち、この例の場合、「In」に対応する文字データ130と、同期コード132と、「In」が再生されるタイミングを示すタイミングデータ134とが対応づけられている組合せデータ128が存在する。同様に、「for」に対応する文字データ130と、同期コード132と、「for」が再生されるタイミングを示すタイミングデータ134とが対応づけられている組合せデータ128が存在する。「ma」と「tion」のそれぞれについても、同様の組合せデータ128が存在する。従って、「Information」という歌詞が存在する場合、4つの組合せデータ128が存在することになる。
FIG. 6 shows the data structure of the content text data 114. As described above, the content text data 114 of this embodiment can be displayed in synchronization with the reproduction of the sound data 120.
The content text data 114 has a plurality of combination data 128. In FIG. 6, only the first combination data 128 is given a reference numeral, and the other combination data is omitted.
One combination data 128 includes character data 130, a synchronization code 132, and timing data 134. The character data 130 corresponds to a part of the lyrics of the sound data 120. The synchronization code 132 is a code indicating that the subsequent four characters are timing data 134. The timing data 134 is the time from the beginning of the sound data 120. In this embodiment, the timing data 134 of each combination data 128 is set for each syllable unit of the lyrics of the sound data 120. For example, when the lyrics “Information” exist, the timing data 134 is set for each of “In”, “for”, “ma”, and “tion”. That is, in this example, there is combination data 128 in which the character data 130 corresponding to “In”, the synchronization code 132, and the timing data 134 indicating the timing at which “In” is reproduced are associated with each other. Similarly, there is combination data 128 in which character data 130 corresponding to “for”, synchronization code 132, and timing data 134 indicating the timing at which “for” is reproduced are associated with each other. Similar combination data 128 exists for each of “ma” and “tion”. Therefore, when the lyrics “Information” exist, four combination data 128 exist.

図6では、文字データ130が「x」によって示されている。文字データ130は、音節の単位となる文字数の「x」を含んでいる。例えば、上記の「Information」の例の場合、「In」に対応する文字データ130は2文字であり、「for」に対応する文字データ130は3文字である。例えば、図6の最初の組合せデータ128の文字データ130は、3つの文字130a,130b,130cを含んでいる。また例えば、次の組合せデータ128の文字データ130は、2つの文字130d,130eを含んでいる。また、図6に示されるように、文字データ130の中には、スペース136、コンマ138、又はピリオド140が含まれることがある。また、他の記号(タブ、コロン、セミコロン、括弧等)が文字データ130に含まれることもある。
タイミングデータ134は、4文字で表される32ビット値による時間(μsec)を単位としており、「ssss」によって表現される。なお、タイミングデータ134は、音データ120の頭からの時間によって表現されるものでなくてもよい。例えば、タイミングデータ134は、音データ120の頭からのフレーム数によって表現されるものであってもよい。タイミングデータ134は、音データ120の再生時間軸に対応するものであれば、どのような形式で表現されてもよい。
また、内容テキストデータ114の中には、改行コード142が含まれることがある。
In FIG. 6, the character data 130 is indicated by “x”. The character data 130 includes “x”, which is the number of characters that is a syllable unit. For example, in the example of “Information” described above, the character data 130 corresponding to “In” is two characters, and the character data 130 corresponding to “for” is three characters. For example, the character data 130 of the first combination data 128 in FIG. 6 includes three characters 130a, 130b, and 130c. For example, the character data 130 of the next combination data 128 includes two characters 130d and 130e. Also, as shown in FIG. 6, the character data 130 may include a space 136, a comma 138, or a period 140. In addition, other characters (tab, colon, semicolon, parentheses, etc.) may be included in the character data 130.
The timing data 134 is expressed by “ssss” in units of time (μsec) by a 32-bit value represented by 4 characters. Note that the timing data 134 may not be expressed by the time from the head of the sound data 120. For example, the timing data 134 may be expressed by the number of frames from the head of the sound data 120. The timing data 134 may be expressed in any format as long as it corresponds to the reproduction time axis of the sound data 120.
The content text data 114 may include a line feed code 142.

なお、ID3データ102の中に、他のデータが含まれることがある。図5の例では、ID3データ102の中に、作成者情報104aと著作権記述104bと作成日情報104cと画像データ116とコメントデータ118が含まれている。
作成者情報104aは、オーディオデータ100の作成者の情報である。著作権記述104bは、著作権に関する情報である。作成日情報104cは、オーディオデータ100の作成日の情報である。
画像データ116は、音データ120の再生に同期又は非同期して表示される画像データである。また、コメントデータ118は、オーディオデータ100の作成者によって挿入されたコメントに対応するテキストデータである。
The ID3 data 102 may include other data. In the example of FIG. 5, creator information 104 a, copyright description 104 b, creation date information 104 c, image data 116, and comment data 118 are included in the ID3 data 102.
The creator information 104 a is information about the creator of the audio data 100. The copyright description 104b is information relating to copyright. The creation date information 104c is information on the creation date of the audio data 100.
The image data 116 is image data that is displayed synchronously or asynchronously with the reproduction of the sound data 120. The comment data 118 is text data corresponding to a comment inserted by the creator of the audio data 100.

(コンテンツ加工処理)
続いて、図4のS22のコンテンツ加工処理の内容を説明する。図7は、コンテンツ加工処理のフローチャートを示す。
上述したように、図4のS20においてダウンロードされたオーディオデータ100は、オーディオデータ記憶領域70(図2参照)に記憶されている。CPU60は、オーディオデータ100に含まれるID3データ102を読み込む(S30)。
次いで、CPU60は、ID3データ102にSYLTマーカ112(図5参照)が含まれているのか否かを判断する(S32)。ここでNOの場合、S34からS40をスキップし、S42に進む。一方において、S32でYESの場合、S34に進む。S34では、表示用データ作成処理が実行される。この処理の内容は、後で詳しく説明する。CPU60は、表示用データ作成処理(S34)を実行すると、作成された表示用データを再生装置56(図1参照)に出力する(S36)。これにより、表示用データが再生装置56に記憶されることになる。
続いて、印刷用データ作成処理が実行される(S38)。この処理の内容は、後で詳しく説明する。CPU60は、印刷用データ作成処理(S38)を実行すると、作成された印刷用データに基づいて印刷する処理を実行する(S40)。
最後に、CPU60は、オーディオデータ100に含まれる音データ120を再生装置56(図1参照)に出力する処理を実行する(S42)。これにより、音データ120が再生装置56に記憶されることになる。
(Content processing)
Next, the content processing process in S22 of FIG. 4 will be described. FIG. 7 shows a flowchart of content processing.
As described above, the audio data 100 downloaded in S20 of FIG. 4 is stored in the audio data storage area 70 (see FIG. 2). The CPU 60 reads the ID3 data 102 included in the audio data 100 (S30).
Next, the CPU 60 determines whether or not the SYLT marker 112 (see FIG. 5) is included in the ID3 data 102 (S32). In the case of NO here, S34 to S40 are skipped, and the process proceeds to S42. On the other hand, if YES in S32, the process proceeds to S34. In S34, display data creation processing is executed. The contents of this process will be described in detail later. When executing the display data creation process (S34), the CPU 60 outputs the created display data to the playback device 56 (see FIG. 1) (S36). As a result, the display data is stored in the playback device 56.
Subsequently, a print data creation process is executed (S38). The contents of this process will be described in detail later. When executing the print data creation process (S38), the CPU 60 executes a process for printing based on the created print data (S40).
Finally, the CPU 60 executes a process of outputting the sound data 120 included in the audio data 100 to the playback device 56 (see FIG. 1) (S42). As a result, the sound data 120 is stored in the playback device 56.

(表示用データ作成処理)
上記のS34の表示用データ作成処理について詳しく説明する。図8と図9は、表示用データ作成処理のフローチャートを示す。CPU60は、現在処理しているインデックス番号に対応するインデックス更新情報(図3参照)と、オーディオデータ100に含まれるID3データ102とに基づいて、表示用データ作成処理を実行する。
まず、CPU60は、現在処理しているインデックス番号に対応するインデックス更新情報の同期単位に対応するデリミタリストを記憶する(S50)。デリミタリストは、RAM68のワーク領域76(図2参照)に記憶される。本実施例の同期単位は、「なし」、「ワード(単語)」、「センテンス(文章)」、及び、「パラグラフ(段落)」の4種類である。同期単位が「なし」である場合、デリミタリストに何も記憶されない。同期単位が「ワード」である場合、「スペース、タブ、コンマ、ピリオド、改行コード」がデリミタリストに記憶される。同期単位が「センテンス」である場合、「コンマ、ピリオド、改行コード」がデリミタリストに記憶される。同期単位が「パラグラフ」の場合、「改行コード」がデリミタリストに記憶される。
例えば、現在処理しているインデックス番号が「0」である場合、同期単位はセンテンスである(図3参照)。この場合、「コンマ、ピリオド、改行コード」がデリミタリストに記憶される。また、例えば、現在処理しているインデックス番号が「1」である場合、同期単位はパラグラフである(図3参照)。この場合、「改行コード」がデリミタリストに記憶される。同期単位とデリミタリストに記憶される文字コード(群)との組合せは、予め設定されたものであり、ROM62等に記憶されている。
(Display data creation process)
The display data creation process in S34 will be described in detail. 8 and 9 are flowcharts of the display data creation process. The CPU 60 executes display data creation processing based on the index update information (see FIG. 3) corresponding to the currently processed index number and the ID3 data 102 included in the audio data 100.
First, the CPU 60 stores a delimiter list corresponding to the synchronization unit of index update information corresponding to the currently processed index number (S50). The delimiter list is stored in the work area 76 (see FIG. 2) of the RAM 68. There are four types of synchronization units in the present embodiment: “none”, “word (word)”, “sentence (sentence)”, and “paragraph (paragraph)”. When the synchronization unit is “none”, nothing is stored in the delimiter list. When the synchronization unit is “word”, “space, tab, comma, period, line feed code” is stored in the delimiter list. When the synchronization unit is “sentence”, “comma, period, line feed code” is stored in the delimiter list. When the synchronization unit is “paragraph”, “line feed code” is stored in the delimiter list.
For example, when the currently processed index number is “0”, the synchronization unit is a sentence (see FIG. 3). In this case, “comma, period, line feed code” is stored in the delimiter list. For example, when the index number currently processed is “1”, the synchronization unit is a paragraph (see FIG. 3). In this case, “line feed code” is stored in the delimiter list. A combination of the synchronization unit and the character code (group) stored in the delimiter list is preset and stored in the ROM 62 or the like.

続いて、CPU60は、S52の処理を実行する。S52では、同期値として「−1」が記憶され、文字列バッファが初期化され、表示用データ記憶領域72(図2参照)が初期化され、同期フラグとして「FALSE」が記憶される。同期値は、RAM68のワーク領域76(図2参照)に記憶される。文字列バッファは、RAM68のワーク領域76の所定の記憶領域である。同期フラグも、RAM68のワーク領域76に記憶される。
次に、CPU60は、表示用データ記憶領域72にヘッダ部を書き込む(S54)。図10は、表示用データ作成処理を実行することによって最終的に作成される表示用データ148の一例を示す。図10の符号150で示される部分が、S54で書き込まれるヘッダ部である。ヘッダ部150は、タイトルに対応するデータ群152と、データ形式を定義するデータ群160を有する。データ群152は、タイトルの記述が開始されることを意味するコード154と、タイトルのテキストデータ156と、タイトルの記述が終了したことを意味するコード158を有する。CPU60は、ID3データ102に含まれるタイトルテキストデータ106(図5参照)に従ってテキストデータ156を書き込む。また、データ群160は、データ形式が「xml」であることを意味するコード162と、コード体系が「utf−8」であることを意味するコード164を有する。
Subsequently, the CPU 60 executes the process of S52. In S52, “−1” is stored as the synchronization value, the character string buffer is initialized, the display data storage area 72 (see FIG. 2) is initialized, and “FALSE” is stored as the synchronization flag. The synchronization value is stored in the work area 76 (see FIG. 2) of the RAM 68. The character string buffer is a predetermined storage area in the work area 76 of the RAM 68. The synchronization flag is also stored in the work area 76 of the RAM 68.
Next, the CPU 60 writes the header portion in the display data storage area 72 (S54). FIG. 10 shows an example of display data 148 that is finally created by executing the display data creation process. The portion indicated by reference numeral 150 in FIG. 10 is the header portion written in S54. The header unit 150 includes a data group 152 corresponding to a title and a data group 160 defining a data format. The data group 152 includes a code 154 that means that the description of the title is started, text data 156 of the title, and a code 158 that means that the description of the title has ended. The CPU 60 writes the text data 156 according to the title text data 106 (see FIG. 5) included in the ID3 data 102. The data group 160 has a code 162 that means that the data format is “xml” and a code 164 that means that the code system is “utf-8”.

図8に示されるように、CPU60は、ヘッダ部を書き込む処理(S54)を終えると、内容テキストデータ114(図6参照)に含まれる1文字を読み込む(S56)。1回目のS56の処理では、内容テキストデータ114の先頭の1文字が読み込まれる。例えば、図6に示される内容テキストデータ114の場合、文字130aが読み込まれる。2回目以降のS56の処理では、その前のS56(又は後述する図9のS112)で読み込まれた文字の次の1文字が読み込まれる。
CPU60は、S56で読み込まれた文字がエンドコードを意味するものであるのか否かを判断する(S58)。エンドコードは、内容テキストデータ114の最後に付加されるコードである。なお、図6の内容テキストデータ114では、エンドコードを図示省略している。S58でYESの場合、S60に進む。一方において、S58でNOの場合、S70に進む。
As shown in FIG. 8, when the CPU 60 finishes the process of writing the header (S54), it reads one character included in the content text data 114 (see FIG. 6) (S56). In the first process of S56, the first character of the content text data 114 is read. For example, in the case of the content text data 114 shown in FIG. 6, the character 130a is read. In the process of S56 after the second time, the next character after the character read in S56 (or S112 of FIG. 9 described later) before that is read.
The CPU 60 determines whether or not the character read in S56 means an end code (S58). The end code is a code added to the end of the content text data 114. Note that the end code is not shown in the content text data 114 of FIG. If YES in S58, the process proceeds to S60. On the other hand, if NO in S58, the process proceeds to S70.

S60では、CPU60は、同期値が「−1」であるのか否かを判断する。同期値は、RAM68のワーク領域76(図2参照)に記憶されている。ここでNOの場合、CPU60は、ハイパーリンクデータと、文字列バッファに記憶されている文字列(1つの文字の場合もある)と、同期値とを表示用データ記憶領域72に書き込む(S62)。
ハイパーリンクデータは、xml形式のデータ構造において、音データに対するハイパーリンクを定義するデータである。図10の符号172(又は192)がハイパーリンクデータである。
文字列バッファは、RAM68のワーク領域76(図2参照)に含まれている。CPU60は、文字列バッファに記憶されている文字列を表示用データ記憶領域72に書き込む。これにより、図10の符号178(又は198)で示されるテキストデータが表示用データ記憶領域72に記憶されることになる。なお、文字列バッファには、後述するS76,S108,又はS110において文字が記憶される。
同期値は、RAM68のワーク領域76(図2参照)に記憶されている。CPU60は、ワーク領域76に記憶されている同期値を表示用データ記憶領域72に書き込む。これにより、図10の符号176(又は196)で示されるタイミングデータが表示用データ記憶領域72に記憶されることになる。なお、ワーク領域76には、後述するS86又はS118において同期値が記憶される。
In S60, the CPU 60 determines whether or not the synchronization value is “−1”. The synchronization value is stored in the work area 76 (see FIG. 2) of the RAM 68. When the determination is NO, the CPU 60 writes the hyperlink data, the character string stored in the character string buffer (may be one character), and the synchronization value in the display data storage area 72 (S62). .
Hyperlink data is data that defines a hyperlink to sound data in an xml format data structure. Reference numeral 172 (or 192) in FIG. 10 is hyperlink data.
The character string buffer is included in the work area 76 of the RAM 68 (see FIG. 2). The CPU 60 writes the character string stored in the character string buffer into the display data storage area 72. As a result, the text data indicated by reference numeral 178 (or 198) in FIG. 10 is stored in the display data storage area 72. The character string buffer stores characters in S76, S108, or S110 described later.
The synchronization value is stored in the work area 76 (see FIG. 2) of the RAM 68. The CPU 60 writes the synchronization value stored in the work area 76 in the display data storage area 72. As a result, the timing data indicated by the reference numeral 176 (or 196) in FIG. 10 is stored in the display data storage area 72. In the work area 76, a synchronization value is stored in S86 or S118 described later.

S62の処理を終えた場合、S64に進む。また、S60でYESの場合、S62をスキップし、S64に進む。S64では、CPU60は、表示用データ記憶領域72にフッタ部を書き込む。図10では、符号220によってフッタ部が示されている。フッタ部220は、xml形式のデータにおいて最後に付加される公知のコードである。このために、図10では、フッタ部220の内容を具体的に示していない。フッタ部220が書き込まれると、表示用データ作成処理は終了する。   When the process of S62 is completed, the process proceeds to S64. If YES in S60, S62 is skipped and the process proceeds to S64. In S <b> 64, the CPU 60 writes the footer portion in the display data storage area 72. In FIG. 10, the footer portion is indicated by reference numeral 220. The footer unit 220 is a known code added at the end of data in the xml format. For this reason, FIG. 10 does not specifically show the content of the footer unit 220. When the footer unit 220 is written, the display data creation process ends.

S70では、CPU60は、S50においてデリミタリストに何らかの文字コードが記憶されたのか否かを判断する。同期単位が「ワード」、「センテンス」、又は「パラグラフ」である場合、S50においてデリミタリストに文字コード(群)が記憶される。この場合、S70においてNOと判断される。一方において、同期単位が「なし」である場合、S50においてデリミタリストに何も記憶されない。この場合、S70においてYESと判断される。   In S70, the CPU 60 determines whether any character code is stored in the delimiter list in S50. When the synchronization unit is “word”, “sentence”, or “paragraph”, the character code (group) is stored in the delimiter list in S50. In this case, NO is determined in S70. On the other hand, if the synchronization unit is “none”, nothing is stored in the delimiter list in S50. In this case, YES is determined in S70.

S70でYESの場合、S72に進む。S72では、CPU60は、S56で読み込まれた文字が、同期コード132(図6参照)であるのか否かを判断する。ここでYESの場合、図9のS118に進む。また、ここでNOの場合、S74に進む。
S74では、CPU60は、同期フラグに「FALSE」を記憶する。同期フラグは、RAM68のワーク領域76(図2参照)に記憶されている。S74を実行する前に同期フラグ「FALSE」が記憶されていた場合、S74を実行しても同期フラグ「FALSE」が維持されることになる。一方において、S74を実行する前に同期フラグ「TRUE」が記憶されていた場合、S74を実行することによって同期フラグ「FALSE」に変更されることになる。なお、同期フラグ「TRUE」は、後述するS90において記憶される。
続いて、CPU60は、S56で読み込まれた文字をワーク領域76(図2参照)の文字列バッファに記憶する。S76を終えると、CPU60は、S56に戻って次の1文字を読み込む。
If YES in S70, the process proceeds to S72. In S72, the CPU 60 determines whether or not the character read in S56 is the synchronization code 132 (see FIG. 6). In the case of YES here, the process proceeds to S118 of FIG. Further, in the case of NO here, the process proceeds to S74.
In S74, the CPU 60 stores “FALSE” in the synchronization flag. The synchronization flag is stored in the work area 76 (see FIG. 2) of the RAM 68. If the synchronization flag “FALSE” is stored before executing S74, the synchronization flag “FALSE” is maintained even if S74 is executed. On the other hand, if the synchronization flag “TRUE” is stored before executing S74, the synchronization flag “FALSE” is changed by executing S74. The synchronization flag “TRUE” is stored in S90 described later.
Subsequently, the CPU 60 stores the character read in S56 in the character string buffer of the work area 76 (see FIG. 2). When S76 ends, the CPU 60 returns to S56 and reads the next one character.

一方において、S70でNOの場合、S80に進む。S80では、CPU60は、S56で読み込まれた文字が、S50で記憶されたデリミタリストに含まれるものであるのか否かを判断する。
例えば、S50においてデリミタリストに記憶された文字コードが同期単位「ワード」に対応するものであり、S56で読み込まれた文字が「スペース」である場合、S80においてYESと判断される。この場合、図9のS100に進む。
また、例えば、S50においてデリミタリストに記憶された文字コードが同期単位「センテンス」に対応するものであり、S56で読み込まれた文字が「スペース」である場合、S80においてNOと判断される。この場合、S82に進む。
On the other hand, if NO in S70, the process proceeds to S80. In S80, the CPU 60 determines whether or not the character read in S56 is included in the delimiter list stored in S50.
For example, if the character code stored in the delimiter list in S50 corresponds to the synchronization unit “word” and the character read in S56 is “space”, YES is determined in S80. In this case, the process proceeds to S100 in FIG.
For example, if the character code stored in the delimiter list in S50 corresponds to the synchronization unit “sentence” and the character read in S56 is “space”, it is determined NO in S80. In this case, the process proceeds to S82.

S82では、CPU60は、S56で読み込まれた文字が同期コード132(図6参照)であるであるのか否かを判断する。ここでYESの場合、S84に進む。一方において、ここでNOの場合、上記したS74に進む。
S84では、CPU60は、同期値が「−1」であるのか否かを判断する(S84)。この処理は、上記したS60の処理と同様である。ここでYESの場合、CPU60は、S56で読み込まれた同期コード132の次の4文字(即ちタイミングデータ134(図6参照))を同期値としてワーク領域76に記憶する(S86)。一方において、S84でNOの場合、CPU60は、S56で読み込まれた同期コード132の次の4文字(即ちタイミングデータ134)をスキップする(S88)。即ち、タイミングデータ134が同期値として記憶されない。
S86又はS88を終えると、CPU60は、同期フラグに「TRUE」を記憶する(S90)。S90を終えると、CPU60は、S56に戻って次の1文字を読み込む。即ち、S86において同期値として記憶されたタイミングデータ134(又はS88においてスキップされたタイミングデータ134)の次の1文字を読み込む。
In S82, the CPU 60 determines whether or not the character read in S56 is the synchronization code 132 (see FIG. 6). If YES here, the process proceeds to S84. On the other hand, in the case of NO here, the process proceeds to S74 described above.
In S84, the CPU 60 determines whether or not the synchronization value is “−1” (S84). This process is the same as the process of S60 described above. If YES here, the CPU 60 stores the next four characters of the synchronization code 132 read in S56 (that is, the timing data 134 (see FIG. 6)) in the work area 76 as a synchronization value (S86). On the other hand, if NO in S84, the CPU 60 skips the next four characters (that is, timing data 134) of the synchronization code 132 read in S56 (S88). That is, the timing data 134 is not stored as a synchronization value.
When S86 or S88 ends, the CPU 60 stores “TRUE” in the synchronization flag (S90). When S90 ends, the CPU 60 returns to S56 and reads the next one character. That is, the next character of the timing data 134 (or the timing data 134 skipped in S88) stored as the synchronization value in S86 is read.

続いて、図9を参照して、S80でYESと判断された以降の処理を説明する。S80でYESと判断されるということは、S56で読み込まれた文字がデリミタリストの文字コードに一致していることを意味する。この場合、CPU60は、同期値が「−1」であるのか否かを判断する(S100)。ここでNOの場合、CPU60は、同期フラグに「TRUE」が記憶されているのか否かを判断する(S102)。ここでYESの場合、CPU60は、上記したS62と同様の処理を実行する(S104)。即ち、S104では、CPU60は、ハイパーリンクデータと、文字列バッファに記憶されている文字列と、同期値とを表示用データ記憶領域72に書き込む。S104を終えると、S106に進む。
S106では、CPU60は、同期値に「−1」を記憶し、文字列バッファを初期化し、同期フラグに「FALSE」を記憶する。次いで、CPU60は、S106で初期化された文字列バッファに、S56で読み込まれた文字を記憶する(S108)。S108を終えると、CPU60は、S56に戻って次の1文字を読み込む。
Next, with reference to FIG. 9, processing after the determination of YES in S80 will be described. The determination of YES in S80 means that the character read in S56 matches the character code of the delimiter list. In this case, the CPU 60 determines whether or not the synchronization value is “−1” (S100). In the case of NO here, the CPU 60 determines whether or not “TRUE” is stored in the synchronization flag (S102). In the case of YES here, the CPU 60 executes the same processing as S62 described above (S104). That is, in S104, the CPU 60 writes the hyperlink data, the character string stored in the character string buffer, and the synchronization value in the display data storage area 72. When S104 ends, the process proceeds to S106.
In S106, the CPU 60 stores “−1” as the synchronization value, initializes the character string buffer, and stores “FALSE” as the synchronization flag. Next, the CPU 60 stores the character read in S56 in the character string buffer initialized in S106 (S108). When S108 ends, the CPU 60 returns to S56 and reads the next one character.

S100でYESの場合、又は、S102でNOの場合は、S110に進む。S110では、CPU60は、S56で読み込まれた文字を文字列バッファに記憶する。次いで、CPU60は、次の1文字を読み込む(S112)。続いて、CPU60は、S112で読み込まれた文字が同期コード132(図6参照)であるのか否かを判断する(S114)。ここでYESの場合、S116に進む。一方において、S114でNOの場合、図8のS74に進む。
S116では、CPU60は、同期値が「−1」であるのか否かを判断する。ここでYESの場合、CPU60は、S112で読み込まれた同期コード132の次の4文字(即ちタイミングデータ134(図6参照))を同期値として記憶する(S118)。一方において、S116でNOの場合、CPU60は、S112で読み込まれた同期コードの次の4文字(即ちタイミングデータ134)をスキップする(S120)。
S118又はS120を実行すると、CPU60は、上記したS62又はS104と同様の処理を実行する(S122)。即ち、S122では、CPU60は、ハイパーリンクデータと、文字列バッファに記憶されている文字列と、同期値とを表示用データ記憶領域72に書き込む。S122を終えると、S124に進む。
S124では、CPU60は、同期値に「−1」を記憶し、文字列バッファを初期化し、同期フラグに「FALSE」を記憶する。S124を終えると、CPU60は、S56に戻って次の1文字を読み込む。
If YES in S100, or NO in S102, the process proceeds to S110. In S110, the CPU 60 stores the character read in S56 in the character string buffer. Next, the CPU 60 reads the next one character (S112). Subsequently, the CPU 60 determines whether or not the character read in S112 is the synchronization code 132 (see FIG. 6) (S114). If YES here, the process proceeds to S116. On the other hand, if NO in S114, the process proceeds to S74 in FIG.
In S116, the CPU 60 determines whether or not the synchronization value is “−1”. In the case of YES here, the CPU 60 stores the next four characters of the synchronization code 132 read in S112 (that is, the timing data 134 (see FIG. 6)) as a synchronization value (S118). On the other hand, if NO in S116, the CPU 60 skips the next four characters (that is, the timing data 134) of the synchronization code read in S112 (S120).
When S118 or S120 is executed, the CPU 60 executes the same processing as S62 or S104 described above (S122). That is, in S122, the CPU 60 writes the hyperlink data, the character string stored in the character string buffer, and the synchronization value in the display data storage area 72. When S122 ends, the process proceeds to S124.
In S124, the CPU 60 stores “−1” as the synchronization value, initializes the character string buffer, and stores “FALSE” as the synchronization flag. When S124 ends, the CPU 60 returns to S56 and reads the next one character.

内容テキストデータ114に含まれる全ての文字(文字データ130、同期コード、タイミングデータ134等)についてS70からS124の処理が実行されると、S58でYESと判断される。これにより、表示用データ記憶領域72にフッタ部220(図10参照)に書き込まれ(S64)、表示用データ作成処理が終了する。   When the processing from S70 to S124 is executed for all characters (character data 130, synchronization code, timing data 134, etc.) included in the content text data 114, YES is determined in S58. As a result, the footer unit 220 (see FIG. 10) is written in the display data storage area 72 (S64), and the display data creation process ends.

表示用データ作成処理が終了すると、表示用データ記憶領域72には表示用データ148(図10参照)が記憶されている。
表示用データ148は、上記したヘッダ部150とフッタ部220の他に、同期再生データ170,190を有する。同期再生データ170は、ハイパーリンクデータ172と、タイミング属性データ176と、歌詞のテキストデータ178と、終了コード188を有する。ハイパーリンクデータ172は、リンク先のタイトルのテキストデータ174を含んでいる。
ハイパーリンクデータ172は、ハイパーリンクを定義するデータである。タイトルのテキストデータ174は、ヘッダ部150のタイトルのテキストデータ156に一致するタイトルである。タイミング属性データ176は、音データ120(図5参照)の頭からの時間である。歌詞のテキストデータ178は、内容テキストデータ114に含まれる歌詞の一部である。図10の例では、センテンス又はパラグラフの単位で作成された同期再生データ170が示されている。即ち、図8のS50においてセンテンス又はパラグラフに対応する文字コードがデリミタリストに記憶された場合に作成された同期再生データ170が示されている。このために、歌詞のテキストデータ178は、複数の単語180,182を含んでいる。終了コード188は、一つの同期再生データ170の記述が終了することを意味するコードである。
同期再生データ190は、同期再生データ170と同様に、ハイパーリンクデータ192と、タイミング属性データ196と、歌詞のテキストデータ198と、終了コード208を有する。歌詞のテキストデータ198は、複数の単語200,202,204を含んでいる。
When the display data creation process is completed, display data 148 (see FIG. 10) is stored in the display data storage area 72.
The display data 148 includes synchronized reproduction data 170 and 190 in addition to the header section 150 and the footer section 220 described above. The synchronized playback data 170 includes hyperlink data 172, timing attribute data 176, lyrics text data 178, and an end code 188. The hyperlink data 172 includes text data 174 of the title of the link destination.
The hyperlink data 172 is data that defines a hyperlink. The title text data 174 is a title that matches the title text data 156 of the header section 150. The timing attribute data 176 is the time from the beginning of the sound data 120 (see FIG. 5). Lyric text data 178 is a part of the lyrics included in the content text data 114. In the example of FIG. 10, synchronous reproduction data 170 created in units of sentences or paragraphs is shown. That is, the synchronous reproduction data 170 created when the character code corresponding to the sentence or paragraph is stored in the delimiter list in S50 of FIG. For this reason, the lyrics text data 178 includes a plurality of words 180 and 182. The end code 188 is a code that means that the description of one synchronized reproduction data 170 is ended.
Similar to the synchronized playback data 170, the synchronized playback data 190 includes hyperlink data 192, timing attribute data 196, lyrics text data 198, and an end code 208. The lyrics text data 198 includes a plurality of words 200, 202, and 204.

図10の例では、センテンス又はパラグラフの単位で同期再生データ170,190が作成されている。この他の単位(音節単位、ワード単位)で同期再生データ170,190が作成されることがある。図11は、他の単位で作成された同期再生データも含んでいる。なお、図11では、同期再生データを符号170で示し、ハイパーリンクデータを符号172で示し、タイミング属性データを符号176で示し、歌詞のテキストデータを符号178で示す。
図11(a)は、内容テキストデータ114(図5参照)に含まれる歌詞の一例を示す。図中の四角はスペースを意味する。「・・・ box.」と「 I ・・・」の間は改行されている。
図11(b)は、図11(a)の歌詞が音節単位で分割されたものを示す。図11(b)の括弧は、各音節を区切るために挿入されたものであり、歌詞に含まれるものではない。1つの音節によって上記した1つの組合せデータ128(図6参照)が構成される。このために、図11(b)は、複数の組合せデータ128(即ち内容テキストデータ114)を示すものとも言える。図11(b)では図示省略しているが、それぞれの組合せデータ128は、タイミングデータ(図6の符号134参照)を含んでいる。
図11(c)は、図11(b)の内容テキストデータ114から音節の単位で作成された複数の同期再生データ170(即ち表示用データ148)を示す。それぞれの同期再生データ170は、ハイパーリンクデータ172とタイミング属性データ176と歌詞のテキストデータ178から構成されている。図11(b)の1つの組合せデータ128から1つの同期再生データ170が作成される。即ち、それぞれの同期再生データ170のタイミングデータ176は、それぞれの組合せデータ128のタイミングデータに一致する。例えば、「 I」を含む同期再生データ170のタイミングデータ176は、「 I」を含む組合せデータ128に含まれるタイミングデータに一致する。
In the example of FIG. 10, synchronized playback data 170 and 190 are created in units of sentences or paragraphs. The synchronized playback data 170, 190 may be created in other units (syllable units, word units). FIG. 11 also includes synchronized playback data created in other units. In FIG. 11, synchronous reproduction data is indicated by reference numeral 170, hyperlink data is indicated by reference numeral 172, timing attribute data is indicated by reference numeral 176, and lyrics text data is indicated by reference numeral 178.
FIG. 11A shows an example of lyrics included in the content text data 114 (see FIG. 5). Squares in the figure mean spaces. There is a line break between “... Box.” And “I.
FIG. 11 (b) shows the lyrics of FIG. 11 (a) divided in syllable units. The parentheses in FIG. 11 (b) are inserted to delimit each syllable and are not included in the lyrics. One combination data 128 (see FIG. 6) described above is constituted by one syllable. Therefore, it can be said that FIG. 11B shows a plurality of combination data 128 (that is, content text data 114). Although not shown in FIG. 11B, each combination data 128 includes timing data (see reference numeral 134 in FIG. 6).
FIG. 11C shows a plurality of synchronous reproduction data 170 (that is, display data 148) created in syllable units from the content text data 114 of FIG. 11B. Each synchronous reproduction data 170 includes hyperlink data 172, timing attribute data 176, and lyrics text data 178. One synchronized reproduction data 170 is created from one combination data 128 of FIG. That is, the timing data 176 of each synchronized reproduction data 170 matches the timing data of each combination data 128. For example, the timing data 176 of the synchronized reproduction data 170 including “I” matches the timing data included in the combination data 128 including “I”.

図11(d)は、図11(b)の内容テキストデータ114からワードの単位で作成された複数の同期再生データ170を示す。1つの組合せデータ128から1つの同期再生データ170が作成される場合もあるし、2つ以上の組合せデータ128から1つの同期再生データ170が作成される場合もある。前者の場合、同期再生データ170のタイミングデータ176は、それに対応する組合せデータ128のタイミングデータに一致する。例えば、「 I」を含む同期再生データ170のタイミングデータ176は、「 I」を含む組合せデータ128に含まれるタイミングデータに一致する。一方において、後者の場合、同期再生データ170のタイミングデータ176は、それに対応する2つ以上の組合せデータ128の中の最初の組合せデータ128に含まれるタイミングデータに一致する。例えば、「 have」を含む同期再生データ170のタイミングデータ176は、「 ha」を含む組合せデータ128に含まれるタイミングデータに一致する。   FIG. 11D shows a plurality of synchronized playback data 170 created in units of words from the content text data 114 of FIG. 11B. One synchronized reproduction data 170 may be created from one combination data 128, and one synchronized reproduction data 170 may be created from two or more combination data 128. In the former case, the timing data 176 of the synchronized reproduction data 170 matches the timing data of the combination data 128 corresponding thereto. For example, the timing data 176 of the synchronized reproduction data 170 including “I” matches the timing data included in the combination data 128 including “I”. On the other hand, in the latter case, the timing data 176 of the synchronized reproduction data 170 matches the timing data included in the first combination data 128 of the two or more combination data 128 corresponding thereto. For example, the timing data 176 of the synchronized reproduction data 170 including “have” matches the timing data included in the combination data 128 including “ha”.

図11(e)は、図11(b)の内容テキストデータ114からセンテンスの単位で作成された複数の同期再生データ170を示す。2つ以上の組合せデータ128から1つの同期再生データ170が作成される場合、その同期再生データ170のタイミングデータ176は、それに対応する2つ以上の組合せデータ128の中の最初の組合せデータ128に含まれるタイミングデータに一致する。例えば、「 I have a pen,」を含む同期再生データ170のタイミングデータ176は、「 I」を含む組合せデータ128に含まれるタイミングデータに一致する。
また、図11(f)は、図11(b)の内容テキストデータ114からパラグラフの単位で作成された複数の同期再生データ170を示す。
FIG. 11E shows a plurality of synchronized playback data 170 created in units of sentences from the content text data 114 of FIG. 11B. When one synchronized reproduction data 170 is created from two or more combination data 128, the timing data 176 of the synchronized reproduction data 170 is the first combination data 128 in the two or more combination data 128 corresponding thereto. Matches the included timing data. For example, the timing data 176 of the synchronized reproduction data 170 including “I have a pen,” matches the timing data included in the combination data 128 including “I”.
FIG. 11 (f) shows a plurality of synchronous reproduction data 170 created in units of paragraphs from the content text data 114 of FIG. 11 (b).

上述したように、表示用データ作成処理で作成された表示用データ148は、図7のS36の処理で再生装置56に出力され、再生装置56内に保存される。再生装置56において表示用データ148がどのようにして利用されるのかについては、後で説明する。
CPU60は、表示用データ148を出力する処理(S36)を終えると、次に説明する印刷用データ作成処理(S38)を実行する。
As described above, the display data 148 created in the display data creation process is output to the playback device 56 in the process of S36 in FIG. How the display data 148 is used in the playback device 56 will be described later.
When the CPU 60 finishes the process of outputting the display data 148 (S36), it executes a print data creation process (S38) described below.

(印刷用データ作成処理)
続いて、印刷用データ作成処理(S38)の内容について説明する。図12は、印刷用データ作成処理のフローチャートを示す。本実施例では、印刷用データとしてXHTML形式を採用する。
CPU60は、現在処理しているインデックス番号に対応するインデックス更新情報(図3参照)と、オーディオデータ100に含まれるID3データ102とに基づいて、印刷用データ作成処理を実行する。
まず、CPU60は、改行コードをデリミタリストに記憶する(S130)。デリミタリストは、RAM68のワーク領域76(図2参照)に記憶される。続いて、CPU60は、S132の処理を実行する。S132では、文字列バッファが初期化され、印刷用データ記憶領域74(図2参照)が初期化される。文字列バッファは、RAM68のワーク領域76の所定の記憶領域である。
CPU60は、印刷用データ記憶領域74にヘッダ部を書き込む(S134)。図13は、印刷用データ作成処理によって最終的に作成される印刷用データ230の一例を示す。図13の符号232で示される部分が、S134で書き込まれるヘッダ部である。
(Print data creation process)
Next, the contents of the print data creation process (S38) will be described. FIG. 12 shows a flowchart of print data creation processing. In this embodiment, the XHTML format is adopted as print data.
The CPU 60 executes print data creation processing based on the index update information (see FIG. 3) corresponding to the currently processed index number and the ID3 data 102 included in the audio data 100.
First, the CPU 60 stores the line feed code in the delimiter list (S130). The delimiter list is stored in the work area 76 (see FIG. 2) of the RAM 68. Subsequently, the CPU 60 executes the process of S132. In S132, the character string buffer is initialized, and the print data storage area 74 (see FIG. 2) is initialized. The character string buffer is a predetermined storage area in the work area 76 of the RAM 68.
The CPU 60 writes the header part in the print data storage area 74 (S134). FIG. 13 shows an example of the print data 230 that is finally created by the print data creation process. The portion indicated by reference numeral 232 in FIG. 13 is the header portion written in S134.

続いて、CPU60は、内容テキストデータ114(図6参照)に含まれる1文字を読み込む(S136)。1回目のS136の処理では、内容テキストデータ114の先頭の1文字(図6の文字130a)が読み込まれる。2回目以降のS136の処理では、その前のS136で読み込まれた文字の次の1文字が読み込まれる。
CPU60は、S136で読み込まれた文字がエンドコードを意味するものであるのか否かを判断する(S138)。ここでYESの場合、CPU60は、印刷用データ記憶領域74にフッタ部を書き込む(S140)。図13の符号240で示される部分がフッタ部である。フッタ部240が書き込まれると、印刷用データ作成処理は終了する。
Subsequently, the CPU 60 reads one character included in the content text data 114 (see FIG. 6) (S136). In the first process of S136, the first character (the character 130a in FIG. 6) of the content text data 114 is read. In the process of S136 after the second time, the next character after the character read in the previous S136 is read.
The CPU 60 determines whether or not the character read in S136 means an end code (S138). If YES here, the CPU 60 writes the footer portion in the print data storage area 74 (S140). A portion indicated by reference numeral 240 in FIG. 13 is a footer portion. When the footer unit 240 is written, the print data creation process ends.

一方において、S138でNOの場合、CPU60は、S136で読み込まれた文字が、S130で記憶されたデリミタリストに含まれるものであるのか否かを判断する(S150)。即ち、CPU60は、S136で読み込まれた文字が改行コードであるのか否かを判断する。
S150でNOの場合、CPU60は、S136で読み込まれた文字が同期コード132(図6参照)であるであるのか否かを判断する(S152)。ここでYESの場合、S136で読み込まれた同期コード132の次の4文字(即ちタイミングデータ134(図6参照))をスキップする(S156)。一方において、S152でNOの場合、CPU60は、S136で読み込まれた文字を文字列バッファに記憶する(S154)。S154又はS156を終えると、CPU60は、S136に戻って次の1文字を読み込む。
On the other hand, if NO in S138, the CPU 60 determines whether or not the character read in S136 is included in the delimiter list stored in S130 (S150). That is, the CPU 60 determines whether or not the character read in S136 is a line feed code.
If NO in S150, the CPU 60 determines whether or not the character read in S136 is the synchronization code 132 (see FIG. 6) (S152). If YES is selected, the next four characters of the synchronization code 132 read in S136 (that is, the timing data 134 (see FIG. 6)) are skipped (S156). On the other hand, if NO in S152, the CPU 60 stores the character read in S136 in the character string buffer (S154). When S154 or S156 ends, the CPU 60 returns to S136 and reads the next one character.

S150でYESの場合、CPU60は、文字列バッファに記憶されている文字列を印刷用データ記憶領域74に書き込む(S160)。次いで、CPU60は、<br/>タグを印刷用データ記憶領域74に書き込む(S162)。S162で書き込まれるタグは、図13において符号236,238で示されている。このタグは、改行を意味する。
続いて、CPU60は、文字列バッファを初期化する(S164)。S164を終えると、CPU60は、S136に戻って次の1文字を読み込む。
If YES in S150, the CPU 60 writes the character string stored in the character string buffer into the print data storage area 74 (S160). Next, the CPU 60 writes the <br/> tag in the print data storage area 74 (S162). The tags written in S162 are indicated by reference numerals 236 and 238 in FIG. This tag means a line break.
Subsequently, the CPU 60 initializes the character string buffer (S164). When S164 ends, the CPU 60 returns to S136 and reads the next one character.

内容テキストデータ114に含まれる全ての文字(文字データ130、同期コード132、タイミングデータ134等)についてS136からS164の処理が実行されると、S138でYESと判断される。これにより、印刷用データ記憶領域74にフッタ部240(図13参照)に書き込まれ(S140)、印刷用データ作成処理が終了する。   When the processing from S136 to S164 is executed for all characters (character data 130, synchronization code 132, timing data 134, etc.) included in the content text data 114, YES is determined in S138. As a result, the footer unit 240 (see FIG. 13) is written in the print data storage area 74 (S140), and the print data creation process ends.

印刷用データ作成処理が終了すると、印刷用データ記憶領域74には印刷用データ230(図13参照)が記憶されている。
印刷用データ230は、ヘッダ部232と歌詞のテキストデータ234とフッタ部240を有する。歌詞のテキストデータ234は、改行を意味するコード236,238を含んでいる。
When the print data creation process is completed, the print data 230 (see FIG. 13) is stored in the print data storage area 74.
The print data 230 includes a header part 232, lyrics text data 234, and a footer part 240. The text data 234 of the lyrics includes codes 236 and 238 that mean line breaks.

上述したように、印刷用データ作成処理で作成された印刷用データ230は、図7のS40の処理で印刷される。CPU60は、印刷用データ230に基づいて印刷するように印刷装置24(図1参照)に指示する。印刷装置24は、印刷用データ230のヘッダ部232と歌詞のテキストデータ234とフッタ部240のそれぞれの記述に従って印刷する。歌詞のテキストデータ234は、改行タブ236,238の箇所で改行された形式で印刷される。   As described above, the print data 230 created by the print data creation process is printed by the process of S40 of FIG. The CPU 60 instructs the printing apparatus 24 (see FIG. 1) to perform printing based on the printing data 230. The printing device 24 performs printing in accordance with the descriptions of the header portion 232, the lyrics text data 234, and the footer portion 240 of the printing data 230. The text data 234 of the lyrics is printed in a form in which line breaks are made at the line break tabs 236 and 238.

(オーディオ再生装置の動作)
多機能機20の構成と処理について詳しく説明した。続いて、上記した表示用データ148と音データ120が再生装置56(図1参照)においてどのようにして利用されるのかについて説明する。
上述したように、図7のS36の処理において表示用データ148が再生装置56に出力され、再生装置56内に保存される。表示用データ148が作成される元の内容テキストデータ114(図5参照)も、再生装置56に出力される。
(Operation of audio playback device)
The configuration and processing of the multi-function device 20 have been described in detail. Next, how the display data 148 and the sound data 120 are used in the playback device 56 (see FIG. 1) will be described.
As described above, the display data 148 is output to the playback device 56 and stored in the playback device 56 in the process of S36 of FIG. The original content text data 114 (see FIG. 5) from which the display data 148 is created is also output to the playback device 56.

再生装置56は、自身が保存している複数のトラックのタイトルリストを表示することができる。再生装置56は、表示画面56bに表示されている複数のタイトルの中から1つのタイトルがユーザによって選択されると、そのタイトルの音データ120を頭から再生する処理を実行することができる。音データ120は、再生装置56の音データ再生装置56a(図1参照)によって再生される。ユーザは、再生装置56の操作装置56c(図1参照)を操作することによって、表示画面56bに表示されているタイトルを選択することができる。   The playback device 56 can display a title list of a plurality of tracks stored by itself. When one title is selected from a plurality of titles displayed on the display screen 56b by the user, the playback device 56 can execute a process of playing back the sound data 120 of the title from the beginning. The sound data 120 is reproduced by the sound data reproducing device 56a (see FIG. 1) of the reproducing device 56. The user can select the title displayed on the display screen 56b by operating the operation device 56c (see FIG. 1) of the playback device 56.

再生装置56は、音データ120が再生されると、内容テキストデータ114(図5や図6参照)に基づいて表示画面56bに歌詞を表示することができる。図14は、歌詞が表示されている表示画面56bの一例を示す。表示画面56bには、タイトル252と歌詞が表示される。内容テキストデータ148は、音データ120の再生時間軸に対応するタイミングデータ134(図6参照)を有している。このために、再生装置56は、音データ120の再生に同期して歌詞の位置を示すことができる。例えば、再生装置56は、音データ120の再生位置に対応する部分を強調して表示(アンダーライン付加、反転、マーカ付加)することができる。図14の例では、アンダーライン250が付加されている。アンダーライン250は、音データ120が再生されるにつれて移動する。   When the sound data 120 is reproduced, the reproduction device 56 can display the lyrics on the display screen 56b based on the content text data 114 (see FIGS. 5 and 6). FIG. 14 shows an example of the display screen 56b on which lyrics are displayed. A title 252 and lyrics are displayed on the display screen 56b. The content text data 148 includes timing data 134 (see FIG. 6) corresponding to the reproduction time axis of the sound data 120. For this reason, the playback device 56 can indicate the position of the lyrics in synchronization with the playback of the sound data 120. For example, the playback device 56 can highlight and display a portion corresponding to the playback position of the sound data 120 (underline addition, inversion, marker addition). In the example of FIG. 14, an underline 250 is added. The underline 250 moves as the sound data 120 is reproduced.

また、再生装置56は、表示用データ148(図10参照)に基づいて表示画面56bに歌詞を表示することもできる。なお、再生装置56は、音データ120の再生に同期して表示用データ148の歌詞を表示してもよいし、音データ120を再生させずに非同期的に表示用データ148の歌詞を表示してもよい。表示用データ148の各同期再生データ170,190は、ハイパーリンクデータ172,192を含んでいる。再生装置56は、ハイパーリンク構造に対応したテキスト閲覧機能を有する。このテキスト閲覧機能を利用すると、表示用データ148に含まれるハイパーリンク構造を解釈してテキスト(歌詞)を表示することができる。図15は、このテキスト閲覧機能によって歌詞が表示されている表示画面56bの一例を示す。
再生装置56は、表示画面56bに表示されている歌詞の一部がユーザによって選択されると、その選択された箇所から音データ120を再生する処理を実行することができる。図15では、表示画面56bに表示される選択バー260が示されている。ユーザは、操作装置56cを操作することによって、表示画面56bに表示されている選択バー260を移動させ、歌詞の一部を選択することができる。選択バー260は、同期再生データ170等が作成された単位(音節、ワード、センテンス、又はパラグラフ)で移動する。
ユーザは、同期再生データ170等が作成された単位で、表示画面56bに表示されている歌詞の一部を選択することができる。例えば、音節の単位で同期再生データ170等が作成された場合(図11(c)の場合)、ユーザは、表示画面56bに表示されている歌詞の中から1つの音節を選択することができる。また、例えば、センテンスの単位で同期再生データ170等が作成された場合(図11(e)の場合)、ユーザは、表示画面56bに表示されている歌詞の中から1つのセンテンスを選択することができる。この場合の例が、図15に示されている。
The playback device 56 can also display lyrics on the display screen 56b based on the display data 148 (see FIG. 10). Note that the playback device 56 may display the lyrics of the display data 148 in synchronization with the playback of the sound data 120, or display the lyrics of the display data 148 asynchronously without playing the sound data 120. May be. Each of the synchronous reproduction data 170 and 190 of the display data 148 includes hyperlink data 172 and 192. The playback device 56 has a text browsing function corresponding to the hyperlink structure. When this text browsing function is used, the text (lyrics) can be displayed by interpreting the hyperlink structure included in the display data 148. FIG. 15 shows an example of a display screen 56b on which lyrics are displayed by the text browsing function.
When a part of the lyrics displayed on the display screen 56b is selected by the user, the reproducing device 56 can execute a process of reproducing the sound data 120 from the selected portion. In FIG. 15, a selection bar 260 displayed on the display screen 56b is shown. The user can select a part of the lyrics by moving the selection bar 260 displayed on the display screen 56b by operating the operation device 56c. The selection bar 260 moves in units (syllables, words, sentences, or paragraphs) in which the synchronized playback data 170 and the like are created.
The user can select a part of the lyrics displayed on the display screen 56b in a unit in which the synchronized reproduction data 170 and the like are created. For example, when the synchronized playback data 170 or the like is created in syllable units (in the case of FIG. 11C), the user can select one syllable from the lyrics displayed on the display screen 56b. . Further, for example, when the synchronized playback data 170 or the like is created in units of sentences (in the case of FIG. 11E), the user selects one sentence from the lyrics displayed on the display screen 56b. Can do. An example of this case is shown in FIG.

本実施例の多機能機20は、既存のオーディオデータ100(図5、図6参照)から、トラックより小さい単位でハイパーリンクが付加された表示用データ148(図10参照)を作成する。多機能機20は、音データ120を加工しなくても、音データ120にジャンプすることができるハイパーリンクを有する表示用データ148を作成することができる。音データ120を加工する必要がないために、表示用データ148の作成が容易である。
再生装置56は、ハイパーリンクが付加された表示用データ148に基づいて、歌詞を表示することができる。再生装置56は、音データ120の再生に同期(又は非同期)して表示される歌詞の一部がユーザによって選択されると、その選択された箇所から音データ120を再生することができる。ユーザは、トラックの途中の箇所から音データ120を簡単に再生させることができる。
The multi-function device 20 of the present embodiment creates display data 148 (see FIG. 10) to which hyperlinks are added in units smaller than the track from the existing audio data 100 (see FIGS. 5 and 6). The multi-function device 20 can create display data 148 having a hyperlink that can jump to the sound data 120 without processing the sound data 120. Since there is no need to process the sound data 120, the display data 148 can be easily created.
The playback device 56 can display the lyrics based on the display data 148 to which the hyperlink is added. When a part of the lyrics displayed in synchronization (or asynchronously) with the reproduction of the sound data 120 is selected by the user, the reproduction device 56 can reproduce the sound data 120 from the selected portion. The user can easily reproduce the sound data 120 from a position in the middle of the track.

また、内容テキストデータ114(図6参照)は、音節の単位で作成されている。多機能機20は、この内容テキストデータ114から、ワード、センテンス、又はパラグラフの単位で表示用データ148(図10参照)を作成することができる。この場合、ユーザは、自身が意図する同期単位(ワード、センテンス、又はパラグラフ)で再生位置を指定することができる。ユーザによって使い易さの向上につながる。   The content text data 114 (see FIG. 6) is created in units of syllables. The multi-function device 20 can create display data 148 (see FIG. 10) from the content text data 114 in units of words, sentences, or paragraphs. In this case, the user can specify the playback position in the synchronization unit (word, sentence, or paragraph) intended by the user. This leads to improved usability by the user.

(実施例の変形例)
再生装置56は、内容テキストデータ114がなくても、表示用データ148に基づいて歌詞を表示することができる。このために、多機能機20は、内容テキストデータ114を再生装置56に送らなくてもよい。このようにすると、再生装置56が記憶すべきデータ量を圧縮することができる。
(Modification of Example)
The playback device 56 can display lyrics based on the display data 148 without the content text data 114. For this reason, the multi-function device 20 may not send the content text data 114 to the playback device 56. In this way, the amount of data that the playback device 56 should store can be compressed.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
多機能機20は、音データ120と表示用データ148をPC58(図1参照)に送ってもよい。この場合、PC58は、音データ120を再生することができるとともに、その再生に同期(又は非同期)して歌詞を表示することができる。また、多機能機20は、音データ120を再生する機能を有していてもよい。この場合、多機能機20は、音データ120の再生に同期(又は非同期)して表示装置32(図1参照)で歌詞を表示してもよい。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
The multi-function device 20 may send the sound data 120 and the display data 148 to the PC 58 (see FIG. 1). In this case, the PC 58 can reproduce the sound data 120 and display lyrics in synchronization (or asynchronously) with the reproduction. The multi-function device 20 may have a function of reproducing the sound data 120. In this case, the multi-function device 20 may display the lyrics on the display device 32 (see FIG. 1) in synchronization (or asynchronously) with the reproduction of the sound data 120.
Further, the technical elements described in the present specification or drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

多機能機システムの概略図を示す。1 shows a schematic diagram of a multi-function device system. 多機能機の制御装置のブロック図を示す。The block diagram of the control apparatus of a multi-function machine is shown. コンテンツ更新情報テーブルの一例を示す。An example of a content update information table is shown. コンテンツ更新処理のフローチャートを示す。The flowchart of a content update process is shown. オーディオデータのデータ構成の一例を示す。An example of the data structure of audio data is shown. 内容テキストデータのデータ構成の一例を示す。An example of a data structure of content text data is shown. コンテンツ更新処理のフローチャートを示す。The flowchart of a content update process is shown. 表示用データ作成処理のフローチャートを示す。The flowchart of the display data creation process is shown. 表示用データ作成処理のフローチャートを示す(図8の続き)。FIG. 9 shows a flowchart of display data creation processing (continuation of FIG. 8). 表示用データのデータ構成の一例を示す。An example of the data structure of the display data is shown. (a)歌詞の一例を示す。(b)音節の単位で歌詞が分割された様子を示す。(c)音節の単位で作成された同期再生データを示す。(d)ワードの単位で作成された同期再生データを示す。(e)センテンスの単位で作成された同期再生データを示す。(f)パラグラフの単位で作成された同期再生データを示す。(A) An example of lyrics is shown. (B) A state in which lyrics are divided in syllable units. (C) Synchronous reproduction data created in syllable units. (D) Synchronous reproduction data created in units of words. (E) Synchronous reproduction data created in sentence units. (F) Synchronized playback data created in units of paragraphs. 印刷用データ作成処理のフローチャートを示す。6 shows a flowchart of print data creation processing. 印刷用データのデータ構成の一例を示す。An example of the data structure of the data for printing is shown. 表示画面に表示される歌詞の一例を示す。An example of the lyrics displayed on the display screen is shown. 選択バーが表示されている表示画面を示す。The display screen on which the selection bar is displayed is shown.

符号の説明Explanation of symbols

10:多機能機システム
20:多機能機
28:制御装置
52:インターネット
54:サーバ
56:ポータブルオーディオ再生装置
100:オーディオデータ
102:ID3データ
114:内容テキストデータ
120:音データ
128:組合せデータ
130:文字データ
132:同期コード
134:タイミングデータ
150:ヘッダ部
170,190:同期再生データ
172,192:ハイパーリンクデータ
176,196:タイミング属性データ
178,198:歌詞のテキストデータ
220:フッタ部
10: Multi-function device system 20: Multi-function device 28: Control device 52: Internet 54: Server 56: Portable audio playback device 100: Audio data 102: ID3 data 114: Content text data 120: Sound data 128: Combination data 130: Character data 132: Sync code 134: Timing data 150: Header part 170, 190: Synchronized playback data 172, 192: Hyperlink data 176, 196: Timing attribute data 178, 198: Text data of lyrics 220: Footer part

Claims (10)

外部機器に接続されて利用されるコンテンツデータ処理装置であり、
外部機器から出力されたコンテンツデータを入力する入力装置と、入力装置に入力されたコンテンツデータから別のデータを作成するデータ作成装置とを備え、
前記コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有し、
前記トラックの第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものであり、
データ作成装置は、前記トラックの第1表示用データから第2表示用データを作成し、
その第2表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものであることを特徴とするコンテンツデータ処理装置。
A content data processing apparatus that is used by being connected to an external device,
An input device for inputting content data output from an external device, and a data generation device for generating other data from content data input to the input device;
The content data includes sound data and / or video data of at least one track, and first display data of the track,
The first display data of the track includes a plurality of first timing data corresponding to a reproduction time axis of the sound data and / or video data of the track, a portion of the sound data corresponding to the first timing data, and / Or text data related to the contents of video data,
The data creation device creates second display data from the first display data of the track,
The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or A content data processing apparatus, wherein text data relating to the content of video data is associated with a hyperlink structure.
データ作成装置は、第2表示用データに含まれる第2タイミングデータの総数が前記トラックの第1表示用データに含まれる第1タイミングデータの総数より少なくなるように、第2表示用データを作成することを特徴とする請求項1のコンテンツデータ処理装置。   The data creation device creates the second display data so that the total number of second timing data included in the second display data is smaller than the total number of first timing data included in the first display data of the track. The content data processing apparatus according to claim 1, wherein: 前記トラックの第1表示用データに含まれる前記複数の第1タイミングデータのそれぞれは、音節を単位として設定されたものであり、
データ作成装置は、第2表示用データに含まれる前記複数の第2タイミングデータのそれぞれを、単語以上を単位として設定することを特徴とする請求項2のコンテンツデータ処理装置。
Each of the plurality of first timing data included in the first display data of the track is set in units of syllables,
3. The content data processing apparatus according to claim 2, wherein the data creation device sets each of the plurality of second timing data included in the second display data in units of words or more.
第2表示用データを記憶する記憶装置をさらに備え、
第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に沿った数値を含む第1タイミングデータと、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータとが対応づけられている複数の組合せデータからなり、
データ作成装置は、第1表示用データに含まれる複数の組合せデータを読み込むとともに、それぞれの組合せデータについて、その組合せデータの第1タイミングデータに含まれる数値とその組合せデータのテキストデータとをハイパーリンク構造により対応づけたデータを記憶装置に書き込むことを特徴とする請求項1のコンテンツデータ処理装置。
A storage device for storing second display data;
The first display data includes first timing data including numerical values along the reproduction time axis of the sound data and / or video data of the track, and sound data and / or video data of a portion corresponding to the first timing data. It consists of multiple combination data that is associated with text data related to the contents of
The data creation device reads a plurality of combination data included in the first display data, and for each combination data, hyperlinks the numerical value included in the first timing data of the combination data and the text data of the combination data. 2. The content data processing apparatus according to claim 1, wherein data associated with the structure is written in the storage device.
第2表示用データを記憶する記憶装置をさらに備え、
第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に沿った数値を含む第1タイミングデータと、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータとが対応づけられている複数の組合せデータからなり、
複数の組合せデータは、各組合せデータの第1タイミングデータに含まれる数値の順に並んでおり、
データ作成装置は、第1表示用データに含まれる複数の組合せデータを順に読み込むとともに、少なくとも2つの連続する組合せデータについて、それらの組合せデータの中の最初の組合せデータの第1タイミングデータに含まれる数値とそれらの組合せデータの各テキストデータとをハイパーリンク構造により対応づけたデータを記憶装置に書き込むことを特徴とする請求項1のコンテンツデータ処理装置。
A storage device for storing second display data;
The first display data includes first timing data including numerical values along the reproduction time axis of the sound data and / or video data of the track, and sound data and / or video data of a portion corresponding to the first timing data. It consists of multiple combination data that is associated with text data related to the contents of
The plurality of combination data are arranged in the order of numerical values included in the first timing data of each combination data,
The data creation device sequentially reads a plurality of combination data included in the first display data, and at least two consecutive combination data are included in the first timing data of the first combination data in the combination data. 2. The content data processing apparatus according to claim 1, wherein data in which numerical values and text data of their combination data are associated with each other by a hyperlink structure is written in the storage device.
前記外部機器に接続されて利用されるとともに、表示画面を有するコンテンツ再生装置に接続されて利用される請求項1から5のいずれかのコンテンツデータ処理装置であり、
前記トラックの音データ及び/又は映像データと、データ作成装置によって作成された第2表示用データとをコンテンツ再生装置に出力する出力装置をさらに備えることを特徴とするコンテンツデータ処理装置。
The content data processing device according to any one of claims 1 to 5, wherein the content data processing device is used by being connected to the external device and being connected to a content reproduction device having a display screen.
A content data processing apparatus, further comprising: an output device that outputs the sound data and / or video data of the track and the second display data created by the data creation device to a content playback device.
出力装置は、前記トラックの第1表示用データをコンテンツ再生装置に出力しないことを特徴とする請求項6のコンテンツデータ処理装置。   7. The content data processing apparatus according to claim 6, wherein the output device does not output the first display data of the track to the content reproduction device. 外部機器に接続されて利用されるコンテンツデータ処理装置であり、
外部機器から出力されたコンテンツデータを入力する入力装置と、入力装置に入力されたコンテンツデータから別のデータを作成するデータ作成装置とを備え、
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの音データ及び/又は映像データの内容に関する内容テキストデータとを有し、
前記トラックの内容テキストデータは、前記トラックの音データ及び/又は映像データの再生に同期して当該コンテンツデータ処理装置及び/又は別のコンテンツ再生装置において表示されることが可能であり、
データ作成装置は、前記トラックの内容テキストデータに含まれる複数の小テキストデータのそれぞれにハイパーリンク構造が付加されているリンク付内容テキストデータを作成することを特徴とするコンテンツデータ処理装置。
A content data processing apparatus that is used by being connected to an external device,
An input device for inputting content data output from an external device, and a data generation device for generating other data from content data input to the input device;
The content data includes sound data and / or video data of at least one track, and content text data regarding the contents of the sound data and / or video data of the track,
The content text data of the track can be displayed on the content data processing device and / or another content playback device in synchronization with the playback of the sound data and / or video data of the track,
The data creation device creates linked content text data in which a hyperlink structure is added to each of a plurality of small text data included in the track content text data.
外部機器に接続されて利用されるデータ処理装置によってコンテンツデータを処理する方法であり、
外部機器から出力されたコンテンツデータを入力する入力工程と、入力工程で入力されたコンテンツデータから別のデータを作成するデータ作成工程とを備え、
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有し、
前記トラックの第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものであり、
データ作成工程では、前記トラックの第1表示用データから第2表示用データを作成し、
その第2表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものであることを特徴とするコンテンツデータ処理方法。
A method of processing content data by a data processing device connected to an external device and used.
An input process for inputting content data output from an external device, and a data creation process for creating another data from the content data input in the input process,
The content data includes sound data and / or video data of at least one track, and first display data of the track,
The first display data of the track includes a plurality of first timing data corresponding to a reproduction time axis of the sound data and / or video data of the track, a portion of the sound data corresponding to the first timing data, and / Or text data related to the contents of video data,
In the data creation step, second display data is created from the first display data of the track,
The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or A content data processing method, wherein text data relating to the contents of video data is associated with a hyperlink structure.
外部機器に接続されて利用されるデータ処理装置に搭載されるコンピュータによって実行されるプログラムであり、
そのプログラムは、外部機器から出力されてデータ処理装置に入力されたコンテンツデータから別のデータを作成するデータ作成処理を前記コンピュータに実行させるものであり、
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有し、
前記トラックの第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものであり、
データ作成処理では、前記トラックの第1表示用データから第2表示用データを作成し、
その第2表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものであることを特徴とするコンテンツデータ処理プログラム。
It is a program executed by a computer mounted on a data processing device that is used by being connected to an external device,
The program causes the computer to execute a data creation process for creating another data from content data output from an external device and input to a data processing device.
The content data includes sound data and / or video data of at least one track, and first display data of the track,
The first display data of the track includes a plurality of first timing data corresponding to a reproduction time axis of the sound data and / or video data of the track, a portion of the sound data corresponding to the first timing data, and / Or text data related to the contents of video data,
In the data creation process, second display data is created from the first display data of the track,
The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or A content data processing program characterized in that text data relating to the contents of video data is associated with a hyperlink structure.
JP2006342876A 2006-12-20 2006-12-20 Device, method and program for processing content data Pending JP2008154183A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006342876A JP2008154183A (en) 2006-12-20 2006-12-20 Device, method and program for processing content data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006342876A JP2008154183A (en) 2006-12-20 2006-12-20 Device, method and program for processing content data

Publications (1)

Publication Number Publication Date
JP2008154183A true JP2008154183A (en) 2008-07-03

Family

ID=39655860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006342876A Pending JP2008154183A (en) 2006-12-20 2006-12-20 Device, method and program for processing content data

Country Status (1)

Country Link
JP (1) JP2008154183A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016219979A (en) * 2015-05-19 2016-12-22 西日本電信電話株式会社 Client terminal, internet moving image playback system and program
JP2016226053A (en) * 2016-09-26 2016-12-28 西日本電信電話株式会社 Client terminal and moving image reproduction system via internet including the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016219979A (en) * 2015-05-19 2016-12-22 西日本電信電話株式会社 Client terminal, internet moving image playback system and program
JP2016226053A (en) * 2016-09-26 2016-12-28 西日本電信電話株式会社 Client terminal and moving image reproduction system via internet including the same

Similar Documents

Publication Publication Date Title
US7985910B2 (en) Musical content utilizing apparatus
JP2011145694A (en) Talking e-book
JP2004287595A (en) Device and method for converting composite media contents and its program
WO2012147936A1 (en) Browsing system, terminal, image server, program, computer-readable recording medium recording said program, and method
JP2008154183A (en) Device, method and program for processing content data
JP2010055259A (en) Image processing apparatus, image processing program, and image processing method
JP2003091344A (en) Information processor, information processing method, recording medium, data structure and program
JP5082971B2 (en) A speech synthesizer and a reading system using the same.
JP2008197787A (en) Web content providing device, web content providing method, and program
JP2009205039A (en) Audio data conversion/reproduction system, audio data conversion device and audio data reproduction device
JP2007233912A (en) Style sheet producing device and style sheet production program
JP2017108198A (en) Musical score display system, moving image data supply device, musical score data supply device, image display device and musical score display program
JP2004198959A (en) Instruction code generation device and instruction code generation processing program
JP2008217226A (en) Content generation device and content generation program
CN101562009B (en) Musical content utilizing apparatus and method
JP6736174B6 (en) Program and information processing method
JP2015210786A (en) Information processing device, information processing method and program
JP2006277347A (en) Information processor and information processing method
CN101562010B (en) Musical content utilizing apparatus and method
JP2006228329A (en) Playback device, playback system, sending device and computer program
JP4778302B2 (en) Interactive content presentation apparatus and interactive content presentation program
JP5687441B2 (en) Multimedia content production device
JP2009200959A (en) Data editing apparatus, data editing method, program and storage medium
JP2002116786A (en) Speech synthesizer as well as method for the same and information memory medium
JP2010026960A (en) Information processor