JP2008154183A - Device, method and program for processing content data - Google Patents
Device, method and program for processing content data Download PDFInfo
- Publication number
- JP2008154183A JP2008154183A JP2006342876A JP2006342876A JP2008154183A JP 2008154183 A JP2008154183 A JP 2008154183A JP 2006342876 A JP2006342876 A JP 2006342876A JP 2006342876 A JP2006342876 A JP 2006342876A JP 2008154183 A JP2008154183 A JP 2008154183A
- Authority
- JP
- Japan
- Prior art keywords
- data
- content
- track
- display
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、コンテンツデータを処理する技術に関する。本明細書における「コンテンツデータ」は、音データ及び/又は映像データと、その音データ及び/又は映像データの内容に関するテキストデータとを有するデータを意味する。 The present invention relates to a technique for processing content data. The “content data” in this specification means data having sound data and / or video data and text data regarding the contents of the sound data and / or video data.
例えば、インターネット上のサーバからパーソナルコンピュータ(以下では「PC」と呼ぶ)にコンテンツデータをダウンロードすることが広く行なわれている。コンテンツオデータは、音データ及び/又は映像データを有する。PCは、音データや映像データを再生することができる。また、PCは、ダウンロードされた音データや映像データをコンテンツ再生装置(例えばポータブルオーディオ再生装置)に出力することができる。この場合、コンテンツ再生装置において音データや映像データが再生される。
通常、音データや映像データは、トラック単位で管理される。トラックは、音データや映像データの作成者によって決められる任意の単位である。例えば、楽曲の音データの場合、1曲が1つのトラックになることが多い。
For example, content data is widely downloaded from a server on the Internet to a personal computer (hereinafter referred to as “PC”). The content data includes sound data and / or video data. The PC can reproduce sound data and video data. Further, the PC can output the downloaded sound data and video data to a content reproduction device (for example, a portable audio reproduction device). In this case, sound data and video data are reproduced in the content reproduction apparatus.
Normally, sound data and video data are managed in units of tracks. A track is an arbitrary unit determined by a creator of sound data and video data. For example, in the case of music sound data, one song often becomes one track.
音データとテキストデータとを有するコンテンツデータが知られている。例えば、MP3形式(MPEG Audio Layer−3)のコンテンツデータは、少なくとも1つのトラックの音データとID3データとを有する。ID3データに関しては、下記の非特許文献1に詳しく開示されている。ID3データは、PCやコンテンツ再生装置において表示される様々な表示用データを有する。
例えば、ID3データは、トラックのタイトルに関するタイトルテキストデータを有する。PCやコンテンツ再生装置は、ID3データに含まれるタイトルテキストデータに基づいて、トラックのタイトルを表示することができる。
また、ID3データは、音データの内容(例えば歌詞)に関する内容テキストデータを含むことがある。一つの形態の内容テキストデータは、音データの再生時間軸に対応する複数のタイミングデータのそれぞれに、そのタイミングデータに対応する部分の歌詞(テキストデータ)が対応づけられたものである。タイミングデータと歌詞が対応づけられている内容テキストデータを利用すると、PCやコンテンツ再生装置は、音データの再生に同期して歌詞を表示することができる。下記の特許文献1には、音データの再生に同期して内容テキストデータを表示することが開示されている。
Content data having sound data and text data is known. For example, content data in MP3 format (MPEG Audio Layer-3) has sound data and ID3 data of at least one track. The ID3 data is disclosed in detail in Non-Patent
For example, the ID3 data includes title text data related to the track title. The PC and the content reproduction apparatus can display the track title based on the title text data included in the ID3 data.
Further, the ID3 data may include content text data related to the content (for example, lyrics) of the sound data. The content text data in one form is obtained by associating each of a plurality of timing data corresponding to the reproduction time axis of the sound data with a part of lyrics (text data) corresponding to the timing data. If content text data in which timing data and lyrics are associated with each other is used, the PC or the content reproduction apparatus can display the lyrics in synchronization with the reproduction of the sound data.
PCやコンテンツ再生装置において1つのトラックの途中の箇所から音データや映像データを再生したいという要望がある。従来のコンテンツデータの形式では、再生されている音データや映像データをユーザが早送り又は巻き戻しすることによって、トラックの途中の箇所から音データや映像データが再生される。しかしながら、この手法では、ユーザが所望する箇所を越えて早送り又は巻き戻しされてしまうことがある。この場合、ユーザは、所望する箇所から再生されるように、早送り又は巻き戻しを再び実行しなければならない。 There is a demand for reproducing sound data and video data from a position in the middle of one track in a PC or content reproduction apparatus. In the conventional content data format, sound data and video data are reproduced from a position in the middle of a track when a user fast-forwards or rewinds the reproduced sound data and video data. However, with this method, the user may fast forward or rewind beyond the point desired by the user. In this case, the user must perform fast forward or rewind again so that it can be played from the desired location.
本発明は、上記した実情に鑑みて創作されたものである。本発明は、既存の形式のコンテンツデータから、ユーザがトラックの途中の箇所から音データや映像データを簡単に再生させることができるコンテンツデータを作成する技術を提供する。 The present invention has been created in view of the above circumstances. The present invention provides a technique for creating content data that allows a user to easily reproduce sound data and video data from an intermediate position of a track from content data in an existing format.
通常、コンテンツデータには、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの表示用データ(上記の例ではID3タグデータ)が含まれている。一般的には、この表示用データには、トラックのタイトル等のテキストデータが含まれている。また、一般的なコンテンツ再生装置は、ハイパーリンク構造に対応したテキスト閲覧機能を有する。このタイプのコンテンツ再生装置では、トラックのタイトルを表示することができるとともに、表示画面の中からユーザによってタイトルが選択されるとそのトラックを頭から再生させることができる。本発明では、このハイパーリンク構造のデータ形式を利用し、表示用データに含まれる内容テキストデータ(例えば歌詞)の各部にハイパーリンク構造を付加する。即ち、本発明では、トラックより小さい単位でハイパーリンク構造を付加する。 In general, the content data includes sound data and / or video data of at least one track and display data for the track (ID3 tag data in the above example). In general, the display data includes text data such as a track title. Moreover, a general content reproduction apparatus has a text browsing function corresponding to a hyperlink structure. In this type of content playback apparatus, the title of a track can be displayed, and when the title is selected by the user from the display screen, the track can be played back from the beginning. In the present invention, this hyperlink structure data format is used to add a hyperlink structure to each part of content text data (for example, lyrics) included in display data. That is, in the present invention, the hyperlink structure is added in units smaller than the track.
本発明の一つの形態は、外部機器に接続されて利用されるコンテンツデータ処理装置である。このコンテンツデータ処理装置は、外部機器から出力されたコンテンツデータを入力する入力装置と、入力装置に入力されたコンテンツデータから別のデータを作成するデータ作成装置とを備える。
上記の「外部機器」は、コンテンツデータ処理装置にコンテンツデータを出力することができる様々なデバイスを含む概念である。例えば、外部機器は、通信ネットワーク上のコンテンツデータ配信サーバであってもよい。また、例えば、外部機器は、コンテンツデータ処理装置に直接的に接続されるデバイス(メモリ)であってもよい。
One aspect of the present invention is a content data processing apparatus that is used by being connected to an external device. The content data processing device includes an input device that inputs content data output from an external device, and a data creation device that generates other data from the content data input to the input device.
The “external device” is a concept including various devices that can output content data to a content data processing apparatus. For example, the external device may be a content data distribution server on a communication network. Further, for example, the external device may be a device (memory) directly connected to the content data processing apparatus.
上記のコンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有する。前記のトラックの第1表示用データは、そのトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものである。
上記の「音データ及び/又は映像データの内容」は、音データの歌詞、楽譜、コード等を含む。例えば、音データが楽曲である場合、テキストデータは、その楽曲の歌詞、楽譜、コード等であってもよい。また、例えば、音データが楽曲ではない音声(例えば外国語会話講座)である場合、テキストデータは、その音声に対応する文字であってもよい。また、例えば、映像データが映画の場合、テキストデータは、その映画の字幕であってもよい。
なお、第1表示用データは、第1タイミングデータにテキストデータのみが対応づけられたものであってもよいし、第1タイミングデータにテキストデータと別のデータとが対応づけられたものであってもよい。
また、タイミングデータ(第1タイミングデータ又は後述する第2タイミングデータ)は、時間の単位で表現されるものであってもよいし、他の単位で表現されるものであってもよい。前者の場合、タイミングデータは、トラックの音データの頭からの再生時間であってもよい。また、後者の場合、タイミングデータは、トラックの音データの頭からのフレーム数であってもよい。
The content data includes sound data and / or video data of at least one track and first display data of the track. The first display data of the track includes a portion of sound data corresponding to the first timing data in each of the plurality of first timing data corresponding to the reproduction time axis of the sound data and / or video data of the track. And / or text data related to the contents of the video data.
The above “contents of sound data and / or video data” includes lyrics of the sound data, a score, a code, and the like. For example, when the sound data is a song, the text data may be the lyrics of the song, a score, a chord, or the like. Further, for example, when the sound data is a sound that is not a song (for example, a foreign language conversation course), the text data may be a character corresponding to the sound. For example, when the video data is a movie, the text data may be a caption of the movie.
The first display data may be data in which only text data is associated with the first timing data, or text data and other data are associated with the first timing data. May be.
Further, the timing data (first timing data or second timing data described later) may be expressed in units of time or may be expressed in other units. In the former case, the timing data may be the playback time from the beginning of the sound data of the track. In the latter case, the timing data may be the number of frames from the head of the sound data of the track.
データ作成装置は、前記のトラックの第1表示用データから第2表示用データを作成する。その第2表示用データは、前記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものである。
上述したように、上記のトラックの第1表示用データには、そのトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータが含まれている。データ作成装置は、これらの第1タイミングデータに基づいて第2タイミングデータを設定することができる。「複数の第2タイミングデータ」は、上記の「複数の第1タイミングデータ」に一致してもよいし、一致しなくてもよい。
第2表示用データでは、複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられている。このために、コンテンツデータ処理装置及び/又は別のコンテンツ再生装置は、上記のトラックの音データ及び/又は映像データの再生に同期してテキストデータを表示することができる。なお、コンテンツデータ処理装置及び/又は別のコンテンツ再生装置は、上記のトラックの音データ及び/又は映像データを再生しないでテキストデータを表示してもよい。即ち、テキストデータを非同期的に表示してもよい。第2タイミングデータとテキストデータの対応づけは、ハイパーリンク構造になっている。この第2表示用データを利用すると、コンテンツデータ処理装置及び/又は別のコンテンツ再生装置は、音データ及び/又は映像データの再生に同期(又は非同期)して表示されるテキストデータの一部がユーザによって選択された場合に、その選択された箇所から音データ及び/又は映像データを再生することができる。
本発明のコンテンツデータ処理装置は、既存の形式のコンテンツデータから新規な第2表示用データを作成する。この第2表示用データは、トラックより小さい単位でハイパーリンク構造が付加されている。表示画面においてユーザによって選択された箇所(トラックの途中の箇所)から音データ及び/又は映像データを再生することができるコンテンツデータが実現されている。ユーザは、トラックの途中の箇所から音データ及び/又は映像データを簡単に再生させることができる。
The data creation device creates second display data from the first display data of the track. The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or Alternatively, text data relating to the contents of video data is associated with a hyperlink structure.
As described above, the first display data of the track includes a plurality of first timing data corresponding to the reproduction time axis of the sound data and / or video data of the track. The data creation device can set the second timing data based on the first timing data. The “plurality of second timing data” may or may not match the above “plurality of first timing data”.
In the second display data, each of the plurality of second timing data is associated with text data relating to the contents of the sound data and / or video data corresponding to the second timing data. Therefore, the content data processing device and / or another content reproduction device can display the text data in synchronization with the reproduction of the sound data and / or video data of the track. The content data processing device and / or another content reproduction device may display the text data without reproducing the sound data and / or video data of the track. That is, text data may be displayed asynchronously. The association between the second timing data and the text data has a hyperlink structure. When the second display data is used, the content data processing device and / or another content playback device can display a part of the text data displayed in synchronization (or asynchronously) with the playback of the sound data and / or video data. When selected by the user, sound data and / or video data can be reproduced from the selected location.
The content data processing apparatus of the present invention creates new second display data from content data in an existing format. The second display data has a hyperlink structure added in units smaller than the track. Content data capable of reproducing sound data and / or video data from a portion (a portion in the middle of a track) selected by the user on the display screen is realized. The user can easily reproduce the sound data and / or video data from a position in the middle of the track.
データ作成装置は、第2表示用データに含まれる第2タイミングデータの総数が上記のトラックの第1表示用データに含まれる第1タイミングデータの総数より少なくなるように、第2表示用データを作成することが好ましい。
例えば、上記のトラックの第1表示用データに含まれる複数の第1タイミングデータのそれぞれは、音節を単位として設定されたものであってもよい。この場合、上記のデータ作成装置は、第2表示用データに含まれる複数の第2タイミングデータのそれぞれを、単語以上を単位として設定することが好ましい。
このようにすると、第2表示用データに含まれるタイミングデータの総数を少なくすることができ、第2表示用データのデータ量を少なくすることができる。
The data creation device sets the second display data so that the total number of second timing data included in the second display data is smaller than the total number of first timing data included in the first display data of the track. It is preferable to create.
For example, each of the plurality of first timing data included in the first display data of the track may be set in units of syllables. In this case, it is preferable that the data creation device sets each of the plurality of second timing data included in the second display data in units of words or more.
In this way, the total number of timing data included in the second display data can be reduced, and the data amount of the second display data can be reduced.
上記のコンテンツデータ処理装置は、第2表示用データを記憶する記憶装置をさらに備えていてもよい。第1表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に沿った数値を含む第1タイミングデータと、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータとが対応づけられている複数の組合せデータから構成されてもよい。この場合、データ作成装置は、以下の(1)又は(2)の処理によって第2表示用データを作成してもよい。 The content data processing device may further include a storage device that stores second display data. The first display data includes first timing data including numerical values along the reproduction time axis of the sound data and / or video data of the track, and sound data and / or video of a portion corresponding to the first timing data. You may comprise from several combination data with which the text data regarding the content of data are matched. In this case, the data creation device may create the second display data by the following processing (1) or (2).
(1)データ作成装置は、第1表示用データに含まれる複数の組合せデータを読み込むとともに、それぞれの組合せデータについて、その組合せデータの第1タイミングデータの第1タイミングデータに含まれる数値とその組合せデータのテキストデータとをハイパーリンク構造により対応づけたデータを記憶装置に書き込む。
この場合、第1表示用データに含まれる各第1タイミングデータの数値が、第2タイミングデータとして利用されることになる。
(1) The data creation device reads a plurality of combination data included in the first display data, and for each combination data, a numerical value included in the first timing data of the first timing data of the combination data and the combination thereof Data associated with the text data of the data by the hyperlink structure is written in the storage device.
In this case, the numerical value of each first timing data included in the first display data is used as the second timing data.
(2)上記の複数の組合せデータは、各組合せデータの第1タイミングデータに含まれる数値の順に並んでいてもよい。この場合、データ作成装置は、第1表示用データに含まれる複数の組合せデータを順に読み込むとともに、少なくとも2つの連続する組合せデータについて、それらの組合せデータの中の最初の組合せデータの第1タイミングデータに含まれる数値とそれらの組合せデータの各テキストデータとをハイパーリンク構造により対応づけたデータを記憶装置に書き込む。
この場合、少なくとも2つの連続する組合せデータの中の最初の組合せデータに含まれる第1タイミングデータの数値が第2タイミングデータとして利用されることになる。
(2) The plurality of combination data may be arranged in the order of numerical values included in the first timing data of each combination data. In this case, the data creation device sequentially reads a plurality of combination data included in the first display data, and for at least two consecutive combination data, the first timing data of the first combination data in the combination data Is stored in the storage device by associating the numerical values included in the data and the text data of the combination data with the hyperlink structure.
In this case, the numerical value of the first timing data included in the first combination data of at least two consecutive combination data is used as the second timing data.
コンテンツデータ処理装置は、上記の外部機器に接続されて利用されるとともに、表示画面を有するコンテンツ再生装置に接続されて利用されてもよい。この場合、コンテンツデータ処理装置は、上記のトラックの音データ及び/又は映像データと、データ作成装置によって作成された第2表示用データとをコンテンツ再生装置に出力する出力装置をさらに備えていてもよい。
このようにすると、コンテンツ再生装置は、音データ及び/又は映像データを再生させることができるとともに、その再生に同期(又は非同期)して表示画面に第2表示用データに含まれるテキストデータ(歌詞等)を表示させることができる。コンテンツ再生装置は、表示画面に表示されている歌詞等の一部がユーザによって選択されると、その選択された箇所から音データ及び/又は映像データを再生することができる。
The content data processing apparatus may be used by being connected to the above external device, and may be used by being connected to a content reproduction apparatus having a display screen. In this case, the content data processing device may further include an output device that outputs the sound data and / or video data of the track and the second display data created by the data creation device to the content reproduction device. Good.
In this way, the content reproduction apparatus can reproduce sound data and / or video data, and text data (lyrics) included in the second display data on the display screen in synchronization (or asynchronously) with the reproduction. Etc.) can be displayed. When a part of lyrics or the like displayed on the display screen is selected by the user, the content reproduction apparatus can reproduce sound data and / or video data from the selected portion.
コンテンツ再生装置は、第1表示用データがなくても、第2表示用データを利用して表示画面に歌詞等を表示することができる。このために、上記の出力装置は、上記のトラックの第1表示用データをコンテンツ再生装置に出力しなくてもよい。 The content reproduction apparatus can display lyrics and the like on the display screen using the second display data without the first display data. Therefore, the output device does not have to output the first display data of the track to the content reproduction device.
なお、本発明の技術は、次のコンテンツデータ処理装置として定義することもできる。このコンテンツデータ処理装置は、外部機器から出力されたコンテンツデータを入力する入力装置と、入力装置に入力されたコンテンツデータから別のデータを作成するデータ作成装置とを備える。
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの音データ及び/又は映像データの内容に関する内容テキストデータとを有する。
上記のトラックの内容テキストデータは、上記のトラックの音データ及び/又は映像データの再生に同期してコンテンツデータ処理装置及び/又は別のコンテンツ再生装置において表示されることが可能である。
データ作成装置は、上記のトラックの内容テキストデータに含まれる複数の小テキストデータのそれぞれにハイパーリンク構造が付加されているリンク付内容テキストデータを作成する。このリンク付内容テキストデータを利用すると、コンテンツデータ処理装置及び/又は別のコンテンツ再生装置は、音データ及び/又は映像データの再生に同期(又は)して表示される内容テキストデータの一部(小テキストデータ)がユーザによって選択されると、その選択された箇所から音データ及び/又は映像データを再生することができる。
本発明のコンテンツデータ処理装置によると、既存の形式のコンテンツデータから新規なリンク付内容テキストデータを作成する。表示画面においてユーザによって選択された箇所(トラックの途中の箇所)から音データ及び/又は映像データを再生することができるコンテンツデータが実現されている。ユーザは、トラックの途中の箇所から音データ及び/又は映像データを簡単に再生させることができる。
The technique of the present invention can also be defined as the following content data processing apparatus. The content data processing device includes an input device that inputs content data output from an external device, and a data creation device that generates other data from the content data input to the input device.
The content data includes sound data and / or video data of at least one track and content text data relating to the contents of the sound data and / or video data of the track.
The content text data of the track can be displayed on the content data processing device and / or another content playback device in synchronization with the playback of the sound data and / or video data of the track.
The data creation device creates linked content text data in which a hyperlink structure is added to each of a plurality of small text data included in the track content text data. When this linked content text data is used, the content data processing device and / or another content playback device can display a part of the content text data displayed in synchronization (or) with the playback of the sound data and / or video data ( When (small text data) is selected by the user, sound data and / or video data can be reproduced from the selected portion.
According to the content data processing apparatus of the present invention, new linked content text data is created from content data in an existing format. Content data capable of reproducing sound data and / or video data from a portion (a portion in the middle of a track) selected by the user on the display screen is realized. The user can easily reproduce the sound data and / or video data from a position in the middle of the track.
本発明の技術は、次の方法として表現することもできる。この方法は、外部機器に接続されて利用されるデータ処理装置によってコンテンツデータを処理する方法である。この方法は、外部機器から出力されたコンテンツデータを入力する入力工程と、入力工程で入力されたコンテンツデータから別のデータを作成するデータ作成工程とを備える。
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有する。
上記のトラックの第1表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものである。
データ作成工程では、上記のトラックの第1表示用データから第2表示用データを作成する。その第2表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものである。
このデータ処理方法によると、表示画面においてユーザによって選択された箇所(トラックの途中の箇所)から音データ及び/又は映像データを再生することができるコンテンツデータを作成することができる。
The technique of the present invention can also be expressed as the following method. This method is a method of processing content data by a data processing apparatus that is connected to an external device and used. This method includes an input process of inputting content data output from an external device, and a data generation process of generating other data from the content data input in the input process.
The content data includes sound data and / or video data of at least one track and first display data of the track.
The first display data of the track includes a plurality of first timing data corresponding to the reproduction time axis of the sound data and / or video data of the track, and a portion of the sound corresponding to the first timing data. Text data relating to the contents of data and / or video data is associated with the data.
In the data creation step, second display data is created from the first display data of the track. The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the above-described track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or Alternatively, text data relating to the contents of video data is associated with a hyperlink structure.
According to this data processing method, it is possible to create content data that can reproduce sound data and / or video data from a location selected by the user on the display screen (a location in the middle of the track).
本発明の技術は、次のコンピュータプログラムとして表現することもできる。このプログラムは、外部機器に接続されて利用されるデータ処理装置に搭載されるコンピュータによって実行されるものである。このプログラムは、外部機器から出力されてデータ処理装置に入力されたコンテンツデータから別のデータを作成するデータ作成処理をコンピュータに実行させる。
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有する。
上記のトラックの第1表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものである。
データ作成処理では、上記のトラックの第1表示用データから第2表示用データを作成する。その第2表示用データは、上記のトラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものである。
このコンピュータプログラムによると、表示画面においてユーザによって選択された箇所(トラックの途中の箇所)から音データ及び/又は映像データを再生することができるコンテンツデータを作成するデータ処理装置を実現することができる。
The technique of the present invention can also be expressed as the following computer program. This program is executed by a computer mounted on a data processing apparatus that is connected to an external device and used. This program causes a computer to execute data creation processing for creating other data from content data output from an external device and input to a data processing device.
The content data includes sound data and / or video data of at least one track and first display data of the track.
The first display data of the track includes a plurality of first timing data corresponding to the reproduction time axis of the sound data and / or video data of the track, and a portion of the sound corresponding to the first timing data. Text data relating to the contents of data and / or video data is associated with the data.
In the data creation process, second display data is created from the first display data of the track. The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the above-described track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or Alternatively, text data relating to the contents of video data is associated with a hyperlink structure.
According to this computer program, it is possible to realize a data processing apparatus that creates content data capable of reproducing sound data and / or video data from a location selected by the user (a location in the middle of a track) on the display screen. .
ここでは、以下の実施例に記載の技術の主要な特徴をまとめておく。
(形態1)コンテンツデータ処理装置は、多機能機に内蔵されている。多機能機は、少なくとも印刷機能を有する。
(形態2)多機能機は、インターネットに接続されている。多機能機には、ポータブルオーディオ再生装置が接続される。多機能機は、インターネット上のサーバからオーディオデータをダウンロードする。多機能機は、ダウンロードされたオーディオデータに含まれる第1表示用データから第2表示用データを作成し、オーディオデータに含まれる音データと第2表示用データをポータブルオーディオ再生装置に出力する。
(形態3)多機能機は、ユーザによって予め選択された単位で第2タイミングデータを設定する。この単位は、音節、ワード(単語)、センテンス(文章)、及びパラグラフ(段落)の中から選択される。
(形態4)多機能機は、ダウンロードされたオーディオデータに含まれる第1表示用データから印刷用データを作成する。多機能機は、印刷用データに基づいて印刷する。
Here, the main features of the techniques described in the following examples are summarized.
(Mode 1) The content data processing apparatus is built in the multi-function device. The multi-function device has at least a printing function.
(Mode 2) The multi-function device is connected to the Internet. A portable audio playback device is connected to the multi-function device. The multi-function device downloads audio data from a server on the Internet. The multi-function device creates second display data from the first display data included in the downloaded audio data, and outputs the sound data and second display data included in the audio data to the portable audio playback device.
(Mode 3) The multi-function device sets the second timing data in units previously selected by the user. This unit is selected from syllables, words (words), sentences (sentences), and paragraphs (paragraphs).
(Mode 4) The multi-function device creates print data from the first display data included in the downloaded audio data. The multi-function device prints based on the print data.
図面を参照して本発明の実施例を説明する。図1は、本実施例の多機能機システム10を示す。多機能機システム10は、多機能機20とPSTN50とインターネット52とポータブルオーディオ再生装置56とPC58等を有する。
Embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a
(システムの構成)
多機能機20は、スキャナ22と印刷装置24とFAX装置26と制御装置28と操作装置30と表示装置32と電話回線インターフェイス34とLANインターフェイス36とUSBホストコントローラ38等を有する。各装置22,24,26,28,30,32,34,36,38は、バス線40によって相互に通信可能に接続されている。
スキャナ22は、原稿をスキャンして画像データを生成する。印刷装置24は、画像データを印刷する。画像データは、多機能機20の外部(インターネット52やPC58)から送られてくるものであってもよいし、スキャナ22によって生成されたものであってもよい。FAX装置26は、スキャナ22によって生成された画像データをファクシミリデータとして外部に出力する。また、FAX装置26は、外部から送られてきたファクシミリデータを印刷装置24に印刷させる。制御装置28は、多機能機20に搭載されている各装置22,24,26,30,32,38等を統括的に制御する。制御装置28の構成は、後で詳しく説明する。操作装置30は、ユーザによって操作されるものである。ユーザは、操作装置30を操作することによって様々な指示を多機能機20に入力することができる。表示装置32は、各種の情報を表示することができる。
(System configuration)
The multi-function device 20 includes a
The
電話回線インターフェイス34は、PSTN(一般電話回線網)50に接続されている。電話回線インターフェイス34は、多機能機20で生成されたファクシミリデータをPSTN50に出力することができる。また、電話回線インターフェイス34は、外部から送られてきたファクシミリデータを入力することができる。
LANインターフェイス36は、インターネット52に接続されている。LANインターフェイス36は、インターネット52上の様々なデバイス(サーバ等)からデータを取得することができる。本実施例では、インターネット52にオーディオデータ配信サーバ54が接続されている。LANインターフェイス36は、オーディオデータ配信サーバ54からオーディオデータを取得することができる。なお、以下では、オーディオデータ配信サーバ54のことを単に「サーバ」と呼ぶことがある。また、LANインターフェイス36は、PC58に接続されている。LANインターフェイス36は、PC58から送られてくる様々なデータを入力することができる。
USBホストコントローラ38は、ポータブルオーディオ再生装置56に接続されている。USBホストコントローラ38は、後述するオーディオデータをポータブルオーディオ再生装置56に出力する。ポータブルオーディオ再生装置56は、音データ再生装置56aと表示画面56bと操作装置56c等を有する。なお、以下では、ポータブルオーディオ再生装置56のことを単に「再生装置」と呼ぶことがある。
The
The
The
(制御装置の構成)
続いて、多機能機20の制御装置28の構成を説明する。図2は、制御装置28のブロック図を示す。
制御装置28は、CPU60とROM62とNVRAM64とRAM68を有する。
CPU60は、ROM62に記憶されている様々なプログラムに従って、各種の処理を実行する。
ROM62は、多機能機20が動作するための様々なプログラムを記憶している。ROM62によって記憶されているプログラムの一例を以下に列挙する。(1)サーバ54からオーディオデータをダウンロードする処理を実行するためのプログラム。(2)ダウンロードされたオーディオデータに含まれるID3データ(詳しくは後述する)から別の表示用データを作成する処理を実行するためのプログラム。(3)ダウンロードされたオーディオデータに含まれる音データと作成された表示用データとを再生装置56に出力する処理を実行するためのプログラム。(4)ダウンロードされたオーディオデータに含まれる表示用データから印刷用データを作成する処理を実行するためのプログラム。
(Configuration of control device)
Next, the configuration of the
The
The
The
NVRAM64は、コンテンツ更新テーブル66を記憶している。図3は、コンテンツ更新テーブル66の一例を示す。
コンテンツ更新テーブル66は、インデックス番号とデバイスIDとURLと最終更新時刻と次回更新時刻と同期単位とが対応づけられたテーブルである。
インデックス番号は、それに対応づけられている一群のデータを特定する番号である。図3の例では、ゼロからMまでの番号が利用されている。デバイスIDは、再生装置56を特定するIDである。URL(RSS URL)は、オーディオデータが保存されているインターネット52上のアドレスである。例えば、図1のサーバ54のアドレスである。最終更新時刻は、その時刻に対応づけられているURLに保存されているオーディオデータが多機能機20に最後にダウンロードされた時刻を意味する。次回更新時刻は、その時刻に対応づけられているURLに保存されているオーディオデータが多機能機20にダウンロードされるべき時刻を意味する。同期単位は、後述するハイパーリンクデータを付加する単位を意味する。この点については、後で詳しく説明する。
ユーザは、多機能機20の操作装置30又はPC58を操作することによって、コンテンツ更新テーブル66を作成することができる。ただし、最終更新時刻は、多機能機20によって自動的に更新される。この点は後で詳しく説明する。
The
The content update table 66 is a table in which the index number, device ID, URL, last update time, next update time, and synchronization unit are associated with each other.
The index number is a number that identifies a group of data associated with the index number. In the example of FIG. 3, numbers from zero to M are used. The device ID is an ID that identifies the
The user can create the content update table 66 by operating the
図2に示されるRAM68は、オーディオデータ記憶領域70と表示用データ記憶領域72と印刷用データ記憶領域74とその他のワーク領域76等を有する。これらの各記憶領域70,72,74,76に記憶されるデータの内容は、後で詳しく説明する。
The
(コンテンツ更新処理)
続いて、CPU60によって実行される処理の内容を説明する。CPU60は、再生装置56が多機能機20に接続されると、コンテンツ更新処理を実行する。図4は、コンテンツ更新処理のフローチャートを示す。
CPU60は、上記したコンテンツ更新テーブル66(図3参照)に基づいて、コンテンツ更新処理を実行する。まず、CPU60は、インデックス番号(k)を初期化し、「k=0」を記憶する(S10)。この「k」は、これから処理すべきインデックス番号である。CPU60は、コンテンツ更新テーブル66に含まれる最初のインデックス番号(即ちゼロ)から処理を開始する。
次いで、CPU60は、kがMより大きいのか否かを判断する(S12)。Mは、コンテンツ更新テーブル66に記憶されているインデックス番号の最大値である。ここでYESの場合、全てのインデックス番号について後述するS14からS26の処理が実行されたことを意味する。この場合、CPU60は、コンテンツ更新処理を終了する。一方において、S12でNOの場合、S14に進む。
(Content update process)
Next, the contents of processing executed by the
The
Next, the
S14では、CPU60は、現在処理が行なわれているインデックス番号のコンテンツ更新情報を読み込む。例えば、現在処理が行なわれているインデックス番号が「0」の場合(k=0の場合)、CPU60は、図3のインデックス番号「0」に対応する情報(デバイスID、URL、最終更新時刻、次回更新時刻、及び同期単位)を読み込む。
次いで、CPU60は、S14で読み込まれた次回更新時刻が現在の時刻を経過しているのか否かを判断する(S16)。ここでNOの場合、S18からS24の処理をスキップし、S26に進む。一方において、S16でYESの場合、S18に進む。
S18では、CPU60は、多機能機20に接続されている再生装置56からIDを取得する。次いで、CPU60は、取得したIDとS14で読み込まれたデバイスIDとが一致するのか否かを判断する。ここでNOの場合、S20からS24の処理をスキップし、S26に進む。一方において、S18でYESの場合、S20に進む。
In S14, the
Next, the
In S <b> 18, the
S20では、CPU60は、S14で読み込まれたURLからコンテンツ(オーディオデータ)をダウンロードする。これにより、多機能機20のLANインターフェイス36(図1参照)が、オーディオデータを入力することになる。入力されたオーディオデータは、RAM68のオーディオデータ記憶領域70(図2参照)に記憶される。
次いで、CPU60は、ダウンロードされたオーディオデータを加工する処理を実行する(S22)。この加工処理については後で詳しく説明する。
CPU60は、加工処理(S22)を実行すると、コンテンツ更新情報を更新する(S24)。具体的には、CPU60は、現在処理しているインデックス番号に対応する最終更新時刻(図3参照)を現在の時刻に更新するとともに、次回更新時刻を所定の時刻に更新する。次回更新時刻は、オーディオデータの出力先のサーバ(例えば図1のサーバ54)によって指示される時刻でもよいし、ユーザによって設定された時刻でもよい。
CPU60は、コンテンツ更新情報を更新すると(S24)、現在処理しているインデックス番号(k)に1を加算する(S26)。これにより、次のインデックス番号について、S12以降の処理が実行されることになる。コンテンツ更新テーブル66に含まれる全てのインデックス番号について処理が実行されると、S12でYESと判断され、コンテンツ更新処理が終了する。
In S20, the
Next, the
When executing the processing (S22), the
When the content update information is updated (S24), the
(オーディオデータの構造)
S22のコンテンツ加工処理の内容を説明する前に、S20でダウンロードされたオーディオデータの構造を説明しておく。図5は、オーディオデータの構造を模式的に示す。
オーディオデータ100は、MP3形式のデータである。オーディオデータ100は、ID3データ(ID3タグ)102と音データ120を有する。音データ120は、少なくとも1つのトラックの音データを有する。本実施例の音データ120は、1つのトラックのみの音データを有するものとする。
(Audio data structure)
Before describing the content processing process in S22, the structure of the audio data downloaded in S20 will be described. FIG. 5 schematically shows the structure of audio data.
The
ID3データ102は、再生装置56において表示されることが可能であるデータを有しており、表示用データと呼ぶこともできる。ID3データ102は、タイトルテキストデータ106と内容データ110等を有する。
このオーディオデータ100が再生装置56に記憶された場合、再生装置56は、タイトルテキストデータ106に対応するタイトルを表示画面56b(図1参照)に表示することができる。なお、ユーザは、再生装置56の操作装置56c(図1参照)を操作することによって、表示画面56bに表示されているタイトルを選択することができる。この場合、再生装置56は、音データ120に含まれるトラックを頭から再生することができる。
The
When the
内容データ110は、SYLTマーカ112と内容テキストデータ114を有する。SYLTマーカ112は、内容テキストデータ114が、音データ120の再生に同期して表示されることができるものであることを示すマーカである。SYLTマーカ112の代わりにUSLTマーカが内容データ110に付加されることがある。この場合、内容テキストデータが、音データ120の再生に同期して表示されることができないものであることを意味する。本実施例の内容テキストデータ114は、音データ120の再生に同期して表示されることができるものである。
The
内容テキストデータ114は、音データ120の内容に関するテキストデータである。
例えば、音データ120が楽曲である場合、内容テキストデータ114は、その楽曲の歌詞、楽譜、コード等である。また、音データ120が楽曲以外の音声データである場合(例えば英会話講座の音声データである場合)、内容テキストデータ114は、その音声に対応する文字列である。本実施例では、音データ120が1つのトラックの楽曲であり、内容テキストデータ114がその楽曲の歌詞であるものとする。
The
For example, if the
図6は、内容テキストデータ114のデータ構造を示す。上述したように、本実施例の内容テキストデータ114は、音データ120の再生に同期して表示されることができるものである。
内容テキストデータ114は、複数の組合せデータ128を有する。図6では、最初の組合せデータ128のみに符号を付しており、他の組合せデータについては符号を省略している。
1つの組合せデータ128は、文字データ130と同期コード132とタイミングデータ134を有する。文字データ130は、音データ120の歌詞の一部に対応するものである。同期コード132は、この後の4文字がタイミングデータ134であることを示すコードである。タイミングデータ134は、音データ120の頭からの時間である。本実施例では、各組合せデータ128のタイミングデータ134が、音データ120の歌詞の音節単位で設定されている。例えば、「Information」という歌詞が存在する場合、「In」と「for」と「ma」と「tion」のそれぞれについて、タイミングデータ134が設定されている。即ち、この例の場合、「In」に対応する文字データ130と、同期コード132と、「In」が再生されるタイミングを示すタイミングデータ134とが対応づけられている組合せデータ128が存在する。同様に、「for」に対応する文字データ130と、同期コード132と、「for」が再生されるタイミングを示すタイミングデータ134とが対応づけられている組合せデータ128が存在する。「ma」と「tion」のそれぞれについても、同様の組合せデータ128が存在する。従って、「Information」という歌詞が存在する場合、4つの組合せデータ128が存在することになる。
FIG. 6 shows the data structure of the
The
One
図6では、文字データ130が「x」によって示されている。文字データ130は、音節の単位となる文字数の「x」を含んでいる。例えば、上記の「Information」の例の場合、「In」に対応する文字データ130は2文字であり、「for」に対応する文字データ130は3文字である。例えば、図6の最初の組合せデータ128の文字データ130は、3つの文字130a,130b,130cを含んでいる。また例えば、次の組合せデータ128の文字データ130は、2つの文字130d,130eを含んでいる。また、図6に示されるように、文字データ130の中には、スペース136、コンマ138、又はピリオド140が含まれることがある。また、他の記号(タブ、コロン、セミコロン、括弧等)が文字データ130に含まれることもある。
タイミングデータ134は、4文字で表される32ビット値による時間(μsec)を単位としており、「ssss」によって表現される。なお、タイミングデータ134は、音データ120の頭からの時間によって表現されるものでなくてもよい。例えば、タイミングデータ134は、音データ120の頭からのフレーム数によって表現されるものであってもよい。タイミングデータ134は、音データ120の再生時間軸に対応するものであれば、どのような形式で表現されてもよい。
また、内容テキストデータ114の中には、改行コード142が含まれることがある。
In FIG. 6, the
The
The
なお、ID3データ102の中に、他のデータが含まれることがある。図5の例では、ID3データ102の中に、作成者情報104aと著作権記述104bと作成日情報104cと画像データ116とコメントデータ118が含まれている。
作成者情報104aは、オーディオデータ100の作成者の情報である。著作権記述104bは、著作権に関する情報である。作成日情報104cは、オーディオデータ100の作成日の情報である。
画像データ116は、音データ120の再生に同期又は非同期して表示される画像データである。また、コメントデータ118は、オーディオデータ100の作成者によって挿入されたコメントに対応するテキストデータである。
The
The
The
(コンテンツ加工処理)
続いて、図4のS22のコンテンツ加工処理の内容を説明する。図7は、コンテンツ加工処理のフローチャートを示す。
上述したように、図4のS20においてダウンロードされたオーディオデータ100は、オーディオデータ記憶領域70(図2参照)に記憶されている。CPU60は、オーディオデータ100に含まれるID3データ102を読み込む(S30)。
次いで、CPU60は、ID3データ102にSYLTマーカ112(図5参照)が含まれているのか否かを判断する(S32)。ここでNOの場合、S34からS40をスキップし、S42に進む。一方において、S32でYESの場合、S34に進む。S34では、表示用データ作成処理が実行される。この処理の内容は、後で詳しく説明する。CPU60は、表示用データ作成処理(S34)を実行すると、作成された表示用データを再生装置56(図1参照)に出力する(S36)。これにより、表示用データが再生装置56に記憶されることになる。
続いて、印刷用データ作成処理が実行される(S38)。この処理の内容は、後で詳しく説明する。CPU60は、印刷用データ作成処理(S38)を実行すると、作成された印刷用データに基づいて印刷する処理を実行する(S40)。
最後に、CPU60は、オーディオデータ100に含まれる音データ120を再生装置56(図1参照)に出力する処理を実行する(S42)。これにより、音データ120が再生装置56に記憶されることになる。
(Content processing)
Next, the content processing process in S22 of FIG. 4 will be described. FIG. 7 shows a flowchart of content processing.
As described above, the
Next, the
Subsequently, a print data creation process is executed (S38). The contents of this process will be described in detail later. When executing the print data creation process (S38), the
Finally, the
(表示用データ作成処理)
上記のS34の表示用データ作成処理について詳しく説明する。図8と図9は、表示用データ作成処理のフローチャートを示す。CPU60は、現在処理しているインデックス番号に対応するインデックス更新情報(図3参照)と、オーディオデータ100に含まれるID3データ102とに基づいて、表示用データ作成処理を実行する。
まず、CPU60は、現在処理しているインデックス番号に対応するインデックス更新情報の同期単位に対応するデリミタリストを記憶する(S50)。デリミタリストは、RAM68のワーク領域76(図2参照)に記憶される。本実施例の同期単位は、「なし」、「ワード(単語)」、「センテンス(文章)」、及び、「パラグラフ(段落)」の4種類である。同期単位が「なし」である場合、デリミタリストに何も記憶されない。同期単位が「ワード」である場合、「スペース、タブ、コンマ、ピリオド、改行コード」がデリミタリストに記憶される。同期単位が「センテンス」である場合、「コンマ、ピリオド、改行コード」がデリミタリストに記憶される。同期単位が「パラグラフ」の場合、「改行コード」がデリミタリストに記憶される。
例えば、現在処理しているインデックス番号が「0」である場合、同期単位はセンテンスである(図3参照)。この場合、「コンマ、ピリオド、改行コード」がデリミタリストに記憶される。また、例えば、現在処理しているインデックス番号が「1」である場合、同期単位はパラグラフである(図3参照)。この場合、「改行コード」がデリミタリストに記憶される。同期単位とデリミタリストに記憶される文字コード(群)との組合せは、予め設定されたものであり、ROM62等に記憶されている。
(Display data creation process)
The display data creation process in S34 will be described in detail. 8 and 9 are flowcharts of the display data creation process. The
First, the
For example, when the currently processed index number is “0”, the synchronization unit is a sentence (see FIG. 3). In this case, “comma, period, line feed code” is stored in the delimiter list. For example, when the index number currently processed is “1”, the synchronization unit is a paragraph (see FIG. 3). In this case, “line feed code” is stored in the delimiter list. A combination of the synchronization unit and the character code (group) stored in the delimiter list is preset and stored in the
続いて、CPU60は、S52の処理を実行する。S52では、同期値として「−1」が記憶され、文字列バッファが初期化され、表示用データ記憶領域72(図2参照)が初期化され、同期フラグとして「FALSE」が記憶される。同期値は、RAM68のワーク領域76(図2参照)に記憶される。文字列バッファは、RAM68のワーク領域76の所定の記憶領域である。同期フラグも、RAM68のワーク領域76に記憶される。
次に、CPU60は、表示用データ記憶領域72にヘッダ部を書き込む(S54)。図10は、表示用データ作成処理を実行することによって最終的に作成される表示用データ148の一例を示す。図10の符号150で示される部分が、S54で書き込まれるヘッダ部である。ヘッダ部150は、タイトルに対応するデータ群152と、データ形式を定義するデータ群160を有する。データ群152は、タイトルの記述が開始されることを意味するコード154と、タイトルのテキストデータ156と、タイトルの記述が終了したことを意味するコード158を有する。CPU60は、ID3データ102に含まれるタイトルテキストデータ106(図5参照)に従ってテキストデータ156を書き込む。また、データ群160は、データ形式が「xml」であることを意味するコード162と、コード体系が「utf−8」であることを意味するコード164を有する。
Subsequently, the
Next, the
図8に示されるように、CPU60は、ヘッダ部を書き込む処理(S54)を終えると、内容テキストデータ114(図6参照)に含まれる1文字を読み込む(S56)。1回目のS56の処理では、内容テキストデータ114の先頭の1文字が読み込まれる。例えば、図6に示される内容テキストデータ114の場合、文字130aが読み込まれる。2回目以降のS56の処理では、その前のS56(又は後述する図9のS112)で読み込まれた文字の次の1文字が読み込まれる。
CPU60は、S56で読み込まれた文字がエンドコードを意味するものであるのか否かを判断する(S58)。エンドコードは、内容テキストデータ114の最後に付加されるコードである。なお、図6の内容テキストデータ114では、エンドコードを図示省略している。S58でYESの場合、S60に進む。一方において、S58でNOの場合、S70に進む。
As shown in FIG. 8, when the
The
S60では、CPU60は、同期値が「−1」であるのか否かを判断する。同期値は、RAM68のワーク領域76(図2参照)に記憶されている。ここでNOの場合、CPU60は、ハイパーリンクデータと、文字列バッファに記憶されている文字列(1つの文字の場合もある)と、同期値とを表示用データ記憶領域72に書き込む(S62)。
ハイパーリンクデータは、xml形式のデータ構造において、音データに対するハイパーリンクを定義するデータである。図10の符号172(又は192)がハイパーリンクデータである。
文字列バッファは、RAM68のワーク領域76(図2参照)に含まれている。CPU60は、文字列バッファに記憶されている文字列を表示用データ記憶領域72に書き込む。これにより、図10の符号178(又は198)で示されるテキストデータが表示用データ記憶領域72に記憶されることになる。なお、文字列バッファには、後述するS76,S108,又はS110において文字が記憶される。
同期値は、RAM68のワーク領域76(図2参照)に記憶されている。CPU60は、ワーク領域76に記憶されている同期値を表示用データ記憶領域72に書き込む。これにより、図10の符号176(又は196)で示されるタイミングデータが表示用データ記憶領域72に記憶されることになる。なお、ワーク領域76には、後述するS86又はS118において同期値が記憶される。
In S60, the
Hyperlink data is data that defines a hyperlink to sound data in an xml format data structure. Reference numeral 172 (or 192) in FIG. 10 is hyperlink data.
The character string buffer is included in the
The synchronization value is stored in the work area 76 (see FIG. 2) of the
S62の処理を終えた場合、S64に進む。また、S60でYESの場合、S62をスキップし、S64に進む。S64では、CPU60は、表示用データ記憶領域72にフッタ部を書き込む。図10では、符号220によってフッタ部が示されている。フッタ部220は、xml形式のデータにおいて最後に付加される公知のコードである。このために、図10では、フッタ部220の内容を具体的に示していない。フッタ部220が書き込まれると、表示用データ作成処理は終了する。
When the process of S62 is completed, the process proceeds to S64. If YES in S60, S62 is skipped and the process proceeds to S64. In S <b> 64, the
S70では、CPU60は、S50においてデリミタリストに何らかの文字コードが記憶されたのか否かを判断する。同期単位が「ワード」、「センテンス」、又は「パラグラフ」である場合、S50においてデリミタリストに文字コード(群)が記憶される。この場合、S70においてNOと判断される。一方において、同期単位が「なし」である場合、S50においてデリミタリストに何も記憶されない。この場合、S70においてYESと判断される。
In S70, the
S70でYESの場合、S72に進む。S72では、CPU60は、S56で読み込まれた文字が、同期コード132(図6参照)であるのか否かを判断する。ここでYESの場合、図9のS118に進む。また、ここでNOの場合、S74に進む。
S74では、CPU60は、同期フラグに「FALSE」を記憶する。同期フラグは、RAM68のワーク領域76(図2参照)に記憶されている。S74を実行する前に同期フラグ「FALSE」が記憶されていた場合、S74を実行しても同期フラグ「FALSE」が維持されることになる。一方において、S74を実行する前に同期フラグ「TRUE」が記憶されていた場合、S74を実行することによって同期フラグ「FALSE」に変更されることになる。なお、同期フラグ「TRUE」は、後述するS90において記憶される。
続いて、CPU60は、S56で読み込まれた文字をワーク領域76(図2参照)の文字列バッファに記憶する。S76を終えると、CPU60は、S56に戻って次の1文字を読み込む。
If YES in S70, the process proceeds to S72. In S72, the
In S74, the
Subsequently, the
一方において、S70でNOの場合、S80に進む。S80では、CPU60は、S56で読み込まれた文字が、S50で記憶されたデリミタリストに含まれるものであるのか否かを判断する。
例えば、S50においてデリミタリストに記憶された文字コードが同期単位「ワード」に対応するものであり、S56で読み込まれた文字が「スペース」である場合、S80においてYESと判断される。この場合、図9のS100に進む。
また、例えば、S50においてデリミタリストに記憶された文字コードが同期単位「センテンス」に対応するものであり、S56で読み込まれた文字が「スペース」である場合、S80においてNOと判断される。この場合、S82に進む。
On the other hand, if NO in S70, the process proceeds to S80. In S80, the
For example, if the character code stored in the delimiter list in S50 corresponds to the synchronization unit “word” and the character read in S56 is “space”, YES is determined in S80. In this case, the process proceeds to S100 in FIG.
For example, if the character code stored in the delimiter list in S50 corresponds to the synchronization unit “sentence” and the character read in S56 is “space”, it is determined NO in S80. In this case, the process proceeds to S82.
S82では、CPU60は、S56で読み込まれた文字が同期コード132(図6参照)であるであるのか否かを判断する。ここでYESの場合、S84に進む。一方において、ここでNOの場合、上記したS74に進む。
S84では、CPU60は、同期値が「−1」であるのか否かを判断する(S84)。この処理は、上記したS60の処理と同様である。ここでYESの場合、CPU60は、S56で読み込まれた同期コード132の次の4文字(即ちタイミングデータ134(図6参照))を同期値としてワーク領域76に記憶する(S86)。一方において、S84でNOの場合、CPU60は、S56で読み込まれた同期コード132の次の4文字(即ちタイミングデータ134)をスキップする(S88)。即ち、タイミングデータ134が同期値として記憶されない。
S86又はS88を終えると、CPU60は、同期フラグに「TRUE」を記憶する(S90)。S90を終えると、CPU60は、S56に戻って次の1文字を読み込む。即ち、S86において同期値として記憶されたタイミングデータ134(又はS88においてスキップされたタイミングデータ134)の次の1文字を読み込む。
In S82, the
In S84, the
When S86 or S88 ends, the
続いて、図9を参照して、S80でYESと判断された以降の処理を説明する。S80でYESと判断されるということは、S56で読み込まれた文字がデリミタリストの文字コードに一致していることを意味する。この場合、CPU60は、同期値が「−1」であるのか否かを判断する(S100)。ここでNOの場合、CPU60は、同期フラグに「TRUE」が記憶されているのか否かを判断する(S102)。ここでYESの場合、CPU60は、上記したS62と同様の処理を実行する(S104)。即ち、S104では、CPU60は、ハイパーリンクデータと、文字列バッファに記憶されている文字列と、同期値とを表示用データ記憶領域72に書き込む。S104を終えると、S106に進む。
S106では、CPU60は、同期値に「−1」を記憶し、文字列バッファを初期化し、同期フラグに「FALSE」を記憶する。次いで、CPU60は、S106で初期化された文字列バッファに、S56で読み込まれた文字を記憶する(S108)。S108を終えると、CPU60は、S56に戻って次の1文字を読み込む。
Next, with reference to FIG. 9, processing after the determination of YES in S80 will be described. The determination of YES in S80 means that the character read in S56 matches the character code of the delimiter list. In this case, the
In S106, the
S100でYESの場合、又は、S102でNOの場合は、S110に進む。S110では、CPU60は、S56で読み込まれた文字を文字列バッファに記憶する。次いで、CPU60は、次の1文字を読み込む(S112)。続いて、CPU60は、S112で読み込まれた文字が同期コード132(図6参照)であるのか否かを判断する(S114)。ここでYESの場合、S116に進む。一方において、S114でNOの場合、図8のS74に進む。
S116では、CPU60は、同期値が「−1」であるのか否かを判断する。ここでYESの場合、CPU60は、S112で読み込まれた同期コード132の次の4文字(即ちタイミングデータ134(図6参照))を同期値として記憶する(S118)。一方において、S116でNOの場合、CPU60は、S112で読み込まれた同期コードの次の4文字(即ちタイミングデータ134)をスキップする(S120)。
S118又はS120を実行すると、CPU60は、上記したS62又はS104と同様の処理を実行する(S122)。即ち、S122では、CPU60は、ハイパーリンクデータと、文字列バッファに記憶されている文字列と、同期値とを表示用データ記憶領域72に書き込む。S122を終えると、S124に進む。
S124では、CPU60は、同期値に「−1」を記憶し、文字列バッファを初期化し、同期フラグに「FALSE」を記憶する。S124を終えると、CPU60は、S56に戻って次の1文字を読み込む。
If YES in S100, or NO in S102, the process proceeds to S110. In S110, the
In S116, the
When S118 or S120 is executed, the
In S124, the
内容テキストデータ114に含まれる全ての文字(文字データ130、同期コード、タイミングデータ134等)についてS70からS124の処理が実行されると、S58でYESと判断される。これにより、表示用データ記憶領域72にフッタ部220(図10参照)に書き込まれ(S64)、表示用データ作成処理が終了する。
When the processing from S70 to S124 is executed for all characters (
表示用データ作成処理が終了すると、表示用データ記憶領域72には表示用データ148(図10参照)が記憶されている。
表示用データ148は、上記したヘッダ部150とフッタ部220の他に、同期再生データ170,190を有する。同期再生データ170は、ハイパーリンクデータ172と、タイミング属性データ176と、歌詞のテキストデータ178と、終了コード188を有する。ハイパーリンクデータ172は、リンク先のタイトルのテキストデータ174を含んでいる。
ハイパーリンクデータ172は、ハイパーリンクを定義するデータである。タイトルのテキストデータ174は、ヘッダ部150のタイトルのテキストデータ156に一致するタイトルである。タイミング属性データ176は、音データ120(図5参照)の頭からの時間である。歌詞のテキストデータ178は、内容テキストデータ114に含まれる歌詞の一部である。図10の例では、センテンス又はパラグラフの単位で作成された同期再生データ170が示されている。即ち、図8のS50においてセンテンス又はパラグラフに対応する文字コードがデリミタリストに記憶された場合に作成された同期再生データ170が示されている。このために、歌詞のテキストデータ178は、複数の単語180,182を含んでいる。終了コード188は、一つの同期再生データ170の記述が終了することを意味するコードである。
同期再生データ190は、同期再生データ170と同様に、ハイパーリンクデータ192と、タイミング属性データ196と、歌詞のテキストデータ198と、終了コード208を有する。歌詞のテキストデータ198は、複数の単語200,202,204を含んでいる。
When the display data creation process is completed, display data 148 (see FIG. 10) is stored in the display
The
The
Similar to the
図10の例では、センテンス又はパラグラフの単位で同期再生データ170,190が作成されている。この他の単位(音節単位、ワード単位)で同期再生データ170,190が作成されることがある。図11は、他の単位で作成された同期再生データも含んでいる。なお、図11では、同期再生データを符号170で示し、ハイパーリンクデータを符号172で示し、タイミング属性データを符号176で示し、歌詞のテキストデータを符号178で示す。
図11(a)は、内容テキストデータ114(図5参照)に含まれる歌詞の一例を示す。図中の四角はスペースを意味する。「・・・ box.」と「 I ・・・」の間は改行されている。
図11(b)は、図11(a)の歌詞が音節単位で分割されたものを示す。図11(b)の括弧は、各音節を区切るために挿入されたものであり、歌詞に含まれるものではない。1つの音節によって上記した1つの組合せデータ128(図6参照)が構成される。このために、図11(b)は、複数の組合せデータ128(即ち内容テキストデータ114)を示すものとも言える。図11(b)では図示省略しているが、それぞれの組合せデータ128は、タイミングデータ(図6の符号134参照)を含んでいる。
図11(c)は、図11(b)の内容テキストデータ114から音節の単位で作成された複数の同期再生データ170(即ち表示用データ148)を示す。それぞれの同期再生データ170は、ハイパーリンクデータ172とタイミング属性データ176と歌詞のテキストデータ178から構成されている。図11(b)の1つの組合せデータ128から1つの同期再生データ170が作成される。即ち、それぞれの同期再生データ170のタイミングデータ176は、それぞれの組合せデータ128のタイミングデータに一致する。例えば、「 I」を含む同期再生データ170のタイミングデータ176は、「 I」を含む組合せデータ128に含まれるタイミングデータに一致する。
In the example of FIG. 10,
FIG. 11A shows an example of lyrics included in the content text data 114 (see FIG. 5). Squares in the figure mean spaces. There is a line break between “... Box.” And “I.
FIG. 11 (b) shows the lyrics of FIG. 11 (a) divided in syllable units. The parentheses in FIG. 11 (b) are inserted to delimit each syllable and are not included in the lyrics. One combination data 128 (see FIG. 6) described above is constituted by one syllable. Therefore, it can be said that FIG. 11B shows a plurality of combination data 128 (that is, content text data 114). Although not shown in FIG. 11B, each
FIG. 11C shows a plurality of synchronous reproduction data 170 (that is, display data 148) created in syllable units from the
図11(d)は、図11(b)の内容テキストデータ114からワードの単位で作成された複数の同期再生データ170を示す。1つの組合せデータ128から1つの同期再生データ170が作成される場合もあるし、2つ以上の組合せデータ128から1つの同期再生データ170が作成される場合もある。前者の場合、同期再生データ170のタイミングデータ176は、それに対応する組合せデータ128のタイミングデータに一致する。例えば、「 I」を含む同期再生データ170のタイミングデータ176は、「 I」を含む組合せデータ128に含まれるタイミングデータに一致する。一方において、後者の場合、同期再生データ170のタイミングデータ176は、それに対応する2つ以上の組合せデータ128の中の最初の組合せデータ128に含まれるタイミングデータに一致する。例えば、「 have」を含む同期再生データ170のタイミングデータ176は、「 ha」を含む組合せデータ128に含まれるタイミングデータに一致する。
FIG. 11D shows a plurality of
図11(e)は、図11(b)の内容テキストデータ114からセンテンスの単位で作成された複数の同期再生データ170を示す。2つ以上の組合せデータ128から1つの同期再生データ170が作成される場合、その同期再生データ170のタイミングデータ176は、それに対応する2つ以上の組合せデータ128の中の最初の組合せデータ128に含まれるタイミングデータに一致する。例えば、「 I have a pen,」を含む同期再生データ170のタイミングデータ176は、「 I」を含む組合せデータ128に含まれるタイミングデータに一致する。
また、図11(f)は、図11(b)の内容テキストデータ114からパラグラフの単位で作成された複数の同期再生データ170を示す。
FIG. 11E shows a plurality of
FIG. 11 (f) shows a plurality of
上述したように、表示用データ作成処理で作成された表示用データ148は、図7のS36の処理で再生装置56に出力され、再生装置56内に保存される。再生装置56において表示用データ148がどのようにして利用されるのかについては、後で説明する。
CPU60は、表示用データ148を出力する処理(S36)を終えると、次に説明する印刷用データ作成処理(S38)を実行する。
As described above, the
When the
(印刷用データ作成処理)
続いて、印刷用データ作成処理(S38)の内容について説明する。図12は、印刷用データ作成処理のフローチャートを示す。本実施例では、印刷用データとしてXHTML形式を採用する。
CPU60は、現在処理しているインデックス番号に対応するインデックス更新情報(図3参照)と、オーディオデータ100に含まれるID3データ102とに基づいて、印刷用データ作成処理を実行する。
まず、CPU60は、改行コードをデリミタリストに記憶する(S130)。デリミタリストは、RAM68のワーク領域76(図2参照)に記憶される。続いて、CPU60は、S132の処理を実行する。S132では、文字列バッファが初期化され、印刷用データ記憶領域74(図2参照)が初期化される。文字列バッファは、RAM68のワーク領域76の所定の記憶領域である。
CPU60は、印刷用データ記憶領域74にヘッダ部を書き込む(S134)。図13は、印刷用データ作成処理によって最終的に作成される印刷用データ230の一例を示す。図13の符号232で示される部分が、S134で書き込まれるヘッダ部である。
(Print data creation process)
Next, the contents of the print data creation process (S38) will be described. FIG. 12 shows a flowchart of print data creation processing. In this embodiment, the XHTML format is adopted as print data.
The
First, the
The
続いて、CPU60は、内容テキストデータ114(図6参照)に含まれる1文字を読み込む(S136)。1回目のS136の処理では、内容テキストデータ114の先頭の1文字(図6の文字130a)が読み込まれる。2回目以降のS136の処理では、その前のS136で読み込まれた文字の次の1文字が読み込まれる。
CPU60は、S136で読み込まれた文字がエンドコードを意味するものであるのか否かを判断する(S138)。ここでYESの場合、CPU60は、印刷用データ記憶領域74にフッタ部を書き込む(S140)。図13の符号240で示される部分がフッタ部である。フッタ部240が書き込まれると、印刷用データ作成処理は終了する。
Subsequently, the
The
一方において、S138でNOの場合、CPU60は、S136で読み込まれた文字が、S130で記憶されたデリミタリストに含まれるものであるのか否かを判断する(S150)。即ち、CPU60は、S136で読み込まれた文字が改行コードであるのか否かを判断する。
S150でNOの場合、CPU60は、S136で読み込まれた文字が同期コード132(図6参照)であるであるのか否かを判断する(S152)。ここでYESの場合、S136で読み込まれた同期コード132の次の4文字(即ちタイミングデータ134(図6参照))をスキップする(S156)。一方において、S152でNOの場合、CPU60は、S136で読み込まれた文字を文字列バッファに記憶する(S154)。S154又はS156を終えると、CPU60は、S136に戻って次の1文字を読み込む。
On the other hand, if NO in S138, the
If NO in S150, the
S150でYESの場合、CPU60は、文字列バッファに記憶されている文字列を印刷用データ記憶領域74に書き込む(S160)。次いで、CPU60は、<br/>タグを印刷用データ記憶領域74に書き込む(S162)。S162で書き込まれるタグは、図13において符号236,238で示されている。このタグは、改行を意味する。
続いて、CPU60は、文字列バッファを初期化する(S164)。S164を終えると、CPU60は、S136に戻って次の1文字を読み込む。
If YES in S150, the
Subsequently, the
内容テキストデータ114に含まれる全ての文字(文字データ130、同期コード132、タイミングデータ134等)についてS136からS164の処理が実行されると、S138でYESと判断される。これにより、印刷用データ記憶領域74にフッタ部240(図13参照)に書き込まれ(S140)、印刷用データ作成処理が終了する。
When the processing from S136 to S164 is executed for all characters (
印刷用データ作成処理が終了すると、印刷用データ記憶領域74には印刷用データ230(図13参照)が記憶されている。
印刷用データ230は、ヘッダ部232と歌詞のテキストデータ234とフッタ部240を有する。歌詞のテキストデータ234は、改行を意味するコード236,238を含んでいる。
When the print data creation process is completed, the print data 230 (see FIG. 13) is stored in the print
The
上述したように、印刷用データ作成処理で作成された印刷用データ230は、図7のS40の処理で印刷される。CPU60は、印刷用データ230に基づいて印刷するように印刷装置24(図1参照)に指示する。印刷装置24は、印刷用データ230のヘッダ部232と歌詞のテキストデータ234とフッタ部240のそれぞれの記述に従って印刷する。歌詞のテキストデータ234は、改行タブ236,238の箇所で改行された形式で印刷される。
As described above, the
(オーディオ再生装置の動作)
多機能機20の構成と処理について詳しく説明した。続いて、上記した表示用データ148と音データ120が再生装置56(図1参照)においてどのようにして利用されるのかについて説明する。
上述したように、図7のS36の処理において表示用データ148が再生装置56に出力され、再生装置56内に保存される。表示用データ148が作成される元の内容テキストデータ114(図5参照)も、再生装置56に出力される。
(Operation of audio playback device)
The configuration and processing of the multi-function device 20 have been described in detail. Next, how the
As described above, the
再生装置56は、自身が保存している複数のトラックのタイトルリストを表示することができる。再生装置56は、表示画面56bに表示されている複数のタイトルの中から1つのタイトルがユーザによって選択されると、そのタイトルの音データ120を頭から再生する処理を実行することができる。音データ120は、再生装置56の音データ再生装置56a(図1参照)によって再生される。ユーザは、再生装置56の操作装置56c(図1参照)を操作することによって、表示画面56bに表示されているタイトルを選択することができる。
The
再生装置56は、音データ120が再生されると、内容テキストデータ114(図5や図6参照)に基づいて表示画面56bに歌詞を表示することができる。図14は、歌詞が表示されている表示画面56bの一例を示す。表示画面56bには、タイトル252と歌詞が表示される。内容テキストデータ148は、音データ120の再生時間軸に対応するタイミングデータ134(図6参照)を有している。このために、再生装置56は、音データ120の再生に同期して歌詞の位置を示すことができる。例えば、再生装置56は、音データ120の再生位置に対応する部分を強調して表示(アンダーライン付加、反転、マーカ付加)することができる。図14の例では、アンダーライン250が付加されている。アンダーライン250は、音データ120が再生されるにつれて移動する。
When the
また、再生装置56は、表示用データ148(図10参照)に基づいて表示画面56bに歌詞を表示することもできる。なお、再生装置56は、音データ120の再生に同期して表示用データ148の歌詞を表示してもよいし、音データ120を再生させずに非同期的に表示用データ148の歌詞を表示してもよい。表示用データ148の各同期再生データ170,190は、ハイパーリンクデータ172,192を含んでいる。再生装置56は、ハイパーリンク構造に対応したテキスト閲覧機能を有する。このテキスト閲覧機能を利用すると、表示用データ148に含まれるハイパーリンク構造を解釈してテキスト(歌詞)を表示することができる。図15は、このテキスト閲覧機能によって歌詞が表示されている表示画面56bの一例を示す。
再生装置56は、表示画面56bに表示されている歌詞の一部がユーザによって選択されると、その選択された箇所から音データ120を再生する処理を実行することができる。図15では、表示画面56bに表示される選択バー260が示されている。ユーザは、操作装置56cを操作することによって、表示画面56bに表示されている選択バー260を移動させ、歌詞の一部を選択することができる。選択バー260は、同期再生データ170等が作成された単位(音節、ワード、センテンス、又はパラグラフ)で移動する。
ユーザは、同期再生データ170等が作成された単位で、表示画面56bに表示されている歌詞の一部を選択することができる。例えば、音節の単位で同期再生データ170等が作成された場合(図11(c)の場合)、ユーザは、表示画面56bに表示されている歌詞の中から1つの音節を選択することができる。また、例えば、センテンスの単位で同期再生データ170等が作成された場合(図11(e)の場合)、ユーザは、表示画面56bに表示されている歌詞の中から1つのセンテンスを選択することができる。この場合の例が、図15に示されている。
The
When a part of the lyrics displayed on the
The user can select a part of the lyrics displayed on the
本実施例の多機能機20は、既存のオーディオデータ100(図5、図6参照)から、トラックより小さい単位でハイパーリンクが付加された表示用データ148(図10参照)を作成する。多機能機20は、音データ120を加工しなくても、音データ120にジャンプすることができるハイパーリンクを有する表示用データ148を作成することができる。音データ120を加工する必要がないために、表示用データ148の作成が容易である。
再生装置56は、ハイパーリンクが付加された表示用データ148に基づいて、歌詞を表示することができる。再生装置56は、音データ120の再生に同期(又は非同期)して表示される歌詞の一部がユーザによって選択されると、その選択された箇所から音データ120を再生することができる。ユーザは、トラックの途中の箇所から音データ120を簡単に再生させることができる。
The multi-function device 20 of the present embodiment creates display data 148 (see FIG. 10) to which hyperlinks are added in units smaller than the track from the existing audio data 100 (see FIGS. 5 and 6). The multi-function device 20 can create
The
また、内容テキストデータ114(図6参照)は、音節の単位で作成されている。多機能機20は、この内容テキストデータ114から、ワード、センテンス、又はパラグラフの単位で表示用データ148(図10参照)を作成することができる。この場合、ユーザは、自身が意図する同期単位(ワード、センテンス、又はパラグラフ)で再生位置を指定することができる。ユーザによって使い易さの向上につながる。
The content text data 114 (see FIG. 6) is created in units of syllables. The multi-function device 20 can create display data 148 (see FIG. 10) from the
(実施例の変形例)
再生装置56は、内容テキストデータ114がなくても、表示用データ148に基づいて歌詞を表示することができる。このために、多機能機20は、内容テキストデータ114を再生装置56に送らなくてもよい。このようにすると、再生装置56が記憶すべきデータ量を圧縮することができる。
(Modification of Example)
The
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
多機能機20は、音データ120と表示用データ148をPC58(図1参照)に送ってもよい。この場合、PC58は、音データ120を再生することができるとともに、その再生に同期(又は非同期)して歌詞を表示することができる。また、多機能機20は、音データ120を再生する機能を有していてもよい。この場合、多機能機20は、音データ120の再生に同期(又は非同期)して表示装置32(図1参照)で歌詞を表示してもよい。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
The multi-function device 20 may send the
Further, the technical elements described in the present specification or drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.
10:多機能機システム
20:多機能機
28:制御装置
52:インターネット
54:サーバ
56:ポータブルオーディオ再生装置
100:オーディオデータ
102:ID3データ
114:内容テキストデータ
120:音データ
128:組合せデータ
130:文字データ
132:同期コード
134:タイミングデータ
150:ヘッダ部
170,190:同期再生データ
172,192:ハイパーリンクデータ
176,196:タイミング属性データ
178,198:歌詞のテキストデータ
220:フッタ部
10: Multi-function device system 20: Multi-function device 28: Control device 52: Internet 54: Server 56: Portable audio playback device 100: Audio data 102: ID3 data 114: Content text data 120: Sound data 128: Combination data 130: Character data 132: Sync code 134: Timing data 150:
Claims (10)
外部機器から出力されたコンテンツデータを入力する入力装置と、入力装置に入力されたコンテンツデータから別のデータを作成するデータ作成装置とを備え、
前記コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有し、
前記トラックの第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものであり、
データ作成装置は、前記トラックの第1表示用データから第2表示用データを作成し、
その第2表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものであることを特徴とするコンテンツデータ処理装置。 A content data processing apparatus that is used by being connected to an external device,
An input device for inputting content data output from an external device, and a data generation device for generating other data from content data input to the input device;
The content data includes sound data and / or video data of at least one track, and first display data of the track,
The first display data of the track includes a plurality of first timing data corresponding to a reproduction time axis of the sound data and / or video data of the track, a portion of the sound data corresponding to the first timing data, and / Or text data related to the contents of video data,
The data creation device creates second display data from the first display data of the track,
The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or A content data processing apparatus, wherein text data relating to the content of video data is associated with a hyperlink structure.
データ作成装置は、第2表示用データに含まれる前記複数の第2タイミングデータのそれぞれを、単語以上を単位として設定することを特徴とする請求項2のコンテンツデータ処理装置。 Each of the plurality of first timing data included in the first display data of the track is set in units of syllables,
3. The content data processing apparatus according to claim 2, wherein the data creation device sets each of the plurality of second timing data included in the second display data in units of words or more.
第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に沿った数値を含む第1タイミングデータと、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータとが対応づけられている複数の組合せデータからなり、
データ作成装置は、第1表示用データに含まれる複数の組合せデータを読み込むとともに、それぞれの組合せデータについて、その組合せデータの第1タイミングデータに含まれる数値とその組合せデータのテキストデータとをハイパーリンク構造により対応づけたデータを記憶装置に書き込むことを特徴とする請求項1のコンテンツデータ処理装置。 A storage device for storing second display data;
The first display data includes first timing data including numerical values along the reproduction time axis of the sound data and / or video data of the track, and sound data and / or video data of a portion corresponding to the first timing data. It consists of multiple combination data that is associated with text data related to the contents of
The data creation device reads a plurality of combination data included in the first display data, and for each combination data, hyperlinks the numerical value included in the first timing data of the combination data and the text data of the combination data. 2. The content data processing apparatus according to claim 1, wherein data associated with the structure is written in the storage device.
第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に沿った数値を含む第1タイミングデータと、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータとが対応づけられている複数の組合せデータからなり、
複数の組合せデータは、各組合せデータの第1タイミングデータに含まれる数値の順に並んでおり、
データ作成装置は、第1表示用データに含まれる複数の組合せデータを順に読み込むとともに、少なくとも2つの連続する組合せデータについて、それらの組合せデータの中の最初の組合せデータの第1タイミングデータに含まれる数値とそれらの組合せデータの各テキストデータとをハイパーリンク構造により対応づけたデータを記憶装置に書き込むことを特徴とする請求項1のコンテンツデータ処理装置。 A storage device for storing second display data;
The first display data includes first timing data including numerical values along the reproduction time axis of the sound data and / or video data of the track, and sound data and / or video data of a portion corresponding to the first timing data. It consists of multiple combination data that is associated with text data related to the contents of
The plurality of combination data are arranged in the order of numerical values included in the first timing data of each combination data,
The data creation device sequentially reads a plurality of combination data included in the first display data, and at least two consecutive combination data are included in the first timing data of the first combination data in the combination data. 2. The content data processing apparatus according to claim 1, wherein data in which numerical values and text data of their combination data are associated with each other by a hyperlink structure is written in the storage device.
前記トラックの音データ及び/又は映像データと、データ作成装置によって作成された第2表示用データとをコンテンツ再生装置に出力する出力装置をさらに備えることを特徴とするコンテンツデータ処理装置。 The content data processing device according to any one of claims 1 to 5, wherein the content data processing device is used by being connected to the external device and being connected to a content reproduction device having a display screen.
A content data processing apparatus, further comprising: an output device that outputs the sound data and / or video data of the track and the second display data created by the data creation device to a content playback device.
外部機器から出力されたコンテンツデータを入力する入力装置と、入力装置に入力されたコンテンツデータから別のデータを作成するデータ作成装置とを備え、
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの音データ及び/又は映像データの内容に関する内容テキストデータとを有し、
前記トラックの内容テキストデータは、前記トラックの音データ及び/又は映像データの再生に同期して当該コンテンツデータ処理装置及び/又は別のコンテンツ再生装置において表示されることが可能であり、
データ作成装置は、前記トラックの内容テキストデータに含まれる複数の小テキストデータのそれぞれにハイパーリンク構造が付加されているリンク付内容テキストデータを作成することを特徴とするコンテンツデータ処理装置。 A content data processing apparatus that is used by being connected to an external device,
An input device for inputting content data output from an external device, and a data generation device for generating other data from content data input to the input device;
The content data includes sound data and / or video data of at least one track, and content text data regarding the contents of the sound data and / or video data of the track,
The content text data of the track can be displayed on the content data processing device and / or another content playback device in synchronization with the playback of the sound data and / or video data of the track,
The data creation device creates linked content text data in which a hyperlink structure is added to each of a plurality of small text data included in the track content text data.
外部機器から出力されたコンテンツデータを入力する入力工程と、入力工程で入力されたコンテンツデータから別のデータを作成するデータ作成工程とを備え、
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有し、
前記トラックの第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものであり、
データ作成工程では、前記トラックの第1表示用データから第2表示用データを作成し、
その第2表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものであることを特徴とするコンテンツデータ処理方法。 A method of processing content data by a data processing device connected to an external device and used.
An input process for inputting content data output from an external device, and a data creation process for creating another data from the content data input in the input process,
The content data includes sound data and / or video data of at least one track, and first display data of the track,
The first display data of the track includes a plurality of first timing data corresponding to a reproduction time axis of the sound data and / or video data of the track, a portion of the sound data corresponding to the first timing data, and / Or text data related to the contents of video data,
In the data creation step, second display data is created from the first display data of the track,
The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or A content data processing method, wherein text data relating to the contents of video data is associated with a hyperlink structure.
そのプログラムは、外部機器から出力されてデータ処理装置に入力されたコンテンツデータから別のデータを作成するデータ作成処理を前記コンピュータに実行させるものであり、
コンテンツデータは、少なくとも1つのトラックの音データ及び/又は映像データと、そのトラックの第1表示用データとを有し、
前記トラックの第1表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第1タイミングデータのそれぞれに、その第1タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが対応づけられたものであり、
データ作成処理では、前記トラックの第1表示用データから第2表示用データを作成し、
その第2表示用データは、前記トラックの音データ及び/又は映像データの再生時間軸に対応する複数の第2タイミングデータのそれぞれに、その第2タイミングデータに対応する部分の音データ及び/又は映像データの内容に関するテキストデータが、ハイパーリンク構造により対応づけられたものであることを特徴とするコンテンツデータ処理プログラム。 It is a program executed by a computer mounted on a data processing device that is used by being connected to an external device,
The program causes the computer to execute a data creation process for creating another data from content data output from an external device and input to a data processing device.
The content data includes sound data and / or video data of at least one track, and first display data of the track,
The first display data of the track includes a plurality of first timing data corresponding to a reproduction time axis of the sound data and / or video data of the track, a portion of the sound data corresponding to the first timing data, and / Or text data related to the contents of video data,
In the data creation process, second display data is created from the first display data of the track,
The second display data includes a plurality of second timing data corresponding to the reproduction time axis of the track sound data and / or video data, a portion of the sound data corresponding to the second timing data, and / or A content data processing program characterized in that text data relating to the contents of video data is associated with a hyperlink structure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006342876A JP2008154183A (en) | 2006-12-20 | 2006-12-20 | Device, method and program for processing content data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006342876A JP2008154183A (en) | 2006-12-20 | 2006-12-20 | Device, method and program for processing content data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008154183A true JP2008154183A (en) | 2008-07-03 |
Family
ID=39655860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006342876A Pending JP2008154183A (en) | 2006-12-20 | 2006-12-20 | Device, method and program for processing content data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008154183A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016219979A (en) * | 2015-05-19 | 2016-12-22 | 西日本電信電話株式会社 | Client terminal, internet moving image playback system and program |
JP2016226053A (en) * | 2016-09-26 | 2016-12-28 | 西日本電信電話株式会社 | Client terminal and moving image reproduction system via internet including the same |
-
2006
- 2006-12-20 JP JP2006342876A patent/JP2008154183A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016219979A (en) * | 2015-05-19 | 2016-12-22 | 西日本電信電話株式会社 | Client terminal, internet moving image playback system and program |
JP2016226053A (en) * | 2016-09-26 | 2016-12-28 | 西日本電信電話株式会社 | Client terminal and moving image reproduction system via internet including the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7985910B2 (en) | Musical content utilizing apparatus | |
JP2011145694A (en) | Talking e-book | |
JP2004287595A (en) | Device and method for converting composite media contents and its program | |
WO2012147936A1 (en) | Browsing system, terminal, image server, program, computer-readable recording medium recording said program, and method | |
JP2008154183A (en) | Device, method and program for processing content data | |
JP2010055259A (en) | Image processing apparatus, image processing program, and image processing method | |
JP2003091344A (en) | Information processor, information processing method, recording medium, data structure and program | |
JP5082971B2 (en) | A speech synthesizer and a reading system using the same. | |
JP2008197787A (en) | Web content providing device, web content providing method, and program | |
JP2009205039A (en) | Audio data conversion/reproduction system, audio data conversion device and audio data reproduction device | |
JP2007233912A (en) | Style sheet producing device and style sheet production program | |
JP2017108198A (en) | Musical score display system, moving image data supply device, musical score data supply device, image display device and musical score display program | |
JP2004198959A (en) | Instruction code generation device and instruction code generation processing program | |
JP2008217226A (en) | Content generation device and content generation program | |
CN101562009B (en) | Musical content utilizing apparatus and method | |
JP6736174B6 (en) | Program and information processing method | |
JP2015210786A (en) | Information processing device, information processing method and program | |
JP2006277347A (en) | Information processor and information processing method | |
CN101562010B (en) | Musical content utilizing apparatus and method | |
JP2006228329A (en) | Playback device, playback system, sending device and computer program | |
JP4778302B2 (en) | Interactive content presentation apparatus and interactive content presentation program | |
JP5687441B2 (en) | Multimedia content production device | |
JP2009200959A (en) | Data editing apparatus, data editing method, program and storage medium | |
JP2002116786A (en) | Speech synthesizer as well as method for the same and information memory medium | |
JP2010026960A (en) | Information processor |