JP4595947B2 - Data reproducing apparatus, data reproducing method and program - Google Patents
Data reproducing apparatus, data reproducing method and program Download PDFInfo
- Publication number
- JP4595947B2 JP4595947B2 JP2007031062A JP2007031062A JP4595947B2 JP 4595947 B2 JP4595947 B2 JP 4595947B2 JP 2007031062 A JP2007031062 A JP 2007031062A JP 2007031062 A JP2007031062 A JP 2007031062A JP 4595947 B2 JP4595947 B2 JP 4595947B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- time
- video
- audio data
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
- Studio Devices (AREA)
Description
本発明は、入力されたデータと同期して、他のデータを再生する技術に関する。 The present invention relates to a technique for reproducing other data in synchronization with input data.
一般的なカラオケ装置においては、例えば、MIDI(Musical Instruments Digital Interface:登録商標)形式の伴奏用データ、楽曲の歌詞テロップを表示するシーケンスデータおよび映像データなどから構成された楽曲データをそれぞれ同期させて再生することにより、利用者はその楽曲のカラオケを楽しむことができる。特許文献1には、伴奏データと映像データを別個にサーバから受信してそれらを同期させて再生させる技術が開示されている。また、特許文献2においては、ライブ演奏のような臨場感のあるカラオケ演奏を提供する技術が開示されている。
In a general karaoke apparatus, for example, music data composed of MIDI (Musical Instruments Digital Interface) format accompaniment data, sequence data for displaying lyrics telop of music, and video data are synchronized. By playing, the user can enjoy karaoke of the music. Japanese Patent Application Laid-Open No. 2004-151620 discloses a technique for receiving accompaniment data and video data separately from a server and reproducing them in synchronization.
また、歌詞を表示させる技術は、カラオケ装置だけで用いられるわけではなく、テレビ放送などにおける歌番組においても用いられている。また、テレビ放送においては、生放送の歌番組などで歌手が歌唱に合わせて歌詞テロップを表示する場合、オペレータが楽曲の進行にあわせて、所定のタイミングで歌詞を表示させるようにしている。
しかし、特許文献1に開示された技術を用いる場合には、伴奏データはMIDI形式のデータの再生であるため、MIDI形式のデータを再生できる音源を用いた再生のため、音質が劣る場合や、テンポが単調な演奏となってしまう場合があった。また、特許文献2に開示された技術の場合には、ライブ演奏のような臨場感が得られるが、楽曲の進行が単調ではないため、歌詞テロップを表示させるためなどのシーケンスデータについては、楽曲の進行に合わせて事前に作成しておく必要があった。また、テレビ放送などにおいて上述したようなオペレータの作業は、本番においてミスは許されず、事前に楽曲の進行と歌詞の表示を行うタイミングとを合わせる練習をしておく必要があり、非常に負担が大きかった。
However, when the technique disclosed in
本発明は、上述の事情に鑑みてなされたものであり、ライブ演奏のように楽曲のテンポの変動があっても、楽曲の流れにあわせたデータの再生を簡単に行うことができるデータ再生装置、データ再生方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and is a data reproducing apparatus that can easily reproduce data in accordance with the flow of music even when there is a change in the tempo of the music as in live performances. An object of the present invention is to provide a data reproduction method and program.
上述の課題を解決するため、本発明は、音声の波形を示しデータ各部に時刻が規定された第1のオーディオデータを記憶するとともに、データ各部についての時刻を規定する同期情報を有した第1のデータを記憶する記憶手段と、外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と前記第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント手段と、前記時刻情報と前記同期情報の対応関係に基づいて、前記記憶手段から前記第1のデータを読み出すデータ読出手段と、前記データ読出手段によって読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成手段と、前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延手段とを具備することを特徴とするデータ再生装置を提供する。 In order to solve the above-described problem, the present invention stores first audio data indicating a waveform of a voice and defining a time in each data part, and also includes a first synchronization information defining a time for each data part. the storage means for storing data sequentially obtains each section of second audio data showing a waveform of a voice supplied from the outside, the second the respective units of the audio data of the first of each part of the audio data the acquired Time alignment means for associating each part of the data by comparing and generating time information according to the time defined in the first audio data corresponding to each part of the acquired second audio data ; Based on the correspondence between the time information and the synchronization information, a data reading means for reading the first data from the storage means, and the data reading A video data generating means for generating first image data based on the first data read by the means, delay means you outputting second audio data supplied by a predetermined amount delayed from the external A data reproducing apparatus is provided.
また、本発明は、音声の波形を示しデータ各部に時刻が規定された第1のオーディオデータを記憶するとともに、データ各部についての時刻を規定する同期情報を有した第1のデータおよび第2のデータを記憶する記憶手段と、外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と前記第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント手段と、前記時刻情報と前記同期情報の対応関係に基づいて、前記記憶手段から前記第1のデータと前記第2のデータとを読み出すデータ読出手段と、前記データ読出手段によって読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成手段と、前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延手段とを具備することを特徴とするデータ再生装置を提供する。 In addition, the present invention stores first audio data indicating a waveform of a sound and having a time defined in each part of the data, and includes first data and second data having synchronization information defining a time for each data part. storage means for storing data, sequentially acquires each portion of the second audio data showing a waveform of a voice supplied from the outside, and the respective parts of the second said respective units of the audio data of the first audio data the acquired Time alignment means for associating each data part by comparing the data and generating time information according to the time defined in the first audio data corresponding to each part of the acquired second audio data , A data reader that reads the first data and the second data from the storage means based on the correspondence between the time information and the synchronization information When the data and the image data generating means for generating first image data based on the first data read by the reading means, the second audio data supplied from the outside by a predetermined amount delayed output be provided with a delay means you provide a data reproducing apparatus according to claim.
また、別の好ましい態様において、前記第2のデータは、外部に接続した装置を制御するためのシーケンスデータである制御信号データであってもよい。 In another preferred embodiment, the second data may be control signal data that is sequence data for controlling an externally connected device.
また、別の好ましい態様において、前記第2のデータは、オーディオデータであってもよい。 In another preferable aspect, the second data may be audio data.
また、別の好ましい態様において、前記データ読出手段によって読み出された第2のデータに基づいてオーディオデータを生成する音源部をさらに具備し、前記第2のデータは、前記音源部によって生成されるオーディオデータに係る楽音の発音内容を示すシーケンスデータであってもよい。 Moreover, in another preferable aspect, it further comprises a sound source unit that generates audio data based on the second data read by the data reading unit, and the second data is generated by the sound source unit. It may be sequence data indicating the sounding content of the musical sound related to the audio data.
また、別の好ましい態様において、前記記憶手段に記憶されている前記第1のデータは、映像の表示内容を指示するシーケンスデータであってもよい。 Moreover, in another preferable aspect, the first data stored in the storage unit may be sequence data instructing display contents of a video.
また、別の好ましい態様において、前記記憶手段に記憶されている前記第1のデータは、映像自体の内容を示すデータであってもよい。 In another preferred embodiment, the first data stored in the storage means may be data indicating the content of the video itself.
また、別の好ましい態様において、複数の映像データが入力され、前記複数の映像データのうち一の映像データに係る映像に対して、他の映像データに係る映像をスーパーインポーズする映像合成手段をさらに具備し、前記遅延手段は、外部から供給され、前記第2のオーディオデータと時間同期がとられた第2の映像データを前記所定量遅延させ、 前記映像合成手段は、前記遅延手段によって遅延された第2の映像データに係る映像に対して、前記映像データ生成手段によって生成された第1の映像データに係る映像をスーパーインポーズしてもよい。 Further, in another preferred aspect, there is provided video synthesizing means for superimposing a video related to other video data on a video related to one video data among the plurality of video data when a plurality of video data is inputted. The delay means delays the second video data supplied from the outside and time-synchronized with the second audio data by the predetermined amount, and the video synthesizing means is delayed by the delay means. The video related to the first video data generated by the video data generation means may be superimposed on the video related to the second video data.
また、別の好ましい態様において、前記遅延手段における遅延量は、タイムアライメント手段に第2のオーディオデータが供給されてから前記映像データ生成手段によって第1の映像データを生成するまでの時間として設定されていてもよい。 In another preferable aspect, the delay amount in the delay unit is set as a time from when the second audio data is supplied to the time alignment unit to when the first video data is generated by the video data generation unit. It may be.
また、本発明は、外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と、記憶手段に記憶された音声の波形を示しデータ各部に時刻が規定された第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント過程と、前記第1のオーディオデータを記憶するとともに、データ各部についての時刻を規定する同期情報を有した第1のデータを記憶する前記記憶手段から、前記時刻情報と前記同期情報の対応関係に基づいて、前記第1のデータを読み出すデータ読出過程と、前記データ読出過程において読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成過程と、前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延過程とを備えることを特徴とするデータ再生方法を提供する。 Also, the present invention sequentially acquires each part of the second audio data indicating the waveform of the sound supplied from the outside, and acquires each part of the acquired second audio data and the sound waveform stored in the storage means. By comparing each part of the first audio data whose time is specified in each part of the indicated data, the data parts are associated with each other and specified in the first audio data corresponding to each part of the acquired second audio data a time alignment process of generating time information corresponding to to time, stores the first audio data, the storage means for storing a first data having a synchronization information that defines the time of the data each section From the data reading process of reading the first data and the data reading process based on the correspondence between the time information and the synchronization information And image data generating step of generating a first image data based on the first data read have, a delay process you outputting second audio data supplied from the outside is delayed a predetermined amount Provided is a data reproduction method characterized by comprising:
また、本発明は、外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と、記憶手段に記憶された音声の波形を示しデータ各部に時刻が規定された第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント過程と、前記第1のオーディオデータを記憶するとともに、データ各部についての時刻を規定する同期情報を有した第1のデータおよび第2のデータを記憶する前記記憶手段から、前記時刻情報と前記同期情報の対応関係に基づいて、前記第1のデータと前記第2のデータとを読み出すデータ読出過程と、前記データ読出過程において読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成過程と、前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延過程とを備えることを特徴とするデータ再生方法を提供する。 Also, the present invention sequentially acquires each part of the second audio data indicating the waveform of the sound supplied from the outside, and acquires each part of the acquired second audio data and the sound waveform stored in the storage means. By comparing each part of the first audio data whose time is specified in each part of the indicated data, the data parts are associated with each other and specified in the first audio data corresponding to each part of the acquired second audio data a time alignment process of generating time information corresponding to to time, stores the first audio data, the first data and second data having a synchronization information that defines the time of the data each section from the storage means for storing, based on the correspondence relationship of the synchronization information and the time information, reads out said first data and said second data A data read process, a video data generation process for generating first video data based on the first data read in the data read process, and a second amount of second audio data supplied from outside providing data reproducing method characterized by comprising a delay process you output with a delay.
また、本発明は、記憶手段を有するコンピュータに、前記記憶手段に、音声の波形を示しデータ各部に時刻が規定された第1のオーディオデータを記憶させるとともに、データ各部についての時刻を規定する同期情報を有した第1のデータを記憶させる記憶機能と、外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と前記第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント機能と、前記時刻情報と前記同期情報の対応関係に基づいて、前記記憶手段から前記第1のデータを読み出すデータ読出機能と、前記データ読出機能によって読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成機能と、前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延機能とを実現させるためのプログラムを提供する。 Further, according to the present invention, the computer having the storage means stores the first audio data indicating the waveform of the sound and specifying the time in each data part in the storage means, and synchronizing the time for each data part. The storage function for storing the first data having information and the respective parts of the second audio data indicating the waveform of the sound supplied from the outside are sequentially acquired, the respective parts of the acquired second audio data and the first By comparing each part of one audio data with each other , the data parts are associated with each other, and time information corresponding to the time specified in the first audio data corresponding to each part of the acquired second audio data is generated. And reading the first data from the storage unit based on the time alignment function to be performed and the correspondence between the time information and the synchronization information. A data read function, a video data generation function for generating first video data based on the first data read by the data read function, and a second audio data supplied from outside are delayed by a predetermined amount It is allowed to provide a program for realizing the to that delay function output.
また、本発明は、記憶手段を有するコンピュータに、前記記憶手段に、音声の波形を示しデータ各部に時刻が規定された第1のオーディオデータを記憶させるとともに、データ各部についての時刻を規定する同期情報を有した第1のデータおよび第2のデータを記憶させる記憶機能と、外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と前記第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント機能と、前記時刻情報と前記同期情報の対応関係に基づいて、前記記憶手段から前記第1のデータと前記第2のデータとを読み出すデータ読出機能と、前記データ読出機能によって読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成機能と、前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延機能とを実現させるためのプログラムを提供する。 Further, according to the present invention, the computer having the storage means stores the first audio data indicating the waveform of the sound and specifying the time in each data part in the storage means, and synchronizing the time for each data part. A storage function for storing the first data and the second data having information and the second audio data indicating the waveform of the sound supplied from the outside are sequentially acquired, and the acquired second audio data is acquired. and each part of the associated data each part by comparing the respective portions of the first audio data, according to the acquired first audio data to a defined time corresponding to the respective portions of the second audio data a time alignment function of generating time information based on the correspondence relationship of the synchronization information and the time information, the from the storage means the A data read function for reading the first data and the second data, a video data generation function for generating the first video data based on the first data read by the data read function, and the external supply the second audio data by a predetermined amount delays provide programs for realizing the to that delay function output.
本発明によれば、ライブ演奏のように楽曲のテンポの変動があっても、楽曲の流れにあわせたデータの再生を簡単に行うことができるデータ再生装置、データ再生方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide a data reproducing apparatus, a data reproducing method, and a program capable of easily reproducing data in accordance with the flow of music even when the tempo of the music varies as in live performance. Can do.
以下、本発明の一実施形態について説明する。 Hereinafter, an embodiment of the present invention will be described.
<実施形態>
図1は、本発明の本実施形態に係るデータ再生装置を有する映像表示装置1のハードウエアの構成を示すブロック図である。
<Embodiment>
FIG. 1 is a block diagram showing a hardware configuration of a
CPU(Central Processing Unit)11は、ROM(Read Only Memory)12に記憶されているプログラムを読み出して、RAM(Random Access Memory)13にロードして実行することにより、映像表示装置1の各部について、バス10を介して制御する。また、RAM13は、CPU11が記憶された各データの加工などを行う際のワークエリアとして機能する。
A CPU (Central Processing Unit) 11 reads out a program stored in a ROM (Read Only Memory) 12, loads it into a RAM (Random Access Memory) 13, and executes it. Control is performed via the
さらにRAM13は、内部に有するライブデータバッファ領域13aに、通信部17から受信するストリーミング再生するためのライブ映像データ(第2の映像データ)、ライブ楽音データ(第2のオーディオデータ)を一時的にバッファする機能を有するとともに、当該各データに対応する楽曲に関する情報のデータ(以下、楽曲情報データという)についても、通信部17において受信して記憶する。なお、楽曲に関する情報は、楽曲名や認識番号など、当該楽曲を特定できる情報であれば何でもよい。そして、CPU11は、RAM13にバッファされたライブ映像データ、ライブ楽音データを読み出し、後述するような処理を行ってストリーミング再生を行う。
Further, the RAM 13 temporarily stores live video data (second video data) and live musical sound data (second audio data) for streaming playback received from the
ここで、ライブ映像データは、楽曲の生演奏を撮影した映像(以下、ライブ映像という)の映像データである。また、ライブ楽音データは、楽曲の生演奏を録音した音声(以下、ライブ演奏)のオーディオデータであって、ライブ演奏には、歌手の歌声(以下、ライブボーカルという)や伴奏などが含まれている。 Here, the live video data is video data of a video (hereinafter referred to as a live video) obtained by shooting a live performance of music. In addition, live music data is audio data of a sound recording a live performance of a music (hereinafter referred to as a live performance), and the live performance includes a singer's singing voice (hereinafter referred to as a live vocal) and accompaniment. Yes.
記憶部(記憶手段)14は、例えば、ハードディスクなどの大容量記憶手段であって、楽曲データ記憶領域14aに、各楽曲のリファレンスデータとなるリファレンス楽曲データを記憶する。リファレンス楽曲データは、リファレンス楽音データ(第1のオーディオデータ)と歌詞データ(第1のデータ)を有している。リファレンス楽音データは、楽曲の見本となる歌声や伴奏を含む演奏(以下、リファレンス演奏という)を録音したオーディオデータであって、その再生時刻を示すタイムコードが付されている。歌詞データは、楽曲の歌詞を示すテキストデータと当該テキストデータの各テキストの表示タイミングを示すデータとを有するシーケンスデータであって、シーケンスデータの読み出し時刻を示すタイムコード(同期情報)が付されている。そして、リファレンス楽音データと歌詞データは、同じタイムコードによって読み出すことにより時間同期して再生することができ、楽曲の見本となる歌声にあった歌詞が表示されるようになっている。
The storage unit (storage means) 14 is a large-capacity storage means such as a hard disk, for example, and stores reference song data serving as reference data for each song in the song
表示部15は、映像を画面に表示する液晶ディスプレイなどの表示デバイスであって、入力された映像データに基づいて表示を行う。また、映像表示装置1を操作するためのメニュー画面などの各種画面を表示する。操作部16は、例えばキーボードやマウスなどであり、映像表示装置1の利用者が操作部16を操作すると、その操作内容を表すデータがCPU11へ出力される。
The
通信部17は、有線、無線などによって、データを受信するチューナなどの通信手段であって、上述したように、本実施形態においては、ライブ映像データ、ライブ楽音データ、楽曲情報データを受信して、RAM13のライブデータバッファ領域13aにバッファする機能を有している。
The
音声出力部18は、スピーカなどの放音手段を有し、入力されたオーディオデータに基づいて放音する。
The
次に、CPU11が、ROM12に記憶されたプログラムを実行することによって実現する機能について説明する。図2は、CPU11が実現する機能を示したソフトウエアの構成を示すブロック図である。
Next, functions realized by the
楽曲データ選択部101は、ライブデータバッファ領域13aから楽曲情報データを読み取り、通信部17が受信している各データの楽曲を認識する。そして、楽曲データ記憶領域14aに記憶されているリファレンス楽曲データの中から、認識した楽曲に対応するリファレンス楽曲データを選択し、そのリファレンス楽曲データのリファレンス楽音データおよび歌詞データを読み出す。そして、楽曲データ選択部101は、読み出したリファレンス楽音データをタイムアライメント部(タイムアライメント手段)102へ出力するとともに、読み出した歌詞データについては、後述するデータ読出部(データ読出手段)103に読み出されるまでRAM13にバッファしておく。
The music
タイムアライメント部102は、CPU11によってライブデータバッファ領域13aから読み出されたライブ楽音データを取得し、当該ライブ楽音データと、楽曲データ選択部101から出力されたリファレンス楽音データとを比較して、ライブ演奏とリファレンス演奏との楽曲の進行のずれを検出し、当該楽曲の進行のずれに基づいてタイムコード(時刻情報)を出力する機能を有している。
The
ここで、楽曲の進行のずれは、それぞれのデータを所定時間長のフレーム単位に分離し、その各々に対してFFT(Fast Fourier Transform)を施して、それぞれのデータのスペクトルを算出し、これらの各フレーム間で類似したスペクトルを対応付けることにより検出する。また、楽曲の進行のずれを検出する機能について、本実施形態ではDP(Dynamic Programming:動的計画法)マッチングを用いる。具体的には以下のような処理となる。 Here, the deviation of the progression of music is obtained by separating each data into frame units of a predetermined time length, performing FFT (Fast Fourier Transform) on each of them, calculating the spectrum of each data, Detection is performed by associating similar spectra between frames. In addition, in this embodiment, DP (Dynamic Programming) matching is used for the function of detecting the progression of music progression. Specifically, the processing is as follows.
タイムアライメント部102は、図3に示すような座標平面(以下、DPプレーンという)をRAM13に形成する。このDPプレーンの縦軸は、ライブ楽音データをそれぞれ所定時間長のフレーム単位に分離してその各々に対してFFTを施して得られたスペクトルについて、各フレームのスペクトルの絶対値の対数に逆フーリエ変換をかけて得られるパラメータ(ケプストラム)をa1、a2、a3・・・anとして、時間軸に従って並べたものである。また、横軸のb1、b2、b3・・・bnは、リファレンス楽音データについて、上記同様に時間軸に従って並べたものである。ここで、縦軸のa1、a2、a3・・・anの間隔と横軸のb1、b2、b3・・・bnの間隔は、いずれもフレームの時間長と対応している。このDPプレーンにおける各格子点の各々には、a1、a2、a3・・・anの各パラメータと、b1、b2、b3・・・bnの各パラメータのユークリッド距離を夫々示す値であるDPマッチングスコアが対応付けられている。例えば、a1とb1とにより位置決めされる格子点(a1,b1)には、ライブ楽音データの一連のフレームのうち最初のフレームから得たパラメータとリファレンス楽音データの一連のフレームのうち最初のフレームから得たパラメータのユークリッド距離を示す値が対応付けられることになる。
The
そして、タイムアライメント部102は、このような構造を成すDPプレーンを形成した後、a1とb1とにより位置決めされる始端にあたる格子点(a1,b1)からanとbnとにより位置決めされる終端にあたる格子点(an,bn)に至る全経路を探索し、探索した経路ごとに、その始端から終端までの間に辿る各格子点のDPマッチングスコアを累算して累算値を求める。なお、始端と終端は各データの最初のフレームと最後のフレームということではなく、各データから所定のフレーム数を単位として行われ、この単位における最初のフレームから最後のフレームまで行われて、これが順次処理され各データの最後のフレームまで処理されていく。
After the
そして、DPマッチングスコアの累算値が最小となる経路をDPプレーン上から特定し、その経路上の各格子点によって、ライブ楽音データの各フレームにリファレンス楽音データの各フレームが対応付けられる。この対応関係により楽曲の進行のずれを検出することができる。例えば、図3に示すDPプレーン上に記された経路においては、a1とb1により位置決めされる格子点(a1,b1)からその右上のa2とb2により位置決めされる格子点(a2,b2)に進んでいることが分かる。この場合、a2のフレームとb2のフレームとの時間軸上の位置は当初から同じである。一方、この経路においては、a2とb2により位置決めされる格子点(a2,b2)からその右のa2とb3により位置決めされる格子点(a2,b3)に進んでいる。楽曲の進行のずれが無ければ格子点(a3,b3)へ進み、b3のフレームの時間軸上の位置に対応すべきフレームはa3のフレームとなるものであるが、格子点(a2,b3)に進んでいることから、b3のフレームはa3ではなくa2のフレームの時間軸上の位置と同じであると対応付けられ、楽曲の進行のずれが発生していることになる。すなわち、リファレンス楽音データのフレームb3までに進行する演奏の内容が、ライブ楽音データのフレームa2までに進行していることになるから、この時点においては、リファレンス演奏よりもライブ演奏の方が早く進んでいることになる。このようにして、楽曲の進行のずれを検出することができる。そして、ライブ楽音データの全てのフレームに対して、リファレンス楽音データのフレームを対応付けて、楽曲の進行のずれを検出する。以上がDPマッチングの仕組みである。 Then, a path having the minimum DP matching score accumulated value is specified on the DP plane, and each frame of the reference musical sound data is associated with each frame of the live musical sound data by each grid point on the path. A shift in the progression of music can be detected by this correspondence. For example, in the path marked on the DP plane shown in FIG. 3, from the lattice point (a1, b1) positioned by a1 and b1, to the lattice point (a2, b2) positioned by a2 and b2 at the upper right You can see that it is going. In this case, the positions on the time axis of the frame a2 and the frame b2 are the same from the beginning. On the other hand, in this route, the grid point (a2, b2) positioned by a2 and b2 advances to the grid point (a2, b3) positioned by a2 and b3 on the right. If there is no shift in the progression of the music, the process proceeds to the grid point (a3, b3), and the frame that should correspond to the position of the frame b3 on the time axis is the frame a3, but the grid point (a2, b3) Therefore, the frame of b3 is associated with the same position on the time axis of the frame of a2, not a3, and the progress of the music is generated. That is, since the content of the performance that has progressed up to the frame b3 of the reference musical sound data has progressed to the frame a2 of the live musical sound data, the live performance progresses faster than the reference performance at this point. It will be out. In this way, it is possible to detect a shift in the progression of music. Then, the frame of the reference musical sound data is associated with all the frames of the live musical sound data to detect a shift in the progression of music. The above is the mechanism of DP matching.
次に、タイムアライメント部102が検出した楽曲の進行のずれに基づいてタイムコードを順次出力する機能について説明する。タイムアライメント部102は、上述したように、ライブ楽音データの各フレームに対してリファレンス楽音データのフレームを対応付けるから、入力されたライブ楽音データの時間軸上の位置をリファレンス楽音データの時間軸上の位置(以下、再生位置という)として認識することができる。また、この再生位置の時間変化によりテンポを認識することができる。タイムアライメント部102は、所定の間隔で、認識した再生位置とテンポに基づいてタイムコードを生成し、順次出力する。もし、タイムアライメント部102から順次出力されたタイムコードを参照してリファレンス楽音データを読み出して再生したとすれば、リファレンス演奏の時間軸が伸縮され、ライブ演奏と同等な楽曲の進行で再生することができる。
Next, a function of sequentially outputting time codes based on the progress of music detected by the
図2に戻って、説明を続ける。データ読出部103は、タイムアライメント部102から順次出力されるタイムコードと、歌詞データに付されたタイムコードとを対応させるようにして、楽曲データ選択部101がRAM13にバッファした歌詞データを読み出し、データ処理部104に順次出力していく。そして、データ処理部(映像データ生成手段)104は、データ読出部103から順次出力された歌詞データに基づいて歌詞映像データ(第1の映像データ)を生成し、映像合成部(映像合成手段)106に出力する。ここで、楽曲の歌詞を示すテキストデータとそのテキストの表示タイミングを示すデータを有する歌詞データは、タイムアライメント部102から出力されたタイムコードを参照して読み出すことによりデータ読出部103から出力されるシーケンスデータであるから、歌詞映像データは、楽曲の歌詞の表示タイミングがライブ演奏の楽曲の進行にあわせて表示される映像のデータとして生成される。
Returning to FIG. 2, the description will be continued. The
遅延部(遅延手段)105は、CPU11によってライブデータバッファ領域13aから読み出されたライブ映像データとライブ楽音データに所定時間の遅延処理を行って出力する。ここで、所定時間は、上述したタイムアライメント部102がライブ楽音データを取得してから、データ処理部104が歌詞映像データを出力するまでの処理に必要な時間が設定されている。このようにすると、遅延部105から出力されたライブ楽音データ、ライブ映像データと、データ処理部104から出力された歌詞映像データは時間同期したものとなる。
The delay unit (delay unit) 105 performs delay processing for a predetermined time on the live video data and live music data read from the live
映像合成部106は、遅延部105から出力されたライブ映像データに係るライブ映像に対して、データ処理部104から出力された歌詞映像データに係る歌詞の映像(以下、歌詞映像という)をスーパーインポーズした合成映像データを生成して表示部15へ出力する。ここで、合成映像データは、遅延部105において所定時間の遅延処理を行ったライブ映像データに係るライブ映像に対して、時間同期した歌詞映像、すなわち楽曲の歌詞がライブ演奏の楽曲の進行にあわせて表示される映像をスーパーインポーズしたものであり、ライブ映像に楽曲の歌詞映像が合成されることによって、その歌詞映像がライブボーカル、ライブ演奏、ライブ映像に合った映像の映像データとして生成される。
The
このようにして、表示部15には合成映像データが出力され、音声出力部18にはライブ楽音データが出力されることにより、本実施形態に係るデータ再生装置を有する映像表示装置1は、もともとのライブ映像に対して時間同期、すなわち楽曲の進行に合わせた歌詞映像が合成された映像と楽曲とを再生することができる。
In this way, the composite video data is output to the
以上、本発明の実施形態について説明したが、本発明は以下のように、さまざまな態様で実施可能である。 As mentioned above, although embodiment of this invention was described, this invention can be implemented in various aspects as follows.
<変形例1>
実施形態においては、入力される情報にライブ映像データが含まれていたが、入力されるデータには映像データが含まれなくてもよい。この場合は、図4に示すように、映像合成部106を用いずに、データ処理部104は、歌詞映像データをそのまま表示部15へ出力するようにすればよい。このように、入力される情報には映像データを含む必要はなく、オーディオデータが含まれていればよいから、例えば、携帯オーディオから出力される音声データ、ラジオ放送など、様々な装置からのデータ入力に対応できる。この場合、通信部17をそれぞれのデータ入力に対応した通信手段とすればよい。
<
In the embodiment, live video data is included in the input information, but the input data may not include video data. In this case, as illustrated in FIG. 4, the
<変形例2>
実施形態においては、リファレンス楽音データと対応する歌詞データは、楽曲の歌詞を示すテキストデータと当該テキストデータの各テキストの表示タイミングを示すデータとを有するシーケンスデータであったが、楽曲の歌詞をリファレンス楽音データと時間同期して再生できるようにしたタイムコードの付された映像データ(第1のデータ)であってもよい。この場合、以下のようにすればよい。データ読出部103は、実施形態に示したようにタイムコードを参照し、映像データである歌詞データを読み出して、データ処理部104に順次出力する。これにより、データ読出部103から順次出力された歌詞データは、読み出されるときに楽曲の進行に合わせるように時間軸が伸縮されてデータ処理部104に出力される。そして、データ処理部104は、この時間軸が伸縮された歌詞データを歌詞映像データ(第1の映像データ)として生成して出力する。このようにすれば、歌詞データが映像データであっても、本発明の効果を奏することができる。なお、映像データについては、歌詞データに限らず、楽曲の楽譜など、入力されたオーディオデータ(実施形態においてはライブ楽音データ)の楽曲の進行に合わせて表示させたい映像のデータなら、どのような映像データでもよい。
<
In the embodiment, the lyric data corresponding to the reference musical sound data is sequence data including text data indicating the lyrics of the music and data indicating the display timing of each text of the text data. It may be video data (first data) with a time code that can be reproduced in time synchronization with the musical sound data. In this case, the following may be performed. As shown in the embodiment, the
<変形例3>
実施形態においては、楽曲の進行に合わせて歌詞を表示させるようにしていたが、これに加えて、外部の他の装置を楽曲の進行に合わせて制御するようにしてもよい。この場合は、以下のような構成とすればよい。図5に示すように、例えば、AUX(Auxiliary)端子などの制御信号出力部19を設け、楽曲データ記憶領域14aに記憶されているリファレンス楽曲データは、リファレンス楽音データ、歌詞データに加え、制御信号データ(第2のデータ)を有するようにする。ここで、制御信号データは、AUX端子に接続される外部の装置を制御する信号とその制御のタイミングを示すデータを有するシーケンスデータであって、歌詞データと同様にリファレンス楽音データと時間同期して外部の装置を制御できるようにタイムコード(同期情報)が付されている。
<
In the embodiment, the lyrics are displayed in accordance with the progress of the music, but in addition to this, other external devices may be controlled in accordance with the progress of the music. In this case, the following configuration may be used. As shown in FIG. 5, for example, a control
そして、図6に示すように、実施形態における楽曲データ選択部101の動作に加えて、楽曲データ記憶領域14aに記憶されている制御信号データを読み出す。そして、制御信号データをデータ読出部103に読み出されるまでRAM13にバッファしておく。データ読出部103は、歌詞データを読み出すときと同様に、タイムアライメント部102から順次出力されるタイムコードと、制御信号データに付されたタイムコードとを対応させるようにして、楽曲データ選択部101がRAM13にバッファした制御信号データを読み出し、制御信号出力部19に順次出力していく。このようにすると、データ再生装置を有する映像表示装置1は、制御信号出力部に接続される外部の装置が、楽曲の進行にあわせて出力される制御信号に基づいて制御されるため、楽曲の進行にあわせて外部の装置を動作させることができる。なお、外部の装置には、照明、音響機器、ロボットなど、制御信号によって制御できるものであれば、どのようなものにも適用できる。この場合は、制御信号データは、制御したい装置にあわせたデータとしておけばよい。さらに、複数の外部の装置を同時に制御したい場合には、複数の制御信号データを用意しておき、制御信号出力部19に複数の装置を接続できるようにしておけばよい。この接続は、有線接続であってもよいし、無線接続であってもよく、信号が伝達できるものであればよい。
Then, as shown in FIG. 6, in addition to the operation of the music
<変形例4>
実施形態においては、楽曲の進行に合わせて歌詞を表示させるようにしていたが、これに加えて、ライブ演奏に別の楽音を楽曲の進行に合わせて再生するようにしてもよい。この場合は、以下のような構成とすればよい。図7に示すように、楽曲データ記憶領域14aに記憶されているリファレンス楽曲データは、リファレンス楽音データ、歌詞データに加え、MIDIデータ(第2のデータ)を有するようにする。ここで、MIDIデータには、歌詞データと同様に、リファレンス楽音データと時間同期して再生できるように時刻情報(同期情報)が付されている。
<Modification 4>
In the embodiment, the lyrics are displayed in accordance with the progress of the music. However, in addition to this, another musical sound may be reproduced in accordance with the progress of the music in the live performance. In this case, the following configuration may be used. As shown in FIG. 7, the reference music data stored in the music
そして、図8に示すように、楽曲データ選択部101は、実施形態における動作に加えて、楽曲データ記憶領域14aに記憶されているMIDIデータを読み出す。そして、MIDIデータをデータ読出部103に読み出されるまでRAM13にバッファしておく。データ読出部103は、歌詞データを読み出すときと同様に、タイムアライメント部102から順次で出力されるタイムコードと、MIDIデータに付された時刻情報とを対応させるようにして、楽曲データ選択部101がRAM13にバッファしたMIDIデータを読み出し、再生部(音源部)107に順次出力する。ここで、時刻情報がタイムコードである場合には、そのまま対応させればよいが、デュレーションなどタイムコード以外の相対時刻を表す情報である場合には、CPU11はリファレンス楽音データと時間同期して再生できるように設定されるテンポなどを参照してタイムコードを生成して対応させればよい。これにより、データ読出部103から順次出力されたMIDIデータは、読み出されるときに楽曲の進行に合わせるように読み出され再生部107に出力される。そして、再生部107は、このMIDIデータを再生してオーディオデータであるMIDI楽音データを生成し、音声合成部108へ出力する。一方、遅延部105によって遅延処理されたライブ楽音データも音声合成部108へ出力される。そして、音声合成部108は、ライブ楽音データに係るライブ演奏とMIDI楽音データに係るMIDI演奏とをミキシングした音を合成楽音データとして生成し、音声出力部18へ出力する。なお、ライブ楽音データとMIDI楽音データとをミキシングせずに別々に音声出力部18に出力するようにしてもよい。この場合は、それぞれのデータについて音声出力部18においてミキシングしてもよいし、ミキシングせず異なる放音手段から放音するようにしてもよい。ここで、再生部107は、MIDIデータを再生することができる音源部を有することによって、MIDI楽音データを生成することができる。なお、音源部によって生成されるオーディオデータの楽音の発音内容を示すシーケンスデータであれば、必ずしもMIDIデータでなくてもよい。
Then, as shown in FIG. 8, the music
また、楽曲データ記憶領域14aに記憶されているリファレンス楽曲データのMIDIデータに代えて、リファレンス楽音データと時間同期して再生できるようにタイムコード(同期情報)の付されたオーディオデータである追加楽音データ(第2のデータ)としてもよい。この場合は、以下のように処理される。まず、楽曲データ選択部101は、楽曲データ記憶領域14aに記憶されている追加楽音データを読み出す。そして、追加楽音データをデータ読出部103に読み出されるまでRAM13にバッファしておく。データ読出部103は、歌詞データを読み出すときと同様に、タイムアライメント部102から順次出力されるタイムコードと、追加楽音データに付されたタイムコードとを対応させるようにして、楽曲データ選択部101がRAM13にバッファした追加楽音データを読み出し、再生部107に順次出力する。これにより、データ読出部103から順次出力された追加楽音データは、読み出されるときに楽曲の進行に合わせるように時間軸が伸縮されて再生部107に出力される。そして、再生部107は、この時間軸が伸縮された追加楽音データを新たなオーディオデータとして、音声合成部108へ出力する。その後はMIDIデータの場合と同様に処理すればよい。このようにすれば、映像だけでなく様々な音についても、楽曲の進行にあわせて出力することができる。
Further, instead of the MIDI data of the reference music data stored in the music
<変形例5>
実施形態においては、通信部17は、有線、無線などによって、データを受信するチューナなどの通信手段であって、ライブ映像データ、ライブ楽音データ、楽曲情報データを受信していたが、図1に破線で示したように、データ入力部20を設けて、これらのデータがデータ入力部20から入力されるようにしてもよい。例えば、これらのデータが、DVD(Digital Versatile Disc)などの記録メディアに記録されたデータであれば、データ入力部は、DVDに記録されたデータを読み取れる光学ドライブであればよい。このようにしても、実施形態と同様な効果を得ることができる。
<Modification 5>
In the embodiment, the
<変形例6>
実施形態においては、遅延部105を設け、CPU11によってライブデータバッファ領域13aから読み出されたライブ映像データとライブ楽音データに、タイムアライメント部102がライブ楽音データを取得してから、データ処理部104が歌詞映像データを出力するまでの処理に必要な時間(以下、遅延時間という)の遅延処理を行って出力していた。一方、図9に示すように、タイムアライメント部102からのタイムコードの出力は、タイムコード予測部109を介してデータ読出部103に出力されるようにしてもよい。この場合は、タイムコード予測部109は、タイムアライメント部102から順次出力されるタイムコードを参照して、遅延時間後にタイムアライメント部102から出力されるタイムコードを予測する。そして、タイムコード予測部109は、予測したタイムコードをデータ読出部103に順次出力すればよい。ここで、タイムコードの予測は、タイムアライメント部102から順次出力されたタイムコードのうち、過去の所定の数のタイムコードを参照し、これらのタイムコードの示す時間軸上の位置の変化量から、遅延時間後のタイムコードを推定すればよい。なお、タイムコードの予測は、遅延時間後にタイムアライメント部102から出力されるタイムコードを予測すればよいから、上記方法に限らず、所定のアルゴリズムに基づいて行なえばよい。このようにすれば、遅延部105を用いたライブ楽音データ、ライブ演奏データの遅延をさせずに、実施形態の効果を得ることができる。
<Modification 6>
In the embodiment, a
<変形例7>
実施形態においては、タイムアライメント部102は、楽曲の進行のずれを検出する機能について、DPマッチングを用いていたが、異なった手法によって楽曲の進行のずれを検出するようにしてもよい。例えば、HMM(Hidden Markov Model:隠れマルコフモデル)を用いてもよいし、比較対象である各データから波形の特徴量(音程、音量など)を抽出して比較するようにしてもよい。すなわち、各データの比較をして、各データ間の類似する部分を対応させることができる手法であればどのような手法でもよい。このようにしても、実施形態と同様な効果を得ることができる。
<Modification 7>
In the embodiment, the
1…映像表示装置、10…バス、11…CPU、12…ROM、13…RAM、13a…ライブデータバッファ領域、14…記憶部、14a…楽曲データ記憶領域、15…表示部、16…操作部、17…通信部、18…音声出力部、19…制御信号出力部、20…データ入力部、101…楽曲データ選択部、102…タイムアライメント部、103…データ読出部、104…データ処理部、105…遅延部、106…映像合成部、107…再生部、108…音声合成部、109…タイムコード予測部
DESCRIPTION OF
Claims (13)
外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と前記第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント手段と、
前記時刻情報と前記同期情報の対応関係に基づいて、前記記憶手段から前記第1のデータを読み出すデータ読出手段と、
前記データ読出手段によって読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成手段と、
前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延手段と
を具備することを特徴とするデータ再生装置。 Storage means for storing first audio data indicating a waveform of sound and having time defined in each part of the data, and storing first data having synchronization information defining the time for each data part;
Sequentially acquires each part of the second audio data showing a waveform of a voice supplied from the outside, data each part by comparing the respective sections of each unit and the first audio data of the second audio data the acquired Time alignment means for generating time information corresponding to the time defined in the first audio data corresponding to each part of the acquired second audio data in association with each other ;
Data reading means for reading the first data from the storage means based on the correspondence between the time information and the synchronization information;
Video data generating means for generating first video data based on the first data read by the data reading means;
Data reproducing apparatus characterized by comprising a delay means that to output the second audio data to be supplied by a predetermined amount delayed from the external.
外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と前記第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント手段と、
前記時刻情報と前記同期情報の対応関係に基づいて、前記記憶手段から前記第1のデータと前記第2のデータとを読み出すデータ読出手段と、
前記データ読出手段によって読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成手段と、
前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延手段と
を具備することを特徴とするデータ再生装置。 Storage means for storing first audio data indicating a waveform of sound and having time defined in each part of the data, and storing first data and second data having synchronization information defining the time for each data part When,
Sequentially acquires each part of the second audio data showing a waveform of a voice supplied from the outside, data each part by comparing the respective sections of each unit and the first audio data of the second audio data the acquired Time alignment means for generating time information corresponding to the time defined in the first audio data corresponding to each part of the acquired second audio data in association with each other ;
Data reading means for reading out the first data and the second data from the storage means based on the correspondence between the time information and the synchronization information;
Video data generating means for generating first video data based on the first data read by the data reading means;
Data reproducing apparatus characterized by comprising a delay means that to output the second audio data to be supplied by a predetermined amount delayed from the external.
ことを特徴とする請求項2に記載のデータ再生装置。 The data reproducing apparatus according to claim 2, wherein the second data is control signal data that is sequence data for controlling an externally connected device.
ことを特徴とする請求項2に記載のデータ再生装置。 The data reproduction apparatus according to claim 2, wherein the second data is audio data.
前記第2のデータは、前記音源部によって生成されるオーディオデータに係る楽音の発音内容を示すシーケンスデータである
ことを特徴とする請求項2に記載のデータ再生装置。 A sound source unit for generating audio data based on the second data read by the data reading unit;
The data reproduction apparatus according to claim 2, wherein the second data is sequence data indicating a sound generation content of a musical sound related to audio data generated by the sound source unit.
ことを特徴とする請求項1乃至請求項5のいずれかに記載のデータ再生装置。 The data reproducing apparatus according to any one of claims 1 to 5, wherein the first data stored in the storage means is sequence data that indicates a display content of a video.
ことを特徴とする請求項1乃至請求項5のいずれかに記載のデータ再生装置。 The data reproducing apparatus according to any one of claims 1 to 5, wherein the first data stored in the storage means is data indicating a content of a video itself.
前記遅延手段は、外部から供給され、前記第2のオーディオデータと時間同期がとられた第2の映像データを前記所定量遅延させ、
前記映像合成手段は、前記遅延手段によって遅延された第2の映像データに係る映像に対して、前記映像データ生成手段によって生成された第1の映像データに係る映像をスーパーインポーズする
ことを特徴とする請求項1乃至請求項7のいずれかに記載のデータ再生装置。 A plurality of video data is input, and further comprising video composition means for superimposing a video related to other video data on a video related to one video data among the plurality of video data,
The delay means delays the predetermined amount of the second video data supplied from the outside and time-synchronized with the second audio data,
The video composition means superimposes the video related to the first video data generated by the video data generation means on the video related to the second video data delayed by the delay means. A data reproducing apparatus according to any one of claims 1 to 7.
ことを特徴とする請求項1乃至請求項8のいずれかに記載のデータ再生装置。 The delay amount in the delay unit is set as a time from when the second audio data is supplied to the time alignment unit to when the first video data is generated by the video data generation unit. The data reproducing apparatus according to claim 1.
前記第1のオーディオデータを記憶するとともに、データ各部についての時刻を規定する同期情報を有した第1のデータを記憶する前記記憶手段から、前記時刻情報と前記同期情報の対応関係に基づいて、前記第1のデータを読み出すデータ読出過程と、
前記データ読出過程において読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成過程と、
前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延過程と
を備えることを特徴とするデータ再生方法。 Each part of the second audio data indicating the waveform of the voice supplied from the outside is sequentially acquired, and each part of the acquired second audio data and the waveform of the voice stored in the storage means are timed. By comparing each part of the defined first audio data with each other , the data parts are associated with each other, and according to the time defined in the first audio data corresponding to each part of the acquired second audio data A time alignment process for generating time information;
The first stores the audio data, from the storage means for storing first data having synchronization information that defines the time for the data each part, based on the correspondence relationship of the synchronization information and the time information, A data reading process of reading the first data;
A video data generating process for generating first video data based on the first data read in the data reading process;
Data reproduction method characterized by comprising a delay process you output by a predetermined amount delaying the second audio data supplied from the outside.
前記第1のオーディオデータを記憶するとともに、データ各部についての時刻を規定する同期情報を有した第1のデータおよび第2のデータを記憶する前記記憶手段から、前記時刻情報と前記同期情報の対応関係に基づいて、前記第1のデータと前記第2のデータとを読み出すデータ読出過程と、
前記データ読出過程において読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成過程と、
前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延過程と
を備えることを特徴とするデータ再生方法。 Each part of the second audio data indicating the waveform of the voice supplied from the outside is sequentially acquired, and each part of the acquired second audio data and the waveform of the voice stored in the storage means are timed. By comparing each part of the defined first audio data with each other , the data parts are associated with each other, and according to the time defined in the first audio data corresponding to each part of the acquired second audio data A time alignment process for generating time information;
Stores the first audio data, from the storage means for storing first data and second data having a synchronization information that defines the time for the data each part corresponding the time information and the synchronization information A data read process for reading the first data and the second data based on a relationship;
A video data generating process for generating first video data based on the first data read in the data reading process;
Delay process and you outputting second audio data supplied from the outside by a predetermined amount delay
Data reproducing method comprising: a.
前記記憶手段に、音声の波形を示しデータ各部に時刻が規定された第1のオーディオデータを記憶させるとともに、データ各部についての時刻を規定する同期情報を有した第1のデータを記憶させる記憶機能と、
外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と前記第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント機能と、
前記時刻情報と前記同期情報の対応関係に基づいて、前記記憶手段から前記第1のデータを読み出すデータ読出機能と、
前記データ読出機能によって読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成機能と、
前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延機能と
を実現させるためのプログラム。 In a computer having storage means,
A storage function for storing the first audio data indicating the waveform of the sound and specifying the time in each part of the data in the storage means, and storing the first data having the synchronization information specifying the time for each part of the data When,
Sequentially acquires each part of the second audio data showing a waveform of a voice supplied from the outside, data each part by comparing the respective sections of each unit and the first audio data of the second audio data the acquired A time alignment function for generating time information according to the time defined in the first audio data corresponding to each part of the acquired second audio data in association with each other ;
A data read function for reading the first data from the storage means based on the correspondence between the time information and the synchronization information;
A video data generation function for generating first video data based on the first data read by the data read function;
Program for realizing a you output delay function by a predetermined amount delaying the second audio data supplied from the outside.
前記記憶手段に、音声の波形を示しデータ各部に時刻が規定された第1のオーディオデータを記憶させるとともに、データ各部についての時刻を規定する同期情報を有した第1のデータおよび第2のデータを記憶させる記憶機能と、
外部から供給される音声の波形を示す第2のオーディオデータの各部を順次取得し、当該取得した第2のオーディオデータの各部と前記第1のオーディオデータの各部とを比較することによりデータ各部を対応付けて、当該取得した第2のオーディオデータの各部に対応する前記第1のオーディオデータに規定された時刻に応じた時刻情報を生成するタイムアライメント機能と、
前記時刻情報と前記同期情報の対応関係に基づいて、前記記憶手段から前記第1のデータと前記第2のデータとを読み出すデータ読出機能と、
前記データ読出機能によって読み出された第1のデータに基づいて第1の映像データを生成する映像データ生成機能と、
前記外部から供給される第2のオーディオデータを所定量遅延させて出力する遅延機能と
を実現させるためのプログラム。 In a computer having storage means,
The storage means stores first audio data indicating a waveform of a voice and defining a time in each data part, and first data and second data having synchronization information defining a time for each data part A memory function for storing
Sequentially acquires each part of the second audio data showing a waveform of a voice supplied from the outside, data each part by comparing the respective sections of each unit and the first audio data of the second audio data the acquired A time alignment function for generating time information according to the time defined in the first audio data corresponding to each part of the acquired second audio data in association with each other ;
A data read function for reading out the first data and the second data from the storage means based on the correspondence between the time information and the synchronization information;
A video data generation function for generating first video data based on the first data read by the data read function;
Program for realizing a you output delay function by a predetermined amount delaying the second audio data supplied from the outside.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007031062A JP4595947B2 (en) | 2007-02-09 | 2007-02-09 | Data reproducing apparatus, data reproducing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007031062A JP4595947B2 (en) | 2007-02-09 | 2007-02-09 | Data reproducing apparatus, data reproducing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008197268A JP2008197268A (en) | 2008-08-28 |
JP4595947B2 true JP4595947B2 (en) | 2010-12-08 |
Family
ID=39756288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007031062A Expired - Fee Related JP4595947B2 (en) | 2007-02-09 | 2007-02-09 | Data reproducing apparatus, data reproducing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4595947B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5151245B2 (en) * | 2007-05-16 | 2013-02-27 | ヤマハ株式会社 | Data reproducing apparatus, data reproducing method and program |
JP5672960B2 (en) * | 2010-10-28 | 2015-02-18 | ヤマハ株式会社 | Sound processor |
JP6296221B2 (en) * | 2013-08-12 | 2018-03-20 | ヤマハ株式会社 | Acoustic signal alignment apparatus, alignment method, and computer program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000156049A (en) * | 1998-11-20 | 2000-06-06 | Yamaha Corp | Audio medium and medium reproducing device |
JP2001117582A (en) * | 1999-10-21 | 2001-04-27 | Yamaha Corp | Voice processor and karaoke device |
JP2001175267A (en) * | 1999-12-20 | 2001-06-29 | Sony Corp | System and method for authoring display lyrics, recording medium with display lyrics authoring program recorded thereon and automatic lyrics display system |
JP2002215143A (en) * | 2001-01-18 | 2002-07-31 | Yamaha Corp | Music data outputting device and music data outputting method |
JP2002278571A (en) * | 2001-03-16 | 2002-09-27 | Denon Ltd | Disk playback device |
JP2006195385A (en) * | 2005-01-17 | 2006-07-27 | Matsushita Electric Ind Co Ltd | Device and program for music reproduction |
JP2007033851A (en) * | 2005-07-27 | 2007-02-08 | Sony Corp | Beat extraction device and method, music synchronized image display device and method, tempo value detecting device and method, rhythm tracking device and method, and music synchronized display device and method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149242A (en) * | 1992-11-02 | 1994-05-27 | Matsushita Electric Ind Co Ltd | Automatic playing device |
JP3516406B2 (en) * | 1992-12-25 | 2004-04-05 | 株式会社リコス | Karaoke authoring device |
JPH1124674A (en) * | 1997-06-27 | 1999-01-29 | Ricoh Co Ltd | Information processing device |
-
2007
- 2007-02-09 JP JP2007031062A patent/JP4595947B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000156049A (en) * | 1998-11-20 | 2000-06-06 | Yamaha Corp | Audio medium and medium reproducing device |
JP2001117582A (en) * | 1999-10-21 | 2001-04-27 | Yamaha Corp | Voice processor and karaoke device |
JP2001175267A (en) * | 1999-12-20 | 2001-06-29 | Sony Corp | System and method for authoring display lyrics, recording medium with display lyrics authoring program recorded thereon and automatic lyrics display system |
JP2002215143A (en) * | 2001-01-18 | 2002-07-31 | Yamaha Corp | Music data outputting device and music data outputting method |
JP2002278571A (en) * | 2001-03-16 | 2002-09-27 | Denon Ltd | Disk playback device |
JP2006195385A (en) * | 2005-01-17 | 2006-07-27 | Matsushita Electric Ind Co Ltd | Device and program for music reproduction |
JP2007033851A (en) * | 2005-07-27 | 2007-02-08 | Sony Corp | Beat extraction device and method, music synchronized image display device and method, tempo value detecting device and method, rhythm tracking device and method, and music synchronized display device and method |
Also Published As
Publication number | Publication date |
---|---|
JP2008197268A (en) | 2008-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4124247B2 (en) | Music practice support device, control method and program | |
JP5151245B2 (en) | Data reproducing apparatus, data reproducing method and program | |
JP2006195385A (en) | Device and program for music reproduction | |
TW201329957A (en) | Display control apparatus and method | |
JP4458096B2 (en) | Data reproducing apparatus, data reproducing method and program | |
KR101944365B1 (en) | Method and apparatus for generating synchronization of content, and interface module thereof | |
JP4595947B2 (en) | Data reproducing apparatus, data reproducing method and program | |
JP2004205817A (en) | Karaoke apparatus | |
JP4595948B2 (en) | Data reproducing apparatus, data reproducing method and program | |
JP5012263B2 (en) | Performance clock generating device, data reproducing device, performance clock generating method, data reproducing method and program | |
JP2007233077A (en) | Evaluation device, control method, and program | |
JP5092589B2 (en) | Performance clock generating device, data reproducing device, performance clock generating method, data reproducing method and program | |
JP2009169103A (en) | Practice support device | |
JP4470947B2 (en) | Data reproducing apparatus, data reproducing method and program | |
JP2008145977A (en) | Content reproducing device | |
JP4506750B2 (en) | Content playback device | |
JP2008197272A (en) | Data reproducer, data reproducing method and program | |
JP4561735B2 (en) | Content reproduction apparatus and content synchronous reproduction system | |
JP6657866B2 (en) | Sound effect imparting device and sound effect imparting program | |
JP2008244888A (en) | Communication device, communication method, and program | |
JP4506748B2 (en) | Content playback device | |
JP4539647B2 (en) | Content playback device | |
JP4182898B2 (en) | Karaoke equipment | |
JP2009244790A (en) | Karaoke system with singing teaching function | |
JP2008244890A (en) | Communication device, communication method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091020 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100824 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100906 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131001 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |