JP2001312288A - Music data processor - Google Patents

Music data processor

Info

Publication number
JP2001312288A
JP2001312288A JP2000129242A JP2000129242A JP2001312288A JP 2001312288 A JP2001312288 A JP 2001312288A JP 2000129242 A JP2000129242 A JP 2000129242A JP 2000129242 A JP2000129242 A JP 2000129242A JP 2001312288 A JP2001312288 A JP 2001312288A
Authority
JP
Japan
Prior art keywords
music data
character information
information
lyrics
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000129242A
Other languages
Japanese (ja)
Inventor
Shinichi Nakaishi
信一 中石
Tatsuya Yamaguchi
達也 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2000129242A priority Critical patent/JP2001312288A/en
Publication of JP2001312288A publication Critical patent/JP2001312288A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a music data processor which can display the text of a music recorded on a recording medium even when the recording medium having no character information on the text is used and easily makes KARAOKE singing possible with any recording medium. SOLUTION: This processor is equipped with a 1st readout part 2 which constitutes a shock proof means for intermittently reading music data out of a recording medium 100 at a speed faster than an ordinary read speed for reproduction when the music data are read out of the recording medium 100 and reproduced, a 1st DSP 6 including a voice recognizing means which recognizes the voice of vocal information included in the music data read out of the 1st readout part 2 and recognizes character information, and a 1st display 11 and a 1st speaker 13 which output the character information recognized by the voice recognizing means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は音楽データ処理装置
に関し、より詳細には、音楽データが記録されている記
録媒体から音楽データを読み取って再生する車載用又は
ホーム用(業務用を含む)のカラオケ装置や音響装置と
して利用される音楽データ処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a music data processing apparatus, and more particularly, to an in-vehicle or home (including business use) apparatus for reading and reproducing music data from a recording medium on which the music data is recorded. The present invention relates to a music data processing device used as a karaoke device or a sound device.

【0002】[0002]

【従来の技術】従来の音楽データ処理装置の一つとして
知られているカラオケ装置は、音楽データを記憶させて
おく記録媒体として、コンパクト・ディスク−グラフィ
ックス(CD−G)、レーザー・ディスク(登録商標)
(LD)、デー・ブイ・デー(DVD)のような記憶容
量の大きい記録媒体を使用するように構成されている。
そして、記録媒体から音楽データを読み取って再生する
際に、この記録媒体に予め音楽データとして記録されて
いる歌詞に関する文字情報を読み出すことによって、音
楽データの再生とともに歌詞(文字情報)を画面表示す
るようになっている。また、従来の別の音楽データ処理
装置として知られている音響装置は、音楽データを記憶
させておく記録媒体として、コンパクト・ディスク(C
D)やミニディスク(MD)等の記録媒体を使用し、該
記録媒体から音楽データを読み取って再生するように構
成されている。
2. Description of the Related Art A karaoke apparatus known as one of conventional music data processing apparatuses includes a compact disk-graphics (CD-G), a laser disk ( Registered trademark)
(LD), and a recording medium with a large storage capacity such as DV (DVD).
When the music data is read from the recording medium and reproduced, the character information relating to the lyrics recorded in advance in the recording medium as the music data is read, whereby the lyrics (character information) are displayed on the screen together with the reproduction of the music data. It has become. Another conventional audio device known as a music data processing device is a compact disk (C) as a recording medium for storing music data.
D) or a recording medium such as a mini-disc (MD) is used, and music data is read from the recording medium and reproduced.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記し
たように従来のカラオケ装置では、記録媒体から再生し
ようとしている音楽データに対応する歌詞情報を読み出
して画面表示する構成であるため、予め記録媒体に歌詞
情報(文字情報)を記録させておくことが必要であり、
前記記録媒体に記録させておくべきデータ量が必然的に
多くなってしまう。歌詞情報を予め記録媒体に記録して
おくことは、DVDのような記憶容量の大きい記録媒体
では然程問題にはならないが、DVDと比較すると記憶
容量がかなり小さいCDやMD等の記録媒体では、記録
媒体に歌詞情報を予め記録させておくことは、記録でき
る曲数を減少させることにつながるため好ましくない。
However, as described above, in the conventional karaoke apparatus, the lyrics information corresponding to the music data to be reproduced is read out from the recording medium and is displayed on the screen. It is necessary to record lyrics information (character information),
The amount of data to be recorded on the recording medium inevitably increases. Recording the lyrics information on a recording medium in advance does not pose a significant problem in a recording medium having a large storage capacity such as a DVD, but in a recording medium such as a CD or MD which has a considerably small storage capacity as compared with a DVD. Recording lyrics information in advance on a recording medium is not preferable because it leads to a decrease in the number of recordable songs.

【0004】従って、従来のカラオケ装置は、音楽デー
タを記録した記録媒体として最も普及しているCDや、
急速に普及しつつあるMDを使用することはできても、
これらに記録されている曲の歌詞(文字情報)を表示で
きないものとなっている。よって、ボーカル情報を含む
音楽データ(ボーカル入りの曲)に加えて、この曲のカ
ラオケ用の音楽データが記録されているものが多いシン
グル版のCDを、カラオケ用の記録媒体として有効に活
用することができないのが現状である。また、CDやM
D等の記録媒体を使用する従来の音響装置には、同様の
理由により、記録媒体から読み取って再生する音楽デー
タの歌詞(文字情報)を画面表示できるものが現在のと
ころ存在していない。
[0004] Therefore, the conventional karaoke apparatus is most widely used as a recording medium on which music data is recorded, such as a CD,
Even if you can use MD that is spreading rapidly,
The lyrics (character information) of the music recorded in these cannot be displayed. Therefore, in addition to music data including vocal information (songs with vocals), a single-version CD that often records karaoke music data of this song is effectively used as a karaoke recording medium. It is not possible at present. CD and M
For the same reason, there is currently no conventional audio device that uses a recording medium such as D that can display lyrics (character information) of music data read from the recording medium and reproduced on the screen.

【0005】本発明は上記課題に鑑みなされたものであ
って、曲の歌詞(文字情報)を記録していないCDやM
D等の記録媒体を使用する場合にも、記録媒体に記録さ
れている曲の歌詞を出力させることができ、どのような
記録媒体であっても簡単にカラオケを楽しむことができ
る音楽データ処理装置を提供することを目的としてい
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has been made in consideration of the above-described problems.
A music data processing device that can output lyrics of a song recorded on a recording medium even when a recording medium such as D is used, and can easily enjoy karaoke on any recording medium. It is intended to provide.

【0006】[0006]

【課題を解決するための手段及びその効果】上記課題を
解決するために、本発明に係る音楽データ処理装置
(1)は、音楽デ−タを記録した記録媒体から前記音楽
データを読み取って再生する音楽データ処理装置におい
て、前記音楽データを再生する際に、再生のための通常
の読み取り速度よりも高速で間欠的に前記記録媒体から
前記音楽データを読み取るショックプルーフ手段と、該
ショックプルーフ手段により読み取られた音楽データに
含まれているボーカル情報を音声認識して文字情報を取
得する音声認識手段と、該音声認識手段により取得され
た前記文字情報を出力する第1の出力手段とを備えてい
ることを特徴としている。
In order to solve the above problems, a music data processing apparatus (1) according to the present invention reads and reproduces music data from a recording medium on which music data is recorded. A music proofing means for reading the music data from the recording medium intermittently at a higher speed than a normal reading speed for reproduction when reproducing the music data; A voice recognition unit configured to perform voice recognition of vocal information included in the read music data to obtain character information; and a first output unit configured to output the character information obtained by the voice recognition unit. It is characterized by having.

【0007】上記した音楽データ処理装置(1)によれ
ば、前記ショックプルーフ手段によって記録媒体から読
み取られた音楽データに含まれているボーカル情報が、
前記音声認識手段により音声認識されて文字情報に変換
され、再生する音楽データの歌詞(文字情報)として前
記第1の出力手段に出力(画面表示及び/又は音声出
力)されるので、前記記録媒体が、音楽データの歌詞
(文字情報)が記録されていない例えばCDやMDであ
っても、音楽データの再生とともに歌詞を出力させるこ
とができることとなる。よって、記録媒体の種類や記録
内容等に依らず歌詞(文字情報)の出力が可能になるた
め、どのような記録媒体を使用する場合にも、簡単に歌
詞の確認やカラオケを楽しむことができる。
According to the above music data processing apparatus (1), the vocal information contained in the music data read from the recording medium by the shock proof means is
The voice is recognized by the voice recognition means, converted into character information, and output (screen display and / or voice output) to the first output means as lyrics (character information) of music data to be reproduced. However, even if the lyrics (character information) of the music data are not recorded, for example, a CD or MD, the lyrics can be output together with the reproduction of the music data. Therefore, it is possible to output lyrics (character information) irrespective of the type of the recording medium, the recorded contents, and the like, so that the user can easily check the lyrics and enjoy karaoke regardless of the recording medium used. .

【0008】また、上記音楽データ処理装置(1)によ
れば、前記ショックプルーフ手段が、再生する音楽デー
タを、再生のための通常の読み取り速度よりも高速で間
欠的に前記記録媒体から読み取っており、再生する音楽
データの全データ(一曲)を一気に読み取らないため、
この読み取りを短時間で行うことができ、かつ音楽デー
タの再生に歌詞出力のタイミングを容易に合わせること
ができることとなる。よって、音楽データの再生開始時
に音出しが遅れる等の不具合を生じさせることがなく、
また音楽データの再生にタイミングを的確に合わせて歌
詞を出力させることができる音楽データ処理装置を実現
することができる。
According to the music data processing device (1), the shock proof means intermittently reads the music data to be reproduced from the recording medium at a speed higher than a normal reading speed for reproduction. Since all data (one song) of the music data to be played is not read at a stretch,
This reading can be performed in a short time, and the timing of outputting the lyrics can be easily adjusted to the reproduction of the music data. Therefore, at the time of starting the reproduction of the music data, there is no problem such as a delay in sound output.
In addition, it is possible to realize a music data processing device capable of outputting lyrics in time with the timing of reproducing music data.

【0009】また、本発明に係る音楽データ処理装置
(2)は、上記音楽データ処理装置(1)において、ボ
ーカル情報及び伴奏情報を含む第1の音楽データを再生
する場合に、再生のための通常の読み取り速度よりも高
速で間欠的に前記記録媒体から前記第1の音楽データを
読み取る第1の先読み手段を含むものであることを特徴
としている。
Further, the music data processing apparatus (2) according to the present invention provides a music data processing apparatus (1) for reproducing first music data including vocal information and accompaniment information in the music data processing apparatus (1). It is characterized by including a first pre-reading means for intermittently reading the first music data from the recording medium at a higher speed than a normal reading speed.

【0010】上記した音楽データ処理装置(2)によれ
ば、ボーカル情報及び伴奏情報を含む第1の音楽データ
の再生に際し、この第1の音楽データを前記記録媒体か
ら読み取る第1の先読み手段を含んで構成されているた
め、記録媒体が例えばCDやMDであっても、第1の音
楽データの再生とともに歌詞を出力させることが可能と
なる。また、前記ショックプルーフ手段による音楽デー
タの読み取りに要する時間が極めて短くて済むことにな
る。
According to the music data processing device (2), when the first music data including the vocal information and the accompaniment information is reproduced, the first prefetch means for reading the first music data from the recording medium is used. Because of the configuration, even if the recording medium is, for example, a CD or an MD, it is possible to output the lyrics together with the reproduction of the first music data. Further, the time required for reading the music data by the shock proof means is extremely short.

【0011】また、本発明に係る音楽データ処理装置
(3)は、上記音楽データ処理装置(2)において、前
記ショックプルーフ手段と前記音声認識手段との間に、
前記第1の先読み手段により読み取られた第1の音楽デ
ータに含まれているボーカル情報の周波数帯域の情報の
みを抽出するフィルタ手段が介装されていることを特徴
としている。
[0011] The music data processing device (3) according to the present invention, in the music data processing device (2), further comprises:
It is characterized in that a filter means for extracting only information of the frequency band of the vocal information included in the first music data read by the first look-ahead means is provided.

【0012】上記した音楽データ処理装置(3)によれ
ば、前記フィルタ手段により前記第1の音楽データから
取り出された前記ボーカル情報の周波数帯域の情報が、
前記音声認識手段により音声認識されて文字情報に変換
されるので、前記第1の音楽データに含まれた曲の歌詞
が誤って音声認識されるといった事態の発生を回避する
ことができ、前記第1の音楽データに含まれた曲の正確
な歌詞を高い確率で得ることができる。また、前記フィ
ルタ手段を利用し、あるいは該フィルタ手段で得た前記
ボーカル情報の周波数帯域の情報を前記第1の音楽デー
タから差し引くことによって、音楽データに含まれた曲
のカラオケ用の曲を作成することもできる。
[0012] According to the music data processing device (3), the information of the frequency band of the vocal information extracted from the first music data by the filter means is:
Since the voice is recognized by the voice recognition means and converted into character information, it is possible to avoid occurrence of a situation in which the lyrics of the song included in the first music data are erroneously recognized as voice. Accurate lyrics of a song included in one music data can be obtained with high probability. Also, by using the filter means or by subtracting information on the frequency band of the vocal information obtained by the filter means from the first music data, a karaoke song included in the music data is created. You can also.

【0013】また、本発明に係る音楽データ処理装置
(4)は、上記音楽データ処理装置(1)〜(3)のい
ずれかにおいて、前記記録媒体が音楽データとして、ボ
ーカル情報及び伴奏情報を含む第1の音楽データと、該
第1の音楽データに関する伴奏情報のみを含む第2の音
楽データ(カラオケ用の曲)とを記録したものである場
合において、前記第1の音楽データ又は前記第2の音楽
データを再生する際に、前記ショックプルーフ手段が前
記第2の音楽データを再生のための通常の読み取り速度
よりも高速で間欠的に前記記録媒体より読み取る第2の
先読み手段を含んで構成され、前記ショックプルーフ手
段と前記音声認識手段との間に、前記第1の先読み手段
により読み取られた第1の音楽データと、前記第2の先
読み手段により読み取られた第2の音楽データとの差を
求めて前記第1の音楽データに含まれているボーカル情
報のみを抽出するボーカル情報抽出手段が介装されてい
ることを特徴としている。
In the music data processing device (4) according to the present invention, in any one of the music data processing devices (1) to (3), the recording medium includes vocal information and accompaniment information as music data. In a case where the first music data and the second music data (song for karaoke) including only the accompaniment information related to the first music data are recorded, the first music data or the second music data is recorded. And a second read-ahead means for intermittently reading the second music data from the recording medium at a higher speed than a normal reading speed for reproduction when reproducing the music data. The first music data read by the first look-ahead means and the second music data read by the second look-ahead means are provided between the shock proof means and the voice recognition means. Vocal information extracting means for obtaining a difference between the second musical data to extract only the vocal information contained in the first musical data is characterized in that it is interposed which was.

【0014】上記した音楽データ処理装置(4)によれ
ば、前記ボーカル情報抽出手段により、前記第1の先読
み手段により読み取られた第1の音楽データと前記第2
の先読み手段により読み取られた第2の音楽データとの
差から抽出された前記ボーカル情報が、前記音声認識手
段により音声認識されて文字情報に変換されるので、再
生する音楽データに含まれた曲の歌詞が誤って音声認識
されるといった事態の発生を確実に回避することがで
き、正確な歌詞を取得する確率をさらに高めることがで
きる。
According to the music data processing device (4), the first music data read by the first look-ahead means and the second music data are read by the vocal information extracting means.
The vocal information extracted from the difference from the second music data read by the look-ahead means is recognized by the voice recognition means and converted into character information. It is possible to reliably avoid the occurrence of a situation in which the lyrics of the lyrics are incorrectly recognized by speech, and it is possible to further increase the probability of obtaining accurate lyrics.

【0015】また、本発明に係る音楽データ処理装置
(5)は、上記音楽データ処理装置(1)〜(4)のい
ずれかにおいて、前記記録媒体が前記第1の音楽データ
と、該第1の音楽データに含まれた曲の文字情報とを記
録したものである場合において、前記第1の音楽データ
の再生に際し、該第1の音楽データに対応する曲の文字
情報を前記記録媒体から読み取る第1の読み取り手段
と、前記記録媒体の種類又は該記録媒体における記録内
容に応じて、再生する音楽データに含まれた曲の文字情
報を取得するための手段を選択する選択手段とを備え、
前記第1の出力手段が、前記第1の読み取り手段が読み
取った文字情報を出力する第1の出力部を含むものであ
ることを特徴としている。
Further, in the music data processing device (5) according to the present invention, in any one of the music data processing devices (1) to (4), the recording medium may include the first music data and the first music data. When the first music data is reproduced, the character information of the music corresponding to the first music data is read from the recording medium. A first reading unit, and a selecting unit that selects a unit for acquiring character information of a song included in music data to be reproduced according to a type of the recording medium or a content recorded on the recording medium,
The first output unit includes a first output unit that outputs the character information read by the first reading unit.

【0016】上記した音楽データ処理装置(5)によれ
ば、前記選択手段によって、記録媒体の種類又は該記録
媒体における記録内容に応じ、前記音楽データに含まれ
た曲の歌詞(文字情報)を取得するための最適な手段
を、例えば前記音声認識手段のみ、前記フィルタ手段と
前記音声認識手段との組み合わせ、前記ボーカル情報抽
出手段と前記音声認識手段との組み合わせ、前記第1の
読み取り手段の中から自動的に選択することができる。
このため、記録媒体の種類や記録内容にかかわらず、音
楽データに含まれた曲の正確な歌詞が出力される確率が
高い方法で歌詞(文字情報)を得ることができる。
According to the music data processing device (5), the selecting means converts the lyrics (character information) of the music included in the music data according to the type of the recording medium or the content recorded on the recording medium. The optimal means for obtaining, for example, only the voice recognition means, the combination of the filter means and the voice recognition means, the combination of the vocal information extraction means and the voice recognition means, the first reading means Can be selected automatically.
Therefore, regardless of the type of the recording medium or the recorded content, lyrics (character information) can be obtained by a method that has a high probability of outputting accurate lyrics of the music included in the music data.

【0017】また、本発明に係る音楽データ処理装置
(6)は、上記音楽データ処理装置(1)〜(5)のい
ずれかにおいて、前記音声認識手段により認識された文
字情報を記憶する記憶手段と、該記憶手段に記憶されて
いる文字情報を読み取る第2の読み取り手段と、該第2
の読み取り手段により読み取られた文字情報を、ユーザ
の指示に従い修正する文字情報修正手段と、該文字情報
修正手段により修正された文字情報を前記記憶手段に記
憶させる記憶制御手段とを備え、前記第1の出力手段
が、前記第2の読み取り手段により前記記憶手段から読
み取られた文字情報を出力する第2の出力部を含むもの
であることを特徴としている。
Further, the music data processing device (6) according to the present invention is characterized in that in any one of the music data processing devices (1) to (5), the storage means for storing the character information recognized by the voice recognition means. Second reading means for reading character information stored in the storage means;
A character information correction unit that corrects the character information read by the reading unit according to a user's instruction; and a storage control unit that stores the character information corrected by the character information correction unit in the storage unit. The first output unit includes a second output unit that outputs the character information read from the storage unit by the second reading unit.

【0018】上記した音楽データ処理装置(6)によれ
ば、前記文字情報修正手段、前記記憶手段及び前記記憶
制御手段により、前記音声認識手段により認識された文
字情報をユーザが修正して記憶保存させることができる
ので、たとえ音楽データを初めて再生したときに前記音
声認識手段が誤った歌詞(文字情報)を認識しても、ユ
ーザが正しい歌詞に修正することができる。そして、前
記第2の読み取り手段及び前記第2の出力部によって、
その修正された文字情報に基づいた正確な歌詞を、短時
間で出力させることができる。また、ユーザが文字情報
を自由に替えられることにより、ユーザ自身が作成した
歌詞による替え歌を楽しむこともできる。
According to the music data processing device (6), the character information recognized by the voice recognizing means is corrected and stored by the user by the character information correcting means, the storage means and the storage control means. Therefore, even if the voice recognition unit recognizes an incorrect lyrics (character information) when the music data is reproduced for the first time, the user can correct the lyrics to correct lyrics. And, by the second reading means and the second output unit,
Accurate lyrics based on the corrected character information can be output in a short time. In addition, since the user can freely change the character information, the user can enjoy a replacement song based on lyrics created by the user.

【0019】また、本発明に係る音楽データ処理装置
(7)は、上記音楽データ処理装置(6)において、音
楽データを再生する際に、前記記憶手段に記憶されてい
る文字情報を利用するか否かのユーザによる選択を可能
にする文字情報選択設定手段を備え、前記記憶手段に記
憶されている文字情報を利用する選択が前記文字情報選
択設定手段を介してユーザによりなされた場合に、前記
第2の読み取り手段が前記記憶手段から文字情報を読み
取るものであることを特徴としている。
In the music data processing device (7) according to the present invention, the music data processing device (6) uses the character information stored in the storage means when reproducing the music data. Character information selection setting means for allowing the user to select whether or not, when the selection using the character information stored in the storage means is made by the user via the character information selection setting means, The second reading means reads character information from the storage means.

【0020】上記した音楽データ処理装置(7)によれ
ば、前記文字情報選択設定手段によって、前記記憶手段
に文字情報が記憶されている音楽データを再生する際に
は、前記記憶手段に記憶されている文字情報に基づく歌
詞を出力させるか否かをユーザが自由に選択することが
できる。よって、常にユーザが出力させたい歌詞を出力
できてユーザを満足させる音楽データ処理装置を実現す
ることができる。
According to the music data processing device (7), when the music data whose character information is stored in the storage means is reproduced by the character information selection and setting means, the music data is stored in the storage means. The user can freely select whether or not to output the lyrics based on the character information. Therefore, it is possible to realize a music data processing device that can always output the lyrics that the user wants to output and that satisfies the user.

【0021】また、本発明に係る音楽データ処理装置
(8)は、上記音楽データ処理装置(1)〜(7)のい
ずれかにおいて、前記第1の出力手段が、前記文字情報
を画面表示する画面表示手段を含むものであることを特
徴としている。
Further, in the music data processing device (8) according to the present invention, in any one of the music data processing devices (1) to (7), the first output means displays the character information on a screen. It is characterized by including screen display means.

【0022】上記した音楽データ処理装置(8)によれ
ば、前記画面表示手段によって、再生する音楽データに
含まれた曲の歌詞を画面表示させることができるので、
どのような記録媒体を使用する場合にも、簡単に歌詞を
画面で確認してカラオケを楽しむことができる。
According to the music data processing apparatus (8), the lyrics of the song included in the music data to be reproduced can be displayed on the screen by the screen display means.
Regardless of the type of recording medium used, the user can easily check the lyrics on the screen and enjoy karaoke.

【0023】また、本発明に係る音楽データ処理装置
(9)は、上記音楽データ処理装置(1)〜(8)のい
ずれかにおいて、前記音声認識手段により認識された文
字情報に基づいて、前記音楽データに含まれた曲の歌詞
を音声合成する第1の音声合成部を含む音声合成手段を
備え、前記第1の出力手段が、前記第1の音声合成部に
より音声合成された歌詞の音声合成情報を音声出力する
第1の音声出力手段を含むものであることを特徴として
いる。
Further, the music data processing device (9) according to the present invention, based on any of the above-mentioned music data processing devices (1) to (8), based on the character information recognized by the voice recognition means. A voice synthesizer including a first voice synthesizer for voice-synthesizing the lyrics of the song included in the music data, wherein the first output means outputs the voice of the lyrics synthesized by the first voice synthesizer; It is characterized in that it includes first audio output means for outputting synthesized information as audio.

【0024】上記した音楽データ処理装置(9)によれ
ば、前記第1の音声合成部及び前記第1の音声出力手段
によって、前記音声認識手段により認識された文字情報
に基づく歌詞を音声出力させることができるので、たと
え歌詞が表示された画面をユーザが視認できない状況に
あっても、ユーザが歌詞の確認を音声で行うことができ
る。このため、ユーザの状況に関係なくカラオケ等を楽
むことができる音楽データ処理装置を提供することがで
きる。
According to the music data processing device (9), the first speech synthesizer and the first speech output means cause the lyrics based on the character information recognized by the speech recognition means to be outputted as speech. Therefore, even if the user cannot visually recognize the screen on which the lyrics are displayed, the user can check the lyrics by voice. Therefore, it is possible to provide a music data processing device capable of enjoying karaoke and the like regardless of the situation of the user.

【0025】また、本発明に係る音楽データ処理装置
(10)は、上記音楽データ処理装置(9)において、
前記記録媒体が音楽データとして、ボーカル情報及び伴
奏情報を含む第1の音楽データと、該第1の音楽データ
に関する曲の文字情報とを記録したものである場合にお
いて、前記第1の音楽データの再生に際し、該第1の音
楽データに対応する歌詞の文字情報を前記記録媒体から
読み取る第1の読み取り手段を備え、前記音声合成手段
が、前記第1の読み取り手段により読み取られた文字情
報に基づいて、再生する音楽データに関する曲の歌詞を
音声合成する第2の音声合成部を含み、前記第1の出力
手段が、前記第2の音声合成部により音声合成された歌
詞の音声合成情報を音声出力する第2の音声出力手段を
含むものであることを特徴としている。
The music data processing device (10) according to the present invention is the music data processing device (9)
In the case where the recording medium records, as music data, first music data including vocal information and accompaniment information, and character information of a song related to the first music data, A first reading unit that reads character information of lyrics corresponding to the first music data from the recording medium during reproduction, wherein the voice synthesizing unit is configured to perform processing based on the character information read by the first reading unit; A second speech synthesizer for speech-synthesizing the lyrics of a song relating to the music data to be reproduced, wherein the first output means outputs speech synthesis information of the lyrics speech-synthesized by the second speech synthesizer. It is characterized by including second audio output means for outputting.

【0026】上記した音楽データ処理装置(10)によ
れば、予め記録媒体に歌詞(文字情報)が記録されてい
る曲の前記第1の音楽データを再生する際にも、前記第
1の読み取り手段、前記第2の音声合成部及び第2の音
声出力手段によって、この第1の音楽データに関する曲
の歌詞を音声出力させることができる。従って、記録媒
体の種類や記録媒体の記録内容にかかわらず、再生する
音楽データに関する曲の歌詞を音声出力させることが可
能になる。
According to the music data processing apparatus (10), the first reading is performed even when reproducing the first music data of a song in which lyrics (character information) are previously recorded on a recording medium. Means, the second speech synthesizer and the second speech output means can output the lyrics of the song relating to the first music data as speech. Therefore, irrespective of the type of the recording medium and the recorded content of the recording medium, it is possible to output the lyrics of the music related to the music data to be reproduced.

【0027】また、本発明に係る音楽データ処理装置
(11)は、上記音楽データ処理装置(9)又は(1
0)において、前記音声認識手段により認識された文字
情報を記憶する記憶手段と、該記憶手段に記憶されてい
る文字情報を読み取る第2の読み取り手段と、該第2の
読み取り手段により読み取られた文字情報を、ユーザの
指示に従い修正する文字情報修正手段と、該文字情報修
正手段により修正された文字情報を前記記憶手段に記憶
させる記憶制御手段とを備え、前記音声合成手段が、前
記第2の読み取り手段により読み取られた文字情報に基
づいて、再生する音楽データに含まれた曲の歌詞を音声
合成する第3の音声合成部を含むものであり、前記第1
の出力手段が、前記第3の音声合成部により音声合成さ
れた歌詞の音声合成情報を音声出力する第3の音声出力
手段を含むものであることを特徴としている。
Further, the music data processing device (11) according to the present invention comprises the music data processing device (9) or (1).
In 0), storage means for storing the character information recognized by the voice recognition means, second reading means for reading the character information stored in the storage means, and the character information read by the second reading means. Character information correction means for correcting character information in accordance with a user's instruction; and storage control means for storing the character information corrected by the character information correction means in the storage means. And a third voice synthesizer for voice-synthesizing the lyrics of the song included in the music data to be reproduced, based on the character information read by the reading means.
Is characterized by including third voice output means for voice-outputting voice synthesis information of lyrics synthesized by the third voice synthesizer.

【0028】上記した音楽データ処理装置(11)によ
れば、前記文字情報修正手段、前記記憶手段及び前記記
憶制御手段によって、ユーザが前記音声認識手段により
認識された文字情報を修正して前記記憶手段に記憶させ
ておくことができるため、たとえ音楽データの最初の再
生時に前記音声認識手段で誤った歌詞(文字情報)が認
識されても、ユーザが正しい歌詞に修正することができ
る。また、前記第2の読み取り手段、前記第3の音声合
成部及び前記第3の音声出力手段によって、前記記憶手
段に修正された文字情報が記憶されている曲に関する音
楽データを再び再生する際に、その修正された文字情報
に基づいて正確な歌詞を極短時間で音声出力させること
ができる。また、ユーザが文字情報を自由に替えられる
ことにより、ユーザ自身が作成した歌詞も音声出力で
き、娯楽性の高い音楽データ処理装置を提供することが
できる。
According to the music data processing apparatus (11), the character information correcting means, the storage means and the storage control means allow the user to correct the character information recognized by the voice recognition means and store the corrected character information. Since the data can be stored in the means, even if the erroneous lyrics (character information) are recognized by the voice recognition means at the first reproduction of the music data, the user can correct the lyrics to correct ones. Further, when the second reading unit, the third speech synthesizing unit and the third speech output unit reproduce music data related to a song in which the character information corrected in the storage unit is stored, Based on the corrected character information, accurate lyrics can be output in a very short time. In addition, since the user can freely change the character information, the lyrics created by the user can be output as voice, and a music data processing device with high entertainment can be provided.

【0029】[0029]

【発明の実施の形態】以下、本発明に係る音楽データ処
理装置の実施の形態を図面に基づいて説明する。図1は
実施の形態(1)に係る音楽データ処理装置の概略構成
を示すブロック図である。実施の形態(1)に係る音楽
データ処理装置1は、第1の読み取り部2、再生機構部
3、処理回路部4、第1のメモリ5、第1のDSP6、
第1の操作部7、第1のCPU8、第2のメモリ9、表
示ドライバ10、第1のディスプレイ11、D/Aコン
バータ12及び第1のスピーカ13を含んで構成されて
いる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a music data processing device according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a music data processing device according to Embodiment (1). The music data processing device 1 according to the embodiment (1) includes a first reading unit 2, a reproducing mechanism unit 3, a processing circuit unit 4, a first memory 5, a first DSP 6,
It comprises a first operation unit 7, a first CPU 8, a second memory 9, a display driver 10, a first display 11, a D / A converter 12, and a first speaker 13.

【0030】第1の読み取り部2は、例えば、音楽デー
タを記録したCDやMD等の記録媒体100より、音楽
データを読み取る光ピックアップ(図示略)と、光ピッ
クアップを記録媒体100の半径方向に移動させる移動
モータ(図示略)とを含んで構成されている。また第1
の読み取り部2は、第1のCPU8からの制御信号を受
けて動作する再生機構部3の制御に基づき、再生のため
の通常の読み取り速度よりも高速で間欠的に記録媒体1
00から音楽データを読み取り(以下、このような読み
取りを先読みと記す)、先読みしたこの音楽デ−タを一
旦メモリに記憶し、その後再生出力するショックプルー
フ手段の構成要素ともなっている。
The first reading unit 2 includes, for example, an optical pickup (not shown) for reading music data from a recording medium 100 such as a CD or MD on which music data is recorded, and an optical pickup in a radial direction of the recording medium 100. And a moving motor (not shown) for moving. Also the first
The reading unit 2 intermittently operates at a higher speed than the normal reading speed for reproduction based on the control of the reproduction mechanism unit 3 which operates in response to a control signal from the first CPU 8.
The music data is read out from 00 (hereinafter, such reading is referred to as pre-reading), and the pre-read music data is temporarily stored in a memory, and thereafter, it is also a component of a shock proof means for reproducing and outputting.

【0031】このショックプルーフ手段は、第1の先読
み手段を含んで構成されている。この第1の先読み手段
は、ボーカル入りの曲(伴奏を含む)の音楽データ、す
なわちボーカル情報及び伴奏情報を含む第1の音楽デー
タを再生する場合に、この第1の音楽データを先読みす
るようになっている。
The shock proof means includes first look-ahead means. The first prefetch means prefetches the first music data when reproducing music data of a vocal-containing song (including accompaniment), that is, first music data including vocal information and accompaniment information. It has become.

【0032】再生機構部3は、記録媒体100を所定の
線速度で回転させるスピンドルサーボモータ(図示略)
や第1の読み取り部2の移動モータを駆動制御する等の
動作を行うように構成されている。また処理回路部4
は、第1の読み取り部2が読み取った音楽データから各
種のエラー信号(フォーカスエラー信号やトラッキング
エラー信号等)を作成する処理等を行うようになってい
る。また第1のメモリ5は、前記第1の先読み手段によ
って先読みされ、処理回路部4を介して送られてくる前
記第1の音楽データを記憶する例えばRAM等で構成さ
れている。
The reproducing mechanism 3 is a spindle servomotor (not shown) for rotating the recording medium 100 at a predetermined linear velocity.
And an operation such as driving control of a moving motor of the first reading unit 2. Processing circuit unit 4
Performs processing for creating various error signals (such as a focus error signal and a tracking error signal) from the music data read by the first reading unit 2. The first memory 5 is configured by, for example, a RAM or the like that stores the first music data that is pre-read by the first pre-reading means and transmitted through the processing circuit unit 4.

【0033】本実施の形態(1)に係る音楽データ処理
装置1において、第1のメモリ5は、図2の模式的説明
図に示すごとく、前記第1の先読み手段によって先読み
された、数秒〜数十秒間分の第1の音楽データ101を
記憶するショックプルーフメモリ領域5aを含むもので
あり、前記ショックプルーフ手段は、該ショックプルー
フメモリ領域5aにおけるメモリ容量の上限値まで第1
の音楽データ101を蓄積させると、データフル信号を
第1のCPU8に向けて出力するようになっている。ま
た、ショックプルーフメモリ領域5aに記憶させた第1
の音楽データ101を第1のDSP6に送出し、ショッ
クプルーフメモリ領域5aにおける蓄積量が所定の値に
まで減少すると、データエンプティ信号を第1のCPU
8に向けて出力し、第1のCPU8からの指示信号を受
けて先読みを再開させて第1の読み取り部2から取り込
んだ第1の音楽データ101を再びショックプルーフメ
モリ領域5aに記憶させるようになっている。
In the music data processing apparatus 1 according to the embodiment (1), as shown in the schematic explanatory view of FIG. 2, the first memory 5 stores several seconds to several seconds pre-read by the first pre-reading means. A shock-proof memory area for storing the first music data for several tens of seconds; and wherein the shock-proof means is configured to store the first music data in the first memory data up to the upper limit of the memory capacity in the shock-proof memory area.
When the music data 101 is stored, a data full signal is output to the first CPU 8. The first stored in the shock proof memory area 5a
Is transmitted to the first DSP 6, and when the storage amount in the shock-proof memory area 5a decreases to a predetermined value, the data empty signal is sent to the first CPU 6.
8 and restarts prefetching in response to an instruction signal from the first CPU 8 so that the first music data 101 fetched from the first reading unit 2 is stored again in the shockproof memory area 5a. Has become.

【0034】第1のDSP6は、第1のメモリ5より送
られてくる前記第1の音楽データから、該第1の音楽デ
ータに含まれている歌詞(文字情報)を獲得するといっ
た処理を含むデジタル信号処理を行うものである。ここ
では、例えば図3に示す概略構成ブロック図に示すよう
に、音声認識手段14と第1の音声合成手段15とディ
レイ手段16とを含んで構成され、第1のメモリ5より
出力された前記第1の音楽データが、音声認識手段14
とディレイ手段16とにそれぞれ入力されるようになっ
ている。
The first DSP 6 includes a process of acquiring lyrics (character information) included in the first music data from the first music data sent from the first memory 5. It performs digital signal processing. Here, for example, as shown in a schematic configuration block diagram shown in FIG. 3, the configuration includes a voice recognition unit 14, a first voice synthesis unit 15, and a delay unit 16, and is output from the first memory 5. The first music data is stored in the voice recognition unit 14.
And the delay means 16 respectively.

【0035】音声認識手段14は、第1のメモリ5のシ
ョックプルーフメモリ領域5aに記憶された第1の音楽
データ101に含まれているボーカル情報を音声認識し
て文字情報を取得するものである。そして、第1のCP
U8からの指示信号に従い、取得した文字情報を第2の
メモリ9を介して表示ドライバ10に、又は第1の音声
合成手段15に、又は表示ドライバ10及び第1の音声
合成手段15の両方に出力するようになっている。
The voice recognition means 14 obtains character information by voice recognition of the vocal information contained in the first music data 101 stored in the shockproof memory area 5a of the first memory 5. . And the first CP
In accordance with the instruction signal from U8, the obtained character information is sent to the display driver 10 via the second memory 9, to the first speech synthesizer 15, or to both the display driver 10 and the first speech synthesizer 15. Output.

【0036】第1の音声合成手段15は、図4の模式的
説明図に示すように、音声認識手段14から送られてく
る文字情報に基づき、第1の音楽データに含まれる歌詞
情報を音声合成して歌詞の音声合成情報を出力するよう
になっている。本実施の形態(1)では第1の音声合成
手段15は、第1の音楽データに含まれる曲のフレーズ
の再生直前に歌詞が第1のスピーカ13から合成音で音
声出力される(読み上げられる)ように、音声合成した
歌詞の音声合成情報をディレイ手段16の出力側に出力
するようになっている。
The first voice synthesizing means 15 converts the lyric information included in the first music data into voice based on the character information sent from the voice recognizing means 14, as shown in the schematic explanatory view of FIG. It synthesizes and outputs speech synthesis information of the lyrics. In the present embodiment (1), the first speech synthesizer 15 outputs the lyrics as a synthesized sound from the first speaker 13 immediately before the reproduction of the phrase of the song included in the first music data (speech is performed). As described above, the voice synthesis information of the lyrics synthesized by voice is output to the output side of the delay means 16.

【0037】一方、ディレイ手段16は、第1のメモリ
5から出力された前記第1の音楽データを、第1のCP
U8からの指示信号に従って所定の時間だけ遅延させて
D/Aコンバータ12に出力するものであり、バッファ
・メモリにより構成されている。このため、ディレイ手
段16から出力された前記第1の音楽データは、音声認
識手段14において取得された文字情報の第1のディス
プレイ11からの出力と同期を図って第1のスピーカ1
3から再生されることとなる。
On the other hand, the delay means 16 converts the first music data output from the first memory 5 into a first CP.
The signal is output to the D / A converter 12 after being delayed by a predetermined time according to the instruction signal from U8, and is constituted by a buffer memory. Therefore, the first music data output from the delay unit 16 is synchronized with the output of the character information obtained by the voice recognition unit 14 from the first display 11 to the first speaker 1.
3 will be reproduced.

【0038】第1の操作部7は、ユーザが音楽データ処
理装置1への操作信号を入力するためのものであり、第
1のCPU8に接続され、例えばスイッチ、キー、ボタ
ンあるいはタッチパネル等の手動入力手段やマイク等の
音声入力手段を含んで構成されている。手動入力手段と
しては、例えば記録媒体100に記録されている音楽デ
ータを再生するように指示するための通常のスイッチ
(以下、再生用スイッチと記す)の他に、音楽データの
歌詞情報を画面表示するように指示するためのスイッチ
(以下、歌詞画面表示スイッチと記す)、歌詞情報を通
常の再生出力の少し前に読み上げるように指示するため
のスイッチ(カラオケ先生モードスイッチと記す)等を
装備している。またこれらのスイッチ操作を、前記音声
入力手段への音声入力によっても行えるように構成され
ている。
The first operation section 7 is for the user to input an operation signal to the music data processing apparatus 1 and is connected to the first CPU 8 and is operated by a manual operation such as a switch, a key, a button, or a touch panel. It is configured to include voice input means such as input means and a microphone. As the manual input means, for example, in addition to a normal switch for instructing reproduction of music data recorded on the recording medium 100 (hereinafter referred to as a reproduction switch), lyrics information of the music data is displayed on a screen. (Hereinafter referred to as a lyrics screen display switch), and a switch (referred to as a karaoke teacher mode switch) for instructing to read out the lyric information shortly before normal reproduction output. ing. Further, these switches can be operated by voice input to the voice input means.

【0039】第1のCPU8は、再生機構部3、第1の
メモリ5、第1のDSP6、第2のメモリ9に接続さ
れ、これら各部を制御するものであり、本実施の形態
(1)に係る音楽データ処理装置1では、処理回路部4
から送られてきたエラー信号等や、第1のメモリ5から
のデータフル信号、データエンプティ信号、第1の操作
部7から入力された操作信号等に基づいて制御動作を行
うようになっている。また第2のメモリ9は、例えばR
AM等で構成され、音声認識手段14によって取得され
た文字情報を記憶するように構成されている。
The first CPU 8 is connected to the reproducing mechanism 3, the first memory 5, the first DSP 6, and the second memory 9, and controls these units. The first embodiment (1) In the music data processing device 1 according to
The control operation is performed based on an error signal transmitted from the first memory 5, a data full signal from the first memory 5, a data empty signal, an operation signal input from the first operation unit 7, and the like. . The second memory 9 stores, for example, R
It is composed of an AM or the like, and is configured to store the character information obtained by the voice recognition means 14.

【0040】表示ドライバ10は、第1のDSP6から
第2のメモリ9を介して送られてくる文字情報を第1の
ディスプレイ11に画面表示させるための画像信号を生
成する処理等を行うものとなっている。また第1のディ
スプレイ11は、音声認識手段14から表示ドライバ1
0を介して送られてきた文字情報の画像信号を、例えば
図2に示すように画面表示するものとなっている。
The display driver 10 performs a process of generating an image signal for displaying the character information sent from the first DSP 6 via the second memory 9 on the first display 11 and the like. Has become. Further, the first display 11 is provided with a display driver 1 from the voice recognition unit 14.
The image signal of the character information sent via the "0" is displayed on the screen as shown in FIG. 2, for example.

【0041】D/Aコンバータ12は、第1のDSP6
におけるディレイ手段16から出力された前記第1の音
楽データや第1の音声合成手段15から出力された歌詞
の音声合成情報をD/A変換して第1のスピーカ13に
出力するものとなっている。第1のスピーカ13は、図
2に示すように、D/Aコンバータ12から出力された
前記第1の音楽データや音声合成情報を再生するように
なっている。この第1のスピーカ13及び第1のディス
プレイ11により、音声認識手段14によって取得され
た文字情報を音声出力及び/又は画面表示する本発明の
第1の出力手段が構成されている。
The D / A converter 12 is connected to the first DSP 6
The D / A conversion of the first music data output from the delay means 16 and the voice synthesis information of the lyrics output from the first voice synthesis means 15 are performed, and the resultant data is output to the first speaker 13. I have. As shown in FIG. 2, the first speaker 13 reproduces the first music data and voice synthesis information output from the D / A converter 12. The first speaker 13 and the first display 11 constitute a first output unit of the present invention that outputs the character information obtained by the voice recognition unit 14 and / or displays the information on a screen.

【0042】次に、上記のごとく構成された音楽データ
処理装置1において、前記第1の音楽データとしてのボ
ーカル入りの曲を再生する際に第1のCPU8が行う動
作を、図5に示すフローチャートを用いて説明する。
Next, the operation performed by the first CPU 8 when the music data processing device 1 configured as described above reproduces a vocal-added song as the first music data will be described with reference to a flowchart shown in FIG. This will be described with reference to FIG.

【0043】電源が投入され、ある選択された曲のCD
再生用スイッチがオンされると、ステップS1におい
て、まず歌詞画面表示スイッチがオンされているか否か
の判断を行う。ステップS1において、歌詞画面表示ス
イッチがオンされていると判断すると、続いてステップ
S2に進み、カラオケ先生モードスイッチがオンされて
いるか否かを判断する。
The power is turned on, and a CD of a selected song is turned on.
When the reproduction switch is turned on, it is first determined in step S1 whether or not the lyrics screen display switch is turned on. If it is determined in step S1 that the lyrics screen display switch is on, the process proceeds to step S2 to determine whether the karaoke teacher mode switch is on.

【0044】ステップS2において、カラオケ先生モー
ドスイッチがオンされていると判断すると、ステップS
3に進んでショックプルーフ手段を構成する前記第1の
先読み手段に、記録媒体100に記録されている第1の
音楽データとしてのボーカル入りの曲を、再生時におけ
る通常の読み取り速度の2倍速以上の速度で先読みさせ
るように再生機構部3に指示を与える。先読みされたデ
ータは処理回路部4において所定の処理が施される。
If it is determined in step S2 that the karaoke teacher mode switch has been turned on, the process proceeds to step S2.
Then, the program proceeds to step 3 and the first look-ahead means which constitutes the shock proof means stores the vocal-containing music as the first music data recorded on the recording medium 100 at twice or more the normal reading speed at the time of reproduction. The reproduction mechanism 3 is instructed to read ahead at the speed of. The pre-read data is subjected to predetermined processing in the processing circuit unit 4.

【0045】次にステップS4において、処理回路部4
において処理された先読みデータを、ショックプルーフ
メモリ領域5aに記憶させる。この際、ショックプルー
フメモリ領域5aにおけるメモリ容量の上限値まで先読
みデータが蓄積されて、第1のメモリ5からのデータフ
ル信号を取り込むと、ショックプルーフメモリ領域5a
に蓄積された先読みデータを第1のDSP6へ送出す
る。
Next, in step S4, the processing circuit unit 4
Is stored in the shock proof memory area 5a. At this time, the pre-read data is accumulated up to the upper limit of the memory capacity in the shock proof memory area 5a, and when the data full signal from the first memory 5 is fetched, the shock proof memory area 5a
Is sent to the first DSP 6.

【0046】また図示を省略しているが、第1のCPU
8は、ショックプルーフメモリ領域5aに蓄積された先
読みデータが、第1のDSP6への送出によって所定の
値にまで減少するとステップS3に戻り、前回先読みし
た部分の続きの部分のデ−タを第1の先読み手段に先読
みさせるための制御を行うよう再生機構部3に指示を与
える。
Although not shown, the first CPU
8 returns to step S3 when the pre-read data stored in the shock proof memory area 5a is reduced to a predetermined value by sending the data to the first DSP 6, and the data of the continuation part of the previously pre-read part is read. An instruction is given to the reproduction mechanism unit 3 so as to perform control for causing the first prefetching unit to prefetch.

【0047】次いでステップS5に進み、第1のDSP
6に取り込まれた第1の音楽データに含まれているボー
カル情報を音声認識して文字情報に変換するように音声
認識手段14に指示を与える。その後、ステップS6に
進んで文字情報を音声認識手段14から第1の音声合成
手段15へ送出させて、第1の音声合成手段15におい
て前記文字情報を基にして歌詞を音声合成させる。また
ステップS7において、文字情報を音声認識手段14か
ら第2のメモリ9へも送出させて、第2のメモリ9に文
字情報を記憶させる。
Then, the process proceeds to a step S5, wherein the first DSP
The voice recognition unit 14 is instructed to perform voice recognition on the vocal information included in the first music data captured by the voice recognition unit 6 and convert the vocal information into character information. Thereafter, the process proceeds to step S6, in which the character information is sent from the voice recognition means 14 to the first voice synthesis means 15, and the first voice synthesis means 15 voice-synthesizes the lyrics based on the character information. In step S7, the character information is also sent from the voice recognition means 14 to the second memory 9, and the character information is stored in the second memory 9.

【0048】次に、ステップS8に進んで、第2のメモ
リ9に記憶させた文字情報を表示ドライバ10を介して
第1のディスプレイ11に出力させて画面表示させると
ともに、ディレイ手段16に送られた第1の音楽データ
及び第1の音声合成手段15により音声合成された歌詞
の音声情報を、D/Aコンバータ12を介して第1のス
ピーカ13に出力させる。
Next, proceeding to step S8, the character information stored in the second memory 9 is output to the first display 11 via the display driver 10 to be displayed on the screen, and sent to the delay means 16. The first music data and the voice information of the lyrics synthesized by the first voice synthesis means 15 are output to the first speaker 13 via the D / A converter 12.

【0049】この際、第1の音楽データが通常の再生処
理時における速度で第1のスピーカ8から再生されるよ
うにディレイ手段16を制御し、また、第1の音声合成
手段15から出力される歌詞の音声情報が、第1の音楽
データに含まれた曲のフレーズの直前に第1のスピーカ
13から読み上げられるように、第1の音声合成手段1
5からの前記音声情報の出力を制御し、また文字情報の
第1のディスプレイ11での画面表示を第1のスピーカ
13からの前記音声情報の出力と同期させる。これらの
制御によって、第1の音楽データが通常の速度で再生さ
れるとともに、フレーズに合わせて歌詞が画面表示さ
れ、さらに1フレーズ分の第1の音楽データの再生直前
に歌詞が合成音で読み上げられる。
At this time, the delay means 16 is controlled so that the first music data is reproduced from the first speaker 8 at the speed at the time of the normal reproduction processing. The first voice synthesizing means 1 reads out the voice information of the lyrics from the first speaker 13 immediately before the phrase of the song included in the first music data.
5 controls the output of the voice information, and synchronizes the screen display of the character information on the first display 11 with the output of the voice information from the first speaker 13. With these controls, the first music data is reproduced at a normal speed, the lyrics are displayed on the screen in accordance with the phrase, and the lyrics are read out as a synthesized sound immediately before the reproduction of the first music data for one phrase. Can be

【0050】一方、ステップS1において、歌詞画面表
示スイッチがオンされていないと判断すると、ステップ
S9に進んで、カラオケ先生モードスイッチがオンされ
ているか否かを判断する。ステップS9において、カラ
オケ先生モードスイッチがオンされていると判断する
と、上記したステップS3〜ステップS6と同じ動作を
行う(ステップS10)。
On the other hand, if it is determined in step S1 that the lyrics screen display switch has not been turned on, the flow advances to step S9 to determine whether or not the karaoke teacher mode switch has been turned on. If it is determined in step S9 that the karaoke teacher mode switch has been turned on, the same operation as in steps S3 to S6 described above is performed (step S10).

【0051】その後、ステップS11に進み、ディレイ
手段16に送られた第1の音楽データ及び第1の音声合
成手段15において音声合成された歌詞情報を、D/A
コンバータ12を介して第1のスピーカ13に出力させ
る。この際、通常の再生処理時における速度で第1の音
楽データが第1のスピーカ13から再生されるようにデ
ィレイ手段16を制御するとともに、第1の音声合成手
段15において音声合成された歌詞情報が、第1の音楽
データに含まれた曲のフレーズの直前に第1のスピーカ
13から読み上げられるように、第1の音声合成手段1
5からの前記音声情報の出力を制御する。これらの制御
によって、第1の音楽データが通常の速度で再生される
とともに、1フレーズ分の第1の音楽データの再生直前
に歌詞が合成音で読み上げられる。
Thereafter, the process proceeds to step S11, in which the first music data sent to the delay means 16 and the lyric information speech-synthesized by the first speech synthesis means 15 are converted into D / A data.
The signal is output to the first speaker 13 via the converter 12. At this time, the delay means 16 is controlled so that the first music data is reproduced from the first speaker 13 at the speed at the time of the normal reproduction processing, and the lyric information synthesized by the first speech synthesis means 15 is reproduced. Is read out from the first speaker 13 immediately before the phrase of the song included in the first music data.
5 controls the output of the audio information. With these controls, the first music data is reproduced at a normal speed, and the lyrics are read out as a synthesized sound just before the reproduction of the first music data for one phrase.

【0052】また、ステップS9において、カラオケ先
生モードスイッチがオンされていないと判断すると、ス
テップS12に進み、記録媒体100から第1の音楽デ
ータを再生するための通常の制御を行う。
If it is determined in step S9 that the karaoke teacher mode switch has not been turned on, the flow advances to step S12 to perform normal control for reproducing the first music data from the recording medium 100.

【0053】また、歌詞画面表示スイッチがオンされて
いると判断したものの、続くステップS2において、カ
ラオケ先生モードスイッチがオフされていると判断する
と、上記したステップS3〜ステップS5と同じ動作を
行う(ステップS13)。その後、ステップS14に進
んでステップS7と同じように、文字情報を第2のメモ
リ9に記憶させるための制御を行う。
If it is determined that the lyrics screen display switch is turned on, but it is determined in step S2 that the karaoke teacher mode switch is off, the same operations as those in steps S3 to S5 are performed (step S2). Step S13). Thereafter, the process proceeds to step S14, and control for storing character information in the second memory 9 is performed as in step S7.

【0054】次いで、ステップS15において、第2の
メモリ9に記憶させた文字情報を表示ドライバ10を介
して第1のディスプレイ11に出力させて画面表示させ
るとともに、ディレイ手段16に送られた第1の音楽デ
ータを、D/Aコンバータ12を介して第1のスピーカ
13から音声出力させる。その際も、通常の再生処理時
における速度で第1の音楽データが第1のスピーカ13
から再生されるようにディレイ手段16を制御するとと
もに、文字情報の第1のディスプレイ11での画面表示
を第1のスピーカ13からの前記音声情報の出力と同期
させる。これらの制御によって、第1の音楽データが通
常の速度で再生されるとともに、フレーズに合わせて歌
詞が画面表示される。
Next, at step S15, the character information stored in the second memory 9 is output to the first display 11 via the display driver 10 to be displayed on the screen, and the first character sent to the delay means 16 is displayed. From the first speaker 13 via the D / A converter 12. Also in this case, the first music data is transmitted to the first speaker 13 at the speed at the time of the normal reproduction processing.
In addition to controlling the delay means 16 so that the character information is reproduced, the screen display of the character information on the first display 11 is synchronized with the output of the audio information from the first speaker 13. With these controls, the first music data is reproduced at a normal speed, and the lyrics are displayed on the screen in accordance with the phrase.

【0055】なお、ユーザによりCD再生用スイッチが
オンされたときに上記のごとく動作する第1のCPU8
は、CD再生用スイッチがオフとされているものの、歌
詞画面表示スイッチ及びカラオケ先生モードスイッチの
うちのいずれか一方、あるいは両方がオンとされた場合
に、例えば以下に述べるような動作を行うものとなって
いる。
The first CPU 8 which operates as described above when the CD playback switch is turned on by the user.
Indicates that when one or both of the lyrics screen display switch and the karaoke teacher mode switch are turned on while the CD playback switch is turned off, for example, the following operation is performed. It has become.

【0056】まず、ユーザが歌詞画面表示スイッチ及び
カラオケ先生モードスイッチのうちのいずれか一方、あ
るいは両方をオンさせると、第1のCPU8は、第2の
メモリ9から、該第2のメモリ9に文字情報が記憶され
た曲の題名のリストデータを表示ドライバ10を介して
第1のディスプレイ11に出力させ、画面表示させる。
ユーザによって、リスト表示された曲の題名の中から出
力させたい曲の題名が選択されると、先にユーザがスイ
ッチをオンにすることにより入力された指示信号に基づ
いて、選択された曲の文字情報を第1のディスプレイ1
1又は第1のスピーカ13、又は第1のディスプレイ1
1及び第1のスピーカ13に出力させて歌詞を表示ある
いは音声出力させる。
First, when the user turns on one or both of the lyric screen display switch and the karaoke teacher mode switch, the first CPU 8 transfers the data from the second memory 9 to the second memory 9. The list data of the titles of the songs in which the character information is stored is output to the first display 11 via the display driver 10 and displayed on the screen.
When the user selects the title of the song to be output from the titles of the songs displayed in the list, the user turns on the switch first and the selected song title is output based on the input instruction signal. Character information on the first display 1
1 or 1st speaker 13 or 1st display 1
The first and first speakers 13 output the lyrics to display or audio output.

【0057】上記した実施の形態(1)に係る音楽デー
タ処理装置1によれば、記録媒体100から読み取った
第1の音楽データに含まれているボーカル情報を、音声
認識して文字情報に変換し、歌詞情報として第1のディ
スプレイ11に画面表示させたり、第1のスピーカ13
から音声出力させることができる。よって、記録媒体1
00が第1の音楽データとしてボーカル入りの曲のみを
記録しており、歌詞情報が文字情報として記録されてい
ないCDやMDであっても、第1の音楽データを再生し
つつ、歌詞の確認やカラオケを容易に行うことができる
ため、娯楽性の高い音楽データ処理装置とすることがで
きる。
According to the music data processing apparatus 1 according to the embodiment (1), the vocal information included in the first music data read from the recording medium 100 is converted into character information by voice recognition. Then, it is displayed on the screen of the first display 11 as lyrics information, or the first speaker 13
Can output audio. Therefore, the recording medium 1
00 records only songs with vocals as the first music data, and confirms the lyrics while reproducing the first music data even on a CD or MD in which the lyrics information is not recorded as character information. Since karaoke and karaoke can be easily performed, a music data processing device having high entertainment properties can be provided.

【0058】また、歌詞情報の表示に際しては、ショッ
クプルーフ手段が、再生のための通常の読み取り速度よ
りも高速で間欠的に記録媒体100から第1の音楽デー
タを読み取って第1のメモリ5に蓄積する、いわゆるシ
ョックプルーフ機能により第1の音楽データの読み取り
を行っており、第1の音楽データの全データを一気に読
み取らない。これにより、第1の音楽データの読み取り
を短時間で行え、しかも第1の音楽データの再生のタイ
ミングに歌詞情報の出力のタイミングを合わせ易いとい
う点で非常に優れている。したがって、音楽データ処理
装置1は、再生開始時に音出しが遅れる等の不具合が発
生せず、また第1の音楽データの再生にタイミングを的
確に合わせて歌詞情報を出力させることができるものと
なる。
When displaying the lyrics information, the shock proof means intermittently reads the first music data from the recording medium 100 at a speed higher than the normal reading speed for reproduction and stores it in the first memory 5. The first music data is read by the so-called shock proof function that is stored, and the entire data of the first music data is not read at once. This is very advantageous in that the first music data can be read in a short time, and the output timing of the lyrics information can be easily adjusted to the reproduction timing of the first music data. Therefore, the music data processing apparatus 1 does not cause a problem such as delay in sound output at the start of reproduction, and can output the lyric information in time with the reproduction of the first music data. .

【0059】また、音楽データ処理装置1では、ショッ
クプルーフ手段により、ボーカル情報及び伴奏情報を含
む第1の音楽データが読み取られ、記録媒体100がボ
ーカル入りの曲のみを記録したCDやMDであっても、
第1の音楽データの再生に際し、歌詞情報を出力させる
ことができる。また、歌詞情報の出力に際しては、第1
の音楽データの読み取りに要する時間が極めて短くて済
むとともに、記録媒体100から音楽データを読み取る
動作が複雑にならないといった利点もある。
In the music data processing apparatus 1, the first music data including the vocal information and the accompaniment information is read by the shock proof means, and the recording medium 100 is a CD or MD in which only the vocal-containing music is recorded. Even
When reproducing the first music data, it is possible to output lyrics information. When outputting the lyrics information, the first
The time required for reading the music data is extremely short, and the operation of reading the music data from the recording medium 100 is not complicated.

【0060】さらに、ショックプルーフ機能は、振動に
より音飛びが発生し易い車載用の音響装置等に採用され
ているものであるため、この音楽データ処理装置1を車
載用の音響装置等に適用した場合には、既存の音響装置
の構成要素を利用して音楽データ処理装置1を容易に構
成することができ、追加部品に要するコストを低く抑え
ることができる。しかも、音楽データ処理装置1では、
音声認識された文字情報に基づく歌詞情報を音声出力さ
せることが可能であるため、歌詞情報が画面表示された
第1のディスプレイ11をユーザがたとえ視認できな
い、例えば車を運転している状況にあっても、ユーザに
歌詞情報を音声出力により伝えることができる。したが
って、音楽データ処理装置1は、車内でカラオケを楽し
むことができる車載用の装置としても非常に有効なもの
となる。
Further, since the shock proof function is employed in an in-vehicle audio device or the like in which sound skipping is likely to occur due to vibration, the music data processing device 1 is applied to an in-vehicle audio device or the like. In this case, the music data processing device 1 can be easily configured by using the components of the existing audio device, and the cost required for additional components can be reduced. Moreover, in the music data processing device 1,
Since it is possible to output lyric information based on the character information recognized by voice, the first display 11 on which the lyric information is displayed on the screen cannot be visually recognized by the user, for example, when driving a car. However, lyrics information can be transmitted to the user by voice output. Therefore, the music data processing device 1 is also very effective as an in-vehicle device for enjoying karaoke in a car.

【0061】また、第1の操作部7に設けられたスイッ
チ等によりユーザが、歌詞を画面表示させるか音声出力
させるか、又は画面表示と音声出力の両方で出力させる
かを選択できるため、ユーザの好みに合った歌詞情報の
出力を行うことができる。
Further, the user can select whether to display the lyrics on the screen, to output the voice, or to output both the screen and the voice by using a switch provided on the first operation unit 7. Can output lyrics information that suits the user's preference.

【0062】また、実施の形態(1)に係る音楽データ
処理装置1では、音声認識手段14により認識された文
字情報を記憶する第2のメモリ9が装備されていること
により、記録媒体100に記録された音楽データを再生
するとき以外、例えば音楽データの再生を終えた後に
も、第2のメモリ9に記憶されている歌詞情報を第1の
ディスプレイ11や第1のスピーカ13に出力させるこ
とができる。従って、音楽データの再生時に見落とし
た、あるいは聞き逃した歌詞情報を容易に確認すること
ができる。
In the music data processing apparatus 1 according to the embodiment (1), since the second memory 9 for storing the character information recognized by the voice recognition means 14 is provided, To output the lyrics information stored in the second memory 9 to the first display 11 or the first speaker 13 even when the recorded music data is not reproduced, for example, even after the reproduction of the music data is completed. Can be. Therefore, it is possible to easily confirm the lyric information that was overlooked or missed during the reproduction of the music data.

【0063】なお、実施の形態(1)に係る音楽データ
処理装置1では、第2のメモリ9が装備された例を説明
したが、本発明はこの例に限定されるものではない。例
えば別の実施の形態に係る音楽データ処理装置では、第
2のメモリ9が装備されていないものとし、音声認識手
段14により認識された文字情報が直接、表示ドライバ
10へ出力されるように構成することも可能である。こ
の場合には、第2のメモリ9が削減される分、音楽デー
タ処理装置の構成を簡略化することができる利点があ
る。
In the music data processing apparatus 1 according to the embodiment (1), the example in which the second memory 9 is provided has been described, but the present invention is not limited to this example. For example, in a music data processing apparatus according to another embodiment, it is assumed that the second memory 9 is not provided, and the character information recognized by the voice recognition means 14 is directly output to the display driver 10. It is also possible. In this case, there is an advantage that the configuration of the music data processing device can be simplified by the reduction of the second memory 9.

【0064】また、実施の形態(1)に係る音楽データ
処理装置1では、音声認識手段14、第1の音声合成手
段15、ディレイ手段16を含む第1のDSP6が装備
された例を説明したが、別の実施の形態に係る音楽デー
タ処理装置では、第1の音声合成手段15を含まない
(音声認識手段14及びディレイ手段16だけを含む)
第1のDSPを、実施の形態(1)における第1のDS
P6に替えて装備することも可能である。この場合に
も、第1の音楽データに含まれるボーカル入りの曲の歌
詞情報を画面表示できるので、記録媒体がボーカル入り
の曲のみを記録しており、歌詞情報が文字情報として記
録されていないCDやMDであっても、ボーカル入りの
曲を再生しつつ、歌詞情報の確認を容易に行えるといっ
た効果を得ることができる。
Further, in the music data processing apparatus 1 according to the embodiment (1), an example has been described in which the first DSP 6 including the voice recognition means 14, the first voice synthesis means 15, and the delay means 16 is provided. However, the music data processing device according to another embodiment does not include the first voice synthesis unit 15 (only includes the voice recognition unit 14 and the delay unit 16).
The first DSP is the first DS in the first embodiment.
It is also possible to equip it instead of P6. Also in this case, the lyric information of the vocal song included in the first music data can be displayed on the screen, so that the recording medium records only the vocal song, and the lyric information is not recorded as character information. Even if it is a CD or MD, it is possible to obtain an effect that the lyrics information can be easily confirmed while reproducing the vocal-added music.

【0065】次に、本発明の実施の形態(2)に係る音
楽データ処理装置を説明する。実施の形態(2)に係る
音楽データ処理装置は、実施の形態(1)に係る音楽デ
ータ処理装置1とは第1のDSP、第1のCPU及び第
1の操作部の構成が相違しているが、これら第1のDS
P、第1のCPU及び第1の操作部以外の構成はほぼ同
じとなっている。そのため、ここでは図1に示したブロ
ック図と、実施の形態(2)に係る音楽データ処理装置
の第1のDSPの概略構成を示す図6とを用いて実施の
形態(2)に係る音楽データ処理装置の説明を行い、図
1において第1のDSP、第1のCPU、第1の操作部
及び音楽データ処理装置にのみ異なる符号を付しておく
こととする。
Next, a music data processing device according to the embodiment (2) of the present invention will be described. The music data processing device according to the embodiment (2) is different from the music data processing device 1 according to the embodiment (1) in the configuration of the first DSP, the first CPU, and the first operation unit. But these first DS
Configurations other than P, the first CPU, and the first operation unit are substantially the same. Therefore, here, the music according to the embodiment (2) will be described using the block diagram shown in FIG. 1 and FIG. 6 showing the schematic configuration of the first DSP of the music data processing device according to the embodiment (2). The data processing device will be described, and in FIG. 1, only the first DSP, the first CPU, the first operation unit, and the music data processing device will be denoted by different reference numerals.

【0066】図6において、実施の形態(2)に係る音
楽データ処理装置20の第1のDSP21は、実施の形
態(1)における第1のDSP6を構成する音声認識手
段14と第1の音声合成手段15とディレイ手段16と
に加えて、バンドパスフィルタ22、第3のメモリ2
3、カラオケ曲作成手段17及びディレイ手段18が装
備されており、第1のメモリ5から出力された第1の音
楽データが、バンドパスフィルタ22とディレイ手段1
6とカラオケ曲作成手段17とにそれぞれ入力され、前
記第1の音楽データから音声認識手段14により文字情
報を獲得する等のデジタル信号処理を行うようになって
いる。
In FIG. 6, the first DSP 21 of the music data processing apparatus 20 according to the embodiment (2) includes a voice recognition unit 14 and a first voice which constitute the first DSP 6 in the embodiment (1). In addition to the synthesizing means 15 and the delay means 16, a band-pass filter 22, a third memory 2
3, a karaoke song creating means 17 and a delay means 18 are provided, and the first music data output from the first memory 5 is supplied to the bandpass filter 22 and the delay means 1
6 and the karaoke song creating means 17, and performs digital signal processing such as obtaining character information from the first music data by the voice recognition means 14.

【0067】バンドパスフィルタ22は、第1の読み取
り部2(図1参照)から読み取られた前記第1の音楽デ
ータ中から、該第1の音楽データに含まれているボーカ
ル情報の周波数帯域の信号のみを通過させて取り出すフ
ィルタ処理を行うものである。人の声は、おおよそ90
Hz〜10kHzの周波数帯域に分布する。このためバ
ンドパスフィルタ22は、図7の説明図において、入力
された第1の音楽データとしてのボーカル入りの曲
(a)から、人の声が主に含まれている周波数帯域の情
報、例えば300Hz〜3kHzの周波数帯域の情報を
取り出すことができるように構成されており(b)、こ
のことによって(c)において、前記第1の音楽データ
中に含まれているボーカル情報のみでほぼ構成された情
報を得ることが可能になっている。
The band-pass filter 22 converts the frequency band of the vocal information included in the first music data from the first music data read from the first reading unit 2 (see FIG. 1). This is to perform a filtering process that allows only the signal to pass therethrough. Human voice is about 90
It is distributed in a frequency band of 10 Hz to 10 kHz. For this reason, in the explanatory diagram of FIG. 7, the band-pass filter 22 converts information on the frequency band mainly including human voices from the input vocal-containing music (a) as the first music data, for example, It is configured to be able to extract information in a frequency band of 300 Hz to 3 kHz (b), whereby (c) substantially comprises only vocal information included in the first music data. Information can be obtained.

【0068】第3のメモリ23は、バンドパスフィルタ
22が取り出した情報(ボーカル情報)を記憶し、音声
認識手段14及びカラオケ曲作成手段17に出力するも
のとなっている。従って、音声認識手段14は、第3の
メモリ23に記憶された情報(ボーカル情報)を、音声
認識して文字情報に変換するようになっている。
The third memory 23 stores information (vocal information) extracted by the band-pass filter 22 and outputs the information to the voice recognition means 14 and the karaoke music creating means 17. Therefore, the voice recognition means 14 converts the information (vocal information) stored in the third memory 23 into character information by voice recognition.

【0069】カラオケ曲作成手段17は、バンドパスフ
ィルタ22により第1の音楽データから取り出され、第
3のメモリ23に記憶された情報を用いて、カラオケ用
の音楽データ(第2の音楽データ)を作成するものであ
る。すなわち、バンドパスフィルタ22により処理され
る前の第1の音楽データから、第3のメモリ23に記憶
された、ほぼボーカル情報のみからなる情報を差し引く
ことによって第1の音楽データ中に含まれる伴奏情報の
みで構成されたカラオケ用の音楽データを作成するよう
になっている。
The karaoke music creating means 17 uses the information extracted from the first music data by the bandpass filter 22 and stored in the third memory 23 to use the karaoke music data (second music data). Is to create. In other words, the accompaniment included in the first music data is subtracted from the first music data before being processed by the band-pass filter 22, by subtracting information substantially consisting of only vocal information stored in the third memory 23. It creates music data for karaoke composed only of information.

【0070】音楽データ処理装置20における第1のC
PU24(図1参照)は、再生機構部3、第1のメモリ
5、第2のメモリ9及び処理回路部4に接続され、これ
ら各部を、実施の形態(1)に係る第1のCPU8と同
様に制御するものである。また、前記第1の音楽データ
中に含まれる曲の歌詞の文字情報や、音声情報、カラオ
ケ用の音楽データを作成するように第1のDSP21の
制御を行うものとなっている。
The first C in the music data processing device 20
The PU 24 (see FIG. 1) is connected to the reproduction mechanism 3, the first memory 5, the second memory 9, and the processing circuit 4, and these units are connected to the first CPU 8 according to the embodiment (1) and The same control is performed. Also, the first DSP 21 is controlled so as to create character information of the lyrics of the music included in the first music data, voice information, and music data for karaoke.

【0071】また、第1の操作部25(図1参照)は、
実施の形態(1)で述べた各スイッチの他に、手動入力
手段として、例えばボーカル入りの曲からカラオケ用の
音楽データを作成して再生するように、ユーザが第1の
CPU24に指示するためのカラオケスイッチ(図示せ
ず)を備えたものとなっている。
The first operation unit 25 (see FIG. 1)
In addition to the switches described in the embodiment (1), as a manual input means, for example, a user instructs the first CPU 24 to create and reproduce music data for karaoke from a song with vocals. Karaoke switch (not shown).

【0072】図8は、上記のごとく構成された音楽デー
タ処理装置20において、第1の音楽データとしてのボ
ーカル入りの曲を再生する際の第1のCPU24が行う
動作の一部を示したフローチャートであり、ここでは上
記実施の形態(1)に係る音楽データ処理装置1におけ
る第1のCPU8が行う動作と相違する部分のみを示し
ている。図8において第1のCPU24は、図5に示し
たフローチャートのステップS4とステップS5との間
に、ステップS21、ステップS22の動作を行うもの
となっている。
FIG. 8 is a flowchart showing a part of the operation performed by the first CPU 24 when the music data processing apparatus 20 configured as described above reproduces a vocal music as the first music data. Here, only a portion different from the operation performed by the first CPU 8 in the music data processing device 1 according to the above-described embodiment (1) is shown. In FIG. 8, the first CPU 24 performs the operations of steps S21 and S22 between steps S4 and S5 in the flowchart shown in FIG.

【0073】すなわち、図5のステップS4においてシ
ョックプルーフメモリ領域5aに記憶させた第1の音楽
データを、図8のステップS21において、第1のDS
P21に取り込ませてバンドパスフィルタ22を通過さ
せてフィルタ処理を行わせる。続いて、フィルタ処理さ
れた情報を第3のメモリ23へ出力させて、この第3の
メモリ23にフィルタ処理後のほぼボーカル情報のみで
構成された情報を記憶させる(ステップS22)。その
後、図5に示したステップS5に進む。
That is, the first music data stored in the shockproof memory area 5a in step S4 of FIG. 5 is stored in the first DS in step S21 of FIG.
It is taken into P21 and passed through the band-pass filter 22 to perform filter processing. Subsequently, the filtered information is output to the third memory 23, and the third memory 23 stores the information composed substantially of only the vocal information after the filtering (step S22). Thereafter, the process proceeds to step S5 shown in FIG.

【0074】なお、図8には示していないが、第1のC
PU24は、上記した第1の音楽データとしてのボーカ
ル入りの曲を再生する際の制御動作において、前記カラ
オケスイッチがオンされているか否かの判断も行う。該
カラオケスイッチがユ−ザによりオンされていないと判
断すると、前述の図5に示したステップS8、ステップ
S11、ステップS15における場合と同様に、第1の
読み取り部2が記録媒体100から読み取ったボーカル
情報および伴奏情報を含む第1の音楽データを再生させ
る制御を行う。
Although not shown in FIG. 8, the first C
The PU 24 also determines whether or not the karaoke switch is turned on in the control operation for playing back the vocal music as the first music data. If it is determined that the karaoke switch has not been turned on by the user, the first reading unit 2 reads from the recording medium 100 in the same manner as in steps S8, S11, and S15 shown in FIG. The control for reproducing the first music data including the vocal information and the accompaniment information is performed.

【0075】一方、第1のCPU24は、前記カラオケ
スイッチがユ−ザによりオンされていると判断すると、
第3のメモリ23に記憶させたボーカル情報を用いてカ
ラオケ用の音楽データを作成するようにカラオケ曲作成
手段17に指示を与える。そして、図5に示したステッ
プS8、ステップS11、ステップS15に対応するス
テップでは、ボーカル情報および伴奏情報を含む第1の
音楽データに替えて、カラオケ曲作成手段17が作成し
たボーカル情報抜きの伴奏情報のみからなるカラオケ用
の音楽データを再生させる制御を行うことになる。
On the other hand, when the first CPU 24 determines that the karaoke switch is turned on by the user,
An instruction is given to the karaoke song creating means 17 to create karaoke music data using the vocal information stored in the third memory 23. Then, in the steps corresponding to steps S8, S11, and S15 shown in FIG. 5, the first music data including the vocal information and the accompaniment information is replaced with the accompaniment without vocal information created by the karaoke song creating means 17. Control for reproducing music data for karaoke consisting of only information is performed.

【0076】以上説明したように、実施の形態(2)に
係る音楽データ処理装置20によれば、第1のDSP2
1のバンドパスフィルタ22によって、第1の読み取り
部2で読み取られた第1の音楽データから、該第1の音
楽データに含まれたボーカル情報のみでほぼ構成された
情報を取り出すことができ、このボーカル情報から音声
認識手段14によって文字情報を作成することができ
る。このため、第1の音楽データとしてのボーカル入り
の曲の歌詞が誤って音声認識されるといった事態の発生
確率を低減することができ、正確に認識された歌詞情報
を第1のディスプレイ11に表示したり、第1のスピー
カ13から合成音により出力することができる。
As described above, according to the music data processing device 20 of the embodiment (2), the first DSP 2
The first bandpass filter 22 can extract, from the first music data read by the first reading unit 2, information substantially composed only of the vocal information included in the first music data, From the vocal information, character information can be created by the voice recognition means 14. For this reason, it is possible to reduce the probability of occurrence of a situation in which the lyrics of a song containing vocals as the first music data are erroneously recognized as speech, and the correctly recognized lyrics information is displayed on the first display 11. Or a synthesized sound is output from the first speaker 13.

【0077】また、音楽データ処理装置20では、第3
のメモリ23及びカラオケ曲作成手段17が装備されて
いることにより、バンドパスフィルタ22により得られ
た情報を利用し、第1の音楽データに含まれる情報を元
にしてカラオケ用の音楽デ−タを作成することもでき
る。よって、シングル版のCDのようにカラオケ曲が記
録されていないことが多いCD等の記録媒体100から
第1の音楽データとしてのボーカル入りの曲を再生する
場合にも、簡単にカラオケ用の音楽デ−タを作成するこ
とが可能になるので、記録媒体100を選ばなくてもカ
ラオケを楽しむことができる音楽データ処理装置20を
提供することができる。
In the music data processing device 20, the third
Is provided with the memory 23 and the karaoke music creating means 17 so that karaoke music data can be obtained based on the information contained in the first music data by using the information obtained by the bandpass filter 22. Can also be created. Therefore, even when a song with vocals as the first music data is reproduced from a recording medium 100 such as a CD in which karaoke songs are often not recorded, such as a single version CD, music for karaoke can be easily performed. Since data can be created, it is possible to provide the music data processing apparatus 20 that allows users to enjoy karaoke without selecting the recording medium 100.

【0078】なお、上記した実施の形態(2)に係る音
楽データ処理装置20では、バンドパスフィルタ22を
通過した情報を利用し、カラオケ曲を作成するカラオケ
曲作成手段17を装備した例を説明したが、本発明はこ
の例に限定されるものではない。別の実施の形態に係る
音楽データ処理装置では、実施の形態(2)におけるバ
ンドパスフィルタ22とは逆の動作、つまり第1の音楽
データに含まれているボーカル情報の周波数帯域の情報
のみを前記第1の音楽データから除去する動作を行うバ
ンドストップフィルタを、カラオケ曲作成手段として装
備し、この手段によって第1の音楽データに含まれてい
るボーカル情報を取り除くことによりカラオケ用の音楽
データを作成するように構成することも可能である。
The music data processing device 20 according to the above-described embodiment (2) is provided with a karaoke song creating means 17 for creating a karaoke song using information passed through the band-pass filter 22. However, the present invention is not limited to this example. In the music data processing device according to another embodiment, the operation is the reverse of that of the bandpass filter 22 in the embodiment (2), that is, only the information of the frequency band of the vocal information included in the first music data is transmitted. A band stop filter for performing an operation of removing from the first music data is provided as a karaoke song creating means, and the vocal information included in the first music data is removed by this means to thereby convert the music data for karaoke. It is also possible to configure to create.

【0079】次に、本発明の実施の形態(3)に係る音
楽データ処理装置を説明する。図9は実施の形態(3)
に係る音楽データ処理装置の概略構成を示すブロック図
である。図9に示した実施の形態(3)に係る音楽デー
タ処理装置30の場合、実施の形態(1)に係る音楽デ
ータ処理装置1とは、実施の形態(1)における第1の
読み取り部2、第1のDSP6、第1のCPU8のそれ
ぞれに替えて、第2の読み取り部31、第2のDSP3
2、第2のCPU33が装備され、第4のメモリ34が
追加装備されている点において相違している。
Next, a music data processing device according to the embodiment (3) of the present invention will be described. FIG. 9 shows an embodiment (3).
1 is a block diagram showing a schematic configuration of a music data processing device according to the first embodiment. In the case of the music data processing device 30 according to the embodiment (3) illustrated in FIG. 9, the music data processing device 1 according to the embodiment (1) is different from the music data processing device 1 according to the embodiment (1) in the first reading unit 2. , The first reading unit 31 and the second DSP 3 instead of the first DSP 6 and the first CPU 8, respectively.
2. The difference is that a second CPU 33 is provided and a fourth memory 34 is additionally provided.

【0080】第2の読み取り部31は、第2の先読み手
段を含むショックプルーフ手段の構成要素ともなってい
る。この第2の先読み手段は、記録媒体100が、第1
の音楽データとしてのボーカル入りの曲と、そのカラオ
ケ用の音楽データ、つまり前記第1の音楽データの伴奏
情報のみとを含む第2の音楽データとを記録した、例え
ばシングル版CDのようなものの場合において、これら
第1の音楽データ又は第2の音楽データを再生する際
に、第1の音楽データと第2の音楽データとをそれぞ
れ、再生のための通常の読み取り速度よりも高速で間欠
的に記録媒体100から読み取るものとなっている。
The second reading section 31 is also a component of the shock proof means including the second pre-read means. This second pre-reading means is that the recording medium 100
For example, a single-version CD, in which a vocal-containing song as music data and karaoke music data, that is, second music data including only accompaniment information of the first music data, are recorded. In reproducing the first music data or the second music data, the first music data and the second music data are intermittently read at a higher speed than a normal reading speed for reproduction. Is read from the recording medium 100.

【0081】第4のメモリ34は、前記第2の先読み手
段によって先読みされ、処理回路部4を介して送られて
くる前記第2の音楽データを記憶する例えばRAM等で
構成されており、第1のメモリ5と同様のメモリ容量を
有するショックプルーフメモリ領域を含むものとなって
いる。
The fourth memory 34 is constituted by, for example, a RAM for storing the second music data prefetched by the second prefetch means and sent through the processing circuit section 4. 1 includes a shock-proof memory area having a memory capacity similar to that of the first memory 5.

【0082】第2のDSP32は、第1のメモリ5より
送られてくる第1の音楽データと、第4のメモリ34よ
り送られてくる第2の音楽データとから、前記第1の音
楽データに含まれている歌詞情報(文字情報)を獲得す
る等の処理を含むデジタル信号処理を行うものである。
ここでは、例えば図10の概略構成ブロック図におい
て、ボーカル情報抽出手段35、第3のメモリ23、音
声認識手段14、第1の音声合成手段15及びディレイ
手段16を含んで構成され、第1のメモリ5より送られ
てくる第1の音楽データが、ボーカル情報抽出手段35
とディレイ手段16とにそれぞれ入力されるとともに、
第2のメモリ34より送られてくる第2の音楽データが
ボーカル情報抽出手段35に入力されるように構成され
ている。
The second DSP 32 converts the first music data sent from the first memory 5 and the second music data sent from the fourth memory 34 into the first music data. Performs digital signal processing including processing such as acquiring lyrics information (character information) included in the information.
Here, for example, in the schematic block diagram of FIG. 10, the vocal information extracting unit 35, the third memory 23, the voice recognizing unit 14, the first voice synthesizing unit 15, and the delay unit 16 are included. The first music data sent from the memory 5 is used as vocal information extracting means 35.
And delay means 16 respectively.
The second music data sent from the second memory 34 is configured to be input to the vocal information extracting means 35.

【0083】ボーカル情報抽出手段35は、図11の説
明図において、第2の読み取り部31より読み取られた
第1の音楽データとしてのボーカル入りの曲(a)と、
前記第2の先読み手段により読み取られたカラオケ用の
第2の音楽データ(b)との差を求めて前記第1の音楽
データに含まれているボーカル情報(c)のみを抽出す
る例えば比較器で構成されている。
The vocal information extracting means 35 includes, in the explanatory diagram of FIG. 11, a vocal-containing song (a) as the first music data read by the second reading section 31,
A comparator for extracting only vocal information (c) included in the first music data by obtaining a difference from the second music data (b) for karaoke read by the second prefetching means, for example, It is composed of

【0084】第2のDSP32における第3のメモリ2
3は、実施の形態(2)における第3のメモリ23(図
6)と同様に、入力された情報を記憶し、音声認識手段
14へ出力するように構成されている。すなわち、ここ
では第3のメモリ23は、ボーカル情報抽出手段35が
抽出したボーカル情報を記憶した後、音声認識手段14
へ出力するものとなっている。また、第2のDSP32
における音声認識手段14、第1の音声合成手段15及
びディレイ手段16は、実施の形態(1)における音声
認識手段14、第1の音声合成手段15及びディレイ手
段16と同様に構成されている。
Third memory 2 in second DSP 32
3 is configured to store the input information and output it to the voice recognition unit 14, similarly to the third memory 23 (FIG. 6) in the embodiment (2). That is, here, the third memory 23 stores the vocal information extracted by the vocal information
Output to Also, the second DSP 32
The voice recognition means 14, the first voice synthesis means 15 and the delay means 16 in the first embodiment are configured in the same manner as the voice recognition means 14, the first voice synthesis means 15 and the delay means 16 in the embodiment (1).

【0085】第2のCPU33は、再生機構部3、第1
のメモリ5、第2のメモリ9の各部に接続され、これら
各部を実施の形態(1)に係る音楽データ処理装置1の
第1のCPU8と同様に制御するとともに、第4のメモ
リ34を、第1のメモリ5と同様に制御するものとなっ
ている。また、前記第1の音楽データ中に含まれる曲の
歌詞の文字情報や、音声情報を作成するように第2のD
SP32の制御を行うものとなっている。
The second CPU 33 includes the reproducing mechanism 3, the first
Of the music data processing apparatus 1 according to the embodiment (1), and the fourth memory 34 is connected to the respective sections of the memory 5 and the second memory 9. The control is performed similarly to the first memory 5. Also, the second D data is generated so as to create character information and voice information of the lyrics of the song included in the first music data.
The control of the SP 32 is performed.

【0086】図12は、上記のごとく構成された音楽デ
ータ処理装置30において、ボーカル入りの曲及びカラ
オケ曲が記録されている記録媒体100から、第1の音
楽データとしてのボーカル入りの曲を再生する際に第2
のCPU33が行う動作の一部を示したフローチャート
であり、ここでは上記実施の形態(1)に係る音楽デー
タ処理装置1における第1のCPU8が行う動作と相違
する部分のみを示している。図12において第2のCP
U33は、図5に示したフローチャートのステップS
3、ステップS4に替えて、ステップS31〜ステップ
S36の動作を行うものとなっている。
FIG. 12 shows that the music data processing apparatus 30 having the above-described configuration reproduces a vocal song as first music data from a recording medium 100 on which a vocal song and a karaoke song are recorded. When the second
5 is a flowchart showing a part of the operation performed by the CPU 33 of the music data processing apparatus 1 according to the embodiment (1). In FIG. 12, the second CP
U33 is Step S of the flowchart shown in FIG.
3. In place of step S4, operations of steps S31 to S36 are performed.

【0087】すなわち、第2のCPU33は、図5のス
テップS2において、歌詞画面表示スイッチがオンさ
れ、かつカラオケ先生モードスイッチがオンされている
と判断すると、図12のステップS31に進んで、記録
媒体100に記録されている第1の音楽データとしての
ボーカル入りの曲を、再生時における通常の読み取り速
度の3倍以上で先読みさせる制御を行うよう再生機構部
3に指示を与える。この指示を受けて、再生機構部3で
は第2の読み取り部31を制御して前記第1の音楽デー
タの先読みを行わせ、先読みされた前記第1の音楽デー
タを処理回路部4から第1のメモリ5に送出させる。
That is, if the second CPU 33 determines in step S2 in FIG. 5 that the lyrics screen display switch is on and the karaoke teacher mode switch is on, the process proceeds to step S31 in FIG. An instruction is given to the reproduction mechanism unit 3 to perform control to pre-read a vocal-added song as the first music data recorded on the medium 100 at three times or more the normal reading speed at the time of reproduction. In response to this instruction, the reproduction mechanism unit 3 controls the second reading unit 31 to perform pre-reading of the first music data, and transfers the pre-read first music data from the processing circuit unit 4 to the first music data. To the memory 5.

【0088】次に、ステップS32において、処理回路
部4から送られてきた第1の音楽データの先読みされた
データを、第1のメモリ5のショックプルーフメモリ領
域5aに記憶させる。そしてショックプルーフメモリ領
域5aにおけるメモリ容量の上限値まで第1の音楽デー
タが蓄積されると、ステップS33に進む。
Next, in step S 32, the pre-read data of the first music data sent from the processing circuit section 4 is stored in the shock-proof memory area 5 a of the first memory 5. When the first music data is stored up to the upper limit of the memory capacity in the shock proof memory area 5a, the process proceeds to step S33.

【0089】次にステップS33では、記録媒体100
に記録されている第2の音楽データとしてのカラオケ曲
を、再生時における通常の読み取り速度の3倍以上で先
読みさせる制御を行うよう再生機構部3に指示を与え
る。この指示を受けて、再生機構部3では第2の読み取
り部31を制御して前記第2の音楽データの先読みを行
わせ、先読みされた前記第2の音楽データを処理回路部
4から第4のメモリ34に送出させる。
Next, in step S33, the recording medium 100
Of the karaoke tune as the second music data recorded in the reproduction mechanism unit 3 is controlled so that the karaoke tune is pre-read at three times or more the normal reading speed at the time of reproduction. In response to this instruction, the reproduction mechanism unit 3 controls the second reading unit 31 to perform pre-reading of the second music data, and transfers the pre-read second music data from the processing circuit unit 4 to the fourth reading unit. To the memory 34.

【0090】次に、ステップS34において、処理回路
部4から送られてきた第2の音楽データの先読みされた
データを、第4のメモリ34のショックプルーフメモリ
領域に記憶させる。そしてショックプルーフメモリ領域
におけるメモリ容量の上限値まで第2の音楽データが蓄
積されると、ステップS35に進む。
Next, in step S34, the pre-read data of the second music data sent from the processing circuit section 4 is stored in the shock-proof memory area of the fourth memory. When the second music data is accumulated up to the upper limit of the memory capacity in the shock proof memory area, the process proceeds to step S35.

【0091】そしてステップS35において、第1のメ
モリ5のショックプルーフメモリ領域5aに蓄積された
第1の音楽データと、第4のメモリ34のショックプル
ーフ領域に蓄積された第2の音楽データとの差を求め、
第1の音楽データに含まれているボーカル情報のみを抽
出する制御を第2のDSP32のボーカル情報抽出手段
35において行わせる。
In step S35, the first music data stored in the shock-proof memory area 5a of the first memory 5 and the second music data stored in the shock-proof area of the fourth memory 34 are compared. Find the difference,
The control for extracting only the vocal information included in the first music data is performed by the vocal information extracting means 35 of the second DSP 32.

【0092】また図示を省略しているが、第2のCPU
33は、第1のメモリ5に蓄積された第1の音楽デー
タ、第4のメモリ34に蓄積された第2の音楽データ
が、第2のDSP32への出力によって所定の値にまで
減少すると、ステップS31に戻り、前回先読みした第
1の音楽データの続きの部分を先読みさせるための制御
を行うよう再生機構部3に指示を与える。
Although not shown, the second CPU
33 indicates that when the first music data stored in the first memory 5 and the second music data stored in the fourth memory 34 are reduced to predetermined values by output to the second DSP 32, Returning to step S31, the reproduction control unit 3 is instructed to perform control for prefetching the continuation of the previously read first music data.

【0093】ステップS35の後、ステップS36に進
み、第2のDSP32のボーカル情報抽出手段35によ
り抽出されたボーカル情報を第3のメモリ23に記憶さ
せる。そして、図5のステップS5に進んで、ボーカル
情報を音声認識して文字情報に変換するように音声認識
手段14に指示を与える。
After step S35, the process proceeds to step S36, in which the vocal information extracted by the vocal information extracting means 35 of the second DSP 32 is stored in the third memory 23. Then, the process proceeds to step S5 in FIG. 5 to instruct the voice recognition unit 14 to perform voice recognition on the vocal information and convert it into character information.

【0094】なお、上記したように第2のCPU33
は、図5に示したフローチャートのステップS3、ステ
ップS4に替えて、ステップS31〜ステップS36の
動作を行うものであることから、図5に示したフローチ
ャートのステップS10、ステップS13のそれぞれに
おいてステップS3、ステップS4と同じ動作を行う際
にも、これらステップS3、ステップS4に替えてステ
ップS31〜ステップS36の動作がなされることにな
る。
Note that, as described above, the second CPU 33
Performs the operations of steps S31 to S36 in place of steps S3 and S4 of the flowchart shown in FIG. 5, and therefore, in each of steps S10 and S13 of the flowchart shown in FIG. Also, when performing the same operation as step S4, the operation of steps S31 to S36 is performed instead of step S3 and step S4.

【0095】以上説明したように、実施の形態(3)に
係る音楽データ処理装置30によれば、第2のDSP3
2におけるボーカル情報抽出手段35により、第1の音
楽データとしてのボーカル入り曲と第2の音楽データと
してのカラオケ曲との差からボーカル情報が抽出され、
この抽出されたボーカル情報が音声認識されることによ
り、前記第1の音楽データに含まれるボーカル入りの曲
の歌詞の文字情報が得られるので、歌詞情報が誤って音
声認識されるといった事態の発生確率を確実に低減する
ことができる。よって、第1の音楽データを再生しつつ
正確な歌詞情報をより一層高い確率で第1のディスプレ
イ11に画面表示したり、第1のスピーカ13から音声
出力させることができる。
As described above, according to the music data processing device 30 of the embodiment (3), the second DSP 3
2, the vocal information extraction means 35 extracts the vocal information from the difference between the vocal tune as the first music data and the karaoke tune as the second music data,
Since the extracted vocal information is subjected to voice recognition, character information of the lyrics of the vocal-containing song included in the first music data is obtained. The probability can be reliably reduced. Therefore, accurate lyrics information can be displayed on the first display 11 with a higher probability while the first music data is being reproduced, and audio can be output from the first speaker 13.

【0096】なお、実施の形態(3)に係る音楽データ
処理装置30では、第1のメモリ5が第2のDSP32
のディレイ手段16に接続されている場合を例に挙げて
説明したが、本発明はこの例に限定されるものではな
い。例えば、別の実施の形態に係る音楽データ処理装置
では、第2のDSP32のディレイ手段16には、第1
のメモリ5と第4のメモリ34とがそれぞれ切り換え手
段を介して接続され、該切り換え手段による切り換えに
よって第1のメモリ5からの第1の音楽データが、又は
第4のメモリ34からの第2の音楽データがディレイ手
段16に入力されるように構成されていてもよい。
In the music data processing device 30 according to the embodiment (3), the first memory 5 is stored in the second DSP 32
The description has been given by taking an example in which the delay means 16 is connected to the delay means 16, but the present invention is not limited to this example. For example, in the music data processing apparatus according to another embodiment, the delay unit 16 of the second DSP 32
And the fourth memory 34 are respectively connected via switching means, and the first music data from the first memory 5 or the second music data from the fourth memory 34 is May be configured to be input to the delay means 16.

【0097】このような別の実施の形態に係る音楽デー
タ処理装置では、前記第1の音楽データを再生しつつ正
確な歌詞情報を出力させることができるばかりでなく、
第2の音楽データを再生しつつ、つまりカラオケ曲を演
奏させつつ正確な歌詞情報を出力させることも可能なも
のとなる。
In the music data processing apparatus according to such another embodiment, not only can accurate lyrics information be output while reproducing the first music data,
It is also possible to output accurate lyrics information while reproducing the second music data, that is, playing a karaoke song.

【0098】次に、本発明の実施の形態(4)に係る音
楽データ処理装置を説明する。図13は実施の形態
(4)に係る音楽データ処理装置の概略構成を示すブロ
ック図である。図13において、実施の形態(4)に係
る音楽データ処理装置40が、実施の形態(3)に係る
音楽データ処理装置30と相違するところは、実施の形
態(3)における第2の読み取り部31、第2のDSP
32、第2のCPU33、第1の操作部7、第1のディ
スプレイ11、第1のスピーカのそれぞれに替えて、第
3の読み取り部41、第3のDSP42、第3のCPU
43、第2の操作部46、第2のディスプレイ47、第
2のスピーカ48が装備され、第5のメモリ44、切り
換え手段45が追加装備されている点にある。
Next, a music data processing device according to the embodiment (4) of the present invention will be described. FIG. 13 is a block diagram showing a schematic configuration of a music data processing device according to Embodiment (4). In FIG. 13, the music data processing device 40 according to the embodiment (4) differs from the music data processing device 30 according to the embodiment (3) only in that the second reading unit according to the embodiment (3) is different. 31, the second DSP
32, the second CPU 33, the first operation unit 7, the first display 11, and the first speaker, instead of the third reading unit 41, the third DSP 42, and the third CPU.
43, a second operation unit 46, a second display 47, and a second speaker 48, and a fifth memory 44 and a switching unit 45 are additionally provided.

【0099】第3の読み取り部41は、ショックプルー
フ手段の構成要素となっており、また第1の音楽データ
としてのボーカル入りの曲と、この第1の音楽データに
含まれる歌詞の文字情報とを記録した、例えばDVDの
ような記録媒体100から、第1の音楽データや該第1
の音楽データに含まれる文字情報を読み取る、本発明に
おける第1の読み取り手段の構成要素ともなっている。
The third reading section 41 is a constituent element of the shock proof means, and includes a vocal-containing song as first music data, character information of lyrics included in the first music data, and the like. From the recording medium 100, such as a DVD, on which the first music data or the first music data is recorded.
It also serves as a component of the first reading means of the present invention for reading character information included in the music data.

【0100】第3のDSP42は、実施の形態(2)に
おける第1のDSP21と、実施の形態(3)における
第2のDSP32とが組み合わされて構成されたものと
なっている。すなわち、第3のDSP42は、図14の
概略構成ブロック図において、バンドパスフィルタ22
と、ボーカル情報抽出手段35と、第3のメモリ23
と、音声認識手段14と、第2の音声合成手段49と、
ディレイ手段16とを含んで構成されている。そして、
バンドパスフィルタ22及び音声認識手段14を用いた
実施の形態(2)に係る場合と同様の音楽データ処理手
段(以下、実施の形態(2)の処理手段と記す)と、ボ
ーカル情報抽出手段35及び音声認識手段14を用いた
実施の形態(3)に係る場合と同様の音楽データ処理手
段(以下、実施の形態(3)の処理手段と記す)とのい
ずれかにより、音楽データに含まれる曲の歌詞の文字情
報を獲得できるように構成されている。
The third DSP 42 is configured by combining the first DSP 21 in the embodiment (2) and the second DSP 32 in the embodiment (3). That is, the third DSP 42 is different from the bandpass filter 22 in the schematic block diagram of FIG.
Vocal information extracting means 35 and the third memory 23
Voice recognition means 14, second voice synthesis means 49,
The delay means 16 is included. And
Music data processing means similar to that of the embodiment (2) using the band pass filter 22 and the voice recognition means 14 (hereinafter referred to as the processing means of the embodiment (2)), and the vocal information extracting means 35 And music data processing means similar to that of the embodiment (3) using the voice recognition means 14 (hereinafter referred to as the processing means of the embodiment (3)). It is configured so that the character information of the lyrics of the song can be obtained.

【0101】また第2の音声合成手段49は、音声認識
手段14から送られてくる文字情報に基づき、第1の音
楽データに含まれる曲の歌詞情報を音声合成して歌詞情
報の音声情報化を図るものである。本実施の形態(4)
においても、第2の音声合成手段49が、第3のCPU
43の指示にしたがって、再生する音楽データに含まれ
る曲のフレーズの演奏直前に第2のスピーカ48から合
成音で音声情報化された歌詞情報が音声出力される(読
み上げられる)ように、音声合成した歌詞情報をディレ
イ手段16の出力側に出力するようになっている。
The second speech synthesizer 49 synthesizes the lyric information of the tune included in the first music data based on the character information sent from the speech recognizer 14, and converts the lyric information into speech information. It is intended. Embodiment (4)
, The second voice synthesizing means 49 is provided with the third CPU
In accordance with the instruction at 43, voice synthesis is performed so that the lyric information converted into voice information by synthesized voice is output from the second speaker 48 immediately before the performance of the phrase of the music included in the music data to be reproduced (read out). The lyrics information is output to the output side of the delay means 16.

【0102】切り換え手段45は、第1のメモリ5及び
第4のメモリ34と、第3のDSP42との間に介装さ
れた、例えば切り換えスイッチで構成されている。そし
て、第3のCPU43の指示に基づき、第3のDSP4
2において音楽データを処理する手段として、バンドパ
スフィルタ手段22及び音声認識手段14を用いた処理
手段と、ボーカル情報抽出手段35及び音声認識手段1
4を用いた処理手段とのどちらかに切り換えられるよう
になっている。
The switching means 45 comprises, for example, a changeover switch interposed between the first and fourth memories 5 and 34 and the third DSP 42. Then, based on an instruction from the third CPU 43, the third DSP 4
2, processing means using band-pass filter means 22 and voice recognition means 14, vocal information extracting means 35 and voice recognition means 1
4 can be switched to one of the processing means.

【0103】第3のCPU43は、記録媒体100の種
類又は該記録媒体100における記録内容に応じて、再
生する音楽データに含まれる曲の歌詞の文字情報を得る
ための手段を自動的に選択する選択手段43aを含んで
構成されている。例えば図14に示すごとく、この選択
手段43aは、記録媒体100の種類に応じて、前記歌
詞の文字情報を得るための手段を選択する種別対応選択
手段43a1 と、記録媒体100に記録された曲の全て
について記録内容を比較することにより、前記歌詞の文
字情報を得るための手段を選択する比較判断手段43a
2 とを含むものとなっている。
The third CPU 43 automatically selects a means for obtaining the character information of the lyrics of the music included in the music data to be reproduced, according to the type of the recording medium 100 or the contents recorded on the recording medium 100. It is configured to include the selection means 43a. For example as shown in FIG. 14, the selection unit 43a, depending on the type of the recording medium 100, the type-corresponding selecting means 43a 1 for selecting the means for obtaining the character information of the lyrics, recorded on the recording medium 100 A comparison determining means 43a for selecting a means for obtaining the character information of the lyrics by comparing the recorded contents of all the songs.
2 and so on.

【0104】なお、上述したように、本実施の形態
(4)に係る音楽データ処理装置40は、再生する音楽
データに含まれる曲の歌詞の文字情報を得るための手段
として、予め歌詞の文字情報が記録された記録媒体10
0から文字情報を直接読み取る第1の読み取り手段と、
上記した実施の形態(2)に係る処理手段と同様の処理
手段と、上記した実施の形態(3)に係る処理手段と同
様の処理手段とを装備している。また、記録媒体100
の一つであるDVDには、予め歌詞の文字情報が通常記
録されており、他方、アルバム版のCDやMDには、全
曲がボーカル入りの曲で記録されているものが多い。ま
たシングル版のCDの多くには、ボーカル入りの曲とカ
ラオケ用の曲とが記録されている。
As described above, the music data processing device 40 according to the present embodiment (4) uses the lyrics characters in advance as means for obtaining the lyrics character information of the songs included in the music data to be reproduced. Recording medium 10 on which information is recorded
First reading means for directly reading character information from 0;
A processing unit similar to the processing unit according to the above-described embodiment (2) and a processing unit similar to the processing unit according to the above-described embodiment (3) are provided. Also, the recording medium 100
The DVD, which is one of the above, usually stores character information of lyrics in advance, while the album version of CDs and MDs often has all songs recorded with vocals. Many of the single version CDs include vocal songs and karaoke songs.

【0105】選択手段43aを構成する種別対応選択手
段43a1 は、例えば音楽データ処理装置40で使用さ
れる可能性のある記録媒体100としてDVD、CD
(アルバム版、シングル版)、MDの3種類が設定され
ている場合、再生処理する記録媒体100がDVD、C
D、MDのいずれであるかにより、音楽データに含まれ
る曲の歌詞の文字情報を得るための手段として第1の読
み取り手段と、上記した実施の形態(2)に係る処理手
段と同様の処理手段と、上記した実施の形態(3)に係
る処理手段と同様の処理手段との少なくとも1つを選択
するものとなっている。
The type correspondence selecting means 43a 1 constituting the selecting means 43a is, for example, a DVD or CD as a recording medium 100 which may be used in the music data processing apparatus 40.
(Album version, single version) and MD, if the recording medium 100 to be played back is DVD, C
The first reading means as means for obtaining the character information of the lyrics of the music included in the music data, and the same processing as the processing means according to the above-described embodiment (2), depending on whether the processing is D or MD. Means and at least one of the processing means similar to the processing means according to the embodiment (3) described above is selected.

【0106】また、選択手段43aを構成する比較判断
手段43a2 は、記録媒体100がCDであることによ
り、種別対応選択手段43a1 が、上記した実施の形態
(2)に係る処理手段と同様の処理手段及び上記した実
施の形態(3)に係る処理手段と同様の処理手段の両方
を選択した場合、再生する第1の音楽データに対応する
カラオケ用の曲の第2の音楽データが、記録媒体100
に含まれているか否かの判断を、再生する第1の音楽デ
ータと、記録媒体100に記録されている全ての音楽デ
ータとを、曲の頭から数秒間分だけ比較することにより
行うものとなっている。そして、比較結果に基づき、上
記した実施の形態(2)に係る処理手段と同様の処理手
段あるいは上記した実施の形態(3)に係る処理手段と
同様の処理手段のいずれかを選択し、選択した処理手段
側に音楽データが入力されるように切り換え手段45を
制御するようになっている。
[0106] The comparison determination unit 43a 2 that constitutes the selecting means 43a, by the recording medium 100 is CD, type-corresponding selection means 43a 1 is, similarly to the processing means according to the above-mentioned embodiment (2) When both the processing means of the first embodiment and the processing means similar to the processing means according to the embodiment (3) are selected, the second music data of the karaoke tune corresponding to the first music data to be reproduced is Recording medium 100
Is determined by comparing the first music data to be reproduced with all the music data recorded on the recording medium 100 for a few seconds from the beginning of the music. Has become. Then, based on the comparison result, one of the processing means similar to the processing means according to the above-described embodiment (2) or the processing means similar to the processing means according to the above-described embodiment (3) is selected and selected. The switching means 45 is controlled so that the music data is input to the processing means.

【0107】よって、選択手段43aは、例えば図16
の説明図に示すように、記録媒体100がアルバム版の
CDあるいはMDである場合に実施の形態(2)に係る
処理手段と同様の処理手段を選択し、記録媒体100が
DVDの場合に第1の読み取り手段を選択し、記録媒体
100がシングル版のCDである場合に実施の形態
(3)に係る処理手段と同様の処理手段を選択するよう
に構成されたものとなっている。
Therefore, the selecting means 43a is provided, for example, in FIG.
When the recording medium 100 is an album version CD or MD, a processing unit similar to the processing unit according to the embodiment (2) is selected, and when the recording medium 100 is a DVD, 1 is selected, and when the recording medium 100 is a single-version CD, the same processing means as the processing means according to the embodiment (3) is selected.

【0108】また第3のCPU43は、通常の再生処理
のための制御を行うとともに、選択手段43aの選択に
基づき、第1の読み取り手段又は上記した実施の形態
(2)に係る処理手段と同様の処理手段又は上記した実
施の形態(3)に係る処理手段と同様の処理手段によっ
て歌詞の文字情報が得られるように、再生機構部3、第
1のメモリ5、第2のメモリ9、第4のメモリ34、第
3のDSP42、第5のメモリ44等を制御するものと
なっている。さらに、選択手段43aの比較判断手段4
3a2 の比較判断処理に用いる情報を入手すべく再生機
構部3等を制御するように構成されている。
Further, the third CPU 43 performs control for normal reproduction processing and, based on the selection of the selection means 43a, the same as the first reading means or the processing means according to the above-described embodiment (2). The reproducing mechanism 3, the first memory 5, the second memory 9, and the second memory 9 are provided so that the character information of the lyrics can be obtained by the processing means of the first embodiment or the processing means similar to the processing means according to the third embodiment. The fourth memory 34, the third DSP 42, the fifth memory 44, and the like are controlled. Further, the comparing and judging means 4 of the selecting means 43a
In order to obtain information used for comparison judgment processing 3a 2 is configured to control the reproducing mechanism 3 or the like.

【0109】第5のメモリ44は、第3のCPU43に
おける選択手段43aの比較判断手段43a2 が行う比
較判断処理に用いる情報を記憶するものである。例え
ば、記録媒体100がCDである場合に、CDに記録さ
れている全ての曲について、第3の読み取り部41が曲
の頭から数秒間の音楽データをスキャンすることによっ
て得られた情報を記憶するようになっている。
[0109] Memory 44 of the fifth is for storing the information used in the comparison judgment processing comparative determination unit 43a 2 of the selecting means 43a in the third CPU43 performs. For example, when the recording medium 100 is a CD, the third reading unit 41 stores information obtained by scanning music data for a few seconds from the beginning of a song for all songs recorded on the CD. It is supposed to.

【0110】第2の操作部46は、ユーザが音楽データ
処理装置40への操作信号を入力するためのものであ
り、第3のCPU43に接続され、例えばスイッチ、キ
ー、ボタンあるいはタッチパネル等の手動入力手段やマ
イク等の音声入力手段を含んで構成されている。手動入
力手段としては、例えば記録媒体100に収録されてい
る音楽データを再生するように指示するための通常のス
イッチ(以下、再生用スイッチと記す)の他に、音楽デ
ータの歌詞情報を画面表示するように指示するためのス
イッチ(以下、歌詞画面表示スイッチと記す)、歌詞情
報を通常の再生出力の少し前に読み上げるように指示す
るためのスイッチ(カラオケ先生モードスイッチと記
す)、ボーカル入りの曲からカラオケ用の音楽データを
作成して再生するように、ユーザが第3のCPU43に
指示するためのカラオケスイッチ(図示せず)を備えた
ものとなっている。またこれらのスイッチ操作を、前記
音声入力手段への音声入力によっても行えるように構成
されている。
The second operation section 46 is for the user to input an operation signal to the music data processing apparatus 40, and is connected to the third CPU 43 and is operated by a manual operation such as a switch, a key, a button, or a touch panel. It is configured to include voice input means such as input means and a microphone. As the manual input means, for example, in addition to a normal switch (hereinafter referred to as a reproduction switch) for instructing reproduction of music data recorded on the recording medium 100, lyrics information of the music data is displayed on a screen. Switch (hereinafter referred to as a lyrics screen display switch), a switch (referred to as a karaoke teacher mode switch) for instructing to read out the lyric information shortly before normal reproduction output, and A karaoke switch (not shown) is provided for the user to instruct the third CPU 43 to create and reproduce music data for karaoke from a song. Further, these switches can be operated by voice input to the voice input means.

【0111】第2のディスプレイ47は、音声認識手段
14により得られ、表示ドライバ10を介して送られて
きた文字情報の画像信号を画面表示するようになってい
る。第2のスピーカ48は、第3の読み取り部41にお
いて読み取られ、音声認識手段14により認識された文
字情報を基に、第2の音声合成手段49によって音声合
成された歌詞情報を音声出力し、また、通常の再生処理
における音声を出力するようになっている。
The second display 47 displays the image signal of the character information obtained by the voice recognition means 14 and transmitted through the display driver 10 on the screen. The second speaker 48 outputs lyric information which is read by the third reading unit 41 and voice-synthesized by the second voice synthesis means 49 based on the character information recognized by the voice recognition means 14, In addition, audio in normal reproduction processing is output.

【0112】次に、上記のごとく構成された音楽データ
処理装置40において、記録媒体100からの音楽デー
タを再生しつつ該音楽データに含まれる曲の歌詞情報を
出力する際の第3のCPU43が行う動作を、図17に
示すフローチャートを用いて説明する。
Next, in the music data processing device 40 configured as described above, the third CPU 43 for outputting the lyrics information of the music included in the music data while reproducing the music data from the recording medium 100 is used. The operation to be performed will be described with reference to the flowchart shown in FIG.

【0113】ユーザによりある曲の再生用スイッチがオ
ンされ、さらに前記歌詞画面表示スイッチあるいは前記
カラオケ先生モードスイッチの少なくとも一方がオンさ
れると、ステップS41において、音楽データを再生す
る記録媒体100を調査する。次いでこの調査結果に基
づいて、記録媒体100の種類を、DVD、CD、MD
の中から選択手段43aが判断する(ステップS4
2)。
When the user turns on a switch for reproducing a song and turns on at least one of the lyrics screen display switch and the karaoke teacher mode switch, the recording medium 100 for reproducing music data is checked in step S41. I do. Next, based on the result of this survey, the type of the recording medium 100 is changed to DVD, CD, MD.
Is selected by the selecting means 43a (step S4).
2).

【0114】ステップS42において記録媒体100が
DVDであると判断すると、次いでステップS43にお
いて、再生する音楽データに対応する文字情報をDVD
ディスクから読み取るように前記第1の読み取り手段に
指示を与える。そして、ステップS44に示すように、
第1の読み取り手段により読み取られた文字情報を基に
歌詞情報を出力させる。
If it is determined in step S42 that the recording medium 100 is a DVD, then in step S43, character information corresponding to the music data to be reproduced is stored in the DVD.
An instruction is given to the first reading means to read from the disk. Then, as shown in step S44,
The lyrics information is output based on the character information read by the first reading means.

【0115】その際には、ユーザが歌詞画面表示スイッ
チ、カラオケ先生モードスイッチを操作することによっ
て入力した指示信号に従い、前記読み取られた文字情報
に基づく歌詞を第2のディスプレイ47に画面表示さ
せ、又は第3のDSP42における第2の音声合成手段
49に、前記読み取られた文字情報から歌詞を音声合成
させて第2のスピーカ48から音声出力させ、又は歌詞
を第2のディスプレイ47に画面表示させるとともに第
2のスピーカ48から音声出力させる制御を行う。
At this time, the lyrics based on the read character information are displayed on the second display 47 on the screen according to the instruction signal input by the user operating the lyrics screen display switch and the karaoke teacher mode switch. Alternatively, the second voice synthesizer 49 in the third DSP 42 synthesizes the lyrics from the read character information by voice and outputs the voice from the second speaker 48, or causes the second display 47 to display the lyrics on the screen. At the same time, control for outputting sound from the second speaker 48 is performed.

【0116】なお、第3のCPU43は、ステップS4
4において歌詞情報を出力させる際には、音楽データも
再生させる。またそのときには、音楽データの再生によ
り出力される曲のフレーズに合わせて歌詞が画面表示さ
れ、また1フレーズ分の音楽データの再生直前に歌詞が
合成音で読み上げられるように制御を行う。
Note that the third CPU 43 determines in step S4
When the lyrics information is output in step 4, the music data is also reproduced. At that time, control is performed so that the lyrics are displayed on the screen in accordance with the phrase of the music output by the reproduction of the music data, and the lyrics are read out by a synthesized sound immediately before the reproduction of the music data for one phrase.

【0117】一方、ステップS42において、選択手段
43aが、記録媒体100がCDであると判断すると、
ステップS45に進み、CDに記録されている全ての曲
の音楽データを、音楽データの頭から数秒間、第3の読
み取り部41にスキャンさせるための指示を再生機構部
3に与える。次いで、スキャンによって得た情報を第5
のメモリ44に記憶させる(ステップS46)。その
後、ステップS47において、第5のメモリ44に記憶
されたスキャン情報を基に、CD内に同じ曲に関してボ
ーカル入りのものとカラオケ用のものが記録されている
か否かを判断する。
On the other hand, in step S42, when the selecting means 43a determines that the recording medium 100 is a CD,
Proceeding to step S45, the reproduction mechanism unit 3 is instructed to cause the third reading unit 41 to scan the music data of all the songs recorded on the CD from the beginning of the music data for several seconds. Then, the information obtained by the scan is
(Step S46). Thereafter, in step S47, based on the scan information stored in the fifth memory 44, it is determined whether or not the same tune with vocals and the one for karaoke are recorded in the CD.

【0118】ステップS47において、CD内に同じ曲
に関してボーカル入りのものとカラオケ用のものとが記
録されていると判断すると、再生する音楽データに含ま
れる曲の歌詞の文字情報を得るための手段として上記し
た実施の形態(3)に係る処理手段と同様の処理手段を
選択する。そして、ステップS48に示すように、実施
の形態(3)における第2のCPU33と同様の制御動
作(図12参照)を行って、上記した実施の形態(3)
に係る処理手段と同様の処理手段に、再生する第1の音
楽データに含まれる曲の歌詞の文字情報を獲得させ、獲
得された文字情報から歌詞情報を出力させる。このと
き、第1のメモリ5から第1の音楽データが、また第4
のメモリ35から第2の音楽データがそれぞれ、上記し
た実施の形態(3)に係る処理手段と同様の処理手段に
入力されるように切り換え手段45にスイッチ切り換え
の指示を与える。
If it is determined in step S47 that the same tune with vocals and that of karaoke are recorded on the CD, means for obtaining the character information of the lyrics of the tune included in the music data to be reproduced is determined. And a processing unit similar to the processing unit according to the above-described embodiment (3) is selected. Then, as shown in step S48, a control operation similar to that of the second CPU 33 in the embodiment (3) (see FIG. 12) is performed, and the above-described embodiment (3) is performed.
Of the song included in the first music data to be reproduced, and outputs the lyrics information from the acquired character information. At this time, the first music data is stored in the first memory 5 and
Is given to the switching means 45 so that the second music data is input from the memory 35 to the processing means similar to the processing means according to the embodiment (3).

【0119】上記ステップS48においても、ユーザが
歌詞画面表示スイッチ、カラオケ先生モードスイッチを
操作することによって入力した指示信号に従い、前記獲
得された文字情報に基づく歌詞を第2のディスプレイ4
7や第2のスピーカ48に出力させる制御を行う。
Also in step S48, the lyrics based on the obtained character information are displayed on the second display 4 in accordance with the instruction signal input by the user operating the lyrics screen display switch and the karaoke teacher mode switch.
7 and the second speaker 48.

【0120】また、ステップS47において、CD内に
同じ曲に関してボーカル入りのものとカラオケ用のもの
が記録されていないと判断すると、再生する音楽データ
に含まれる曲の歌詞の文字情報を得るための手段として
上記した実施の形態(2)に係る処理手段と同様の処理
手段を選択する。そして、ステップS49に示すよう
に、上記した実施の形態(2)における第1のCPU2
4と同様の制御動作(図5参照)を行って、上記した実
施の形態(2)に係る処理手段と同様の処理手段に、再
生する第1の音楽データに含まれる曲の歌詞の文字情報
を獲得させ、獲得された文字情報から歌詞を出力させ
る。このとき、第1のメモリ5から第1の音楽データが
上記した実施の形態(2)に係る処理手段と同様の処理
手段に入力されるように切り換え手段45にスイッチ切
り換えの指示を与える。
If it is determined in step S47 that the same tune with vocals and that for karaoke are not recorded in the CD, the character information of the lyrics of the tune included in the music data to be reproduced is obtained. As the means, a processing means similar to the processing means according to the above-described embodiment (2) is selected. Then, as shown in step S49, the first CPU 2 in the above-described embodiment (2)
4 (see FIG. 5), and the same processing means as the above-described embodiment (2) is applied to the processing means similar to the processing means according to the above-mentioned embodiment (2), so that the character information of the lyrics of the music included in the first music data to be reproduced And output the lyrics from the obtained character information. At this time, a switch switching instruction is given to the switching unit 45 so that the first music data is input from the first memory 5 to the same processing unit as the processing unit according to the above-described embodiment (2).

【0121】上記ステップS49においても、ユーザが
歌詞画面表示スイッチ、カラオケ先生モードスイッチを
操作することによって入力した指示信号に従い、前記獲
得された文字情報に基づく歌詞を第2のディスプレイ4
7や第2のスピーカ48に出力させる制御を行う。
Also in step S49, the lyrics based on the obtained character information are displayed on the second display 4 in accordance with the instruction signal input by the user operating the lyrics screen display switch and the karaoke teacher mode switch.
7 and the second speaker 48.

【0122】また、ステップS42において、選択手段
43aが、記録媒体100がMDであると判断した場合
にも、ステップS49に進み、上記した実施の形態
(2)における第1のCPU24と同様の制御動作(図
5参照)を行って、上記した実施の形態(2)に係る処
理手段と同様の処理手段に、再生する第1の音楽データ
に含まれる曲の歌詞の文字情報を獲得させ、獲得された
文字情報から歌詞を出力させることになる。
Also, in step S42, when the selecting means 43a determines that the recording medium 100 is an MD, the process proceeds to step S49, and the same control as the first CPU 24 in the above-described embodiment (2) is performed. By performing the operation (see FIG. 5), the processing means similar to the processing means according to the above-described embodiment (2) acquires the character information of the lyrics of the song included in the first music data to be reproduced, and acquires the character information. The lyrics are output from the input character information.

【0123】以上説明したように、実施の形態(4)に
係る音楽データ処理装置40によれば、選択手段43a
によって、記録媒体100の種類又は該記録媒体100
における記録内容に応じ、再生する音楽データに含まれ
る曲の歌詞の文字情報を得るために最適な処理が自動的
に行われる。したがって、記録媒体の種類100や記録
内容にかかわらず、再生する音楽データに含まれる曲の
正確な歌詞情報を高い確率で出力させることができる。
As described above, according to the music data processing device 40 of the embodiment (4), the selecting means 43a
Depending on the type of the recording medium 100 or the recording medium 100
In accordance with the recorded contents in, the optimal processing for automatically obtaining the character information of the lyrics of the music included in the music data to be reproduced is automatically performed. Therefore, regardless of the type 100 of the recording medium and the recorded content, accurate lyrics information of the music included in the music data to be reproduced can be output with a high probability.

【0124】また、音楽データ処理装置40では、記録
されている曲の歌詞の文字情報が予め記録されているD
VD等の記録媒体100の音楽データを再生する際に
も、前記第1の読み取り手段、第2の音声合成手段49
及び第2のスピーカ48によって、この音楽データに含
まれる曲の歌詞情報を音声出力させることができる。し
たがって、実施の形態(4)に係る音楽データ処理装置
40によれば、記録媒体100の種類や記録媒体100
の記録内容にかかわらず、再生する音楽データに含まれ
る曲の歌詞情報を音声出力させることができる音楽デー
タ処理装置を提供することができる。
In the music data processing apparatus 40, the character information of the lyrics of the recorded music is recorded in advance.
When reproducing the music data of the recording medium 100 such as a VD, the first reading unit and the second voice synthesizing unit 49 are also used.
And the second speaker 48 can output the lyric information of the music included in the music data by voice. Therefore, according to the music data processing device 40 according to the embodiment (4), the type of the recording medium 100 and the recording medium 100
Irrespective of the recorded contents of the music data, it is possible to provide a music data processing device capable of outputting the lyric information of the music included in the music data to be reproduced.

【0125】なお、実施の形態(4)に係る音楽データ
処理装置40では、記録媒体100の種類又は該記録媒
体100における記録内容に応じて、再生する音楽デー
タに含まれる曲の歌詞の文字情報を得るための手段とし
て、前記第1の読み取り手段と、バンドパスフィルタ手
段22及び音声認識手段14を用いた上記した実施の形
態(2)に係る処理手段と同様の処理手段と、ボーカル
情報抽出手段35及び音声認識手段14を用いた上記し
た実施の形態(3)に係る処理手段と同様の処理手段と
を装備している場合を例に挙げて説明したが、本発明は
この例に限定されるものではない。
In the music data processing device 40 according to the embodiment (4), the character information of the lyrics of the music included in the music data to be reproduced is determined according to the type of the recording medium 100 or the content recorded on the recording medium 100. As the means for obtaining the vocal information, the first reading means, the processing means similar to the processing means according to the above-described embodiment (2) using the band-pass filter means 22 and the voice recognition means 14, and vocal information extraction Although the case where the processing means similar to the processing means according to the above-described embodiment (3) using the means 35 and the voice recognition means 14 is provided has been described as an example, the present invention is limited to this example. It is not something to be done.

【0126】例えば、別の実施の形態に係る音楽データ
処理装置では、前記文字情報を得る手段として、前記第
1の読み取り手段に加えて、音声認識手段のみを用いた
上記した実施の形態(1)に係る処理手段と同様の処理
手段と、上記した実施の形態(2)に係る処理手段と同
様の処理手段と、上記した実施の形態(3)に係る処理
手段と同様の処理手段とのうちの一つ、又は上記した実
施の形態(4)に係る処理手段と同様の処理手段との組
み合わせのような二つ以上を装備したものとすることが
可能である。
For example, in the music data processing apparatus according to another embodiment, as the means for obtaining the character information, only the voice recognition means is used in addition to the first reading means (1). ), A processing unit similar to the processing unit according to the above-described embodiment (2), and a processing unit similar to the processing unit according to the above-described embodiment (3). It is possible to provide two or more of them, one of which is a combination of the processing means according to the above-described embodiment (4) and the same processing means.

【0127】次に、本発明の実施の形態(5)に係る音
楽データ処理装置を説明する。図18は実施の形態
(5)に係る音楽データ処理装置の概略構成を示すブロ
ック図である。この実施の形態(5)に係る音楽データ
処理装置50が、上記した実施の形態(1)に係る音楽
データ処理装置1と相違するところは、第4のCPU5
1、第4のDSP52、第3のディスプレイ53、第3
のスピーカ54及び第3の操作部55の構成にある。
Next, a music data processing device according to the embodiment (5) of the present invention will be described. FIG. 18 is a block diagram showing a schematic configuration of a music data processing device according to Embodiment (5). The difference between the music data processing device 50 according to this embodiment (5) and the music data processing device 1 according to the above-described embodiment (1) is that the fourth CPU 5
1, fourth DSP 52, third display 53, third
Of the speaker 54 and the third operation unit 55.

【0128】すなわち、音楽データ処理装置50の第4
のCPU51は、上記した実施の形態(1)における第
1のCPU8とほぼ同様の制御手段に加えて、文字情報
修正手段と、第1の記憶制御手段と、第2の記憶制御手
段と、情報読み取り手段と、文字情報選択設定手段とを
含んで構成されている。前記文字情報修正手段は、図1
9のブロック図にも示した第4のDSP52の音声認識
手段14により得られた文字情報を、ユーザの指示に従
い修正(あるいは変更)するものである。ここでは、文
字情報修正手段は後述するごとく、音声認識手段14か
ら第2のメモリ9に出力されて記憶された文字情報につ
いて、ユーザの指示に従い修正を行うものとなってい
る。
That is, the fourth of the music data processing device 50
CPU 51 includes character information correction means, first storage control means, second storage control means, and information control means in addition to control means substantially similar to first CPU 8 in the above-described embodiment (1). It is configured to include a reading unit and a character information selection setting unit. FIG.
The character information obtained by the voice recognition means 14 of the fourth DSP 52 also shown in the block diagram of FIG. 9 is modified (or changed) in accordance with a user's instruction. Here, as will be described later, the character information correcting means corrects the character information output from the voice recognition means 14 to the second memory 9 and stored in accordance with a user's instruction.

【0129】また、前記第1の記憶制御手段は、音声認
識手段14により得られた歌詞の文字情報を記憶させて
おく旨の指示がユーザからなされた場合に、その得られ
た歌詞の文字情報を、曲名とともに第2のメモリ9に記
憶させる制御を行うように構成されている。また前記第
2の記憶制御手段は、図20の説明図に示すように、前
記文字情報修正手段により修正された文字情報を、該文
字情報に対応する曲名とともに第2のメモリ9に記憶保
存させる制御を行うものである。このことから、第2の
メモリ9は、音声認識手段14により得られた文字情報
を記憶するものであるとともに、前記文字情報修正手段
により修正された文字情報をも記憶する記憶手段を兼ね
たものとなっている。
When the user gives an instruction to store the character information of the lyrics obtained by the voice recognizing means 14, the first storage control means operates the character information of the obtained lyrics. Is stored in the second memory 9 together with the song title. Further, as shown in the explanatory diagram of FIG. 20, the second storage control means stores the character information corrected by the character information correcting means in the second memory 9 together with the song title corresponding to the character information. The control is performed. For this reason, the second memory 9 stores the character information obtained by the voice recognition unit 14 and also serves as a storage unit that also stores the character information corrected by the character information correction unit. It has become.

【0130】前記情報読み取り手段は、図20に示すご
とく、第2のメモリ9に記憶されている文字情報を第2
のメモリ9から読み取る本発明における第2の読み取り
手段を構成している。本実施の形態(5)では、後述す
るごとく、ユーザの指示に従い文字情報選択設定手段に
より第2のメモリ9に記憶されている文字情報を利用す
る選択設定がなされた場合に、第2のメモリ9から文字
情報を読み取るようになっている。
The information reading means reads the character information stored in the second memory 9 as shown in FIG.
Of the present invention that reads from the memory 9 of the present invention. In the present embodiment (5), as will be described later, when the selection setting using the character information stored in the second memory 9 is made by the character information selection setting means in accordance with the user's instruction, the second memory 9 to read character information.

【0131】前記文字情報選択設定手段は、第2のメモ
リ9に保存されている文字情報を利用するか否かのユー
ザによる選択を可能にするものである。この文字情報選
択設定手段によって、第2のメモリ9に保存されている
文字情報に基づく歌詞情報を、ユーザが利用できるよう
になっている。
The character information selection setting means enables the user to select whether or not to use the character information stored in the second memory 9. With this character information selection setting means, the user can use the lyrics information based on the character information stored in the second memory 9.

【0132】本実施の形態(5)における第4のDSP
52は、上記した実施の形態(1)における第1のDS
P6とは、この第1のDSP6における第1の音声合成
手段15に替えて、図19に示すごとく第3の音声合成
手段56が装備されている点で相違している。第3の音
声合成手段56は、音声認識手段14から送られてくる
文字情報に基づき、第1の音楽データに含まれる曲の歌
詞情報を音声合成して歌詞の音声情報化を図る第1の音
声合成部を含むものであるとともに、前記情報読み取り
手段により第2のメモリ9から読み取られた文字情報に
基づいて、再生する音楽データに含まれる曲の歌詞情報
を音声合成して音声情報化を図る第3の音声合成部を含
むものとなっている。
Fourth DSP in Embodiment (5)
52 is the first DS in the above embodiment (1).
The difference from P6 is that a third speech synthesis means 56 is provided as shown in FIG. 19 instead of the first speech synthesis means 15 in the first DSP 6. The third voice synthesizing unit 56 synthesizes the lyrics information of the tune included in the first music data based on the character information sent from the voice recognizing unit 14 to convert the lyrics into voice information. A voice synthesizing unit for synthesizing the lyric information of the music included in the music data to be reproduced based on the character information read from the second memory 9 by the information reading means, and converting the lyric information into voice information. 3 is included.

【0133】また本実施の形態(5)においても第3の
音声合成手段56は、第4のCPU51の指示にしたが
って、再生する音楽データに含まれる曲のフレーズの再
生直前に、歌詞情報が第3のスピーカ54から合成音で
音声出力される(読み上げられる)ように、音声合成し
た歌詞の音声情報をディレイ手段16の出力側に出力す
るようになっている。
Also in the present embodiment (5), the third voice synthesizing means 56 outputs the lyric information immediately before the phrase of the music included in the music data to be reproduced in accordance with the instruction of the fourth CPU 51. The voice information of the lyrics synthesized by voice is output to the output side of the delay means 16 so that the voice is output (read out) as a synthesized voice from the third speaker 54.

【0134】第3のディスプレイ53及び第3のスピー
カ54は、音声認識手段14において得られた文字情報
を出力する第1の出力部と、図20に示すごとく、前記
情報読み取り手段により第2のメモリ9から読み取られ
た文字情報を出力する第3の出力部とを兼ねたものであ
る。このうち第3のディスプレイ53は、表示ドライバ
10を介して送られてきた文字情報の画像信号を画面表
示するようになっている。
The third display 53 and the third speaker 54 are provided with a first output section for outputting the character information obtained by the voice recognition means 14, and a second output section as shown in FIG. It also serves as a third output unit that outputs the character information read from the memory 9. The third display 53 displays an image signal of the character information transmitted via the display driver 10 on a screen.

【0135】また第3のスピーカ53は、音声認識手段
14において認識された文字情報を基に、第3の音声合
成手段56によって音声合成された歌詞の音声情報を音
声出力するようになっており、第3の音声合成手段56
の第1の音声合成部によって音声合成された歌詞の音声
情報を再生する第1の音声出力手段と、第3の音声合成
部によって音声合成された歌詞の音声情報を再生する第
3の音声出力手段とを兼ねたものとなっている。
The third speaker 53 outputs the voice information of the lyrics synthesized by the third voice synthesis means 56 based on the character information recognized by the voice recognition means 14. , The third speech synthesizer 56
A first voice output means for reproducing voice information of lyrics synthesized by the first voice synthesis unit, and a third voice output for reproducing voice information of lyrics synthesized by the third voice synthesis unit It also serves as a means.

【0136】第3の操作部55は、例えばスイッチ、ボ
タン又はキー、タッチパネル等のユーザが手動入力する
ための手段や、マイク等のユーザが音声入力するための
手段で構成されたものである。本実施の形態(5)にお
いては、手動入力するための手段として、例えば実施の
形態(1)における第1の操作部7に設けられた各スイ
ッチと、実施の形態(2)における第1の操作部25に
設けられたスイッチとを装備したものとなっている。ま
たこれらのスイッチにより第4のCPU51に与える指
示を、音声入力手段からの音声入力によっても行えるよ
うに構成されている。また、第2のメモリ9に記憶され
ている文字情報の修正、つまり歌詞情報の修正(変更)
をユーザが要求するための歌詞修正モードスイッチや、
第2のメモリ9に記憶されている文字情報を利用する又
は利用しないを、ユーザが選択して指示するためのメモ
リ情報利用スイッチ等も装備している。
The third operation section 55 is constituted by means for manual input by the user such as a switch, button or key, touch panel, etc., and means for voice input by the user such as a microphone. In the present embodiment (5), as means for manual input, for example, each switch provided on the first operation unit 7 in the embodiment (1) and the first switch in the embodiment (2) are used. A switch provided on the operation unit 25 is provided. In addition, an instruction to be given to the fourth CPU 51 by these switches can be performed by voice input from a voice input unit. Further, the character information stored in the second memory 9 is corrected, that is, the lyrics information is corrected (changed).
Lyrics correction mode switch for the user to request,
A memory information use switch or the like is provided for the user to select and indicate whether to use or not use the character information stored in the second memory 9.

【0137】次に、上記のように構成された音楽データ
処理装置50において、第2のメモリ9に記憶された文
字情報を修正する際の第4のCPU51が行う動作を、
図21に示すフローチャートを用いて説明する。
Next, in the music data processing device 50 configured as described above, the operation performed by the fourth CPU 51 when correcting the character information stored in the second memory 9 will be described.
This will be described with reference to the flowchart shown in FIG.

【0138】ユーザにより歌詞修正モードスイッチがオ
ンされると、ステップS51において、第2のメモリ9
に記憶されている歌詞の文字情報を読み取って、第3の
ディスプレイ53に表示させる。この際、第3のディス
プレイ53においては、例えば図22に示すように第2
のメモリ9に文字情報が記憶されている曲名と、この曲
に対応する文字情報に基づく歌詞とのリストが画面表示
される。
When the lyrics correction mode switch is turned on by the user, in step S51, the second memory 9 is turned on.
Is read and displayed on the third display 53. At this time, on the third display 53, for example, as shown in FIG.
A list of song names whose character information is stored in the memory 9 and lyrics based on the character information corresponding to the song are displayed on the screen.

【0139】続いてステップS52において、例えば
「修正(変更)したい曲を選択して下さい。」といった
ようなユーザに対するメッセージを、第3のディスプレ
イ53又は第3のスピーカ54から出力させるための制
御を行う。次に、上記メッセージの出力後、ユーザが第
3の操作部55を操作することによって修正希望の歌詞
を指定する指示信号を入力したことを判断すると、入力
された指示信号に従い、図22に示すように第3のディ
スプレイ53に出力されているカーソル102をユーザ
が指定した歌詞まで移動させる。
Subsequently, in step S52, control for outputting a message to the user such as "Please select a song to be modified (changed)" from the third display 53 or the third speaker 54 is performed. Do. Next, after the message is output, when it is determined that the user operates the third operation unit 55 to input an instruction signal for designating the lyrics desired to be corrected, the instruction signal shown in FIG. As described above, the cursor 102 output to the third display 53 is moved to the lyrics designated by the user.

【0140】続いてステップS53において、ユーザが
第3の操作部55を操作することによって修正歌詞情報
を入力すると、カーソル102位置の歌詞を入力された
歌詞に修正(変更)する制御を行う。なお、図22で
は、出力された歌詞情報の1文字分がカーソル102で
指定されて修正される例が表示されているが、例えば図
23(a)に示すように、1度に2文字以上が下線やカ
ーソル等で指定され、その指定された部分が図23
(b)に示すように1度に修正されるように構成されて
いてもよい。
Subsequently, in step S53, when the user operates the third operation unit 55 to input the corrected lyrics information, control is performed to correct (change) the lyrics at the position of the cursor 102 to the input lyrics. Note that FIG. 22 shows an example in which one character of the output lyrics information is designated by the cursor 102 and corrected, but, for example, as shown in FIG. Is designated by an underline or a cursor, etc., and the designated portion is shown in FIG.
It may be configured to be corrected at once as shown in (b).

【0141】次いで、ユーザが第3の操作部55を操作
することによって、歌詞の修正を終了する指示信号を入
力したか否かを判断し(ステップS54)、該指示信号
が入力されていないと判断するとステップS53に戻っ
て、ユーザから入力された指示信号に基づく歌詞の修正
制御を続ける。またステップS54において、修正を終
了する指示信号が入力されたと判断すると、ステップS
55に進み、修正する前の文字情報に対応する曲の歌詞
として修正後の文字情報を第2のメモリ9に記憶させ
る。また、その際には、ユーザに対する修正完了メッセ
ージを、第3のディスプレイ53又は第3のスピーカ5
4に出力させる制御を行う。
Next, it is determined whether or not the user operates the third operation unit 55 to input an instruction signal to end the lyrics correction (step S54). When it is determined, the process returns to step S53, and the control of correcting the lyrics based on the instruction signal input by the user is continued. If it is determined in step S54 that an instruction signal to end the correction has been input, the process proceeds to step S54.
Proceeding to 55, the corrected character information is stored in the second memory 9 as the lyrics of the song corresponding to the character information before the correction. In this case, a correction completion message to the user is displayed on the third display 53 or the third speaker 5.
4 is controlled.

【0142】以上説明した制御動作によって、たとえ音
楽データの最初の再生時に音声認識手段14で誤った歌
詞の文字情報が得られても、その文字情報をユーザが正
しい歌詞に修正することができる。また、ユーザが遊び
で、歌詞を自由に変更して替え歌を作成することができ
ることになる。
According to the control operation described above, even if the character information of the erroneous lyrics is obtained by the voice recognition means 14 at the first reproduction of the music data, the user can correct the character information to correct lyrics. In addition, the user can freely change the lyrics and create a replacement song in play.

【0143】次に、実施の形態(5)に係る音楽データ
処理装置50において、第1の音楽データとしてのボー
カル入りの曲を再生する際に第4のCPU51が行う動
作を、図24に示すフローチャートを用いて説明する。
Next, in the music data processing device 50 according to the embodiment (5), FIG. 24 shows the operation performed by the fourth CPU 51 when reproducing a vocal music as the first music data. This will be described with reference to a flowchart.

【0144】ユーザにより再生用スイッチがオンされる
と、ステップS61において、第2のメモリ9に記憶さ
れている歌詞の文字情報を利用するメモリ情報利用スイ
ッチが、ユーザによってオンされたか否かを判断する。
ステップS61においてメモリ情報利用スイッチがオン
されていないと判断すると、図5に示したフローチャー
トのステップS1に進み、図5に示したフローチャート
にしたがった制御動作を行う。
When the reproduction switch is turned on by the user, it is determined in step S61 whether or not the memory information use switch that uses the character information of the lyrics stored in the second memory 9 has been turned on by the user. I do.
If it is determined in step S61 that the memory information use switch has not been turned on, the process proceeds to step S1 of the flowchart shown in FIG. 5, and performs a control operation according to the flowchart shown in FIG.

【0145】ただし、本実施の形態(5)においては、
前記第1の記憶制御手段を備えていることにより、図5
に示したフローチャートにおけるステップS6とステッ
プS7との間、ステップS13とステップS14との間
にそれぞれ、図25に示したステップS71の判断動
作、すなわち音声認識手段14により認識された文字情
報を記憶させておく旨の指示がユ−ザによりなされたか
否かの判断動作を行う。そして、ステップS71におい
て、文字情報を記憶させておく旨の指示がなされている
と判断すると、ステップS7(ステップS13からステ
ップS71に進んだ場合にはステップS14)に進んで
文字情報を第2のメモリ9に記憶させ、文字情報を記憶
させておく旨の指示がなされていないと判断すると、ス
テップS7(ステップS14)の動作を行わずにステッ
プS8(ステップS15)に進む。
However, in the present embodiment (5),
By providing the first storage control means,
25, between the steps S6 and S7 and between the steps S13 and S14 in the flowchart shown in FIG. 25, the character information recognized by the voice recognition means 14 is stored. An operation is performed to determine whether or not an instruction to keep the data has been given by the user. If it is determined in step S71 that an instruction to store character information has been given, the process proceeds to step S7 (or step S14 if the process proceeds from step S13 to step S71), and the character information is stored in the second If it is determined that the instruction to store the character information in the memory 9 has not been issued, the process proceeds to step S8 (step S15) without performing the operation of step S7 (step S14).

【0146】図24のステップS61において、メモリ
情報利用スイッチがオンされていると判断すると、次い
で、ステップS62に進んで、第2のメモリ9に記憶さ
れている歌詞の文字情報を読み出して、第3のディスプ
レイ53に表示させる。この際、第3のディスプレイ5
3においては、例えば図26に示すように第2のメモリ
9に文字情報が記憶されている曲名と、この曲に対応す
る文字情報に基づく歌詞の内容が画面表示される。次に
ステップS63に進んで、第3のディスプレイ53に表
示させた歌詞の中から1つの歌詞をユーザに選択させる
べく、例えば「利用する歌詞情報を選択して下さい」と
いったようなユーザに対するメッセージを、第3のディ
スプレイ53又は第3のスピーカ54に出力させるため
の制御を行う。
If it is determined in step S61 of FIG. 24 that the memory information use switch is turned on, then the flow advances to step S62 to read out the character information of the lyrics stored in the second memory 9, and 3 is displayed on the display 53. At this time, the third display 5
In 3, the song name whose character information is stored in the second memory 9 and the contents of the lyrics based on the character information corresponding to this song are displayed on the screen as shown in FIG. 26, for example. Next, proceeding to step S63, a message to the user such as "Please select the lyrics information to be used" is displayed in order to allow the user to select one of the lyrics displayed on the third display 53. , A control for outputting to the third display 53 or the third speaker 54 is performed.

【0147】次に、上記メッセージの出力後、ユーザが
第3の操作部55を操作することによって歌詞情報を指
定する指示信号が入力されると、第4のCPU51は、
入力された指示信号に従い、例えば図26に示すよう
に、第3のディスプレイ53に出力されている1つの曲
名及びその歌詞情報を覆うカーソル103をユーザが指
定した歌詞情報まで移動させる。次いで図24のステッ
プS64に示すように、例えば「指定した歌詞情報でO
K?」といったようなユーザに対するメッセージを、第
3のディスプレイ53又は第3のスピーカ54に出力さ
せるための制御を行う。
Next, after the message is output, when the user operates the third operation unit 55 to input an instruction signal for designating the lyrics information, the fourth CPU 51
In accordance with the input instruction signal, for example, as shown in FIG. 26, the cursor 103 covering one song title and its lyrics information output on the third display 53 is moved to the lyrics information designated by the user. Next, as shown in step S64 of FIG. 24, for example, “O
K? ”Is output to the third display 53 or the third speaker 54.

【0148】そして、ステップS65において、指定し
た歌詞でOKである旨の信号がユーザから入力されてい
るか否かの判断を行い、指定した歌詞でOKである旨の
信号が入力されていると判断すると、ステップS66に
示すように、指定した歌詞に対応する曲の音楽データを
再生させつつ、ユーザが指定した歌詞を第2のディスプ
レイ47や第2のスピーカ48に出力させる制御を行
う。なお、その際は、音楽データの再生により演奏され
る曲のフレーズに合わせて歌詞が画面表示され、また1
フレーズ分の音楽データの再生直前に歌詞が合成音で読
み上げられるように制御を行う。またステップS65に
おいて、指定した歌詞でOKである旨の信号が入力され
なかったと判断すると、ステップS61に戻って、ステ
ップS61の判断を再び行う。
In step S65, it is determined whether or not a signal indicating that the specified lyrics are OK is input from the user, and it is determined that the signal indicating that the specified lyrics is OK is input. Then, as shown in step S66, control is performed to output the lyrics designated by the user to the second display 47 and the second speaker 48 while reproducing the music data of the song corresponding to the designated lyrics. At that time, the lyrics are displayed on the screen in accordance with the phrase of the music played by the reproduction of the music data.
Control is performed so that the lyrics are read out as a synthesized sound immediately before the reproduction of the music data for the phrase. If it is determined in step S65 that the signal indicating that the designated lyrics are OK is not input, the process returns to step S61, and the determination in step S61 is performed again.

【0149】以上説明したように、実施の形態(5)に
係る音楽データ処理装置50によれば、第4のCPU5
1が文字情報修正手段を装備しているので、たとえ音楽
データの最初の再生時に音声認識手段14で誤った歌詞
の文字情報が得られても、その文字情報をユーザが正し
い歌詞に修正することができる。また前記第1の記憶制
御手段により、音声認識手段14において認識された文
字情報を第2のメモリ9に記憶させておくことができる
とともに、前記第2の記憶制御手段を備えていることに
より、前記文字情報修正手段によって修正された文字情
報も第2のメモリ9に記憶させておくことができる。
As described above, according to the music data processing device 50 of the embodiment (5), the fourth CPU 5
1 is equipped with character information correcting means, even if the character information of the wrong lyrics is obtained by the voice recognition means 14 at the first reproduction of the music data, the user can correct the character information to correct lyrics. Can be. In addition, the first storage control means can store the character information recognized by the voice recognition means 14 in the second memory 9, and by including the second storage control means, The character information corrected by the character information correcting means can also be stored in the second memory 9.

【0150】また、前記第1の記憶制御手段により、ユ
ーザが希望する文字情報のみを第2のメモリ9に記憶さ
せるとができるため、不要な文字情報が第2のメモリ9
に記憶されて文字情報を記憶させたいときにメモリ容量
が不足しまっているというような事態の発生を回避する
ことができる。よって、第2のメモリ9を有効に活用す
ることができる。
Further, since only the character information desired by the user can be stored in the second memory 9 by the first storage control means, unnecessary character information is stored in the second memory 9.
In such a case, it is possible to avoid occurrence of a situation where the memory capacity is insufficient when character information is to be stored and stored. Therefore, the second memory 9 can be effectively used.

【0151】さらに、第4のCPU51が前記情報読み
取り手段を備えており、また第3のディスプレイ53及
び第3のスピーカ54が装備されていることにより、第
2のメモリ9に文字情報が記憶されている音楽データを
再び再生させる際には、第2のメモリ9から文字情報を
読み出すことによって歌詞情報を出力させることもでき
る。しかも、第3の音声合成手段56の前記第3の音声
合成部により、第2のメモリ9から読み出された文字情
報を音声合成して歌詞の音声情報化を図ることができ、
この音声情報を第3のスピーカ54から音声出力させる
ことができる。従って、第2のメモリ9に文字情報が記
憶されている音楽データを再び再生させる際において、
歌詞情報が出力されるまでの時間を短縮することができ
るとともに、正確な歌詞情報を出力させることができ
る。また、ユーザが文字情報を自由に替えられることに
より、ユーザ自身が作成した歌詞も替え歌として音声出
力できる。
Further, since the fourth CPU 51 has the information reading means and is equipped with the third display 53 and the third speaker 54, character information is stored in the second memory 9. When reproducing the music data, the lyrics information can be output by reading the character information from the second memory 9. In addition, the third speech synthesis unit of the third speech synthesis means 56 can synthesize speech information of the character information read from the second memory 9 to convert the lyrics into speech information.
This audio information can be output as audio from the third speaker 54. Therefore, when music data whose character information is stored in the second memory 9 is reproduced again,
The time until the lyrics information is output can be shortened, and accurate lyrics information can be output. Further, since the user can freely change the character information, the lyrics created by the user himself can be output as a substitute song.

【0152】また、前記文字情報選択設定手段によっ
て、第2のメモリ9に文字情報が記憶されている音楽デ
ータを再び再生させる際には、第2のメモリ9に記憶さ
れている文字情報に基づく歌詞情報を出力させるか否か
をユーザが自由に選択することができる。よって、常に
ユーザが出力させたい歌詞情報を出力させることがで
き、ユーザを満足させる娯楽性の高い音楽データ処理装
置50を実現することができる。
When the music data whose character information is stored in the second memory 9 is reproduced again by the character information selection setting means, the character data is set based on the character information stored in the second memory 9. The user can freely select whether or not to output lyrics information. Therefore, it is possible to always output the lyric information that the user wants to output, and it is possible to realize the music data processing device 50 having a high recreational quality that satisfies the user.

【0153】なお、実施の形態(5)に係る音楽データ
処理装置50では、上記した実施の形態(1)に係る音
楽データ処理装置1の第1のCPU7とほぼ同様の制御
手段に加えて、前記文字情報修正手段と、前記第1の記
憶制御手段と、前記第2の記憶制御手段と、前記情報読
み取り手段と、前記文字情報選択設定手段とを含む第4
のCPU51が装備された例を説明したが、本発明はこ
の例に限定されるものではない。
In the music data processing device 50 according to the embodiment (5), in addition to the same control means as the first CPU 7 of the music data processing device 1 according to the embodiment (1), A fourth memory including the character information correcting unit, the first storage control unit, the second storage control unit, the information reading unit, and the character information selection setting unit;
Although the example in which the CPU 51 is provided has been described, the present invention is not limited to this example.

【0154】例えば別の実施の形態に係る音楽データ処
理装置では、上記した実施の形態(2)に係る音楽デー
タ処理装置20における第1のCPU24とほぼ同様の
制御手段に加えて、前記文字情報修正手段と、前記第1
の記憶制御手段と、前記第2の記憶制御手段と、前記情
報読み取り手段と、前記文字情報選択設定手段とを含む
CPUが装備された構成であってもよい。
For example, in the music data processing apparatus according to another embodiment, in addition to the same control means as the first CPU 24 in the music data processing apparatus 20 according to the above-described embodiment (2), the character information Correcting means;
And a CPU including the storage control means, the second storage control means, the information reading means, and the character information selection and setting means.

【0155】さらに別の実施の形態に係る音楽データ処
理装置では、上記した実施の形態(3)に係る音楽デー
タ処理装置30における第2のCPU33とほぼ同様の
制御手段に加えて、前記文字情報修正手段と、前記第1
の記憶制御手段と、前記第2の記憶制御手段と、前記情
報読み取り手段と、前記文字情報選択設定手段とを含む
CPUが装備された構成とすることも可能である。
In the music data processing apparatus according to still another embodiment, in addition to the same control means as the second CPU 33 in the music data processing apparatus 30 according to the embodiment (3), the character information Correcting means;
And a CPU including the second storage control unit, the information reading unit, and the character information selection setting unit.

【0156】これら別の実施の形態に係る音楽データ処
理装置においても、ユーザにより再生用スイッチがオン
されると、まず前記CPUは、図24に示したステップ
S61の判断、すなわちメモリに記憶されている歌詞の
文字情報を利用するメモリ情報利用スイッチが、ユーザ
によってオンされているか否かを判断する。ステップS
61においてメモリ情報利用スイッチがオンされている
と判断すると、図24に示したステップS62以降の動
作を行う。また同図のステップS61において、メモリ
情報利用スイッチがユーザによってオンされていないと
判断すると、上記した実施の形態(2)において説明し
た第1の音楽データ再生時の動作(図5及び図8参
照)、又は上記した実施の形態(3)において説明した
音楽データ再生時の動作(図5及び図12参照)を行
う。
In the music data processing apparatus according to these other embodiments, when the reproduction switch is turned on by the user, the CPU first determines in step S61 shown in FIG. It is determined whether or not the memory information use switch that uses the character information of the lyrics that is present is turned on by the user. Step S
If it is determined in step 61 that the memory information use switch is turned on, the operation after step S62 shown in FIG. 24 is performed. If it is determined in step S61 of the figure that the memory information use switch has not been turned on by the user, the operation at the time of reproducing the first music data described in the above embodiment (2) (see FIGS. 5 and 8). ) Or the operation at the time of reproducing the music data described in the above embodiment (3) (see FIGS. 5 and 12).

【0157】また、上記した実施の形態(2)において
説明した第1の音楽データ再生時の動作、上記した実施
の形態(3)において説明した音楽データ再生時の動作
のいずれにおいても、上記した実施の形態(5)の場合
と同様、図5に示したステップS6とステップS7との
間(図5に示したステップS13とステップS14との
間)に図25に示したフローチャートにおけるステップ
S71で示した判断動作を加えると、ユーザが希望する
文字情報のみをメモリに記憶させることができ、メモリ
を有効活用することができる。
[0157] Also, in both the operation at the time of reproducing the first music data described in the above-described embodiment (2) and the operation at the time of reproducing the music data described in the above-described embodiment (3). As in the case of the embodiment (5), between step S6 and step S7 shown in FIG. 5 (between step S13 and step S14 shown in FIG. 5) in step S71 in the flowchart shown in FIG. By adding the indicated determination operation, only the character information desired by the user can be stored in the memory, and the memory can be used effectively.

【0158】また、さらに別の実施の形態に係る音楽デ
ータ処理装置では、上記した実施の形態(4)に係る音
楽データ処理装置40の第3のCPU43とほぼ同様の
制御手段に加えて、前記文字情報修正手段と、前記第1
の記憶制御手段と、前記第2の記憶制御手段と、前記情
報読み取り手段と、前記文字情報選択設定手段とを含む
CPUが装備された構成であってもよい。
Further, in the music data processing device according to still another embodiment, in addition to the same control means as the third CPU 43 of the music data processing device 40 according to the above-described embodiment (4), Character information correcting means;
And a CPU including the storage control means, the second storage control means, the information reading means, and the character information selection and setting means.

【0159】この別の実施の形態に係る音楽データ処理
装置では、ユーザにより再生用スイッチがオンされ、さ
らに歌詞画面表示スイッチあるいはカラオケ先生モード
スイッチの少なくとも一方がオンされると、まず前記C
PUは、上記した実施の形態(4)における第3のCP
U43が行う図17に示したステップS41の動作、す
なわち音楽データを再生する記録媒体を調査する動作を
行う。その後、図24に示したステップS61の判断、
すなわちメモリに記憶されている歌詞の文字情報を利用
するメモリ情報利用スイッチが、ユーザによってオンさ
れているか否かの判断を行う。そして、ステップS61
においてメモリ情報利用スイッチがオンされていると判
断すると、図24に示したステップS62以降の動作を
行う。また同図のステップS61において、メモリ情報
利用スイッチがユーザによってオンされていないと判断
すると、図17に示したステップS42以降の動作を行
う。
In the music data processing device according to this another embodiment, when the user turns on the reproduction switch and further turns on at least one of the lyrics screen display switch and the karaoke teacher mode switch, the C
PU is the third CP in the above-described embodiment (4).
The operation of step S41 shown in FIG. 17 performed by U43, that is, the operation of investigating a recording medium for reproducing music data is performed. Thereafter, the determination in step S61 shown in FIG.
That is, it is determined whether or not the memory information use switch that uses the character information of the lyrics stored in the memory is turned on by the user. Then, step S61
When it is determined that the memory information use switch is turned on, the operation after step S62 shown in FIG. 24 is performed. If it is determined in step S61 of the figure that the memory information use switch has not been turned on by the user, the operation from step S42 shown in FIG. 17 is performed.

【0160】上記した3つの別の実施の形態に係る音楽
データ処理装置のいずれにおいても、記録媒体の種類等
に関係なく、文字情報が記憶されている音楽データを再
び再生させる際において、歌詞情報が出力されるまでの
時間を短縮することができるとともに、正確な歌詞情報
を出力させることができる。従って、より簡単にカラオ
ケを楽しむことができ、しかも容易に替え歌を楽しめる
非常に娯楽性の高い音楽データ処理装置を提供すること
ができる。
In any of the music data processing apparatuses according to the above three different embodiments, irrespective of the type of the recording medium, etc., when reproducing the music data in which the character information is stored again, Can be shortened, and accurate lyrics information can be output. Therefore, it is possible to provide a very entertaining music data processing apparatus that allows the user to enjoy karaoke more easily and easily enjoy the replacement song.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態(1)に係る音楽データ処
理装置の概略構成の一例を示すブロック図である。
FIG. 1 is a block diagram showing an example of a schematic configuration of a music data processing device according to Embodiment (1) of the present invention.

【図2】実施の形態(1)に係る音楽データ処理装置に
おいて、ショックプルーフ手段により先読みされた音楽
データの処理を説明するための図である。
FIG. 2 is a diagram for explaining processing of music data pre-read by shock proof means in the music data processing device according to the embodiment (1).

【図3】実施の形態(1)に係る音楽データ処理装置の
第1のDSPの概略構成を示すブロック図である。
FIG. 3 is a block diagram showing a schematic configuration of a first DSP of the music data processing device according to the embodiment (1).

【図4】実施の形態(1)に係る音楽データ処理装置に
おける音声認識手段で得られた文字情報の音声合成処理
を説明するための図である。
FIG. 4 is a diagram for explaining a speech synthesis process of character information obtained by speech recognition means in the music data processing device according to the embodiment (1).

【図5】実施の形態(1)に係る音楽データ処理装置に
おいて、第1の音楽データとしてのボーカル入りの曲を
再生する際の第1のCPUの行う動作を示すフローチャ
ートである。
FIG. 5 is a flowchart showing an operation performed by a first CPU when playing back a song with vocals as first music data in the music data processing device according to the embodiment (1).

【図6】本発明の実施の形態(2)に係る音楽データ処
理装置における第1のDSPの概略構成を示すブロック
図である。
FIG. 6 is a block diagram showing a schematic configuration of a first DSP in a music data processing device according to Embodiment (2) of the present invention.

【図7】実施の形態(2)に係る音楽データ処理装置に
おけるバンドパスフィルタによるフィルタ処理を説明す
るための図である。
FIG. 7 is a diagram for describing filter processing by a band-pass filter in the music data processing device according to the embodiment (2).

【図8】実施の形態(2)に係る音楽データ処理装置に
おいて、第1の音楽データとしてのボーカル入りの曲を
再生する際の第1のCPUの行う動作の一部を示したフ
ローチャートである。
FIG. 8 is a flowchart showing a part of an operation performed by a first CPU when reproducing a tune with vocals as first music data in the music data processing device according to the embodiment (2). .

【図9】本発明の実施の形態(3)に係る音楽データ処
理装置の概略構成を示すブロック図である。
FIG. 9 is a block diagram showing a schematic configuration of a music data processing device according to Embodiment (3) of the present invention.

【図10】実施の形態(3)に係る音楽データ処理装置
における第2のDSPの概略構成を示すブロック図であ
る。
FIG. 10 is a block diagram showing a schematic configuration of a second DSP in the music data processing device according to the embodiment (3).

【図11】実施の形態(3)に係る音楽データ処理装置
におけるボーカル情報抽出手段によるボーカル情報抽出
処理を説明するための図である。
FIG. 11 is a diagram for explaining vocal information extraction processing by vocal information extraction means in the music data processing device according to the embodiment (3).

【図12】実施の形態(3)に係る音楽データ処理装置
において、ボーカル入りの曲及びカラオケ用の曲が収録
されている記録媒体から第1の音楽データとしてのボー
カル入りの曲を再生する際の第2のCPUの行う動作の
一部を示したフローチャートである。
FIG. 12 is a diagram illustrating a case where the music data processing device according to the embodiment (3) reproduces a vocal song as first music data from a recording medium on which a vocal song and a karaoke song are recorded. 9 is a flowchart showing a part of the operation performed by the second CPU.

【図13】本発明の実施の形態(4)に係る音楽データ
処理装置の概略構成を示すブロック図である。
FIG. 13 is a block diagram showing a schematic configuration of a music data processing device according to Embodiment (4) of the present invention.

【図14】実施の形態(4)に係る音楽データ処理装置
における第3のDSP周辺の概略構成を示すブロック図
である。
FIG. 14 is a block diagram showing a schematic configuration around a third DSP in the music data processing device according to the embodiment (4).

【図15】実施の形態(4)に係る音楽データ処理装置
における第1の読み取り手段で得られた文字情報の音声
合成処理を説明するための図である。
FIG. 15 is a diagram for describing a speech synthesis process of character information obtained by the first reading unit in the music data processing device according to the embodiment (4).

【図16】実施の形態(4)に係る音楽データ処理装置
における第3のCPUを構成する選択手段による記録媒
体の選択処理例を説明するための図である。
FIG. 16 is a diagram for describing an example of a recording medium selection process by a selection unit forming a third CPU in the music data processing device according to the embodiment (4).

【図17】実施の形態(4)に係る音楽データ処理装置
において、再生する音楽データに含まれた曲の歌詞を表
示する際の第3のCPUの行う動作を示すフローチャー
トである。
FIG. 17 is a flowchart showing an operation performed by a third CPU when displaying lyrics of a song included in music data to be reproduced in the music data processing device according to the embodiment (4).

【図18】本発明の実施の形態(5)に係る音楽データ
処理装置の概略構成を示すブロック図である。
FIG. 18 is a block diagram showing a schematic configuration of a music data processing device according to Embodiment (5) of the present invention.

【図19】実施の形態(5)に係る音楽データ処理装置
における第4のDSPの概略構成を示すブロック図であ
る。
FIG. 19 is a block diagram showing a schematic configuration of a fourth DSP in the music data processing device according to Embodiment (5).

【図20】実施の形態(5)に係る音楽データ処理装置
における第2の記憶制御手段の動作と情報読み取り手段
の動作を説明するための図である。
FIG. 20 is a diagram for explaining the operation of the second storage control means and the operation of the information reading means in the music data processing device according to the embodiment (5).

【図21】実施の形態(5)に係る音楽データ処理装置
における第2のメモリに記憶された文字情報を修正する
際の第4のCPUの動作を示すフローチャートである。
FIG. 21 is a flowchart showing an operation of a fourth CPU when correcting the character information stored in the second memory in the music data processing device according to the embodiment (5).

【図22】実施の形態(5)に係る音楽データ処理装置
において、歌詞修正モード時に第2のメモリから読み取
られた文字情報の画面表示の一例を示す図である。
FIG. 22 is a diagram showing an example of a screen display of character information read from the second memory in the lyrics correction mode in the music data processing device according to the embodiment (5).

【図23】実施の形態(5)に係る音楽データ処理装置
において、歌詞修正モード時における歌詞修正の一例を
示す図であり、(a)は修正前、(b)は修正後であ
る。
FIG. 23 is a diagram showing an example of lyrics correction in the lyrics correction mode in the music data processing device according to the embodiment (5), where (a) is before correction and (b) is after correction.

【図24】実施の形態(5)に係る音楽データ処理装置
において、第1の音楽データの再生に際し、第2のメモ
リに記憶されている文字情報を用いる場合の第4のCP
Uの行う動作を示すフローチャートである。
FIG. 24 is a diagram illustrating a fourth CP in the case where the music data processing apparatus according to the embodiment (5) uses the character information stored in the second memory when reproducing the first music data.
6 is a flowchart illustrating an operation performed by U.

【図25】実施の形態(5)に係る音楽データ処理装置
において、音楽データの再生に際し、第2のメモリに記
憶されている文字情報を用いない場合の第4のCPUの
行う動作の一部を示すフローチャートである。
FIG. 25 is a diagram illustrating a part of an operation performed by a fourth CPU in a case where character data stored in a second memory is not used in reproducing music data in the music data processing device according to embodiment (5). It is a flowchart which shows.

【図26】実施の形態(5)に係る音楽データ処理装置
において、音楽データの再生時に第2のメモリから読み
取られた文字情報の画面表示の一例を示す図である。
FIG. 26 is a diagram showing an example of a screen display of character information read from a second memory when playing back music data in the music data processing device according to the embodiment (5).

【符号の説明】[Explanation of symbols]

1、20、30、40、50 音楽データ処理装置 2 第1の読み取り部 9 第2のメモリ 11 第1のディスプレイ 13 第1のスピ
ーカ 14 音声認識手段 15 第1の音声
合成手段 22 バンドパスフィルタ 31 第2の読み
取り部 35 ボーカル情報抽出手段 41 第3の読み
取り部 43 第3のCPU 43a 選択手段 47 第2のディスプレイ 48 第2のスピ
ーカ 49 第2の音声合成手段 51 第4のCP
U 53 第3のディスプレイ 54 第3のスピ
ーカ 56 第3の音声合成手段
1, 20, 30, 40, 50 Music data processing device 2 First reading unit 9 Second memory 11 First display 13 First speaker 14 Speech recognition unit 15 First speech synthesis unit 22 Bandpass filter 31 Second reading unit 35 Vocal information extraction unit 41 Third reading unit 43 Third CPU 43a Selection unit 47 Second display 48 Second speaker 49 Second voice synthesis unit 51 Fourth CP
U 53 Third display 54 Third speaker 56 Third voice synthesis means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G11B 20/10 321 G10L 3/00 E 5D378 27/34 551G 9A001 Fターム(参考) 5D015 AA01 KK03 LL05 5D044 AB05 BC02 CC04 FG24 FG30 5D045 AA20 AB30 5D077 AA26 BA04 BA08 BB16 HA07 HC17 HC18 5D108 BA04 BA16 BA32 BA35 BA39 BB03 BC02 BC12 BD02 BD12 BD14 BE03 5D378 KK44 MM24 MM34 MM37 MM47 MM49 MM52 MM59 MM64 MM65 MM66 MM73 MM92 MM95 MM97 TT08 TT24 WW16 9A001 HH17 KK43 KK45 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G11B 20/10 321 G10L 3/00 E 5D378 27/34 551G 9A001 F term (Reference) 5D015 AA01 KK03 LL05 5D044 AB05 BC02 CC04 FG24 FG30 5D045 AA20 AB30 5D077 AA26 BA04 BA08 BB16 HA07 HC17 HC18 5D108 BA04 BA16 BA32. KK45

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 音楽デ−タを記録した記録媒体から前記
音楽データを読み取って再生する音楽データ処理装置に
おいて、 前記音楽データを再生する際に、再生のための通常の読
み取り速度よりも高速で間欠的に前記記録媒体から前記
音楽データを読み取るショックプルーフ手段と、 該ショックプルーフ手段により読み取られた音楽データ
に含まれているボーカル情報を音声認識して文字情報を
取得する音声認識手段と、 該音声認識手段により取得された前記文字情報を出力す
る第1の出力手段とを備えていることを特徴とする音楽
データ処理装置。
1. A music data processing device for reading and reproducing music data from a recording medium on which music data is recorded, wherein the music data is reproduced at a speed higher than a normal reading speed for reproduction. Shock proof means for intermittently reading the music data from the recording medium; voice recognition means for voice recognition of vocal information contained in the music data read by the shock proof means to obtain character information; A music data processing apparatus comprising: a first output unit that outputs the character information obtained by the voice recognition unit.
【請求項2】 ボーカル情報及び伴奏情報を含む第1の
音楽データを再生する場合に、再生のための通常の読み
取り速度よりも高速で間欠的に前記記録媒体から前記第
1の音楽データを読み取る第1の先読み手段を含むもの
であることを特徴とする請求項1記載の音楽データ処理
装置。
2. When reproducing first music data including vocal information and accompaniment information, the first music data is intermittently read from the recording medium at a speed higher than a normal reading speed for reproduction. 2. The music data processing device according to claim 1, further comprising a first look-ahead means.
【請求項3】 前記ショックプルーフ手段と前記音声認
識手段との間に、前記第1の先読み手段により読み取ら
れた第1の音楽データに含まれているボーカル情報の周
波数帯域の情報のみを抽出するフィルタ手段が介装され
ていることを特徴とする請求項2記載の音楽データ処理
装置。
3. Extracting only information in a frequency band of vocal information included in the first music data read by the first look-ahead means, between the shock proof means and the voice recognition means. 3. The music data processing device according to claim 2, wherein a filter means is interposed.
【請求項4】 前記記録媒体が音楽データとして、ボー
カル情報及び伴奏情報を含む第1の音楽データと、該第
1の音楽データに関する伴奏情報のみを含む第2の音楽
データとを記録したものである場合において、 前記第1の音楽データ又は前記第2の音楽データを再生
する際に、前記ショックプルーフ手段が前記第2の音楽
データを再生のための通常の読み取り速度よりも高速で
間欠的に前記記録媒体より読み取る第2の先読み手段を
含んで構成され、 前記ショックプルーフ手段と前記音声認識手段との間
に、前記第1の先読み手段により読み取られた第1の音
楽データと、前記第2の先読み手段により読み取られた
第2の音楽データとの差を求めて前記第1の音楽データ
に含まれているボーカル情報のみを抽出するボーカル情
報抽出手段が介装されていることを特徴とする請求項1
〜3のいずれかの項に記載の音楽データ処理装置。
4. The recording medium in which, as music data, first music data including vocal information and accompaniment information, and second music data including only accompaniment information related to the first music data are recorded. In some cases, when reproducing the first music data or the second music data, the shock proof means intermittently operates at a speed higher than a normal reading speed for reproducing the second music data. A second pre-reading means for reading from the recording medium; a first music data read by the first pre-reading means between the shock proof means and the voice recognition means; Vocal information extraction means for obtaining a difference from the second music data read by the prefetch means and extracting only the vocal information contained in the first music data Claim, characterized in that it is interposed 1
4. The music data processing device according to any one of Items 3 to 3.
【請求項5】 前記記録媒体が前記第1の音楽データ
と、該第1の音楽データに含まれた曲の歌詞の文字情報
とを記録したものである場合において、 前記第1の音楽データの再生に際し、該第1の音楽デー
タに対応する曲の文字情報を前記記録媒体から読み取る
第1の読み取り手段と、 前記記録媒体の種類又は該記録媒体における記録内容に
応じて、再生する音楽データに含まれた曲の文字情報を
取得するための手段を選択する選択手段とを備え、 前記第1の出力手段が、前記第1の読み取り手段が読み
取った文字情報を出力する第1の出力部を含むものであ
ることを特徴とする請求項1〜4のいずれかの項に記載
の音楽データ処理装置。
5. The method according to claim 5, wherein the recording medium records the first music data and character information of lyrics of a song included in the first music data. At the time of reproduction, first reading means for reading character information of a song corresponding to the first music data from the recording medium; and Selecting means for selecting means for acquiring character information of the included music, wherein the first output means outputs a first output unit which outputs the character information read by the first reading means. The music data processing device according to any one of claims 1 to 4, wherein the music data processing device includes:
【請求項6】 前記音声認識手段により認識された文字
情報を記憶する記憶手段と、 該記憶手段に記憶されている文字情報を読み取る第2の
読み取り手段と、 該第2の読み取り手段により読み取られた文字情報を、
ユーザの指示に従い修正する文字情報修正手段と、 該文字情報修正手段により修正された文字情報を前記記
憶手段に記憶させる記憶制御手段とを備え、 前記第1の出力手段が、前記第2の読み取り手段により
前記記憶手段から読み取られた文字情報を出力する第2
の出力部を含むものであることを特徴とする請求項1〜
5のいずれかの項に記載の音楽データ処理装置。
6. A storage means for storing character information recognized by the voice recognition means, a second reading means for reading the character information stored in the storage means, and a character string read by the second reading means. Character information
A character information correcting unit that corrects the character information in accordance with a user's instruction; and a storage control unit that stores the character information corrected by the character information correcting unit in the storage unit, wherein the first output unit performs the second reading. Means for outputting character information read from said storage means by means
4. An output unit comprising:
6. The music data processing device according to any one of items 5.
【請求項7】 音楽データを再生する際に、前記記憶手
段に記憶されている文字情報を利用するか否かのユーザ
による選択を可能にする文字情報選択設定手段を備え、 前記記憶手段に記憶されている文字情報を利用する選択
が前記文字情報選択設定手段を介してユーザによりなさ
れた場合に、前記第2の読み取り手段が前記記憶手段か
ら文字情報を読み取るものであることを特徴とする請求
項6記載の音楽データ処理装置。
7. A character information selection setting means for enabling a user to select whether or not to use character information stored in said storage means when playing back music data, said character information selection setting means being stored in said storage means. The second reading means reads the character information from the storage means when the user uses the selected character information through the character information selection setting means. Item 7. The music data processing device according to Item 6.
【請求項8】 前記第1の出力手段が、前記文字情報を
画面表示する画面表示手段を含むものであることを特徴
とする請求項1〜7のいずれかの項に記載の音楽データ
処理装置。
8. The music data processing apparatus according to claim 1, wherein said first output means includes a screen display means for displaying said character information on a screen.
【請求項9】 前記音声認識手段により認識された文字
情報に基づいて、前記再生する音楽データに含まれた曲
の歌詞を音声合成する第1の音声合成部を含む音声合成
手段を備え、 前記第1の出力手段が、前記第1の音声合成部により音
声合成された歌詞の音声合成情報を音声出力する第1の
音声出力手段を含むものであることを特徴とする請求項
1〜8のいずれかの項に記載の音楽データ処理装置。
9. A voice synthesizing unit including a first voice synthesizing unit for voice-synthesizing lyrics of a song included in the music data to be reproduced based on the character information recognized by the voice recognition unit, 9. The apparatus according to claim 1, wherein the first output means includes first speech output means for outputting speech synthesis information of lyrics synthesized by the first speech synthesis section. A music data processing device according to the item.
【請求項10】 前記記録媒体が音楽データとして、ボ
ーカル情報及び伴奏情報を含む第1の音楽データと、該
第1の音楽データに関する曲の歌詞の文字情報とを記録
したものである場合において、 前記第1の音楽データの再生に際し、該第1の音楽デー
タに対応する歌詞の文字情報を前記記録媒体から読み取
る第1の読み取り手段を備え、 前記音声合成手段が、前記第1の読み取り手段により読
み取られた文字情報に基づいて、再生する音楽データに
関する曲の歌詞を音声合成する第2の音声合成部を含
み、 前記第1の出力手段が、前記第2の音声合成部により音
声合成された歌詞の音声合成情報を音声出力する第2の
音声出力手段を含むものであることを特徴とする請求項
9記載の音楽データ処理装置。
10. When the recording medium records, as music data, first music data including vocal information and accompaniment information, and character information of lyrics of a song related to the first music data. When reproducing the first music data, the first music data is provided with first reading means for reading character information of lyrics corresponding to the first music data from the recording medium. A second voice synthesizer for voice-synthesizing the lyrics of the song related to the music data to be reproduced based on the read character information, wherein the first output means is voice-synthesized by the second voice synthesizer; 10. The music data processing apparatus according to claim 9, further comprising a second voice output unit that outputs voice synthesis information of the lyrics.
【請求項11】 前記音声認識手段により認識された文
字情報を記憶する記憶手段と、 該記憶手段に記憶されている文字情報を読み取る第2の
読み取り手段と、 該第2の読み取り手段により読み取られた文字情報を、
ユーザの指示に従い修正する文字情報修正手段と、 該文字情報修正手段により修正された文字情報を前記記
憶手段に記憶させる記憶制御手段とを備え、 前記音声合成手段が、前記第2の読み取り手段により読
み取られた文字情報に基づいて、再生する音楽データに
含まれた曲の歌詞を音声合成する第3の音声合成部を含
むものであり、 前記第1の出力手段が、前記第3の音声合成部により音
声合成された歌詞の音声合成情報を音声出力する第3の
音声出力手段を含むものであることを特徴とする請求項
9又は請求項10記載の音楽データ処理装置。
11. A storage means for storing character information recognized by the voice recognition means, a second reading means for reading the character information stored in the storage means, and a character read by the second reading means. Character information
A character information correcting unit that corrects the character information in accordance with a user's instruction; and a storage control unit that stores the character information corrected by the character information correcting unit in the storage unit. A third voice synthesizer for voice-synthesizing the lyrics of the song included in the music data to be reproduced based on the read character information; and wherein the first output means includes the third voice synthesizer. 11. The music data processing device according to claim 9, further comprising a third voice output unit that voice-outputs voice synthesis information of lyrics synthesized by the voice unit.
JP2000129242A 2000-04-28 2000-04-28 Music data processor Withdrawn JP2001312288A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000129242A JP2001312288A (en) 2000-04-28 2000-04-28 Music data processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000129242A JP2001312288A (en) 2000-04-28 2000-04-28 Music data processor

Publications (1)

Publication Number Publication Date
JP2001312288A true JP2001312288A (en) 2001-11-09

Family

ID=18638544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000129242A Withdrawn JP2001312288A (en) 2000-04-28 2000-04-28 Music data processor

Country Status (1)

Country Link
JP (1) JP2001312288A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004333737A (en) * 2003-05-06 2004-11-25 Nec Corp Device and program for media retrieval
JP2008008954A (en) * 2006-06-27 2008-01-17 Sony Ericsson Mobilecommunications Japan Inc Personal digital assistant
JP2013519107A (en) * 2010-02-02 2013-05-23 クリエイティブ、テクノロジー、リミテッド Karaoke-enabled device
JP7024027B1 (en) 2020-09-11 2022-02-22 株式会社セガトイズ Video creation device, video creation system and video creation program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004333737A (en) * 2003-05-06 2004-11-25 Nec Corp Device and program for media retrieval
JP4631251B2 (en) * 2003-05-06 2011-02-16 日本電気株式会社 Media search device and media search program
JP2008008954A (en) * 2006-06-27 2008-01-17 Sony Ericsson Mobilecommunications Japan Inc Personal digital assistant
JP2013519107A (en) * 2010-02-02 2013-05-23 クリエイティブ、テクノロジー、リミテッド Karaoke-enabled device
JP2015215623A (en) * 2010-02-02 2015-12-03 クリエイティブ、テクノロジー、リミテッド Apparatus capable of playing karaoke
JP7024027B1 (en) 2020-09-11 2022-02-22 株式会社セガトイズ Video creation device, video creation system and video creation program
JP2022047036A (en) * 2020-09-11 2022-03-24 株式会社セガトイズ Moving image creation device, moving image creation system, and moving image creation program

Similar Documents

Publication Publication Date Title
US20050216257A1 (en) Sound information reproducing apparatus and method of preparing keywords of music data
JP4616337B2 (en) Playback order change support unit, music information playback apparatus, and playback order change support method
JPH06332481A (en) Karaoke reproducing device
JP2006318182A (en) Sound retrieval device, sound retrieval method, sound reproduction method, portable reproduction device, musical piece retrieval device, musical piece retrieval method and musical piece reproduction method
JPH113561A (en) Disk reproducing device and medium whereon control program of reproducing device is recorded
JPH07104772A (en) Karaoke reproducing device
JP4483936B2 (en) Music / video playback device
JP2001312288A (en) Music data processor
JP2906987B2 (en) Disc playback device
JP4651317B2 (en) Music selection device
JP4721765B2 (en) Content search apparatus and content search method
JP4236533B2 (en) Musical sound generator and program thereof
JPH10154380A (en) Storage medium, reproducing device of storage medium and reproducing method thereof
JPH0527787A (en) Music reproduction device
KR20010054297A (en) The mapping method for digital motion pictures and replaying method by using of it
JP2005250242A (en) Device, method, and program for information processing, and recording medium
JP4252514B2 (en) Audio system
KR100233645B1 (en) A function control method of karaoke
KR20040106984A (en) Apparatus and Method for controling playing of Optical Disk
JP3999101B2 (en) Recording medium reproducing apparatus and method
JP2753640B2 (en) Automatic performance device
JPH08179788A (en) Apparatus and method for control of on-screen display of sing-along machine system
JP3432246B2 (en) Reproduction apparatus and method
JP3766305B2 (en) Recording medium, reproducing apparatus and reproducing method thereof
JP3229275B2 (en) Recording media for karaoke

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070703