JP2008242376A - Musical piece introduction sentence generating device, narration adding device, and program - Google Patents
Musical piece introduction sentence generating device, narration adding device, and program Download PDFInfo
- Publication number
- JP2008242376A JP2008242376A JP2007086751A JP2007086751A JP2008242376A JP 2008242376 A JP2008242376 A JP 2008242376A JP 2007086751 A JP2007086751 A JP 2007086751A JP 2007086751 A JP2007086751 A JP 2007086751A JP 2008242376 A JP2008242376 A JP 2008242376A
- Authority
- JP
- Japan
- Prior art keywords
- music
- data
- sentence
- represented
- introduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002194 synthesizing effect Effects 0.000 claims description 14
- 238000003860 storage Methods 0.000 abstract description 19
- 238000000034 method Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 21
- 230000015572 biosynthetic process Effects 0.000 description 11
- 238000003786 synthesis reaction Methods 0.000 description 11
- 238000009826 distribution Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
Images
Abstract
Description
本発明は、文章の自動生成技術に関し、特に、ライナーノーツやナレーションの元になる楽曲紹介文を自動生成する技術に関する。 The present invention relates to a technique for automatically generating a sentence, and more particularly to a technique for automatically generating a music introduction sentence that is a basis for liner notes and narration.
例えば音楽CDやレコードなどには、収録楽曲の特徴が記されたライナーノーツと呼ばれる紹介文を印刷した冊子が同封されている。また、テレビやラジオなどで楽曲を放送する際には、楽曲の前奏区間や間奏区間、後奏区間などその楽曲を鑑賞する際の妨げとならない区間でナレーションによりその楽曲の特徴などを紹介する場合がある。このため、楽曲演奏や歌唱を趣味としている人々のなかには、自身の演奏や歌唱についてのライナーノーツやナレーションの作成を望んでいる者もいる。しかし、楽曲の特徴を的確に表現したライナーノーツやナレーションを作成するには、音楽についての幅広い専門知識が必要であり、そのような専門知識を有する音楽評論家等にその作成を依頼したならば、多額の費用が必要になる。趣味で楽曲演奏等を行っている人々にとっては、このような費用負担は難しいため、これらの人々が自己の演奏曲等についてライナーノーツ等を作成することは困難であった。そこで、このような問題点を解決するための技術が従来より種々提案されており、その一例としては、特許文献1に開示された技術が挙げられる。
For example, for music CDs and records, a booklet with an introductory text called liner notes on which the characteristics of the recorded music are written is enclosed. Also, when broadcasting a song on TV or radio, etc., introducing the characteristics of the song by narration in the prelude section, interlude section, and follower section of the song that do not hinder the appreciation of the song There is. For this reason, some people who enjoy playing music and singing want to create liner notes and narrations about their performance and singing. However, in order to create liner notes and narration that accurately represent the characteristics of the music, a wide range of expertise in music is required, and if you ask a music critic with such expertise to create it. A large amount of money is required. Such a cost burden is difficult for people who play music as a hobby, and it has been difficult for these people to create liner notes etc. for their own music. Therefore, various techniques for solving such problems have been proposed, and the technique disclosed in
特許文献1には、リクエストした曲の演奏開始時に曲の種類に適したナレーションを付加して再生するカラオケシステムが開示されている。より詳細に説明すると、このカラオケシステムには、楽曲データ記憶装置、ナレーションデータ記憶装置、および、カラオケシステム全体の制御を掌るホストシステムが含まれている。楽曲データ記憶装置は、予め複数の楽曲の楽曲データの各々にその楽曲の演奏内容を示す識別情報を付加して格納しており、ナレーションデータ記憶装置は、複数種類の演奏内容の各々に対応付けてその演奏内容に応じたナレーションを示すナレーションデータを格納している。そして、上記ホストシステムは、リクエストされた楽曲の楽曲データを楽曲データ記憶装置から読み出して再生する一方、その再生開始時にその楽曲の演奏内容に応じたナレーションデータをナレーションデータ記憶装置から読み出して再生する。
特許文献1に開示された技術によれば、カラオケ曲を歌唱する際にそのカラオケ曲に適したナレーションを付加することが可能になるのであるが、例えばユーザが作詞や作曲をしたオリジナル楽曲については、ナレーションを付加することはできない。また、ユーザ自らが作成したのではない既存の楽曲であっても、その楽曲についてのナレーションデータが予め用意されてなければ、やはり、ナレーションが付加されることはない。つまり、特許文献1に開示された技術では、任意の楽曲についてその楽曲の演奏内容を反映したナレーションを付加することはできないのである。
According to the technique disclosed in
本発明は、上記課題に鑑みて為されたものであり、任意の楽曲について、人手を掛けることなく、その演奏内容を反映したライナーノーツの生成やナレーションの付与を可能にする技術を提供することを目的としている。 The present invention has been made in view of the above problems, and provides a technique that enables generation of liner notes and the addition of narration that reflect the performance content of an arbitrary piece of music without requiring human intervention. It is an object.
上記課題を解決するために、本発明は、予め定められた複数種類の音響特性の各々を示す特性値から1つの楽曲紹介文を生成または特定するためのデータが格納された楽曲紹介文データベースと、楽曲データが入力される入力手段と、前記入力手段により受け取った楽曲データを解析し、前記複数種類の音響特性の各々を示す特性値を特定する特徴特定手段と、前記特徴特定手段により特定される各特性値と前記楽曲紹介文データベースの格納内容とから、前記入力手段により受け取った楽曲データで表される楽曲についての紹介文を表す紹介文データを取得して出力する取得手段とを有することを特徴とする楽曲紹介文生成装置、を提供する。 In order to solve the above problems, the present invention provides a music introduction sentence database storing data for generating or specifying one music introduction sentence from characteristic values indicating each of a plurality of predetermined acoustic characteristics, , Input means to which music data is input, characteristic specifying means for analyzing the music data received by the input means and specifying characteristic values indicating each of the plurality of types of acoustic characteristics, and specified by the characteristic specifying means Acquisition means for acquiring and outputting introductory text data representing an introductory text for the music represented by the music data received by the input means from each characteristic value and the stored content of the music introductory text database A music introduction sentence generation device characterized by the above.
より好ましい態様においては、前記楽曲紹介文生成装置が有する楽曲紹介文データベースの格納内容は、楽曲のジャンル毎に分類されており、前記取得手段は、前記入力手段により受け取った楽曲データの表す楽曲の属するジャンルを示すジャンル識別子であって、外部から入力されるジャンル識別子の示すジャンル、または前記特徴特定手段により特定される各特性値から特定される楽曲のジャンルに対応付けて前記楽曲紹介文データベースに格納されているデータを参照して、前記入力手段により受け取った楽曲データの表す楽曲についての紹介文データを取得することを特徴とする。 In a more preferred aspect, the stored contents of the music introduction sentence database possessed by the music introduction sentence generating device are classified for each genre of music, and the acquisition means stores the music represented by the music data received by the input means. A genre identifier indicating a genre to which the genre belongs, and the genre indicated by the genre identifier input from the outside or the genre of the music specified from each characteristic value specified by the feature specifying means is associated with the music introduction sentence database. Referencing stored data, introductory sentence data about the music represented by the music data received by the input means is obtained.
また、上記課題を解決するために、本発明は、楽曲データが入力される入力手段と、前記入力手段により受け取った楽曲データを解析し、その楽曲データの表す楽曲の前奏区間、間奏区間または後奏区間を特定する区間特定手段と、前記入力手段により受け取った楽曲データの表す楽曲の特徴を反映した紹介文を表す文章データを取得する取得手段と、前記取得手段により取得された文章データの表す紹介文の読み上げ音声であるナレーションの音声データをその文章データから合成する音声合成手段と、前記音声合成手段により合成された音声データの表す音声が前記特定手段により特定された区間に重畳されるように前記音声データと前記楽曲データとを合成して出力する合成手段とを有することを特徴とするナレーション付加装置、を提供する。 In order to solve the above problems, the present invention analyzes an input means for inputting music data and music data received by the input means, and a prelude section, an interlude section or a post of the music represented by the music data. A section specifying means for specifying a performance section, an acquisition means for acquiring introductory text reflecting the characteristics of the music represented by the music data received by the input means, and a text data acquired by the acquiring means A voice synthesizing unit that synthesizes voice data of narration, which is a reading voice of an introduction sentence, from the sentence data, and a voice represented by the voice data synthesized by the voice synthesizing unit is superimposed on the section specified by the specifying unit. A narration adding device comprising: a synthesizing means for synthesizing and outputting the audio data and the music data; Subjected to.
より好ましい態様においては、前記ナレーション付加装置は、予め定められた複数種類の音響特性の各々を示す特性値から1つの楽曲紹介文を生成または特定するためのデータが格納された楽曲紹介文データベースと、前記入力手段により受け取った楽曲データを解析し、前記複数種類の音響特性の各々を示す特性値を特定する特徴特定手段と、を備え、前記取得手段は、前記特徴特定手段により特定される各特性値と前記楽曲紹介文データベースの格納内容とから、前記楽曲データで表される楽曲についての紹介文を表す紹介文データを取得することを特徴とする。 In a more preferred aspect, the narration adding device includes a song introduction sentence database storing data for generating or specifying one song introduction sentence from characteristic values indicating each of a plurality of predetermined acoustic characteristics, and Analyzing the music data received by the input means, and specifying a characteristic value indicating each of the plurality of types of acoustic characteristics, and the acquiring means is specified by the feature specifying means Introductory text data representing an introductory text about the music represented by the music data is acquired from the characteristic value and the stored contents of the music introductory text database.
また、上記課題を解決するために、本発明、コンピュータ装置を、前記コンピュータ装置へ入力された楽曲データを解析し、予め定められた複数種類の音響特性の各々を示す特性値を特定する特徴特定手段と、前記複数種類の音響特性の各々を示す特性値から1つの楽曲紹介文を生成または特定するためのデータが格納された楽曲紹介文データベースの格納内容と前記特徴特定手段により特定される各特性値とから、前記楽曲データで表される楽曲についての紹介文を表す紹介文データを取得して出力する取得手段として機能させることを特徴とするプログラム、を提供する。 In order to solve the above-mentioned problem, the present invention, the computer device, analyzes the music data input to the computer device, and specifies the characteristic value indicating each of a plurality of predetermined acoustic characteristics Means, contents stored in a music introduction database storing data for generating or specifying one music introduction sentence from characteristic values indicating each of the plurality of types of acoustic characteristics, and each specified by the feature specifying means There is provided a program characterized by functioning as an acquisition means for acquiring and outputting introductory text data representing an introductory text about a music represented by the music data from a characteristic value.
また、上記課題を解決するために、本発明は、コンピュータ装置を、前記コンピュータ装置に入力された楽曲データを解析し、その楽曲データの表す楽曲の前奏区間、間奏区間または後奏区間を特定する区間特定手段と、前記楽曲データの表す楽曲の特徴を反映した紹介文を表す文章データを取得する取得手段と、前記取得手段により取得された文章データの表す紹介文の読み上げ音声であるナレーションの音声データをその文章データから合成する音声合成手段と、前記音声合成手段により合成された音声データの表す音声が前記特定手段により特定された区間に重畳されるように前記音声データと前記楽曲データとを合成して出力する合成手段として機能させることを特徴とするプログラム、を提供する。 In order to solve the above-described problem, the present invention analyzes a music data input to the computer device and specifies a prelude section, an interlude section or a postlude section of the music represented by the music data. Section identifying means, acquisition means for acquiring sentence data representing an introductory sentence reflecting the characteristics of the music represented by the music data, and voice of narration that is a reading voice of the introductory sentence represented by the sentence data acquired by the acquiring means Voice synthesis means for synthesizing data from the text data, and the voice data and the music data so that the voice represented by the voice data synthesized by the voice synthesis means is superimposed on the section specified by the specification means. Provided is a program characterized by functioning as a combining means for combining and outputting.
本発明によれば、任意の楽曲について、人手を掛けることなく、その演奏内容を反映したライナーノーツの生成やナレーションの付与が可能になる、といった効果を奏する。 According to the present invention, there is an effect that it is possible to generate liner notes and give narration that reflects the performance contents of an arbitrary piece of music without manpower.
以下図面を参照しつつ本発明を実施する際の最良の形態について説明する。
(A:第1実施形態)
(A−1:構成)
図1は、本発明に係る楽曲紹介文生成装置の第1実施形態に係るライナーノーツ生成装置10の構成例を示す図である。このライナーノーツ生成装置10は、インターネットなどの通信網(図示省略)に接続されているコンピュータ装置であり、楽曲データやその楽曲データの表す楽曲のライナーノーツを表す紹介文データをデジタルコンテンツとして配信するコンテンツサーバとして機能する。なお、以下では、上記楽曲データとして、楽曲のオーディオ波形を所定のサンプリング間隔でサンプリングし、A/D変換を施して得られる時系列サンプリングデータを用いる場合について説明するが、時系列サンプリングデータに更に符号圧縮を施して得られるデータを用いても勿論良い。図1に示すように、ライナーノーツ生成装置10は、制御部110、通信インタフェース(以下、「IF」)部120、外部機器IF部130、揮発性記憶部140、不揮発性記憶部150、および、これら構成要素間のデータ授受を仲介するバス160を有している。
The best mode for carrying out the present invention will be described below with reference to the drawings.
(A: 1st Embodiment)
(A-1: Configuration)
FIG. 1 is a diagram illustrating a configuration example of a liner
制御部110は、例えばCPU(Central Processing Unit)である。制御部110は、不揮発性記憶部150に記憶されている各種プログラムにしたがって作動することにより、ライナーノーツ生成装置10の制御中枢として機能する。この制御部110が実行する処理については後に明らかにする。
The control unit 110 is, for example, a CPU (Central Processing Unit). The control unit 110 functions as a control center of the liner
通信IF部120は、例えばNIC(Network Interface Card)であり、前述した通信網に接続されている。通信IF部120は、例えばHTTPなどの所定の通信プロトコルにしたがって送信されている通信メッセージ(例えば、デジタルコンテンツの配信を要求する旨の要求メッセージ:以下、コンテンツ配信要求メッセージ)を受信して制御部110に引き渡す一方、制御部110から引き渡される通信メッセージ(例えば、デジタルコンテンツとその宛先とが書き込まれた通信メッセージ:以下、コンテンツ配信メッセージ)を上記通信網を介してその宛先へと送信する。
The
外部機器IF部130は、例えばUSB(Universal Serial Bus)インタフェースであり、USBメモリなどの記録媒体やCD−ROM(Compact Disk Read Only Memory)ドライブなどの記録媒体読み取り装置を接続し、データの授受を行うためのものである。この外部機器IF部130は、ライナーノーツ生成装置10に新たな楽曲データを記憶させる際に、その楽曲データをライナーノーツ生成装置10に入力するための入力手段の役割を担う。具体的には、楽曲データが書き込まれたUSBメモリなどの記録媒体が外部機器IF部130に接続されると、制御部110は、外部機器IF部130を介してその記録媒体から楽曲データを読み出し、所定の処理を施した後に不揮発性記憶部150内の所定領域に書き込むことにより、新たなデジタルコンテンツの登録を行う。なお、外部機器IF部130にCD−ROMドライブなどの記録媒体読み取り装置が接続される場合には、その記録媒体読み取り装置にセットされた記録媒体から新たな楽曲データを読み出して不揮発性記憶部150に書き込む処理を制御部110に実行させれば良い。
The external
揮発性記憶部140は、例えばRAM(Random Access Memory)であり各種プログラムを実行する際にワークエリアとして利用される。一方、不揮発性記憶部150は、ハードディスクであり、各種データや各種プログラムを格納しておくためのものである。図1に示すように、不揮発性記憶部150には、楽曲データベース151および楽曲紹介文データベース152の各種データベースと、OSプログラム153、コンテンツ配信プログラム154、およびコンテンツ登録プログラム155の各種プログラムが格納されている。
The
楽曲データベース151には、複数の楽曲の各々を一意に識別する楽曲識別子(例えば、楽曲の名称を表す文字列データ)に対応付けて、その楽曲識別子で識別される楽曲のオーディオ波形を示す楽曲データとその楽曲の特徴を紹介した文章(所謂ライナーノーツ)を表すテキストデータである紹介文データとが格納されている。本実施形態では、これら楽曲データや紹介文データが前述したデジタルコンテンツとして取り扱われるのである。なお、本実施形態では、紹介文を構成する各文字の文字コードをその記載順に配列してなるテキストデータを上記紹介文データとして用いる場合について説明するが、例えばPDF形式などテキストデータとの相互変換が可能な他のデータ形式を用いても良いことは勿論である。
In the
楽曲紹介文データベース152は、外部機器IF部130を介して入力される楽曲データでオーディオ波形が表される楽曲(以下、「処理対象の楽曲」と呼ぶ)についての紹介文データをその楽曲データから生成する処理の実行過程で参照されるデータベースである。この楽曲紹介文データベース152は、図2に示すように、処理対象の楽曲の楽曲データを解析することにより特定されるその楽曲の音響特性を示す特性値とその楽曲の属するジャンルを示すジャンル識別子とからその楽曲の紹介文を一意に特定するためのデータベースであり、その実施態様としては種種の態様が考えられるが、その一例を挙げると以下の通りである。
The music
(a)第1に、上記複数種類の音響特性の各々を示す特性値に対応付けて、それら特性値で示される音響特性を有する楽曲の特徴を表現するに好適な紹介文を表す紹介文データが格納されて紹介文テーブルを楽曲のジャンル毎に設けて楽曲紹介文データベース152を構成する態様が挙げられる。なお、上記特性値としては、音の総パワー(音量)を示す“Audio Energy”、音の明るさや軽/重の度合いを示す“Spectral
Centroid”、音のパワフルさの度合いを示す“Spectral Tilt”、目一杯音が鳴っている感じなど音のハリ具合を示す“Spectral Flatness dB”、音のキラキラ感の度合いを示す“High
Frequency Content”、音のスペクトルの概形を数個の数値で特徴づける“MFCC”、音の総パワーに対する各周波数帯域のパワーの割合である“Energy Band Ratio”や“Bark Energy Band”、ハーモニーや和声、コード感、キーなどを示す基本となる“HPCP”などを用いるようにすれば良い。
(A) First, introductory sentence data representing an introductory sentence suitable for expressing the characteristics of music having the acoustic characteristics indicated by these characteristic values in association with characteristic values indicating each of the plurality of types of acoustic characteristics. Is stored and an introduction sentence table is provided for each genre of music, and the music
“Centroid”, “Spectral Tilt” indicating how powerful the sound is, “Spectral Flatness dB” indicating how sharp the sound is, such as the sound of a full sound, “High” indicating the degree of glittering sound
“Frequency Content”, “MFCC” characterizing the outline of the sound spectrum with several numerical values, “Energy Band Ratio” or “Bark Energy Band” that is the ratio of the power of each frequency band to the total power of the sound, The basic "HPCP" indicating harmony, chord feeling, keys, etc. may be used.
図3は、上記音響特性として、楽曲の音量を示す特徴量(例えば、“Audio Energy”)と、楽曲のメロディが流麗であるのかそれとも歯切れ良いものであるかを示す特徴量(例えば、“HPCP”)を採用した場合のクラッシク曲についての紹介文テーブルの格納内容(図3(a))とポップスについての紹介文テーブルの格納内容(図3(b))の一例を示す図である。このように、楽曲のジャンル毎に上記紹介文テーブルを設ける理由は、同一の特性値の組で音響特性が表される楽曲であっても、楽曲の属するジャンルが異なればその楽曲の特徴を表現するに好適な紹介文のスタイル(文体)やその紹介文で用いられるべき用語や表現が異なり得るからである。なお、図3では、紹介文データに対応付ける音響特性として楽曲のジャンルによらずに共通の音響特性(図3では、音量とメロディ感を)を採用する場合について説明したが、楽曲のジャンル毎に異なる音響特性を採用するとしても勿論良い。 FIG. 3 shows, as the acoustic characteristics, a feature amount (for example, “Audio Energy”) indicating the volume of a song and a feature amount (for example, “HPCP” indicating whether the melody of the song is clean or crisp. It is a figure which shows an example of the storage content (FIG.3 (a)) of the introduction sentence table about a classical music at the time of employ | adopting ") and the storage content (FIG.3 (b)) of the introduction sentence table about pops. In this way, the reason why the above introduction sentence table is provided for each genre of music is that, even if the music characteristics are represented by the same set of characteristic values, the characteristics of the music are expressed if the genre to which the music belongs is different. This is because the preferred introduction style (sentence) and the terms and expressions to be used in the introduction may differ. In FIG. 3, a case has been described in which a common acoustic characteristic (in FIG. 3, volume and melody feeling) is adopted as the acoustic characteristic associated with the introductory sentence data, regardless of the genre of the music. Of course, different acoustic characteristics may be adopted.
(b)楽曲紹介文データベース152の第2の実施態様としては、上記複数種類の音響特性の各々を示す特性値を形容詞などのキーワードに変換するキーワードテーブルを楽曲のジャンル毎に設けておくとともに、それらキーワードが所定の空白部分に埋め込まれることにより紹介文を形成する紹介文テンプレートを楽曲のジャンル毎に設けておくことにより楽曲紹介文データベース152を構成する態様が挙げられる。なお、キーワードテーブルを楽曲のジャンル毎に設けておく理由は、ある音響特性についてその特性値が同一である場合であっても、楽曲のジャンルが異なればその音響特性を表現するに好適なキーワードが異なり得るからである。また、楽曲のジャンル毎に紹介文テンプレートを設けておく理由は、楽曲のジャンルが異なれば紹介文として好適なスタイルが異なり得るからである。
以上、楽曲紹介文データベース152の実施態様として2つの例を挙げたが、本発明に係る楽曲紹介文生成装置が有するべき楽曲紹介文データベースの実施態様が上記2つの実施態様の何れかに限定されるものではないことは言うまでもない。要は、処理対象の楽曲の楽曲データを解析することにより得られる各音響特性の特性値から1の紹介文データを特定(または生成)することができる態様であれば、どのような態様であっても良い。
(B) As a second embodiment of the music
As mentioned above, although two examples have been given as embodiments of the music
OSプログラム153は、制御部110にオペレーティングシステム(Operating System;以下、「OS」)を実現させるためのプログラムである。ライナーノーツ生成装置10の電源(図示省略)が投入されると、制御部110は即座にOSプログラムを不揮発性記憶部150から揮発性記憶部140にロードしてその実行を開始する。OSプログラム153にしたがって作動しOSを実現している状態の制御部110は、ライナーノーツ生成装置10の各部の作動制御を行うこと、予め定められた実行スケジュールや運用管理者の指示にしたがって他のプログラムの実行を開始することができる。本実施形態に係るライナーノーツ生成装置10においては、OSプログラムにしたがって作動している制御部110は、コンテンツ配信プログラム154およびコンテンツ登録プログラム155の各々を所謂デーモンプロセスとして起動する。
The
コンテンツ配信プログラム154は、デジタルコンテンツの配信を要求する旨の通信メッセージを受信した場合に、該当するデジタルコンテンツ(本実施形態では、楽曲データやその楽曲データに対応する紹介文データ)を楽曲データベース151から読み出し、その通信メッセージの送信元へ返信する処理を制御部110に実行させるプログラムである。つまり、コンテンツ配信プログラム154は、ライナーノーツ生成装置10に前述したコンテンツサーバの役割を実現させるためのプログラムである。
When the
コンテンツ登録プログラム155は、外部機器IF部130を介して入力された楽曲データの表す楽曲についての紹介文を示す紹介文データを生成し、その紹介文データと楽曲データとを対応付けて楽曲データベース151に登録する処理を制御部110に実行させるプログラムである。より詳細に説明すると、コンテンツ登録プログラム155にしたがって作動している制御部110は、以下の3つの処理を実行する。
The
第1に、外部機器IF部130を介して入力された楽曲データを解析して、その楽曲データの表す楽曲についての前述した複数種類の音響特性の各々を示す特性値を特定する特徴特定処理である。なお、本実施形態では、処理対象である楽曲データが外部機器IF部130を介してライナーノーツ生成装置10に入力される場合について説明したが、通信網経由で入力されるとしても勿論良い。通信網経由で処理対象の楽曲データが入力される場合には、通信IF部120が前述した入力手段の役割を担うことになる。
First, in the feature specifying process of analyzing the music data input via the external device IF
第2に、ユーザが操作部(図示省略)を適宜操作することにより入力したジャンル識別子(上記楽曲の属するジャンルを示す識別子)と上記特徴特定処理により特定された特性値とを用いて楽曲紹介文データベース152を検索し、該当する紹介文データを取得する紹介文取得処理である。なお、本実施形態では、ジャンル識別子を操作部経由で入力する場合について説明するが、外部機器IF部130経由で入力するとしても勿論良い。具体的には、処理対象の楽曲データが書き込まれた記録媒体にその楽曲データに対応づけてジャンル識別子を書き込んでおき、その楽曲データとともにそのジャンル識別子を制御部110に読み出させるようにすれば良い。また、本実施形態では、処理対象の楽曲のジャンルを示すジャンル識別子を入力する場合について説明するが、上記特徴特定処理による特定結果(すなわち、処理対象の楽曲についての各音響特性の度合い)からその楽曲の属するジャンルを制御部110に判別させるようにしても勿論良く、このような態様にあってはジャンル識別子の入力は不要である。
Second, a music introduction sentence using a genre identifier (an identifier indicating the genre to which the music belongs) input by the user appropriately operating an operation unit (not shown) and the characteristic value specified by the feature specifying process. This is an introduction sentence acquisition process for searching the
そして、第3に、ユーザが操作部(図示省略)を適宜操作することにより入力した楽曲識別子に対応付けて、処理対象の楽曲の楽曲データと、紹介文取得処理にて取得した紹介文データとを楽曲データベース151に書き込むコンテンツ登録処理である。
以上がライナーノーツ生成装置10の構成である。
Thirdly, in association with the music identifier input by the user appropriately operating the operation unit (not shown), the music data of the music to be processed, the introductory text data acquired in the introductory text acquisition process, Is a content registration process for writing the data into the
The above is the configuration of the liner
(A−2:動作)
次いで、ライナーノーツ生成装置10が実行する動作のうち、本発明に係る楽曲紹介文生成装置の特徴を顕著に示す動作、すなわち、コンテンツ登録プログラム155にしたがって制御部110が行う動作について図面を参照しつつ説明する。なお、以下に説明する動作例では、ライナーノーツ生成装置10の電源(図示省略)は投入済みであり、コンテンツ登録プログラム155は、OSの制御下で前述したデーモンプロセスとして制御部110によりその実行が開始されているとする。
(A-2: Operation)
Next, among the operations executed by the liner
上記状況下で、処理対象である楽曲データを格納した記録媒体が外部機器IF部130に接続され、さらに、その楽曲データの表す楽曲の属するジャンルを示すジャンル識別子が操作部(図示省略)を介して入力されると、コンテンツ登録プログラム155にしたがって作動している制御部110は、図4のフローチャートに示す処理を実行する。図4に示すように、制御部110は、まず、処理対象である楽曲の楽曲データを外部機器IF部130を介して記録媒体から読み出し、その楽曲データを解析して、その楽曲データの表す楽曲についての前述した複数種類の音響特性(楽曲紹介文データベースにキーワードが登録されている音響特性)の各々を示す特性値を算出することにより、各音響特性を特定する(ステップSA100)。このステップSA100の実行にあたっては、各音響特性についての周知のアルゴリズムを利用すれば良い。なお、処理対象の楽曲について上記複数種類の音響特性を特定する際には、楽曲全体を通して各音響特性の度合いを特定するとしても良く、楽曲の前半部分や後半部分など間奏で区切られるパート毎に各音響特性の度合いを特定するとしても良い。楽曲全体を通して各音響特性の度合いを特定する態様にあっては、その楽曲全体に対して1つの紹介文データが以下の処理により生成されることになり、パート毎に各音響特性の度合いを特定する態様にあっては、それらパート毎に以下のステップSA110および120の処理が実行され、それらパート毎に紹介文データが生成されることになる。
Under the above circumstances, a recording medium storing the music data to be processed is connected to the external device IF
ステップSA100に後続して実行されるステップSA110においては、制御部110は、操作部を介して入力されたジャンル識別子およびステップSA100にて特定した各特性値を用いて楽曲紹介文データベース152の検索を行い、それら特性値およびジャンル識別子に対応する紹介文データを取得する。例えば、楽曲紹介文データベース152が前述した第1の態様で実装されている場合には、制御部110は、上記ジャンル識別子で識別されるジャンルに対応する紹介文テーブルから、上記各特性値に対応する紹介文データを読み出すことにより、処理対象の楽曲についての紹介文データを取得する。また、楽曲紹介文データベース152が前述した第2の態様で実装されている場合には、制御部110は、上記ジャンル識別子に対応するキーワードテーブルを参照して各特性値に対応するキーワードを特定し、それらキーワードを上記ジャンル識別子に対応する紹介文テンプレートに埋め込んで紹介文データを生成することによって、処理対象の楽曲についての紹介文データを取得する。
In step SA110 executed subsequent to step SA100, the control unit 110 searches the music
そして、制御部110は、ステップSA110にて取得した紹介文データを上記処理対象の楽曲についてのライナーノーツデータとして、その楽曲についての楽曲データとともにその楽曲の楽曲識別子と対応付けて楽曲データベース151に格納する(ステップSA120)。以降、制御部110は、通信IF部120を介してコンテンツ配信要求メッセージを受信すると、その要求内容に応じたコンテンツ(楽曲データやライナーノーツデータ、または、その両者)を楽曲データベース151から読み出し、そのコンテンツ要求メッセージの送信元へ配信する。なお、このようなコンテンツ配信を行う場合には、所定の課金アルゴリズムにしたがって課金を行っても良いことは勿論である。このようにしてライナーノーツ生成装置10より配信されるライナーノーツデータの表す文章が、そのライナーノーツデータと対になる楽曲の特徴を反映したものであることは、前述した通りである。また、本実施形態によれば、任意の楽曲についてその楽曲の音響特性と楽曲紹介文データベース152の格納内容とから、その楽曲の特徴を反映した紹介文(ライナーノーツ)が自動生成されるのであるから、音楽評論家などの専門家の手を煩わせることもない。
Then, the control unit 110 stores the introductory sentence data acquired in step SA110 as liner notes data for the music to be processed in the
(B:第2実施形態)
次いで、本発明の第2実施形態に係るナレーション付加装置30について説明する。
ナレーション付加装置30は、前述したライナーノーツ生成装置10と同様、楽曲とその紹介文とをデジタルコンテンツとして配信するコンテンツサーバであり、楽曲を表す楽曲データを解析することによって、その楽曲の特徴を反映した紹介文を示す紹介文データを生成する点については、前述したライナーノーツ生成装置10と同一である。しかしながら、このナレーション付加装置30は、上記紹介文データの示す紹介文の読み上げ音であるナレーションをその楽曲の前奏区間や間奏区間、後奏区間などの所定区間に重畳させた楽曲データを合成する点が前述したライナーノーツ生成装置10と異なっている。
以下、ナレーション付加装置30の構成および動作について図面を参照しつつ説明する。
(B: Second embodiment)
Next, a
The
Hereinafter, the configuration and operation of the
(B−1:構成)
図5は、本発明の第2実施形態に係るナレーション付加装置30の構成例を示すブロック図である。図5と図1とを比較すれば明らかなように、ナレーション付加装置30のハードウェア構成は、前述したライナーノーツ生成装置10のハードウェア構成(図1参照)と同一である。具体的には、ナレーション付加装置30は、制御部110、通信IF部120、外部機器IF部130、揮発性記憶部140、不揮発性記憶部150およびバス160を有している。しかしながら、ナレーション付加装置30に特徴的な処理を実現するため、ナレーション付加装置30のソフトウェア構成(不揮発性記憶部150に格納されているデータやプログラム)は、ライナーノーツ生成装置10のソフトウェア構成とは異なっている。
(B-1: Configuration)
FIG. 5 is a block diagram showing a configuration example of the
具体的には、楽曲データベース151および楽曲紹介文データベース152の他に、音声合成データベース256が不揮発性記憶部150に格納されている点、およびコンテンツ登録プログラム155に換えてコンテンツ登録プログラム255が不揮発性記憶部150に格納されている点が異なっている。音声合成データベース256は、所謂音韻データベースであり、音声合成の際に参照される音韻データの集合体である。この音声合成データベース256には、発生する音声の種類、例えば、男声、女声、軽快な声質、深みのある声質など様々な声質ごとに音韻データの集合体が予め格納されている。この音声合成データベース256の格納内容は、処理対象の楽曲データについて生成された紹介文を表す文章データを音声データに変換して、その楽曲データの表す楽曲についてのナレーションを表すナレーションデータを生成する際に利用される。なお、本実施形態では、何れの声質の音声を合成するかをユーザに指定させる場合について説明するが、例えば、音韻データに対応付けてその音韻データで合成される音声でのナレーションが好適な楽曲のジャンルを示すジャンル識別子を対応付けておき、処理対象の楽曲の属するジャンルに好適な声質でナレーションを合成しても良い。
Specifically, in addition to the
一方、コンテンツ登録プログラム255は、処理対象である楽曲の楽曲データを解析して得られる各特性値とその楽曲のジャンル識別子とを用いて楽曲紹介文データベースを検索し、その楽曲の特徴を反映した紹介文データを取得する処理を制御部110に実行させる点は、前述したコンテンツ登録プログラム155と同一である。しかしながら、コンテンツ登録プログラム255は、上記のようにして取得した紹介文データの表す文章を読み上げた音声を示すナレーションデータをその紹介文データと音声合成データベースの格納内容とから合成し、その音声をナレーションとして上記楽曲データの表す楽曲に重畳させる処理を制御部110に実行させる点が前述したコンテンツ登録プログラム155と異なる。
以上がナレーション付加装置30の構成である。
On the other hand, the
The above is the configuration of the
(B−2:動作)
次いで、ナレーション付加装置が行う動作のうち、本発明に係る楽曲紹介文生成装置の特徴を顕著に示す動作、すなわち、コンテンツ登録プログラム255にしたがって制御部110が実行する動作について説明する。
図6は、コンテンツ登録プログラム255にしたがって制御部110が実行する動作の流れを示すフローチャートである。図4と図6とを比較すれば明らかなように、コンテンツ登録プログラム255にしたがって制御部110が行う動作は、ステップSA110の処理の実行後、ステップSB100からステップSB120までの3つの処理を実行した後に、ステップSA120の処理を実行する点のみが、コンテンツ登録プログラム155にしたがって制御部110が実行する動作と異なっている。以下、ライナーノーツ生成装置10の動作との相違点であるステップSB100からステップSB120の処理を中心に説明する。
(B-2: Operation)
Next, among the operations performed by the narration adding device, the operation that remarkably shows the characteristics of the music introduction sentence generating device according to the present invention, that is, the operation executed by the control unit 110 according to the
FIG. 6 is a flowchart showing a flow of operations executed by the control unit 110 in accordance with the
ステップSB100においては、制御部110は、処理対象である楽曲の楽曲データを解析し、その楽曲データの表す楽曲のうちナレーションが付与されるべき区間を特定する。例えば、上記楽曲データが歌唱曲を表す場合には、制御部110は、その楽曲データにスペクトル解析を施し、そのスペクトル変化(すなわち、人の声に特徴的なスペクトルなど歌唱音に特徴的なスペクトルの有無)から歌い出しの位置を特定し、その歌い出し位置よりも前の区間(すなわち、前奏区間)をナレーションが付与されるべき区間として特定する。なお、本実施形態では、ナレーションが付与されるべき区間として楽曲の前奏区間を用いる場合について説明したが、間奏区間や後奏区間であっても良いことは勿論である。間奏区間や後奏区間の特定に関しては、前述した前奏区間の特定と同様で歌唱音に特徴的なスペクトルの検出によりその特定が可能である。また、歌唱を伴わない楽曲については、音量の変化から前奏区間等を特定しても良く、メロディ抽出などによりメインメロディと推定されるパートを特定し、そのパートに属するスペクトルの有無により前奏区間等の特定を行っても良い。 In step SB100, the control unit 110 analyzes the music data of the music to be processed, and identifies the section to which narration should be given among the music represented by the music data. For example, when the music data represents a song, the control unit 110 performs spectrum analysis on the music data and changes its spectrum (that is, a spectrum characteristic of a song such as a spectrum characteristic of a human voice). The position of singing is specified from the presence or absence), and the section before the singing position (that is, the prelude section) is specified as the section to be given narration. In this embodiment, the case where the prelude section of the music is used as the section to which narration should be given has been described, but it is needless to say that it may be an interlude section or a follower section. Regarding the specification of the interlude section and the subsequent section, it can be specified by detecting the spectrum characteristic of the singing sound in the same manner as the specification of the prelude section described above. In addition, for music that does not involve singing, the prelude section, etc. may be specified from the change in volume, the part presumed to be the main melody by melody extraction, etc., and the presence of the spectrum belonging to that part, etc. May be specified.
次いで、制御部110は、ステップSA110にて取得した紹介文データの表す紹介文を読み上げた音声を示す音声データを、その紹介文データとユーザの指定する声質に対応する音韻データとから生成し(ステップSB110)、ステップSB100にて特定したナレーション付加区間にその音声データの表す音声が重畳されるように、その音声データと処理対象の楽曲データとを合成する(ステップSB120)。なお、本実施形態では、処理対象の楽曲データに対してステップSA100からステップSA110の処理により得られる紹介文データの表す紹介文の音声を音声合成により生成し、その楽曲の所定区間に重畳する場合について説明した。しかし、処理対象の楽曲データとともにその紹介文を示す紹介文データ(例えば、ユーザ自らがワードプロセッサなどで作成した紹介文データ)をナレーション付加装置30に与え、その紹介文データについてステップSB100以降の処理を実行しても良いことは勿論である。
Next, the control unit 110 generates speech data indicating the speech read out from the introductory sentence represented by the introductory sentence data acquired in step SA110 from the introductory sentence data and phonological data corresponding to the voice quality designated by the user ( In step SB110, the voice data and the music data to be processed are synthesized so that the voice represented by the voice data is superimposed on the narration addition section identified in step SB100 (step SB120). In the present embodiment, the speech of the introductory text represented by the introductory text data obtained by the processing from step SA100 to step SA110 is generated by speech synthesis for the music data to be processed and is superimposed on a predetermined section of the music. Explained. However, introductory text data (for example, introductory text data created by the user himself / herself with a word processor) indicating the introductory text along with the music data to be processed is given to the
そして、制御部110は、ステップSB120にて合成したナレーション付の楽曲データに、ステップSA110にて生成した紹介文データを対応付けて楽曲データベースに書き込み(ステップSA120)、本動作を終了する。なお、本実施形態では、ステップSA110にて取得した紹介文データの表す紹介文全体を読み上げた音声をナレーションとして付加する場合について説明したが、ナレーションを付加するべき区間の時間長が短く、上記紹介文全体を読み上げた音声を重畳することができない場合には、既存の文章要約アルゴリズムを用いて上記紹介文データの表す紹介文を適宜要約した後に音声合成を行うようにしても良い。また、ナレーションを付与するべき区間として複数の区間がステップSB100にて特定された場合には、紹介文データの表す紹介文の長さとそれら複数の区間の各々の時間長とを比較してそれら複数の区間からナレーションを付与する区間を特定するとしても良い。 Then, the control unit 110 associates the introductory sentence data generated in step SA110 with the narrated music data synthesized in step SB120 and writes it in the music database (step SA120), and ends this operation. In the present embodiment, a case has been described in which the voice that reads out the entire introduction sentence represented by the introduction sentence data acquired in step SA110 is added as a narration. If speech that reads out the entire sentence cannot be superimposed, speech synthesis may be performed after appropriately summarizing the introduction sentence represented by the introduction sentence data using an existing sentence summarization algorithm. Further, when a plurality of sections are identified as sections to which narration is to be assigned in step SB100, the length of the introduction sentence represented by the introduction sentence data is compared with the time length of each of the plurality of sections. The section to which narration is given may be specified from the section.
以降、制御部110は、通信IF部120を介してコンテンツ配信要求メッセージを受信すると、その要求内容に応じたコンテンツ(楽曲データやライナーノーツデータ、または、その両者)を楽曲データベース151から読み出し、そのコンテンツ要求メッセージの送信元へ配信する。これにより、任意の楽曲データを、その楽曲データの表す楽曲の前奏区間にその楽曲の特徴を反映したナレーションを付加した楽曲を表す楽曲データに変換して配信することが可能になる。また、本第2実施形態においても、上記ナレーション付の楽曲データを生成する際に、音楽評論家などの専門家の手を煩わせることがないことは、前述した第1実施形態と同様である。
Thereafter, when receiving the content distribution request message via the communication IF
(C:他の実施形態)
以上、本発明の一実施形態について説明したが、係る実施形態に以下に説明する変形を加えても良いことは勿論である。
(1)上述した各実施形態では、本発明に係る楽曲紹介文生成装置に特徴的な処理をソフトウェアモジュールで実現する場合について説明したが、その少なくとも1部または全部を電子回路(すなわち、ハードウェアモジュール)で実現しても勿論良い。
(C: other embodiment)
Although one embodiment of the present invention has been described above, it goes without saying that modifications described below may be added to such an embodiment.
(1) In each of the above-described embodiments, a case has been described in which processing characteristic of the music introduction sentence generation device according to the present invention is implemented by a software module. At least a part or all of the processing is implemented by an electronic circuit (ie, hardware). Of course, it may be realized by a module).
(2)上述した実施形態では、楽曲紹介文データベースの格納内容を楽曲のジャンル毎に分類しておく場合について説明したが、このような分類は必ずしも必須ではない。例えば、前述した第1の実施態様にあっては、各ジャンルに亘って共通の紹介文テーブルを用いても良く、また、第2の実施態様にあっては、各ジャンルに亘って共通のキーワードテーブルや各ジャンルに亘って共通の紹介文テンプレートを用いても勿論良い。 (2) In the above-described embodiment, the case has been described in which the contents stored in the music introduction sentence database are classified for each genre of music, but such classification is not necessarily essential. For example, in the first embodiment described above, a common introduction sentence table may be used for each genre, and in the second embodiment, a keyword common to each genre. Of course, a common introductory sentence template may be used across tables and genres.
また、上述した実施形態では、処理対象である楽曲の楽曲データを解析して、予め定められた複数種類の音響特性についてのその楽曲の特徴を示す特性値を算出し、その特性値を用いてその楽曲についての楽曲紹介文を示す紹介文データを取得する場合について説明したが、例えば、操作部を適宜操作することにより入力される楽曲名や演奏者の氏名等を上記紹介文データの表す紹介文に付加しても勿論良い。具体的には、「それでは、○○の演奏する□□をお楽しみください。」という文章テンプレートを楽曲紹介文データベースに格納しておき、その文章テンプレートの○○部分にユーザの入力した演奏者氏名を埋め込み、同□□部分にユーザの入力した楽曲名を埋め込んで得られる文章データを上記紹介文データの末尾に付加するようにすれば良い。 In the above-described embodiment, the music data of the music to be processed is analyzed, the characteristic values indicating the characteristics of the music for a plurality of predetermined acoustic characteristics are calculated, and the characteristic values are used. The case where introductory text data indicating the introductory text for the music is acquired has been described. For example, the introductory text that indicates the name of the music or the name of the performer that is input by appropriately operating the operation unit Of course, it may be added to the sentence. Specifically, a text template “Please enjoy XX playing XX” is stored in the music introduction database, and the name of the player entered by the user in the XX part of the text template. And the text data obtained by embedding the music name input by the user in the □□ portion may be added to the end of the introduction text data.
(3)上述した各実施形態では、ライナーノーツ生成装置10やナレーション付加装置30に、本発明に係る楽曲紹介文生成装置に特徴的な処理を制御部110に実行させるためのプログラム(コンテンツ登録プログラム)を予めインストールしておく場合について説明した。しかしながら、例えばCD−ROMやDVD(Digital Versatile Disk)などコンピュータ装置読み取り可能な記録媒体に上記コンテンツ登録プログラムを記録して配布しても良く、また、インターネットなどの電気通信回線経由のダウンロードにより上記コンテンツ登録プロがラムを配布しても良い。
(3) In each of the above-described embodiments, a program (content registration program) that causes the liner
10…ライナーノーツ生成装置、30…ナレーション付加装置、110…制御部、120…通信IF部、130…外部機器IF部、140…揮発性記憶部、150…不揮発性記憶部、151…楽曲データベース、152…楽曲紹介文データベース、153…OSプログラム、154…コンテンツ配信プログラム、155,255…コンテンツ登録プログラム、256…音声合成データベース、160…バス。
DESCRIPTION OF
Claims (6)
楽曲データが入力される入力手段と、
前記入力手段により受け取った楽曲データを解析し、前記複数種類の音響特性の各々を示す特性値を特定する特徴特定手段と、
前記特徴特定手段により特定される各特性値と前記楽曲紹介文データベースの格納内容とから、前記入力手段により受け取った楽曲データで表される楽曲についての紹介文を表す紹介文データを取得して出力する取得手段と
を有することを特徴とする楽曲紹介文生成装置。 A music introduction database that stores data for generating or identifying one music introduction from characteristic values indicating each of a plurality of predetermined acoustic characteristics;
Input means for inputting music data;
Analyzing the music data received by the input means, and specifying a characteristic value indicating each of the plurality of types of acoustic characteristics;
Obtain and output introductory text data representing an introductory text about the music represented by the music data received by the input means from each characteristic value specified by the feature specifying means and the stored contents of the music introductory text database And a music introduction sentence generating device characterized by comprising:
前記取得手段は、前記入力手段により受け取った楽曲データの表す楽曲の属するジャンルを示すジャンル識別子であって、外部から入力されるジャンル識別子の示すジャンル、または前記特徴特定手段により特定される各特性値から特定される楽曲のジャンルに対応付けて前記楽曲紹介文データベースに格納されているデータを参照して、前記入力手段により受け取った楽曲データの表す楽曲についての紹介文データを取得する
ことを特徴とする請求項1に記載の楽曲紹介文生成装置。 The contents stored in the music introduction sentence database are classified for each genre of music,
The acquisition means is a genre identifier indicating a genre to which a music represented by music data received by the input means belongs, and a genre indicated by a genre identifier input from the outside, or each characteristic value specified by the feature specifying means Referencing data stored in the music introduction sentence database in association with the genre of the music specified from the above, obtaining introductory sentence data about the music represented by the music data received by the input means, The music introduction sentence generation apparatus according to claim 1.
前記入力手段により受け取った楽曲データを解析し、その楽曲データの表す楽曲の前奏区間、間奏区間または後奏区間を特定する区間特定手段と、
前記入力手段により受け取った楽曲データの表す楽曲の特徴を反映した紹介文を表す文章データを取得する取得手段と、
前記取得手段により取得された文章データの表す紹介文の読み上げ音声であるナレーションの音声データをその文章データから合成する音声合成手段と、
前記音声合成手段により合成された音声データの表す音声が前記特定手段により特定された区間に重畳されるように前記音声データと前記楽曲データとを合成して出力する合成手段と
を有することを特徴とするナレーション付加装置。 Input means for inputting music data;
Analyzing the music data received by the input means, and a section specifying means for specifying a prelude section, an interlude section or a postlude section of the music represented by the music data;
Acquisition means for acquiring sentence data representing an introduction sentence reflecting the characteristics of the music represented by the music data received by the input means;
Voice synthesizing means for synthesizing voice data of narration, which is a reading voice of an introduction sentence represented by the sentence data acquired by the acquiring means, from the sentence data;
Synthesizing means for synthesizing and outputting the voice data and the music data so that the voice represented by the voice data synthesized by the voice synthesizing means is superimposed on the section specified by the specifying means. Narration adding device.
前記入力手段により受け取った楽曲データを解析し、前記複数種類の音響特性の各々を示す特性値を特定する特徴特定手段と、
を備え、
前記取得手段は、前記特徴特定手段により特定される各特性値と前記楽曲紹介文データベースの格納内容とから、前記楽曲データで表される楽曲についての紹介文を表す紹介文データを取得する
ことを特徴とする請求項3に記載のナレーション付加装置。 A music introduction database that stores data for generating or identifying one music introduction from characteristic values indicating each of a plurality of predetermined acoustic characteristics;
Analyzing the music data received by the input means, and specifying a characteristic value indicating each of the plurality of types of acoustic characteristics;
With
The acquisition means acquires introductory sentence data representing an introductory sentence about the music represented by the music data from each characteristic value specified by the feature specifying means and the stored contents of the music introductory text database. 4. The narration adding device according to claim 3, wherein
前記コンピュータ装置へ入力された楽曲データを解析し、予め定められた複数種類の音響特性の各々を示す特性値を特定する特徴特定手段と、
前記複数種類の音響特性の各々を示す特性値から1つの楽曲紹介文を生成または特定するためのデータが格納された楽曲紹介文データベースの格納内容と前記特徴特定手段により特定される各特性値とから、前記楽曲データで表される楽曲についての紹介文を表す紹介文データを取得して出力する取得手段と
して機能させることを特徴とするプログラム。 Computer equipment,
Analyzing the music data input to the computer device, and a characteristic specifying means for specifying a characteristic value indicating each of a plurality of predetermined acoustic characteristics;
The stored contents of the music introduction sentence database storing data for generating or specifying one music introduction sentence from the characteristic values indicating each of the plurality of types of acoustic characteristics, and the characteristic values specified by the feature specifying means, From the above, the program is made to function as an acquisition means for acquiring and outputting introductory text data representing an introductory text for the music represented by the music data.
前記コンピュータ装置に入力された楽曲データを解析し、その楽曲データの表す楽曲の前奏区間、間奏区間または後奏区間を特定する区間特定手段と、
前記楽曲データの表す楽曲の特徴を反映した紹介文を表す文章データを取得する取得手段と、
前記取得手段により取得された文章データの表す紹介文の読み上げ音声であるナレーションの音声データをその文章データから合成する音声合成手段と、
前記音声合成手段により合成された音声データの表す音声が前記特定手段により特定された区間に重畳されるように前記音声データと前記楽曲データとを合成して出力する合成手段と
して機能させることを特徴とするプログラム。 Computer equipment,
Analyzing the music data input to the computer device, section specifying means for specifying the prelude section, the interlude section or the postlude section of the music represented by the music data;
Acquisition means for acquiring sentence data representing an introductory sentence reflecting the characteristics of the music represented by the music data;
Voice synthesizing means for synthesizing voice data of narration, which is a reading voice of an introduction sentence represented by the sentence data acquired by the acquiring means, from the sentence data;
Functioning as a synthesizing unit that synthesizes and outputs the voice data and the music data so that the voice represented by the voice data synthesized by the voice synthesizing unit is superimposed on the section specified by the specifying unit. A program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007086751A JP5034599B2 (en) | 2007-03-29 | 2007-03-29 | Music introduction sentence generation device, narration addition device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007086751A JP5034599B2 (en) | 2007-03-29 | 2007-03-29 | Music introduction sentence generation device, narration addition device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008242376A true JP2008242376A (en) | 2008-10-09 |
JP5034599B2 JP5034599B2 (en) | 2012-09-26 |
Family
ID=39913759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007086751A Expired - Fee Related JP5034599B2 (en) | 2007-03-29 | 2007-03-29 | Music introduction sentence generation device, narration addition device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5034599B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011209570A (en) * | 2010-03-30 | 2011-10-20 | Yamaha Corp | Karaoke device |
JP2013008109A (en) * | 2011-06-22 | 2013-01-10 | Yamaha Corp | Document contribution support system, portable terminal device and document contribution support program |
JP2018112642A (en) * | 2017-01-11 | 2018-07-19 | パイオニア株式会社 | Information output device and information output method |
CN108320756A (en) * | 2018-02-07 | 2018-07-24 | 广州酷狗计算机科技有限公司 | It is a kind of detection audio whether be absolute music audio method and apparatus |
WO2020208894A1 (en) * | 2019-04-12 | 2020-10-15 | ソニー株式会社 | Information processing device and information processing method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09152878A (en) * | 1995-11-30 | 1997-06-10 | Sanyo Electric Co Ltd | Karaoke device |
JPH1031494A (en) * | 1996-07-16 | 1998-02-03 | Sony Corp | Karaoke device |
JP2003271598A (en) * | 2002-03-12 | 2003-09-26 | Canon Inc | Information processor and method |
JP2004280911A (en) * | 2003-03-13 | 2004-10-07 | Alpine Electronics Inc | Audio reproducing device with inter-music dj |
JP2006202127A (en) * | 2005-01-21 | 2006-08-03 | Pioneer Electronic Corp | Recommended information presentation device and recommended information presentation method or the like |
JP2006276550A (en) * | 2005-03-30 | 2006-10-12 | Daiichikosho Co Ltd | Karaoke playing apparatus |
-
2007
- 2007-03-29 JP JP2007086751A patent/JP5034599B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09152878A (en) * | 1995-11-30 | 1997-06-10 | Sanyo Electric Co Ltd | Karaoke device |
JPH1031494A (en) * | 1996-07-16 | 1998-02-03 | Sony Corp | Karaoke device |
JP2003271598A (en) * | 2002-03-12 | 2003-09-26 | Canon Inc | Information processor and method |
JP2004280911A (en) * | 2003-03-13 | 2004-10-07 | Alpine Electronics Inc | Audio reproducing device with inter-music dj |
JP2006202127A (en) * | 2005-01-21 | 2006-08-03 | Pioneer Electronic Corp | Recommended information presentation device and recommended information presentation method or the like |
JP2006276550A (en) * | 2005-03-30 | 2006-10-12 | Daiichikosho Co Ltd | Karaoke playing apparatus |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011209570A (en) * | 2010-03-30 | 2011-10-20 | Yamaha Corp | Karaoke device |
JP2013008109A (en) * | 2011-06-22 | 2013-01-10 | Yamaha Corp | Document contribution support system, portable terminal device and document contribution support program |
JP2018112642A (en) * | 2017-01-11 | 2018-07-19 | パイオニア株式会社 | Information output device and information output method |
CN108320756A (en) * | 2018-02-07 | 2018-07-24 | 广州酷狗计算机科技有限公司 | It is a kind of detection audio whether be absolute music audio method and apparatus |
CN108320756B (en) * | 2018-02-07 | 2021-12-03 | 广州酷狗计算机科技有限公司 | Method and device for detecting whether audio is pure music audio |
WO2020208894A1 (en) * | 2019-04-12 | 2020-10-15 | ソニー株式会社 | Information processing device and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5034599B2 (en) | 2012-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5759022B2 (en) | Semantic audio track mixer | |
US8583418B2 (en) | Systems and methods of detecting language and natural language strings for text to speech synthesis | |
US8352272B2 (en) | Systems and methods for text to speech synthesis | |
US8352268B2 (en) | Systems and methods for selective rate of speech and speech preferences for text to speech synthesis | |
US8712776B2 (en) | Systems and methods for selective text to speech synthesis | |
US10229669B2 (en) | Apparatus, process, and program for combining speech and audio data | |
US8396714B2 (en) | Systems and methods for concatenation of words in text to speech synthesis | |
US8355919B2 (en) | Systems and methods for text normalization for text to speech synthesis | |
US20100082327A1 (en) | Systems and methods for mapping phonemes for text to speech synthesis | |
US6307139B1 (en) | Search index for a music file | |
US20100082328A1 (en) | Systems and methods for speech preprocessing in text to speech synthesis | |
JP2010518459A (en) | Web portal for editing distributed audio files | |
JP5034599B2 (en) | Music introduction sentence generation device, narration addition device, and program | |
JP2009210790A (en) | Music selection singer analysis and recommendation device, its method, and program | |
CN101551997A (en) | Assisted learning system of music | |
JP2006178104A (en) | Method, apparatus and system for musical piece generation | |
KR20170058504A (en) | System for realizing score and replaying sound source, and method thereof | |
JP4447540B2 (en) | Appreciation system for recording karaoke songs | |
KR102122195B1 (en) | Artificial intelligent ensemble system and method for playing music using the same | |
JP6611633B2 (en) | Karaoke system server | |
JP2017173504A (en) | Musical opus editing device | |
JP6699137B2 (en) | Data management device, content playback device, content playback method, and program | |
JP2003302971A (en) | Apparatus and program for video data processing | |
CN112420008A (en) | Method and device for recording songs, electronic equipment and storage medium | |
KR20180115994A (en) | Method and system for providing service based on user specific tts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120605 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120618 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150713 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5034599 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |